Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Computación y lenguaje

Mejorando el Uso de Herramientas en Modelos de Lenguaje

Un nuevo método mejora cómo los modelos de lenguaje eligen y usan herramientas de manera efectiva.

― 5 minilectura


Herramientas para ModelosHerramientas para Modelosde Lenguaje Mejoradaslenguaje.selección de herramientas en modelos deUn nuevo método mejora el uso y la
Tabla de contenidos

Enseñar a los modelos de lenguaje a usar herramientas es un gran paso para crear asistentes útiles, pero sigue siendo un gran desafío. Aunque ha habido cierto éxito en entrenar a estos modelos para usar herramientas específicas, a menudo les cuesta aprender a usar herramientas nuevas de manera efectiva después de solo algunos ejemplos. Este artículo habla de un nuevo método que ayuda a los modelos de lenguaje a elegir y usar herramientas mejor.

La Importancia del Uso de herramientas en Modelos de Lenguaje

Los modelos de lenguaje (LMs) ahora se usan en varias aplicaciones, desde soporte al cliente hasta proporcionar información. Una habilidad importante para estos modelos es usar herramientas como APIs u otras funciones para obtener información o realizar tareas de manera eficiente. Sin embargo, las herramientas que necesitan usar suelen actualizarse o se introducen nuevas con frecuencia, lo que dificulta que los LMs se mantengan al día.

Actualmente, los LMs necesitan ejemplos de cómo usar estas herramientas, lo que se llama "prompts". Sin embargo, depender solo de ejemplos puede llevar a errores. Nuestra meta es asegurarnos de que los LMs puedan elegir la herramienta correcta y usarla bien, incluso cuando no la han visto antes.

Método de Auto-Verificación

Para ayudar a los modelos de lenguaje a elegir las herramientas correctas y usarlas mejor, presentamos un método llamado auto-verificación. Este método ayuda al modelo a hacerse preguntas específicas cuando necesita seleccionar una herramienta o generar parámetros.

Dos Pasos Clave

Desglosamos el proceso de usar una herramienta en dos pasos principales:

  1. Selección de herramientas: Aquí, el modelo necesita elegir la herramienta más adecuada de una lista.
  2. Generación de Parámetros: Después de seleccionar la herramienta, el modelo determina la configuración o los parámetros correctos para usar con esa herramienta.

En ambos pasos, utilizamos preguntas de verificación para ayudar al modelo a tomar mejores decisiones.

Creando un Conjunto de datos de entrenamiento

Para entrenar nuestro modelo, creamos un conjunto de datos de herramientas sintéticas. Este conjunto de datos consiste en nombres de herramientas, descripciones y ejemplos de prompts para guiar al modelo en la selección de la herramienta correcta.

Generando Herramientas Sintéticas

Comenzamos seleccionando algunas herramientas "semilla" y sus descripciones. Luego, usamos un modelo de lenguaje para generar opciones de herramientas adicionales basadas en estos ejemplos. Esto nos ayudó a crear un conjunto diverso de herramientas con un esfuerzo manual mínimo.

Construyendo Ejemplos de Entrenamiento

Para cada herramienta, creamos instrucciones sobre cómo debería usarse. Cada ejemplo de entrenamiento contiene una instrucción del usuario, una lista de herramientas candidatas (incluyendo la correcta) y el razonamiento que explica por qué se eligió una herramienta en particular.

Nuestro conjunto de entrenamiento incluye 173 herramientas, con un total de 555 ejemplos. Esta variedad ayuda al modelo a aprender a generalizar a partir de los datos de entrenamiento a nuevas herramientas que no ha encontrado antes.

Proceso de Selección de Herramientas

Durante la etapa de selección de herramientas, el modelo mira una lista de herramientas disponibles y sus descripciones para elegir la correcta solo con esta información. Este enfoque evita la necesidad de demostraciones, permitiendo al modelo usar un conjunto más grande de herramientas.

Usando Auto-Verificación para la Selección de Herramientas

Cuando el modelo selecciona una herramienta, genera dos opciones principales basadas en la instrucción del usuario. Para reducir las opciones, luego crea una pregunta de verificación contrastiva para ayudar a diferenciar entre las dos opciones. Esta pregunta se centra en los detalles específicos que distinguen a las herramientas.

El modelo responde la pregunta y añade esta información al contexto para ayudar en la selección final.

Generando Parámetros

Después de seleccionar una herramienta, el modelo procede a generar los parámetros necesarios para usar la herramienta. Esto se hace a través de "few-shot prompting", donde el modelo se refiere a ejemplos específicos de esa herramienta.

Verificación para la Generación de Parámetros

Similar a la selección de herramientas, implementamos verificación durante la generación de parámetros. El modelo genera dos conjuntos de opciones de parámetros y hace una pregunta de verificación sobre cuál parámetro es apropiado según la instrucción del usuario.

Evaluación y Resultados

Evaluamos nuestro método usando un benchmark llamado ToolBench, que consiste en varias tareas con herramientas no vistas. Nuestros experimentos muestran mejoras significativas en el rendimiento usando auto-verificación.

Tasas de Éxito

Los resultados demuestran que nuestro método propuesto mejora la precisión en la selección de herramientas y la generación de parámetros por un porcentaje notable en comparación con los métodos tradicionales de prompting. Las preguntas de verificación ayudan a reducir errores y a tomar mejores decisiones.

Conclusión

La capacidad de usar herramientas de manera efectiva es crucial para los modelos de lenguaje, especialmente a medida que emergen nuevas herramientas con frecuencia. Nuestro método de auto-verificación mejora la forma en que los modelos eligen y utilizan herramientas al permitirles hacerse preguntas que aclaran sus elecciones. Este avance lleva a un mejor rendimiento y adaptabilidad en situaciones del mundo real.

Trabajo Futuro

Mirando hacia el futuro, hay potencial para refinar aún más nuestros métodos. Podemos explorar cómo desarrollar este enfoque para escenarios de uso de herramientas más complejos, incluyendo tareas que requieren usar múltiples herramientas a la vez. Además, pruebas más completas en diversas tareas y configuraciones ayudarán a validar nuestros resultados.

Al mejorar la capacidad de los modelos de lenguaje para usar herramientas con precisión, podemos desarrollar asistentes más efectivos y versátiles que satisfagan una gama más amplia de necesidades de los usuarios.

Fuente original

Título: TOOLVERIFIER: Generalization to New Tools via Self-Verification

Resumen: Teaching language models to use tools is an important milestone towards building general assistants, but remains an open problem. While there has been significant progress on learning to use specific tools via fine-tuning, language models still struggle with learning how to robustly use new tools from only a few demonstrations. In this work we introduce a self-verification method which distinguishes between close candidates by self-asking contrastive questions during (1) tool selection; and (2) parameter generation. We construct synthetic, high-quality, self-generated data for this goal using Llama-2 70B, which we intend to release publicly. Extensive experiments on 4 tasks from the ToolBench benchmark, consisting of 17 unseen tools, demonstrate an average improvement of 22% over few-shot baselines, even in scenarios where the distinctions between candidate tools are finely nuanced.

Autores: Dheeraj Mekala, Jason Weston, Jack Lanchantin, Roberta Raileanu, Maria Lomeli, Jingbo Shang, Jane Dwivedi-Yu

Última actualización: 2024-03-13 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2402.14158

Fuente PDF: https://arxiv.org/pdf/2402.14158

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares