Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Computación y lenguaje

Mejorando la factualidad en modelos de lenguaje con decodificación colaborativa

Un método para mejorar la precisión en modelos de lenguaje grandes mientras se asegura respuestas variadas.

― 8 minilectura


Aumento de Precisión deAumento de Precisión deIA con Colaboraciónrespuestas.modelo de lenguaje y la variedad deUn nuevo método mejora la veracidad del
Tabla de contenidos

Los modelos de lenguaje grande (LLMs) como ChatGPT y LLaMA-2 se han vuelto herramientas importantes para muchas aplicaciones. Aprenden de un montón de datos durante su proceso de entrenamiento, que incluye preentrenamiento y ajuste fino. Aunque estos modelos pueden entender instrucciones y generar respuestas seguras, a veces tienen problemas para recordar información factual correctamente. Esto puede hacer que inventen datos incorrectos o "alucinen" información cuando se les hacen preguntas.

Para mejorar su Factualidad, los investigadores han estado buscando mejores maneras de controlar cómo estos modelos crean respuestas. Este artículo habla de un nuevo método llamado Decodificación colaborativa, que busca mejorar la precisión de los LLMs mientras mantiene su naturaleza flexible y útil.

El reto de la factualidad

Cuando los LLMs se entrenan, pasan por dos fases principales: preentrenamiento y ajuste fino. Durante el preentrenamiento, aprenden de un vasto conjunto de datos de texto, recogiendo conocimientos fácticos sobre el mundo. En la fase de ajuste fino, estos modelos se ajustan según pautas específicas para seguir las preferencias humanas y generar respuestas más seguras. Sin embargo, este ajuste fino a menudo afecta su capacidad para recordar hechos con precisión.

Además de esto, cuando los usuarios interactúan con los LLMs, normalmente usan un método llamado muestreo para obtener respuestas. Esta técnica introduce un elemento de aleatoriedad, que puede ser problemático para datos que necesitan ser precisos, como números o nombres. Estos problemas llevan a una mayor probabilidad de que los modelos produzcan respuestas incorrectas o engañosas, lo que se conoce como el problema de alucinación de factualidad.

Soluciones actuales

Se han sugerido muchos métodos para abordar este problema de alucinación. Algunos enfoques implican usar recursos adicionales, como recopilar información de bases de datos externas para apoyar las respuestas. Otros métodos ajustan los modelos internamente sin necesidad de datos de entrenamiento adicionales. Sin embargo, estos ajustes internos a menudo requieren un ajuste específico del modelo, lo que puede reducir su efectividad en diferentes contextos.

Este artículo presenta una estrategia interna para lidiar con la alucinación sin necesidad de datos de entrenamiento personalizados. El objetivo es mejorar la factualidad del modelo controlando cuidadosamente cómo se genera cada token, o pieza de información. Al centrarnos solo en un pequeño número de tokens importantes, podemos maximizar el uso del conocimiento fáctico aprendido durante el preentrenamiento.

Tokens críticos

En este contexto, los tokens críticos se refieren a palabras o frases específicas que tienen un impacto significativo en la veracidad general de una respuesta. Estos pueden incluir nombres propios, fechas y números. Si estos tokens no se generan con precisión, toda la respuesta puede volverse engañosa o incorrecta.

Podemos categorizar estos tokens críticos como aquellos que no toleran variaciones. Por ejemplo, el nombre de una persona famosa debe ser exactamente correcto. Si hay algún cambio, como un error tipográfico, puede llevar a confusiones. El enfoque de nuestra investigación se centra en identificar estos tokens críticos y asegurarnos de que provengan del modelo más confiable disponible.

El marco de decodificación colaborativa

El enfoque de decodificación colaborativa busca combinar las fortalezas de dos modelos: un modelo preentrenado que posee un fuerte conocimiento fáctico y un modelo ajustado que puede seguir bien las instrucciones. La idea principal es usar un clasificador para determinar qué modelo debe generar cada token crítico.

  1. Configuración del clasificador: Se configura un clasificador especial para identificar tokens críticos dentro de las respuestas. Este clasificador ayuda a decidir qué modelo debe liderar la generación de cada token.

  2. Generación de tokens: Una vez que se identifica el token crítico, el sistema elige el modelo más adecuado para la generación de ese token. Para los tokens que requieren alta precisión, se utilizará el modelo preentrenado de manera directa, mientras que los tokens regulares pueden ser generados por el modelo alineado.

  3. Eficiencia: Este enfoque busca asegurar que se mantenga la precisión fáctica mientras se permite respuestas variadas e interesantes. Al usar selectivamente el modelo más preciso solo para tokens críticos, minimizamos el impacto en la calidad general de la generación.

Recolección de datos para tokens críticos

Para entrenar el clasificador de manera efectiva, necesitamos recopilar un gran conjunto de datos de ejemplos. El proceso de generación de datos implica pedir a un modelo de lenguaje que cree preguntas fácticas basadas en artículos existentes. Después de generar las preguntas, el mismo modelo proporciona respuestas que luego se analizan para identificar los tokens críticos.

Este conjunto de datos contiene varias instancias donde las entradas incluyen tanto preguntas como sus respuestas, y las salidas incluyen etiquetas que indican si los tokens son críticos. Con más de 131,000 ejemplos de entrenamiento, este conjunto de datos proporciona una sólida base para entrenar el clasificador de tokens críticos.

Entrenando el clasificador de tokens críticos

Con el conjunto de datos listo, podemos entrenar un modelo para predecir si un token específico es crítico. Esto implica usar un método de clasificación binaria donde el modelo decide si un token debe considerarse importante para asegurar la corrección de la respuesta.

Se entrenan diferentes versiones del modelo para evaluar el rendimiento. El que se centra en identificar tokens críticos tiende a tener un mejor desempeño en varios escenarios. Este modelo entrenado es el que se utilizará en el marco de decodificación colaborativa para tomar decisiones en tiempo real sobre la generación de tokens.

Decodificación colaborativa en acción

La estrategia de decodificación colaborativa se puede ver como un enfoque de trabajo en equipo entre los dos modelos. Cada modelo tiene sus fortalezas y, al trabajar juntos, pueden proporcionar mejores respuestas.

  • El modelo alineado genera un token basado en las indicaciones del usuario y el historial de conversación.
  • El clasificador de tokens críticos luego evalúa si este token es crítico aprovechando la salida del modelo entrenado.
  • Si el clasificador señala que el token se considera crítico, el modelo preentrenado toma el mando y genera ese token específico utilizando un método preciso.

Este proceso se repite hasta que se forma una respuesta completa, asegurando que la información crítica se mantenga precisa mientras se permite un flujo natural del lenguaje.

Evaluación y resultados

Para evaluar la efectividad de la estrategia de decodificación colaborativa, el enfoque propuesto se prueba contra varios métodos bien establecidos en diferentes conjuntos de datos. El objetivo es evaluar qué tan bien el método reduce la alucinación de factualidad en comparación con técnicas existentes.

Se establecen varios puntos de referencia, incluidos TriviaQA y NaturalQuestions, que ayudan a medir cuán precisamente las respuestas generadas se alinean con respuestas fácticas correctas. A través de estas evaluaciones, el marco de decodificación colaborativa muestra consistentemente un rendimiento superior a los métodos tradicionales.

Rendimiento en diferentes modelos

En experimentos que utilizan modelos de diferentes tamaños, la estrategia de decodificación colaborativa demuestra su robustez. Al vincular Modelos Alineados más pequeños con Modelos Preentrenados más grandes, logramos mejoras significativas en factualidad sin sacrificar la variedad de respuestas.

Los resultados ilustran que incluso al usar diferentes familias de modelos, el marco se mantiene fuerte. Esto indica su adaptabilidad y potencial para una amplia aplicación en varios sistemas de IA.

Conclusión

Este trabajo presenta un enfoque innovador para mejorar la factualidad de los modelos de lenguaje grandes a través de la decodificación colaborativa. Al centrarse en tokens críticos y utilizar un sistema de doble modelo, el marco mejora efectivamente la fiabilidad de las respuestas generadas.

Si bien los modelos actuales ya son potentes, este método ofrece una forma de cerrar las brechas en la precisión fáctica, asegurando que los usuarios reciban información correcta y confiable. Futuros estudios buscan refinar aún más este enfoque y explorar caminos adicionales para mejorar las capacidades de los modelos de lenguaje, expandiendo el potencial de la IA en varios campos.

Al considerar cuidadosamente cómo colaboran los modelos y cómo se genera la información, abrimos el camino para sistemas de IA más inteligentes y verídicos, que pueden servir mejor las necesidades de los usuarios en un mundo cada vez más impulsado por datos.

Fuente original

Título: Collaborative decoding of critical tokens for boosting factuality of large language models

Resumen: The most common training pipeline for large language models includes pretraining, finetuning and aligning phases, with their respective resulting models, such as the pretrained model and the finetuned model. Finetuned and aligned models show improved abilities of instruction following and safe generation, however their abilities to stay factual about the world are impacted by the finetuning process. Furthermore, the common practice of using sampling during generation also increases chances of hallucination. In this work, we introduce a collaborative decoding framework to harness the high factuality within pretrained models through the concept of critical tokens. We first design a critical token classifier to decide which model to use for the next token, and subsequently generates the next token using different decoding strategies. Experiments with different models and datasets show that our decoding framework is able to reduce model hallucination significantly, showcasing the importance of the collaborative decoding framework.

Autores: Lifeng Jin, Baolin Peng, Linfeng Song, Haitao Mi, Ye Tian, Dong Yu

Última actualización: 2024-02-27 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2402.17982

Fuente PDF: https://arxiv.org/pdf/2402.17982

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares