Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Computación y lenguaje

CARP: Un Nuevo Enfoque para la Clasificación de Textos

CARP mejora el rendimiento de LLM en la clasificación de textos mediante la recopilación de pistas y el razonamiento.

― 5 minilectura


CARP: Clasificación deCARP: Clasificación deTexto Reimaginadarazonamiento.clasificación a través de pistas yCARP mejora la precisión de
Tabla de contenidos

Los modelos de lenguaje grandes (LLMs) como GPT-3 han avanzado un montón en tareas de clasificación de texto. Pero aún así, estos modelos no llegan a la altura de los modelos tradicionales en este aspecto. Esto se debe principalmente a dos razones: su incapacidad para razonar con un lenguaje complejo y el número limitado de ejemplos que pueden usar mientras aprenden. Para enfrentar estos desafíos, proponemos un nuevo enfoque llamado Clue And Reasoning Prompting (CARP).

¿Qué es CARP?

CARP es un método pensado para mejorar la clasificación de texto usando LLMs. Se centra en usar pistas y razonamiento de manera paso a paso para hacer mejores predicciones. En vez de confiar solo en la información superficial del texto, CARP anima al modelo a profundizar y entender el significado subyacente. Este enfoque incluye tres pasos principales: encontrar pistas, razonar con esas pistas y tomar una Decisión Final.

Encontrando Pistas

El primer paso en CARP es identificar pistas relevantes en el texto. Las pistas pueden ser desde palabras clave y frases hasta tonos y referencias. Por ejemplo, en una oración como “Esta película es una obra maestra emocionante,” las pistas podrían incluir palabras como “emocionante” y “obra maestra.” Estas palabras clave ayudan al modelo a entender el sentimiento que se está expresando.

Proceso de Razonamiento

Después de recolectar las pistas, el siguiente paso es razonar. Esto implica tomar las pistas identificadas y usarlas para formar una comprensión más completa del texto. Por ejemplo, si las pistas sugieren un tono positivo, el modelo puede considerar esto junto con cualquier información contradictoria para llegar a una conclusión equilibrada. El proceso de razonamiento ayuda a asegurar que el modelo no se conforme con la primera conclusión, sino que considere varias perspectivas.

Decisión Final

Una vez que se han recolectado las pistas y se ha realizado el razonamiento, el modelo puede llegar a una decisión final. Esta decisión tomará en cuenta toda la información procesada hasta el momento. En nuestro ejemplo, si la mayoría de las pistas se inclinan hacia un sentimiento positivo, el modelo concluiría que el sentimiento general es positivo.

Abordando las Limitaciones de Tokens

Un desafío de usar LLMs es el límite en el número de tokens que pueden procesar. Para solucionar esto, CARP utiliza un modelo ajustado que ha sido entrenado con datos etiquetados. Este modelo ayuda a recuperar ejemplos más relevantes para usar durante el proceso de clasificación, incluso cuando se trabaja dentro de las limitaciones de tokens. Al combinar las habilidades de generalización de los LLMs con información específica de la tarea, CARP puede obtener mejores resultados.

Mejoras en el Rendimiento

El enfoque CARP ha demostrado superar los métodos tradicionales de clasificación de texto en varios benchmarks. Nuestros resultados indican que CARP logra un rendimiento de última generación en cuatro de cinco tareas comunes de clasificación de texto. Por ejemplo, en el conjunto de datos SST-2, CARP obtuvo 97.39, que es 1.24 puntos más que los mejores puntajes anteriores.

Escenarios de Bajos Recursos

Una gran ventaja de CARP es su efectividad en situaciones de bajos recursos. En escenarios donde solo hay disponibles unos pocos ejemplos por categoría, CARP todavía rinde bien. Por ejemplo, con solo 16 ejemplos por clase, CARP puede igualar el rendimiento de modelos estándar entrenados con conjuntos de datos más grandes. Esto hace que CARP sea especialmente útil en situaciones del mundo real donde los datos etiquetados pueden ser escasos.

Adaptación de Dominio

Otra área donde CARP brilla es en la adaptación de dominio. Esto significa que CARP puede clasificar efectivamente textos de diferentes fuentes o temas, incluso si fue entrenado con un tipo de datos diferente. Por ejemplo, si un modelo está entrenado en reseñas de películas, todavía puede generalizar bien al evaluar reseñas de productos.

El Futuro de CARP

Hacia adelante, vemos un gran potencial en usar CARP para diversas tareas de lenguaje natural más allá de la clasificación de texto. Su método de combinar la recolección de pistas y el razonamiento podría aplicarse para mejorar la comprensión en otras áreas, como el análisis de sentimientos, el reconocimiento de entidades y más.

Conclusión

En resumen, Clue And Reasoning Prompting (CARP) ofrece una solución prometedora para las tareas de clasificación de texto. Al centrarse en encontrar pistas, involucrarse en el razonamiento y tomar decisiones informadas, CARP puede superar los métodos tradicionales, especialmente en situaciones de bajos recursos y en la adaptación de dominio. A medida que las capacidades de los modelos de lenguaje siguen creciendo, enfoques como CARP jugarán un papel esencial en mejorar su rendimiento en varias aplicaciones.

Fuente original

Título: Text Classification via Large Language Models

Resumen: Despite the remarkable success of large-scale Language Models (LLMs) such as GPT-3, their performances still significantly underperform fine-tuned models in the task of text classification. This is due to (1) the lack of reasoning ability in addressing complex linguistic phenomena (e.g., intensification, contrast, irony etc); (2) limited number of tokens allowed in in-context learning. In this paper, we introduce Clue And Reasoning Prompting (CARP). CARP adopts a progressive reasoning strategy tailored to addressing the complex linguistic phenomena involved in text classification: CARP first prompts LLMs to find superficial clues (e.g., keywords, tones, semantic relations, references, etc), based on which a diagnostic reasoning process is induced for final decisions. To further address the limited-token issue, CARP uses a fine-tuned model on the supervised dataset for $k$NN demonstration search in the in-context learning, allowing the model to take the advantage of both LLM's generalization ability and the task-specific evidence provided by the full labeled dataset. Remarkably, CARP yields new SOTA performances on 4 out of 5 widely-used text-classification benchmarks, 97.39 (+1.24) on SST-2, 96.40 (+0.72) on AGNews, 98.78 (+0.25) on R8 and 96.95 (+0.6) on R52, and a performance comparable to SOTA on MR (92.39 v.s. 93.3). More importantly, we find that CARP delivers impressive abilities on low-resource and domain-adaptation setups. Specifically, using 16 examples per class, CARP achieves comparable performances to supervised models with 1,024 examples per class.

Autores: Xiaofei Sun, Xiaoya Li, Jiwei Li, Fei Wu, Shangwei Guo, Tianwei Zhang, Guoyin Wang

Última actualización: 2023-10-09 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2305.08377

Fuente PDF: https://arxiv.org/pdf/2305.08377

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares