Abordando el sesgo de palabras en clasificadores basados en prompts
Nuevos métodos mejoran la precisión de clasificación sin datos etiquetados.
― 7 minilectura
Tabla de contenidos
Los clasificadores basados en prompts están ganando popularidad para clasificar datos sin necesitar mucha información etiquetada. Sin embargo, la forma en que se eligen los prompts y etiquetas puede afectar mucho su rendimiento. A veces, incluso si dos prompts parecen similares, uno puede funcionar mucho mejor que el otro. Esta diferencia en rendimiento puede deberse al sesgo de palabras, donde un clasificador podría favorecer ciertas categorías sobre otras por las palabras utilizadas en los prompts.
Para resolver este problema, una forma tradicional es ajustar los umbrales de decisión basado en un conjunto de datos etiquetados. Sin embargo, esto puede reducir algunos de los beneficios de usar clasificadores basados en prompts. En cambio, un nuevo enfoque observa las probabilidades esperadas de cada categoría y las ajusta para asegurar equidad en general. Este método se puede realizar sin necesidad de datos etiquetados, lo que lo convierte en una opción útil para la clasificación sin entrenamiento previo.
Los modelos de lenguaje grandes (LLMs) han demostrado una gran capacidad para realizar diversas tareas relacionadas con el lenguaje humano. Pueden manejar diferentes tareas usando prompts, que son instrucciones simples dadas junto con los datos de entrada. Ese tipo de prompting puede surgir de hacer el modelo más grande o de entrenarlo específicamente con instrucciones. Aun así, estos modelos pueden ser muy sensibles a cómo se establecen los prompts y etiquetas, lo que puede llevar a rendimientos variados.
La investigación ha establecido que diferentes plantillas de prompts pueden tener un gran impacto en cuán bien se realiza una tarea. Factores como las palabras de etiqueta seleccionadas pueden también afectar significativamente los resultados, especialmente en tareas de clasificación. En lugar de depender de las probabilidades directas de salida de las palabras de etiqueta, este enfoque busca mitigar el sesgo de palabras usando pesos para equilibrar la salida de cada categoría. Esto significa ajustar las probabilidades de una manera que ayude a crear un clasificador más equilibrado.
El enfoque aquí es entender los sesgos de palabras en los clasificadores basados en prompts, lo que implica que ciertos prompts pueden inclinarse hacia categorías específicas sin importar el texto real que se analice. Mientras que algunos podrían sugerir usar conjuntos de datos etiquetados para encontrar los mejores umbrales para cada clase, eso puede limitar las ventajas de las clasificaciones basadas en prompts. La solución propuesta implica un método no supervisado para ajustar probabilidades que asegura que cada categoría sea tratada por igual.
Este ajuste tiene como objetivo hacer que el clasificador sea más robusto frente a diferentes configuraciones de prompts. El método propuesto implica averiguar parámetros de peso que se pueden usar para asegurar una distribución uniforme entre clases, incluso cuando solo están disponibles datos no etiquetados. Se ha demostrado que igualar estas distribuciones conduce a una mayor robustez. Además, los pesos del método no supervisado están estrechamente relacionados con los pesos óptimos que producirían la máxima precisión.
Para entender cómo funcionan los clasificadores basados en prompts, es crucial reconocer el proceso. Dada una secuencia de entrada, los LLMs proporcionarán una distribución de Probabilidad para todos los posibles resultados. Para una tarea de clasificación, un clasificador basado en prompts reformatea la entrada para incluir instrucciones de tarea y selecciona palabras de clase asociadas con cada categoría. Por ejemplo, en clasificación de sentimientos, uno podría preguntar: "¿Cuál es el sentimiento de esta reseña?" y proporcionar palabras de clase como “malo” para etiquetas negativas y “bueno” para etiquetas positivas.
Sin embargo, las probabilidades generadas por el modelo podrían verse influenciadas por la frecuencia con la que aparecen las palabras en los documentos. Esto podría llevar a un sesgo donde las palabras de etiqueta tienen altas probabilidades no porque reflejen con precisión la respuesta, sino porque son más comunes en el lenguaje usado por el modelo. Para solucionar esto, se pueden establecer parámetros de peso que escalonen las probabilidades del clasificador. Con un conjunto de datos etiquetado, los pesos óptimos pueden maximizar la precisión del clasificador.
Por otro lado, mucha gente prefiere técnicas de cero disparo, que no dependen de datos etiquetados. La solución propuesta encuentra los valores que aseguran que el clasificador permanezca imparcial, de modo que el prior para cada clase coincida con la verdadera distribución de clases. Bajo ciertas condiciones, es posible lograr un prior uniforme de clase a través de ajustes. Este método no supervisado ofrece una forma práctica de mejorar la precisión sin requerir datos etiquetados.
Si bien usar el emparejamiento de priors ofrece ventajas, también tiene desventajas, particularmente la dependencia de datos no etiquetados. Se puede crear una aproximación más simple usando salidas de una entrada nula, que es una cadena vacía. Esto proporciona una manera sencilla de obtener parámetros de peso sin necesidad de analizar innumerables documentos.
El rendimiento de los métodos propuestos se probó en benchmarks establecidos de procesamiento de lenguaje natural, incluyendo tareas como clasificación de sentimientos, inferencia de lenguaje natural y detección de paráfrasis. Los resultados mostraron que ambos métodos de reponderación mejoraron significativamente el rendimiento. Por ejemplo, el emparejamiento de priors aumentó la precisión en la clasificación de sentimientos entre un 6% y un 12%, y aún más en otras tareas.
La importancia de tener un enfoque robusto se hace evidente al ver los resultados. Cuando se usan simplemente las probabilidades de etiquetas crudas, el rendimiento era muy variable y a menudo decepcionante. En contraste, aplicar el emparejamiento de priors produjo resultados consistentes, manteniendo casi todas las configuraciones por encima de un nivel de precisión aceptable.
Más resultados mostraron que los métodos de reponderación mantuvieron un buen rendimiento a través de varios prompts. Los hallazgos indicaron que contar con el sesgo marginal coincidía estrechamente con optimizar la precisión, logrando gran parte de la misma efectividad sin necesidad de datos etiquetados. Además, las comparaciones con otros métodos ilustraron las ventajas de usar nuestras técnicas propuestas.
El análisis de los clasificadores basados en prompts destaca que el diseño de prompts y palabras de etiqueta debe hacerse con cuidado. El trabajo demostró soluciones no supervisadas efectivas para igualar probabilidades con el objetivo de desviar el sesgo del clasificador. Estos métodos disminuyen significativamente la sensibilidad a cómo se configuran los prompts y etiquetas.
Sin embargo, hay limitaciones a considerar. Aunque los métodos mejoran la robustez, no se debe asumir que todas las configuraciones funcionarán bien. Algunas configuraciones aún pueden producir resultados pobres. Al implementar clasificadores de aprendizaje automático en el mundo real, es esencial entender el riesgo involucrado y analizar los sistemas a fondo antes de desplegarlos.
En conclusión, los clasificadores basados en prompts presentan una forma innovadora de realizar clasificación sin entrenamiento previo. Los métodos no supervisados propuestos abordan de manera efectiva el sesgo de palabras y mejoran la robustez general frente a diferentes prompts y etiquetas. Esto tiene implicaciones significativas para la investigación futura en procesamiento de lenguaje natural, ofreciendo enfoques prácticos que se pueden usar sin conjuntos de datos etiquetados extensos. Estudios adicionales podrían explorar más tareas y diferentes modelos de lenguaje, permitiendo una comprensión más amplia de la efectividad de estos métodos.
Título: Mitigating Word Bias in Zero-shot Prompt-based Classifiers
Resumen: Prompt-based classifiers are an attractive approach for zero-shot classification. However, the precise choice of the prompt template and label words can largely influence performance, with semantically equivalent settings often showing notable performance difference. This discrepancy can be partly attributed to word biases, where the classifier may be biased towards classes. To address this problem, it is possible to optimise classification thresholds on a labelled data set, however, this mitigates some of the advantages of prompt-based classifiers. This paper instead approaches this problem by examining the expected marginal probabilities of the classes. Here, probabilities are reweighted to have a uniform prior over classes, in an unsupervised fashion. Further, we draw a theoretical connection between the class priors and the language models' word prior, and offer the ability to set a threshold in a zero-resource fashion. We show that matching class priors correlates strongly with the oracle upper bound performance and demonstrate large consistent performance gains for prompt settings over a range of NLP tasks.
Autores: Adian Liusie, Potsawee Manakul, Mark J. F. Gales
Última actualización: 2023-09-10 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2309.04992
Fuente PDF: https://arxiv.org/pdf/2309.04992
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.