Generación automática de prompts en aprendizaje semisupervisado
Esta investigación automatiza el diseño de avisos y verbalizadores en el aprendizaje semi-supervisado, mejorando la eficiencia y el rendimiento.
― 4 minilectura
Tabla de contenidos
Los métodos de aprendizaje basados en prompts en el aprendizaje semi-supervisado (SSL) han ganado atención por su efectividad en varias tareas de comprensión del lenguaje natural (NLU). Sin embargo, crear múltiples prompts y verbalizadores de forma manual requiere un esfuerzo significativo y experiencia, lo que hace difícil implementarlo en diferentes conjuntos de datos. Este artículo presenta dos métodos para automatizar el diseño de prompts y la integración de verbalizadores en entornos de SSL, manteniendo el rendimiento.
Métodos
Diseño de Prompt Continuo
Proponemos usar varios Ejemplos de demostración y tokens de prompt aprendibles para crear prompts diversos. Este método reemplaza el diseño manual de prompts con un proceso automatizado, permitiendo flexibilidad en las tareas de SSL.
- Ejemplos de Demostración: Agregamos ejemplos diversos al prompt para mostrarle al modelo cómo debe responder. Esto ayuda a reducir la brecha entre los ejemplos y las tareas reales.
- Variación de Tokens Suaves: Al cambiar el número de tokens de prompt, incentivamos al modelo a aprender diferentes aspectos del lenguaje a partir de los datos de entrenamiento.
Verbalizadores Automáticos
Reemplazamos los verbalizadores manuales por automáticos para agilizar el proceso. Nos enfocamos en:
- Verbalizadores Prototípicos: Estos aprenden de los ejemplos y asignan etiquetas de clase basadas en patrones aprendidos.
Pipeline de Entrenamiento
El pipeline de entrenamiento integra prompts y verbalizadores automáticos con el marco existente de Entrenamiento que Aprovecha Patrones (PET). Transformamos las secuencias de entrada en un formato adecuado para el entrenamiento, donde el modelo debe predecir tokens enmascarados.
Procedimiento de Entrenamiento
- Modelos de Etiquetado: Varios modelos se entrenan usando datos etiquetados para crear etiquetas suaves para una gran cantidad de datos no etiquetados.
- Clasificador Final: Después de obtener etiquetas suaves, ajustamos un modelo de lenguaje pre-entrenado para clasificación.
Experimentos
Conjuntos de Datos
Probamos nuestros métodos en varios conjuntos de datos: AG's News, Yahoo Answers, MNLI, RTE y CB. Cada conjunto de datos sirve para diferentes necesidades de clasificación, que van desde la clasificación de temas hasta la relación textual.
Modelos Propuestos
- Demo+Soft Tokens PET: Este modelo combina ejemplos de demostración con tokens continuos.
- Variar Tokens Suaves PET: Este modelo ajusta el número de tokens continuos para mayor diversidad.
Resultados
Nuestros métodos superan a los métodos anteriores de última generación que dependían de prompts y verbalizadores manuales. La precisión promedio en las tareas muestra una mejora significativa, demostrando la efectividad de nuestro enfoque automatizado.
Análisis
Impacto de SSL
Nuestros resultados experimentales indican beneficios sustanciales de usar métodos de SSL en lugar de enfoques supervisados tradicionales. La introducción de diversidad a través de múltiples prompts mejora el proceso de aprendizaje.
Importancia de la Diversidad en los Prompts
Analizamos más a fondo el rol de los prompts diversos comparando el rendimiento en diferentes configuraciones. Los resultados indican que una mayor variedad de prompts conduce a mejores resultados.
Comparaciones de Línea Base
Comparamos nuestros modelos con enfoques manuales y modelos de línea base, demostrando que nuestros métodos automatizados pueden igualar o superar su rendimiento sin requerir esfuerzo humano.
Trabajo Futuro
En el futuro, buscamos explorar el potencial de congelar parámetros del modelo para un entrenamiento más eficiente y expandir nuestros métodos a otros idiomas más allá del inglés. También planeamos refinar cómo seleccionamos ejemplos de demostración para optimizar el entrenamiento del modelo.
Conclusión
En resumen, nuestra investigación revela que la generación automatizada de prompts y verbalizadores en SSL puede obtener resultados competitivos mientras reduce significativamente la necesidad de intervención humana en el diseño. Este trabajo allana el camino para marcos de procesamiento del lenguaje natural más escalables y eficientes.
Referencias
(Las referencias se incluyeron originalmente, pero no se mostrarán aquí para mantener la simplicidad.)
Título: Scalable Prompt Generation for Semi-supervised Learning with Language Models
Resumen: Prompt-based learning methods in semi-supervised learning (SSL) settings have been shown to be effective on multiple natural language understanding (NLU) datasets and tasks in the literature. However, manually designing multiple prompts and verbalizers requires domain knowledge and human effort, making it difficult and expensive to scale across different datasets. In this paper, we propose two methods to automatically design multiple prompts and integrate automatic verbalizer in SSL settings without sacrificing performance. The first method uses various demonstration examples with learnable continuous prompt tokens to create diverse prompt models. The second method uses a varying number of soft prompt tokens to encourage language models to learn different prompts. For the verbalizer, we use the prototypical verbalizer to replace the manual one. In summary, we obtained the best average accuracy of 73.2% (a relative improvement of 2.52% over even the previous state-of-the-art SSL method with manual prompts and verbalizers) in different few-shot learning settings.
Autores: Yuhang Zhou, Suraj Maharjan, Beiye Liu
Última actualización: 2023-02-18 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2302.09236
Fuente PDF: https://arxiv.org/pdf/2302.09236
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.
Enlaces de referencia
- https://pytorch.org/
- https://huggingface.co/
- https://github.com/thunlp/OpenPrompt
- https://doi.org/10.18653/v1/2022.acl-long.483
- https://doi.org/10.18653/v1/2021.findings-acl.161
- https://doi.org/10.18653/v1/2021.acl-long.295
- https://doi.org/10.18653/v1/2021.acl-long.381
- https://doi.org/10.18653/v1/2021.emnlp-main.243
- https://doi.org/10.18653/v1/2021.acl-long.353
- https://arxiv.org/abs/2110.07602
- https://doi.org/10.48550/ARXIV.1907.11692
- https://doi.org/10.18148/sub/2019.v23i2.601
- https://www.aclweb.org/anthology/2020.coling-main.488
- https://doi.org/10.18653/v1/2021.eacl-main.20
- https://doi.org/10.18653/v1/2020.emnlp-main.346
- https://doi.org/10.18653/v1/N18-1101
- https://proceedings.neurips.cc/paper/2015/file/250cf8b51c773f3f8dc8b4be867a9a02-Paper.pdf