Entendiendo las emociones en textos digitales
Un estudio sobre cómo detectar emociones en ensayos que responden a artículos de noticias.
― 7 minilectura
Tabla de contenidos
Últimamente, la cantidad de texto que se crea en línea ha crecido un montón. Esto incluye publicaciones en redes sociales, reseñas y comentarios en distintos foros online. Con este aumento de texto, se ha vuelto crucial entender los sentimientos y opiniones que se expresan en estas escrituras. Esto es importante por varias razones, como mejorar chatbots, analizar la satisfacción del cliente, monitorear lo que la gente dice sobre marcas y apoyar evaluaciones de salud mental.
Reconocer emociones en textos escritos no es una tarea fácil. Diferentes personas expresan sus sentimientos de maneras únicas, lo que hace que sea complicado para las máquinas captar el contexto emocional de las palabras. Nuestro trabajo se centró en clasificar emociones a partir de ensayos que responden a artículos de noticias, lo que añade otra capa de complejidad.
Desafío de Detección de Emociones
Participamos en una competencia dedicada a la clasificación de emociones, enfocándonos específicamente en ensayos que transmiten sentimientos en respuesta a historias de noticias. Esta tarea forma parte de un conjunto más amplio de desafíos relacionados con la comprensión de emociones, empatía y personalidades a partir de textos. En esta competencia, tuvimos que desarrollar modelos que pudieran predecir diferentes Categorías Emocionales a partir de contenido escrito.
En particular, nuestra tarea era categorizar emociones en treinta y una etiquetas diferentes. Estas categorías emocionales incluyen combinaciones de sentimientos como esperanza, tristeza, ira y más. Por ejemplo, un solo texto puede expresar alegría mezclada con tristeza o ira combinada con asco. Esta variedad hizo que la tarea fuera aún más difícil.
Datos Usados Para la Tarea
El conjunto de datos con el que trabajamos consistió en ensayos largos, generalmente de 300 a 800 palabras. Estos ensayos estaban relacionados con artículos de noticias e incluían detalles personales sobre los escritores, como su edad, nivel de ingresos y género. El conjunto de datos se dividió en tres partes: entrenamiento, desarrollo y prueba. Las etiquetas para las emociones solo se proporcionaron para los conjuntos de entrenamiento y desarrollo, lo que significaba que teníamos que predecir etiquetas para el conjunto de prueba sin ninguna pista.
Al examinar el conjunto de datos, quedó claro que la distribución de las categorías emocionales estaba desbalanceada. Algunas emociones tenían muy pocos ejemplos, lo que puede dificultar que los modelos aprendan de manera efectiva. Debido a esta desigualdad, ideamos una serie de pasos para preparar los datos para nuestros modelos.
Preparando los Datos
Para preparar el conjunto de datos para el análisis, tuvimos que limpiarlo y asegurarnos de que el texto fuera uniforme. Esto involucró varios pasos:
- Minúsculas: Cambiamos todo el texto a minúsculas para asegurar consistencia.
- Eliminación de Elementos Irrelevantes: Quitamos puntuación, caracteres especiales y otros elementos no estándar del texto.
- Manejo de Contracciones: Expandimos las contracciones (por ejemplo, "no" se convirtió en "no") para hacer la lengua más clara.
- Lematización y Stemming: Experimentamos con técnicas para reducir palabras a sus formas base, pero al final, descubrimos que esto no ayudaba a nuestro modelo, así que lo dejamos de lado.
Estos pasos ayudaron a crear una entrada más estandarizada para nuestros modelos, lo cual es crucial para lograr mejores resultados.
Técnicas de Modelado
Nuestro enfoque incluyó construir dos tipos diferentes de modelos para identificar emociones en los ensayos. El primer modelo se basó en BiLSTM (Memoria a Largo y Corto Plazo Bidireccional), que es un tipo de modelo de aprendizaje profundo muy adecuado para procesar secuencias, como oraciones en un texto.
Modelo Basado en BiLSTM
El modelo BiLSTM que desarrollamos contenía múltiples capas. Comenzó con una capa de embedding para transformar palabras en formas numéricas, seguida de dos capas de BiLSTM para analizar las secuencias. Finalmente, tuvimos una capa densa que llevó a la capa de salida para hacer predicciones sobre las emociones.
BERT
Modelo Basado en Transformer:El segundo modelo que creamos se basó en BERT (Representaciones de Codificador Bidireccional de Transformers), una técnica más avanzada para procesar lenguaje. Este modelo también tenía una capa de embedding, pero podía captar el contexto mejor que el modelo BiLSTM. BERT considera las palabras circundantes al formar su comprensión, lo que ayuda a entender el significado de manera más precisa.
Ambos modelos utilizaron embeddings de palabras preentrenados, que son representaciones numéricas de palabras construidas a partir de grandes Conjuntos de datos textuales. Usamos varios tipos de embeddings, incluyendo GloVe y fastText, así como los embeddings generados por BERT mismo.
Evaluando los Modelos
Evaluamos el rendimiento de nuestros dos modelos utilizando varias métricas, incluyendo el Macro F1-Score, que ayuda a medir qué tan bien el modelo funciona en diferentes categorías emocionales. Nuestro objetivo era averiguar cuál de nuestros modelos tuvo un mejor desempeño al clasificar las emociones en los ensayos.
Después de evaluar ambos modelos, el modelo BERT mostró resultados significativamente mejores en comparación con el modelo BiLSTM. Esto es particularmente interesante porque BERT es conocido por su capacidad para manejar el contexto de manera más efectiva, especialmente al lidiar con expresiones emocionales complejas en conjuntos de datos más pequeños.
Resultados
En la competencia, nuestro equipo alcanzó el décimo lugar, obteniendo un Macro F1-Score que destacó la capacidad de nuestro modelo para categorizar emociones de manera precisa. Los resultados fueron muy alentadores, mostrando que los modelos que construimos podían interpretar emociones a partir de texto incluso cuando enfrentaban un conjunto de datos desbalanceado.
Importancia de Nuestros Hallazgos
Reconocer emociones en el texto tiene muchas aplicaciones prácticas. Para las empresas, entender los sentimientos de los clientes puede llevar a mejores servicios y productos. Cuando las compañías monitorean redes sociales y reseñas, pueden medir la opinión pública y mejorar su imagen de marca.
Para los profesionales de salud mental, analizar el contenido emocional de los textos puede ofrecer información sobre el bienestar de una persona. Puede ayudar a identificar a individuos que pueden necesitar apoyo basado en sus expresiones emocionales en la escritura.
Trabajo Futuro
Aunque nuestro sistema funcionó bien, reconocimos los desafíos que presenta el desbalance en nuestro conjunto de datos. Hay espacio para mejorar. En el futuro, nuestro objetivo es centrarnos en técnicas que puedan gestionar mejor el desbalance de datos, posiblemente a través de métodos que aumenten la cantidad de datos disponibles para escritos cargados emocionalmente.
Al desarrollar nuevas estrategias para la augmentación de datos, esperamos abordar las limitaciones de trabajar con conjuntos de datos pequeños. Esto nos ayudará a entrenar modelos que no solo funcionen mejor, sino que también puedan adaptarse a varios contextos de manera más eficiente.
Conclusión
En resumen, nuestro trabajo destaca la importancia de la detección de emociones en textos escritos y muestra la efectividad de diferentes modelos de aprendizaje automático en este dominio. Nuestra participación en la tarea de clasificación de emociones demostró que incluso con desafíos como datos desbalanceados, es posible lograr resultados significativos.
Los hallazgos sirven como un punto de partida para futuras investigaciones destinadas a refinar modelos para capturar mejor el rico paisaje emocional que se encuentra en la comunicación humana. Estamos emocionados por las posibilidades que se presentan, ya que entender las emociones a través del texto puede llevar a avances en varios campos, desde el servicio al cliente hasta el análisis de salud mental.
Título: VISU at WASSA 2023 Shared Task: Detecting Emotions in Reaction to News Stories Leveraging BERT and Stacked Embeddings
Resumen: Our system, VISU, participated in the WASSA 2023 Shared Task (3) of Emotion Classification from essays written in reaction to news articles. Emotion detection from complex dialogues is challenging and often requires context/domain understanding. Therefore in this research, we have focused on developing deep learning (DL) models using the combination of word embedding representations with tailored prepossessing strategies to capture the nuances of emotions expressed. Our experiments used static and contextual embeddings (individual and stacked) with Bidirectional Long short-term memory (BiLSTM) and Transformer based models. We occupied rank tenth in the emotion detection task by scoring a Macro F1-Score of 0.2717, validating the efficacy of our implemented approaches for small and imbalanced datasets with mixed categories of target emotions.
Autores: Vivek Kumar, Sushmita Singh, Prayag Tiwari
Última actualización: 2023-07-27 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2307.15164
Fuente PDF: https://arxiv.org/pdf/2307.15164
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.