Abordando el odio en diferentes idiomas
Un proyecto tiene como objetivo identificar comentarios dañinos sobre LGBTQ+ en varios idiomas.
― 6 minilectura
Tabla de contenidos
En los últimos años, las Redes Sociales se han convertido en una plataforma poderosa para compartir opiniones y experiencias. Sin embargo, también ha habido un aumento en los comentarios negativos, especialmente los que son homofóbicos o transfóbicos. Este trabajo habla de un proyecto dirigido a crear un sistema para identificar este tipo de contenido dañino en varios idiomas.
Objetivos del Proyecto
El principal objetivo de este proyecto era desarrollar un sistema que pudiera clasificar los comentarios en redes sociales según si contenían discursos de odio hacia personas LGBTQ+. El proyecto se centró en cinco idiomas: inglés, español, hindi, malayalam y tamil. El equipo buscaba construir dos sistemas de clasificación: uno con tres categorías y otro con siete, cada uno identificando diferentes tipos de discurso negativo.
Cómo Funciona el Sistema
Para crear este sistema, el equipo utilizó un modelo de computadora conocido como BERT, que es efectivo para tareas de lenguaje. También usaron otro modelo llamado XLM-RoBERTa, que está entrenado en texto de muchos idiomas. Este modelo se volvió a entrenar usando comentarios de redes sociales que reflejan el uso local del lenguaje, haciéndolo más sensible a la forma en que la gente se comunica en línea.
El proyecto involucró recopilar y preparar un gran conjunto de comentarios de usuarios reaccionando a videos LGBTQ+ en YouTube. Estos datos se etiquetaron cuidadosamente en diferentes categorías, pero el equipo enfrentó algunos desafíos ya que no recibieron información detallada sobre cómo se anotaron los comentarios.
Datos de Entrenamiento
Para el proyecto, los organizadores proporcionaron datos en archivos .csv que incluían comentarios en los cinco idiomas objetivo. Los comentarios se categorizaron en diferentes grupos según si contenían discursos de odio o no. En total, había dos tareas principales a realizar. La primera tarea consistió en identificar tres clases de comentarios: comentarios homofóbicos, contenido no anti-LGBT+ y comentarios transfóbicos. La segunda tarea tuvo siete categorías: contra-discurso, diferentes tipos de contenido homofóbico y transfóbico, y ‘ninguno de los anteriores’.
Desafíos de Datos
Un desafío significativo en este proyecto fue la cantidad desigual de datos en cada grupo de idiomas. Algunos idiomas tenían más ejemplos que otros, lo que dificultaba entrenar un modelo efectivo. El equipo del proyecto señaló que los intentos anteriores de identificar discursos de odio en varios idiomas tuvieron éxitos variados, con algunos modelos funcionando mejor que otros.
Reentrenando el Modelo
El modelo XLM-RoBERTa fue entrenado inicialmente en un gran conjunto de datos que incluía varios idiomas, pero el equipo necesitaba mejorar su rendimiento para la tarea específica de identificar discursos de odio. Para hacer esto, recopilaron tweets de Twitter para el entrenamiento, asegurándose de que los tweets reflejaran el mismo tiempo y lugar que los comentarios de YouTube. Filtraron estos datos para hacerlos más relevantes eliminando caracteres innecesarios y enfocándose en preservar el estilo del lenguaje.
Además, el equipo creó muestras que mezclaban diferentes guiones de escritura. Por ejemplo, algunos tweets que estaban en malayalam fueron transliterados al guion latino. Este proceso se llevó a cabo para abordar la falta de ejemplos en malayalam romanizado dentro del modelo existente.
Ajustando el Modelo
Después de reentrenar el modelo con los nuevos datos, el equipo lo ajustó usando los datos de entrenamiento etiquetados. Usaron un método para sobre-muestrear las categorías con menos ejemplos para asegurarse de que el modelo tuviera suficiente material de entrenamiento para cada clase. El modelo se entrenó varias veces, evaluando continuamente su rendimiento para mejorar la precisión.
Resultados
El proyecto arrojó resultados prometedores. El modelo recién reentrenado mostró un mejor rendimiento en la identificación de discursos de odio en comparación con el modelo base. Para la primera tarea, malayalam obtuvo la puntuación más alta, mientras que el español tuvo la más baja. En la segunda tarea, malayalam también se desempeñó mejor entre los modelos, mostrando que el proceso de Reentrenamiento benefició enormemente el rendimiento. Sin embargo, hubo algunos resultados inesperados al mezclar guiones, donde el rendimiento varió significativamente entre los idiomas.
Abordando los Problemas
Detectar discursos de odio es una tarea desafiante debido a las diversas formas en que las personas expresan negatividad en línea. Los comentarios en redes sociales a menudo pueden ser sutiles, lo que requiere que los sistemas entiendan el contexto en lugar de simplemente buscar palabras específicas. El equipo reconoció que esta complejidad no se limita a un idioma o región, lo que hace que la tarea sea aún más crucial.
Para abordar las deficiencias en los datos, el equipo sugirió usar datos sintéticos para aumentar la diversidad. Estos datos sintéticos podrían ayudar a llenar vacíos en áreas poco representadas, mejorando potencialmente la efectividad general del modelo. La idea era crear más datos de entrenamiento que pudieran abordar sesgos y tener en cuenta las diferentes formas en que podría expresarse el Discurso de odio.
Aplicaciones en el Mundo Real
Los hallazgos de este proyecto tienen implicaciones significativas para monitorear discursos de odio en línea. Al refinar el modelo con datos específicos de idioma y región, puede ayudar a rastrear comentarios dañinos dirigidos a comunidades LGBTQ+. Esto es especialmente importante para idiomas que a menudo carecen de suficiente representación en modelos más grandes.
Conclusión
El proyecto demostró con éxito el potencial de modelos como XLM-RoBERTa para identificar discursos de odio en varios idiomas, especialmente cuando se reentrena con datos relevantes. Aunque hubo algunos resultados mixtos con la adición de datos mezclados de guiones, la mejora general en el rendimiento de clasificación resalta la importancia de adaptar los modelos al uso del lenguaje local.
De cara al futuro, el equipo planea continuar refinando sus métodos, incluyendo la exploración de técnicas como la inyección de ruido para fortalecer el sistema de clasificación. Con el trabajo continuo, se espera que estos modelos se vuelvan aún mejores en detectar y abordar discursos de odio en diferentes idiomas y regiones.
Título: cantnlp@LT-EDI-2023: Homophobia/Transphobia Detection in Social Media Comments using Spatio-Temporally Retrained Language Models
Resumen: This paper describes our multiclass classification system developed as part of the LTEDI@RANLP-2023 shared task. We used a BERT-based language model to detect homophobic and transphobic content in social media comments across five language conditions: English, Spanish, Hindi, Malayalam, and Tamil. We retrained a transformer-based crosslanguage pretrained language model, XLMRoBERTa, with spatially and temporally relevant social media language data. We also retrained a subset of models with simulated script-mixed social media language data with varied performance. We developed the best performing seven-label classification system for Malayalam based on weighted macro averaged F1 score (ranked first out of six) with variable performance for other language and class-label conditions. We found the inclusion of this spatio-temporal data improved the classification performance for all language and task conditions when compared with the baseline. The results suggests that transformer-based language classification systems are sensitive to register-specific and language-specific retraining.
Autores: Sidney G. -J. Wong, Matthew Durward, Benjamin Adams, Jonathan Dunn
Última actualización: 2023-08-24 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2308.10370
Fuente PDF: https://arxiv.org/pdf/2308.10370
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.