Conocimiento cultural para combatir el discurso de odio
Usando conocimientos culturales para mejorar los métodos de detección de discursos de odio.
― 7 minilectura
Tabla de contenidos
- Importancia del Conocimiento Cultural
- ¿Qué es un Léxico?
- ¿Cómo Ayuda el Léxico?
- Probando el Enfoque
- Los Riesgos de la Clasificación Errónea
- Importancia del Aprendizaje con Pocos Ejemplos
- Evaluando los Resultados
- Reuniendo Conocimiento Cultural
- Desafíos y Limitaciones
- Consideraciones Éticas
- Conclusión
- Fuente original
- Enlaces de referencia
El Discurso de odio es un problema serio que afecta a muchas comunidades en todo el mundo. Involucra usar palabras o expresiones que insultan o menosprecian a grupos específicos basados en su identidad, como su raza, religión u orientación sexual. Para abordar este tema, los investigadores están desarrollando métodos para detectar el discurso de odio en línea. Este artículo se centra en usar el Conocimiento Cultural para mejorar estos métodos de detección.
Importancia del Conocimiento Cultural
Trabajos recientes sugieren que el contexto cultural es importante al identificar el discurso de odio. Diferentes términos pueden tener distintos significados según el trasfondo cultural y las normas sociales. Por ejemplo, ciertas palabras pueden ser inocentes en un contexto pero ofensivas en otro. Por lo tanto, tener un buen entendimiento de las culturas locales puede ayudar mucho a crear sistemas de detección de discurso de odio más precisos.
¿Qué es un Léxico?
Un léxico es una colección de palabras y frases usadas en un campo o comunidad específica. En este caso, presentamos un léxico que incluye insultos y nombres de grupos objetivo relacionados con el discurso de odio en países como Brasil, Alemania, India y Kenia. Este léxico tiene como objetivo ayudar a los desarrolladores de tecnología a entender qué términos son dañinos y deberían ser marcados como discurso de odio.
¿Cómo Ayuda el Léxico?
El léxico tiene dos propósitos principales. Primero, ayuda a investigadores y desarrolladores a interpretar cómo sus modelos hacen predicciones sobre el discurso de odio. Al saber qué palabras están asociadas con lenguaje dañino, pueden entender mejor las decisiones del modelo. Esta comprensión puede llevar a mejoras en los modelos.
En segundo lugar, el léxico ayuda a seleccionar ejemplos de entrenamiento para desarrollar modelos de detección de discurso de odio, especialmente en situaciones donde solo hay algunos ejemplos disponibles. Cuando se entrena con datos limitados, seleccionar los ejemplos correctos es crucial para el éxito. Usar el léxico permite a los desarrolladores elegir ejemplos que contengan más información culturalmente relevante, lo que lleva a mejores resultados al entrenar los modelos.
Probando el Enfoque
Para verificar cuán efectivo es este léxico, los investigadores han realizado pruebas usando conjuntos de datos de hablantes de alemán e hindi. Estas pruebas comparan modelos entrenados con ejemplos elegidos según el léxico contra aquellos entrenados con ejemplos seleccionados al azar. Los resultados mostraron que los modelos que usaron el léxico tuvieron un rendimiento consistentemente mejor.
Los Riesgos de la Clasificación Errónea
Un problema significativo con la detección de discurso de odio es el riesgo de clasificar incorrectamente términos inocentes como dañinos. Por ejemplo, un modelo puede marcar una oración que menciona la palabra "musulmán" como discurso de odio cuando el contexto es neutral o positivo. Esto puede llevar a una mayor marginación de grupos vulnerables. El léxico ayuda a reducir este riesgo al proporcionar una mejor comprensión de cuándo los términos se usan de manera dañina.
Importancia del Aprendizaje con Pocos Ejemplos
El aprendizaje con pocos ejemplos es un método donde los modelos se entrenan con solo un pequeño número de ejemplos. Esto es especialmente útil en entornos de bajos recursos donde los datos son limitados. Seleccionar los ejemplos de entrenamiento correctos se vuelve aún más vital en estos casos. El léxico ofrece una forma de identificar qué ejemplos usar, mejorando el rendimiento del modelo incluso cuando los datos de entrenamiento son escasos.
Evaluando los Resultados
Los investigadores siguieron el rendimiento de diferentes modelos al mirar sus puntajes F1, una medida de precisión. Los modelos entrenados con ejemplos basados en el léxico superaron a aquellos entrenados con ejemplos aleatorios. Los investigadores encontraron que la muestreo basado en el léxico produjo resultados más consistentes, reduciendo las fluctuaciones de rendimiento que pueden ocurrir con el muestreo aleatorio.
Al examinar qué tan bien reconocieron los modelos el discurso de odio, los investigadores determinaron que los ejemplos de entrenamiento basados en el léxico eran más fáciles de clasificar correctamente. Esto indica que el léxico no solo mejora el rendimiento del modelo, sino que también ayuda a reducir el ruido y la ambigüedad en los datos de entrenamiento.
Reuniendo Conocimiento Cultural
Para desarrollar el léxico, los investigadores trabajaron con miembros de la comunidad que entendían sus respectivos contextos sociopolíticos. Estos miembros brindaron valiosa información sobre qué términos se consideraban ofensivos o despectivos. Este enfoque colaborativo aseguró que el léxico estuviera informado por experiencias del mundo real y no solo por suposiciones teóricas.
El léxico incluye términos que sirven como insultos, identifican grupos objetivo o pueden parecer neutrales en algunos contextos. Por ejemplo, la palabra "cuota" en alemán podría ser neutral en una discusión, pero podría usarse de manera despectiva contra las mujeres cuando se discute de cierta manera.
Desafíos y Limitaciones
Si bien el léxico es una herramienta útil, no es exhaustivo. La lista de palabras incluidas representa solo una parte de los términos usados en discusiones sobre el discurso de odio. El lenguaje está en constante evolución, y nuevos términos surgen con el tiempo. Por lo tanto, son necesarias actualizaciones continuas al léxico.
Además, la investigación se centra solo en unos pocos países e idiomas. Idealmente, se incluirían más culturas e idiomas para crear un recurso más completo. Esta expansión permitiría una mejor comprensión y detección del discurso de odio en un contexto más amplio.
Consideraciones Éticas
Manejar temas sensibles como el discurso de odio requiere consideraciones éticas. Los investigadores no apoyan el discurso de odio en ninguna forma; en cambio, buscan crear herramientas que ayuden a filtrarlo. Hay preocupación de que la publicación de los términos en el léxico pueda llevar a su mal uso. Sin embargo, dado que muchos de estos términos ya son ampliamente conocidos, el riesgo es mínimo.
Además, el léxico busca proporcionar protección a grupos marginados al aumentar la conciencia sobre sus experiencias y los términos que se usan en su contra. Es esencial entender los retos que enfrentan estas comunidades para desarrollar soluciones efectivas.
Conclusión
La lucha contra el discurso de odio en línea es compleja y requiere un entendimiento matizado del lenguaje y la cultura. Al introducir un léxico que se centra en insultos y nombres de grupos objetivo, los investigadores pueden mejorar la detección del discurso de odio en varios idiomas y contextos culturales. Este léxico no solo ayuda en el desarrollo de modelos, sino que también enfatiza la importancia de integrar el conocimiento cultural en la tecnología.
A medida que los investigadores continúan analizando y refinando sus enfoques, el objetivo es crear sistemas que estén mejor equipados para proteger a comunidades vulnerables y fomentar un entorno en línea más seguro.
Título: Sociocultural knowledge is needed for selection of shots in hate speech detection tasks
Resumen: We introduce HATELEXICON, a lexicon of slurs and targets of hate speech for the countries of Brazil, Germany, India and Kenya, to aid training and interpretability of models. We demonstrate how our lexicon can be used to interpret model predictions, showing that models developed to classify extreme speech rely heavily on target words when making predictions. Further, we propose a method to aid shot selection for training in low-resource settings via HATELEXICON. In few-shot learning, the selection of shots is of paramount importance to model performance. In our work, we simulate a few-shot setting for German and Hindi, using HASOC data for training and the Multilingual HateCheck (MHC) as a benchmark. We show that selecting shots based on our lexicon leads to models performing better on MHC than models trained on shots sampled randomly. Thus, when given only a few training examples, using our lexicon to select shots containing more sociocultural information leads to better few-shot performance.
Autores: Antonis Maronikolakis, Abdullatif Köksal, Hinrich Schütze
Última actualización: 2023-05-17 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2304.01890
Fuente PDF: https://arxiv.org/pdf/2304.01890
Licencia: https://creativecommons.org/licenses/by-sa/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.