Sci Simple

New Science Research Articles Everyday

# Informática # Computación y lenguaje

Enfrentando el Discurso de Odio: Un Reto Global

Este artículo examina las leyes de discurso de odio y los métodos de detección en todo el mundo.

Katerina Korre, John Pavlopoulos, Paolo Gajo, Alberto Barrón-Cedeño

― 7 minilectura


Luchando contra el Luchando contra el discurso de odio en todo el mundo discurso de odio. Explorando leyes y tecnología contra el
Tabla de contenidos

El Discurso de odio es un tema serio en la sociedad actual. No es solo un problema en línea; puede llevar a consecuencias reales. Los países están tratando de lidiar con esto creando leyes que convierten el discurso de odio en un acto punible. Sin embargo, estas leyes varían de un país a otro, lo que hace difícil que las plataformas en línea manejen efectivamente los informes de discurso de odio.

¿Qué es el discurso de odio?

El discurso de odio es cualquier forma de comunicación que menosprecia, acosa o incita a la violencia contra individuos o grupos basados en su raza, religión, género o cualquier otra característica. Puede aparecer en muchas formas: comentarios en línea, publicaciones en redes sociales o incluso discursos. El desafío es que lo que una persona considera discurso de odio puede no ser visto de la misma manera por otra. Esta subjetividad hace que sea complicado crear una definición clara y universal.

El panorama Legal

Los diferentes países tienen diferentes leyes sobre el discurso de odio, y hay tres enfoques principales para definirlo:

  1. Basado en el contenido: Este enfoque mira el lenguaje en sí. Si las palabras son generalmente consideradas ofensivas, caen en esta categoría.

  2. Basado en la intención: Este método se centra en la intención del hablante. Si alguien busca incitar odio o violencia contra un grupo en particular, califica como discurso de odio.

  3. Basado en el daño: Esta perspectiva considera el daño hecho a la víctima, como angustia emocional o exclusión social.

Estos enfoques tienen algo en común: todos buscan proteger a individuos y comunidades del lenguaje dañino.

La necesidad de un marco unificado

Crear un marco universal para detectar el discurso de odio es complicado porque no existe una sola definición. Diferentes culturas interpretan el lenguaje y el contexto de manera diferente. Por ejemplo, un chiste en un contexto puede ser ofensivo en otro. Por eso los investigadores están enfocándose en las leyes existentes sobre el discurso de odio. Estas leyes pueden proporcionar una base más clara para entender qué constituye un discurso de odio procesable.

Preguntas de investigación

Al intentar abordar el problema de la detección del discurso de odio, surgen ciertas preguntas:

  1. ¿Cómo influye el uso de definiciones legales en el acuerdo entre expertos al identificar el discurso de odio?
  2. ¿Se reflejan las variaciones en el acuerdo de los expertos en el rendimiento de los Modelos de aprendizaje automático en la detección del discurso de odio?
  3. Dadas las dificultades para recopilar datos sobre discurso de odio procesable, ¿pueden los datos generados por modelos de aprendizaje automático mejorar el rendimiento en la detección?

Recolección de datos

Para responder a estas preguntas, los investigadores recopilan datos de casos de discurso de odio en tres países: Grecia, Italia y el Reino Unido. Al analizar las leyes y consultar a expertos, crean un conjunto de datos que sirve para entender las implicaciones legales y mejorar los métodos de detección del discurso de odio.

Proceso de anotación

El conjunto de datos incluye varios ejemplos de lo que podría considerarse discurso de odio. Expertos en derecho y criminología evalúan estos ejemplos según las leyes nacionales. Cada experto revisa los mismos casos y los etiqueta según si creen que el discurso de odio es procesable o no. El proceso lleva tiempo y requiere una comprensión profunda de las leyes en cada país.

Los desafíos de la anotación

A lo largo del proceso de anotación, los expertos a menudo no están de acuerdo. Esta inconsistencia puede llevar a confusión sobre lo que constituye discurso de odio. Algunos casos son claros, pero otros requieren una investigación extensa para interpretar el lenguaje y la intención. Factores como el contexto, el momento y los eventos actuales juegan un papel significativo en cómo se percibe el discurso de odio. Los expertos a menudo tienen opiniones diferentes basadas en sus antecedentes y experiencias únicas.

Modelos de aprendizaje automático

Una vez creado el conjunto de datos, los investigadores recurren a modelos de aprendizaje automático para analizar los datos. Se emplean varios modelos preentrenados para ver si pueden identificar con precisión los casos de discurso de odio. El objetivo no es solo automatizar el proceso de detección, sino también asegurar que estos modelos entiendan las sutilezas de las leyes en las que están entrenados.

Evaluación del rendimiento

Después de entrenar los modelos, los investigadores evalúan su rendimiento midiendo las tasas de error. Las tasas de error más bajas indican un mejor rendimiento. Los modelos son sometidos a numerosas pruebas para determinar qué tan bien interpretan el discurso de odio basado en los marcos legales de cada país.

Desafíos en el rendimiento del modelo

A pesar de los avances en el aprendizaje automático, los modelos aún tienen dificultades para captar los aspectos más sutiles del discurso de odio. Tienden a ser demasiado cautelosos, a menudo etiquetando los casos como "no procesables". Esta vacilación refleja las complejidades que enfrentan los expertos humanos al determinar qué constituye un discurso de odio.

El papel de los modelos de lenguaje grandes

Los investigadores también experimentan con modelos de lenguaje más grandes para explorar su efectividad en la detección del discurso de odio. Estos modelos se prueban con varias técnicas para ver si pueden mejorar la precisión de la clasificación del discurso de odio. Sin embargo, los resultados muestran que estos modelos a menudo no logran incluir las sutilezas legales que los expertos humanos comprenden.

Conclusión y trabajo futuro

La detección del discurso de odio es una tarea complicada que combina desafíos legales, sociales y lingüísticos. Este estudio destaca la importancia del conocimiento legal en el desarrollo de algoritmos de aprendizaje automático capaces de detectar el discurso de odio de manera precisa. Sin embargo, está claro que la intervención humana sigue siendo esencial en este proceso.

En el futuro, los investigadores planean ampliar sus estudios para incluir leyes de más países y varias perspectivas culturales. Al refinar continuamente estos métodos, buscan crear un sistema más efectivo para identificar y combatir el discurso de odio.

Consideraciones éticas

Mientras trabajan para detectar el discurso de odio, es esencial mantener un equilibrio entre proteger la libertad de expresión y prevenir el daño. Los investigadores se adhieren a pautas éticas y consideran las implicaciones en el mundo real de su estudio, asegurando que su trabajo no infrinja involuntariamente los derechos de las personas.

En última instancia, esta investigación busca hacer del espacio en línea un lugar más seguro mientras se respetan los derechos de los usuarios en diferentes plataformas. El objetivo es fomentar un entorno donde el discurso respetuoso pueda prosperar, libre de odio y discriminación.

Reflexiones finales

Detectar el discurso de odio es como tratar de darle a un objetivo en movimiento. Con el lenguaje y las normas sociales en evolución, el desafío es continuo. Pero al combinar el conocimiento legal con tecnología avanzada, podemos avanzar hacia una mejor comprensión y manejo de este problema crítico en nuestro mundo. Después de todo, lo único que deberíamos odiar es el odio mismo.

Fuente original

Título: Hate Speech According to the Law: An Analysis for Effective Detection

Resumen: The issue of hate speech extends beyond the confines of the online realm. It is a problem with real-life repercussions, prompting most nations to formulate legal frameworks that classify hate speech as a punishable offence. These legal frameworks differ from one country to another, contributing to the big chaos that online platforms have to face when addressing reported instances of hate speech. With the definitions of hate speech falling short in introducing a robust framework, we turn our gaze onto hate speech laws. We consult the opinion of legal experts on a hate speech dataset and we experiment by employing various approaches such as pretrained models both on hate speech and legal data, as well as exploiting two large language models (Qwen2-7B-Instruct and Meta-Llama-3-70B). Due to the time-consuming nature of data acquisition for prosecutable hate speech, we use pseudo-labeling to improve our pretrained models. This study highlights the importance of amplifying research on prosecutable hate speech and provides insights into effective strategies for combating hate speech within the parameters of legal frameworks. Our findings show that legal knowledge in the form of annotations can be useful when classifying prosecutable hate speech, yet more focus should be paid on the differences between the laws.

Autores: Katerina Korre, John Pavlopoulos, Paolo Gajo, Alberto Barrón-Cedeño

Última actualización: 2024-12-08 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2412.06144

Fuente PDF: https://arxiv.org/pdf/2412.06144

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares