Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Computación y lenguaje

Abordando el error de género en sistemas automatizados

Este estudio explora soluciones para el mal generamiento en tecnología a través de encuestas a participantes.

― 5 minilectura


Abordando el mal géneroAbordando el mal génerocon tecnologíagénero.soluciones automáticas para el error deNuevas investigaciones se centran en
Tabla de contenidos

El misgendering es cuando se refiere a alguien usando términos incorrectos para su género. Esto puede causar daño y es común en la tecnología cotidiana. Sin embargo, no hay suficiente investigación sobre cómo solucionar este problema. Nuestro trabajo busca abordar esta brecha encuestando a personas diversas en género en EE. UU. para conocer sus opiniones sobre el uso de Sistemas Automatizados para ayudar con el misgendering en los textos.

Perspectivas de la Encuesta

Realizamos una encuesta para entender las experiencias de quienes no se identifican como cisgénero. Nuestra encuesta recopiló opiniones sobre la frecuencia del misgendering, ideas para soluciones y preocupaciones sobre las intervenciones automatizadas. Los resultados nos llevaron a crear una tarea y un conjunto de datos enfocados en intervenciones para el misgendering.

Participantes de la Encuesta

Nuestra encuesta tuvo 33 participantes. Informaron que enfrentaban misgendering, especialmente en plataformas de redes sociales, pero también en otras áreas como artículos de noticias y contenido generado por IA. La mayoría de los participantes mostró interés en tener sistemas que pudieran detectar el misgendering automáticamente.

Características Deseadas de los Sistemas Automatizados

Los participantes tenían opiniones variadas sobre si los sistemas automatizados debían corregir o ocultar contenido misgendered. Muchos preferían la Detección automática, pero estaban divididos sobre las correcciones automáticas en redes sociales. Eran más receptivos a correcciones en contenido generado por IA, citando preocupaciones sobre la libertad de expresión.

Preocupaciones con los Sistemas Automatizados

La encuesta destacó preocupaciones serias sobre las intervenciones automatizadas de misgendering. Los participantes se preocuparon por la privacidad, la precisión de estos sistemas y los riesgos de perfilar o apuntar a individuos basándose en sus preferencias de género.

Definiendo la Tarea de Intervención de Misgendering

Basándonos en los resultados de la encuesta, definimos la tarea de intervención de misgendering que incluye dos sub-tareas principales:

  1. Detectar Misgendering: Identificar cuándo el texto utiliza términos de género incorrectos.
  2. Corregir Misgendering: Cambiar el texto donde ocurre el misgendering, en situaciones donde la edición es apropiada.

Nos enfocamos en redes sociales y contenido generado por IA como nuestros dominios principales para esta tarea.

Creación del Conjunto de Datos

Construimos un conjunto de datos con 3,790 ejemplos de textos de redes sociales y de IA. Cada instancia fue anotada para identificar el misgendering y proporcionar correcciones donde fuese necesario.

Método de Recolección de Datos

Recopilamos contenido sobre individuos no cisgénero notables, recolectando publicaciones de Twitter y YouTube. Este contenido fue luego anotado por trabajadores que etiquetaron instancias de misgendering según los términos de género preferidos por el individuo.

Anotaciones y Acuerdo

Las anotaciones fueron realizadas por varios trabajadores para asegurar calidad. En la tarea de detección de misgendering, logramos un acuerdo inter-anotador del 87.4%.

Evaluación del Modelo

Probamos sistemas existentes de procesamiento de lenguaje natural (NLP) en nuestro conjunto de datos para establecer puntos de referencia. Encontramos que alentar modelos de lenguaje como GPT-4 produjo los mejores resultados para detectar misgendering, pero aún quedaba espacio para mejorar.

Detectando Misgendering

GPT-4 logró las puntuaciones más altas en la detección de misgendering en nuestro conjunto de datos. Sin embargo, notamos problemas significativos cuando se trataba de entender patrones de lenguaje complejos, como citas y jerga.

Corrigiendo Misgendering

Para la tarea de Corrección, evaluamos el rendimiento de varios modelos. GPT-4 corrigió el misgendering en el 97% de las instancias, manteniendo una baja tasa de ediciones innecesarias.

Direcciones Futuras

Aunque nuestros hallazgos son prometedores, se necesita más investigación para refinar estos sistemas y involucrar más integralmente a las comunidades diversas en género. Recomendamos extender nuestras encuestas para obtener perspectivas y comentarios más amplios.

Conclusiones Clave

  1. El misgendering es un problema generalizado con impactos significativos, particularmente en redes sociales y contenido de IA.
  2. Los sistemas automatizados muestran potencial para la detección y corrección, pero deben ser diseñados cuidadosamente para abordar las preocupaciones de la comunidad.
  3. El trabajo futuro debe centrarse en la colaboración con individuos diversos en género para intervenciones efectivas.

Conclusión

Nuestro estudio marca un paso esencial hacia la comprensión y solución del misgendering a través de la tecnología, con un compromiso hacia la investigación continua y la participación comunitaria. Alentamos más trabajo en esta área para desarrollar sistemas que respeten las identidades y preferencias de género individuales.

Agradecimientos

Agradecemos a los participantes de la encuesta y a las organizaciones que apoyaron nuestra investigación. Nuestro trabajo fue parcialmente financiado por diversas subvenciones e instituciones enfocadas en avanzar la investigación en IA.

Consideraciones Éticas

Esta investigación está destinada solo para fines académicos. Se debe tener cuidado para proteger las identidades de los individuos involucrados y asegurar su consentimiento en desarrollos futuros relacionados con este trabajo.

Fuente original

Título: MisgenderMender: A Community-Informed Approach to Interventions for Misgendering

Resumen: Content Warning: This paper contains examples of misgendering and erasure that could be offensive and potentially triggering. Misgendering, the act of incorrectly addressing someone's gender, inflicts serious harm and is pervasive in everyday technologies, yet there is a notable lack of research to combat it. We are the first to address this lack of research into interventions for misgendering by conducting a survey of gender-diverse individuals in the US to understand perspectives about automated interventions for text-based misgendering. Based on survey insights on the prevalence of misgendering, desired solutions, and associated concerns, we introduce a misgendering interventions task and evaluation dataset, MisgenderMender. We define the task with two sub-tasks: (i) detecting misgendering, followed by (ii) correcting misgendering where misgendering is present in domains where editing is appropriate. MisgenderMender comprises 3790 instances of social media content and LLM-generations about non-cisgender public figures, annotated for the presence of misgendering, with additional annotations for correcting misgendering in LLM-generated text. Using this dataset, we set initial benchmarks by evaluating existing NLP systems and highlighting challenges for future models to address. We release the full dataset, code, and demo at https://tamannahossainkay.github.io/misgendermender/.

Autores: Tamanna Hossain, Sunipa Dev, Sameer Singh

Última actualización: 2024-04-22 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2404.14695

Fuente PDF: https://arxiv.org/pdf/2404.14695

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares