Abordando o erro de gênero em sistemas automatizados
Esse estudo explora soluções para o uso errado de gênero na tecnologia através de pesquisas com participantes.
― 5 min ler
Índice
Misgendering é quando alguém é chamado usando termos incorretos para o seu gênero. Isso pode causar dano e é comum nas tecnologias do dia a dia. Mas não tem muita pesquisa sobre como consertar esse problema. Nosso trabalho visa preencher essa lacuna fazendo uma pesquisa com pessoas de gênero diverso nos EUA pra entender a opinião delas sobre como Sistemas Automatizados podem ajudar a evitar misgendering em textos.
Insights da Pesquisa
A gente fez uma pesquisa pra entender as experiências de quem não se identifica como cisgênero. Coletamos opiniões sobre a frequência de misgendering, ideias de soluções e preocupações sobre intervenções automatizadas. Os resultados nos levaram a criar uma tarefa e um conjunto de dados focados em intervenções para misgendering.
Participantes da Pesquisa
Nossa pesquisa teve 33 participantes. Eles relataram enfrentar misgendering principalmente em redes sociais, mas também em outras áreas como artigos de notícias e conteúdo gerado por IA. A maioria dos participantes demonstrou interesse em ter sistemas que pudessem detectar misgendering automaticamente.
Recursos Desejados em Sistemas Automatizados
Os participantes tinham opiniões diferentes sobre se sistemas automatizados deveriam corrigir ou ocultar conteúdo misgendered. Muitos preferiram a Detecção automática, mas estavam divididos sobre correções automáticas em redes sociais. Eles estavam mais abertos a correções em conteúdo gerado por IA, citando preocupações sobre liberdade de expressão.
Preocupações com Sistemas Automatizados
A pesquisa destacou preocupações sérias sobre intervenções automatizadas de misgendering. Os participantes se preocuparam com privacidade, a precisão desses sistemas e os riscos de perfilamento ou direcionamento de indivíduos com base em suas preferências de gênero.
Definindo a Tarefa de Intervenção de Misgendering
Com base nos resultados da pesquisa, definimos a tarefa de intervenção de misgendering, que inclui duas sub-tarefas principais:
- Detectar Misgendering: Identificar quando o texto usa termos de gênero incorretos.
- Corrigir Misgendering: Alterar o texto onde ocorre misgendering, em situações onde a edição é apropriada.
Focamos em redes sociais e conteúdo gerado por IA como nossos domínios principais para essa tarefa.
Criação do Conjunto de Dados
Construímos um conjunto de dados com 3.790 exemplos de textos de redes sociais e gerados por IA. Cada instância foi anotada para identificar misgendering e fornecer correções onde necessário.
Método de Coleta de Dados
Coletamos conteúdo sobre indivíduos não cisgêneros notáveis, juntando posts do Twitter e YouTube. Esse conteúdo foi então anotado por trabalhadores que rotularam as instâncias de misgendering de acordo com os termos de gênero preferidos do indivíduo.
Anotações e Acordo
As anotações foram feitas por múltiplos trabalhadores pra garantir qualidade. Na tarefa de detecção de misgendering, conseguimos um acordo entre anotadores de 87,4%.
Avaliação do Modelo
Testamos sistemas existentes de processamento de linguagem natural (PNL) no nosso conjunto de dados pra estabelecer benchmarks. Descobrimos que estimular modelos de linguagem como o GPT-4 produziu os melhores resultados pra detectar misgendering, mas ainda tinha espaço pra melhorias.
Detectando Misgendering
O GPT-4 obteve as maiores pontuações na detecção de misgendering no nosso conjunto de dados. No entanto, notamos problemas significativos ao entender padrões de linguagem complexos, como citações e gírias.
Corrigindo Misgendering
Para a tarefa de Correção, avaliamos o desempenho de vários modelos. O GPT-4 corrigiu misgendering em 97% das instâncias, mantendo uma baixa taxa de edições desnecessárias.
Direções Futuras
Embora nossos achados sejam promissores, mais pesquisas são necessárias pra refinar esses sistemas e envolver mais profundamente as comunidades de gênero diverso. Recomendamos estender nossas pesquisas pra coletar insights e feedback mais amplos.
Principais Conclusões
- Misgendering é um problema amplo com impactos significativos, principalmente em redes sociais e conteúdos de IA.
- Sistemas automatizados mostram potencial pra detecção e correção, mas precisam ser cuidadosamente projetados pra atender às preocupações da comunidade.
- Trabalhos futuros devem focar na colaboração com indivíduos de gênero diverso para intervenções efetivas.
Conclusão
Nosso estudo marca um passo essencial pra entender e abordar o misgendering através da tecnologia, com um compromisso com pesquisa contínua e envolvimento da comunidade. Incentivamos mais trabalhos nessa área pra desenvolver sistemas que respeitem as identidades e preferências de gênero individuais.
Agradecimentos
Agradecemos aos participantes da pesquisa e organizações que apoiaram nossa pesquisa. Nosso trabalho foi parcialmente financiado por várias bolsas e instituições focadas em avançar a pesquisa em IA.
Considerações Éticas
Essa pesquisa é voltada apenas para fins acadêmicos. Deve-se ter cuidado pra proteger as identidades dos indivíduos envolvidos e garantir seu consentimento em futuros desenvolvimentos relacionados a esse trabalho.
Título: MisgenderMender: A Community-Informed Approach to Interventions for Misgendering
Resumo: Content Warning: This paper contains examples of misgendering and erasure that could be offensive and potentially triggering. Misgendering, the act of incorrectly addressing someone's gender, inflicts serious harm and is pervasive in everyday technologies, yet there is a notable lack of research to combat it. We are the first to address this lack of research into interventions for misgendering by conducting a survey of gender-diverse individuals in the US to understand perspectives about automated interventions for text-based misgendering. Based on survey insights on the prevalence of misgendering, desired solutions, and associated concerns, we introduce a misgendering interventions task and evaluation dataset, MisgenderMender. We define the task with two sub-tasks: (i) detecting misgendering, followed by (ii) correcting misgendering where misgendering is present in domains where editing is appropriate. MisgenderMender comprises 3790 instances of social media content and LLM-generations about non-cisgender public figures, annotated for the presence of misgendering, with additional annotations for correcting misgendering in LLM-generated text. Using this dataset, we set initial benchmarks by evaluating existing NLP systems and highlighting challenges for future models to address. We release the full dataset, code, and demo at https://tamannahossainkay.github.io/misgendermender/.
Autores: Tamanna Hossain, Sunipa Dev, Sameer Singh
Última atualização: 2024-04-22 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2404.14695
Fonte PDF: https://arxiv.org/pdf/2404.14695
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://tamannahossainkay.github.io/misgendermender/
- https://www.mturk.com/
- https://www.hhs.gov/ohrp/regulations-and-policy/regulations/45-cfr-46/common-rule-subpart-a-46104/index.html
- https://query.wikidata.org/
- https://developer.twitter.com/en/docs/twitter-api
- https://developers.google.com/youtube/v3
- https://platform.openai.com/docs/api-reference
- https://ai.google.dev/api
- https://replicate.com/meta/llama-2-70b-chat
- https://replicate.com/google-deepmind/gemma-2b-it
- https://replicate.com/mistralai/mixtral-8x7b-instruct-v0.1
- https://perspectiveapi.com/