Abordando o Viés de Gênero em Modelos de Linguagem
Este estudo foca em reduzir o viés de gênero em modelos de linguagem de IA através de uma linguagem inclusiva.
― 7 min ler
Índice
- O Problema do Preconceito de Gênero na Linguagem
- Nossa Abordagem: Construindo um Conjunto de Dados Melhor
- A Importância da Linguagem Inclusiva em Gênero
- Metodologia
- Coleta de Dados
- Ajustando os Modelos
- Resultados
- Métricas de Estereotipagem de Gênero
- Medição da Geração de Linguagem Prejudicial
- Discussão
- Limitações
- Conclusão
- Fonte original
- Ligações de referência
A língua influencia como vemos o mundo, incluindo nossa compreensão de gênero. Em muitos casos, a linguagem usada pode refletir Estereótipos antigos e reforçar papéis tradicionais de gênero. Esse problema ficou mais visível com a ascensão da inteligência artificial, especialmente os grandes modelos de linguagem (LLMs), que são treinados em dados que muitas vezes contêm esses preconceitos.
Nosso objetivo é melhorar como esses modelos representam todos os gêneros, adaptando a linguagem que eles aprendem. Ao usar termos inclusivos em vez de exclusivos de gênero, podemos fazer com que esses modelos tratem todas as identidades de gênero de forma justa.
O Problema do Preconceito de Gênero na Linguagem
O preconceito de gênero está presente em muitos aspectos da linguagem. Por exemplo, em inglês, muitas vezes usamos termos como "man" para nos referirmos a todas as pessoas, sugerindo que ser homem é a norma. Essa tendência pode se estender a cargos, onde as pessoas dizem "chairman" tanto para homens quanto para mulheres, mesmo que "chairperson" seja mais apropriado para todos.
Existem palavras em inglês que têm marcadores de gênero específicos, como "showgirl" ou "man-cave." Esses termos podem reforçar visões ultrapassadas sobre como homens e mulheres devem ser, promovendo estereótipos. Eles criam uma visão binária de gênero, que não considera aqueles que se identificam como não-binários ou genderqueer.
À medida que esses modelos aprendem com dados cheios de linguagem tendenciosa, eles podem produzir resultados também tendenciosos. Isso pode perpetuar estereótipos prejudiciais e não retratar com precisão a diversidade de identidades de gênero.
Nossa Abordagem: Construindo um Conjunto de Dados Melhor
Para enfrentar o problema, reunimos uma lista de 692 termos que são exclusivos de gênero junto com suas alternativas neutras. Essa lista serve como uma ferramenta para ajudar a substituir a linguagem preconceituosa nos dados de treinamento dos LLMs.
Criamos um conjunto de dados de Ajuste fino que substitui termos exclusivos de gênero por esses neutros, apoiando o treinamento de modelos que se saem melhor em termos de representação de gênero. Também garantimos que nosso conjunto de dados incluísse uma variedade de fontes para manter a qualidade.
A Importância da Linguagem Inclusiva em Gênero
Usar uma linguagem neutra em gênero é importante porque como descrevemos as pessoas molda nossa compreensão de seus papéis na sociedade. Quando os modelos são treinados usando uma linguagem que tende a ser centrada no masculino, é provável que gerem resultados que reflitam esse preconceito.
Fizemos experimentos com três LLMs diferentes para ver como o ajuste fino com uma linguagem neutra em gênero afeta seu comportamento. O objetivo era determinar se esse ajuste fino poderia reduzir efetivamente as instâncias de estereotipagem de gênero nas saídas dos modelos.
Metodologia
Coleta de Dados
Para construir nosso conjunto de dados, extraímos palavras de um grande corpus de texto, procurando especificamente por substantivos que tinham afixos marcadores de gênero. Focamos em termos comuns que frequentemente são atribuídos a um gênero. Por exemplo, procuramos termos que terminam com '-man' ou '-woman', que indicam gênero.
Compilamos um conjunto diversificado de termos para garantir que nosso conjunto de dados fosse abrangente. Depois de extrair esses termos, desenvolvemos contrapartes neutras de gênero para cada termo, criando pares que refletem tanto as formas exclusivas quanto as inclusivas da linguagem.
Ajustando os Modelos
Depois, ajustamos três modelos: GPT-2, RoBERTa e PHI-1.5. O processo de ajuste fino envolve ajustar os modelos com base em nosso novo conjunto de dados. Isso é diferente do processo de treinamento original porque se concentra especificamente em melhorar a inclusividade de gênero.
Cada modelo foi treinado por um certo número de épocas, que se refere a quantas vezes o modelo processa os dados. Vimos quantas épocas levariam aos melhores resultados na redução do preconceito de gênero.
Resultados
Após o ajuste fino dos modelos com terminologia neutra em gênero, medimos a eficácia de nossa abordagem usando vários métodos.
Métricas de Estereotipagem de Gênero
Para quantificar a redução do preconceito de gênero, usamos métricas estabelecidas que examinam com que frequência os modelos produziam saídas estereotipadas versus não estereotipadas.
Os resultados mostraram que o ajuste fino geralmente levou a uma diminuição na probabilidade de os modelos favorarem termos de gênero em contextos estereotipados. Por exemplo, quando testados em frases relacionadas à direção, os modelos eram menos propensos a atribuir tarefas de direção a homens ou mulheres apenas com base no gênero.
Medição da Geração de Linguagem Prejudicial
Também avaliamos com que frequência os modelos produziam linguagem prejudicial ao responder a solicitações relacionadas ao gênero. O objetivo era ver se o ajuste fino diminuiria as chances de gerar respostas dolorosas ou estereotipadas.
A análise indicou que todos os três modelos mostraram uma redução na geração de linguagem prejudicial quando ajustados com dados neutros em gênero. No entanto, o grau de redução variou conforme o modelo e as configurações usadas durante o ajuste fino.
Discussão
Os resultados sugerem que há uma ligação direta entre o uso de linguagem neutra em gênero nos dados de treinamento e o desempenho dos LLMs em relação ao preconceito de gênero.
No entanto, também notamos que diferentes modelos respondem de maneiras diferentes a estratégias de ajuste fino. Para alguns modelos, menos épocas foram mais eficazes, enquanto para outros, mais épocas geraram melhores resultados. Isso destaca a importância de adaptar as abordagens de ajuste fino a modelos específicos.
Ainda há necessidade de pesquisas contínuas nessa área, uma vez que os preconceitos podem ter impactos sociais significativos. À medida que os LLMs se tornam mais integrados em várias aplicações, garantir que possam representar todos os gêneros de forma justa se torna cada vez mais crítico.
Limitações
Nosso estudo tem algumas limitações que vale a pena notar. Primeiramente, o foco foi apenas na língua inglesa. Embora tenhamos buscado criar uma estrutura para lidar com preconceitos de gênero, as estratégias podem não se aplicar diretamente a outras línguas com estruturas diferentes.
Em segundo lugar, a substituição de termos de gênero no ajuste fino foi algo simplista. Substituímos palavras específicas de gênero por termos neutros sem considerar o contexto em que aparecem. Isso pode resultar em algumas frases estranhas ou não gramaticais, o que pode impactar a qualidade geral da saída.
Por último, limitamos nossos experimentos a modelos de linguagem menores. Embora isso tenha tornado mais gerenciável para nossos recursos, seria valioso para futuras pesquisas testar modelos maiores e mais avançados para ver como eles lidam com ajustes de linguagem neutra em gênero.
Conclusão
A interseção entre linguagem e tecnologia continua a evoluir, e abordar o preconceito de gênero dentro dos grandes modelos de linguagem é crucial. Ao promover uma linguagem inclusiva em gênero, podemos criar modelos que reflitam a diversidade da sociedade, garantindo uma representação mais justa para todos os indivíduos.
Nossa pesquisa mostra que o ajuste fino de modelos com termos neutros em gênero pode ter um impacto significativo na redução de estereótipos de gênero e na geração de linguagem prejudicial. No futuro, esperamos que outros ampliem essas descobertas, expandindo o trabalho para incluir várias línguas e refinando ainda mais os métodos usados para combater preconceitos na IA.
Ao continuar a defender e implementar práticas inclusivas de gênero tanto na linguagem quanto na tecnologia, podemos contribuir para um futuro mais equitativo.
Este estudo estabelece as bases para futuras explorações sobre inclusividade de gênero em modelos de linguagem. Enfatiza que reconhecer e adaptar a linguagem não é apenas um desafio técnico, mas uma responsabilidade social. Por meio de esforços coletivos, podemos trabalhar para desmontar preconceitos e fomentar um ambiente mais inclusivo para todos.
Título: From 'Showgirls' to 'Performers': Fine-tuning with Gender-inclusive Language for Bias Reduction in LLMs
Resumo: Gender bias is not only prevalent in Large Language Models (LLMs) and their training data, but also firmly ingrained into the structural aspects of language itself. Therefore, adapting linguistic structures within LLM training data to promote gender-inclusivity can make gender representations within the model more inclusive. The focus of our work are gender-exclusive affixes in English, such as in 'show-girl' or 'man-cave', which can perpetuate gender stereotypes and binary conceptions of gender. We use an LLM training dataset to compile a catalogue of 692 gender-exclusive terms along with gender-neutral variants and from this, develop a gender-inclusive fine-tuning dataset, the 'Tiny Heap'. Fine-tuning three different LLMs with this dataset, we observe an overall reduction in gender-stereotyping tendencies across the models. Our approach provides a practical method for enhancing gender inclusivity in LLM training data and contributes to incorporating queer-feminist linguistic activism in bias mitigation research in NLP.
Autores: Marion Bartl, Susan Leavy
Última atualização: 2024-07-05 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2407.04434
Fonte PDF: https://arxiv.org/pdf/2407.04434
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.