Abordando o preconceito de gênero na legenda de imagens
Este estudo analisa e enfrenta o preconceito de gênero nas legendas de imagens de aprendizado de máquina.
― 7 min ler
Índice
- Motivação para o Estudo
- Anotação Humana e Preconceito
- Preconceito em Conjuntos de Dados Existentes
- Problemas em Modelos Avançados
- Nossa Abordagem para Lidar com o Preconceito de Gênero
- Seleção de Conjunto de Dados para Avaliação
- Experimentos e Resultados
- Conclusão
- Direções Futuras
- Fonte original
- Ligações de referência
Nosso mundo tem muitos tipos de preconceito, incluindo o preconceito de gênero. Esse preconceito afeta a maneira como vemos os papéis de homens e mulheres em várias áreas, como no trabalho e no dia a dia. Essas ideias sobre papéis de gênero vêm da sociedade e aparecem muitas vezes nos dados usados em aprendizado de máquina. Como o aprendizado de máquina depende de dados, qualquer preconceito nesses dados pode levar a resultados tendenciosos. Este artigo investiga o preconceito de gênero na legendagem de imagens, que é quando os computadores descrevem imagens gerando legendas.
Motivação para o Estudo
Estudos recentes mostram que o preconceito de gênero é comum em muitos Modelos de aprendizado de máquina, especialmente aqueles que lidam com linguagem. Os pesquisadores descobriram que quando esses modelos são treinados com dados tendenciosos, eles criam conexões erradas entre gênero e diferentes atividades. Por exemplo, um modelo pode associar "homem" com "médico" e "mulher" com "dona de casa". Esse padrão reflete visões sociais em vez de ser uma representação precisa da realidade. Os preconceitos que existem nos Dados de Treinamento acabam afetando os modelos, tornando-os menos confiáveis.
Anotação Humana e Preconceito
Uma das principais razões para o preconceito de gênero no aprendizado de máquina é como os humanos rotulam os dados. Por exemplo, em um conjunto de dados popular chamado MS-COCO, os pesquisadores descobriram que quando os humanos descrevem imagens de pessoas cujo gênero não é claro, eles costumam adivinhar com base em seus próprios preconceitos. Se uma imagem mostra uma pessoa andando de bicicleta, muitos podem rotular essa pessoa como "homem" simplesmente porque acham que andar de bicicleta é algo que homens fazem mais do que mulheres. Essa prática causa muitos mal-entendidos e reforça preconceitos existentes.
Preconceito em Conjuntos de Dados Existentes
Certos conjuntos de dados mostram padrões claros de preconceito de gênero. Em conjuntos de dados como MS-COCO e imSitu, palavras relacionadas a atividades tendem a ser mais ligadas a um gênero do que a outro. Por exemplo, palavras associadas a tarefas domésticas são usadas mais frequentemente com termos "femininos", enquanto palavras relacionadas a tarefas técnicas podem estar mais ligadas a termos "masculinos". Essa falta de equilíbrio nos dados pode distorcer ainda mais os resultados fornecidos pelos modelos de aprendizado de máquina.
Problemas em Modelos Avançados
O problema do preconceito de gênero não para no nível dos dados. Modelos avançados, como sistemas de tradução, também podem refletir esses preconceitos. Por exemplo, ao traduzir frases de uma língua que não especifica gênero para o inglês, esses modelos tendem a atribuir papéis masculinos a certas profissões, como "médico", e papéis femininos a outras, como "enfermeira". Além disso, em modelos de legendagem de imagens, o preconceito de gênero pode levar a rotulações erradas. Se o modelo é treinado com dados tendenciosos, pode assumir que uma pessoa usando um computador é um homem, mesmo que a imagem mostre claramente uma mulher.
Nossa Abordagem para Lidar com o Preconceito de Gênero
Neste projeto, queríamos entender o preconceito de gênero na legendagem de imagens e ver como isso pode ser tratado. Estudamos o modelo "Show, Attend and Tell", que é um sistema de legendagem de imagens bem conhecido. Através da nossa análise, descobrimos que as conexões que o modelo aprendeu a partir de dados tendenciosos muitas vezes levavam a legendas incorretas. Para lidar com esse problema, pensamos em maneiras de remover esses preconceitos dos dados para que o modelo não fizesse suposições erradas.
Inicialmente, consideramos equilibrar os dados garantindo representação igual de gêneros em cada atividade. No entanto, esse método não era prático devido ao grande número de atividades e às várias instâncias onde uma certa atividade pode estar associada a apenas um gênero. Assim, exploramos uma solução diferente.
Nosso principal objetivo era impedir que o modelo fizesse associações fortes entre gênero e atividades. Queríamos que o modelo se concentrasse apenas na imagem ao gerar legendas, sem considerar noções preconcebidas sobre papéis de gênero. Assim, dividimos nosso objetivo em duas tarefas: criar um modelo de legendagem de imagens neutro em relação ao gênero e focar na identificação de gênero dos indivíduos nas imagens.
Para criar um modelo neutro em relação ao gênero, removemos todos os termos específicos de gênero dos dados de treinamento, substituindo-os por termos neutros como "pessoa" ou "pessoas". Após essa etapa, treinamos um novo modelo chamado Gender Agnostic Show, Attend and Tell network. Para a segunda tarefa, usamos um modelo existente que identifica gênero com base em imagens. Combinando os resultados de ambas as tarefas, nosso objetivo era gerar legendas mais precisas.
Seleção de Conjunto de Dados para Avaliação
Para avaliar o desempenho do nosso modelo, usamos o conjunto de dados MS-COCO e o dividimos em três subconjuntos:
Conjunto de Dados Confiante em Gênero: Este conjunto inclui imagens onde todas as legendas se referem consistentemente ao mesmo gênero. Coletamos instâncias onde cada descrição usava um termo como "homem" ou "mulher". Isso nos deu um subconjunto de 2036 imagens.
Conjunto de Dados Humano: Selecionamos imagens contendo figuras humanas, garantindo que pelo menos uma legenda mencionasse um identificador humano. Este conjunto continha 19.051 imagens.
Conjunto de Dados da Natureza: Este conjunto incluiu imagens sem humanos. Filtramos as imagens onde nenhuma das legendas mencionava identificadores humanos. Isso nos permitiu focar nas 21.453 imagens restantes.
Experimentos e Resultados
Para nossos experimentos, avaliamos nosso modelo nos três conjuntos de dados mencionados acima. Nossa rede neutra em relação ao gênero forneceu previsões usando o termo "pessoa" como saída, para que pudéssemos comparar a qualidade geral das legendas. Também geramos previsões neutras em relação ao gênero para comparação.
Os modelos que avaliamos foram os seguintes:
- Show, Attend and Tell (SAT): O modelo base que usamos.
- SAT-N: Previsões do modelo SAT ajustadas para serem neutras em relação ao gênero.
- Show, Attend and Identify (SAI): Nosso modelo completo que separa a identificação de gênero da legendagem de imagens.
- SAI-N: O componente neutro em relação ao gênero do nosso modelo.
Relatamos resultados de desempenho usando várias métricas, incluindo os scores BLEU, METEOR, ROUGE e CIDEr nos diferentes conjuntos de dados.
Embora nosso modelo tenha mostrado resultados promissores, um desafio significativo foi a precisão do modelo de identificação de gênero. Embora seja um modelo confiável, sua precisão era surpreendentemente baixa, em torno de 50% para o conjunto de dados Confiante em Gênero, o que afetou o desempenho geral do nosso sistema.
Conclusão
Através deste projeto, mostramos que o preconceito de gênero é um problema significativo tanto em conjuntos de dados quanto em modelos. Ao implementar uma técnica para remover preconceitos da legendagem de imagens, conseguimos observar melhorias na qualidade das legendas enquanto mantivemos o desempenho em imagens sem humanos. No entanto, também percebemos que remover termos específicos de gênero dos dados de treinamento levou ao aumento do uso de termos como 'masculino' e 'feminino', revelando uma conexão entre as representações dessas palavras.
No geral, este trabalho sugere que, para alcançar modelos sem preconceitos, é crucial separar as informações de gênero do processo de legendagem de imagens, evitando que preconceitos influenciem os resultados.
Direções Futuras
Inicialmente, pretendíamos remover o preconceito de gênero dos modelos de VQA (Visual Question Answering). No entanto, essa área permanece altamente complexa e desafiadora. Como próximo passo, um trabalho adicional poderia envolver o uso de embeddings de palavras modificados para eliminar preconceitos de gênero. Outra direção potencial poderia envolver o desenvolvimento de um modelo de identificação de gênero mais avançado, permitindo uma terceira categoria de "pessoa" para lidar com casos em que o gênero não pode ser determinado. Explorar essas ideias poderia melhorar o desempenho geral do nosso modelo e torná-lo mais equitativo em suas operações.
Título: Fairness in AI Systems: Mitigating gender bias from language-vision models
Resumo: Our society is plagued by several biases, including racial biases, caste biases, and gender bias. As a matter of fact, several years ago, most of these notions were unheard of. These biases passed through generations along with amplification have lead to scenarios where these have taken the role of expected norms by certain groups in the society. One notable example is of gender bias. Whether we talk about the political world, lifestyle or corporate world, some generic differences are observed regarding the involvement of both the groups. This differential distribution, being a part of the society at large, exhibits its presence in the recorded data as well. Machine learning is almost entirely dependent on the availability of data; and the idea of learning from data and making predictions assumes that data defines the expected behavior at large. Hence, with biased data the resulting models are corrupted with those inherent biases too; and with the current popularity of ML in products, this can result in a huge obstacle in the path of equality and justice. This work studies and attempts to alleviate gender bias issues from language vision models particularly the task of image captioning. We study the extent of the impact of gender bias in existing datasets and propose a methodology to mitigate its impact in caption based language vision models.
Autores: Lavisha Aggarwal, Shruti Bhargava
Última atualização: 2023-05-03 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2305.01888
Fonte PDF: https://arxiv.org/pdf/2305.01888
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.