Simple Science

Ciência de ponta explicada de forma simples

# Informática# Visão computacional e reconhecimento de padrões# Inteligência Artificial

Medindo o Viés de Gênero em Grandes Modelos de Visão-Linguagem

Novo padrão avalia o viés de gênero em modelos de IA relacionados a funções de trabalho.

― 7 min ler


Avaliação do Viés deAvaliação do Viés deGênero em Modelos de IAgênero nas representações de cargos.Um novo método pra avaliar o viés de
Índice

Modelos de Linguagem de Visão Grande (LVLMs) são ferramentas avançadas que combinam imagens e texto, e estão sendo usados em várias áreas hoje em dia. No entanto, esses modelos geralmente mostram um forte viés contra diferentes gêneros. Os métodos existentes para checar viés costumam focar em grupos de pessoas, em vez de tratar todo mundo de forma justa como indivíduos. Isso significa que alguns comportamentos injustos podem passar despercebidos porque não se encaixam nas médias dos grupos. Esse artigo apresenta uma nova forma de testar o Viés de Gênero nesses modelos, que analisa como eles lidam com diferentes funções de trabalho com base no gênero.

Por que Precisamos Checar o Viés

Estar ciente do viés de gênero na IA é crucial. Por exemplo, quando um modelo associa médicos a homens e enfermeiras a mulheres, isso reforça estereótipos prejudiciais. Esses estereótipos afetam como diferentes grupos são vistos e tratados na sociedade. À medida que os LVLMs se tornam mais populares em aplicações do mundo real, é essencial que comecemos a checar esses viés com mais cuidado.

O Novo Padrão

Introduzimos um novo padrão para testar o viés de gênero relacionado a empregos dentro dos LVLMs. Esse padrão usa um método chamado questionamento contrafactual, que essencialmente pergunta ao modelo o que ele pensa sobre um emprego quando o gênero da pessoa na imagem é mudado. Por exemplo, se o modelo vê uma imagem de uma mulher como diretora-executiva e depois é mostrada a mesma imagem, mas com o gênero mudado para masculino, podemos ver como suas respostas mudam.

Para criar esse padrão, primeiro geramos imagens de diferentes empregos usando modelos de texto para imagem. Depois, identificamos pares de empregos que as pessoas tradicionalmente associam a gêneros específicos. Combinando esses elementos, conseguimos criar uma grande coleção de perguntas que nos permitiu testar diferentes LVLMs de forma eficaz.

Construindo o Padrão

Criando Imagens de Ocupação

Usamos técnicas avançadas de geração de imagem para criar fotos de pessoas em vários empregos. O primeiro passo foi bolar boas sugestões que ajudassem a gerar essas imagens com precisão. Em seguida, produzimos imagens que podiam ser trocadas entre gêneros para criar contrafactuais. Esse processo envolveu pegar uma imagem base de uma mulher em um trabalho e criar uma versão com um homem na mesma função, mantendo outros detalhes consistentes.

Encontrando Pares de Emprego

Para descobrir o viés, precisávamos encontrar empregos que eram estereotipicamente considerados para um certo gênero. Analisamos estatísticas de trabalho para ver quais empregos eram dominados por homens e quais eram dominados por mulheres. Depois, criamos pares desses empregos que tinham alta semelhança em termos de responsabilidades, mas eram vistos de forma diferente com base no gênero.

Criando Perguntas Visuais

Para nossos testes, construímos perguntas usando as imagens que geramos junto com os pares de empregos. Cada pergunta incluía uma imagem, uma solicitação clara sobre a ocupação representada e duas opções para escolher. Ao modificar o gênero nessas imagens, podíamos criar diferentes versões da mesma pergunta para ver como o modelo respondia.

Avaliando os Modelos

Testamos 15 modelos LVLM populares, incluindo modelos de código aberto e comerciais, usando nosso padrão. Nossa avaliação tinha como objetivo revelar quanto viés de gênero existe nesses modelos.

Principais Descobertas

Viés de Gênero Generalizado

Nossos testes mostraram que o viés de gênero é comum em quase todos os modelos avaliados. Em média, encontramos que a precisão prevista para identificar corretamente as ocupações mudou de maneira significativa quando o gênero da pergunta visual foi alterado. Esse viés foi especialmente pronunciado em certos pares de empregos, como diretor-executivo versus secretário executivo.

O Viés Aumenta com o Poder do Modelo

Curiosamente, notamos que modelos mais potentes frequentemente exibiam um viés maior. À medida que esses modelos se tornavam mais precisos em suas previsões, eles também pareciam refletir mais os viés sociais presentes em seus dados de treinamento. Por exemplo, observamos que modelos maiores e mais avançados se envolviam em raciocínio tendencioso com mais frequência do que seus irmãos menores.

Viés Comum em Pares de Ocupação

Descobrimos que certos pares de empregos mostraram consistentemente altos níveis de viés. Por exemplo, ocupações como piloto e comissário de bordo foram identificadas como tendo grandes diferenças de gênero na forma como os modelos as percebiam. Isso indica que o viés não só existe, mas também está ligado a ocupações específicas que a sociedade associa fortemente a papéis de gênero.

Implicações do Viés

Padrões de Viés

Nossa análise revelou que o viés não é apenas aleatório; ele tende a seguir certos padrões. Empregos dominados por homens frequentemente caíam em categorias como gestão ou finanças, enquanto empregos dominados por mulheres eram tipicamente em serviço ou apoio administrativo. Isso reflete estereótipos sociais mais amplos sobre quais gêneros são adequados para diferentes funções.

Direção do Viés

Notamos que a maioria dos LVLMs mostrava uma preferência por associar papéis masculinos a imagens masculinas e papéis femininos a imagens femininas. No entanto, algumas funções que tradicionalmente tendem a ser femininas, como gestão financeira, eram às vezes vistas como mais masculinas pelos modelos. Isso destaca a complexidade e a inconsistência do viés de gênero na IA.

Viés Visual e Linguístico

Investigações adicionais revelaram uma conexão próxima entre viés visual e Viés Linguístico nesses modelos. Em outras palavras, quando as representações visuais eram tendenciosas, as saídas de linguagem muitas vezes refletiam esses mesmos viés. Essa correlação provavelmente se deve a como esses modelos processam e relacionam informações entre diferentes tipos de dados.

Trabalhos Futuros

Embora esse padrão inicial forneça insights valiosos, há algumas limitações. Uma grande preocupação é que nossos métodos ainda podem carregar alguns viés subjacentes que poderiam afetar os resultados. Além disso, como nos baseamos em uma visão binária de gênero, reconhecemos a importância de incluir uma gama mais ampla de identidades de gênero em trabalhos futuros.

À medida que o desenvolvimento da IA avança rapidamente, é crucial que a sociedade continue informada sobre esses viés e tome medidas para mitigar seu impacto. Usando padrões como o nosso, os pesquisadores podem avaliar melhor os modelos antes de serem implantados no mundo real.

Conclusão

Esse novo padrão é um passo importante para medir o viés de gênero nos LVLMs, especialmente em relação a funções de trabalho. Os viés persistentes que observamos ressaltam a necessidade de garantir que os modelos de IA tratem todos os indivíduos de forma justa. Abordar essas questões pode levar a um futuro mais equitativo, onde a tecnologia serve a todos sem perpetuar estereótipos prejudiciais.

A pesquisa e o desenvolvimento contínuos serão vitais para criar ferramentas que não só compreendam nosso mundo, mas o façam de uma maneira que promova justiça e igualdade.

Fonte original

Título: GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing

Resumo: Large Vision-Language Models (LVLMs) have been widely adopted in various applications; however, they exhibit significant gender biases. Existing benchmarks primarily evaluate gender bias at the demographic group level, neglecting individual fairness, which emphasizes equal treatment of similar individuals. This research gap limits the detection of discriminatory behaviors, as individual fairness offers a more granular examination of biases that group fairness may overlook. For the first time, this paper introduces the GenderBias-\emph{VL} benchmark to evaluate occupation-related gender bias in LVLMs using counterfactual visual questions under individual fairness criteria. To construct this benchmark, we first utilize text-to-image diffusion models to generate occupation images and their gender counterfactuals. Subsequently, we generate corresponding textual occupation options by identifying stereotyped occupation pairs with high semantic similarity but opposite gender proportions in real-world statistics. This method enables the creation of large-scale visual question counterfactuals to expose biases in LVLMs, applicable in both multimodal and unimodal contexts through modifying gender attributes in specific modalities. Overall, our GenderBias-\emph{VL} benchmark comprises 34,581 visual question counterfactual pairs, covering 177 occupations. Using our benchmark, we extensively evaluate 15 commonly used open-source LVLMs (\eg, LLaVA) and state-of-the-art commercial APIs, including GPT-4o and Gemini-Pro. Our findings reveal widespread gender biases in existing LVLMs. Our benchmark offers: (1) a comprehensive dataset for occupation-related gender bias evaluation; (2) an up-to-date leaderboard on LVLM biases; and (3) a nuanced understanding of the biases presented by these models. \footnote{The dataset and code are available at the \href{https://genderbiasvl.github.io/}{website}.}

Autores: Yisong Xiao, Aishan Liu, QianJia Cheng, Zhenfei Yin, Siyuan Liang, Jiapeng Li, Jing Shao, Xianglong Liu, Dacheng Tao

Última atualização: 2024-06-30 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2407.00600

Fonte PDF: https://arxiv.org/pdf/2407.00600

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes