Abordando o Viés de Gênero em Sistemas de IA
Esse workshop analisa estereótipos de gênero na IA através da ótica dos preconceitos sociais.
― 10 min ler
Índice
- Introdução do Workshop
- Visão Geral dos Estereótipos de Gênero na IA
- Linguagem e Estereótipos
- Problemas com IA e Preconceito de Gênero
- Preconceitos Humanos em Sistemas de IA
- Explorando Psicologia Cognitiva e IA
- Estudos Atuais sobre Preconceito de Gênero na IA
- Investigando BIAS na Geração de Imagens
- Mudando de Preconceito Humano para Preconceito de Máquina
- Objetivos do Estudo
- Criando um Conjunto de Dados Sintético
- Criação de Conjunto de Dados e Atributos
- Modelos de Classificação de Gênero e Métricas
- Analisando Resultados de Classificação de Gênero
- Examinando Características Físicas e Expressões
- Saídas Controversas da IA
- Implicações Legais
- Avaliando Riscos de Classificação de Gênero
- Conclusão
- Fonte original
- Ligações de referência
Copyright deste trabalho é dos autores. Uso permitido sob a Licença Creative Commons Atribuição 4.0 Internacional (CC BY 4.0).
Introdução do Workshop
O workshop IAIL 2024 tá focado em entender o futuro da IA, especialmente depois da introdução da Lei de IA. Na nossa conversa, analisamos Estereótipos de Gênero na IA usando a Teoria da Média e a lei da UE, especificamente como esses elementos interagem entre si.
Visão Geral dos Estereótipos de Gênero na IA
Esse estudo olha como sistemas de IA classificam gênero e como esses sistemas refletem os preconceitos já existentes na sociedade. Usando o conceito de "média", que relaciona atração à habilidade de reconhecer gênero, investigamos se a IA pode também adotar preconceitos parecidos com os do julgamento humano.
Criamos um conjunto de dados usando o modelo de IA Stable Diffusion 2.1 para avaliar como a atração influencia a precisão da Classificação de Gênero na IA. Nossos resultados mostram que, assim como as pessoas, sistemas de IA têm dificuldade em classificar gênero com base na atração percebida, demonstrando estereótipos sociais prevalentes.
Esse estudo destaca a necessidade de considerar as perspectivas humanas ao coletar dados para IA e ressalta a importância de uma abordagem diversificada no desenvolvimento de tecnologias de IA.
Linguagem e Estereótipos
A linguagem tem um papel vital em como a gente se comunica e expressa nossos pensamentos. Ela carrega valores culturais e sociais que podem reforçar estereótipos. Estereótipos de gênero simplificam nossa compreensão dos papéis de gênero, muitas vezes focando em características físicas e traços emocionais que a sociedade associa a homens e mulheres.
Teorias feministas investigam como esses papéis são construídos, insistindo que gênero surge das normas sociais e não só da biologia. Esse estudo foca em como esses estereótipos podem transferir para a tecnologia digital, especialmente a IA.
Problemas com IA e Preconceito de Gênero
Sistemas de IA não estão livres de preconceitos. Historicamente, a tecnologia foi moldada por perspectivas masculinas, o que levanta preocupações sobre inclusão. Os preconceitos podem surgir nas saídas da IA quando humanos escolhem os dados, influenciando como os algoritmos aprendem a classificar imagens.
Por exemplo, certos serviços de etiquetagem de imagens de IA mostraram preconceito em como classificam imagens de homens e mulheres. Estudos revelaram que a IA geralmente presta mais atenção aos penteados das mulheres do que aos dos homens, levando a etiquetas que reforçam estereótipos ultrapassados.
Reconhecendo esses problemas, exploramos se a tecnologia de IA perpetua narrativas centradas nos homens ou se poderia criar um futuro mais inclusivo.
Preconceitos Humanos em Sistemas de IA
Os preconceitos entram nos sistemas de IA através das escolhas sobre quais conjuntos de dados e regras os algoritmos usam para fazer previsões. Um relatório da União Europeia destaca que a Qualidade dos Dados é crucial para reduzir preconceitos na IA.
Para combater esses preconceitos, nosso trabalho visa analisar como as percepções humanas afetam a coleta de dados e as implicações que isso tem no desenvolvimento da IA. Queremos identificar preconceitos humanos presentes em sistemas de classificação de gênero.
Explorando Psicologia Cognitiva e IA
Nossa pesquisa aplica ideias da psicologia cognitiva, especialmente a Teoria da Média, para entender melhor como os preconceitos humanos podem refletir nos sistemas de IA. Comparando o desempenho da IA na classificação de gênero com o julgamento humano, buscamos identificar o impacto da atratividade nessas classificações.
Através de nossa análise, mergulhamos no cenário legal estabelecido pela Lei de IA e GDPR, que são projetados para proteger a justiça e a igualdade nas tecnologias de IA. Integrando teorias psicológicas com insights legais, buscamos maneiras de melhorar a justiça de gênero nos sistemas de IA.
Estudos Atuais sobre Preconceito de Gênero na IA
Ao investigar o preconceito de gênero na IA, descobrimos que esses sistemas podem amplificar desigualdades sociais. O projeto "Gender Shade" destacou imprecisões significativas em como os sistemas de IA classificam mulheres, especialmente mulheres de cor. Esses preconceitos expõem questões mais profundas relacionadas a estereótipos raciais e de gênero.
Diferentes serviços de IA podem empregar dados de treinamento e infraestrutura variados, levando a inconsistências em como classificam gênero. Uma explicação comum é que certos grupos demográficos estão sub-representados nos conjuntos de dados de treinamento, mas simplesmente equilibrar esses conjuntos de dados não elimina o preconceito.
A persistência de estereótipos nos sistemas de IA complica ainda mais essa questão. Pesquisas mostram que características como maquiagem e penteado influenciam significativamente como a IA classifica gênero, levando ao reforço de convenções sociais ultrapassadas.
Investigando BIAS na Geração de Imagens
Sistemas de texto para imagem também mostram preconceitos, especialmente em relação a gênero e raça. Modelos de IA frequentemente geram estereótipos em suas saídas, refletindo uma tendência de super-representação de atributos associados à branquitude e masculinidade.
Pesquisas indicaram que o conteúdo usado para treinar modelos de IA controla os preconceitos em suas saídas. Apesar das tentativas de diminuir esses preconceitos, desafios permanecem, exigindo mais investigação.
Mudando de Preconceito Humano para Preconceito de Máquina
Nossa pesquisa muda a discussão de preconceitos humanos para preconceitos de máquina. A psicologia cognitiva já explorou como as pessoas percebem gênero, identificando várias características faciais que influenciam essa percepção. No entanto, é essencial reconhecer como essas percepções podem se transformar em estereótipos que afetam as classificações da IA.
A Teoria da Média sugere que rostos atraentes, devido à sua natureza prototípica, são classificados mais facilmente pela IA. Essa correlação varia entre os gêneros, revelando diferenças em como a atração é percebida com base nas normas sociais.
Nosso estudo visa examinar como esses preconceitos na percepção humana se manifestam nos processos de classificação da IA, especialmente em relação ao gênero.
Objetivos do Estudo
Queremos responder às seguintes perguntas sobre a influência da Teoria da Média no desempenho da classificação de gênero da IA:
- A atratividade de um rosto impacta a precisão dos algoritmos da IA na classificação de gênero?
- Existem diferenças na precisão da classificação entre rostos atraentes e não atraentes?
- Os algoritmos de classificação de gênero refletem estereótipos de gênero, e como esses estereótipos se manifestam?
Criando um Conjunto de Dados Sintético
Para investigar essas perguntas, geramos um conjunto de dados sintético focado na atratividade. Embora a atratividade possa ser subjetiva, conjuntos de dados existentes como HotOrNot e CelebA foram usados para informar nosso estudo.
Esses conjuntos de dados, no entanto, têm limitações, especialmente em relação à representação de várias etnias. Nossa solução envolveu criar um conjunto de dados sintético equilibrado usando Stable Diffusion para gerar imagens com base em prompts específicos sobre atratividade.
Ao gerar imagens de indivíduos de diferentes origens étnicas, buscamos criar um ambiente consistente para estudar preconceitos de percepção de gênero.
Criação de Conjunto de Dados e Atributos
Criamos um conjunto de dados equilibrado com imagens frontais de indivíduos atraentes e não atraentes de diferentes etnias. Esse processo envolveu utilizar Stable Diffusion para gerar 2.400 imagens, que foram então cortadas para focar no rosto.
Depois de gerar o conjunto de dados, analisamos os atributos presentes nessas imagens, notando diferenças em fatores como idade e uso de maquiagem entre rostos atraentes e não atraentes.
Modelos de Classificação de Gênero e Métricas
Para nossa análise, selecionamos vários modelos de classificação de gênero, incluindo Amazon Rekognition e DeepFace. O desempenho de cada modelo foi medido em termos de precisão e taxas de erro, focando particularmente em como classificam indivíduos atraentes e não atraentes.
Nossos achados indicaram que, embora a precisão da classificação masculina fosse relativamente consistente, disparidades significativas existiam entre as classificações femininas com base na atratividade percebida. Isso aponta para potenciais preconceitos em como a IA interpreta gênero.
Analisando Resultados de Classificação de Gênero
Os resultados da nossa análise revelaram diferenças claras no desempenho dos modelos de IA com base na atratividade. Por exemplo, o DeepFace mostrou uma diminuição notável na precisão ao classificar mulheres não atraentes, indicando um Viés em direção a padrões de beleza mais socialmente aceitos.
Uma análise mais aprofundada destacou que mulheres não atraentes enfrentaram taxas de erro mais altas em vários modelos, sugerindo que as expectativas sociais em torno da beleza influenciam significativamente a precisão da classificação de gênero da IA.
Examinando Características Físicas e Expressões
Uma análise qualitativa do nosso conjunto de dados gerado revelou características distintas em como rostos atraentes e não atraentes foram representados. Os rostos atraentes geralmente exibiam expressões sorridentes, enquanto os rostos não atraentes muitas vezes mostravam expressões mais sérias.
A maquiagem parecia ser um fator significativo, com mulheres atraentes frequentemente retratadas com maquiagem mais pronunciada, enquanto as não atraentes mostravam maquiagem mais leve ou nenhuma. Isso reforça estereótipos sociais sobre beleza e atratividade.
Saídas Controversas da IA
Durante a geração do conjunto de dados, algumas imagens produzidas pelo Stable Diffusion levantaram preocupações. Em vez de focar apenas nos rostos, muitas saídas mostraram partes do corpo, muitas vezes enfatizando características como lábios ou seios de mulheres atraentes. Essas tendências sugerem preconceitos subjacentes em como os sistemas de IA geram imagens.
Implicações Legais
O quadro legal que orienta a IA, especialmente em relação à qualidade dos dados e representação, é crucial para mitigar preconceitos. A Lei de IA e o GDPR enfatizam a importância de dados de alta qualidade para garantir tratamento justo e não discriminação dentro dos sistemas de IA.
Como nosso estudo indica, classificadores de IA que dependem de conjuntos de dados tendenciosos podem, inadvertidamente, perpetuar estereótipos e desigualdades. É vital abordar questões de representação e qualidade dos dados para garantir a justiça nas tecnologias de IA.
Avaliando Riscos de Classificação de Gênero
Sistemas de IA que processam dados pessoais, especificamente aqueles usados para classificação de gênero, apresentam riscos aos direitos humanos. Diretrizes claras sobre riscos associados a esses sistemas são necessárias para garantir que não levem a discriminação ou tratamento injusto.
Atualmente, muitos sistemas de IA são classificados como de alto risco devido ao seu impacto nos direitos individuais. No entanto, nossa análise sugere que os limites para definir sistemas de alto risco podem carecer de clareza.
Conclusão
Nossa exploração sobre percepção de gênero na IA destaca a relação intrincada entre tecnologia e preconceitos sociais. Os achados demonstram como os sistemas de IA podem refletir e reforçar estereótipos existentes relacionados à beleza e gênero.
Para abordar esses problemas, é crucial adotar uma abordagem interdisciplinar que integre expertise técnica com insights das ciências sociais. Garantindo que os dados usados em sistemas de IA sejam diversos e representativos, podemos trabalhar para construir tecnologias que respeitem a igualdade e os direitos humanos.
À medida que avançamos no desenvolvimento da IA, entender as nuances da classificação de gênero e as implicações dos preconceitos será fundamental para alcançar um futuro mais inclusivo para todos.
Título: "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law
Resumo: This study delves into gender classification systems, shedding light on the interaction between social stereotypes and algorithmic determinations. Drawing on the "averageness theory," which suggests a relationship between a face's attractiveness and the human ability to ascertain its gender, we explore the potential propagation of human bias into artificial intelligence (AI) systems. Utilising the AI model Stable Diffusion 2.1, we have created a dataset containing various connotations of attractiveness to test whether the correlation between attractiveness and accuracy in gender classification observed in human cognition persists within AI. Our findings indicate that akin to human dynamics, AI systems exhibit variations in gender classification accuracy based on attractiveness, mirroring social prejudices and stereotypes in their algorithmic decisions. This discovery underscores the critical need to consider the impacts of human perceptions on data collection and highlights the necessity for a multidisciplinary and intersectional approach to AI development and AI data training. By incorporating cognitive psychology and feminist legal theory, we examine how data used for AI training can foster gender diversity and fairness under the scope of the AI Act and GDPR, reaffirming how psychological and feminist legal theories can offer valuable insights for ensuring the protection of gender equality and non-discrimination in AI systems.
Autores: Miriam Doh, Anastasia Karagianni
Última atualização: 2024-06-27 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2407.17474
Fonte PDF: https://arxiv.org/pdf/2407.17474
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://pygments.org/
- https://pypi.python.org/pypi/Pygments
- https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law
- https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R0679
- https://www.cvce.eu/content/publication/2002/4/9/2c2f2b85-14bb-4488-9ded-13f3cd04de05/publishable_en.pdf
- https://eur-lex.europa.eu/resource.html?uri=cellar:2bf140bf-a3f8-4ab2-b506-fd71826e6da6.0023.02/DOC_1&format=PDF
- https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:12012P/TXT