O Impacto do Aprendizado de Máquina nos Estereótipos de Gênero
Analisando como o aprendizado de máquina perpetua os preconceitos de gênero e seus efeitos emocionais.
― 7 min ler
Índice
- A Ascensão do Aprendizado de Máquina e Seus Impactos
- Diferentes Tipos de Erros no Aprendizado de Máquina
- Efeitos Negativos de Erros que Reforçam Estereótipos
- Estudos de Pesquisa sobre Erros e Seus Efeitos
- Tipos de Danos Causados por Erros Estereotipados
- O Papel do Gênero no Dano Percebido
- Ampliando a Compreensão de Estereótipos
- Implicações para a Justiça no Aprendizado de Máquina
- A Importância da Contribuição Humana
- Conclusão
- Fonte original
- Ligações de referência
Aprendizado de máquina é uma tecnologia poderosa que consegue analisar uma quantidade enorme de dados e ajudar a resolver problemas complexos. Mas, também pode causar danos, principalmente quando lida com estereótipos. Esse artigo dá uma olhada em como o aprendizado de máquina pode errar com base em estereótipos de gênero e como esses erros afetam os sentimentos e percepções das pessoas.
A Ascensão do Aprendizado de Máquina e Seus Impactos
Com o crescimento do aprendizado de máquina, seu uso tá ficando cada vez mais comum em áreas como busca de imagens e processamento de linguagem. Os sistemas conseguem categorizar imagens, gerar textos e oferecer recomendações. Mas, esses sistemas podem aprender preconceitos prejudiciais dos dados em que são treinados. Por exemplo, podem associar erradamente mulheres a papéis domésticos e homens a empregos técnicos. Essas associações automáticas levam a erros que podem reforçar estereótipos já existentes na sociedade.
Diferentes Tipos de Erros no Aprendizado de Máquina
Os sistemas de aprendizado de máquina podem cometer vários tipos de erros ao lidarem com estereótipos. Alguns erros reforçam estereótipos, como mostrar uma mulher com um eletrodoméstico de cozinha. Outros quebram estereótipos, como mostrar um homem com um eletrodoméstico de cozinha. Reconhecer essas diferenças é importante para entender o impacto desses erros.
Efeitos Negativos de Erros que Reforçam Estereótipos
Erros que reforçam estereótipos podem causar danos emocionais. Por exemplo, quando um sistema de aprendizado de máquina categoriza erradamente uma mulher como chefe de cozinha, isso pode levar a sentimentos de desrespeito e desvalorização. Pesquisas mostram que esses tipos de erros podem ter um impacto emocional mais forte nas mulheres do que nos homens.
Por outro lado, erros que quebram estereótipos também podem causar danos, mas de outras formas. Para muitos homens, ver-se associado a objetos que normalmente são relacionados a mulheres pode desafiar seu senso de identidade ou masculinidade. Isso pode resultar em sentimentos de inadequação ou ansiedade.
Estudos de Pesquisa sobre Erros e Seus Efeitos
Para entender como as pessoas percebem esses erros, pesquisadores realizaram vários estudos. Em um, os participantes foram questionados sobre objetos específicos relacionados a estereótipos de gênero. Eles foram mostrados imagens e perguntados se os objetos eram mais associados a homens ou mulheres. Os resultados mostraram que as opiniões das pessoas variavam sobre o que conta como um estereótipo.
Por exemplo, os participantes geralmente concordaram que bolsas estão associadas a mulheres, enquanto ferramentas estão associadas a homens. No entanto, muitos objetos não evocaram associações fortes. Isso sugere que as crenças comumente mantidas sobre estereótipos podem não refletir sempre visões mais amplas da sociedade.
Outro estudo envolveu expor os participantes a imagens contendo erros que reforçam ou quebram estereótipos. Eles foram então convidados a relatar seus sentimentos sobre esses erros. As descobertas mostraram que os erros que reforçam estereótipos causaram mais angústia emocional, particularmente entre mulheres, indicando que esses erros afetam mais os sentimentos pessoais do que crenças ou comportamentos.
Tipos de Danos Causados por Erros Estereotipados
Existem dois principais tipos de danos que podem resultar de erros de estereótipo: pragmáticos e experiencial. O dano pragmático se refere a mudanças mensuráveis nas crenças e comportamentos dos indivíduos devido à exposição a esses erros. Por exemplo, observar uma imagem que reforça estereótipos pode afetar a visão de alguém sobre os papéis das mulheres na sociedade.
Já o dano experiencial diz respeito a como as pessoas se sentem depois de encontrar esses erros. Isso envolve sentimentos auto-relatados de angústia ou desconforto. Estudos consistentemente mostraram que as mulheres relataram se sentir mais incomodadas por erros que reforçam estereótipos comparadas aos homens.
O Papel do Gênero no Dano Percebido
O impacto dos erros estereotipados também pode variar com base no gênero do participante. No geral, as mulheres tendem a relatar níveis mais altos de dano ao encontrar erros que reforçam estereótipos, enquanto os homens podem sentir mais angústia com erros que quebram estereótipos. Essa diferença pode surgir das pressões e expectativas sociais em torno dos papéis de gênero.
Por exemplo, se uma mulher vê uma imagem que reforça a ideia de que mulheres pertencem à cozinha, isso pode afetar negativamente sua autoimagem e senso de capacidade. Em contraste, se um homem vê uma imagem que associa homens a objetos tradicionalmente femininos, ele pode se sentir inseguro sobre sua masculinidade.
Ampliando a Compreensão de Estereótipos
Outra área de foco é como as pessoas definem o que constitui um estereótipo. Participantes dos estudos deram uma variedade de explicações para por que certos objetos eram vistos como estereotipados. Essas explicações caíram em categorias como descritivas (como as pessoas costumam ver esses objetos) ou prescritivas (como a sociedade acredita que alguém deve ou não deve se comportar). Isso destaca que estereótipos são complexos e podem derivar de diferentes entendimentos culturais.
Implicações para a Justiça no Aprendizado de Máquina
As descobertas sugerem que sistemas de aprendizado de máquina precisam considerar os impactos emocionais e psicológicos de seus erros. Em vez de tratar todos os erros igualmente, é crucial avaliar como esses erros afetam diferentes grupos demográficos.
Essa abordagem mais sutil ajudará a desenvolver melhores medidas para mitigar danos. Por exemplo, ajustes nas saídas dos modelos poderiam visar minimizar erros que reforçam estereótipos, enquanto também consideram os potenciais impactos negativos de erros que quebram estereótipos.
A Importância da Contribuição Humana
Uma lição significativa é que as percepções humanas sobre estereótipos são amplas e diversas. Confiar apenas em julgamentos assistidos por máquina pode ignorar as complexidades da psicologia humana. O envolvimento de anotadores humanos no desenvolvimento de sistemas de aprendizado de máquina pode levar a modelos mais precisos e socialmente conscientes.
Conclusão
À medida que o aprendizado de máquina continua moldando nosso mundo, é vital abordar os potenciais danos associados aos seus erros. Reconhecer as diferenças entre erros que reforçam e quebram estereótipos é crucial para garantir justiça nas aplicações tecnológicas. Ao entender as implicações psicológicas desses erros, podemos desenvolver sistemas melhores que não apenas funcionem bem, mas também respeitem a dignidade de todos os indivíduos.
Pesquisas futuras devem aprofundar a interseção entre aprendizado de máquina, estereótipos e experiências subjetivas para garantir que criemos tecnologias que elevem em vez de prejudicar. À medida que esse campo evolui, é essencial permanecer atento aos efeitos que nossas ferramentas têm na sociedade e buscar um futuro mais equitativo.
Em resumo, enquanto navegamos pelas complexidades do aprendizado de máquina, devemos dar prioridade às experiências e percepções humanas na formação de aplicações justas e responsáveis. Fazendo isso, podemos ajudar a mitigar danos e promover compreensão em um mundo cada vez mais automatizado.
Título: Measuring machine learning harms from stereotypes: requires understanding who is being harmed by which errors in what ways
Resumo: As machine learning applications proliferate, we need an understanding of their potential for harm. However, current fairness metrics are rarely grounded in human psychological experiences of harm. Drawing on the social psychology of stereotypes, we use a case study of gender stereotypes in image search to examine how people react to machine learning errors. First, we use survey studies to show that not all machine learning errors reflect stereotypes nor are equally harmful. Then, in experimental studies we randomly expose participants to stereotype-reinforcing, -violating, and -neutral machine learning errors. We find stereotype-reinforcing errors induce more experientially (i.e., subjectively) harmful experiences, while having minimal changes to cognitive beliefs, attitudes, or behaviors. This experiential harm impacts women more than men. However, certain stereotype-violating errors are more experientially harmful for men, potentially due to perceived threats to masculinity. We conclude that harm cannot be the sole guide in fairness mitigation, and propose a nuanced perspective depending on who is experiencing what harm and why.
Autores: Angelina Wang, Xuechunzi Bai, Solon Barocas, Su Lin Blodgett
Última atualização: 2024-02-06 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2402.04420
Fonte PDF: https://arxiv.org/pdf/2402.04420
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://osf.io/cpyn4/?view_only=3ff6c9625f0c4fce864960ee47b0433a
- https://osf.io/m9akd/?view_only=b61bc54308a5481a96e43db2dac23498
- https://osf.io/v2w4m/?view_only=5f68252ff9864ddfa198097fdd78e803
- https://osf.io/xpv5j/?view_only=55aac464d7694e81ae69eccf86cd004f
- https://osf.io/cpyn4
- https://osf.io/m9akd
- https://osf.io/v2w4m
- https://osf.io/xpv5j