Simple Science

Ciência de ponta explicada de forma simples

# Informática# Visão computacional e reconhecimento de padrões# Computadores e sociedade

Abordando o viés em sistemas de reconhecimento facial

Um novo conjunto de dados tem como objetivo melhorar a precisão do reconhecimento facial para populações diversas.

― 8 min ler


Viés no ReconhecimentoViés no ReconhecimentoFacialfacial.precisão em sistemas de reconhecimentoAnalisando preconceitos e melhorando a
Índice

Os Sistemas de Reconhecimento Facial (FRSs) viraram ferramentas comuns usadas em várias aplicações, incluindo segurança e identificação pessoal. O design e a implementação desses sistemas aconteceram principalmente em países desenvolvidos, muitas vezes ignorando as necessidades e características das pessoas em países em desenvolvimento. Essa negligência pode gerar preconceitos e imprecisões, especialmente para indivíduos do Sul Global, que podem não estar bem representados nos dados usados para treinar esses sistemas.

Este artigo discute a criação e análise de um novo conjunto de dados faciais com o objetivo de fechar essa lacuna, focando em atletas de críquete. Com essa iniciativa, queremos destacar os preconceitos existentes na tecnologia de reconhecimento facial e propor formas de lidar com esses problemas.

O Que São Sistemas de Reconhecimento Facial?

Sistemas de reconhecimento facial são tecnologias feitas para identificar e verificar a identidade de uma pessoa usando as características do seu rosto. Esses sistemas analisam as características únicas de um rosto capturado em uma imagem e comparam com um banco de dados de imagens armazenadas. A tecnologia é bastante usada em várias áreas, incluindo segurança, marketing e vigilância. No entanto, sua eficácia pode variar com a qualidade dos dados de treinamento e as características demográficas das pessoas envolvidas.

O Problema do Preconceito nos FRSs

Um dos problemas mais significativos com sistemas de reconhecimento facial é o preconceito que pode ocorrer quando os dados usados para treinar esses sistemas não representam adequadamente todos os grupos populacionais. Muitas tecnologias de reconhecimento facial foram desenvolvidas no Norte Global, o que geralmente resulta em um desempenho pior para indivíduos do Sul Global, já que esses sistemas podem ser menos precisos para rostos com diferentes tons de pele ou estruturas faciais.

Esse preconceito pode ter implicações negativas no mundo real, especialmente para indivíduos que dependem desses sistemas para identificação. Por exemplo, se um sistema de reconhecimento facial for menos preciso para pessoas de países em desenvolvimento, pode resultar em tratamento injusto, negação de serviços ou acusações erradas.

A Necessidade de Conjuntos de Dados Diversos

Para melhorar o desempenho dos sistemas de reconhecimento facial em diferentes demografias, é crucial ter conjuntos de dados diversos e representativos para treinamento. No entanto, falta notavelmente tais conjuntos de dados do Sul Global. Essa lacuna dificulta que pesquisadores avaliem e melhorem a precisão dos sistemas de reconhecimento facial para todos os grupos.

Para resolver esse problema, foi criado um novo conjunto de dados chamado FARFace. Esse conjunto foi especificamente projetado para incluir imagens de atletas de diversos países, com um foco significativo em incluir indivíduos do Sul Global.

Criando o Conjunto de Dados FARFace

O conjunto de dados FARFace é formado por imagens de jogadores de críquete masculinos e femininos de oito países, garantindo uma ampla representação. Esse conjunto contém mais de 6.500 imagens únicas, das quais mais da metade apresenta indivíduos do Sul Global. O objetivo é criar um recurso mais inclusivo que possa ajudar a melhorar o desempenho dos sistemas de reconhecimento facial quando aplicados a populações diversas.

Processo de Coleta de Dados

Para coletar as imagens para o conjunto de dados FARFace, foram obtidas informações de um site popular de críquete. O processo envolveu selecionar páginas de jogadores e extrair imagens junto com metadados relevantes, como nome do jogador, país e gênero. Um pré-processamento cuidadoso foi feito para garantir que apenas imagens de alta qualidade fossem incluídas, removendo qualquer uma que não fosse adequada para análise.

Pré-processamento de Imagens

Após a coleta das imagens, várias etapas foram realizadas para limpar e preparar o conjunto de dados. Imagens que eram desenhos ou não eram fotografias reais foram removidas. Cada imagem foi então recortada e redimensionada para focar apenas no rosto, facilitando um treinamento mais eficaz dos modelos de reconhecimento facial. O conjunto final é composto por uma mistura de imagens, incluindo fotos originais e aquelas alteradas para simular condições adversas, como má iluminação ou obstrução.

Avaliando Sistemas de Reconhecimento Facial

Uma vez criado o conjunto de dados FARFace, ele foi usado para avaliar o desempenho de vários sistemas de reconhecimento facial amplamente utilizados. Essa avaliação focou na previsão de gênero, uma tarefa comum para esses sistemas que pode ter implicações significativas em aplicações do mundo real.

Métodos de Benchmarking

O benchmarking envolveu rodar os sistemas de reconhecimento facial contra o conjunto de dados FARFace para avaliar quão bem eles poderiam prever o gênero dos indivíduos representados nas imagens. Esse processo revelou disparidades significativas na precisão entre homens e mulheres, especialmente para indivíduos do Sul Global.

Resultados do Benchmarking

As avaliações dos sistemas de reconhecimento facial revelaram inconsistências consideráveis em seu desempenho. Enquanto alguns sistemas tiveram um bom desempenho em rostos masculinos, muitas vezes falharam em alcançar precisão semelhante em rostos femininos, especialmente os do Sul Global.

Descobertas Gerais

No geral, os resultados indicaram que os sistemas de reconhecimento facial são geralmente mais precisos ao lidar com imagens masculinas em comparação com femininas. As taxas de precisão para imagens femininas do Sul Global foram particularmente baixas, mostrando uma disparidade clara entre diferentes grupos demográficos.

Entendendo as Classificações Erradas

Para entender melhor as causas por trás dessas classificações erradas, uma análise foi realizada usando uma ferramenta avançada de visualização. Isso permitiu que os pesquisadores vissem quais características faciais estavam sendo focadas pelos sistemas ao fazer previsões.

Padrões no Reconhecimento Facial

A análise descobriu que os sistemas de reconhecimento facial geralmente se baseavam em regiões específicas do rosto para fazer previsões. Para imagens masculinas, os modelos se concentraram consistentemente em áreas como a testa e o nariz. Em contraste, a atenção dada às imagens femininas era muitas vezes mais aleatória e menos consistente, indicando possíveis fraquezas nos algoritmos usados para processar tais imagens.

Mitigando Preconceitos nos Sistemas de Reconhecimento Facial

Reconhecer os preconceitos nos sistemas de reconhecimento facial é o primeiro passo para abordá-los. Para melhorar a precisão desses sistemas para mulheres e indivíduos do Sul Global, duas principais estratégias foram propostas: aprendizado com poucos exemplos e aprendizado contrastivo.

Aprendizado com Poucos Exemplos

O aprendizado com poucos exemplos envolve treinar modelos com um número muito limitado de exemplos. Essa abordagem pode ajudar a adaptar os modelos de reconhecimento facial para ter um desempenho melhor em contextos diversos, sem exigir um extenso retrain com grandes conjuntos de dados. Ao escolher exemplos com cuidado, é possível mitigar alguns dos preconceitos observados no desempenho.

Aprendizado Contrastivo

O aprendizado contrastivo é outra técnica usada para melhorar os modelos. Essa abordagem busca diferenciar entre imagens semelhantes e diferentes durante a fase de treinamento. Ao focar no que torna rostos diferentes únicos, o sistema pode potencialmente melhorar sua precisão quando enfrenta dados previamente não vistos.

Resultados dos Esforços de Mitigação de Preconceitos

Os resultados iniciais da implementação das estratégias de aprendizado com poucos exemplos e aprendizado contrastivo foram promissores. Em experimentos, ambas as técnicas mostraram uma melhoria significativa na precisão das previsões de gênero para mulheres, especialmente entre aquelas do Sul Global. Essa melhoria ilustra o potencial de abordagens de treinamento direcionadas para criar sistemas de reconhecimento facial mais justos.

Observações dos Experimentos

Ao testar os sistemas de reconhecimento facial modificados, os resultados indicaram que o uso de aprendizado com poucos exemplos poderia levar a um aumento significativo na precisão das previsões para mulheres. Além disso, a aplicação do aprendizado contrastivo ajudou os modelos a diferenciar melhor entre os gêneros, reduzindo, em última análise, a disparidade de desempenho entre homens e mulheres.

Conclusão

Os sistemas de reconhecimento facial têm um grande potencial para uma variedade de aplicações; no entanto, sua eficácia pode ser criticamente prejudicada por preconceitos inerentes ao seu design e treinamento. A criação do conjunto de dados FARFace é um passo vital em reconhecer e abordar esses preconceitos. Ao fornecer um conjunto de dados mais inclusivo e implementar métodos de treinamento inovadores, podemos trabalhar para melhorar o desempenho desses sistemas para um espectro mais amplo de indivíduos.

Esta pesquisa destaca a importância de garantir que os avanços tecnológicos em inteligência artificial incluam vozes e perspectivas diversas, especialmente aquelas frequentemente ignoradas. A avaliação contínua e o ajuste dos sistemas de reconhecimento facial serão cruciais para promover justiça e precisão em suas aplicações, levando a melhores resultados para todos os envolvidos.

Fonte original

Título: Breaking the Global North Stereotype: A Global South-centric Benchmark Dataset for Auditing and Mitigating Biases in Facial Recognition Systems

Resumo: Facial Recognition Systems (FRSs) are being developed and deployed globally at unprecedented rates. Most platforms are designed in a limited set of countries but deployed in worldwide, without adequate checkpoints. This is especially problematic for Global South countries which lack strong legislation to safeguard persons facing disparate performance of these systems. A combination of unavailability of datasets, lack of understanding of FRS functionality and low-resource bias mitigation measures accentuate the problem. In this work, we propose a new face dataset composed of 6,579 unique male and female sportspersons from eight countries around the world. More than 50% of the dataset comprises individuals from the Global South countries and is demographically diverse. To aid adversarial audits and robust model training, each image has four adversarial variants, totaling over 40,000 images. We also benchmark five popular FRSs, both commercial and open-source, for the task of gender prediction (and country prediction for one of the open-source models as an example of red-teaming). Experiments on industrial FRSs reveal accuracies ranging from 98.2%--38.1%, with a large disparity between males and females in the Global South (max difference of 38.5%). Biases are also observed in all FRSs between females of the Global North and South (max difference of ~50%). Grad-CAM analysis identifies the nose, forehead and mouth as the regions of interest on one of the open-source FRSs. Utilizing this insight, we design simple, low-resource bias mitigation solutions using few-shot and novel contrastive learning techniques significantly improving the accuracy with disparity between males and females reducing from 50% to 1.5% in one of the settings. In the red-teaming experiment with the open-source Deepface model, contrastive learning proves more effective than simple fine-tuning.

Autores: Siddharth D Jaiswal, Animesh Ganai, Abhisek Dash, Saptarshi Ghosh, Animesh Mukherjee

Última atualização: 2024-07-26 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2407.15810

Fonte PDF: https://arxiv.org/pdf/2407.15810

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes