Este artigo mostra como os VLMs refletem estereótipos de gênero em tarefas do dia a dia.
― 6 min ler
Ciência de ponta explicada de forma simples
Este artigo mostra como os VLMs refletem estereótipos de gênero em tarefas do dia a dia.
― 6 min ler
Analisando como a IA aprende preconceitos humanos a partir de impressões faciais.
― 7 min ler
Uma olhada na perda semântica e seu impacto nas saídas de modelos de linguagem.
― 8 min ler
Modelos preferem prompts visuais em vez de conhecimento adquirido, afetando a tomada de decisão.
― 9 min ler
Investigando o impacto do preconceito de aparência em sistemas de IA.
― 7 min ler
Analisando a importância da justiça em sistemas de IA que impactam vidas.
― 6 min ler
Este estudo investiga como o CLIP interpreta rostos e reflete preconceitos sociais.
― 6 min ler
Analisando os efeitos das atualizações na segurança, viés e autenticidade na geração de imagens.
― 8 min ler
Um novo estudo avalia os preconceitos em modelos de linguagem usados para diagnósticos médicos.
― 7 min ler
Uma análise das ferramentas de teste de justiça para desenvolvedores de software.
― 6 min ler
Esse artigo explora como identificar e gerenciar preconceitos na IA para resultados justos.
― 5 min ler
Esse estudo analisa o preconceito de gênero nas avaliações de professores feitas por modelos de IA.
― 12 min ler
O HEARTS quer melhorar a detecção de estereótipos em textos, garantindo que tudo seja explicável e sustentável.
― 7 min ler
Um novo método tem como objetivo reduzir o viés nas previsões dos modelos de linguagem.
― 10 min ler
Pesquisadores desenvolvem métodos pra garantir a justiça em sistemas de aprendizado de máquina.
― 7 min ler
Abordando o viés em modelos de ML para recomendações de tratamento de SUD justas.
― 7 min ler
Examinando o viés na música de IA em favor dos estilos do Global Norte em relação às tradições do Global Sul.
― 8 min ler