Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computadores e sociedade# Interação Homem-Computador

Justiça em Modelos de Aprendizado de Máquina: Opiniões dos Envolvidos

Explorando as percepções dos envolvidos sobre a justiça em modelos de aprendizado de máquina em meio à multiplicidade.

― 7 min ler


Partes interessadas emPartes interessadas emJustiça em MLmáquina.sobre a justiça do aprendizado dePesquisa revela opiniões do público
Índice

O aprendizado de máquina (ML) tá sendo cada vez mais usado em áreas importantes como serviços sociais, saúde, justiça criminal e contratações. Essa tecnologia pode influenciar muito a vida das pessoas. Mas o que é interessante é que em várias situações, pode ter vários modelos de ML que oferecem previsões diferentes. Essa situação, conhecida como Multiplicidade, levanta questões sobre quão justas essas previsões são.

Este artigo tem como objetivo entender como as pessoas veem a justiça no ML quando vários modelos levam a resultados diferentes. A gente também quer descobrir quais métodos elas acham que são os melhores para lidar com essas situações. Pra responder essas perguntas, fizemos uma pesquisa com várias pessoas que não são especialistas em ML.

O que é Justiça em Aprendizado de Máquina?

A justiça é uma preocupação enorme quando se trata de sistemas de tomada de decisão, especialmente os movidos por ML. A justiça em ML pode ser dividida em diferentes partes:

  1. Justiça Distribucional: Isso vê se os resultados gerados pelo modelo de ML são justos. Foca na equidade entre diferentes grupos.

  2. Justiça Processual: Esse tipo olha como as decisões são tomadas. Mesmo que os resultados sejam justos, se o processo em si for arbitrário ou tendencioso, as pessoas podem achar que é injusto.

  3. Justiça Informacional: Isso se concentra em saber se o processo de tomada de decisão é claro e compreensível para aqueles que são afetados por ele.

No nosso estudo, a gente considera principalmente a justiça distributiva e processual, perguntando se os resultados do modelo são justos e se usar o modelo de ML em uma certa situação é apropriado.

O que é Multiplicidade em Aprendizado de Máquina?

A multiplicidade acontece quando tem vários modelos de ML que podem performar igualmente bem em uma tarefa, mas podem dar previsões diferentes para o mesmo cenário. Isso levanta questões sobre justiça porque se uma decisão é arbitrária, pode levar a resultados injustos para as pessoas afetadas por essas decisões.

Por exemplo, imagina um hospital que usa dois modelos de ML pra decidir quais pacientes devem receber um certo tratamento. Se os dois modelos são igualmente precisos, mas sugerem pacientes diferentes pra esse tratamento, essa discrepância levanta preocupações sobre justiça. Se um paciente é deixado de fora com base na previsão de um modelo, ele pode se sentir injustamente tratado em comparação a alguém que foi escolhido pelo outro modelo.

A Importância de Entender as Percepções dos Interessados

Enquanto os pesquisadores dizem que a multiplicidade apresenta um risco de justiça, tem pouco estudo focado no que as pessoas comuns pensam sobre esse problema. Se os envolvidos, como pacientes, candidatos a empregos ou pessoas enfrentando decisões legais, não percebem a multiplicidade como uma questão de justiça, pode ser crucial para desenvolvedores e organizações saber disso.

A falta de entendimento entre especialistas técnicos e as partes interessadas pode levar a decisões que não se alinham com os valores públicos. Então, é vital investigar como as pessoas percebem a justiça no contexto da multiplicidade e quais métodos elas acham mais apropriados para resolver conflitos entre múltiplos modelos.

Visão Geral da Pesquisa

Pra explorar esses tópicos, fizemos uma pesquisa pra coletar opiniões de pessoas sem formação técnica. Nossos principais objetivos foram:

  1. Descobrir se tomar conhecimento da multiplicidade muda as percepções das pessoas sobre justiça em sistemas de ML.
  2. Identificar quais técnicas pra resolver a multiplicidade são consideradas mais apropriadas e justas pelos participantes.
  3. Entender como diferentes características da tarefa em questão (como os riscos, incertezas e se os resultados envolvem punição ou recompensa) afetam essas percepções.

Resultados: Percepções dos Interessados sobre Justiça

Baseado na nossa pesquisa, encontramos alguns insights interessantes. Quando os participantes ficaram sabendo sobre a multiplicidade, eles disseram que isso diminuiu a sensação de justiça em relação aos resultados gerados pelos modelos de ML. No entanto, as percepções deles sobre a justiça processual permaneceram estáveis, mesmo com a introdução da multiplicidade.

Justiça Distribucional vs. Justiça Processual

Os participantes tendiam a ver a multiplicidade como uma ameaça à justiça distributiva, ou seja, estavam preocupados que os resultados poderiam ser injustos entre diferentes grupos. Mas não viam isso como um grande risco pra justiça processual-o quão justas eram as decisões feitas. Isso sugere que enquanto as pessoas se importam com resultados justos, elas podem confiar mais no processo mesmo quando a multiplicidade está presente.

Preferência por Envolvimento Humano

Um achado chave da pesquisa foi que os participantes preferiam que tomadores de decisão humanos estivessem envolvidos em situações onde a multiplicidade era uma questão. Muitos entrevistados expressaram desconforto com a ideia de usar um único modelo sem considerar outros ou com a ideia de aleatorização-basicamente jogar uma moeda pra decidir entre diferentes resultados.

Essa preferência aponta pra uma vontade de responsabilidade e a crença de que o julgamento humano pode fornecer uma camada de justiça que as máquinas podem não ter, especialmente em cenários de alto risco.

O Impacto das Características da Tarefa

As respostas dos participantes também foram influenciadas pelas características das tarefas específicas. Para tarefas de alto risco, como aquelas relacionadas à saúde ou decisões de emprego, as pessoas mostraram uma preferência maior pelo envolvimento humano do que pelo uso de um único modelo de ML. Por outro lado, para tarefas de baixo risco, estavam mais abertas a diferentes métodos de resolver a multiplicidade, incluindo aleatorização.

Implicações para o Desenvolvimento de Aprendizado de Máquina

Nossos achados têm implicações importantes para desenvolvedores e organizações que usam ML em seus processos de tomada de decisão:

  1. Priorizar a Supervisão Humana: Dada a forte preferência pelo envolvimento humano, as organizações devem considerar integrar supervisão humana em sistemas automatizados, especialmente quando os riscos são altos.

  2. Comunicar Claramente Sobre Processos Decisórios: A transparência sobre como as decisões são feitas e como a multiplicidade é tratada pode ajudar a construir confiança entre as partes interessadas. As pessoas querem saber que suas situações são avaliadas de forma justa e reflexiva.

  3. Ficar Atento à Percepção Pública: Como as percepções dos interessados nem sempre se alinham com as visões de especialistas, é essencial que os desenvolvedores de ML se envolvam com o público, entendam suas preocupações e as abordem diretamente.

  4. Adaptar-se às Características da Tarefa: Diferentes tarefas pedem abordagens diferentes. As organizações devem ajustar suas estratégias de tomada de decisão com base nos riscos envolvidos e na natureza da tarefa.

Conclusão

O uso crescente de aprendizado de máquina em decisões importantes traz uma série de preocupações sobre justiça, especialmente quando a multiplicidade está envolvida. Nossa pesquisa mostra que as percepções dos interessados sobre justiça em modelos de ML podem diferir significativamente das visões dos especialistas.

Entendendo essas perspectivas, podemos desenvolver melhores estratégias pra garantir justiça em sistemas automatizados de tomada de decisão. O foco deve ser na manutenção do envolvimento humano em áreas de alto risco, aumentando a transparência e adaptando abordagens com base nas características específicas da tarefa. Isso ajudará a construir sistemas que se alinhem melhor com as expectativas e valores do público em relação à justiça.

Fonte original

Título: Perceptions of the Fairness Impacts of Multiplicity in Machine Learning

Resumo: Machine learning (ML) is increasingly used in high-stakes settings, yet multiplicity -- the existence of multiple good models -- means that some predictions are essentially arbitrary. ML researchers and philosophers posit that multiplicity poses a fairness risk, but no studies have investigated whether stakeholders agree. In this work, we conduct a survey to see how the presence of multiplicity impacts lay stakeholders' -- i.e., decision subjects' -- perceptions of ML fairness, and which approaches to address multiplicity they prefer. We investigate how these perceptions are modulated by task characteristics (e.g., stakes and uncertainty). Survey respondents think that multiplicity lowers distributional, but not procedural, fairness, even though existing work suggests the opposite. Participants are strongly against resolving multiplicity by using a single good model (effectively ignoring multiplicity) or by randomizing over possible outcomes. Our results indicate that model developers should be intentional about dealing with multiplicity in order to maintain fairness.

Autores: Anna P. Meyer, Yea-Seul Kim, Aws Albarghouthi, Loris D'Antoni

Última atualização: 2024-09-18 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2409.12332

Fonte PDF: https://arxiv.org/pdf/2409.12332

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes