Simple Science

Ciência de ponta explicada de forma simples

# Informática# Interação Homem-Computador

Transparência na Tomada de Decisão Algorítmica

Analisando a necessidade de explicações claras nas decisões algorítmicas.

― 6 min ler


Decisões de Algoritmos eDecisões de Algoritmos eJustiçatomada de decisão algorítmica.Analisando a justiça em sistemas de
Índice

O uso de algoritmos pra tomar decisões importantes, tipo contratações ou liberar acesso a serviços, tá crescendo. Mas como esses algoritmos funcionam e a justiça das decisões que eles tomam costuma ser questionada. A galera quer entender não só o resultado dessas decisões, mas também como esses resultados foram alcançados. É aí que entra a necessidade de Explicações.

A Necessidade de Explicações

Quando as pessoas recebem decisões feitas por algoritmos, elas não tão preocupadas só com os resultados. Elas se importam com o processo que levou a esses resultados. Por exemplo, se alguém é recusado numa vaga de emprego por um algoritmo, quer saber por que essa decisão foi tomada. Foi baseada em critérios justos? Teve algum viés no processo de seleção? Ter explicações claras ajuda a galera a perceber se as decisões são justas ou se elas foram tratadas injustamente.

Percepções de Justiça

Percepções de justiça são como as pessoas se sentem em relação à justiça de uma decisão. Pesquisas mostram que se uma decisão é bem explicada, as pessoas tendem a vê-la como justa. Isso é especialmente importante em áreas que impactam a vida das pessoas, como emprego e educação. Se a galera acha que a decisão é justa, geralmente aceita, mesmo que não goste do resultado.

Desafio das Explicações Atuais

A maioria das pesquisas atuais trata explicações como uma solução técnica. Elas olham pro resultado, mas ignoram os processos que levaram à decisão. As pessoas querem saber o raciocínio por trás das decisões do algoritmo. Por exemplo, se um empréstimo é negado, uma explicação simples sobre os critérios não é suficiente. A galera também quer entender o contexto maior e as escolhas feitas durante a criação do algoritmo em si.

Contestabilidade nas Decisões Algorítmicas

Contestabilidade se refere à capacidade das pessoas de questionar e desafiar uma decisão feita por um algoritmo. É sobre garantir que a galera tenha voz no processo de tomada de decisão. Se uma decisão pode ser contestada, isso adiciona uma camada a mais de justiça. Quando as pessoas podem fazer perguntas ou recorrer a uma decisão, elas se sentem mais empoderadas.

Importância das Explicações Focadas no Processo

Explicações focadas no processo dão uma visão sobre como a decisão foi tomada por trás dos algoritmos. Elas vão além de apenas dizer o que aconteceu; explicam como e por que certas escolhas foram feitas durante o desenvolvimento do algoritmo. Esse tipo de explicação é crucial pra contestabilidade, facilitando pra individuar desafiar decisões que acham injustas.

Exemplos de Escolhas Discricionárias

Durante a criação de um algoritmo, muitas decisões subjetivas são feitas, muitas vezes sem total transparência. Por exemplo, decidir quais dados incluir ou excluir pode afetar bastante os resultados. Essas escolhas discricionárias podem levar a viés e resultados injustos. Documentar e explicar essas escolhas ajuda a esclarecer como o algoritmo funciona e por que ele se comporta de certas maneiras.

Gerando Explicações Focadas no Processo

Pra criar explicações focadas no processo de forma efetiva, algumas etapas precisam ser seguidas. Isso exige documentar o raciocínio por trás das escolhas feitas durante a criação de um algoritmo. Essa informação deve ser acessível e clara, pensada pra galera que pode querer desafiar uma decisão.

Desafios na Criação de Explicações

Existem vários desafios na hora de gerar essas explicações:

  1. Consciência entre os Profissionais: As pessoas que criam algoritmos muitas vezes precisam de uma consciência melhor sobre o impacto de suas escolhas. Elas podem não perceber completamente como suas decisões podem levar a viés ou resultados injustos.

  2. Infraestrutura Técnica: Os desenvolvedores precisam de ferramentas e sistemas que ajudem a acompanhar as escolhas feitas e os impactos que essas escolhas podem ter. Isso pode incluir formas de analisar dados ou rastrear processos de tomada de decisão.

  3. Treinamento e Orientação: Os profissionais devem receber treinamento sobre como refletir sobre suas decisões e as consequências que podem ter. Isso pode incluir exemplos práticos que mostrem a importância da reflexividade.

Práticas Colaborativas

Enquanto a consciência individual é crítica, a colaboração entre as equipes também é importante. Diferentes partes interessadas precisam trabalhar juntas pra compartilhar insights e reflexões sobre as decisões que foram tomadas. Essa colaboração pode levar a processos de decisão melhores e resultados mais justos.

Avaliação das Explicações Focadas no Processo

Depois que essas explicações são geradas, é essencial avaliar a eficácia delas. Isso pode ajudar a identificar se as explicações realmente ajudam na contestação e melhoram as percepções de justiça.

Criando Protocolos de Avaliação

Protocolos de avaliação eficazes podem ser desenvolvidos pra garantir que as explicações sejam claras, relevantes e úteis pra contestação. Esses protocolos devem permitir atualizações iterativas nas explicações baseadas em feedback. Isso mantém a informação relevante e melhora o processo geral de tomada de decisão.

Apresentação da Informação

A forma como a informação é apresentada também é importante. Explicações focadas no processo precisam ser amigáveis e atender às necessidades da galera que pode querer contestar decisões. O objetivo é empoderar essas pessoas com o conhecimento que elas precisam pra ter diálogos significativos sobre as decisões tomadas pelos algoritmos.

Conclusão

Conforme a tomada de decisão algorítmica se torna mais comum, garantir justiça e transparência é vital. Explicações focadas no processo desempenham um papel crucial em ajudar as pessoas a entender as decisões feitas pelos algoritmos. Focando nos processos por trás dessas decisões e permitindo a contestabilidade, podemos construir um sistema mais justo que não só fornece informações, mas também empodera os indivíduos. Essa abordagem não só melhora as percepções de justiça, mas também fomenta confiança nos sistemas algorítmicos, contribuindo, no final das contas, pra uma sociedade mais justa e inclusiva.

Fonte original

Título: Generating Process-Centric Explanations to Enable Contestability in Algorithmic Decision-Making: Challenges and Opportunities

Resumo: Human-AI decision making is becoming increasingly ubiquitous, and explanations have been proposed to facilitate better Human-AI interactions. Recent research has investigated the positive impact of explanations on decision subjects' fairness perceptions in algorithmic decision-making. Despite these advances, most studies have captured the effect of explanations in isolation, considering explanations as ends in themselves, and reducing them to technical solutions provided through XAI methodologies. In this vision paper, we argue that the effect of explanations on fairness perceptions should rather be captured in relation to decision subjects' right to contest such decisions. Since contestable AI systems are open to human intervention throughout their lifecycle, contestability requires explanations that go beyond outcomes and also capture the rationales that led to the development and deployment of the algorithmic system in the first place. We refer to such explanations as process-centric explanations. In this work, we introduce the notion of process-centric explanations and describe some of the main challenges and research opportunities for generating and evaluating such explanations.

Autores: Mireia Yurrita, Agathe Balayn, Ujwal Gadiraju

Última atualização: 2023-05-01 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2305.00739

Fonte PDF: https://arxiv.org/pdf/2305.00739

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes