O que significa "Injustiça"?
Índice
A injustiça em machine learning se refere a situações onde as decisões tomadas pelos algoritmos não tratam todos os grupos de pessoas de forma igual. Isso pode rolar por várias razões, geralmente ligadas a como os dados são usados ou como os modelos são criados.
Tipos de Injustiça
Paridade Estatística: Isso significa que grupos diferentes devem ter resultados parecidos. Por exemplo, se dois grupos pedirem empréstimos, eles devem ter taxas de aprovação similares.
Igualdade de Chances: Aqui, a ideia é garantir que as chances de previsões corretas sejam iguais para grupos diferentes. Se um grupo tem mais chances de ter um empréstimo aprovado do que outro, isso é injusto.
Paridade Preditiva: Esse tipo busca garantir que as previsões do modelo sejam igualmente precisas para diferentes grupos. Se um modelo prevê um resultado com mais precisão para um grupo do que para outro, isso é considerado injusto.
Desafios da Justiça
Alcançar a justiça em machine learning pode ser complicado porque os objetivos desses tipos de justiça muitas vezes entram em conflito. Normalmente, não dá pra satisfazer todas as medidas de justiça ao mesmo tempo, o que leva ao uso de soluções alternativas que se aproximam da justiça.
Lidando com Dados Faltantes
Outro desafio aparece quando certas informações estão faltando. Na vida real, nem todos os dados sobre uma pessoa ou grupo podem estar disponíveis. Isso pode acontecer por motivos como privacidade ou registros incompletos. Pra resolver isso, alguns métodos focam em preencher as lacunas e fazer previsões justas com base em informações limitadas.
Importância da Justiça
A justiça em machine learning é importante porque impacta decisões da vida real que afetam a vida das pessoas, como candidaturas a empregos, empréstimos e muito mais. Buscar justiça ajuda a construir confiança na tecnologia e garante que todo mundo seja tratado de forma justa.