Abordando a Multiplicidade Preditiva em Modelos de Aprendizado de Máquina
Este artigo fala sobre multiplicidade preditiva e propõe algoritmos de conjunto para previsões mais justas.
― 7 min ler
Índice
Nos últimos anos, o aprendizado de máquina se tornou uma ferramenta importante em várias áreas, incluindo saúde, educação e recrutamento. No entanto, esses sistemas podem produzir resultados diferentes para situações semelhantes, um problema conhecido como Multiplicidade Preditiva. Esse problema surge quando vários modelos atingem uma Precisão semelhante, mas oferecem previsões inconsistentes para casos específicos. Este artigo discute como Intervenções de Justiça podem piorar esse problema e apresenta uma solução envolvendo algoritmos em conjunto para criar previsões mais confiáveis.
O Problema da Multiplicidade Preditiva
A multiplicidade preditiva ocorre quando diversos modelos fornecem previsões diferentes para a mesma entrada, apesar de alcançarem uma precisão geral comparável. Isso pode levar a resultados injustos, especialmente em áreas críticas como saúde e contratação, onde vidas e oportunidades estão em jogo. Por exemplo, usar aprendizado de máquina para selecionar candidatos pode resultar em diferentes pessoas sendo escolhidas com base em fatores aleatórios em vez de suas qualificações. Essa imprevisibilidade pode ter sérias consequências para os indivíduos.
Variar hiperparâmetros durante o treinamento dos modelos pode levar à multiplicidade preditiva. Ao mudar sementes aleatórias ou outras configurações durante o treinamento, os modelos podem gerar saídas conflitantes. Essa aleatoriedade pode afetar desproporcionalmente diferentes indivíduos, tornando as decisões do modelo arbitrárias. Como resultado, quando esses modelos são usados em áreas de alto risco, podem inadvertidamente prejudicar certas pessoas, excluindo-as de resultados positivos.
Métricas de Justiça em Aprendizado de Máquina
Para reduzir preconceitos, muitos sistemas de aprendizado de máquina visam à justiça. Uma abordagem comum é a justiça de grupo, que garante que diferentes grupos demográficos recebam resultados semelhantes. Isso pode envolver medir estatísticas como oportunidade igual, significando que cada grupo tem a mesma chance de receber um resultado favorável. Existem muitos métodos para alcançar a justiça de grupo, mas eles costumam focar apenas na justiça e precisão sem considerar o potencial para multiplicidade preditiva.
Embora existam muitas métricas de justiça, elas nem sempre abordam a questão da Arbitrariedade nas previsões. As métricas existentes podem esconder o problema subjacente, o que significa que os modelos podem parecer justos mesmo quando produzem resultados inconsistentes para indivíduos. É aqui que entra o conceito de arbitrariedade, representando a variabilidade nas previsões que pode prejudicar a tomada de decisões individuais.
A Necessidade de um Terceiro Eixo: Arbitrariedade
Este artigo argumenta que a arbitrariedade deve ser considerada ao lado da justiça e precisão em modelos de aprendizado de máquina. Mesmo se os modelos atenderem aos critérios de justiça, eles ainda podem produzir resultados arbitrários. Por exemplo, dois modelos podem alcançar as mesmas pontuações de justiça de grupo, mas fornecer previsões muito diferentes para indivíduos específicos. Essa inconsistência pode criar problemas para quem depende desses modelos para tomar decisões.
Para ilustrar esse ponto, considere dois modelos que são considerados justos. Eles podem mostrar desempenho igual em vários grupos, mas ainda assim diferir em suas previsões para indivíduos específicos. Quando confrontados com alta multiplicidade preditiva, a seleção de qualquer modelo concorrente para uso pode levar a resultados arbitrários em aplicações do mundo real.
Esse problema é frequentemente obscurecido por métricas de justiça e precisão, que não revelam inconsistências nas previsões. Assim, há necessidade de uma estrutura que inclua a arbitrariedade, permitindo melhor tomada de decisão em áreas de alto risco.
Intervenções de Justiça e Seus Impactos
Muitas intervenções de justiça foram desenvolvidas para melhorar os resultados do aprendizado de máquina. Esses métodos geralmente se concentram em controlar disparidades de desempenho entre grupos. No entanto, aplicar essas intervenções pode, às vezes, levar a um aumento na multiplicidade preditiva. Isso significa que, enquanto a justiça dos modelos melhora, a variabilidade nas previsões pode se tornar mais proeminente.
Esse fenômeno é frequentemente ocultado por métricas de justiça favoráveis, mascarando a verdadeira extensão do problema. Os resultados apresentados neste artigo mostram que intervenções de justiça podem inadvertidamente gerar mais arbitrariedade no pipeline de aprendizado de máquina.
Algoritmos em Conjunto como Solução
Para enfrentar o desafio da multiplicidade preditiva e da arbitrariedade, os autores propõem o uso de algoritmos em conjunto. Esses métodos combinam múltiplos modelos para criar uma previsão mais robusta. Ao misturar as saídas de vários modelos, a abordagem em conjunto pode reduzir as inconsistências nas previsões enquanto mantém a justiça e a precisão.
O método em conjunto pode ser entendido como uma maneira de misturar as previsões de vários modelos, levando a uma saída consensual. Isso reduz a probabilidade de que a arbitrariedade de qualquer modelo único influencie a decisão final. À medida que mais modelos são incluídos no conjunto, a consistência das previsões aumenta, garantindo que os resultados sejam menos arbitrários.
Resultados Experimentais
Para demonstrar a eficácia do método em conjunto proposto, experimentos foram realizados usando diferentes intervenções de justiça e modelos de referência. Os achados revelaram que intervenções de justiça podem aumentar significativamente as variações de pontuação entre os modelos. O método em conjunto mostrou potencial para reduzir essa variância, levando a previsões mais estáveis e consistentes.
Por exemplo, vários classificadores de referência foram treinados e várias intervenções de justiça foram aplicadas. Os resultados indicaram que aplicar intervenções de justiça frequentemente resultou em maior multiplicidade preditiva. No entanto, quando o método em conjunto foi utilizado, os modelos resultantes exibiram menor variância em suas previsões, reduzindo assim a arbitrariedade.
Além disso, os experimentos avaliaram o impacto da abordagem em conjunto em diferentes conjuntos de dados, incluindo dados educacionais e previsão de renda. O modelo em conjunto superou modelos individuais em termos de manter a justiça enquanto reduzia inconsistências.
Limitações do Estudo
Embora o método em conjunto proposto mostre potencial para resolver os problemas de multiplicidade preditiva, existem algumas limitações. A necessidade de re-treinar vários modelos pode ser intensiva em recursos, tornando-a menos prática para aplicações em larga escala. Além disso, o método em conjunto pode não garantir que as restrições de justiça sejam atendidas de forma consistente, já que as complexidades inerentes às definições de justiça podem levar a discrepâncias.
Além disso, o foco deste estudo foi na variação causada por aleatoriedade no treinamento do modelo, enquanto outras fontes de multiplicidade preditiva existem. Por exemplo, em configurações determinísticas, os modelos podem apresentar multiplicidade devido a incertezas inerentes em suas avaliações de desempenho.
Conclusão
Em conclusão, a arbitrariedade é um aspecto crucial dos modelos de aprendizado de máquina que deve ser tratado ao lado da justiça e precisão. O algoritmo em conjunto proposto oferece uma abordagem viável para reduzir a multiplicidade preditiva e seus efeitos negativos. Ao misturar vários modelos, o método em conjunto pode levar a previsões mais consistentes, beneficiando, em última análise, a tomada de decisões em aplicações de alto risco.
Os resultados deste estudo destacam a importância de considerar a arbitrariedade em modelos de aprendizado de máquina, especialmente aqueles usados para decisões significativas do mundo real. Trabalhos futuros devem expandir essas ideias, explorando novos métodos para integrar justiça, precisão e arbitrariedade em sistemas de aprendizado de máquina para criar modelos mais justos e confiáveis.
Título: Arbitrariness Lies Beyond the Fairness-Accuracy Frontier
Resumo: Machine learning tasks may admit multiple competing models that achieve similar performance yet produce conflicting outputs for individual samples -- a phenomenon known as predictive multiplicity. We demonstrate that fairness interventions in machine learning optimized solely for group fairness and accuracy can exacerbate predictive multiplicity. Consequently, state-of-the-art fairness interventions can mask high predictive multiplicity behind favorable group fairness and accuracy metrics. We argue that a third axis of ``arbitrariness'' should be considered when deploying models to aid decision-making in applications of individual-level impact. To address this challenge, we propose an ensemble algorithm applicable to any fairness intervention that provably ensures more consistent predictions.
Autores: Carol Xuan Long, Hsiang Hsu, Wael Alghamdi, Flavio P. Calmon
Última atualização: 2023-06-15 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2306.09425
Fonte PDF: https://arxiv.org/pdf/2306.09425
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.