Melhorando a Confiança nas Pontuações SHAP
Abordando as questões dos scores SHAP pra uma explicação melhor do modelo.
― 7 min ler
Índice
- O que são as Pontuações SHAP?
- A Popularidade do SHAP
- Questões com as Pontuações SHAP
- Explicações Enganosas
- Efeitos de Interação
- Resultados Inconsistentes
- Limitações das Abordagens Atuais
- Soluções Propostas
- Independência Fraca de Classe
- Conformidade com a Relevância dos Recursos
- Neutralidade Numérica
- Novas Funções Características
- Função de Similaridade
- Funções Baseadas em AXp e CXp
- Complexidade do Cálculo das Pontuações SHAP
- Casos Intratáveis
- Casos de Tempo Polinomial
- Testando as Melhorias
- Análise Empírica
- Conclusão
- Fonte original
- Ligações de referência
Nos últimos anos, o aprendizado de máquina se tornou uma parte vital da tomada de decisões em várias áreas. No entanto, a confiança das pessoas em modelos de aprendizado de máquina geralmente depende de entender como esses modelos tomam decisões. Para resolver isso, um método conhecido como SHAP (SHapley Additive exPlanations) tem sido amplamente utilizado. As pontuações SHAP ajudam a explicar previsões individuais, mostrando a importância de cada recurso para fazer essas previsões.
Apesar de sua popularidade, o SHAP enfrentou críticas por ser enganoso em certas situações. Este artigo vai discutir os problemas em torno das pontuações SHAP e propor novos métodos para melhorar sua confiabilidade.
O que são as Pontuações SHAP?
As pontuações SHAP são baseadas nos valores de Shapley da teoria dos jogos cooperativos. Em termos simples, os valores de Shapley ajudam a atribuir o pagamento total de um jogo a cada jogador com base em sua contribuição. No contexto do aprendizado de máquina, "jogadores" são os Recursos usados em um modelo, e o "pagamento" é o resultado previsto. O objetivo é entender como cada recurso contribui para fazer uma previsão específica.
Quando um modelo faz uma previsão, as pontuações SHAP fornecem uma forma de medir a influência de cada recurso. Uma pontuação SHAP positiva significa que o recurso tem um impacto positivo na previsão, enquanto uma pontuação negativa indica um impacto negativo.
A Popularidade do SHAP
As pontuações SHAP ganharam força porque oferecem uma forma consistente de avaliar a importância dos recursos. O método considera todas as combinações possíveis de recursos, garantindo que as pontuações sejam calculadas de forma justa. É por isso que muitos pesquisadores e profissionais confiam no SHAP para analisar modelos de aprendizado de máquina.
Questões com as Pontuações SHAP
Apesar de suas vantagens, estudos recentes apontaram alguns problemas significativos com as pontuações SHAP. Essas questões surgem da forma como o SHAP calcula as contribuições dos recursos. Aqui estão algumas das principais preocupações:
Explicações Enganosas
Em alguns casos, as pontuações SHAP podem atribuir alta importância a recursos que, na verdade, têm pouco ou nenhum impacto nas previsões do modelo. Isso acontece quando as funções características subjacentes usadas em trabalhos anteriores não são adequadas. Por exemplo, quando um modelo classifica uma instância usando múltiplos recursos, o SHAP pode indicar incorretamente que recursos menos relevantes são mais importantes do que aqueles que realmente impulsionam a previsão.
Efeitos de Interação
Outro problema é que o SHAP nem sempre leva em conta as interações entre os recursos de forma adequada. Em muitos cenários do mundo real, os recursos não funcionam de forma independente. Quando dois ou mais recursos afetam a previsão juntos, as pontuações SHAP podem falhar em refletir essa relação, levando a valores de importância distorcidos.
Resultados Inconsistentes
Quando a classe prevista muda, as pontuações SHAP também podem mudar significativamente, dificultando a confiança na consistência das explicações. Essa inconsistência pode confundir os usuários que tentam entender o comportamento do modelo.
Limitações das Abordagens Atuais
Várias tentativas foram feitas para abordar essas limitações das pontuações SHAP, propondo funções características alternativas. No entanto, muitas dessas alternativas ainda sofrem de problemas semelhantes. Algumas não respeitam propriedades fundamentais que garantem explicações confiáveis, o que diminui ainda mais sua credibilidade.
Soluções Propostas
Para melhorar a confiabilidade das pontuações SHAP, precisamos focar no desenvolvimento de novas funções características que possam superar os problemas existentes. Em particular, devemos buscar funções que respeitem propriedades-chave necessárias para uma atribuição precisa de recursos. Aqui estão algumas das propriedades propostas:
Independência Fraca de Classe
Uma Função Característica deve ser capaz de produzir pontuações SHAP que não sejam afetadas por mudanças irrelevantes nos valores de classe. Isso significa que, quando as classes são mapeadas de forma diferente, as pontuações SHAP devem permanecer as mesmas, garantindo que a importância dos recursos seja avaliada somente com base em suas contribuições reais.
Conformidade com a Relevância dos Recursos
As funções características devem respeitar a relevância dos recursos. Especificamente, um recurso deve ser considerado irrelevante se sua pontuação SHAP for zero. Essa propriedade garante que as explicações fornecidas sejam significativas e não enganem os usuários.
Neutralidade Numérica
Muitos problemas de classificação envolvem recursos que podem assumir vários tipos de valores, como numéricos ou categóricos. Uma função característica robusta deve ser aplicável a ambos os tipos sem introduzir inconsistências nas pontuações SHAP.
Novas Funções Características
A busca por melhores funções características levou ao desenvolvimento de vários novos candidatos que visam aderir às propriedades listadas acima. Essas funções são projetadas para garantir que as pontuações SHAP forneçam informações precisas e confiáveis sobre a importância dos recursos.
Função de Similaridade
As novas funções se baseiam em uma abordagem de similaridade. Essa abordagem avalia quão de perto a instância atual se alinha com as previsões feitas pelo modelo. Ela atribui um valor de um quando o resultado previsto corresponde à instância sendo analisada.
Funções Baseadas em AXp e CXp
Duas funções características adicionais são baseadas em AXps e CXps, que se concentram em garantir que as pontuações SHAP derivadas capturem com precisão as contribuições dos recursos relevantes enquanto ignoram os irrelevantes.
Essas novas funções visam minimizar as informações enganosas frequentemente geradas pelos métodos existentes. Ao alinhar as funções características com as propriedades desejadas, torna-se possível obter pontuações SHAP em que se pode confiar de forma mais eficaz.
Complexidade do Cálculo das Pontuações SHAP
Outra preocupação em modificar as pontuações SHAP envolve a complexidade de calculá-las com base nas novas funções propostas. O esforço computacional necessário para determinar as pontuações SHAP impacta significativamente as aplicações práticas.
Casos Intratáveis
Para certos tipos de classificadores, calcular as pontuações SHAP pode ser altamente complexo. Por exemplo, algumas funções podem exigir buscas exaustivas por combinações de recursos potenciais, levando a situações intratáveis, especialmente para grandes conjuntos de dados.
Casos de Tempo Polinomial
No entanto, também existem casos em que algoritmos podem calcular pontuações SHAP de forma eficiente. Para certos modelos representados em formatos tabulares, algoritmos em tempo polinomial podem ser desenvolvidos. Esses algoritmos podem calcular as pontuações SHAP de forma eficiente, utilizando também as novas funções características.
Testando as Melhorias
Para validar as melhorias introduzidas pelas novas funções características, é essencial realizar testes comparando os resultados obtidos através do SHAP tradicional com aqueles derivados das novas abordagens. Essas comparações devem se concentrar em identificar discrepâncias nas classificações de importância dos recursos.
Análise Empírica
A análise envolve avaliar vários classificadores de aprendizado de máquina sob diferentes instâncias para ver como os novos métodos se desempenham na prática. Ao examinar se recursos inadvertidamente irrelevantes são classificados acima dos relevantes, podemos medir a eficácia das novas funções características.
Conclusão
Em resumo, as pontuações SHAP se estabeleceram como um método popular para explicar previsões de modelos em aprendizado de máquina. No entanto, elas não estão isentas de falhas, incluindo explicações enganosas, efeitos de interação e problemas de consistência. Ao desenvolver novas funções características que respeitem propriedades essenciais, podemos melhorar as pontuações SHAP e aumentar sua confiabilidade.
O trabalho contínuo na refinamento do SHAP indica um futuro promissor para as explicações de modelos, levando a uma maior confiança nas aplicações de aprendizado de máquina. À medida que pesquisadores e profissionais continuam a explorar esses novos métodos, podemos aguardar maneiras ainda mais eficazes de entender as decisões feitas por modelos complexos.
Título: Towards trustable SHAP scores
Resumo: SHAP scores represent the proposed use of the well-known Shapley values in eXplainable Artificial Intelligence (XAI). Recent work has shown that the exact computation of SHAP scores can produce unsatisfactory results. Concretely, for some ML models, SHAP scores will mislead with respect to relative feature influence. To address these limitations, recently proposed alternatives exploit different axiomatic aggregations, all of which are defined in terms of abductive explanations. However, the proposed axiomatic aggregations are not Shapley values. This paper investigates how SHAP scores can be modified so as to extend axiomatic aggregations to the case of Shapley values in XAI. More importantly, the proposed new definition of SHAP scores avoids all the known cases where unsatisfactory results have been identified. The paper also characterizes the complexity of computing the novel definition of SHAP scores, highlighting families of classifiers for which computing these scores is tractable. Furthermore, the paper proposes modifications to the existing implementations of SHAP scores. These modifications eliminate some of the known limitations of SHAP scores, and have negligible impact in terms of performance.
Autores: Olivier Letoffe, Xuanxiang Huang, Joao Marques-Silva
Última atualização: 2024-12-18 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2405.00076
Fonte PDF: https://arxiv.org/pdf/2405.00076
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.