Réévaluer les explications de l'IA : au-delà de la plausibilité
Évaluer les explications de l'IA nécessite clarté et précision, pas juste avoir l'air raisonnable.
― 10 min lire
Table des matières
Ces dernières années, l'intelligence artificielle (IA) est devenue un outil important dans plein de domaines. Mais, comme les systèmes d'IA influencent des décisions qui peuvent affecter la vie des gens, c'est super important que ces systèmes donnent des explications claires et compréhensibles pour leurs actions. Ça a donné naissance à l'intelligence artificielle explicable (XAI). Ce domaine vise à rendre les systèmes d'IA transparents et capables d'expliquer leurs décisions de manière compréhensible pour les humains. Mais comment on mesure l'efficacité de ces explications ?
Une façon courante d'évaluer les explications, c'est de regarder leur plausibilité. Ça veut dire juger à quel point les explications de l'IA sont raisonnables par rapport à ce qu'un humain pourrait dire. Bien que la plausibilité ait été vue comme un critère important, s'y fier uniquement a des inconvénients majeurs. Ça peut mener à des malentendus sur le fonctionnement des systèmes d'IA et créer des problèmes de confiance entre humains et machines.
L'Importance d'une Évaluation Appropriée
Pour que l'IA soit utile, elle doit fournir des explications qui correspondent à la façon dont les humains pensent et raisonnent. Ces explications devraient aider les utilisateurs dans leur processus de prise de décision. Cependant, simplement optimiser la plausibilité-faire en sorte que l'explication de la machine ressemble à celle d'un humain-peut être contre-productif. Ça mène souvent à des explications qui peuvent sembler bonnes mais qui ne représentent pas correctement comment l'IA a atteint ses conclusions. Ça crée une fausse impression de compréhension et peut amener les utilisateurs à trop se fier à l'IA, même quand elle peut se tromper.
Aller au-delà de la Plausibilité
La plausibilité n'est pas un objectif adéquat pour évaluer les explications de l'IA. Quand on se concentre uniquement sur le fait de rendre les explications plausibles, on risque de perdre de vue ce qui est réellement important : penser à la manière dont les explications aident les utilisateurs à comprendre le processus de prise de décision de l'IA.
Au lieu de forcer l'IA à imiter les explications humaines, on devrait permettre une plus grande variété de styles explicatifs. Le contenu d'une explication peut varier tant que la forme qu'elle prend est compréhensible pour les humains. En gros, les explications devraient être rédigées de manière à soutenir le raisonnement humain, plutôt que de simplement sonner comme ce qu'un humain pourrait dire. Cette approche va aider à rester concentré sur les objectifs de l'explication-comme garantir la confiance et la compréhension-tout en permettant une flexibilité dans la manière dont ces explications sont délivrées.
La Signification des Termes Clés
Pour mieux discuter de l'évaluation des explications de l'IA, il est important de clarifier quelques termes clés.
Responsabilité fait référence à la capacité de déterminer si une décision d'IA a été prise selon les bons standards et à tenir quelqu'un responsable si ce n'est pas le cas.
Transparence concerne le fait de s'assurer que les utilisateurs peuvent voir et comprendre comment l'IA prend ses décisions.
Compréhension signifie que les utilisateurs peuvent saisir comment l'IA fonctionne sans avoir besoin de connaissances techniques profondes.
Fiabilité concerne la capacité à se fier à l'IA pour être honnête et précise dans ses décisions.
Vérité se rapporte à la question de savoir si les explications de l'IA reflètent fidèlement comment elle a pris ses décisions.
Plausibilité mesure à quel point l'explication d'une machine est convaincante selon le jugement humain.
L'apport humain est essentiel dans la conception et l'évaluation des explications de l'IA. Cependant, se fier uniquement à la plausibilité comme mesure peut être problématique. Bien qu'il soit courant de juger les explications sur leur sonorité raisonnable, cela ne reflète pas toujours la vérité du processus décisionnel de l'IA.
Pourquoi la Plausibilité Peut Être Trompeuse
La plausibilité est souvent considérée comme une mesure fondamentale de la qualité d'une explication d'IA. Mais c'est une approche défaillante. Il ne faut pas oublier que les jugements humains sur la plausibilité sont basés sur l'hypothèse que l'explication représente fidèlement le processus décisionnel de l'IA.
Cependant, cette hypothèse n'est pas toujours vraie. Beaucoup de systèmes d'IA ne fournissent pas d'explications qui reflètent fidèlement leurs processus décisionnels. Si on priorise la plausibilité sans garantir la véracité, on risque de créer des explications qui sonnent bien mais peuvent être trompeuses. Ce n'est pas juste une préoccupation théorique-il y a des risques réels, surtout dans des domaines critiques comme la santé ou la justice pénale, où se fier à des explications trompeuses peut mener à des résultats dangereux.
Le Compromis Entre Plausibilité et Vérité
Même si une explication d'IA s'aligne avec le véritable processus décisionnel du système, pousser pour la plausibilité peut quand même créer des conflits. Le raisonnement et les conclusions des systèmes d'IA diffèrent du raisonnement humain. Les modèles d'IA peuvent être entraînés de manière à ne pas ressembler aux processus de pensée humains, donc leurs explications ne correspondent pas toujours aux schémas de raisonnement humain.
Forcer l'IA à produire des explications qui s'alignent sur le raisonnement humain peut entraîner une baisse de performance pour certaines tâches. Ça veut dire que même si une IA fournit une explication qui semble plausible, elle pourrait ne pas donner l'information la plus précise ou utile.
Comprendre la Transparence
Pour qu'un outil d'IA soit transparent, il doit révéler son processus décisionnel avec précision. Si une explication est bien présentée et véridique, cela peut rendre le modèle d'IA plus compréhensible. Cependant, simplement ajuster le contenu pour sonner plus comme les explications humaines ne garantit pas forcément une meilleure transparence.
La transparence devrait porter sur la clarté et la précision. Les utilisateurs devraient pouvoir voir comment l'IA traite les informations et prend des décisions basées sur la vérité, plutôt que de se fier à des similarités superficielles avec les explications humaines.
Construire la Confiance dans l'IA
La confiance est un autre domaine critique où la plausibilité peut causer des complications. La confiance dans l'IA provient de la croyance que les explications fournies reflètent un raisonnement précis et solide. Si les utilisateurs perçoivent des explications comme plausibles mais découvrent plus tard qu'elles étaient basées sur un raisonnement défaillant, leur confiance peut être sérieusement ébranlée.
Dans des environnements à enjeux élevés, les conséquences d'une confiance mal placée peuvent être désastreuses. Par exemple, un professionnel de la santé pourrait se fier à l'explication qui semble plausible d'une IA pour un diagnostic, menant à des erreurs critiques dans les soins aux patients. Donc, pour favoriser la confiance, les explications de l'IA doivent non seulement sonner bien, mais aussi fournir des aperçus précis du processus décisionnel.
Le Rôle de l'Évaluation Centrée sur l'Humain
Pour améliorer les explications de l'IA, les pratiques d'évaluation doivent changer. Au lieu de se concentrer sur la plausibilité, il faudrait donner la priorité à la manière dont les explications aident les utilisateurs à atteindre leurs objectifs spécifiques en utilisant l'IA. Par exemple, une explication peut être considérée comme utile si elle aide à comprendre des décisions, à vérifier des résultats ou à déceler des biais.
Utiliser la plausibilité comme un pas vers une meilleure compréhension est plus productif que de la faire devenir l'objectif final. Au contraire, on devrait l'utiliser pour évaluer à quel point une explication s'aligne avec les besoins des utilisateurs et les tâches de prise de décision, en s'assurant qu'elle mène à de meilleurs résultats.
Distinguer les Différentes Tâches
Un autre point clé est la distinction entre l'explicabilité de l'IA et d'autres tâches connexes, comme la localisation. La localisation consiste à identifier des caractéristiques spécifiques dans un ensemble de données, et bien que cela puisse fournir plus d'informations sur le modèle, cela ne remplit pas nécessairement l'objectif de l'explication.
Une explication devrait aller au-delà de la simple identification ; elle doit aider les utilisateurs à comprendre le raisonnement derrière les décisions, alors que la localisation peut ne pas répondre à cette exigence. Évaluer l'IA uniquement sur la base de métriques de localisation ne satisfait pas les demandes uniques de l'explicabilité.
Avancer dans la Recherche sur la XAI
Les méthodes actuelles d'évaluation des explications de l'IA ont besoin d'une amélioration significative. L'accent devrait être mis sur le développement de mesures meilleures, centrées sur l'utilisateur, qui prennent en compte ce dont les utilisateurs ont vraiment besoin de l'IA. Cela nécessite une compréhension plus approfondie de la manière dont les gens interprètent les explications de l'IA et comment les styles d'explication peuvent être adaptés pour répondre à des besoins divers.
Le développement de la XAI devrait être informé par des recherches continues sur les facteurs humains. Cela signifie mener des études et évaluations utilisateurs qui guideront le développement technique des systèmes XAI.
L'Impact Sociétal de la XAI
Les outils d'IA sont de plus en plus utilisés dans les processus de prise de décision à travers la société. Par conséquent, il est essentiel que nous tenions ces systèmes responsables de leurs décisions. Les explications jouent un rôle vital en permettant aux individus de remettre en question et de contester les décisions de l'IA, garantissant ainsi qu'il y ait transparence dans le fonctionnement de ces systèmes.
Cependant, simplement développer des explications qui semblent plausibles ne suffit pas. Elles doivent être rigoureusement validées pour s'assurer qu'elles offrent de véritables reflets du fonctionnement de l'IA. Sinon, nous risquons de tromper les utilisateurs et de permettre aux systèmes d'IA de fonctionner sans les vérifications et les équilibres nécessaires pour maintenir la responsabilité.
Conclusion : Un Appel à l'Action
Étant donné l'importance des explications claires et précises de l'IA, il est temps de reconsidérer comment nous évaluons et optimisons ces systèmes. Se fier uniquement à la plausibilité peut mener à des malentendus et à de mauvais résultats. Au lieu de cela, nous devons nous concentrer sur ce qui compte vraiment : améliorer la manière dont l'IA communique ses processus décisionnels et s'assurer que ces explications servent efficacement les besoins des utilisateurs.
Ce changement nécessite des efforts collaboratifs dans la recherche, combinant des perspectives du développement technique de l'IA et des études centrées sur l'utilisateur. En alignant la conception et l'évaluation des explications de l'IA avec les schémas de raisonnement humain et les besoins de prise de décision, nous pouvons développer des systèmes d'IA qui sont non seulement efficaces mais aussi dignes de confiance, transparents et responsables.
Titre: Why is plausibility surprisingly problematic as an XAI criterion?
Résumé: Explainable artificial intelligence (XAI) is motivated by the problem of making AI predictions understandable, transparent, and responsible, as AI becomes increasingly impactful in society and high-stakes domains. XAI algorithms are designed to explain AI decisions in human-understandable ways. The evaluation and optimization criteria of XAI are gatekeepers for XAI algorithms to achieve their expected goals and should withstand rigorous inspection. To improve the scientific rigor of XAI, we conduct the first critical examination of a common XAI criterion: plausibility. It measures how convincing the AI explanation is to humans, and is usually quantified by metrics on feature localization or correlation of feature attribution. Our examination shows, although plausible explanations can improve users' understanding and local trust in an AI decision, doing so is at the cost of abandoning other possible approaches of enhancing understandability, increasing misleading explanations that manipulate users, being unable to achieve complementary human-AI task performance, and deteriorating users' global trust in the overall AI system. Because the flaws outweigh the benefits, we do not recommend using plausibility as a criterion to evaluate or optimize XAI algorithms. We also identify new directions to improve XAI on understandability and utility to users including complementary human-AI task performance.
Auteurs: Weina Jin, Xiaoxiao Li, Ghassan Hamarneh
Dernière mise à jour: 2024-06-18 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2303.17707
Source PDF: https://arxiv.org/pdf/2303.17707
Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://doi.org/10.48550/arxiv.2201.08164
- https://doi.org/10.48550/arxiv.2010.12016
- https://doi.org/10.48550/arxiv.2006.04948,jacovi-goldberg-2020-towards
- https://doi.org/10.48550/arxiv.1711.07414
- https://doi.org/10.48550/arxiv.2202.04092,euca,JIN2023102684
- https://doi.org/10.48550/arxiv.2202.04092,
- https://doi.org/10.48550/arxiv.2301.07255,hemmer2021human