Construire la confiance dans les systèmes d'intelligence artificielle
Un aperçu pour s'assurer que les technologies IA sont fiables et dignes de confiance.
― 8 min lire
Table des matières
L'intelligence artificielle (IA) désigne des systèmes informatiques capables d'effectuer des tâches qui nécessitent généralement une intelligence humaine, comme comprendre le langage, reconnaître des motifs et prendre des décisions. Une partie de l'IA connue sous le nom d'apprentissage automatique (AM) se concentre sur les systèmes qui apprennent à partir des données et s'améliorent avec le temps sans être programmés explicitement pour chaque tâche. L'IA peut inclure différentes méthodes, mais cette discussion portera principalement sur l'apprentissage automatique.
Les algorithmes d'apprentissage automatique sont différents des algorithmes traditionnels. Les algorithmes traditionnels résolvent des problèmes directement, comme trier une liste. En revanche, les algorithmes d'apprentissage automatique créent des modèles basés sur des données qui peuvent ensuite être utilisés pour résoudre des problèmes. Ces modèles nous permettent de catégoriser des données ou de prédire des valeurs numériques. Par exemple, dans une tâche de classification, l'algorithme prédit la catégorie à laquelle appartient une entrée, tandis que dans une tâche de régression, il prédit une valeur continue.
Le besoin d'une IA de confiance
Le terme "de confiance" désigne des systèmes fiables, honnêtes et responsables. À mesure que l'IA et l'AM deviennent plus courants dans divers secteurs, il est crucial de s'assurer que ces technologies peuvent être fiables pour prendre des décisions en toute sécurité. L'IA de confiance (IT) concerne la gestion des risques posés par les technologies de l'IA.
Trois thèmes principaux définissent l'IT :
- Caractéristiques techniques : Cela inclut la fiabilité et la sécurité des systèmes.
- Caractéristiques socio-techniques : Cela couvre l'interprétabilité et le biais, en se concentrant sur la façon dont les humains interagissent avec la technologie.
- Caractéristiques sociales : Cela se concentre sur la transparence et l'équité.
Aborder ces thèmes est important pour s'assurer que les systèmes d'IA ne sont pas seulement techniquement solides, mais aussi socialement responsables.
L'importance de la Quantification de l'incertitude
Dans le contexte de l'IA et de la mesure, la quantification de l'incertitude (QI) joue un rôle essentiel. La QI implique l'évaluation de l'incertitude dans les mesures et les prédictions générées par les systèmes d'IA. En Métrologie, la science de la mesure, il est essentiel de rapporter non seulement le résultat de la mesure mais aussi son incertitude. Rapportez une mesure sans indiquer son incertitude est trompeur et incomplet.
L'incertitude peut provenir de diverses sources. Dans les modèles d'IA, il y a deux types à considérer :
- Incertitude aléatoire : C'est l'incertitude inhérente aux données elles-mêmes et souvent aléatoire.
- Incertitude épistémique : Cela concerne l'incertitude dans le modèle, souvent due à un manque de connaissances ou à des données insuffisantes.
Comprendre ces incertitudes est essentiel pour bâtir la confiance dans les systèmes d'IA, car cela aide les utilisateurs à prendre des décisions éclairées sur la base des résultats fournis.
Le rôle de la métrologie dans l'IA
La métrologie fournit un cadre pour appliquer des mesures dans les systèmes d'IA, garantissant qu'ils peuvent être testés pour leur fiabilité et leur précision. Les systèmes de mesure traditionnels utilisent des modèles physiques basés sur des principes scientifiques établis. Cependant, de nombreux systèmes d'IA modernes, en particulier ceux utilisant l'apprentissage automatique, s'appuient sur des approches basées sur les données où l'interprétation physique explicite est moins évidente.
Par exemple, un réseau de neurones (un type de modèle d'apprentissage automatique) peut ne pas facilement établir de lien entre son fonctionnement interne et des concepts physiques. Cela peut rendre la compréhension de la façon dont il génère des prédictions difficile. Par conséquent, établir une relation claire entre les entrées et les sorties de ces systèmes est primordial.
Le besoin d'une IA explicable
L'explicabilité en IA fait référence à la capacité de décrire comment un système d'IA a atteint une décision ou une prédiction particulière. Cet aspect est essentiel pour la confiance, en particulier dans des domaines sensibles comme la santé ou le transport, où des décisions erronées pourraient avoir de graves conséquences.
Dans un modèle boîte noire, le fonctionnement interne n'est pas transparent pour les utilisateurs. Par conséquent, des méthodes doivent être élaborées pour fournir des explications sans compromettre la performance du modèle. Il existe diverses techniques pour offrir des aperçus sur les modèles d'IA, y compris :
- Cartes de saillance : Celles-ci mettent en évidence quelles parties des données d'entrée ont le plus contribué à la prédiction.
- Modèles proxy : Modèles simplifiés qui approximativement le comportement de modèles plus complexes pour améliorer la compréhension.
Promouvoir l'explicabilité aide non seulement à instaurer la confiance, mais également à garantir la responsabilité et l'équité au sein des systèmes d'IA.
Domaines de recherche sur l'IA de confiance
Les institutions de recherche explorent plusieurs domaines où l'IA de confiance peut être développée et appliquée plus efficacement, en particulier en métrologie. Voici quelques domaines clés d'intérêt :
IA explicable : Comme mentionné précédemment, les efforts sont orientés vers la compréhension des fonctionnements des modèles d'IA. Cela inclut le développement de méthodes qui clarifient comment les modèles traitent les entrées pour produire des sorties.
Évaluation de l'incertitude : Les chercheurs affinent des méthodes pour quantifier et gérer l'incertitude dans les modèles d'IA. Cela implique d'établir des directives claires pour mesurer et rapporter les incertitudes au sein des prédictions d'IA afin d'assurer une communication transparente des résultats.
Pratiques sur les données d'entraînement : La qualité des données utilisées pour entraîner les modèles d'IA est cruciale. Établir des meilleures pratiques pour la collecte et la préparation des données peut avoir un impact significatif sur la performance et la fiabilité des systèmes d'IA. Cela inclut s'assurer que les ensembles de données représentent l'environnement opérationnel où l'IA fonctionnera, équilibrant la représentation des classes et maintenant une haute précision d'étiquetage.
Fiabilité dans les applications pratiques
Différents secteurs peuvent bénéficier de la mise en œuvre des principes de l'IA de confiance. Plusieurs exemples illustrent comment ces concepts peuvent être appliqués efficacement :
Santé : L'IA est de plus en plus utilisée dans le diagnostic et les recommandations de traitement. En assurant la confiance grâce à la quantification de l'incertitude et à l'IA explicable, les patients et les praticiens peuvent se sentir plus confiants dans les décisions soutenues par l'IA.
Transport : Dans les voitures autonomes, les systèmes d'IA doivent être transparents et fiables pour gagner la confiance du public. En se concentrant sur l'IA explicable et l'évaluation de l'incertitude, le secteur des transports peut améliorer la sécurité et l'acceptation par les utilisateurs.
Fabrication : L'IA optimise les processus et améliore le contrôle de qualité. L'IA de confiance peut aider à garantir que les systèmes automatisés fonctionnent de manière fiable, ce qui est crucial pour répondre aux normes industrielles et aux exigences réglementaires.
Certification des systèmes d'IA
La certification fait référence à l'évaluation des systèmes d'IA par rapport à des normes et critères établis pour s'assurer qu'ils respectent certaines caractéristiques de confiance. Trois dimensions principales guident les efforts de certification :
Adhésion aux normes : Les systèmes d'IA doivent se conformer à des normes de gestion et de qualité reconnues pour favoriser la cohérence.
Évaluation de la confiance : Les systèmes doivent être évalués en fonction de leur capacité à être fiables, transparents et équitables.
Considération des facteurs humains : L'interaction entre les utilisateurs et les systèmes d'IA doit être évaluée de manière approfondie, abordant les aspects socio-techniques de la confiance.
La certification des systèmes d'IA renforce le cadre dans lequel ils opèrent, garantissant qu'ils s'alignent sur des directives éthiques et des applications pratiques.
Conclusion
En résumé, à mesure que l'IA continue d'évoluer et de s'intégrer dans divers domaines, garantir sa confiance devient vital. En se concentrant sur la quantification de l'incertitude, l'explicabilité et l'adhésion aux meilleures pratiques en matière de données et de certification des systèmes, nous pouvons développer des technologies d'IA auxquelles les gens peuvent faire confiance. Cette approche favorise non seulement la confiance dans les applications d'IA, mais promeut également une utilisation responsable et éthique à travers les secteurs, bénéficiant finalement à la société dans son ensemble.
Titre: Trustworthy Artificial Intelligence in the Context of Metrology
Résumé: We review research at the National Physical Laboratory (NPL) in the area of trustworthy artificial intelligence (TAI), and more specifically trustworthy machine learning (TML), in the context of metrology, the science of measurement. We describe three broad themes of TAI: technical, socio-technical and social, which play key roles in ensuring that the developed models are trustworthy and can be relied upon to make responsible decisions. From a metrology perspective we emphasise uncertainty quantification (UQ), and its importance within the framework of TAI to enhance transparency and trust in the outputs of AI systems. We then discuss three research areas within TAI that we are working on at NPL, and examine the certification of AI systems in terms of adherence to the characteristics of TAI.
Auteurs: Tameem Adel, Sam Bilson, Mark Levene, Andrew Thompson
Dernière mise à jour: 2024-06-14 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2406.10117
Source PDF: https://arxiv.org/pdf/2406.10117
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.