Établir des normes mondiales pour la sécurité de l'IA
La coopération internationale est essentielle pour les normes de sécurité en IA.
― 8 min lire
Table des matières
- C'est quoi les Instituts de Sécurité de l'IA (ISI) ?
- L'importance des normes internationales pour la sécurité de l'IA
- Trois modèles pour l'établissement de normes internationales
- Modèle 1 : Coopération entre les signataires de la Déclaration de Séoul
- Modèle 2 : Inclure la Chine dans la conversation
- Modèle 3 : Participation mondiale à l'établissement de normes
- Critères pour évaluer les modèles
- Réactivité
- Légitimité
- Expertise
- Conclusion
- Appel à l'action
- Source originale
- Liens de référence
L'intelligence artificielle (IA) change vite notre façon de vivre et de bosser. À mesure que ces systèmes deviennent plus avancés, garantir leur sécurité est super important. C'est là que les normes entrent en jeu. Les normes, c'est des règles qui aident à s'assurer que les produits et services sont sûrs et fonctionnent bien. Elles fournissent un langage commun que tout le monde peut comprendre, facilitant la collaboration entre différents pays et entreprises.
Dans le monde de l'IA, établir des normes correctes peut aider à prévenir des risques et améliorer la sécurité. Cet article parle du rôle des Instituts de Sécurité de l'IA (ISI) dans la création de Normes internationales pour la sécurité de l'IA. Il présente trois modèles différents sur la façon dont ces instituts peuvent contribuer à l'établissement de normes qui garantissent que les systèmes d'IA sont développés et utilisés de manière sûre dans le monde entier.
C'est quoi les Instituts de Sécurité de l'IA (ISI) ?
Les ISI sont des organisations spécialisées qui se concentrent sur la garantie que les systèmes d'IA sont sûrs et efficaces. Ils ont souvent un background technologique et sont soutenus par des gouvernements. Cette combinaison d'Expertise et d'autorité leur permet de jouer un rôle majeur dans la définition des normes de sécurité de l'IA.
Les ISI peuvent fournir des connaissances techniques, interagir avec d'autres pays, et influencer les politiques qui régissent le développement et l'utilisation de l'IA. Leur position unique leur permet de rassembler des experts de divers domaines pour recommander des normes qui peuvent prévenir les risques associés aux systèmes d'IA puissants.
L'importance des normes internationales pour la sécurité de l'IA
À mesure que les technologies d'IA avancent, les risques potentiels qui y sont associés augmentent aussi. Une IA incontrôlée pourrait causer de gros problèmes, y compris des soucis de sécurité, des dilemmes éthiques, et même des menaces à la sécurité. Donc, c'est vital d'établir des normes internationales qui garantissent que les systèmes d'IA sont développés et utilisés de manière responsable.
Les normes internationales aident à définir des attentes claires pour la sécurité de l'IA. Elles guident les entreprises et les gouvernements dans le développement de meilleures pratiques qui minimisent les risques et soutiennent l'utilisation sûre de l'IA. En s'accordant sur des normes communes, différents pays peuvent mieux collaborer, réduisant les malentendus et s'assurant que les systèmes d'IA fonctionnent bien ensemble.
Trois modèles pour l'établissement de normes internationales
Cette discussion présente trois modèles à travers lesquels les ISI peuvent s'engager dans le processus d'établissement de normes internationales pour la sécurité de l'IA. Chaque modèle propose une approche différente et implique divers parties travaillant ensemble pour créer des normes de sécurité.
Modèle 1 : Coopération entre les signataires de la Déclaration de Séoul
Le premier modèle se concentre sur un groupe de pays qui ont signé la Déclaration de Séoul. Cet accord souligne l'importance de travailler ensemble pour développer des normes de sécurité de l'IA. Les pays impliqués dans ce modèle incluent l'Australie, le Canada, l'UE, le Japon, le Royaume-Uni, et les États-Unis, entre autres.
En collaborant, ces pays peuvent regrouper leurs ressources et leur expertise pour créer des normes qui reflètent leurs valeurs communes. Ce groupe plus restreint est plus susceptible de parvenir rapidement à des accords, rendant le processus d'établissement des normes plus réactif face au développement rapide des technologies d'IA.
Cependant, ce modèle a aussi quelques inconvénients potentiels. Comme il inclut principalement des pays développés, il pourrait ne pas refléter les perspectives des nations avec d'autres priorités ou celles qui développent encore leurs capacités en IA. Cette exclusion pourrait entraîner des tensions avec des pays en dehors de ce groupe, comme la Chine.
Malgré ces préoccupations, l'implication des ISI dans ce processus peut aider à améliorer la Légitimité des normes en développement. Leur soutien gouvernemental leur confère de la crédibilité et leur permet de représenter les intérêts du public et de l'industrie.
Modèle 2 : Inclure la Chine dans la conversation
Le deuxième modèle étend le modèle de coopération en impliquant aussi la Chine, un acteur majeur du développement de l'IA. Cette approche vise à construire la confiance entre les États-Unis et la Chine. Elle reconnaît que les deux pays ont beaucoup à gagner à coopérer sur la sécurité de l'IA, compte tenu de leurs investissements significatifs dans les technologies d'IA.
Dans ce modèle, les ISI des deux pays travailleraient ensemble avec des institutions similaires en Chine. L'objectif serait de créer des normes qui répondent aux préoccupations mutuelles et favorisent la collaboration. Bien que cette approche puisse être plus complexe à cause des tensions politiques, elle a le potentiel de garantir que les normes développées soient pertinentes pour un public plus large.
Ce modèle vise également à créer un cadre de coopération même si cela peut être difficile à cause de la méfiance existante. Cependant, une collaboration réussie dans ce modèle pourrait établir un précédent pour la coopération future non seulement entre les États-Unis et la Chine, mais aussi avec d'autres pays.
Modèle 3 : Participation mondiale à l'établissement de normes
Le troisième modèle se concentre sur l'inclusion mondiale, où les ISI travaillent au sein des organisations internationales d'établissement de normes déjà en place. Ce modèle s'appuie sur des organismes existants comme l'Organisation internationale de normalisation (ISO) pour développer des normes de sécurité pour l'IA.
Dans ce modèle, les ISI agiraient comme conseillers pour leurs organismes nationaux respectifs impliqués dans les processus ISO. Ils fourniraient des insights techniques qui aideraient à façonner les normes de l'IA à l'échelle mondiale. Bien que ce modèle puisse ne pas permettre aux ISI de jouer un rôle de leader, leur implication peut améliorer la qualité des normes en développement.
L'avantage de cette approche est qu'elle peut séduire un large éventail de parties prenantes de différents pays. Cependant, cela peut aussi être plus lent, car les structures existantes pourraient ne pas être assez agiles pour suivre l'évolution rapide du paysage de l'IA.
Critères pour évaluer les modèles
En évaluant ces modèles, trois critères principaux peuvent être utilisés : Réactivité, légitimité et expertise.
Réactivité
La réactivité fait référence à la rapidité et à l'efficacité avec lesquelles un modèle peut s'adapter aux changements technologiques. L'IA progresse rapidement, et les normes doivent pouvoir suivre ces développements. Un processus d'établissement de normes réactif peut aider à s'assurer que les normes restent pertinentes et efficaces.
Légitimité
La légitimité, c'est une question de confiance. Les normes doivent être perçues comme justes et crédibles par toutes les parties prenantes. Pour cette raison, la participation large de divers pays et secteurs est essentielle pour créer un sentiment d'appropriation des normes. Si seuls quelques pays sont impliqués, d'autres peuvent considérer le processus comme biaisé ou injuste.
Expertise
L'expertise fait référence aux connaissances techniques disponibles dans le processus d'établissement de normes. Une forte contribution technique est vitale pour créer des normes solides et efficaces. Les ISI apportent des compétences et des connaissances techniques précieuses à la table, contribuant à garantir que les normes développées sont pratiques et basées sur des recherches scientifiques.
Conclusion
Les technologies d'IA créent de nouvelles possibilités, mais elles comportent aussi des risques importants. Établir des normes internationales pour la sécurité de l'IA est crucial pour tirer parti des avantages de l'IA tout en minimisant ces risques. Les ISI jouent un rôle important dans ce processus car ils possèdent l'expertise technique et le soutien gouvernemental nécessaires pour contribuer efficacement.
Les trois modèles présentés offrent différentes approches à l'établissement de normes internationales. Chacun a ses forces et ses faiblesses, et tous peuvent contribuer à l'objectif global d'améliorer la sécurité de l'IA. La collaboration entre pays, y compris les nations développées et en développement, sera essentielle pour créer un cadre complet et efficace pour les normes de sécurité de l'IA.
Appel à l'action
Pour l'avenir, les pays et les ISI devraient prioriser la coopération sur les normes de sécurité de l'IA. En travaillant ensemble et en reconnaissant l'importance de perspectives diverses, les parties prenantes peuvent s'assurer que les technologies d'IA sont développées de manière responsable et sûre pour tout le monde.
Titre: The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety
Résumé: International standards are crucial for ensuring that frontier AI systems are developed and deployed safely around the world. Since the AI Safety Institutes (AISIs) possess in-house technical expertise, mandate for international engagement, and convening power in the national AI ecosystem while being a government institution, we argue that they are particularly well-positioned to contribute to the international standard-setting processes for AI safety. In this paper, we propose and evaluate three models for AISI involvement: 1. Seoul Declaration Signatories, 2. US (and other Seoul Declaration Signatories) and China, and 3. Globally Inclusive. Leveraging their diverse strengths, these models are not mutually exclusive. Rather, they offer a multi-track system solution in which the central role of AISIs guarantees coherence among the different tracks and consistency in their AI safety focus.
Auteurs: Kristina Fort
Dernière mise à jour: 2024-09-17 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2409.11314
Source PDF: https://arxiv.org/pdf/2409.11314
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://github.com/goodfeli/dlbook_notation
- https://openreview.net/forum?id=XXXX
- https://www.unesco.org/en/articles/enabling-ai-governance-and-innovation-through-standards
- https://arxiv.org/abs/2307.03718
- https://www.iso.org/standards.html
- https://cset.georgetown.edu/publication/repurposing-the-wheel/
- https://aistandardshub.org/standards-as-a-foundation-for-success-with-ai/
- https://www.governance.ai/research-paper/standards-for-ai-governance-international-standards-to-enable-global-coordination-in-ai-research-development
- https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial
- https://www.nist.gov/news-events/news/2024/05/us-secretary-commerce-gina-raimondo-releases-strategic-vision-ai-safety
- https://cetas.turing.ac.uk/publications/towards-secure-ai
- https://carnegieendowment.orgundefined?lang=en
- https://www.anec.eu/images/Publications/other-publications/2023/ANEC-DIGITAL-2023-G-138.pdf
- https://carnegieendowment.org/research/2023/02/what-washington-gets-wrong-about-china-and-technical-standards?lang=en
- https://doi.org/10.1111/ropr.12538
- https://www.iso.org/committee/6794475/x/catalogue/p/1/u/0/w/0/d/0
- https://doi.org/10.6028/NIST.AI.100-5
- https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024/seoul-statement-of-intent-toward-international-cooperation-on-ai-safety-science-ai-seoul-summit-2024-annex
- https://carnegieendowment.org/research/2024/08/china-artificial-intelligence-ai-safety-regulation?lang=en
- https://doi.org/10.2139/ssrn.4579899
- https://techpolicy.press/industry-ai-standards-may-be-a-good-bandaid-but-we-need-enforceable-standards-in-the-long-run
- https://montrealethics.ai/harmonizing-artificial-intelligence-the-role-of-standards-in-the-eu-ai-regulation/
- https://www.brookings.edu/articles/small-yards-big-tents-how-to-build-cooperation-on-critical-international-standards/
- https://www.ceps.eu/with-the-ai-act-we-need-to-mind-the-standards-gap/
- https://cset.georgetown.edu/publication/china-ai-standards-system-guidelines-draft/
- https://openreview.net/forum?id=HolEKQhhiRs
- https://www.adalovelaceinstitute.org/blog/role-of-standards-in-ai-governance/
- https://carnegieendowment.org/research/2024/03/ai-and-product-safety-standards-under-the-eu-ai-act?lang=en
- https://www.iso.org/sectors/it-technologies/ai
- https://carnegieendowment.org/research/2023/07/chinas-ai-regulations-and-how-they-get-made?lang=en¢er=global
- https://carnegieendowment.org/research/2024/02/china-ai-regulations-tracing-roots?lang=en
- https://carnegieendowment.org/research/2023/02/china-technical-standards-washington-wrong?lang=en
- https://www.iaps.ai/research/dialogue-topics
- https://unu.edu/cpr/blog-post/ai-global-governance-using-international-standards-agile-tool-governance
- https://doi.org/10.1016/j.jsse.2022.07.005
- https://royalsociety.org/news-resources/publications/2024/un-role-in-international-ai-governance/