AI安全のためのグローバルスタンダードを設定する
AIの安全基準には国際協力が必要だよね。
― 1 分で読む
目次
人工知能(AI)は、私たちの生活や働き方を急速に変えています。これらのシステムがさらに進化するにつれて、その安全性を確保することが重要です。ここで基準が重要な役割を果たします。基準は、製品やサービスが安全で、うまく機能するようにするためのルールのセットです。これらは、誰もが理解できる共通の言語を提供し、異なる国や企業が効果的に協力するのを助けます。
AIの世界では、適切な基準を設定することでリスクを防ぎ、安全性を高めることができます。この記事では、AI安全研究所(AISIs)がAI安全のための国際基準を作成する役割について語ります。これらの研究所が、世界中でAIシステムが安全に開発・使用されるように、標準設定にどのように貢献できるかについて、3つの異なるモデルを紹介します。
AI安全研究所(AISIs)とは?
AI安全研究所は、AIシステムが安全で効果的であることを確保する専門の組織です。通常、技術的なバックグラウンドがあり、政府の支援を受けています。この専門知識と権威の組み合わせにより、AI安全基準の形成に重要な役割を果たすことができます。
AISIsは技術的な知識を提供し、他国と関わったり、AIの開発や利用を規制する政策に影響を与えたりします。彼らの特異な立場は、さまざまな分野の専門家を集めて、強力なAIシステムに伴うリスクを防ぐための基準を推奨することを可能にします。
AI安全のための国際基準の重要性
AI技術が進化するにつれて、それに伴う潜在的なリスクも増大します。制御されていないAIは、安全上の問題、倫理的なジレンマ、さらにはセキュリティの脅威など、深刻な問題を引き起こす可能性があります。だからこそ、AIシステムが責任を持って開発・使用されることを保証する国際基準を確立することが重要です。
国際基準は、AIの安全性に対する明確な期待を設定します。企業や政府がリスクを最小限に抑え、安全なAIの使用を支援するためのベストプラクティスを開発する際の指針となります。共有された基準に合意することで、異なる国々は効果的に協力し、誤解を減らし、AIシステムがうまく機能することを保証できます。
国際標準設定の3つのモデル
この議論では、AISIsがAI安全のための国際標準設定プロセスに関与するための3つのモデルを示します。それぞれのモデルは異なるアプローチを提供し、安全基準を作成するためにさまざまな関係者が協力します。
モデル1:ソウル宣言署名国間の協力
最初のモデルは、ソウル宣言に署名した国々のグループに焦点を当てています。この合意は、AI安全基準の開発において協力することの重要性を強調しています。このモデルに参加している国々には、オーストラリア、カナダ、EU、日本、UK、アメリカなどが含まれます。
これらの国々が協力することで、共通の価値観を反映した基準を作成するためにリソースと専門知識を統合できます。この小さなグループは、合意に達する可能性が高く、AI技術の急速な進展に迅速に対応できます。
しかし、このモデルには潜在的な欠点もあります。主に先進国が含まれているため、異なる優先事項を持つ国や、まだAI能力を開発中の国々の視点が反映されないことがあります。この排他性は、中国のようなグループ外の国々との緊張を引き起こす可能性があります。
これらの懸念にもかかわらず、AISIsの関与は、開発される基準の正当性を高めるのに役立ちます。彼らの政府の支援は、信頼性を与え、公共や産業の利益を代表することを可能にします。
モデル2:中国を話し合いに含める
第二のモデルは、協力モデルを拡張し、中国というAI開発の主要なプレーヤーをも関与させます。このアプローチは、アメリカと中国の間の信頼を築くことに焦点を当てています。両国がAI技術への重要な投資をしていることを考えると、AI安全に関して協力することで得られるものが多いことを認識しています。
このモデルでは、両国のAISIsが中国の類似の機関と協力することになります。目標は、共通の懸念に対処し、協力を促進する基準を作成することです。このアプローチは政治的緊張のためにより複雑になる可能性がありますが、開発される基準がより広い聴衆に関連することを保証する可能性があります。
このモデルは、既存の不信感があるため協力の枠組みを作ることを目指します。しかし、このモデルでの成功した協力は、将来のアメリカと中国だけでなく、他の国々との協力の前例を設定することができるかもしれません。
モデル3:標準設定におけるグローバル参加
第三のモデルは、AISIsが確立された国際標準設定機関の中で活動するグローバルな包括性に焦点を当てています。このモデルは、国際標準化機構(ISO)などの既存の組織に依存して、AI安全基準を開発します。
このモデルでは、AISIsがそれぞれの国家機関に対して、ISOプロセスに関与するアドバイザーとして活動します。彼らは、AI基準を世界規模で形作るのに役立つ技術的な洞察を提供します。このモデルではAISIsが主導的な役割を果たすことは難しいかもしれませんが、彼らの関与は開発される基準の質を向上させることができます。
このアプローチの利点は、異なる国のさまざまな利害関係者にアピールできることです。しかし、既存の構造が急速に進化するAIの状況に対応できない可能性があるため、時間がかかることがあります。
モデルを評価するための基準
これらのモデルを評価する際には、反応性、正当性、専門知識の3つの主な基準を使用できます。
反応性
反応性は、モデルが技術の変化にどれだけ迅速かつ効果的に適応できるかを指します。AIは急速に進化しており、基準はこれらの発展に追いつく必要があります。反応性の高い標準設定プロセスは、基準が関連性を保ち、有効であることを確保するのに役立ちます。
正当性
正当性は、信頼の問題です。基準は、すべての利害関係者によって公平で信頼できるものと見なされる必要があります。この理由から、さまざまな国やセクターからの広範な参加が、基準に対する所有感を生み出すために必要です。少数の国しか関与していない場合、他の国々はそのプロセスを偏っていると見なすかもしれません。
専門知識
専門知識は、標準設定プロセスにおける技術的な知識を指します。強力な技術的なインプットは、堅牢で効果的な基準を作成するために不可欠です。AISIsは、価値のある技術スキルと知識を提供し、開発される基準が実用的で科学的研究に基づくものであることを確保するのに役立ちます。
結論
AI技術は新しい可能性を生み出していますが、同時に重大なリスクも伴います。AI安全のための国際基準を設定することは、AIの利点を活かしつつこれらのリスクを最小限に抑えるために重要です。AISIsは、効果的に貢献するために必要な技術的専門知識と政府の支援を持っているので、このプロセスにおいて重要な役割を果たします。
示された3つのモデルは、国際標準設定の異なるアプローチを提供しています。それぞれには強みと弱みがあり、すべてがAIの安全性を向上させるという全体的な目的に貢献できます。先進国と発展途上国を含む国々の協力が、包括的で効果的なAI安全基準の枠組みを作るために重要になります。
行動を呼びかける
今後、国々とAISIsはAI安全基準における協力を優先すべきです。共に働き、多様な視点の重要性を認識することで、利害関係者はAI技術がすべての人のために責任を持って安全に開発されることを保証できます。
タイトル: The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety
概要: International standards are crucial for ensuring that frontier AI systems are developed and deployed safely around the world. Since the AI Safety Institutes (AISIs) possess in-house technical expertise, mandate for international engagement, and convening power in the national AI ecosystem while being a government institution, we argue that they are particularly well-positioned to contribute to the international standard-setting processes for AI safety. In this paper, we propose and evaluate three models for AISI involvement: 1. Seoul Declaration Signatories, 2. US (and other Seoul Declaration Signatories) and China, and 3. Globally Inclusive. Leveraging their diverse strengths, these models are not mutually exclusive. Rather, they offer a multi-track system solution in which the central role of AISIs guarantees coherence among the different tracks and consistency in their AI safety focus.
著者: Kristina Fort
最終更新: 2024-09-17 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2409.11314
ソースPDF: https://arxiv.org/pdf/2409.11314
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://github.com/goodfeli/dlbook_notation
- https://openreview.net/forum?id=XXXX
- https://www.unesco.org/en/articles/enabling-ai-governance-and-innovation-through-standards
- https://arxiv.org/abs/2307.03718
- https://www.iso.org/standards.html
- https://cset.georgetown.edu/publication/repurposing-the-wheel/
- https://aistandardshub.org/standards-as-a-foundation-for-success-with-ai/
- https://www.governance.ai/research-paper/standards-for-ai-governance-international-standards-to-enable-global-coordination-in-ai-research-development
- https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial
- https://www.nist.gov/news-events/news/2024/05/us-secretary-commerce-gina-raimondo-releases-strategic-vision-ai-safety
- https://cetas.turing.ac.uk/publications/towards-secure-ai
- https://carnegieendowment.orgundefined?lang=en
- https://www.anec.eu/images/Publications/other-publications/2023/ANEC-DIGITAL-2023-G-138.pdf
- https://carnegieendowment.org/research/2023/02/what-washington-gets-wrong-about-china-and-technical-standards?lang=en
- https://doi.org/10.1111/ropr.12538
- https://www.iso.org/committee/6794475/x/catalogue/p/1/u/0/w/0/d/0
- https://doi.org/10.6028/NIST.AI.100-5
- https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024/seoul-statement-of-intent-toward-international-cooperation-on-ai-safety-science-ai-seoul-summit-2024-annex
- https://carnegieendowment.org/research/2024/08/china-artificial-intelligence-ai-safety-regulation?lang=en
- https://doi.org/10.2139/ssrn.4579899
- https://techpolicy.press/industry-ai-standards-may-be-a-good-bandaid-but-we-need-enforceable-standards-in-the-long-run
- https://montrealethics.ai/harmonizing-artificial-intelligence-the-role-of-standards-in-the-eu-ai-regulation/
- https://www.brookings.edu/articles/small-yards-big-tents-how-to-build-cooperation-on-critical-international-standards/
- https://www.ceps.eu/with-the-ai-act-we-need-to-mind-the-standards-gap/
- https://cset.georgetown.edu/publication/china-ai-standards-system-guidelines-draft/
- https://openreview.net/forum?id=HolEKQhhiRs
- https://www.adalovelaceinstitute.org/blog/role-of-standards-in-ai-governance/
- https://carnegieendowment.org/research/2024/03/ai-and-product-safety-standards-under-the-eu-ai-act?lang=en
- https://www.iso.org/sectors/it-technologies/ai
- https://carnegieendowment.org/research/2023/07/chinas-ai-regulations-and-how-they-get-made?lang=en¢er=global
- https://carnegieendowment.org/research/2024/02/china-ai-regulations-tracing-roots?lang=en
- https://carnegieendowment.org/research/2023/02/china-technical-standards-washington-wrong?lang=en
- https://www.iaps.ai/research/dialogue-topics
- https://unu.edu/cpr/blog-post/ai-global-governance-using-international-standards-agile-tool-governance
- https://doi.org/10.1016/j.jsse.2022.07.005
- https://royalsociety.org/news-resources/publications/2024/un-role-in-international-ai-governance/