Estabelecendo Padrões Globais para a Segurança da IA
A cooperação internacional é essencial para os padrões de segurança da IA.
― 8 min ler
Índice
- O Que São os Institutos de Segurança em IA (AISIs)?
- A Importância de Padrões Internacionais para a Segurança em IA
- Três Modelos para Definição de Padrões Internacionais
- Modelo 1: Cooperação Entre os Signatários da Declaração de Seul
- Modelo 2: Incluindo a China na Conversa
- Modelo 3: Participação Global na Definição de Padrões
- Critérios para Avaliar os Modelos
- Responsividade
- Legitimidade
- Expertise
- Conclusão
- Chamada à Ação
- Fonte original
- Ligações de referência
A Inteligência Artificial (IA) tá mudando rápido como a gente vive e trabalha. À medida que esses sistemas ficam mais avançados, garantir a segurança deles é fundamental. É aí que entram os padrões. Padrões são um conjunto de regras que ajudam a garantir que produtos e serviços sejam seguros e funcionem bem. Eles criam uma linguagem comum que todo mundo entende, ajudando diferentes países e empresas a trabalharem juntos de forma eficaz.
No mundo da IA, estabelecer padrões adequados pode prevenir riscos e aumentar a segurança. Esse artigo fala sobre o papel dos Institutos de Segurança em IA (AISIs) em criar padrões internacionais para a segurança da IA. Apresenta três modelos diferentes de como esses institutos podem contribuir para a definição de padrões de maneira que assegure que os sistemas de IA sejam desenvolvidos e usados com segurança ao redor do mundo.
O Que São os Institutos de Segurança em IA (AISIs)?
Os Institutos de Segurança em IA são organizações especializadas que focam em garantir que os sistemas de IA sejam seguros e eficazes. Normalmente, eles têm um background em tecnologia e são apoiados por governos. Essa combinação de expertise e autoridade permite que eles desempenhem um papel significativo na formulação de padrões de segurança em IA.
Os AISIs podem fornecer conhecimento técnico, se envolver com outros países e influenciar políticas que regem o desenvolvimento e o uso de IA. A posição única deles permite que reúnam especialistas de várias áreas para recomendar padrões que possam prevenir riscos associados a sistemas de IA poderosos.
A Importância de Padrões Internacionais para a Segurança em IA
À medida que as tecnologias de IA avançam, os potenciais riscos associados a elas também aumentam. Uma IA descontrolada pode levar a problemas sérios, incluindo questões de segurança, dilemas éticos e até ameaças à segurança. Portanto, é vital estabelecer padrões internacionais que garantam que os sistemas de IA sejam desenvolvidos e usados de maneira responsável.
Padrões internacionais ajudam a definir expectativas claras para a segurança em IA. Eles orientam empresas e governos a desenvolverem melhores práticas que minimizem riscos e apoiem o uso seguro da IA. Ao concordar com padrões compartilhados, diferentes nações podem colaborar de forma mais eficaz, reduzindo mal-entendidos e garantindo que os sistemas de IA funcionem bem juntos.
Três Modelos para Definição de Padrões Internacionais
Essa discussão apresenta três modelos pelos quais os AISIs podem se envolver no processo de definição de padrões internacionais para a segurança em IA. Cada modelo oferece uma abordagem diferente e envolve várias partes trabalhando juntas para criar padrões de segurança.
Modelo 1: Cooperação Entre os Signatários da Declaração de Seul
O primeiro modelo se concentra em um grupo de países que assinaram a Declaração de Seul. Esse acordo enfatiza a importância de trabalhar juntos para desenvolver padrões de segurança em IA. Os países envolvidos nesse modelo incluem Austrália, Canadá, UE, Japão, Reino Unido e EUA, entre outros.
Colaborando, esses países podem unir seus recursos e expertise para criar padrões que reflitam seus valores comuns. Esse grupo menor é mais propenso a chegar a acordos rapidamente, tornando o processo de definição de padrões mais ágil em relação ao desenvolvimento rápido das tecnologias de IA.
No entanto, esse modelo também tem algumas desvantagens potenciais. Como inclui principalmente países desenvolvidos, pode não refletir as perspectivas de nações com prioridades diferentes ou aquelas que ainda estão desenvolvendo suas capacidades em IA. Essa exclusividade pode gerar tensões com países fora desse grupo, como a China.
Apesar dessas preocupações, a participação dos AISIs nesse processo pode ajudar a melhorar a Legitimidade dos padrões sendo desenvolvidos. O apoio do governo dá a eles credibilidade e permite que representem os interesses do público e da indústria.
Modelo 2: Incluindo a China na Conversa
O segundo modelo amplia o modelo de cooperação ao incluir a China, um jogador importante no desenvolvimento da IA. Essa abordagem foca em construir confiança entre os EUA e a China. Reconhece que ambos os países têm muito a ganhar cooperando na segurança da IA, dado seus significativos investimentos em tecnologias de IA.
Nesse modelo, os AISIs de ambos os países trabalhariam juntos com instituições similares na China. O objetivo seria criar padrões que abordassem preocupações mútuas e promovesse a colaboração. Embora essa abordagem possa ser mais complexa devido a tensões políticas, ela tem o potencial de garantir que os padrões desenvolvidos sejam relevantes para um público mais amplo.
Esse modelo também visa criar um framework de cooperação, mesmo que isso possa ser desafiador devido à desconfiança existente. No entanto, uma colaboração bem-sucedida nesse modelo poderia estabelecer um precedente para futuras cooperações, não só entre os EUA e a China, mas também com outros países.
Modelo 3: Participação Global na Definição de Padrões
O terceiro modelo foca na inclusão global, onde os AISIs trabalham dentro de organizações internacionais de definição de padrões já estabelecidas. Esse modelo se baseia em órgãos existentes, como a Organização Internacional de Normalização (ISO), para desenvolver padrões de segurança em IA.
Nesse modelo, os AISIs atuariam como consultores para seus respectivos órgãos nacionais envolvidos nos processos da ISO. Eles forneceriam insights técnicos que ajudariam a moldar os padrões de IA em uma escala global. Embora esse modelo possa não permitir que os AISIs assumam um papel de liderança, sua participação pode aprimorar a qualidade dos padrões sendo desenvolvidos.
A vantagem dessa abordagem é que pode atrair uma ampla gama de partes interessadas de diferentes nações. No entanto, pode ser mais lento, já que as estruturas existentes podem não ser ágeis o suficiente para acompanhar a rápida evolução do cenário da IA.
Critérios para Avaliar os Modelos
Ao avaliar esses modelos, três critérios principais podem ser utilizados: Responsividade, legitimidade e expertise.
Responsividade
Responsividade se refere a quão rápido e efetivamente um modelo pode se adaptar às mudanças na tecnologia. A IA está avançando rapidamente e os padrões precisam acompanhar esses desenvolvimentos. Um processo de definição de padrões responsivo pode ajudar a garantir que os padrões permaneçam relevantes e eficazes.
Legitimidade
Legitimidade trata de confiança. Os padrões precisam ser vistos como justos e credíveis por todas as partes interessadas. Por isso, a participação ampla de vários países e setores é essencial para criar um senso de pertencimento sobre os padrões. Se apenas alguns países estiverem envolvidos, outros podem enxergar o processo como tendencioso ou injusto.
Expertise
Expertise se refere ao conhecimento técnico disponível no processo de definição de padrões. Um forte input técnico é vital para criar padrões robustos e eficazes. Os AISIs trazem habilidades e conhecimentos técnicos valiosos, ajudando a garantir que os padrões desenvolvidos sejam práticos e fundamentados em pesquisas científicas.
Conclusão
As tecnologias de IA estão criando novas possibilidades, mas também trazem riscos significativos. Definir padrões internacionais para a segurança em IA é crucial para aproveitar os benefícios da IA enquanto minimiza esses riscos. Os AISIs desempenham um papel importante nesse processo, pois possuem a expertise técnica e o apoio governamental necessários para contribuir de forma eficaz.
Os três modelos apresentados oferecem diferentes abordagens para a definição de padrões internacionais. Cada um tem seus pontos fortes e fracos, e todos podem contribuir para o objetivo geral de melhorar a segurança em IA. A colaboração entre países, incluindo nações desenvolvidas e em desenvolvimento, será fundamental para criar um framework abrangente e eficaz para padrões de segurança em IA.
Chamada à Ação
Seguindo em frente, países e AISIs devem priorizar a colaboração em padrões de segurança em IA. Trabalhando juntos e reconhecendo a importância de perspectivas diversas, os envolvidos podem garantir que as tecnologias de IA sejam desenvolvidas de forma responsável e segura para todos.
Título: The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety
Resumo: International standards are crucial for ensuring that frontier AI systems are developed and deployed safely around the world. Since the AI Safety Institutes (AISIs) possess in-house technical expertise, mandate for international engagement, and convening power in the national AI ecosystem while being a government institution, we argue that they are particularly well-positioned to contribute to the international standard-setting processes for AI safety. In this paper, we propose and evaluate three models for AISI involvement: 1. Seoul Declaration Signatories, 2. US (and other Seoul Declaration Signatories) and China, and 3. Globally Inclusive. Leveraging their diverse strengths, these models are not mutually exclusive. Rather, they offer a multi-track system solution in which the central role of AISIs guarantees coherence among the different tracks and consistency in their AI safety focus.
Autores: Kristina Fort
Última atualização: 2024-09-17 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2409.11314
Fonte PDF: https://arxiv.org/pdf/2409.11314
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://github.com/goodfeli/dlbook_notation
- https://openreview.net/forum?id=XXXX
- https://www.unesco.org/en/articles/enabling-ai-governance-and-innovation-through-standards
- https://arxiv.org/abs/2307.03718
- https://www.iso.org/standards.html
- https://cset.georgetown.edu/publication/repurposing-the-wheel/
- https://aistandardshub.org/standards-as-a-foundation-for-success-with-ai/
- https://www.governance.ai/research-paper/standards-for-ai-governance-international-standards-to-enable-global-coordination-in-ai-research-development
- https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial
- https://www.nist.gov/news-events/news/2024/05/us-secretary-commerce-gina-raimondo-releases-strategic-vision-ai-safety
- https://cetas.turing.ac.uk/publications/towards-secure-ai
- https://carnegieendowment.orgundefined?lang=en
- https://www.anec.eu/images/Publications/other-publications/2023/ANEC-DIGITAL-2023-G-138.pdf
- https://carnegieendowment.org/research/2023/02/what-washington-gets-wrong-about-china-and-technical-standards?lang=en
- https://doi.org/10.1111/ropr.12538
- https://www.iso.org/committee/6794475/x/catalogue/p/1/u/0/w/0/d/0
- https://doi.org/10.6028/NIST.AI.100-5
- https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024/seoul-statement-of-intent-toward-international-cooperation-on-ai-safety-science-ai-seoul-summit-2024-annex
- https://carnegieendowment.org/research/2024/08/china-artificial-intelligence-ai-safety-regulation?lang=en
- https://doi.org/10.2139/ssrn.4579899
- https://techpolicy.press/industry-ai-standards-may-be-a-good-bandaid-but-we-need-enforceable-standards-in-the-long-run
- https://montrealethics.ai/harmonizing-artificial-intelligence-the-role-of-standards-in-the-eu-ai-regulation/
- https://www.brookings.edu/articles/small-yards-big-tents-how-to-build-cooperation-on-critical-international-standards/
- https://www.ceps.eu/with-the-ai-act-we-need-to-mind-the-standards-gap/
- https://cset.georgetown.edu/publication/china-ai-standards-system-guidelines-draft/
- https://openreview.net/forum?id=HolEKQhhiRs
- https://www.adalovelaceinstitute.org/blog/role-of-standards-in-ai-governance/
- https://carnegieendowment.org/research/2024/03/ai-and-product-safety-standards-under-the-eu-ai-act?lang=en
- https://www.iso.org/sectors/it-technologies/ai
- https://carnegieendowment.org/research/2023/07/chinas-ai-regulations-and-how-they-get-made?lang=en¢er=global
- https://carnegieendowment.org/research/2024/02/china-ai-regulations-tracing-roots?lang=en
- https://carnegieendowment.org/research/2023/02/china-technical-standards-washington-wrong?lang=en
- https://www.iaps.ai/research/dialogue-topics
- https://unu.edu/cpr/blog-post/ai-global-governance-using-international-standards-agile-tool-governance
- https://doi.org/10.1016/j.jsse.2022.07.005
- https://royalsociety.org/news-resources/publications/2024/un-role-in-international-ai-governance/