Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas# Inteligência Artificial

Regulando a IA: Lições da Supervisão Nuclear

Analisando a regulação de IA através das estruturas de energia nuclear.

― 6 min ler


Regulação de IA: UmaRegulação de IA: UmaAbordagem Nuclearpara uma regulação eficaz da IA.Usando lições de supervisão nuclear
Índice

À medida que a tecnologia de inteligência artificial (IA) avança rapidão, a necessidade de uma regulamentação efetiva fica cada vez mais na boca do povo. Mas, estabelecer regras para o desenvolvimento de IA traz desafios significativos. Um grande problema é a dificuldade de fazer valer essas regras sem depender da autoavaliação dos desenvolvedores. Este texto apresenta uma solução potencial fazendo paralelos com estruturas existentes em outros domínios, especialmente a energia nuclear, e propõe mecanismos para monitorar os Treinamentos de IA e garantir que tudo esteja dentro das normas.

O Problema da Regulamentação da IA

Confiança e Verificação

Um dos desafios centrais na regulamentação dos sistemas de IA é que as leis atuais muitas vezes dependem da Cooperação voluntária dos desenvolvedores. Muitas empresas conseguem facilmente distorcer suas ações, dificultando a verificação da Conformidade pelos reguladores. Esse problema é ainda mais evidente em áreas onde a confiança não pode ser presumida, como quando lidamos com empresas que têm interesses conflitantes ou quando as ações de estados estão envolvidas.

Regulamentação Limitada

A maioria das leis atuais sobre IA foca em produtos voltados ao público, que são mais fáceis de monitorar. Porém, muitas aplicações potencialmente perigosas de IA permanecem escondidas, como aquelas usadas para cibercrime ou fins militares. À medida que as tecnologias de IA se tornam mais poderosas, a capacidade de fazer cumprir as regulamentações sobre esses sistemas ocultos se torna crucial.

A Necessidade de Mecanismos Sem Confiança

Para enfrentar esses desafios, propomos a necessidade de mecanismos sem confiança que garantam a conformidade sem exigir que os desenvolvedores relatem suas atividades. Se medidas desse tipo puderem ser implementadas, pode ser possível mitigar riscos associados aos sistemas de IA, enquanto ainda permitimos que as aplicações benéficas da tecnologia prosperem.

Paralelos com a Regulamentação Nuclear

O Tratado de Não Proliferação Nuclear (TNP)

O TNP tem sido eficaz em evitar a proliferação de armas nucleares enquanto permite o uso pacífico da energia nuclear. Ao implementar um sistema de Monitoramento e verificação, o TNP conseguiu gerenciar com sucesso os objetivos duplos de promover a energia nuclear e prevenir o uso indevido de materiais nucleares.

Aplicando Princípios do TNP à IA

Os desafios de regular a IA podem ser enquadrados de forma semelhante aos desafios enfrentados na regulamentação nuclear. Assim como o enriquecimento de urânio requer processos específicos que podem ser monitorados, o desenvolvimento de IA também depende de Recursos computacionais substanciais que podem ser regulados. Adaptando os princípios do TNP, podemos construir uma estrutura que permita a supervisão dos treinamentos de IA.

O Papel da Computação no Desenvolvimento de IA

A Importância dos Recursos Computacionais

Treinar modelos avançados de IA requer uma quantidade imensa de poder computacional. Essa concentração de recursos oferece um ponto focal para a regulamentação, já que a produção de chips de computador de alto desempenho é limitada a um pequeno número de instalações ao redor do mundo. Se conseguirmos monitorar efetivamente o uso desses recursos, poderemos fazer cumprir as regras de desenvolvimento de IA.

Características da Computação em IA

Diferente da natureza descentralizada do desenvolvimento de software tradicional, o treinamento de IA geralmente ocorre em locais centralizados, como grandes data centers. Essa centralização oferece uma oportunidade única para os reguladores implementarem mecanismos de supervisão que monitoram o uso da computação e garantem a conformidade com as regras estabelecidas.

Estrutura Proposta para a Regulamentação de IA

Monitorando os Treinamentos de IA

O cerne da estrutura regulatória proposta é o monitoramento dos treinamentos de IA. Ao exigir que as organizações relatem seu uso de computação durante o treinamento, os reguladores podem acompanhar a duração e a intensidade dos treinamentos. Esse relatório deve ser acompanhado de penalidades severas para não conformidade, para garantir a responsabilidade.

Amostragem Aleatória para Verificação de Conformidade

Para monitorar a conformidade de forma eficaz, pode ser estabelecido um sistema de amostragem aleatória. Isso envolveria inspecionar um pequeno número de chips de diferentes organizações envolvidas no treinamento de IA. Ao amostrar esses chips aleatoriamente, os reguladores podem verificar se foram usados em treinamentos ilegais ou não reportados, assim como auditorias aleatórias na regulamentação financeira.

Considerações de Confidencialidade e Privacidade

Qualquer estrutura regulatória também deve respeitar a privacidade dos envolvidos no desenvolvimento de IA. Por exemplo, o processo de inspeção não deve exigir que os desenvolvedores divulguem informações sensíveis, como pesos de modelos ou dados de treinamento proprietários. Em vez disso, os reguladores podem utilizar mecanismos de registro em chips que fornecem provas verificáveis sem revelar detalhes confidenciais.

Enfrentando Desafios Potenciais

O Medo do Excesso

Uma das preocupações em relação à regulamentação é o potencial de excessos, onde o desenvolvimento legítimo de IA é sufocado por monitoramento excessivo. Para mitigar esse risco, a estrutura deve focar em monitorar apenas os treinamentos mais poderosos, enquanto permite que padrões de uso padrão continuem sem impedimentos.

O Papel da Cooperação Internacional

Dada a natureza global do desenvolvimento de IA, uma regulamentação efetiva provavelmente exigirá cooperação internacional. Estabelecer acordos entre nações que definem regras compartilhadas para o desenvolvimento de IA e práticas de monitoramento pode ajudar a criar um ambiente regulatório consistente.

Conclusão

À medida que as tecnologias de IA continuam a evoluir, a necessidade de regulamentação efetiva se torna cada vez mais urgente. Aprendendo com estruturas existentes, como o Tratado de Não Proliferação Nuclear, e focando no papel central da computação no treinamento de IA, podemos criar um mecanismo sem confiança para garantir a conformidade. Essa abordagem permite que os benefícios da tecnologia de IA sejam aproveitados enquanto mitiga os riscos associados ao seu uso indevido.

Fonte original

Título: What does it take to catch a Chinchilla? Verifying Rules on Large-Scale Neural Network Training via Compute Monitoring

Resumo: As advanced machine learning systems' capabilities begin to play a significant role in geopolitics and societal order, it may become imperative that (1) governments be able to enforce rules on the development of advanced ML systems within their borders, and (2) countries be able to verify each other's compliance with potential future international agreements on advanced ML development. This work analyzes one mechanism to achieve this, by monitoring the computing hardware used for large-scale NN training. The framework's primary goal is to provide governments high confidence that no actor uses large quantities of specialized ML chips to execute a training run in violation of agreed rules. At the same time, the system does not curtail the use of consumer computing devices, and maintains the privacy and confidentiality of ML practitioners' models, data, and hyperparameters. The system consists of interventions at three stages: (1) using on-chip firmware to occasionally save snapshots of the the neural network weights stored in device memory, in a form that an inspector could later retrieve; (2) saving sufficient information about each training run to prove to inspectors the details of the training run that had resulted in the snapshotted weights; and (3) monitoring the chip supply chain to ensure that no actor can avoid discovery by amassing a large quantity of un-tracked chips. The proposed design decomposes the ML training rule verification problem into a series of narrow technical challenges, including a new variant of the Proof-of-Learning problem [Jia et al. '21].

Autores: Yonadav Shavit

Última atualização: 2023-05-30 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2303.11341

Fonte PDF: https://arxiv.org/pdf/2303.11341

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais do autor

Artigos semelhantes