O Papel das Políticas de Uso Aceitável no Desenvolvimento de IA
Examinando como as AUPs moldam o cenário dos modelos de base.
― 12 min ler
Índice
- Contexto sobre Políticas de Uso Aceitável
- Diferenças com Outros Documentos
- Cartões de Modelo
- Políticas de Comportamento do Modelo
- Contratos de Terceiros
- Normas e Leis em Torno das AUPs
- Protocolo de Busca por AUPs
- Codificação de Categorias de Uso Proibido
- Analisando Políticas de Uso Aceitável
- Desenvolvedores com AUPs
- Conteúdo Proibido nas AUPs
- Restrições Sobre Tipos de Uso Final
- Correlações Entre as AUPs dos Desenvolvedores
- Desenvolvedores Sem Políticas de Uso Aceitável
- Aplicação das Políticas de Uso Aceitável
- Barreiras à Aplicação
- Recolocando a Responsabilidade nos Usuários
- Potenciais Externalidades Negativas da Aplicação
- Falta de Transparência na Aplicação
- Desenvolvedores Decidem o Que Constitui Uso Aceitável
- Lacunas nas Restrições de Uso Podem Facilitar o Uso Indevido
- AUPs Ajudam a Moldar o Mercado de Modelos de Base
- Áreas para Trabalho Futuro
- Coletando Dados sobre a Aplicação das AUPs
- Moderação de Conteúdo em Plataformas de IA Generativa
- Regulando o Uso Aceitável dos Modelos de Base
- Fonte original
- Ligações de referência
Com o uso de modelos de base crescendo rapidamente, os Desenvolvedores estão começando a colocar regras em prática pra evitar usos prejudiciais dessas tecnologias. Um método importante que eles estão usando se chama Políticas de Uso Aceitável (AUPs). Esses são documentos legais que deixam claro o que os usuários podem e não podem fazer com os modelos.
Essa discussão analisa 30 desenvolvedores de modelos de base diferentes, examina suas AUPs e explica por que essas políticas são importantes pra controlar como os modelos de base são usados.
As AUPs dos desenvolvedores incluem uma variedade de restrições-127 regras diferentes no total. Essa variedade pode causar confusão no campo da IA. Os desenvolvedores também usam essas políticas pra bloquear concorrentes ou indústrias específicas de usarem seus modelos. Significativamente, os desenvolvedores decidem o que é considerado uso aceitável sem muita transparência sobre como eles aplicam essas regras.
Na real, fazer cumprir as AUPs pode ser complicado. A aplicação rígida pode limitar o acesso de pesquisadores e atrapalhar usos positivos e benéficos dos modelos de base. Apesar desses desafios, as AUPs são uma tentativa inicial de auto-regulação que afeta significativamente o mercado desses modelos e o ecossistema mais amplo da IA.
Governos que estão focando em regular a IA têm tentado parar certos usos prejudiciais, como criar armas biológicas, deepfakes ou conteúdos nocivos envolvendo crianças. Contudo, parar esses usos não é simples porque modelos de base são projetados pra lidar com uma ampla gama de tarefas.
Desenvolvedores de modelos de base têm sido proativos em criar políticas amplas como parte de suas regras de serviço ou licenças de modelo, que previnem muitos usos potencialmente prejudiciais de sua tecnologia. Eles adotaram restrições de uso legalmente vinculativas, com desenvolvedores de modelos de pesos abertos usando cada vez mais restrições padronizadas.
Por outro lado, desenvolvedores de modelos de pesos fechados frequentemente limitam as atividades dos usuários através de acordos de termos de serviço que proíbem tipos específicos de geração de conteúdo. Essas políticas são chamadas de políticas de uso aceitável (AUPs) porque estabelecem os limites do que é permitido e do que não é.
As principais questões exploradas são: o que essas AUPs mostram sobre como os desenvolvedores visam regular o comportamento dos usuários e qual impacto elas têm no ecossistema dos modelos de base?
Contexto sobre Políticas de Uso Aceitável
As políticas de uso aceitável são amplamente usadas em várias tecnologias digitais. Empresas que oferecem computadores de acesso público, sites e serviços online têm essas regras há muito tempo, que deixam claro o que os usuários podem e não podem fazer.
Embora a aplicação dessas políticas varie, as restrições são comuns. Empresas de mídia social, serviços de nuvem e redes de conteúdo enfrentaram exames sobre como suas políticas de uso aceitável limitam o comportamento de seus inúmeros usuários.
Empregadores e instituições educacionais também têm políticas de uso aceitável que limitam como funcionários ou estudantes podem usar a tecnologia. No caso dos modelos de base, uma política de uso aceitável é uma diretriz de um desenvolvedor que detalha como seu modelo pode ou não ser usado.
Essas políticas impedem os usuários de gerar certos tipos de conteúdo. Ao contrário de tecnologias não gerativas, que focam no que um usuário insere, modelos de base olham para o conteúdo que os usuários não podem criar. Os desenvolvedores tornam essas restrições legalmente vinculativas por meio de acordos de termos de serviço ou licenças para seus modelos de base.
Normalmente, essas políticas visam parar os usuários de gerar conteúdo que possa ser ilegal ou prejudicial. Por exemplo, assim como bibliotecas públicas não permitem que certos itens sejam produzidos com impressoras 3D, os desenvolvedores impedem os usuários de gerar conteúdo prejudicial com modelos de base.
Pra implementar essas políticas, os desenvolvedores frequentemente filtram os dados de treinamento pra excluir conteúdo nocivo. Eles também utilizam técnicas como aprendizado por reforço pra treinar modelos a evitar criar saídas proibidas.
Diferenças com Outros Documentos
As políticas de uso aceitável não são as únicas ferramentas que os desenvolvedores usam pra restringir o uso do modelo. Outros documentos semelhantes incluem:
Cartões de Modelo
Cartões de modelo são documentos que fornecem informações sobre os modelos, incluindo usos pretendidos e usos fora do escopo. No entanto, eles não são contratos executáveis e não têm o mesmo peso que as políticas de uso aceitável.
Políticas de Comportamento do Modelo
Políticas de comportamento do modelo focam no que um modelo pode ou não fazer. Enquanto as políticas de uso aceitável orientam o comportamento do usuário, as políticas de comportamento do modelo ditam como o próprio modelo se comporta.
Contratos de Terceiros
Desenvolvedores de modelos de base frequentemente trabalham com outras empresas pra compartilhar seus modelos. Esses contratos podem incluir restrições de uso, mas muitas vezes não está claro como essas restrições se relacionam com as AUPs dos desenvolvedores.
Normas e Leis em Torno das AUPs
Embora a IA generativa ainda esteja se desenvolvendo, algumas normas estão se formando em torno das restrições de uso para modelos de base. Desenvolvedores de modelos de pesos abertos frequentemente adotam políticas de uso aceitável compartilhadas pra padronizar regras.
Os governos estão mostrando interesse nas políticas de uso aceitável, considerando-as uma forma de os desenvolvedores se auto-regularem. Por exemplo, a UE tem regras que exigem que provedores de modelos de IA de propósito geral divulguem suas políticas de uso aceitável. Da mesma forma, as novas regulamentações da China exigem que os desenvolvedores impeçam os usuários de se envolverem em atividades ilegais enquanto usam seus serviços.
Protocolo de Busca por AUPs
Os desenvolvedores usam vários documentos pra limitar o uso do modelo, incluindo:
- Políticas de uso aceitável independentes para todos os modelos de base.
- Restrições de uso em licenças gerais de modelo.
- Licenças de modelo personalizadas com restrições específicas.
- Acordos de termos de serviço que se aplicam a todos os serviços.
Pra encontrar essas políticas, pesquisadores compilam uma lista de desenvolvedores e examinam seus termos de serviço e licenças para modelos principais pra identificar disposições limitantes.
Codificação de Categorias de Uso Proibido
Pra analisar as AUPs, pesquisadores empregaram métodos qualitativos pra classificar categorias de uso proibido. Ao examinar cada política, eles criaram uma lista de 127 usos proibidos distintos em todas as AUPs.
Essa abordagem sistemática permite uma análise aprofundada das políticas e dos riscos potenciais que os desenvolvedores visam mitigar.
Analisando Políticas de Uso Aceitável
Desenvolvedores com AUPs
Desenvolvedores com políticas de uso aceitável mostram diversidade, com alguns compartilhando abertamente seus pesos de modelo enquanto outros não. Existem muitos tipos diferentes de modelos, como modelos de linguagem, multimodais, de imagem, vídeo e áudio, refletindo uma variedade de capacidades e funcionalidades.
Conteúdo Proibido nas AUPs
As AUPs frequentemente proíbem conteúdo relacionado a violência explícita, fraudes, abusos, enganos e outras atividades prejudiciais. As categorias mais comuns que os desenvolvedores restringem incluem desinformação, assédio, violações de privacidade, discriminação e exploração infantil.
No entanto, a força e o detalhamento das políticas variam. Alguns desenvolvedores fornecem proibições detalhadas, enquanto outros mantêm regras mais amplas e menos específicas.
Restrições Sobre Tipos de Uso Final
Além de proibir certos conteúdos, as políticas de uso aceitável frequentemente delineiam quais tipos de atividades os usuários podem realizar. Algumas políticas impedem os usuários de treinar modelos com suas saídas, uma prática chamada "model scraping". Outras restringem a distribuição de conteúdo gerado por IA em larga escala ou limitam o uso em indústrias específicas.
Certos desenvolvedores também proíbem o uso de modelos em campos com forte regulamentação, como direito, finanças e saúde, efetivamente prevenindo o uso indevido nessas áreas.
Correlações Entre as AUPs dos Desenvolvedores
Apesar dos esforços pra padronizar AUPs entre desenvolvedores, as políticas ainda mostram diferenças significativas. Alguns desenvolvedores têm políticas altamente semelhantes, enquanto outros diferem bastante, criando desafios pra organizações que distribuem vários modelos.
Por exemplo, empresas como Amazon Web Services que oferecem modelos de vários desenvolvedores enfrentam dificuldades em aplicar um conjunto consistente de políticas de uso aceitável.
Desenvolvedores Sem Políticas de Uso Aceitável
Um número de desenvolvedores não tem políticas de uso aceitável para seus modelos. Muitos escolhem não usar essas políticas por várias razões, incluindo sua intenção de mirar em pesquisadores ou porque veem riscos mais baixos associados aos seus modelos.
Alguns desenvolvedores podem adotar uma abordagem mais relaxada, esperando maximizar o uso de seus modelos sem impor restrições. No entanto, isso pode levar a uma falta de clareza sobre os usos permitidos e até mesmo favorecer práticas inseguras.
Aplicação das Políticas de Uso Aceitável
Barreiras à Aplicação
A capacidade de fazer cumprir essas políticas apresenta desafios significativos, especialmente para desenvolvedores abertos. Diferente de desenvolvedores fechados que monitoram como seus modelos são usados, desenvolvedores abertos distribuem pesos de modelo livremente, dificultando o acompanhamento de como os modelos estão sendo utilizados.
Desafios legais também surgem; muitas licenças de pesos abertos podem não efetivamente aplicar políticas contra usuários a jusante, criando mais complicações.
Recolocando a Responsabilidade nos Usuários
As AUPs frequentemente transferem a responsabilidade pelo uso apropriado da tecnologia de desenvolvedores para usuários. Embora essas políticas possam limitar comportamentos, elas não mudam fundamentalmente como usuários individuais se envolvem com os modelos.
Por exemplo, responsabilizar usuários pela criação de conteúdo prejudicial pode não ser justo com indivíduos vulneráveis que buscam ajuda ou orientação.
Potenciais Externalidades Negativas da Aplicação
A aplicação rigorosa das AUPs pode dificultar o acesso à pesquisa. Desenvolvedores podem impor limites ou banir contas de pesquisa que violem as políticas de uso aceitável, o que poderia limitar pesquisas cruciais de segurança.
Além disso, alguns usos benéficos dos modelos de base poderiam ser impedidos devido a restrições excessivamente amplas, enquanto áreas importantes como redução de danos ou robótica poderiam ser negativamente afetadas.
Falta de Transparência na Aplicação
Informações sobre como os desenvolvedores aplicam suas políticas de uso aceitável costumam ser escassas. Enquanto as empresas afirmam o que é proibido, muitas não esclarecem como aplicam essas políticas ou se os usuários têm meios de apelação.
Essa falta de transparência torna complicado avaliar se as AUPs realmente limitam usos perigosos, lançando dúvidas sobre sua eficácia.
Desenvolvedores Decidem o Que Constitui Uso Aceitável
Desenvolvedores criam políticas de uso aceitável sem input de usuários ou parceiros externos. Eles têm uma autoridade significativa sobre como seus modelos de base são usados, impactando todo o ecossistema da IA.
Embora alguns desenvolvedores tenham começado a buscar input do público, como conduzindo pesquisas sobre comportamento do modelo, essa prática não é comum.
Lacunas nas Restrições de Uso Podem Facilitar o Uso Indevido
As políticas de uso aceitável dos desenvolvedores diferem bastante, com alguns carecendo de restrições importantes relacionadas à política ou aconselhamento médico. Essa inconsistência pode permitir o uso indevido, complicando a aplicação.
A ausência de padrões comuns torna mais difícil para os usuários compreenderem o que é aceitável. Isso pode levar a usos indevidos acidentais, especialmente para aqueles que não estão familiarizados com diferentes políticas entre diversos modelos de base.
AUPs Ajudam a Moldar o Mercado de Modelos de Base
As políticas de uso aceitável influenciam o mercado ao determinar quais organizações podem usar um modelo e por quê. Elas podem impedir que certas indústrias usem modelos específicos, por exemplo, barrando fabricantes de armas de gerar conteúdo relacionado.
Ao ditar os tipos de atividades permitidas, as AUPs também garantem que muitas organizações não possam utilizar modelos para aplicações comuns, afetando o panorama geral do uso de modelos de base.
Áreas para Trabalho Futuro
Coletando Dados sobre a Aplicação das AUPs
Futuras iniciativas devem focar em reunir informações sobre como os desenvolvedores aplicam políticas de uso aceitável. Entender os mecanismos de aplicação lançaria luz sobre sua eficácia.
Moderação de Conteúdo em Plataformas de IA Generativa
Pesquisas também devem abordar a moderação de conteúdo em plataformas de IA, já que isso foi estudado extensivamente em mídias sociais, mas é subexplorado para IA generativa.
Regulando o Uso Aceitável dos Modelos de Base
Finalmente, os governos podem regular os usos aceitáveis dos modelos de base de forma mais rigorosa. O sucesso de tais regulamentações poderia trazer mais desenvolvimentos em como as tecnologias de IA são governadas.
Em resumo, as políticas de uso aceitável são diretrizes cruciais que moldam o uso de modelos de base. Elas criam uma estrutura sobre o que é aceitável, mas também apresentam desafios para aplicação e clareza. À medida que o cenário evolui, é necessário considerar como essas políticas podem se adaptar ou melhorar pra atender às necessidades de usuários, desenvolvedores e reguladores.
Título: Acceptable Use Policies for Foundation Models
Resumo: As foundation models have accumulated hundreds of millions of users, developers have begun to take steps to prevent harmful types of uses. One salient intervention that foundation model developers adopt is acceptable use policies: legally binding policies that prohibit users from using a model for specific purposes. This paper identifies acceptable use policies from 30 foundation model developers, analyzes the use restrictions they contain, and argues that acceptable use policies are an important lens for understanding the regulation of foundation models. Taken together, developers' acceptable use policies include 127 distinct use restrictions; the wide variety in the number and type of use restrictions may create fragmentation across the AI supply chain. Developers also employ acceptable use policies to prevent competitors or specific industries from making use of their models. Developers alone decide what constitutes acceptable use, and rarely provide transparency about how they enforce their policies. In practice, acceptable use policies are difficult to enforce, and scrupulous enforcement can act as a barrier to researcher access and limit beneficial uses of foundation models. Nevertheless, acceptable use policies for foundation models are an early example of self-regulation that have a significant impact on the market for foundation models and the overall AI ecosystem.
Autores: Kevin Klyman
Última atualização: 2024-08-29 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2409.09041
Fonte PDF: https://arxiv.org/pdf/2409.09041
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://doi.org/10.1002/9781118978238.ieml0001
- https://doi.org/10.1002/itl2.84
- https://doi.org/10.1002/poi3.370
- https://doi.org/10.1002/meet.2011.14504801044
- https://doi.org/10.1002/bul2.2015.1720420113
- https://huggingface.co/01-ai/Yi-34B/blob/main/LICENSE
- https://www.adept.ai/policies/terms-of-use
- https://www.adobe.com/legal/licenses-terms/adobe-gen-ai-user-guidelines.html
- https://docs.ai21.com/docs/responsible-use
- https://allenai.org/licenses/impact-lr
- https://aleph-alpha.com/terms-conditions/
- https://aws.amazon.com/machine-learning/responsible-ai/policy/
- https://www.anthropic.com/legal/archive/4903a61b-037c-4293-9996-88eb1908f0b2
- https://yiyan.baidu.com/infoUser
- https://huggingface.co/spaces/bigcode/bigcode-model-license-agreement
- https://huggingface.co/spaces/bigscience/license
- https://beta.character.ai/tos
- https://docs.cohere.com/docs/usage-guidelines
- https://www.databricks.com/legal/acceptable-use-policy-open-model
- https://chat.deepseek.com/downloads/DeepSeek
- https://elevenlabs.io/terms
- https://policies.google.com/terms/generative-ai/use-policy
- https://pi.ai/policy
- https://llama.meta.com/llama3/use-policy/
- https://docs.midjourney.com/docs/terms-of-service
- https://mistral.ai/terms/
- https://openai.com/policies/usage-policies/
- https://doi.org/10.1111/j.1365-2648.2007.04569.x
- https://github.com/kklyman/aupsforfms
- https://github.com/kklyman/aupsforfms/tree/main
- https://github.com/QwenLM/Qwen-VL/tree/master
- https://huggingface.co/EleutherAI/gpt-neox-20b
- https://huggingface.co/facebook/musicgen-large
- https://huggingface.co/microsoft/phi-2
- https://huggingface.co/mistralai/Mixtral-8x7B-v0.1
- https://huggingface.co/mosaicml/mpt-30b
- https://x.ai/blog/grok/model-card
- https://sites.mit.edu/ai-safe-harbor/