Le rôle des politiques d'utilisation acceptable dans le développement de l'IA
Examiner comment les AUPs façonnent le paysage des modèles de base.
― 13 min lire
Table des matières
- Contexte des Politiques d'Utilisation Acceptable
- Différences avec d'Autres Documents
- Cartes de Modèle
- Politiques de Comportement de Modèle
- Contrats de Tiers
- Normes et Lois Entourant les PUA
- Protocole de Recherche pour les PUA
- Codage des Catégories d'Utilisation Interdite
- Analyser les Politiques d'Utilisation Acceptable
- Développeurs avec PUA
- Contenu Interdit dans les PUA
- Restrictions sur les Types d'Utilisation Finale
- Corrélations entre les PUA des Développeurs
- Développeurs Sans Politiques d'Utilisation Acceptable
- Application des Politiques d'Utilisation Acceptable
- Obstacles à l'Application
- Mauvaise Attribution de la Responsabilité aux Utilisateurs
- Externalités Négatives Potentielles de l'Application
- Manque de Transparence dans l'Application
- Les Développeurs Décident de Ce Qui Constitue un Usage Acceptable
- Les Lacunes dans les Restrictions d'Utilisation Peuvent Favoriser les Abus
- Les PUA Aident à Façonner le Marché des Modèles de Fondation
- Domaines pour Futurs Travaux
- Collecte de Données sur l'Application des PUA
- Modération de Contenu sur les Plateformes d'IA Générative
- Régulation de l'Utilisation Acceptable des Modèles de Fondation
- Source originale
- Liens de référence
Avec la montée rapide des Modèles de Fondation, les Développeurs commencent à mettre en place des règles pour empêcher des usages nuisibles de ces technologies. Un moyen important qu'ils utilisent s'appelle les Politiques d'utilisation acceptable (PUA). Ce sont des documents légaux qui définissent clairement ce que les utilisateurs peuvent et ne peuvent pas faire avec les modèles.
Cette discussion examine 30 développeurs différents de modèles de fondation, passe en revue leurs PUA, et explique pourquoi ces politiques sont importantes pour contrôler comment les modèles de fondation sont utilisés.
Les PUA des développeurs comprennent un large éventail de restrictions-127 règles différentes au total. Cette variété peut créer de la confusion dans le domaine de l'IA. Les développeurs utilisent également ces politiques pour bloquer des concurrents ou des secteurs spécifiques d'utiliser leurs modèles. De manière significative, les développeurs décident ce qui est considéré comme un usage acceptable sans grande transparence sur comment ils font appliquer ces règles.
En réalité, faire respecter les PUA peut être compliqué. Une application stricte peut limiter l'accès pour les chercheurs et pourrait freiner des usages positifs et bénéfiques des modèles de fondation. Malgré ces défis, les PUA sont une tentative précoce d'autorégulation qui impacte considérablement le marché de ces modèles et l'écosystème plus large de l'IA.
Les gouvernements qui se concentrent sur la régulation de l'IA cherchent à stopper certains usages nuisibles, comme la création d'armes biologiques, de deepfakes, ou de contenus nuisibles impliquant des enfants. Cependant, stopper ces usages n'est pas simple car les modèles de fondation sont conçus pour gérer une large gamme de tâches.
Les développeurs de modèles de fondation ont été proactifs en créant de larges politiques dans le cadre de leurs règles de service ou licences de modèles, qui empêchent de nombreux usages potentiellement nuisibles de leur technologie. Ils ont adopté des restrictions d'utilisation légalement contraignantes, avec des développeurs de modèles à poids ouverts utilisant de plus en plus des restrictions standardisées.
D'un autre côté, les développeurs de modèles à poids fermés limitent souvent les activités des utilisateurs à travers des accords de conditions de service qui interdisent certains types de génération de contenu. Ces politiques s'appellent des politiques d'utilisation acceptable (PUA) car elles fixent les limites de ce qui est permis et ce qui ne l'est pas.
Les questions centrales explorées sont : que montrent ces PUA sur comment les développeurs cherchent à réguler le comportement des utilisateurs et quel impact ont-elles sur l'écosystème des modèles de fondation ?
Contexte des Politiques d'Utilisation Acceptable
Les politiques d'utilisation acceptable sont largement utilisées dans diverses technologies numériques. Les entreprises offrant des ordinateurs en accès public, des sites web et des services en ligne ont longtemps eu ces règles, qui clarifient ce que les utilisateurs peuvent et ne peuvent pas faire.
Bien que l'application de ces politiques varie, les restrictions sont communes. Les entreprises de médias sociaux, les services cloud et les réseaux de contenu ont été examinés pour la façon dont leurs politiques d'utilisation acceptable limitent le comportement de leurs nombreux utilisateurs.
Les employeurs et les institutions éducatives ont également des politiques d'utilisation acceptable qui limitent comment les employés ou les étudiants peuvent utiliser la technologie. Dans le cas des modèles de fondation, une politique d'utilisation acceptable est un guide d'un développeur décrivant comment leur modèle peut être utilisé ou non.
Ces politiques empêchent les utilisateurs de générer certains types de contenu. Contrairement aux technologies non génératives, qui se concentrent sur ce qu'un utilisateur entre, les modèles de fondation regardent le contenu que les utilisateurs ne sont pas autorisés à créer. Les développeurs rendent ces restrictions légalement contraignantes à travers des accords de conditions de service ou des licences pour leurs modèles de fondation.
Typiquement, ces politiques visent à empêcher les utilisateurs de générer du contenu qui pourrait être illégal ou nuisible. Par exemple, tout comme les bibliothèques publiques n'autorisent pas certains objets à être produits avec des imprimantes 3D, les développeurs empêchent les utilisateurs de générer du contenu nuisible avec des modèles de fondation.
Pour mettre en œuvre ces politiques, les développeurs filtrent souvent les données d'entraînement pour exclure le contenu nuisible. Ils utilisent également des techniques comme l'apprentissage par renforcement pour entraîner les modèles à éviter de créer des résultats interdits.
Différences avec d'Autres Documents
Les politiques d'utilisation acceptable ne sont pas les seuls outils que les développeurs utilisent pour restreindre l'utilisation des modèles. D'autres documents similaires incluent :
Cartes de Modèle
Les cartes de modèle sont des documents qui fournissent des informations sur les modèles, y compris les utilisations prévues et les utilisations hors champ. Cependant, elles ne sont pas des contrats exécutoires et n'ont pas le même poids que les politiques d'utilisation acceptable.
Politiques de Comportement de Modèle
Les politiques de comportement de modèle se concentrent sur ce qu'un modèle peut ou ne peut pas faire. Alors que les politiques d'utilisation acceptable guident le comportement des utilisateurs, les politiques de comportement de modèle dictent comment le modèle lui-même se comporte.
Contrats de Tiers
Les développeurs de modèles de fondation travaillent souvent avec d'autres entreprises pour partager leurs modèles. Ces contrats peuvent inclure des restrictions d'utilisation, mais il est souvent flou comment ces restrictions se rapportent aux PUA des développeurs.
Normes et Lois Entourant les PUA
Bien que l'IA générative soit encore en développement, certaines normes commencent à se former autour des restrictions d'utilisation pour les modèles de fondation. Les développeurs de modèles à poids ouverts adoptent souvent des politiques d'utilisation acceptable partagées pour standardiser les règles.
Les gouvernements montrent de l'intérêt pour les politiques d'utilisation acceptable, les considérant comme un moyen pour les développeurs de s'autoréguler. Par exemple, l'UE a des règles qui exigent des fournisseurs de modèles d'IA généralistes de divulguer leurs politiques d'utilisation acceptable. De même, les nouvelles régulations de la Chine exigent des développeurs d'empêcher les utilisateurs de s'engager dans des activités illégales tout en utilisant leurs services.
Protocole de Recherche pour les PUA
Les développeurs utilisent divers documents pour limiter l'utilisation des modèles, y compris :
- Des politiques d'utilisation acceptable autonomes pour tous les modèles de fondation.
- Des restrictions d'utilisation dans des licences de modèles générales.
- Des licences de modèle personnalisées avec des restrictions spécifiques.
- Des accords de conditions de service qui s'appliquent à tous les services.
Pour trouver ces politiques, les chercheurs compilent une liste de développeurs et examinent leurs conditions de service et licences pour les modèles phares afin d'identifier les dispositions limitantes.
Codage des Catégories d'Utilisation Interdite
Pour analyser les PUA, les chercheurs ont utilisé des méthodes qualitatives pour classer les catégories d'utilisation interdite. En examinant chaque politique, ils ont créé une liste de 127 utilisations interdites distinctes à travers toutes les PUA.
Cette approche systématique permet une analyse approfondie des politiques et des risques potentiels que les développeurs cherchent à atténuer.
Analyser les Politiques d'Utilisation Acceptable
Développeurs avec PUA
Les développeurs avec des politiques d'utilisation acceptable montrent une diversité, certains partageant ouvertement leurs poids de modèle tandis que d'autres ne le font pas. Il existe de nombreux types de modèles, tels que les modèles de langue, multimodaux, d'image, de vidéo et d'audio, reflétant une gamme de capacités et de fonctionnalités.
Contenu Interdit dans les PUA
Les PUA interdisent fréquemment le contenu lié à la violence explicite, à la fraude, à l'abus, à la tromperie et à d'autres activités nuisibles. Les catégories les plus courantes que les développeurs restreignent incluent la désinformation, le harcèlement, les violations de la vie privée, la discrimination et l'exploitation des enfants.
Cependant, la force et le détail des politiques varient. Certains développeurs fournissent des prohibitions détaillées, tandis que d'autres maintiennent des règles plus larges et moins spécifiques.
Restrictions sur les Types d'Utilisation Finale
En plus d'interdire certains contenus, les politiques d'utilisation acceptable décrivent souvent quels types d'activités les utilisateurs peuvent entreprendre. Certaines politiques empêchent les utilisateurs d'entraîner des modèles sur leurs résultats, une pratique appelée "scraping de modèle". D'autres restreignent la distribution de contenu généré par l'IA à grande échelle ou limitent l'utilisation dans des secteurs spécifiques.
Certains développeurs interdisent également l'utilisation de modèles dans des domaines fortement réglementés, tels que le droit, la finance et la santé, empêchant ainsi efficacement les abus dans ces domaines.
Corrélations entre les PUA des Développeurs
Malgré les efforts pour standardiser les PUA parmi les développeurs, les politiques montrent encore des différences significatives. Certains développeurs ont des politiques très similaires, tandis que d'autres diffèrent considérablement, créant des défis pour les organisations qui distribuent divers modèles.
Par exemple, des entreprises comme Amazon Web Services qui offrent des modèles de plusieurs développeurs rencontrent des difficultés pour faire appliquer un ensemble cohérent de politiques d'utilisation acceptable.
Développeurs Sans Politiques d'Utilisation Acceptable
Un certain nombre de développeurs n'ont pas de politiques d'utilisation acceptable pour leurs modèles. Beaucoup choisissent de ne pas utiliser ces politiques pour diverses raisons, y compris leur intention de cibler les chercheurs ou parce qu'ils voient des risques plus faibles associés à leurs modèles.
Certains développeurs peuvent adopter une approche plus détendue, espérant maximiser l'utilisation de leurs modèles sans imposer de restrictions. Cependant, cela peut conduire à un manque de clarté sur les utilisations permises et pourrait même favoriser des pratiques dangereuses.
Application des Politiques d'Utilisation Acceptable
Obstacles à l'Application
La capacité d'appliquer ces politiques présente des défis importants, surtout pour les développeurs ouverts. Contrairement aux développeurs fermés qui surveillent comment leurs modèles sont utilisés, les développeurs ouverts distribuent librement les poids des modèles, rendant difficile le suivi de la manière dont les modèles sont utilisés.
Des défis juridiques se posent également ; de nombreuses licences à poids ouverts peuvent ne pas appliquer efficacement les politiques contre les utilisateurs de downstream, créant ainsi d'autres complications.
Mauvaise Attribution de la Responsabilité aux Utilisateurs
Les PUA transfèrent souvent la responsabilité de l'utilisation appropriée de la technologie des développeurs vers les utilisateurs. Bien que ces politiques puissent limiter le comportement, elles ne changent pas fondamentalement comment les utilisateurs individuels s'engagent avec les modèles.
Par exemple, tenir les utilisateurs responsables de la création de contenu nuisible peut ne pas être juste pour les individus vulnérables cherchant de l'aide ou des conseils.
Externalités Négatives Potentielles de l'Application
Une application stricte des PUA peut freiner l'accès à la recherche. Les développeurs peuvent limiter ou interdire les comptes de recherche qui violent les politiques d'utilisation acceptable, ce qui pourrait limiter des recherches cruciales sur la sécurité.
De plus, certains usages bénéfiques des modèles de fondation pourraient être empêchés en raison de restrictions trop larges, tandis que des domaines importants comme la réduction des risques ou la robotique pourraient être affectés négativement.
Manque de Transparence dans l'Application
Les informations sur la manière dont les développeurs appliquent leurs politiques d'utilisation acceptable sont souvent rares. Bien que les entreprises déclarent ce qui est interdit, beaucoup ne clarifient pas comment elles appliquent ces politiques ou si les utilisateurs ont des voies de recours.
Ce manque de transparence rend difficile d'évaluer si les PUA limitent réellement les usages dangereux, semant le doute sur leur efficacité.
Les Développeurs Décident de Ce Qui Constitue un Usage Acceptable
Les développeurs créent des politiques d'utilisation acceptable sans retour d'information des utilisateurs ou partenaires externes. Ils ont une autorité significative sur la manière dont leurs modèles de fondation sont utilisés, impactant l'ensemble de l'écosystème de l'IA.
Alors que certains développeurs ont commencé à chercher des retours du public, comme en réalisant des sondages sur le comportement des modèles, cette pratique n'est pas répandue.
Les Lacunes dans les Restrictions d'Utilisation Peuvent Favoriser les Abus
Les politiques d'utilisation acceptable des développeurs diffèrent énormément, certains manquant de restrictions importantes liées à la politique ou aux conseils médicaux. Cette incohérence peut permettre des abus, compliquant l'application.
L'absence de normes communes rend plus difficile pour les utilisateurs de saisir ce qui est acceptable. Cela pourrait conduire à des abus accidentels, surtout pour ceux peu familiers avec les différentes politiques des modèles de fondation.
Les PUA Aident à Façonner le Marché des Modèles de Fondation
Les politiques d'utilisation acceptable influencent le marché en déterminant quelles organisations peuvent utiliser un modèle et pourquoi. Elles peuvent empêcher certains secteurs d'utiliser des modèles spécifiques, par exemple, en interdisant aux fabricants d'armes de générer du contenu lié.
En dictant les types d'activités permises, les PUA garantissent également que de nombreuses organisations ne peuvent pas utiliser des modèles pour des Applications courantes, affectant le paysage global de l'utilisation des modèles de fondation.
Domaines pour Futurs Travaux
Collecte de Données sur l'Application des PUA
Les efforts futurs devraient se concentrer sur la collecte d'informations sur la manière dont les développeurs appliquent les politiques d'utilisation acceptable. Comprendre les mécanismes d'application éclairerait leur efficacité.
Modération de Contenu sur les Plateformes d'IA Générative
La recherche devrait également aborder la modération de contenu sur les plateformes IA, car elle a été étudiée de manière approfondie dans les médias sociaux mais est sous-explorée pour l'IA générative.
Régulation de l'Utilisation Acceptable des Modèles de Fondation
Enfin, les gouvernements pourraient réguler les utilisations acceptables des modèles de fondation de manière plus stricte. Le succès de telles régulations pourrait voir de nouveaux développements dans la manière dont les technologies d'IA sont gouvernées.
En résumé, les politiques d'utilisation acceptable sont des guides cruciaux qui façonnent l'utilisation des modèles de fondation. Elles créent un cadre pour ce qui est acceptable tout en présentant des défis pour l'application et la clarté. Alors que le paysage évolue, il est nécessaire de considérer comment ces politiques peuvent s'adapter ou s'améliorer pour répondre aux besoins des utilisateurs, des développeurs et des régulateurs.
Titre: Acceptable Use Policies for Foundation Models
Résumé: As foundation models have accumulated hundreds of millions of users, developers have begun to take steps to prevent harmful types of uses. One salient intervention that foundation model developers adopt is acceptable use policies: legally binding policies that prohibit users from using a model for specific purposes. This paper identifies acceptable use policies from 30 foundation model developers, analyzes the use restrictions they contain, and argues that acceptable use policies are an important lens for understanding the regulation of foundation models. Taken together, developers' acceptable use policies include 127 distinct use restrictions; the wide variety in the number and type of use restrictions may create fragmentation across the AI supply chain. Developers also employ acceptable use policies to prevent competitors or specific industries from making use of their models. Developers alone decide what constitutes acceptable use, and rarely provide transparency about how they enforce their policies. In practice, acceptable use policies are difficult to enforce, and scrupulous enforcement can act as a barrier to researcher access and limit beneficial uses of foundation models. Nevertheless, acceptable use policies for foundation models are an early example of self-regulation that have a significant impact on the market for foundation models and the overall AI ecosystem.
Auteurs: Kevin Klyman
Dernière mise à jour: 2024-08-29 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2409.09041
Source PDF: https://arxiv.org/pdf/2409.09041
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://doi.org/10.1002/9781118978238.ieml0001
- https://doi.org/10.1002/itl2.84
- https://doi.org/10.1002/poi3.370
- https://doi.org/10.1002/meet.2011.14504801044
- https://doi.org/10.1002/bul2.2015.1720420113
- https://huggingface.co/01-ai/Yi-34B/blob/main/LICENSE
- https://www.adept.ai/policies/terms-of-use
- https://www.adobe.com/legal/licenses-terms/adobe-gen-ai-user-guidelines.html
- https://docs.ai21.com/docs/responsible-use
- https://allenai.org/licenses/impact-lr
- https://aleph-alpha.com/terms-conditions/
- https://aws.amazon.com/machine-learning/responsible-ai/policy/
- https://www.anthropic.com/legal/archive/4903a61b-037c-4293-9996-88eb1908f0b2
- https://yiyan.baidu.com/infoUser
- https://huggingface.co/spaces/bigcode/bigcode-model-license-agreement
- https://huggingface.co/spaces/bigscience/license
- https://beta.character.ai/tos
- https://docs.cohere.com/docs/usage-guidelines
- https://www.databricks.com/legal/acceptable-use-policy-open-model
- https://chat.deepseek.com/downloads/DeepSeek
- https://elevenlabs.io/terms
- https://policies.google.com/terms/generative-ai/use-policy
- https://pi.ai/policy
- https://llama.meta.com/llama3/use-policy/
- https://docs.midjourney.com/docs/terms-of-service
- https://mistral.ai/terms/
- https://openai.com/policies/usage-policies/
- https://doi.org/10.1111/j.1365-2648.2007.04569.x
- https://github.com/kklyman/aupsforfms
- https://github.com/kklyman/aupsforfms/tree/main
- https://github.com/QwenLM/Qwen-VL/tree/master
- https://huggingface.co/EleutherAI/gpt-neox-20b
- https://huggingface.co/facebook/musicgen-large
- https://huggingface.co/microsoft/phi-2
- https://huggingface.co/mistralai/Mixtral-8x7B-v0.1
- https://huggingface.co/mosaicml/mpt-30b
- https://x.ai/blog/grok/model-card
- https://sites.mit.edu/ai-safe-harbor/