Les risques de l'augmentation des ensembles de données IA
Examiner l'impact de la taille du jeu de données sur le contenu nuisible dans les modèles d'IA.
― 7 min lire
Table des matières
Dans le monde de l'intelligence artificielle (IA), surtout avec l'IA générative, on se concentre beaucoup sur le fait de rendre les modèles de plus en plus grands et performants. Cette tendance amène souvent à penser à la mise à l'échelle : rendre les modèles plus grands et les ensembles de données plus riches pour améliorer les performances. Pourtant, bien qu'on ait plein d'études sur la mise à l'échelle des modèles, on parle moins de la mise à l'échelle des données et de l'impact que ça peut avoir sur le contenu produit, surtout le contenu nuisible ou haineux.
Le Rôle des Ensembles de Données
Les ensembles de données sont des collections d'infos que les modèles d'IA utilisent pour apprendre et générer du nouveau contenu. Une source majeure de données, c'est Internet, avec des ensembles de données énormes comme CommonCrawl qui sont souvent utilisés pour alimenter les modèles génératifs. Malgré leur taille, ces ensembles de données ont souvent de gros défauts, y compris la présence de contenu problématique.
Deux ensembles de données notables dans ce contexte sont LAION-400M et LAION-2B-en. Le premier a environ 400 millions d'échantillons, tandis que le second en a environ 2 milliards. En examinant ces ensembles de données, on peut voir comment l'augmentation de la quantité de données peut mener à plus de Contenu haineux.
Découvertes sur le Contenu Haineux
Nos investigations révèlent une tendance inquiétante : à mesure que les ensembles de données grossissent, ils incluent plus de contenu haineux. On a mesuré ça avec un score spécifique appelé le Hate Content Rate (HCR). Dans les deux ensembles de données, quand on a regardé le discours haineux et agressif dans les descriptions de texte, on a trouvé qu'en passant de LAION-400M à LAION-2B-en, la présence de contenu haineux augmentait significativement.
biais dans les Modèles d'IA
Au-delà des données, on s'est aussi penché sur l'impact de ces ensembles de données sur les modèles d'IA qui en ont été formés. On s'est concentré sur le biais racial, en utilisant un ensemble de données appelé Chicago Face Dataset (CFD) pour évaluer comment les modèles classifiaient les visages humains. Les résultats étaient préoccupants. Les modèles formés sur des ensembles de données plus grands (LAION-2B-en) étaient plus susceptibles d'associer des visages noirs à des stéréotypes négatifs, comme les considérer comme des criminels, comparé à ceux formés sur l'ensemble plus petit (LAION-400M).
L'Impact de l'Échelle
Quand on dit que l'échelle a des conséquences, on veut dire que rendre les ensembles de données plus grands ne les rend pas forcément meilleurs. Par exemple, à mesure que les ensembles de données grossissaient, les modèles devenaient moins précis pour reconnaître les visages humains comme "êtres humains". Au lieu de ça, ils avaient tendance à catégoriser ces visages dans des classes négatives.
Les conséquences étaient particulièrement marquées pour les hommes et femmes noirs. La probabilité d'être associés à des classifications criminelles doublait pour les visages de femmes noires et était encore plus élevée pour les visages d'hommes noirs en passant de l'ensemble plus petit à l'ensemble plus grand.
Le Problème avec les Approches Actuelles
Actuellement, la croyance dominante dans l'industrie tech, c'est que "plus de données signifie de meilleurs modèles." Ce concept est très répandu dans le domaine de l'IA, avec l'idée que faire évoluer les ensembles de données peut résoudre des problèmes de Qualité. Cependant, nos résultats remettent en question cette vue, montrant qu'augmenter simplement la taille de l'ensemble de données peut entraîner l'encodage de biais et de stéréotypes nuisibles dans les modèles.
Qualité et Curation des Ensembles de Données
La qualité des ensembles de données est primordiale. Pourtant, il y a une tendance dans l'industrie à privilégier la quantité sur la qualité. Ça mène à des ensembles de données remplis de doublons, d’échantillons de mauvaise qualité et de contenu nuisible. Le processus de curation des ensembles de données devrait inclure des considérations sérieuses pour s'assurer que le contenu nuisible ou haineux soit filtré avant d’être utilisé pour former des modèles.
La Culture du "Scraper d'Abord, Demander Après"
Il y a une culture répandue dans le développement de l'IA qui consiste à collecter des données rapidement, souvent sans un examen approprié. Cette approche, connue sous le nom de "scraper d'abord, poser des questions après", mène à la création d'ensembles de données vastes qui peuvent avoir de sérieuses implications éthiques. Beaucoup de ces ensembles de données peuvent contenir du matériel protégé par des droits d'auteur, des images offensantes et d'autres contenus problématiques qui peuvent perpétuer des stéréotypes négatifs.
Recommandations pour la Curation des Ensembles de Données
Suite à nos découvertes, plusieurs recommandations émergent pour créer et utiliser des ensembles de données de manière responsable en IA :
- Qualité avant Quantité : Concentrez-vous sur le nettoyage et la vérification des ensembles de données pour le contenu nuisible plutôt que de simplement augmenter leur taille.
- Audits Réguliers : Mettez en place des vérifications et des audits réguliers des ensembles de données pour surveiller la présence de contenu haineux et de biais.
- Transparence des Sources de Données : Assurez-vous que les sources de données soient claires et accessibles pour examen, permettant aux chercheurs indépendants d'évaluer les ensembles de données.
- Engagement avec les Communautés : Collaborez avec des communautés marginalisées pendant le processus de création des ensembles de données afin de comprendre l'impact des données sur ceux qui sont affectés par les systèmes d'IA.
Conclusion
La mise à l'échelle des ensembles de données en IA n'est pas juste une question technique ; elle comporte des responsabilités éthiques significatives. Alors qu'on avance dans ce domaine, il est crucial de reconnaître que des ensembles de données plus grands peuvent comporter plus de risques d'amplifier des biais nuisibles. En mettant davantage l'accent sur une curation et une évaluation responsables des données, on peut travailler vers la création de systèmes d'IA qui sont justes et équitables, profitant finalement à la société dans son ensemble.
Le Contexte Historique de la Déshumanisation
Il est essentiel de reconnaître que les biais trouvés dans les modèles d'IA actuels ne sont pas nouveaux. Ils proviennent d'une longue histoire de déshumanisation raciale qui a persisté sous diverses formes. Ce schéma peut être retracé sur des siècles, où les individus d'ascendance africaine étaient souvent dépeints de manière à réduire leur humanité.
Les récits historiques ont façonné des perceptions qui positionnaient les individus noirs plus près d'entités non humaines. De telles vues ont justifié d'innombrables injustices, y compris l'esclavage et le colonialisme. Dans l'IA, ces mêmes stéréotypes peuvent resurgir à travers les données que nous utilisons.
Le Chemin à Suivre
À l'avenir, nous devons examiner de manière critique les ensembles de données qui alimentent l'IA. Cela signifie non seulement renforcer la transparence mais aussi travailler activement à déconstruire les stéréotypes nuisibles encodés dans les modèles. Le défi ne réside pas seulement dans le développement de meilleures technologies, mais dans la promotion d'une culture de l'IA qui valorise les considérations éthiques et la responsabilité sociale autant que les avancées technologiques.
En adoptant une compréhension plus nuancée de l'impact de la mise à l'échelle des données sur la haine et le biais, nous pouvons créer des systèmes d'IA qui favorisent l'inclusivité, le respect et reflètent véritablement la diversité de l'expérience humaine. Ce faisant, nous contribuons à un avenir où l'IA sert d'outil pour le bien plutôt qu'un moyen de perpétuer des injustices passées.
Titre: On Hate Scaling Laws For Data-Swamps
Résumé: `Scale the model, scale the data, scale the GPU-farms' is the reigning sentiment in the world of generative AI today. While model scaling has been extensively studied, data scaling and its downstream impacts remain under explored. This is especially of critical importance in the context of visio-linguistic datasets whose main source is the World Wide Web, condensed and packaged as the CommonCrawl dump. This large scale data-dump, which is known to have numerous drawbacks, is repeatedly mined and serves as the data-motherlode for large generative models. In this paper, we: 1) investigate the effect of scaling datasets on hateful content through a comparative audit of the LAION-400M and LAION-2B-en, containing 400 million and 2 billion samples respectively, and 2) evaluate the downstream impact of scale on visio-linguistic models trained on these dataset variants by measuring racial bias of the models trained on them using the Chicago Face Dataset (CFD) as a probe. Our results show that 1) the presence of hateful content in datasets, when measured with a Hate Content Rate (HCR) metric on the inferences of the Pysentimiento hate-detection Natural Language Processing (NLP) model, increased by nearly $12\%$ and 2) societal biases and negative stereotypes were also exacerbated with scale on the models we evaluated. As scale increased, the tendency of the model to associate images of human faces with the `human being' class over 7 other offensive classes reduced by half. Furthermore, for the Black female category, the tendency of the model to associate their faces with the `criminal' class doubled, while quintupling for Black male faces. We present a qualitative and historical analysis of the model audit results, reflect on our findings and its implications for dataset curation practice, and close with a summary of our findings and potential future work to be done in this area.
Auteurs: Abeba Birhane, Vinay Prabhu, Sang Han, Vishnu Naresh Boddeti
Dernière mise à jour: 2023-06-28 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2306.13141
Source PDF: https://arxiv.org/pdf/2306.13141
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://github.com/vinayprabhu/hate_scaling
- https://www.midjourney.com/
- https://commoncrawl.org
- https://platform.openai.com/docs/guides/images
- https://laion.ai/blog/laion-5b/
- https://pingouin-stats.org/build/html/generated/pingouin.ttest.html
- https://CommonCrawl.org/category/web-graph/
- https://laion.ai/blog/laion-400-open-dataset/
- https://huggingface.co/spaces/evaluate-measurement/toxicity
- https://github.com/unitaryai/detoxify
- https://developers.perspectiveapi.com/s/?language=en_US
- https://www.chicagofaces.org/download/
- https://github.com/mlfoundations/open_clip/blob/main/docs/Interacting_with_open_clip.ipynb
- https://github.com/mlfoundations/open_clip/issues/454
- https://arxiv.org/abs/2111.10050
- https://pigroll.com/img/youre_gonna_get_raped.jpg
- https://content.wafflegirl.com/galleries/content/2/247/2247763_ec5249d.jpg
- https://media.istockphoto.com/photos/female-gorilla-with-baby-picture-id578309582
- https://new4.fjcdn.com/pictures/Gorilla+warfare_d41bd9_3543352.jpg
- https://farm1.static.flickr.com/552/31262527324_caa242e8d8_m.jpg
- https://see.xxx/mt/sL/1994633.jpg