Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Intelligence artificielle

Évaluer l'impact réel de l'IA à travers les médias d'info

Examiner comment les news influencent les opinions sur les effets négatifs de l'IA.

Mowafak Allaham, Kimon Kieslich, Nicholas Diakopoulos

― 7 min lire


Les vrais risques de l'IALes vrais risques de l'IAdans les newsl'IA dans les médias mondiaux.Aperçus sur les impacts négatifs de
Table des matières

Quand il s'agit d'étudier comment l'IA affecte nos vies, les chercheurs pensent généralement à des cadres basés sur des avis d'experts. Mais voilà le truc : ces avis d'experts passent souvent à côté des effets concrets de l'IA sur les gens de tous les jours. En fait, la façon dont les gens ressentent l'IA peut changer selon d'où ils viennent et leurs expériences de vie. Dans cet article, on va voir comment on peut améliorer ces évaluations en s'appuyant sur ce qui se dit dans les news.

Se Pencher Sur Les Médias

On a décidé de regarder des articles de presse du monde entier pour voir les histoires qu'ils racontent sur l'IA. En mettant l'accent sur la façon dont l'IA est perçue négativement dans ces articles, on peut recueillir des opinions et des expériences variées que les experts pourraient manquer. C'est important parce que les médias façonnent la façon dont les gens pensent à la technologie. Si les news ne couvrent pas certains impacts, ces problèmes peuvent juste disparaître.

Le Défi de Trouver les Impacts

Identifier comment l'IA peut avoir un impact négatif sur la Société, c'est pas du gâteau. C’est compliqué et ça demande beaucoup de ressources. Les chercheurs ont essayé différents cadres pour évaluer ces impacts, mais ça reflète souvent leurs propres arrière-plans et biais. Même s'ils mettent en lumière certaines préoccupations, ils peuvent rater d'autres problèmes importants, surtout ceux qui concernent des cultures ou des communautés différentes.

C'est pourquoi on pense que c'est une bonne idée d'utiliser des modèles de langage larges (LLM) pour nous aider à analyser ces impacts. Ces modèles peuvent traiter une énorme quantité d'infos rapidement, mais ils ne sont pas parfaits. Ils peuvent refléter des biais présents dans les données sur lesquelles ils ont été formés. Donc, même si ça pourrait être une bonne idée d'utiliser des LLM dans ce contexte, on doit faire attention à ce qu'on tire comme idées.

L’Idée Principale Derrière Notre Recherche

Notre but principal ? Améliorer les évaluations d'impact en utilisant une large gamme de points de vue provenant des articles de presse. En ajustant les LLM pour se concentrer sur les Impacts négatifs de l'IA mentionnés dans les news, on peut aider les développeurs et les chercheurs à comprendre les problèmes potentiels avant de déployer de nouvelles technologies. Ça peut aider à faire en sorte que des voix diverses soient entendues dans les discussions sur l'avenir de l'IA.

D'où On A Tiré Nos Infos

Pour plonger là-dedans, on a rassemblé 91 930 articles de presse publiés entre janvier 2020 et juin 2023. Ces articles venaient de 266 sources différentes dans 30 pays. On s'est ensuite concentrés sur l'identification des discussions autour des impacts négatifs découlant des technologies IA. Au total, 17 590 articles dans notre collection ont mentionné ces impacts négatifs, montrant que les gens parlent clairement des risques de l'IA.

Comment On A Analysé Les Données

On a développé une méthode systématique pour résumer les infos des articles. Pour chaque article, on a extrait deux infos principales : une description du système IA discuté et les impacts négatifs associés. Ces infos nous ont permis de créer un ensemble de données qui aide les chercheurs à évaluer les impacts négatifs de l'IA plus efficacement.

Répartition des Impacts Négatifs

D'après notre analyse, on a trouvé dix catégories d'impacts négatifs mentionnés dans les articles de presse :

  1. Impacts Sociaux : Ces impacts soulignent comment l'IA peut affecter la société, comme la désinformation ou la perte de confiance publique à cause des deepfakes.

  2. Impacts économiques : Ça couvre les pertes d'emplois et l'incertitude économique causées par l'IA, comme le remplacement des travailleurs par des chatbots automatisés.

  3. Vie privée : Les discussions sur la vie privée tournent souvent autour des technologies de surveillance, comme la reconnaissance faciale, qui peuvent compromettre les droits individuels.

  4. Sécurité des Systèmes Autonomes : Cela traite des risques liés aux technologies comme les voitures autonomes ou les drones, qui peuvent entraîner des accidents ou des blessures.

  5. Dommages Physiques et Numériques : Les impacts dans cette catégorie discutent des dangers pour les espaces physiques et numériques, y compris des comportements nuisibles d'IA en ligne et des risques en temps de guerre.

  6. Gouvernance de l'IA : Cette catégorie met en lumière le besoin de régulations pour gérer les technologies IA de manière responsable et garantir la responsabilité.

  7. Précision et Fiabilité : Les préoccupations autour de l'IA tournent parfois autour de la fiabilité des résultats, avec des problèmes comme les "hallucinations" ou les informations incorrectes.

  8. Contenu Généré par l'IA : La capacité de l'IA à produire diverses formes de contenu peut rendre difficile la distinction entre le faux et le réel, soulevant des questions éthiques.

  9. Sécurité : Les menaces cybernétiques utilisant des technologies IA, comme les attaques de phishing, entrent dans cette catégorie et pourraient mettre en danger des informations sensibles.

  10. Risques Divers : Cela inclut tous les autres impacts négatifs qui ne s’insèrent pas dans les catégories précédentes, comme le coût environnemental de l'entraînement des modèles d'IA.

Résultats de Notre Analyse

On a évalué les impacts générés à partir de modèles finement réglés et de modèles plus grands pour voir comment ils se comparent en termes de qualité. Étonnamment, on a trouvé que les modèles plus petits, en particulier un ajusté sur les médias, pouvaient produire des impacts similaires à ceux d’un modèle plus grand. Cependant, le modèle plus petit a réussi à capter des types d'impacts plus variés que le modèle plus grand.

Ce Que Cela Signifie Pour Les Développeurs d'IA

Les résultats de cette recherche montrent que l'utilisation des médias peut nous aider à mieux comprendre les préoccupations sociétales autour de l'IA. Ça ouvre des perspectives pour les créateurs et les chercheurs de réfléchir aux implications plus larges de leurs technologies. En reconnaissant une gamme plus large d'impacts négatifs, on peut aider à garantir que le développement futur de l'IA intègre des voix diverses, surtout celles qui sont souvent négligées.

Limites de Notre Étude

Évidemment, notre étude a ses propres limites. Les médias peuvent contenir des biais, ce qui pourrait influencer le type d'impacts qu'on a pu évaluer. Par exemple, la crédibilité des médias, les tendances politiques et d'autres facteurs peuvent fausser les données. C'est pourquoi il est essentiel que les recherches futures réfléchissent à ces biais et à leur impact sur les résultats de l'IA.

Une Note de Prudence

Bien que nos modèles finement réglés soient utiles, il y a un risque de trop s'y fier. Si les gens commencent à penser que les résultats de ces modèles sont concluants, ça peut mener à un manque d'esprit critique. Des outils comme ça devraient aider le processus d'évaluation, pas remplacer l'analyse humaine.

En Conclusion

Pour finir, notre travail montre des opportunités passionnantes dans le domaine des évaluations d'impact de l'IA. En s'appuyant sur les médias et en utilisant des modèles avancés, on peut obtenir une vue plus claire de la façon dont les technologies IA pourraient affecter la société. Ça peut guider les développeurs et les décideurs à prendre des décisions éclairées qui reflètent vraiment les besoins et les préoccupations de toutes les personnes.

Donc, la prochaine fois que tu lis sur l'IA dans les news, souviens-toi que ce n'est pas juste une question de technologie-c'est une question de vies réelles, de préoccupations réelles et des opinions diverses qui façonnent notre monde. L'avenir de l'IA a besoin de toutes les voix pour participer à la conversation. Et soyons honnêtes : qui ne voudrait pas un peu plus de dialogue sur cette technologie qui prend une place de plus en plus importante dans nos vies chaque jour ?

Source originale

Titre: Towards Leveraging News Media to Support Impact Assessment of AI Technologies

Résumé: Expert-driven frameworks for impact assessments (IAs) may inadvertently overlook the effects of AI technologies on the public's social behavior, policy, and the cultural and geographical contexts shaping the perception of AI and the impacts around its use. This research explores the potentials of fine-tuning LLMs on negative impacts of AI reported in a diverse sample of articles from 266 news domains spanning 30 countries around the world to incorporate more diversity into IAs. Our findings highlight (1) the potential of fine-tuned open-source LLMs in supporting IA of AI technologies by generating high-quality negative impacts across four qualitative dimensions: coherence, structure, relevance, and plausibility, and (2) the efficacy of small open-source LLM (Mistral-7B) fine-tuned on impacts from news media in capturing a wider range of categories of impacts that GPT-4 had gaps in covering.

Auteurs: Mowafak Allaham, Kimon Kieslich, Nicholas Diakopoulos

Dernière mise à jour: 2024-11-04 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2411.02536

Source PDF: https://arxiv.org/pdf/2411.02536

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires