Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Intelligence artificielle# Ordinateurs et société# Interaction homme-machine

Limites des modèles linguistiques dans la persuasion politique

Une étude montre que des modèles plus grands ne garantissent pas de meilleurs messages persuasifs.

― 8 min lire


Limites de la persuasionLimites de la persuasionde l'IAles modèles.garantit pas le succès persuasif dansUne étude montre que la taille ne
Table des matières

Les grands Modèles de langage (LLMs) peuvent maintenant créer des MessagesPolitiques aussi convaincants que ceux écrits par des humains. Ça soulève des questions sur à quel point ces modèles peuvent devenir plus Persuasifs en grandissant. Pour répondre à ça, on a généré 720 messages persuasifs sur 10 sujets politiques américains en utilisant 24 modèles de langue différents de tailles variées. On a testé ces messages dans une grande enquête pour voir à quel point chaque modèle pouvait persuader les gens de changer d'avis.

Résultats Clés

Notre étude a révélé deux résultats importants. D'abord, on a trouvé que la capacité persuasive des modèles de langue suit une loi de mise à l'échelle logarithmique. Ça veut dire que des modèles plus grands ne mènent pas forcément à des messages beaucoup plus persuasifs. En fait, les plus grands modèles qu'on a testés étaient juste un peu plus convaincants que des modèles bien plus petits.

Ensuite, on a découvert que le fait d'accomplir la tâche correctement - c’est-à-dire que les messages étaient clairs et restaient sur le sujet - était une grande raison pour laquelle les modèles plus grands semblaient plus persuasifs. Donc, juste faire grossir les modèles ne va pas forcément améliorer la qualité persuasive de leurs messages.

Inquiétudes sur l'Influence

À mesure que les LLMs prennent en taille et en capacité, les craintes augmentent concernant leur potentiel à influencer les croyances et actions des gens. Ces modèles peuvent créer une forte propagande, altérer les croyances sur des théories du complot et générer des messages qui peuvent rivaliser avec ceux des vraies entités gouvernementales. La recherche a montré que même des messages courts et génériques peuvent changer significativement les Attitudes des gens.

Avec beaucoup d’électeurs qui s’attendent à aller aux urnes en 2024, les décideurs s’inquiètent que ces modèles puissent nuire au paysage informationnel et influencer le choix des électeurs. Les experts ont averti que des acteurs manipulateurs pourraient utiliser les LLMs pour orienter des événements politiques importants. L'inquiétude publique est largement répandue, beaucoup de gens dans divers pays craignant que l'IA puisse être utilisée pour influencer l'opinion publique.

Avertissements de l'Industrie et Inquiétudes de Recherche

Les leaders de l'industrie et les experts en apprentissage automatique ont tiré la sonnette d'alarme que les futurs LLMs pourraient devenir encore plus persuasifs. Une enquête récente auprès de chercheurs en IA a indiqué que la manipulation de l'opinion publique par l'IA est perçue comme un risque sérieux. En réponse, les entreprises d'IA développent des cadres pour évaluer et gérer le potentiel de dommages causés par des modèles hautement persuasifs.

Pourtant, malgré les préoccupations, il n'est pas clair à quel point de plus grands modèles pourront réellement persuader. Bien que de nombreuses tâches s'améliorent avec des modèles plus grands, ce n'est pas toujours le cas. La connexion entre la taille du modèle et son efficacité peut varier énormément selon la tâche.

Cela crée des défis pour des tâches complexes comme la persuasion politique. Contrairement à des tâches plus simples mesurées par des tests, la persuasion politique nécessite de voir comment de vraies personnes changent d'avis après avoir interagi avec des messages générés par des modèles. Jusqu'à présent, la recherche n'a pas totalement clarifié à quelle vitesse la capacité persuasive augmente ou à quelle taille les modèles commencent à égaler les niveaux de persuasion humaine.

Approche de l'Étude

On visait à comparer une large gamme de modèles de langue à poids ouverts de différentes tailles par rapport aux meilleurs acteurs actuels dans le domaine. On a veillé à affiner tous les modèles sur les mêmes données pour avoir des comparaisons équitables. Au total, on a testé des modèles allant de 70 millions à plus de 300 milliards de paramètres.

Méthodes

Pendant notre étude, on a créé trois messages persuasifs pour chacun des 10 problèmes politiques. On a mesuré à quel point les messages de chaque modèle étaient persuasifs dans une enquête en ligne réalisée auprès d'adultes américains. Les participants étaient divisés en trois groupes : ceux qui recevaient des messages d'IA, ceux qui recevaient des messages d'humains, et un groupe témoin qui ne recevait aucun message.

Les résultats de l'enquête ont montré que le pouvoir persuasif des modèles de langue augmentait avec leur taille selon une échelle logarithmique. En termes simples, plus le modèle est grand, plus il peut être persuasif, mais l'effet devenait moins significatif à mesure que les modèles grandissaient.

Résultats

D'abord, on a trouvé qu'en moyenne, les modèles de langue pouvaient persuader les gens, avec un changement moyen d'attitudes d'environ 6 points de pourcentage pour les messages d'un modèle de taille moyenne. On a identifié que la persuasivité d'un modèle était liée positivement à sa taille, mais l'augmentation était moins impressionnante à des tailles plus grandes. En fait, certains petits modèles ont généré des messages qui étaient tout aussi persuasifs que ceux des plus grands modèles.

Accomplissement de Tâches et Persuasivité

Une partie significative de nos résultats était la découverte que bien accomplir la tâche était le facteur clé de la persuasivité. Les modèles avaient déjà atteint des scores maximaux sur l'accomplissement de la tâche, ce qui signifie qu'ils étaient cohérents et sur le sujet. Ça indique que simplement augmenter la taille du modèle pourrait ne pas donner de meilleurs résultats en termes de persuasion.

Problèmes Politiques et Persuasion

On a aussi regardé à quel point les modèles étaient persuasifs sur différents sujets politiques. On a trouvé que certains sujets montraient des effets de persuasion plus significatifs que d'autres. Cette variation suggère que les gens sont plus ouverts à la persuasion sur des sujets spécifiques. Par exemple, des problèmes avec un intérêt public moindre pourraient montrer des impacts persuasifs plus clairs que des sujets plus polarisants.

Implications des Résultats

Notre étude fournit des preuves qu'il y a une limite à la taille que les modèles peuvent atteindre en matière d'efficacité persuasive. Actuellement, cela suggère que simplement faire grandir les modèles ne mènera pas à des améliorations substantielles dans la persuasion de leurs messages.

Bien que nos résultats ne signifient pas que les messages générés par des LLM manquent de persuasivité, ils suggèrent que de nombreux modèles plus petits peuvent également atteindre des niveaux de persuasion humains. Ça montre que le coût et la difficulté d'accéder à des LLM efficaces pourraient être inférieurs à ce qu'on pensait auparavant. Par conséquent, beaucoup plus de groupes pourraient potentiellement utiliser ces modèles pour influencer les attitudes.

Limitations

Il y a certaines limitations dans notre recherche. D'abord, les modèles à code fermé qu'on a étudiés pourraient potentiellement limiter leur capacités persuasives. Même si ces modèles sont grands, on ne peut pas confirmer complètement qu'ils ont été formés pour une persuasivité maximale, ce qui pourrait signifier que nos résultats sous-estiment l'influence réelle de la taille du modèle.

Deuxièmement, notre groupe de participants n'était pas complètement représentatif de la population plus large, car il était plutôt en faveur des idées libérales et démocrates. Même si cela fausse nos résultats, il est important de noter que cela pourrait ne pas changer la tendance générale qu'on a observée dans la relation entre la taille du modèle et la persuasivité.

Directions Futures

Il y a plusieurs voies pour des recherches futures. Par exemple, avoir des conversations plus longues avec un LLM pourrait potentiellement donner des effets de persuasion plus forts. De plus, personnaliser les messages dans des dialogues multi-tours pourrait offrir des avantages significatifs en persuasion par rapport à des messages singulars et statiques.

Considérer à quel point les modèles peuvent être formés ou sollicités pour augmenter leurs capacités persuasives est un autre domaine important pour une étude future. Ça nous donnera une compréhension plus détaillée de comment améliorer efficacement les capacités des modèles.

Conclusion

En résumé, notre étude révèle que bien que les plus grands modèles de langage soient effectivement capables de créer des messages persuasifs, il semble qu'il y ait des limites à leur efficacité à mesure que leur taille augmente. L'accent doit maintenant être mis sur la compréhension des facteurs qui contribuent à la persuasivité et le développement de moyens pour optimiser ces capacités dans des applications pratiques.

Source originale

Titre: Evidence of a log scaling law for political persuasion with large language models

Résumé: Large language models can now generate political messages as persuasive as those written by humans, raising concerns about how far this persuasiveness may continue to increase with model size. Here, we generate 720 persuasive messages on 10 U.S. political issues from 24 language models spanning several orders of magnitude in size. We then deploy these messages in a large-scale randomized survey experiment (N = 25,982) to estimate the persuasive capability of each model. Our findings are twofold. First, we find evidence of a log scaling law: model persuasiveness is characterized by sharply diminishing returns, such that current frontier models are barely more persuasive than models smaller in size by an order of magnitude or more. Second, mere task completion (coherence, staying on topic) appears to account for larger models' persuasive advantage. These findings suggest that further scaling model size will not much increase the persuasiveness of static LLM-generated messages.

Auteurs: Kobi Hackenburg, Ben M. Tappin, Paul Röttger, Scott Hale, Jonathan Bright, Helen Margetts

Dernière mise à jour: 2024-06-20 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2406.14508

Source PDF: https://arxiv.org/pdf/2406.14508

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires