Simple Science

La science de pointe expliquée simplement

# Informatique# Cryptographie et sécurité

Utiliser ChatGPT pour lutter contre les arnaques par email

ChatGPT montre des signes prometteurs en tant qu'outil contre la fraude en ligne dans de nouvelles recherches.

― 9 min lire


ChatGPT lutte contre lesChatGPT lutte contre lesarnaqueurs par email.distraire les fraudeurs en ligne.L'IA s'avère efficace pour engager et
Table des matières

La chasse aux arnaques automatique est une méthode utilisée pour lutter contre la fraude en ligne. Ça consiste à créer des systèmes qui répondent aux Escrocs, gâchant leur temps et leurs ressources. Ça aide à protéger les vraies victimes. Avant, il y avait eu des tentatives d'utiliser des systèmes de génération de texte pour interagir avec les escrocs, mais la qualité des Réponses produites par ces systèmes limitait parfois leur succès.

L'Expérience

Dans ce débat, on regarde une expérience qui a eu lieu pendant un mois. L'objectif était de voir comment deux systèmes basés sur ChatGPT se comportaient par rapport à une méthode traditionnelle. L'expérience a inclus des interactions avec plus de 250 vrais escrocs par email. Les résultats ont montré que les systèmes basés sur ChatGPT avaient un taux d'engagement beaucoup plus élevé et des conversations plus longues par rapport à l'approche classique. C'était un progrès significatif par rapport aux méthodes précédentes utilisées pour piéger les escrocs.

Fraude par Email

La fraude par email est devenue un gros problème dans le monde en ligne d'aujourd'hui. Plusieurs arnaques, comme la fraude à l'investissement, les arnaques de rencontre en ligne, les arnaques de support technique, etc., commencent souvent par des emails. Des rapports récents indiquent qu'un nombre important de personnes a signalé avoir perdu de l'argent à cause de ces arnaques. Comme ces crimes peuvent traverser les frontières, il est souvent difficile d'attraper les responsables, ce qui complique les poursuites.

Dans le passé, la plupart des efforts pour lutter contre ces arnaques se concentraient sur le blocage des emails suspects et l'utilisation de filtres pour protéger les utilisateurs. Cependant, des suggestions récentes ont proposé d'adopter une approche plus proactive. Cela signifie interagir activement avec les escrocs pour les distraire des vraies victimes. Une méthode introduite pour cela est la chasse aux arnaques automatique. Dans cette méthode, des systèmes automatisés envoient des réponses aux escrocs, leur faisant croire qu'ils communiquent avec une victime potentielle.

Cependant, les tentatives précédentes avec des systèmes de génération de texte moins puissants avaient du mal à produire des messages convaincants et cohérents. Ça entraînait souvent des conversations qui se terminaient rapidement parce que les réponses n’étaient pas crédibles.

Avancées dans la Génération de Texte

Maintenant, avec une meilleure technologie disponible, le potentiel pour une chasse aux arnaques plus efficace a augmenté. Cet article examine comment les nouveaux systèmes de génération de texte, en particulier ChatGPT, peuvent améliorer l'efficacité de la chasse aux arnaques automatique. L'accent est mis sur la capacité de ces systèmes améliorés à créer de meilleures conversations plus durables avec les escrocs que les méthodes précédentes. De plus, l'étude examine si les systèmes formés sur des réponses humaines réelles produisent de meilleurs résultats que ceux suivant simplement des instructions de base.

Questions de Recherche

Deux questions principales ont guidé la recherche. D'abord, est-ce que les systèmes basés sur ChatGPT marchent mieux que les méthodes précédentes pour faire répondre les escrocs et maintenir les conversations ? Ensuite, les systèmes qui apprennent d'exemples de chasse aux arnaques humaine font-ils mieux que ceux qui suivent des instructions générales ?

Méthodologie

Pour tester ces questions, une expérience a été conçue où de vrais escrocs étaient contactés par email. L'expérience a reçu l'approbation d'un comité d'éthique pour garantir la sécurité et l'équité de la recherche, étant donné qu'elle impliquait de tromper des individus à leur insu.

L'expérience a utilisé un serveur mail spécial pour collecter des emails d'escroquerie récents et les a assignés au hasard à différentes stratégies de réponse. De nouveaux modules ont été créés pour permettre les réponses de ChatGPT tout en les comparant aux méthodes traditionnelles.

ChatGPT, qui est une version d'un puissant modèle de langage, a été choisi pour sa capacité à générer des réponses plus humaines. Les réponses ont été surveillées via une API open source pour évaluer leur efficacité par rapport aux méthodes traditionnelles.

Stratégies de Réponse

Deux stratégies de réponse différentes utilisant ChatGPT ont été testées aux côtés d'une méthode de contrôle.

Répondant Chat 1

La première stratégie consistait à demander à ChatGPT de répondre aux emails d'escrocs uniquement en se basant sur des lignes directrices générales. L’objectif était de créer des réponses qui feraient croire à l'escroc qu'il parlait à quelqu'un de facilement persuadable. Cela signifiait rédiger des réponses qui semblaient intéressées et curieuses tout en évitant de dénoncer l'escroquerie ou de partager des informations personnelles.

Lors des tests initiaux, ce modèle ChatGPT a parfois révélé l'escroquerie ou partagé de fausses informations personnelles, ce qui pouvait dissuader les escrocs de continuer la conversation. Des ajustements ont été faits pour s'assurer que le modèle ne divulguait pas ces informations ou n'identifiait pas l'escroquerie.

Répondant Chat 2

La deuxième stratégie était conçue pour voir si fournir des exemples d'interactions réelles de chasse aux arnaques entraînerait de meilleures réponses. Un ensemble de données de conversations passées entre escrocs et chasseurs d'escroqueries humaines a été utilisé pour former ce modèle ChatGPT. Le but était d'imiter les tactiques réussies utilisées par les humains.

Ce modèle ChatGPT a reçu un ensemble de conversations exemples et a ensuite été instruit de créer des réponses sans s'y référer durant la conversation. L'espoir était que ces exemples aideraient le système à produire des réponses plus naturelles et engageantes.

Mesure de Contrôle

La mesure de contrôle a utilisé une méthode des recherches antérieures qui s'appuyait sur des modèles pré-écrits pour répondre aux escrocs. Cette approche consistait à catégoriser les messages et à sélectionner des réponses en fonction du type de fraude. Le but de ce contrôle était de voir comment les nouveaux systèmes ChatGPT se comparaient aux méthodes établies.

Résultats

L'expérience a duré du 9 avril au 7 mai 2023. Au cours de ce mois, les trois différentes stratégies de réponse ont été testées contre un ensemble de 819 adresses email d'escroquerie collectées sur des forums en ligne. Au total, les systèmes ont reçu des réponses de 286 escrocs individuels, représentant un taux de réponse de 35%.

Lors de l'analyse, il a été constaté que certains escrocs utilisaient des réponses automatisées. Les conversations avec ces escrocs ont été filtrées pour garantir la validité des données restantes. Au final, 254 conversations valides ont émergé, chacune ayant au moins une réponse.

Les résultats ont montré que le Répondant Chat 1 attirait le plus de conversations, tandis que le Répondant Chat 2 produisait moins de réponses en général. La méthode de contrôle a reçu le moins de réponses parmi les trois stratégies.

Métriques d'Engagement

Le Répondant Chat 1 a non seulement attiré plus de conversations, mais a également maintenu les escrocs engagés plus longtemps. La conversation moyenne durait environ deux jours, avec certaines interactions se prolongeant jusqu'à 27 jours. Cette performance a marqué une amélioration notable par rapport à la méthode de contrôle.

En revanche, le Répondant Chat 2 avait des temps d'engagement plus courts et moins de réponses par conversation. Au final, utiliser des exemples de conversations humaines n'a pas amélioré l'efficacité comme espéré au départ.

Comparaison avec les Travaux Précédents

En comparant ces résultats avec des études antérieures, il était évident que les deux stratégies ChatGPT surpassaient de manière significative les anciennes méthodes. La méthode traditionnelle de contrôle, qui avait été la plus performante dans des recherches antérieures, a montré des résultats comparativement faibles ici. Les systèmes ChatGPT ont pu tirer parti de détails spécifiques des emails d'escroquerie, attirant l'attention des escrocs et encourageant des conversations plus longues.

Observations et Perspectives

Lors des interactions, il est devenu clair que les systèmes ChatGPT semblaient parfois oublier ou être confus. Cela a contribué à des conversations en cours, car le système posait des questions aux escrocs auxquelles ils avaient déjà répondu. Bien que ce soit perçu comme un défaut, cela a aussi maintenu les escrocs engagés plus longtemps, montrant que l'agacement pouvait parfois servir l'avantage de celui qui piège.

Cependant, il y avait aussi des risques. Dans certains cas, les escrocs ont réalisé qu'ils avaient affaire à un robot et ont mis fin aux conversations. Les systèmes ChatGPT se sont parfois révélés comme étant de l'IA, ce qui a conduit certains escrocs à se désengager mais d'autres à choisir de continuer.

Conclusion

Les systèmes basés sur ChatGPT se sont révélés très efficaces dans la chasse aux arnaques, générant significativement plus de réponses que les approches traditionnelles. Malgré quelques erreurs du système, des ajustements pourraient être faits pour améliorer les interactions futures. L'étude suggère que, bien qu'il puisse y avoir des limitations aux mises en œuvre actuelles, les avancées dans la technologie de génération de texte offrent des outils prometteurs pour lutter contre la fraude en ligne grâce à des méthodes automatiques de chasse aux arnaques.

Source originale

Titre: Automatic Scam-Baiting Using ChatGPT

Résumé: Automatic scam-baiting is an online fraud countermeasure that involves automated systems responding to online fraudsters in order to waste their time and deplete their resources, diverting attackers away from real potential victims. Previous work has demonstrated that text generation systems are capable of engaging with attackers as automatic scam-baiters, but the fluency and coherence of generated text may be a limit to the effectiveness of such systems. In this paper, we report on the results of a month-long experiment comparing the effectiveness of two ChatGPT-based automatic scam-baiters to a control measure. Within our results, with engagement from over 250 real email fraudsters, we find that ChatGPT-based scam-baiters show a marked increase in scammer response rate and conversation length relative to the control measure, outperforming previous approaches. We discuss the implications of these results and practical considerations for wider deployment of automatic scam-baiting.

Auteurs: Piyush Bajaj, Matthew Edwards

Dernière mise à jour: 2023-09-04 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2309.01586

Source PDF: https://arxiv.org/pdf/2309.01586

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires