Simple Science

La science de pointe expliquée simplement

# Informatique# Cryptographie et sécurité# Apprentissage automatique

Le côté obscur de l'IA : Menaces de malware

Des outils d'IA avancés peuvent être mal utilisés pour créer des malwares, ce qui soulève des inquiétudes en matière de cybersécurité.

― 7 min lire


IA et Malware : un comboIA et Malware : un combodangereuxmenaces en cybersécurité.Les outils d'IA créent de nouvelles
Table des matières

L'essor de la technologie IA avancée, en particulier des modèles de langage de grande taille (LLM), a changé notre façon d'aborder plein de tâches. Ces modèles peuvent aider avec différentes activités, comme écrire du code ou résumer des infos. Mais ils ont aussi créé de nouveaux problèmes, surtout dans le domaine de la cybersécurité. Certains chercheurs ont montré que ces modèles IA peuvent être utilisés pour créer du contenu nuisible ou aider ceux qui ont moins d'expérience à exécuter des attaques. Cet article parle de la façon dont les LLM peuvent potentiellement être détournés de façon nuisible, surtout en ce qui concerne les attaques de Malware.

La menace des malwares

Le malware, c’est un logiciel conçu pour nuire à un ordinateur ou à un réseau. Ça peut prendre plusieurs formes, comme des virus, des ransomwares ou des spywares. L’accessibilité croissante des outils, y compris les LLM, augmente le risque que des logiciels de ce type soient créés et partagés. Des études récentes suggèrent que les gens peuvent utiliser des LLM comme ChatGPT pour développer des malwares plus facilement. Ça soulève de sérieuses inquiétudes pour les experts en cybersécurité.

Comment les LLM peuvent être détournés

Les chercheurs ont trouvé des moyens d'utiliser des Plugins disponibles gratuitement avec des LLM de manière nuisible. En agissant comme intermédiaire entre un attaquant et une victime, ces plugins facilitent l'accès des individus malveillants au système d'une victime. Une méthode consiste à créer une "preuve de concept", où ChatGPT aide à distribuer des logiciels nuisibles tout en évitant d'être détecté par les systèmes de sécurité.

Dans ces scénarios, même des mesures de sécurité établies peuvent échouer à détecter l'activité malveillante parce que la connexion au LLM semble légitime. Cette situation met en lumière la nécessité de surveiller de près comment les LLM et leurs plugins sont utilisés.

Le concept de RATGPT

Une approche abordée implique un concept appelé RATGPT, qui signifie “Remote Access Trojan avec Generative Pre-trained Transformer.” Cette technique permet aux attaquants de contrôler la machine d'une victime via un logiciel exécutable apparemment innocent. Quand une victime exécute ce logiciel sans le savoir, ça se connecte au serveur de contrôle de l'attaquant. Cette connexion permet à l'attaquant d’envoyer des commandes à la machine de la victime à son insu.

Plugins exploitants

Les plugins développés pour les LLM donnent souvent accès à divers services en ligne. Bien que ces plugins puissent améliorer l'expérience utilisateur, ils présentent aussi de nouvelles vulnérabilités. Si un hacker peut manipuler un plugin pour le diriger vers son serveur, il peut recevoir des infos de la machine de la victime. Cette situation représente un changement inquiétant sur la façon dont quelqu'un peut exploiter une technologie sophistiquée.

Le rôle des fichiers exécutables

Pour que l'attaque réussisse, la victime doit exécuter un fichier qui semble inoffensif. Une fois exécuté, le programme peut communiquer avec le LLM pour recevoir des commandes sans que la victime s'en aperçoive. C'est différent des méthodes traditionnelles où les attaquants doivent interagir de manière plus directe avec leurs cibles.

La preuve de concept montre aussi que les attaquants peuvent générer du code nuisible de manière dynamique. L’exécutable peut créer des connexions à un serveur de contrôle et exécuter les commandes renvoyées. Comme le code reste dans la mémoire de l’ordinateur, c'est souvent plus difficile pour les logiciels de sécurité de le détecter.

Étapes d'une attaque

  1. Faire exécuter le fichier à la victime : L'attaquant doit convaincre la victime de lancer le logiciel, qui peut se présenter comme un outil utile, comme une version gratuite d'une application payante.

  2. Exécuter des commandes : Une fois le fichier exécuté, il peut exécuter des commandes reçues du serveur de contrôle. L'attaquant peut obtenir des infos sur la machine de la victime ou envoyer des instructions nuisibles.

  3. Extraire des informations : Par exemple, si le malware découvre des fichiers sensibles, il peut les renvoyer à l'attaquant. Cette méthode permet aux attaquants de récupérer des données sans attirer l’attention.

Limitations de l'approche

Bien que cette méthode montre un potentiel de nuisibilité, il y a aussi des limitations. D'une part, la sortie des modèles IA n'est pas toujours fiable. Les attaquants peuvent découvrir que le malware ne fonctionne pas comme prévu si l'IA ne génère pas les bonnes réponses.

En plus, certains plugins ou fonctionnalités peuvent ne pas être disponibles pour l'attaquant lors de l'implémentation, ce qui peut perturber l'efficacité de l'attaque. Avoir des sauvegardes de diverses méthodes et options est essentiel pour s'assurer que les attaquants peuvent s'adapter rapidement si une méthode devient inutilisable.

Risques futurs

La capacité croissante des LLM signifie que leur potentiel de détournement va probablement continuer à évoluer. À mesure que les techniques de malware s'améliorent, les méthodes de défense doivent aussi s'adapter. Les développeurs de systèmes de sécurité doivent rester en avance et mettre en place de nouvelles mesures pour contrer ces risques.

Protections existantes

Certaines mesures de protection existent déjà pour limiter le détournement des LLM, y compris les CAPTCHA, qui aident à s'assurer que des utilisateurs humains accèdent à ces services, pas des scripts automatisés. En plus, des limites sur combien de requêtes peuvent être traitées à la fois peuvent aussi ralentir les attaques.

Solutions potentielles

Il y a plusieurs stratégies que les individus et les organisations peuvent adopter pour atténuer les risques des LLM et de leurs plugins :

  1. Liste blanche de sites web : Limiter les sites que les plugins peuvent accéder aide à empêcher les attaquants de diriger les victimes vers des sites nuisibles. Ne permettre l'accès qu'à certains sites reconnus peut réduire les chances d'une attaque réussie.

  2. Restreindre l'accès aux LLM : Les organisations pourraient envisager de bloquer l'accès aux LLM sur leurs réseaux. Ça empêche la possibilité que des attaquants utilisent ces outils pour exploiter leurs systèmes.

  3. Analyse des invites : À mesure que la nature des malwares change, les outils de sécurité doivent aussi s'adapter. De nouvelles méthodes de détection capables de reconnaître des invites nuisibles intégrées dans des exécutables sont cruciales. Ça inclut trouver des moyens de différencier entre des invites inoffensives et potentiellement dangereuses.

Conclusion

Les avancées dans la technologie IA ont apporté plein d'avantages, mais elles comportent aussi des risques significatifs. Le détournement potentiel des modèles de langage de grande taille via des plugins pour faciliter des attaques de malware représente une menace sérieuse. Il est essentiel que les entreprises et les individus reconnaissent ces risques et prennent des mesures appropriées pour se protéger. En comprenant comment ces technologies peuvent être mal utilisées, on peut commencer à développer de meilleures stratégies et protections pour assurer la cybersécurité dans un paysage technologique en évolution.

Source originale

Titre: RatGPT: Turning online LLMs into Proxies for Malware Attacks

Résumé: The evolution of Generative AI and the capabilities of the newly released Large Language Models (LLMs) open new opportunities in software engineering. However, they also lead to new challenges in cybersecurity. Recently, researchers have shown the possibilities of using LLMs such as ChatGPT to generate malicious content that can directly be exploited or guide inexperienced hackers to weaponize tools and code. These studies covered scenarios that still require the attacker to be in the middle of the loop. In this study, we leverage openly available plugins and use an LLM as proxy between the attacker and the victim. We deliver a proof-of-concept where ChatGPT is used for the dissemination of malicious software while evading detection, alongside establishing the communication to a command and control (C2) server to receive commands to interact with a victim's system. Finally, we present the general approach as well as essential elements in order to stay undetected and make the attack a success. This proof-of-concept highlights significant cybersecurity issues with openly available plugins and LLMs, which require the development of security guidelines, controls, and mitigation strategies.

Auteurs: Mika Beckerich, Laura Plein, Sergio Coronado

Dernière mise à jour: 2023-09-07 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2308.09183

Source PDF: https://arxiv.org/pdf/2308.09183

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires