On the Coming Industrialisation of Exploit Generation with LLMs

2 minute de lecture

Mis à jour :

Industrialisation de la génération d’exploits par les IA

Des expériences menées avec les modèles linguistiques avancés (LLM) Opus 4.5 et GPT-5.2 ont démontré leur capacité à générer des exploits pour une vulnérabilité “zero-day” dans l’interpréteur JavaScript QuickJS. Malgré des mesures de sécurité modernes et diverses contraintes, les IA ont réussi à créer plus de 40 exploits différents dans 6 scénarios, y compris des tâches complexes comme l’écriture d’un fichier dans un environnement hautement sécurisé. GPT-5.2 a résolu tous les scénarios, et Opus 4.5 tous sauf deux.

Cette avancée suggère que la génération d’exploits pourrait devenir une tâche “industrialisable”, où la limitation principale sera la puissance de calcul (“token throughput”) plutôt que le nombre d’experts humains. Cela pourrait transformer la capacité des organisations à mener des cyberattaques offensives.

Points Clés :

  • Les LLM peuvent développer des capacités d’accès à la mémoire d’un processus cible en analysant le code source et en procédant par essais et erreurs.
  • La génération d’exploits est réalisable rapidement et à moindre coût, avec un budget de quelques dizaines de dollars pour des sessions d’expérimentation.
  • Des protections complexes comme l’ASLR, la mémoire non exécutable, le RELRO complet, le CFI, le shadow stack matériel et les sandboxes peuvent être contournées.
  • L’industrialisation d’une tâche par un LLM nécessite la capacité à explorer un espace de solutions et à vérifier les résultats sans intervention humaine.

Vulnérabilités et Exploits :

  • Vulnérabilité : Zero-day dans l’interpréteur JavaScript QuickJS. (CVE non spécifié dans l’article, car il s’agit d’une découverte de l’auteur).
  • Capacités exploitées : Lecture et modification de l’espace d’adressage du processus cible.
  • Exemples d’exploits :
    • Obtenir une primitive pour lire et modifier l’espace d’adressage.
    • Démonstration d’un exploit pour écrire un fichier spécifique dans un chemin donné, contournant des protections avancées (ASLR, NX, RELRO, CFI, shadow stack, seccomp sandbox) en utilisant un mécanisme de chaînage de 7 appels de fonction via le gestionnaire de sortie de glibc.

Recommandations :

  • Préparation : Se préparer à l’industrialisation des capacités offensives en cybersécurité par les LLM, où la puissance de calcul devient le facteur limitant.
  • Évaluation des modèles : Les laboratoires d’IA de pointe et les instituts de sécurité IA devraient évaluer les modèles sur des cibles réelles et complexes avec des vulnérabilités zero-day, en publiant les résultats.
  • Recherche : Encourager les chercheurs et ingénieurs à expérimenter avec les LLM sur des problèmes d’exploitation complexes, en utilisant autant de “tokens” que possible et en partageant les résultats.
  • Transparence : Idéalement, des rapports publics devraient détailler les dépenses en tokens et les résultats d’exploitation obtenus contre des logiciels critiques (comme le noyau Linux ou Firefox).
  • Élargissement des cibles : L’évaluation devrait inclure des environnements difficiles comme le firmware de nombreux appareils IoT.

Source