Hackers Used AI to Develop First Known Zero-Day 2FA Bypass for Mass Exploitation

1 minute de lecture

Mis à jour :

L’essor de l’IA dans l’exploitation malveillante de failles zéro-day

Google a révélé l’utilisation, pour la première fois en conditions réelles, d’une vulnérabilité zéro-day développée à l’aide de l’intelligence artificielle. Des cybercriminels ont exploité un script Python, structuré selon des standards typiques des grands modèles de langage (LLM), pour contourner l’authentification à deux facteurs (2FA) d’un outil d’administration web populaire.

Points clés :

  • Accélération des menaces : L’IA agit comme un multiplicateur de force, réduisant drastiquement les délais entre la découverte d’une faille, sa militarisation et son exploitation.
  • Diversification des usages : Outre le développement d’exploits, l’IA est utilisée pour créer des malwares polymorphes (ex: PromptSpy sur Android), automatiser la recherche de vulnérabilités, et dissimuler des codes malveillants.
  • Marchés gris et contournement : Des acteurs étatiques et criminels utilisent des API « fantômes » ou des intermédiaires pour accéder à des modèles d’IA premium tout en masquant leur identité et en contournant les restrictions géographiques.
  • Espionnage et reconnaissance : Des groupes de menace exploitent l’IA pour analyser des firmwares, valider des preuves de concept (PoC) et mener des opérations d’influence à grande échelle.

Vulnérabilités :

  • Type : Faille logique sémantique (défaut de confiance codé en dur).
  • CVE : Aucune spécifiée (la vulnérabilité a été corrigée via une divulgation responsable avec le fournisseur concerné).

Recommandations :

  • Sécurisation des systèmes : Renforcer les contrôles d’accès au-delà de la 2FA classique, notamment en évitant les hypothèses de confiance codées en dur dans le code source.
  • Surveillance des environnements IA : Protéger les infrastructures IA internes contre les attaques par supply chain, car une compromission permet aux attaquants de collecter des données sensibles ou de mener une reconnaissance automatisée au sein du réseau.
  • Vigilance sur les API tierces : Éviter l’utilisation d’API ou de services de relais non officiels pour accéder aux modèles d’IA, car ceux-ci peuvent intercepter les données et fausser les réponses du modèle (risque d’empoisonnement ou de détournement d’information).

Source