Microsoft: Hackers abusing AI at every stage of cyberattacks

1 minute de lecture

Mis à jour :

L’IA comme multiplicateur de force dans les cyberattaques

Les cybercriminels exploitent désormais l’intelligence artificielle générative pour automatiser et accélérer chaque étape de la chaîne d’attaque, réduisant ainsi les barrières techniques. Cette technologie agit comme un multiplicateur de force, permettant aux attaquants de générer du contenu malveillant, de développer des infrastructures et de perfectionner leurs tactiques tout en conservant le contrôle opérationnel.

Points clés :

  • Usage polyvalent : L’IA est utilisée pour rédiger des e-mails de phishing, traduire du contenu, déboguer des malwares et structurer des scripts.
  • Infiltration via des identités synthétiques : Des groupes comme Jasper Sleet utilisent l’IA pour créer des profils professionnels crédibles, générer des CV adaptés et extraire les compétences requises pour usurper l’identité de travailleurs IT légitimes.
  • Développement de malwares : Les attaquants emploient des outils d’IA pour coder, corriger des erreurs ou porter des logiciels malveillants vers différents langages.
  • Contournement des protections : Les cybercriminels utilisent des techniques de “jailbreak” pour outrepasser les garde-fous des modèles de langage (LLM) et forcer la génération de contenus malveillants.
  • Évolution vers l’IA agentique : Bien que l’IA serve principalement à l’aide à la décision aujourd’hui, des expérimentations vers une exécution autonome sont observées.

Vulnérabilités :

  • Aucune CVE spécifique n’est mentionnée, car il s’agit d’un changement de méthode (tradecraft) utilisant des outils légitimes détournés plutôt que l’exploitation d’une faille logicielle unique. Le risque réside dans l’abus des systèmes d’identité et l’ingénierie sociale assistée par IA.

Recommandations :

  • Renforcement des identités : Considérer les campagnes d’usurpation de travailleurs IT comme des menaces internes et durcir les systèmes de vérification d’identité.
  • Surveillance comportementale : Détecter les utilisations anormales des identifiants et les comportements atypiques sur le réseau.
  • Sécurisation des systèmes IA : Protéger les infrastructures d’IA contre le détournement et l’injection malveillante.
  • Vigilance accrue : Maintenir des protocoles de sécurité robustes contre le phishing, car les attaques assistées par IA imitent de plus en plus fidèlement les tactiques conventionnelles.

Source