Google says hackers are abusing Gemini AI for all attacks stages

2 minute de lecture

Mis à jour :

L’IA au service des cyberattaquants

Des acteurs étatiques malveillants, issus de Chine, d’Iran, de Corée du Nord et de Russie, exploitent désormais le modèle d’IA Gemini de Google pour diverses étapes de leurs cyberattaques. Cette utilisation s’étend de la phase de reconnaissance et de collecte d’informations (profilage de cibles, renseignement en sources ouvertes) à la génération de contenus pour l’ingénierie sociale (appâts de phishing), la traduction, le codage, le test de vulnérabilités et le dépannage. Les cybercriminels montrent un intérêt croissant pour les outils d’IA susceptibles de faciliter des activités illégales, comme les campagnes d’ingénierie sociale.

Points clés :

  • Utilisation étendue de Gemini par des acteurs étatiques : L’IA est employée pour toutes les phases d’une attaque, de la reconnaissance à la post-compromission.
  • Génération de contenus malveillants : Création d’appâts de phishing, traduction de textes, génération de code, assistance au développement de commandes et de contrôle (C2).
  • Automatisation de l’analyse de vulnérabilités : Des acteurs chinois ont demandé à Gemini d’analyser des vulnérabilités et de proposer des plans de test ciblés.
  • Amélioration de logiciels malveillants existants : L’IA est utilisée pour intégrer de nouvelles capacités dans des malwares comme CoinBait (kit de phishing) et HonestCue (téléchargeur et lanceur de malware).
  • Campagnes d’ingénierie sociale amplifiées : L’IA est utilisée dans des campagnes de type ClickFix pour distribuer des logiciels espions pour macOS.
  • Extraction et distillation de modèles d’IA : Des tentatives sont faites pour extraire les fonctionnalités de modèles d’IA avancés afin de créer de nouveaux modèles plus rapidement et à moindre coût.

Vulnérabilités / Risques exploités :

  • Ingénierie sociale : L’IA permet de créer des messages de phishing plus personnalisés et convaincants.
  • Automatisation des tâches : Réduction du temps et de l’effort nécessaires pour la reconnaissance, le développement de code malveillant et le test de vulnérabilités.
  • Extraction de propriété intellectuelle : L’extraction et la distillation de modèles d’IA constituent un vol de propriété intellectuelle et une menace pour le modèle économique de l’IA en tant que service.

Recommandations / Actions de Google :

  • Désactivation des comptes et de l’infrastructure : Google a désactivé les comptes et infrastructures liés aux abus documentés.
  • Défenses ciblées : Mise en place de défenses dans les classificateurs de Gemini pour rendre les abus plus difficiles.
  • Conception sécurisée : Google affirme concevoir ses systèmes d’IA avec des mesures de sécurité robustes et des garde-fous solides, testant régulièrement les modèles pour améliorer leur sécurité et leur sûreté.

Source