ShadowLeak Zero-Click Flaw Leaks Gmail Data via OpenAI ChatGPT Deep Research Agent

1 minute de lecture

Mis à jour :

ShadowLeak : Faille de ChatGPT permettant la fuite de données Gmail

Une nouvelle vulnérabilité de type “zero-click” a été découverte dans l’agent Deep Research de ChatGPT, permettant à des attaquants de subtiliser des données sensibles de la boîte de réception Gmail. Baptisée “ShadowLeak”, cette faille exploite une injection de prompt indirecte cachée dans le code HTML d’un e-mail. Les commandes malveillantes, invisibles pour l’utilisateur, sont interprétées par l’agent lors de l’analyse d’e-mails, déclenchant l’exfiltration de données vers un serveur externe. Contrairement à d’autres attaques similaires, ShadowLeak opère directement au sein de l’infrastructure cloud d’OpenAI, rendant la détection par les défenses locales ou d’entreprise difficile.

Points Clés :

  • Nature de la faille : Zero-click, injection de prompt indirecte.
  • Cible : Agent Deep Research de ChatGPT, utilisé pour l’analyse d’e-mails.
  • Méthode d’attaque : E-mail spécialement conçu avec des instructions invisibles (police blanche sur fond blanc, astuces de mise en page) dans le HTML.
  • Exfiltration des données : Les données sont transmises directement depuis le cloud d’OpenAI vers un serveur contrôlé par l’attaquant, utilisant l’outil browser.open() et encodées en Base64.
  • Portée : Initialement démontrée sur Gmail, la faille peut affecter tout connecteur supporté par ChatGPT (Box, Dropbox, GitHub, Google Drive, etc.).
  • Distinction : Diffère des attaques côté client par son exécution au sein du cloud et sa capacité à contourner les contrôles de sécurité traditionnels.

Vulnérabilités :

  • ShadowLeak (Non attribué de CVE spécifique dans l’article).
    • Exploitation de l’agent Deep Research pour accéder et exfiltrer des données Gmail.
    • Utilisation d’injection de prompt indirecte pour dissimuler les commandes malveillantes.
    • Exfiltration directement depuis l’environnement cloud d’OpenAI.

Recommandations :

  • Les utilisateurs doivent être prudents quant à l’activation des intégrations avec ChatGPT, notamment pour les services de messagerie comme Gmail.
  • Il est crucial de maintenir une vigilance accrue face aux e-mails, même ceux qui semblent anodins.
  • Les fournisseurs de services d’IA doivent renforcer les mécanismes de sécurité pour détecter et neutraliser les injections de prompt indirectes et les tentatives d’exfiltration de données.
  • Une surveillance continue et des tests d’intrusion réguliers (“red teaming”) sont recommandés pour identifier les nouvelles vulnérabilités.

Source