CVE-2025-53773

1 minute de lecture

Mis à jour :

Vulnérabilité dans GitHub Copilot : Prompt Injection et Exécution de Code à Distance

Une faille critique, identifiée comme CVE-2025-53773, affecte GitHub Copilot, permettant l’exécution de code à distance et le compromis intégral d’un système par le biais de techniques d’injection de prompt. Le cœur du problème réside dans la capacité de Copilot à modifier des fichiers de projet sans validation explicite de l’utilisateur, ciblant notamment le fichier de configuration .vscode/settings.json.

Un attaquant peut exploiter cette vulnérabilité en insérant des prompts malveillants dans diverses sources, telles que le code source, des pages web ou des tickets GitHub. Ces prompts visent à inciter Copilot à ajouter la directive "chat.tools.autoApprove": true au fichier de configuration. Cette modification désactive les confirmations utilisateur, plaçant l’IA dans un état où elle peut exécuter des commandes shell, naviguer sur le web et effectuer d’autres actions privilégiées sans aucune supervision, ouvrant la voie à un possible compromis système.

Points Clés :

  • CVE-2025-53773 : Vulnérabilité dans GitHub Copilot.
  • Mécanisme : Injection de prompt permettant la modification de fichiers de configuration.
  • Cible principale : Le fichier .vscode/settings.json.
  • Impact : Exécution de code à distance et compromis du système.
  • Activation : Ajout de "chat.tools.autoApprove": true désactive les confirmations.

Vulnérabilité :

  • CVE-2025-53773 : Permet l’exécution de code à distance et le compromis système via prompt injection.

Recommandations :

Bien que l’article ne détaille pas explicitement les recommandations, la nature de la vulnérabilité suggère les actions suivantes :

  • Surveillance des fichiers de configuration : Vérifier régulièrement le contenu du fichier .vscode/settings.json pour toute modification suspecte, en particulier l’ajout de "chat.tools.autoApprove": true.
  • Filtrage des entrées : Mettre en place des mécanismes pour identifier et neutraliser les prompts malveillants avant qu’ils n’atteignent l’IA.
  • Restrictions des permissions : Limiter les privilèges des outils et des actions que l’IA peut entreprendre automatiquement.
  • Mises à jour et correctifs : Appliquer les mises à jour de sécurité fournies par GitHub pour Copilot afin de corriger cette vulnérabilité.

Source