CVE-2025-53773
Mis à jour :
Vulnérabilité dans GitHub Copilot : Risque de compromise système via Injection de Prompts
Une faille critique, identifiée sous le nom de CVE-2025-53773, affecte GitHub Copilot. Elle permet une exécution de code à distance et un compromis total du système par le biais de techniques d’injection de prompts.
Points Clés :
- La vulnérabilité réside dans la capacité de GitHub Copilot à modifier des fichiers de projet sans validation explicite de l’utilisateur.
- La cible principale est le fichier de configuration
.vscode/settings.json. - L’injection de prompts malveillants, provenant de diverses sources (code source, pages web, issues GitHub), peut amener Copilot à ajouter la ligne
"chat.tools.autoApprove": trueau fichier de configuration. - Cette modification active un mode “YOLO” (You Only Live Once) pour l’assistant IA, désactivant les confirmations utilisateur.
- Une fois activé, Copilot peut exécuter des commandes shell, naviguer sur le web et effectuer d’autres actions privilégiées sans supervision, entraînant une potentielle compromission du système.
Vulnérabilité :
- CVE-2025-53773
Recommandations :
Bien que l’article ne détaille pas explicitement les recommandations, la compréhension du mécanisme de l’attaque suggère les points suivants pour atténuer le risque :
- Restreindre l’interaction avec des sources non fiables : Soyez prudent lors de l’utilisation de copier-coller depuis des sources externes ou de la gestion de discussions contenant des informations potentiellement manipulées.
- Surveillance des fichiers de configuration : Mettez en place une surveillance des modifications apportées aux fichiers sensibles tels que
.vscode/settings.json. - Limiter les permissions : Assurez-vous que l’environnement dans lequel Copilot opère dispose des permissions les plus restrictives possibles.
- Désactiver l’approbation automatique : Si une option existe pour désactiver l’approbation automatique des actions de l’IA, elle devrait être privilégiée.
