Picklescan Bugs Allow Malicious PyTorch Models to Evade Scans and Execute Code
Mis à jour :
Faille dans Picklescan : Les modèles PyTorch malveillants contournent la sécurité
Des vulnérabilités critiques ont été découvertes dans Picklescan, un utilitaire open-source conçu pour analyser les fichiers pickle et prévenir l’exécution de code malveillant, notamment dans le contexte de modèles PyTorch. Ces failles permettent à des acteurs malveillants de masquer du code dangereux dans des modèles et de contourner les protections de l’outil, ouvrant la voie à des attaques de la chaîne d’approvisionnement.
Points clés :
- Picklescan analyse les fichiers pickle au niveau bytecode pour détecter des importations ou des appels de fonctions suspects.
- Les fichiers pickle, utilisés par PyTorch pour enregistrer et charger des modèles, peuvent exécuter du code arbitraire lors de leur chargement.
- Les failles découvertes permettent de tromper Picklescan, de faire passer des modèles infectés pour sûrs et d’exécuter du code malveillant.
- Ces vulnérabilités illustrent les défis liés à la complexité croissante des bibliothèques d’IA et à l’adaptation des outils de sécurité.
Vulnérabilités :
- CVE-2025-10155 (score CVSS : 9.3/7.8) : Permet de contourner le scan en utilisant des extensions de fichiers courantes pour PyTorch (.bin, .pt) au lieu d’un fichier pickle standard.
- CVE-2025-10156 (score CVSS : 9.3/7.5) : Permet de désactiver l’analyse des archives ZIP en introduisant une erreur de contrôle de redondance cyclique (CRC).
- CVE-2025-10157 (score CVSS : 9.3/8.3) : Permet de contourner la vérification des “unsafe globals” de Picklescan, menant à l’exécution de code arbitraire en contournant la liste noire des importations dangereuses.
- CVE-2025-46417 (score CVSS : 7.5/7.1) : Permet de contourner la liste noire de Picklescan et d’exfiltrer des informations sensibles via DNS lorsque le modèle est chargé, en utilisant des modules Python légitimes comme
linecacheetssl.
Recommandations :
- Mettre à jour Picklescan vers la version 0.0.31 ou supérieure, où ces vulnérabilités ont été corrigées.
- Les organisations doivent envisager des approches de sécurité plus robustes, telles qu’un proxy de sécurité pour les modèles d’IA, qui analyse activement les nouveaux modèles et est continuellement mis à jour par des experts.
- Être conscient des limites des outils de sécurité conventionnels face à l’évolution rapide des technologies d’IA.
