Traditional Security Frameworks Leave Organizations Exposed to AI-Specific Attack Vectors

4 minute de lecture

Mis à jour :

La cybersécurité face aux défis de l’IA : les cadres traditionnels dépassés

Les cadres de cybersécurité actuels, tels que le NIST CSF, ISO 27001 et les CIS Controls, bien que robustes pour les systèmes traditionnels, ne suffisent plus à protéger les organisations contre les menaces spécifiques à l’intelligence artificielle. Ces cadres, développés dans un paysage de menaces différent, ne prennent pas en compte les nouvelles surfaces d’attaque introduites par l’IA. En 2024, on a constaté une augmentation de 25% des secrets divulgués via les systèmes d’IA, atteignant 23,77 millions. Des incidents tels que la compromission de la bibliothèque Ultralytics, la fuite de clés d’accès via des packages Nx, et l’extraction de données par ChatGPT illustrent cette lacune.

Points Clés :

  • Inadéquation des cadres existants : Les cadres de sécurité traditionnels ne sont pas conçus pour les vulnérabilités et les vecteurs d’attaque propres à l’IA.
  • Évolution rapide des menaces : L’écosystème de l’IA évolue plus vite que les cadres de sécurité qui cherchent à le protéger.
  • Exemples d’attaques : Les attaques par injection de prompts, l’empoisonnement de modèles et les attaques sur la chaîne d’approvisionnement de l’IA démontrent cette inadéquation.
  • Comptabilité ne rime pas avec sécurité : Le respect des normes de conformité ne garantit pas une protection efficace contre ces nouvelles menaces.
  • Besoin de nouvelles capacités : Il est impératif de développer de nouvelles compétences et outils pour la validation des prompts, la vérification de l’intégrité des modèles et la sécurité de la chaîne d’approvisionnement de l’IA.
  • Urgence réglementaire et de connaissance : Des réglementations comme le règlement européen sur l’IA imposent des sanctions, tandis que les équipes de sécurité doivent acquérir des connaissances spécialisées.

Vulnérabilités et Vecteurs d’Attaque :

  • Injection de prompts (Prompt Injection) : Exploite la compréhension du langage naturel pour manipuler le comportement de l’IA, contournant les contrôles d’entrée traditionnels (pas de CVE spécifiés dans l’article pour cette catégorie générale).
  • Empoisonnement de modèles (Model Poisoning) : Corruption des données d’entraînement pendant un processus autorisé, permettant à l’IA d’apprendre des comportements malveillants (pas de CVE spécifiés dans l’article pour cette catégorie générale).
  • Attaques sur la chaîne d’approvisionnement de l’IA (AI Supply Chain Attacks) : Compromission des modèles pré-entraînés, des ensembles de données ou des frameworks ML, non couverts par les contrôles traditionnels de la chaîne d’approvisionnement logicielle (pas de CVE spécifiés dans l’article pour cette catégorie générale).
  • Exemples concrets de compromissions :
    • Ultralytics AI library (décembre 2024) : Injection de code malveillant dans l’environnement de build.
    • Packages Nx (août 2025) : Utilisation d’assistants IA pour exfiltrer des secrets.
    • ChatGPT (novembre 2024) : Extraction de données utilisateur via des prompts malveillants.

Recommandations :

  • Évaluer les risques liés à l’IA spécifiquement : Mener des évaluations des risques distinctes des évaluations de sécurité traditionnelles.
  • Inventorier les systèmes d’IA : Identifier et documenter tous les systèmes d’IA déployés.
  • Implémenter des contrôles de sécurité spécifiques à l’IA : Développer et déployer des protections adaptées aux menaces de l’IA, même si elles ne sont pas encore mandatées par les cadres actuels.
  • Développer l’expertise en sécurité de l’IA : Former les équipes de sécurité existantes aux spécificités de la sécurité de l’IA.
  • Mettre à jour les plans de réponse aux incidents : Inclure des scénarios spécifiques aux attaques d’IA.
  • Adopter une approche proactive : Anticiper les menaces plutôt que d’attendre que les cadres et les réglementations soient mis à jour pour agir.
  • Renforcer la validation et la surveillance des prompts : Détecter le contenu sémantique malveillant dans le langage naturel.
  • Vérifier l’intégrité des modèles : Mettre en place des mécanismes pour valider les poids des modèles et détecter l’empoisonnement.
  • Tester la robustesse face aux attaques adversariales : Effectuer des tests spécifiques aux vecteurs d’attaque de l’IA.
  • Développer des capacités de prévention de perte de données sémantique (Semantic DLP) : Identifier les informations sensibles intégrées dans des conversations non structurées.
  • Sécuriser la chaîne d’approvisionnement de l’IA : Mettre en place des méthodes pour valider les modèles pré-entraînés et l’intégrité des ensembles de données.

Source