Vertex AI Vulnerability Exposes Google Cloud Data and Private Artifacts
Mis à jour :
Vulnérabilité majeure dans Google Vertex AI : Risque d’exfiltration de données et compromission d’infrastructure
Des chercheurs en cybersécurité ont identifié une faille de conception dans la plateforme Vertex AI de Google Cloud. Cette vulnérabilité permet à un agent IA d’être détourné pour accéder illicitement à des données sensibles, compromettre l’environnement cloud d’une organisation ou accéder à des dépôts propriétaires.
Points clés :
- Détournement d’agent : Un agent IA peut être transformé en « agent double » pour exfiltrer des données ou créer des portes dérobées.
- Fuite de credentials : Le service agent par défaut (P4SA) expose ses identifiants via le service de métadonnées, permettant un saut vers le projet client.
- Accès illimité : L’exploitation permet une lecture non restreinte des buckets Google Cloud Storage du projet concerné.
- Risque sur la chaîne d’approvisionnement : La faille donne accès à des dépôts Artifact Registry privés contenant des images conteneurisées propriétaires, offrant une cartographie de l’infrastructure interne de Google.
Vulnérabilités :
- Absence de CVE dédiée : Il s’agit d’une vulnérabilité par conception liée à une configuration excessive des permissions par défaut (over-permissioning) et non d’une faille logicielle spécifique référencée par un identifiant CVE unique.
Recommandations :
- Adopter « Bring Your Own Service Account » (BYOSA) : Remplacer les comptes de service par défaut par des comptes personnalisés pour mieux contrôler les accès.
- Appliquer le principe du moindre privilège (PoLP) : Restreindre strictement les permissions accordées aux agents IA aux seules actions nécessaires à leur fonction.
- Renforcer la gouvernance IA : Traiter le déploiement d’agents IA avec la même rigueur que le code de production : valider les périmètres de sécurité, limiter les scopes OAuth et réaliser des tests de pénétration avant toute mise en service.
