Safe and Inclusive E‑Society: How Lithuania Is Bracing for AI‑Driven Cyber Fraud

4 minute de lecture

Mis à jour :

La Lituanie Renforce sa Cybersécurité Face aux Menaces Propulsées par l’IA

La Lituanie déploie une initiative nationale ambitieuse, “Société Électronique Sûre et Inclusive”, pour contrer la fraude numérique croissante, exacerbée par les avancées en intelligence artificielle (IA). Ce projet, financé par le gouvernement et coordonné par l’Agence de l’Innovation Lituanienne, vise à transformer le potentiel scientifique du pays en innovations concrètes pour protéger les citoyens et renforcer la confiance dans les services numériques.

Points Clés :

  • Approche Collaborative : L’initiative réunit universités (Kaunas University of Technology, Vilnius Tech, Mykolas Romeris University) et entreprises de cybersécurité leaders, travaillant ensemble pour intégrer la recherche scientifique dans des solutions pratiques.
  • Objectif de la Mission “Société Électronique Sûre et Inclusive” : Accroître la résilience cybernétique, réduire les violations de données personnelles et protéger les utilisateurs des services numériques.
  • Développement de Solutions Innovantes : Recherche et développement en cours dans des domaines variés, incluant des bâtiments intelligents, des systèmes de défense contre la fraude financière basés sur l’IA, des capteurs de détection de menaces pour les infrastructures critiques, des systèmes de gestion des menaces hybrides, et des modèles d’IA pour combattre la désinformation et analyser les cybermenaces en temps réel.
  • Montée en Puissance de la Fraude Assistée par IA : L’IA générative (GenAI) et les grands modèles de langage (LLMs) révolutionnent les méthodes de fraude. Ils permettent de créer des communications frauduleuses hyperréalistes, personnalisées, sans erreurs grammaticales et imitant le style institutionnel, rendant obsolètes les filtres basés sur des schémas traditionnels.
  • Outils Malveillants à Disposition des Cybercriminels : Utilisation de modèles comme GPT-4, Claude, ainsi que des variantes spécialisées (FraudGPT, WormGPT), des outils de clonage vocal (ElevenLabs, VALL-E), et de génération d’images et de vidéos deepfake (StyleGAN, Stable Diffusion, DALL-E).
  • Ingénierie Sociale Adaptative : Les cybercriminels emploient des LLMs pour adapter leurs attaques en temps réel, passant d’un canal de communication à un autre et ajustant leur ton en fonction des réactions de la victime. L’orchestration de multiples outils IA (photos, vidéos, textes, voix clonée) permet de contourner les vérifications humaines et automatiques.
  • Accessibilité des Outils IA : La facilité d’accès à ces technologies IA rend possible la création rapide d’un grand nombre de profils frauduleux convaincants par un seul opérateur.
  • Positionnement de la Lituanie : Malgré les défis liés à son écosystème numérique avancé, la Lituanie montre des progrès notables, se classant bien dans des indices internationaux comme le Chandler Good Government Index et le Government AI Readiness Index. Sa stratégie IA met l’accent sur la défense cybernétique.
  • Succès de la Collaboration : L’intégration de l’IA par le Centre National de Cybersécurité (NKSC) a permis une réduction significative des incidents de ransomware. La collaboration avec des partenaires comme l’OTAN et ENISA renforce les capacités de défense hybride.

Vulnérabilités (sans CVEs mentionnées dans l’article) :

  • Phishing et Ingénierie Sociale : Les e-mails, SMS et appels téléphoniques générés par IA, hyperréalistes, personnalisés et adaptatifs, surpassent les défenses traditionnelles.
  • Usurpation d’Identité et Fraude Financière : Création de faux profils, de faux documents, et utilisation de voix clonées pour tromper les institutions financières et les plateformes en ligne.
  • Deepfakes : Utilisation de vidéos et d’images générées par IA pour contourner les systèmes de vérification de “liveness” et tromper les individus.
  • Difficulté de Détection : Les attaques ne ressemblent plus à de la fraude classique, mais à des communications légales, rendant la détection par les filtres automatisés et même par les humains extrêmement difficile.
  • Accessibilité des Outils Malveillants : La large disponibilité des outils IA permet à un plus grand nombre d’acteurs de mener des attaques sophistiquées.

Recommandations :

  • Collaboration Intersectorielle : Intensifier la coopération entre la science, les entreprises et les décideurs politiques pour développer et déployer des solutions de cybersécurité.
  • Éducation Continue : Sensibiliser et former continuellement les citoyens et les professionnels aux nouvelles menaces et aux meilleures pratiques de cybersécurité.
  • Développement de Défenses Basées sur l’IA : Utiliser l’IA pour contrer les menaces IA, en se concentrant sur la détection d’anomalies et le renforcement de la résilience.
  • Innovation Orientée Mission : Transformer le potentiel scientifique en projets concrets, pilotes et services protégeant les citoyens et renforçant la confiance numérique.
  • Renforcement de la Surveillance et de l’Analyse des Menaces : Intégrer l’IA dans les processus de surveillance des cybermenaces pour une analyse en temps réel et une réponse plus rapide.

Source