Pentagon Designates Anthropic Supply Chain Risk Over AI Military Dispute

4 minute de lecture

Mis à jour :

Tension entre le Pentagone et Anthropic autour de l’IA militaire

Le Département de la Guerre américain (DoW) a désigné Anthropic comme un risque pour la chaîne d’approvisionnement en raison de désaccords sur l’utilisation de son intelligence artificielle (IA), Claude, à des fins militaires. L’entreprise a réagi fermement, déclarant qu’elle ne modifierait pas sa position sur l’interdiction de la surveillance domestique de masse et des armes entièrement autonomes. Le président a ordonné la cessation de l’utilisation des technologies d’Anthropic par toutes les agences fédérales dans les six mois, et le Secrétaire à la Guerre a exigé l’arrêt immédiat de toute activité commerciale avec l’entreprise pour les contractuels militaires.

Anthropic soutient que ses contrats ne devraient pas permettre la surveillance domestique de masse ou le développement d’armes autonomes, arguant que la technologie n’est pas encore assez fiable pour ces applications. L’entreprise a précisé qu’elle soutenait l’utilisation de l’IA pour des missions légitimes de renseignement étranger et de contre-espionnage, mais qu’elle considérait la surveillance de masse comme incompatible avec les valeurs démocratiques.

Le DoW, quant à lui, souhaite travailler avec des entreprises d’IA qui autorisent “toute utilisation légale” de la technologie, sans restrictions, afin de construire une force de combat “IA-first” et de renforcer la sécurité nationale. Un mémorandum du Pentagone a souligné la nécessité d’utiliser des modèles d’IA exempts de contraintes de politique d’utilisation qui pourraient limiter les applications militaires légitimes, et a écarté l’inclusion de “diversité, équité et inclusion et idéologie sociale” dans les modèles d’IA.

Anthropic a qualifié la désignation de “juridiquement non fondée” et estime qu’elle créerait un précédent dangereux. L’entreprise a également souligné que la désignation de risque de chaîne d’approvisionnement selon la loi américaine ne concerne que l’utilisation de Claude dans les contrats du DoW et n’affecte pas son utilisation pour d’autres clients. Le porte-parole du Pentagone a nié vouloir mener une surveillance domestique de masse ou déployer des armes autonomes sans implication humaine, qualifiant ces récits de “faux”. Il a affirmé que le Pentagone voulait utiliser le modèle d’Anthropic à toutes fins légales et que l’entreprise ne devait pas dicter les décisions opérationnelles.

Ce conflit a divisé l’industrie technologique, certains employés de Google et OpenAI signant une lettre ouverte pour soutenir Anthropic. Elon Musk, quant à lui, a pris parti pour l’administration Trump, affirmant qu’Anthropic “haïssait la civilisation occidentale”. Parallèlement, OpenAI a annoncé un accord avec le Département de la Défense pour déployer ses modèles sur son réseau classifié, et a demandé que les mêmes conditions s’appliquent à toutes les entreprises d’IA, soulignant l’importance des principes de sécurité tels que l’interdiction de la surveillance domestique de masse et la responsabilité humaine dans l’usage de la force.

Points clés :

  • Le Pentagone a désigné Anthropic comme un risque pour la chaîne d’approvisionnement.
  • Le désaccord porte sur l’utilisation de l’IA d’Anthropic pour la surveillance domestique de masse et les armes autonomes.
  • Le Pentagone souhaite une utilisation “sans restriction” de l’IA pour des raisons de sécurité nationale.
  • Anthropic refuse ces usages, invoquant les valeurs démocratiques et les risques pour les libertés fondamentales.
  • Une interdiction d’utilisation des technologies d’Anthropic par les agences fédérales a été ordonnée.
  • Le conflit a engendré des réactions diverses dans l’industrie technologique.

Vulnérabilités :

  • Aucune vulnérabilité technique spécifique (CVE) n’est mentionnée dans l’article. Le risque réside dans l’utilisation potentiellement abusive de la technologie d’IA à des fins de surveillance ou de conflit.

Recommandations :

  • Pour le gouvernement : Définir clairement les limites éthiques et légales de l’utilisation de l’IA dans les opérations militaires et de renseignement, en veillant à la protection des libertés civiles.
  • Pour les entreprises technologiques : Établir des politiques claires et fermes concernant les utilisations interdites de leurs technologies, notamment en matière de surveillance et d’armes autonomes.
  • Pour la communauté technologique : Favoriser le dialogue et la collaboration pour établir des normes de sécurité et d’éthique pour le développement et le déploiement de l’IA.

Source