Introduction

Le département de la Défense des États-Unis (DOD) a officiellement notifié à la direction d'Anthropic que l'entreprise et ses produits ont été désignés comme un risque pour la chaîne d'approvisionnement. Cette décision fait suite à des semaines de conflit entre le laboratoire d'IA et le DOD.

Contexte Technique

Anthropic, dirigé par Dario Amodei, a refusé de permettre à l'armée américaine d'utiliser ses systèmes d'IA pour la surveillance de masse des Américains ou pour alimenter des armes entièrement autonomes sans intervention humaine dans la prise de décision. Le DOD a argumenté que son utilisation de l'IA ne devrait pas être limitée par un contractant privé. Les désignations de risque pour la chaîne d'approvisionnement sont généralement réservées aux adversaires étrangers.

Analyse et Implications

La décision du Pentagone menace de perturber à la fois l'entreprise et ses propres opérations. Anthropic a été le seul laboratoire d'IA de pointe avec des systèmes prêts pour une utilisation classifiée. L'armée américaine utilise actuellement Claude dans sa campagne en Iran, où les forces américaines utilisent des outils d'IA pour gérer rapidement les données de leurs opérations. La désignation d'Anthropic comme risque pour la chaîne d'approvisionnement est une mesure sans précédent de la part du DOD, selon plusieurs critiques.

Perspective

Des centaines d'employés d'OpenAI et de Google ont exigé que le DOD retire sa désignation et ont appelé le Congrès à réagir contre ce qui pourrait être perçu comme une utilisation abusive de l'autorité contre une entreprise de technologie américaine. Ils ont également demandé à leurs dirigeants de se tenir debout pour continuer à refuser les demandes du DOD d'utiliser leurs modèles d'IA pour la surveillance de masse et le meurtre autonome sans surveillance humaine. La situation soulève des questions sur les limites de l'utilisation de l'IA et les implications éthiques de la collaboration entre les entreprises de technologie et les agences gouvernementales.