Introduction

L'entreprise Anthropic est actuellement dans une situation délicate, son modèle Claude étant toujours utilisé par l'armée américaine dans le conflit avec l'Iran, mais en même temps, de nombreux clients de l'industrie de la défense mettent fin à leur collaboration avec l'entreprise.

Contexte Technique

Le gouvernement américain a émis des restrictions contradictoires concernant l'utilisation des produits Anthropic. Le président Trump a demandé aux agences civiles de cesser l'utilisation de ces produits, mais l'entreprise a eu six mois pour mettre fin à ses opérations avec le ministère de la Défense. Cependant, l'attaque surprise lancée par les États-Unis et Israël contre Téhéran a précipité les événements, et les modèles Anthropic sont toujours utilisés pour prendre des décisions de ciblage.

Les systèmes Anthropic sont utilisés en conjonction avec le système Maven de Palantir, et ont suggéré des centaines de cibles, émis des coordonnées de localisation précises et hiérarchisé ces cibles en fonction de leur importance. Le système fonctionne en temps réel pour la ciblage et la priorisation des cibles.

Analyse et Implications

Pendant ce temps, de nombreuses entreprises de l'industrie de la défense ont déjà remplacé les modèles Anthropic par ceux de concurrents. Lockheed Martin et d'autres sous-traitants de la défense ont commencé à remplacer les modèles de l'entreprise cette semaine. De nombreux sous-traitants sont confrontés à un dilemme similaire, et de nombreuses entreprises sont en train de remplacer le service par un autre.

Perspective

La principale question ouverte est de savoir si le secrétaire à la Défense, Pete Hegseth, suivra les recommandations de désigner Anthropic comme un risque pour la chaîne d'approvisionnement, ce qui entraînerait probablement un procès difficile. Mais en attendant, l'un des principaux laboratoires d'IA est rapidement écarté de la technologie militaire, même s'il est utilisé dans une zone de guerre active.