Introduction

Anthropic, une entreprise spécialisée dans l'IA, a récemment intenté un procès contre le Département de la Défense des États-Unis en raison de sa désignation comme risque pour la chaîne d'approvisionnement. Cette décision a été prise après que l'entreprise ait refusé de permettre l'utilisation de sa technologie pour la surveillance de masse domestique et les armes autonomes létales.

Contexte Technique

La désignation de risque pour la chaîne d'approvisionnement a des implications significatives pour Anthropic, car elle l'empêche de travailler sur des contrats militaires et oblige les autres entreprises qui utilisent ses produits à les supprimer pour maintenir leurs contrats lucratifs avec le Pentagone. Les outils d'Anthropic sont déjà profondément intégrés dans les travaux du Pentagone, notamment dans le domaine du renseignement classifié.

Un groupe d'employés d'OpenAI et de Google, dont Jeff Dean, scientifique en chef de Google, a déposé une requête en tant qu'ami de la cour pour soutenir le procès d'Anthropic. Ils soulignent que la désignation de risque pour la chaîne d'approvisionnement est une rétorsion injuste qui nuit à l'intérêt public et que les préoccupations d'Anthropic concernant la surveillance de masse domestique et les armes autonomes létales sont réelles et nécessitent une réponse.

Analyse et Implications

Le groupe souligne que la surveillance de masse domestique alimentée par l'IA pose des risques importants pour la gouvernance démocratique, même entre des mains responsables. Ils estiment également que les systèmes d'armes autonomes létales présentent des risques qui doivent être abordés, car ils ne peuvent pas être considérés comme fiables dans de nouvelles conditions ou dans des environnements qui ne correspondent pas à leur formation.

Les employés d'OpenAI et de Google qui ont déposé la requête en tant qu'ami de la cour se décrivent comme des « ingénieurs, chercheurs, scientifiques et autres professionnels employés dans des laboratoires américains de pointe en IA ». Ils soulignent que leur objectif est de fournir une perspective professionnelle sur les risques et les implications de la technologie d'IA, plutôt que de représenter une entreprise spécifique.

Perspective

Le procès d'Anthropic contre le Pentagone et le soutien apporté par les employés d'OpenAI et de Google soulignent l'importance de considérer les implications éthiques et les risques potentiels de la technologie d'IA. Il est essentiel de mettre en place des garde-fous, qu'il s'agisse de sauvegardes techniques ou de restrictions d'utilisation, pour prévenir les abus potentiels de cette technologie et garantir qu'elle soit utilisée de manière responsable.