Introduction

Anthropic, une entreprise spécialisée dans l'intelligence artificielle (IA), accuse DeepSeek, une firme chinoise, ainsi que deux autres entreprises du même pays, d'avoir utilisé son modèle d'IA Claude pour améliorer leurs propres produits. Cette affaire soulève des questions sur la sécurité et l'utilisation des modèles d'IA.

Contexte Technique

Le modèle d'IA Claude, développé par Anthropic, est un système avancé capable de raisonnement et de génération de texte. DeepSeek, MiniMax et Moonshot, les trois entreprises chinoises accusées, auraient créé environ 24 000 comptes frauduleux et effectué plus de 16 millions d'échanges avec Claude. Cette pratique, appelée « distillation », consiste à entraîner un modèle d'IA plus petit en se basant sur un modèle plus avancé. Bien que la distillation soit une méthode d'entraînement légitime, elle peut également être utilisée à des fins illicites, comme acquérir des capacités puissantes développées par d'autres laboratoires en un laps de temps et à un coût réduits.

Analyse et Implications

L'utilisation non autorisée de Claude par ces entreprises soulève des préoccupations quant à la sécurité et à la confidentialité des données. Les modèles d'IA distillés de manière illicite sont susceptibles de ne pas conserver les garanties de sécurité existantes, ce qui pourrait permettre à des gouvernements autoritaires de déployer des capacités d'IA de pointe pour des opérations cybernétiques offensives, des campagnes de désinformation et de surveillance de masse. DeepSeek, en particulier, aurait ciblé les capacités de raisonnement de Claude et généré des alternatives « sans censure » à des questions politiquement sensibles sur les dissidents, les dirigeants du parti et l'autoritarisme.

Perspective

Anthropic appelle l'industrie de l'IA, les fournisseurs de services cloud et les législateurs à prendre des mesures pour lutter contre la distillation illicite. La limitation de l'accès aux puces pourrait être une solution pour limiter l'entraînement des modèles et réduire l'ampleur de la distillation illicite. Il est essentiel de suivre de près cette affaire et ses implications pour la sécurité et la confidentialité des données dans le domaine de l'IA.