Introduction

OpenAI a révisé son contrat avec le département de la Défense des États-Unis pour répondre aux préoccupations concernant la surveillance. Le développeur de ChatGPT a publié les mises à jour linguistiques légales pour s'assurer que le Pentagone n'utilise pas les modèles d'OpenAI pour la surveillance domestique.

Contexte Technique

Le contrat initial, d'une valeur pouvant atteindre 200 millions de dollars, avait été signé l'année dernière pour fournir au Pentagone l'accès aux modèles d'IA d'OpenAI. Les fonctionnalités prévues incluaient l'analyse de données et la cybersécurité. Cependant, des inquiétudes ont été exprimées quant à l'utilisation potentielle de ces technologies pour la surveillance de masse ou la construction d'armes autonomes.

Anthropic, un rival d'OpenAI, avait également signé un contrat similaire avec le Pentagone, mais a par la suite exprimé des préoccupations quant à l'utilisation de ses technologies et a équipé ses modèles de mécanismes de sécurité pour empêcher de telles utilisations. Cette décision a conduit le président des États-Unis, Donald Trump, à ordonner aux agences fédérales de cesser d'utiliser les logiciels d'Anthropic.

Analyse et Implications

La révision du contrat par OpenAI inclut désormais des protections contre la surveillance domestique, stipulant explicitement que les systèmes d'IA ne doivent pas être utilisés pour la surveillance intentionnelle des personnes ou des ressortissants américains, y compris à travers l'acquisition ou l'utilisation d'informations personnelles ou identifiables acquises commercialement.

Ces changements sont significatifs, car ils étendent les limitations au-delà des seules informations privées, comme initialement spécifié dans le contrat original. De plus, l'accord interdit l'utilisation des modèles d'OpenAI par les agences de renseignement sans une modification supplémentaire du contrat et exige que les modèles soient déployés uniquement dans des réseaux cloud.

Perspective

Les efforts d'OpenAI pour adapter son IA aux agences fédérales, notamment à travers son offre ChatGPT Gov, visent à répondre aux besoins spécifiques du secteur public en matière de sécurité et de conformité. Cette version personnalisée de ChatGPT est conçue pour fonctionner dans les environnements Microsoft Azure et Azure Government, avec des contrôles administratifs pour aider les agences à respecter les réglementations en matière de cybersécurité.

À mesure que les technologies d'IA continuent d'évoluer et de s'intégrer dans divers secteurs, notamment la défense, il est crucial de surveiller les développements et les implications éthiques de ces avancées. Les limites et les prochaines étapes dans la réglementation et l'utilisation responsable de l'IA seront des sujets de premier plan pour les décideurs et les parties prenantes dans les mois à venir.