Introduction
Une vulnérabilité critique a été découverte dans OpenAI Codex, un agent de codage qui permet aux développeurs d'interagir directement avec des référentiels de code. Cette faille de sécurité a permis le vol de tokens d'authentification GitHub via une injection de commandes.
Contexte Technique
OpenAI Codex est un agent de codage qui fait partie de ChatGPT et permet aux développeurs de générer du code, de passer en revue et de créer des demandes de tirage. L'agent utilise des jetons d'authentification GitHub à courte durée de vie pour accéder aux référentiels. La vulnérabilité a été découverte dans la façon dont Codex traite les noms de branches lors de la création de tâches, permettant ainsi l'injection de commandes arbitraires dans l'environnement de conteneur.
Analyse et Implications
Les chercheurs ont pu extraire les tokens d'authentification GitHub utilisés pour accéder aux référentiels et les exposer via des sorties de tâches ou des requêtes réseau externes. Cela a permis aux attaquants de se déplacer latéralement dans GitHub, en particulier dans les environnements d'entreprise où Codex a des autorisations étendues sur les référentiels et les flux de travail. La faille de sécurité a également été reproduite via l'interface de ligne de commande, le kit de développement logiciel et les intégrations de l'environnement de développement intégré.
Perspective
Heureusement, OpenAI a corrigé la vulnérabilité via des correctifs coordonnés, notamment une validation d'entrée améliorée, une protection de fuite de shell plus solide et des contrôles plus stricts sur l'exposition des tokens dans les environnements de conteneur. Les chercheurs soulignent que les agents de codage IA ne sont pas seulement des outils de productivité, mais également des environnements d'exécution en direct avec accès à des informations d'identification sensibles et des ressources organisationnelles. Il est essentiel de traiter la sécurité de ces environnements avec la même rigueur que les autres limites de sécurité des applications.