Introduction
L'article aborde les problèmes de sécurité liés aux agents IA, en particulier avec OpenClaw, en les comparant aux anciens systèmes d'exploitation comme MS-DOS. L'auteur souligne l'importance de la séparation des préoccupations et de la sécurité pour éviter les vulnérabilités.
Contexte Technique
Les systèmes d'exploitation anciens comme MS-DOS présentaient des risques importants en termes de sécurité en raison de leur manque de séparation des préoccupations. Les programmes pouvaient accéder librement au noyau, aux interruptions et aux disques, ce qui rendait les systèmes vulnérables aux attaques. L'auteur rappelle que les systèmes Unix, dès leur création, ont intégré des mécanismes de sécurité tels que la séparation des processus, des utilisateurs et des fichiers, ainsi que des pipes entre les programmes.
Les agents IA modernes, comme OpenClaw, semblent ignorer ces leçons du passé. Les tutoriels de configuration, comme celui proposé par NVIDIA pour NemoClaw, montrent des compromis pour contourner les limitations de sécurité. L'auteur a suivi ce tutoriel et a constaté que les étapes proposées, bien que soient des tentatives pour résoudre des problèmes réels, ne sont pas suffisantes pour assurer une sécurité robuste.
Analyse et Implications
L'analyse de l'auteur montre que les compromis proposés pour améliorer la sécurité des agents IA, comme le bind à 0.0.0.0 ou l'approbation des connexions sortantes, sont des réponses à des contraintes qui pourraient être évitées en révisant l'architecture de base. L'auteur propose une approche alternative, Wirken, qui intègre des mécanismes de sécurité tels que des processus séparés pour chaque canal, des identités Ed25519, et des conteneurs durcis pour les exécutions de commandes.
Les logs d'audit de Wirken montrent comment les appels d'outils sont gérés de manière sécurisée, avec des dénégations de permission et des attestations de chaîne pour garantir l'intégrité des sessions. L'auteur souligne que la taille de la frontière de sécurité est cruciale et que les compromis actuels tentent de faire le meilleur usage d'une fondation qui ne sépare pas les préoccupations de manière adéquate.
Perspective
L'auteur conclut que l'espace des agents IA est encore en développement et que certains acteurs semblent ignorer les leçons du passé. Wirken représente une approche qui se souvient des erreurs passées et tente de les corriger. L'avenir de la sécurité des agents IA dépendra de la capacité à intégrer des mécanismes de sécurité robustes et à séparer les préoccupations de manière adéquate pour éviter les vulnérabilités.