Introduction
L'intelligence artificielle (IA) est de plus en plus utilisée pour améliorer la sécurité des systèmes informatiques. Le modèle Mythos, un modèle de langage à grande échelle, a démontré son efficacité pour détecter et corriger les vulnérabilités logicielles. Cependant, ce qui est plus important que le modèle lui-même, c'est le système dans lequel il est intégré.
Contexte Technique
Le système Mythos repose sur plusieurs éléments clés : une grande puissance de calcul, des modèles formés sur des données pertinentes pour les logiciels, une structure pour gérer les tests de vulnérabilités et la création de correctifs, ainsi que la rapidité et une certaine autonomie. Ces ingrédients combinés permettent de détecter les vulnérabilités, de trouver des exploits et de créer des correctifs. C'est ce système, et non le modèle seul, qui présente à la fois des avantages et des risques.
La sécurité des logiciels est devenue une course de vitesse à quatre étapes : détection, vérification, coordination et propagation des correctifs. Les écosystèmes ouverts répartissent ces étapes au sein d'une communauté, tandis que les projets à code source fermé centralisent les connaissances et les actions au sein d'un seul fournisseur, représentant un point de défaillance unique.
Analyse et Implications
Les systèmes autonomes qui identifient les vulnérabilités logicielles vont se multiplier. Les codes et outils ouverts peuvent aider à égaliser les chances. La nature distribuée des développements ouverts est robuste face aux contraintes et peut être particulièrement puissante dans les communautés avec des professionnels de la sécurité dédiés.
Un argument courant en faveur des systèmes fermés est l'obscurité propriétaire, où le code sous-jacent est inaccessible. Malheureusement, cela offre moins de protection qu'auparavant, car les systèmes IA sont de plus en plus capables d'aider à l'ingénierie inverse des binaires compilés.
Perspective
Le futur de la cybersécurité sera façonné moins par un modèle unique que par les écosystèmes qui l'entourent. L'ouverture offre aux défenseurs la possibilité d'accéder aux mêmes capacités que les attaquants. Les modèles et outils ouverts réduisent l'écart de capacité entre les attaquants et les défenseurs.
Les entreprises n'ont pas besoin de construire ces capacités entièrement à partir de zéro. Il existe un riche écosystème open-source d'outils de sécurité avec lesquels les agents IA peuvent être intégrés. Pour les organisations à enjeux élevés, partir de fondements ouverts et auditable signifie que les équipes de sécurité peuvent réellement inspecter comment leur système de surveillance fonctionne.