Introduction
Google a récemment détecté et neutralisé une faille zero-day développée avec l'aide de l'IA. Cette faille visait à contourner l'authentification à deux facteurs sur un outil d'administration système web open-source.
Contexte Technique
Les chercheurs de Google ont trouvé des preuves dans le code de l'exploit qu'il a pu être créé avec l'aide de l'IA, notamment un score CVSS « halluciné » et un formatage structuré, cohérent avec les données de formation de modèles de langage basés sur l'apprentissage automatique. L'exploit profite d'une faille de logique sémantique élevée où le développeur a codé en dur une hypothèse de confiance dans le système d'authentification à deux facteurs.
Analyse et Implications
C'est la première fois que Google trouve des preuves de l'utilisation de l'IA dans une attaque de ce type. Les chercheurs notent cependant qu'ils ne pensent pas que le modèle Gemini ait été utilisé. Google a pu perturber cette exploitation, mais note que les hackers utilisent de plus en plus l'IA pour trouver et exploiter les vulnérabilités de sécurité. Le rapport mentionne également que les attaquants ciblent de plus en plus les composants intégrés qui donnent aux systèmes d'IA leur utilité, tels que les compétences autonomes et les connecteurs de données tiers.
Perspective
Il est important de surveiller l'évolution de l'utilisation de l'IA dans les attaques de sécurité, notamment la technique de « persona-driven jailbreaking » qui permet aux hackers d'instruire l'IA pour trouver des vulnérabilités de sécurité. Les hackers utilisent également des modèles d'IA pour affiner les charges utiles générées par l'IA dans des environnements contrôlés, ce qui pourrait augmenter la fiabilité des exploits avant leur déploiement.