Introduction

L'édition assistée par l'IA est devenue la norme, et les outils tels que Cursor, GitHub Copilot, Claude Code et Codex nous permettent d'intégrer des modèles dans notre code. Cependant, ces modèles ont tendance à réécrire le code au-delà de ce qui est nécessaire, ce qui peut rendre la revue de code plus difficile.

Contexte Technique

Le problème d'édition excessive se produit lorsque les modèles modifient le code de manière excessive par rapport à ce qui est strictement nécessaire pour résoudre le problème en question. Pour mesurer cela, nous utilisons des métriques telles que la distance de Levenshtein au niveau des jetons et la complexité cognitive. Ces métriques nous permettent de comparer les modifications apportées par le modèle par rapport à la solution originale et à la solution corrompue.

Analyse et Implications

L'analyse a montré que même les modèles les plus récents, tels que GPT-5.4, ont tendance à éditer de manière excessive. Cela peut avoir des implications importantes pour la revue de code, car les modifications excessives peuvent rendre plus difficile la compréhension des changements apportés et de leur sécurité. De plus, les modifications excessives peuvent également dégrader la qualité globale de la base de code.

Perspective

Il est essentiel de surveiller les limites des modèles de codage et de développer des méthodes pour les améliorer. Cela peut inclure la création de métriques plus précises pour mesurer l'édition excessive et la mise en place de méthodes pour réduire les modifications excessives. De plus, il est important de considérer les implications à long terme de l'utilisation de modèles de codage et de développer des stratégies pour gérer les risques potentiels liés à l'édition excessive.