Introduction
L'utilisation de l'IA pour le comptage de glucides dans les applications de diabète soulève des inquiétudes quant à la fiabilité de ces systèmes. Une étude récente a mis en évidence les limites de ces modèles en soumettant 13 photographies de repas à quatre modèles d'IA différents, chacun interrogé plus de 500 fois.
Contexte Technique
Les modèles d'IA utilisés étaient OpenAI GPT-5.4, Anthropic Claude Sonnet 4.6, Google Gemini 2.5 Pro et Google Gemini 3.1 Pro Preview. Chaque photo a été soumise avec le même prompt, dans les mêmes conditions, pour évaluer la cohérence des réponses. Les résultats ont montré que chaque modèle retourne des estimations différentes de glucides pour la même photo lors de requêtes répétées, avec des variations allant jusqu'à 429 grammes pour certaines images.
Analyse et Implications
Ces variations peuvent avoir des implications graves pour les personnes diabétiques qui utilisent ces applications pour ajuster leur dose d'insuline. Les erreurs de comptage des glucides peuvent conduire à des erreurs d'administration d'insuline, pouvant causer des crises d'hypoglycémie. Les résultats de l'étude mettent en évidence deux types de risques : les biais systématiques qui conduisent à une surestimation chronique des glucides, et la variabilité stochastique qui peut produire des estimations catastrophiquement fausses lors de requêtes individuelles.
Perspective
Les résultats de cette étude soulignent la nécessité d'une approche plus prudente dans l'utilisation de l'IA pour le comptage de glucides dans les applications de diabète. Il est essentiel de développer des méthodes pour améliorer la fiabilité et la cohérence des estimations de glucides, peut-être en intégrant des mécanismes de validation et de vérification des résultats. De plus, les utilisateurs de ces applications doivent être conscients des limites et des risques potentiels associés à l'utilisation de l'IA pour le comptage de glucides.