Introduction
Une équipe de chercheurs dirigée par Almira Osmanovic Thunström a créé une maladie factice appelée bixonimania pour tester la fiabilité des modèles de langage de l'IA. Les résultats sont alarmants : les chatbots populaires ont repris l'information comme si elle était vraie, mettant en évidence les risques de désinformation en ligne.
Contexte Technique
Les chercheurs ont créé deux études factices sur la bixonimania et les ont téléchargées sur un serveur de prépublications. Les chatbots, tels que Microsoft Bing's Copilot et Google's Gemini, ont rapidement repris l'information, déclarant que la bixonimania était une condition médicale réelle. Les prépublications contenaient des indices évidents pour signaler qu'elles étaient factices, mais les chatbots n'ont pas détecté ces signaux.
Analyse et Implications
L'expérience a montré que les modèles de langage de l'IA peuvent être manipulés pour diffuser de fausses informations. Cela soulève des inquiétudes quant à la fiabilité des informations médicales en ligne et aux risques de désinformation. Les experts estiment que cela peut avoir des conséquences graves, notamment en ce qui concerne la santé publique.
Perspective
Il est essentiel de surveiller les limites des modèles de langage de l'IA et de développer des mécanismes pour détecter et prévenir la diffusion de fausses informations. Les chercheurs et les développeurs doivent travailler ensemble pour améliorer la fiabilité et la sécurité des systèmes d'IA, notamment dans le domaine de la santé. Les utilisateurs doivent également être conscients des risques de désinformation en ligne et vérifier les sources d'information avant de les considérer comme fiables.