Introduction
Health NZ a interdit à son personnel d'utiliser des outils d'IA gratuits comme ChatGPT pour rédiger des notes cliniques, citant des préoccupations en matière de sécurité des données, de confidentialité et de responsabilité.
Contexte Technique
Un mémo interne adressé à tout le personnel des services de santé mentale et de lutte contre les addictions dans le district de Rotorua Lakes rappelle que l'utilisation d'outils d'IA comme ChatGPT, Claude ou Gemini est strictement interdite pour des raisons de sécurité des données, de confidentialité et de responsabilité. Les outils d'IA doivent être enregistrés auprès du groupe consultatif national d'experts en IA et en algorithmes de Health NZ.
Les outils d'IA comme ChatGPT présentent des risques pour la sécurité des données, la confidentialité et la responsabilité, et toute exemption possible est évaluée au cas par cas. Health NZ travaille avec ses cliniciens pour développer de nouvelles méthodes de travail et cela est un processus en cours.
Analyse et Implications
Le syndicat des services publics estime que le personnel de santé a recours à des outils d'IA en raison de la pression énorme qu'il subit. L'approche de Health NZ, qui consiste à menacer le personnel d'une action disciplinaire, est considérée comme une erreur. Le syndicat estime que Health NZ devrait investir dans une formation adéquate et des outils approuvés.
Les implications de l'utilisation d'outils d'IA pour les notes cliniques sont importantes, car elles peuvent avoir un impact sur la qualité des soins et la confidentialité des patients. L'utilisation d'outils d'IA non approuvés peut également entraîner des problèmes de responsabilité et de sécurité des données.
Perspective
Il est important de surveiller l'évolution de l'utilisation des outils d'IA dans le secteur de la santé et de veiller à ce que les outils utilisés soient approuvés et sécurisés. Les organisations de santé doivent investir dans la formation et les outils nécessaires pour que le personnel puisse utiliser les outils d'IA de manière efficace et sécurisée.
Les limites de l'analyse incluent le manque d'informations sur le nombre d'instances où le personnel a utilisé des outils d'IA non approuvés et les conséquences de telles actions. De plus, il est important de considérer les implications à long terme de l'utilisation des outils d'IA dans le secteur de la santé et de veiller à ce que les outils utilisés soient alignés sur les besoins et les objectifs de l'organisation.