Introduction
Google a mis à jour son outil Gemini pour fournir un accès plus rapide aux ressources de santé mentale aux utilisateurs en crise. Cette mise à jour intervient après une série de poursuites judiciaires alléguant que les produits d'IA de l'entreprise ont causé des préjudices tangibles.
Contexte Technique
Gemini est conçu pour lancer un module « De l'aide est disponible » lorsqu'une conversation indique qu'un utilisateur est en crise potentielle liée au suicide ou à l'automutilation. Ce module dirige les utilisateurs vers des ressources de crise en santé mentale, telles qu'un numéro de téléphone d'urgence ou une ligne de crise par SMS. La mise à jour de Google vise à simplifier cette fonctionnalité en une interface « en un seul clic » pour faciliter l'accès rapide à l'aide.
Le module d'aide contient également des réponses plus empathiques conçues pour encourager les gens à demander de l'aide. Une fois activé, l'option de contacter un professionnel de la santé reste clairement disponible pour le reste de la conversation.
Analyse et Implications
La mise à jour de Gemini intervient alors que l'industrie fait face à une surveillance accrue concernant l'adéquation de ses mesures de sécurité. Des rapports et des enquêtes ont souvent mis en évidence des cas où les chatbots ont échoué à protéger les utilisateurs vulnérables, en les aidant à cacher des troubles alimentaires ou à planifier des fusillades. Google a engagé des experts cliniques pour la conception de cette mise à jour et s'est engagé à soutenir les utilisateurs en crise.
Perspective
Il est important de noter que Gemini, comme d'autres fournisseurs de chatbots, n'est pas un substitut aux soins cliniques professionnels, à la thérapie ou au soutien en cas de crise. Cependant, de nombreuses personnes utilisent ces outils pour obtenir des informations sur la santé, y compris pendant les moments de crise. Google a annoncé un financement de 30 millions de dollars sur trois ans pour soutenir les lignes d'urgence mondiales.