Introduction
OpenAI lance une fonctionnalité de sécurité optionnelle pour ChatGPT, permettant aux utilisateurs adultes de désigner un contact d'urgence pour les problèmes de santé mentale et de sécurité. Les amis, les membres de la famille ou les aidants désignés comme « Contact de confiance » seront avertis si OpenAI détecte que la personne peut avoir discuté de sujets tels que l'automutilation ou le suicide avec le chatbot.
Contexte Technique
La fonctionnalité « Contact de confiance » est basée sur un principe simple et validé par des experts : lorsque quelqu'un peut être en crise, le fait de se connecter à quelqu'un qu'il connaît et en qui il a confiance peut faire une différence significative. Elle offre un autre niveau de soutien aux côtés des lignes d'assistance locales déjà disponibles dans ChatGPT.
La fonctionnalité est activée par l'utilisateur, qui doit ajouter les coordonnées d'un contact dans les paramètres de son compte ChatGPT. Le contact de confiance doit accepter l'invitation dans les 7 jours suivant la réception de la demande. Les utilisateurs peuvent supprimer ou modifier leur contact choisi dans les paramètres, et le contact de confiance peut également choisir de se supprimer à tout moment.
Analyse et Implications
La notification est « intentionnellement limitée » et ne partage pas les détails de la conversation ou les transcripts avec le contact de confiance. Si les systèmes automatisés d'OpenAI détectent que l'utilisateur parle de s'autofaire du mal, ChatGPT encourage l'utilisateur à contacter son contact de confiance pour obtenir de l'aide et le prévient que le contact peut être averti.
Un « petit groupe de personnes spécialement formées » examine ensuite la situation, selon OpenAI, et ChatGPT envoie un bref e-mail, un message texte ou une notification dans l'application ChatGPT au contact de confiance si la conversation indique des problèmes de sécurité graves.
Perspective
Cette fonctionnalité s'inscrit dans le prolongement de la fonctionnalité de contact d'urgence introduite avec les contrôles parentaux de ChatGPT en septembre, après que le suicide d'un adolescent de 16 ans ait été lié à des mois de confidences à ChatGPT. Meta a également introduit une fonctionnalité similaire qui avertit les parents si leurs enfants « répètent » des recherches sur des sujets d'automutilation sur Instagram.