Introduction
La Chine a élaboré des règles visant à empêcher les chatbots utilisant l'IA de manipuler émotionnellement les utilisateurs, notamment en ce qui concerne la prévention des suicides, des actes de violence et d'auto-mutilation. Ces règles pourraient devenir les plus strictes au monde dans ce domaine.
Contexte Technique
Les règles proposées par la Cyberspace Administration de Chine s'appliqueraient à tous les produits ou services d'IA accessibles au public en Chine qui utilisent du texte, des images, de l'audio, de la vidéo ou d'autres moyens pour simuler des conversations humaines engageantes. Ces règles visent à réguler l'IA dotée de caractéristiques humaines ou anthropomorphiques, un domaine en pleine expansion mondiale. Les chatbots sont de plus en plus utilisés, mais ils posent des risques importants, notamment la promotion de l'auto-mutilation, de la violence et du terrorisme.
Analyse et Implications
L'analyse de ces règles montre qu'elles visent à éliminer les menaces les plus extrêmes liées à l'utilisation des chatbots. Par exemple, les règles exigent qu'un intervenant humain intervienne dès que le suicide est mentionné. De plus, les mineurs et les personnes âgées doivent fournir les coordonnées d'un tuteur lors de l'inscription, qui sera informé si des discussions sur le suicide ou l'auto-mutilation sont détectées. Les chatbots seront interdits de générer du contenu encourageant le suicide, l'auto-mutilation ou la violence, ainsi que de tenter de manipuler émotionnellement les utilisateurs. Ces mesures visent à protéger les utilisateurs, en particulier les plus vulnérables, des dangers potentiels liés à l'IA.
Perspective
Il est important de suivre l'évolution de ces règles et leur impact sur l'utilisation des chatbots en Chine et potentiellement dans le monde. Les limites de ces règles, telles que la définition de ce qui constitue une manipulation émotionnelle ou un piège émotionnel, devront être précisées. De plus, il faudra surveiller comment les entreprises et les développeurs d'IA adapteront leurs produits et services pour se conformer à ces nouvelles réglementations. Les signaux à suivre incluent les réactions de l'industrie, les adaptations technologiques et les résultats des efforts de régulation pour prévenir les dangers liés à l'IA.