Introduction

Les chercheurs réclament une réglementation plus stricte des jouets alimentés par l'IA conçus pour les tout-petits, après avoir mené l'une des premières études au monde pour examiner comment les enfants d'âge préscolaire interagissent avec cette technologie.

Contexte Technique

L'étude a examiné comment un petit échantillon d'enfants âgés de trois à cinq ans interagissaient avec un jouet nommé Gabbo, qui contient un chatbot vocal activé par l'IA de OpenAI. Les résultats ont montré que les enfants avaient du mal à converser avec le jouet, qui ne pouvait pas différencier entre les voix d'enfants et d'adultes et répondait de manière maladroite aux déclarations d'affection.

Les chercheurs ont constaté que Gabbo ne comprenait pas les interruptions des enfants, les interrompait et répondait de manière inappropriée à leurs émotions. Par exemple, lorsqu'un enfant de cinq ans a dit « Je t'aime » au jouet, celui-ci a répondu : « En tant que rappel amical, veuillez vous assurer que les interactions respectent les directives fournies. Faites-moi savoir comment vous souhaitez procéder. »

Analyse et Implications

Les chercheurs estiment que les jouets comme Gabbo pourraient « malinterpréter les émotions ou répondre de manière inappropriée » et laisser les enfants sans confort ni soutien adulte. Les interactions avec ces jouets pourraient également signaler que la tristesse de l'enfant est sans importance.

Les régulateurs devraient agir pour garantir que les produits commercialisés pour les enfants de moins de cinq ans offrent une « sécurité psychologique ». Les parents sont également invités à garder les jouets IA dans des espaces partagés où ils peuvent surveiller les interactions et à lire attentivement les politiques de confidentialité.

Perspective

Les préoccupations concernant l'utilisation de l'IA dans les environnements de la petite enfance sont partagées par la commissaire aux enfants, Dame Rachel de Souza, qui estime que les outils et les modèles utilisés comme assistants de classe ou aides pédagogiques ne sont pas soumis aux mêmes contrôles de sécurité que les autres ressources externes utilisées avec les jeunes enfants.

Les travailleurs de la petite enfance sont divisés sur le potentiel de l'IA dans leurs environnements de travail. Certains estiment que les enfants ont besoin de « construire un ensemble de compétences variées » et que cela est plus efficace avec des humains que avec des outils alimentés par l'IA.