Introduction

Depuis le lancement de ChatGPT en novembre 2022, les chatbots d'IA génératifs sont devenus de plus en plus sophistiqués et populaires. Ces systèmes sont maintenant intégrés dans les moteurs de recherche, les outils de développement de logiciels et les logiciels de bureau. Pour de nombreuses personnes, ils sont rapidement devenus une partie intégrante de l'informatique quotidienne.

Contexte Technique

Certaines choix de conception dans les systèmes d'IA modernes peuvent encourager l'acceptation sans critique de leur sortie. Par exemple, de nombreux moteurs de recherche populaires mettent déjà en évidence les réponses générées par l'IA en haut de la page. Lorsque cela se produit, il est facile de cesser de faire défiler et d'accepter la réponse générée sans vérification supplémentaire. Avec le temps, cela pourrait involontairement entraîner les utilisateurs à traiter l'IA comme l'autorité par défaut plutôt que comme un point de départ pour une enquête plus approfondie.

Les trois lois de la robotique d'Isaac Asimov, qui réapparaissent tout au long de son œuvre, ont été conçues pour contraindre le comportement des robots afin de maintenir la sécurité des humains. Cependant, Asimov n'a jamais formulé de lois équivalentes pour régir la façon dont les humains interagissent avec les robots. Je pense que nous avons maintenant besoin de quelque chose de similaire pour nous protéger nous-mêmes. Je les appellerai les lois inverses de la robotique.

Analyse et Implications

Ces lois inverses sont les suivantes : les humains ne doivent pas anthropomorphiser les systèmes d'IA, les humains ne doivent pas faire confiance aveuglément à la sortie des systèmes d'IA et les humains doivent rester pleinement responsables et responsables des conséquences découlant de l'utilisation des systèmes d'IA. L'anthropomorphisme déforme le jugement et peut conduire à une dépendance émotionnelle. Les systèmes de chatbot modernes sont souvent conçus pour ressembler à des interactions humaines, ce qui les rend plus faciles à utiliser mais également plus susceptibles d'être traités comme des acteurs sociaux ou des agents moraux.

Les humains doivent éviter de traiter les systèmes d'IA comme des autorités sans vérification indépendante appropriée. Les contenus générés par l'IA ne doivent pas être traités comme autoritaires sans vérification indépendante appropriée. Cela nécessite une approche critique et une vérification minutieuse, en particulier dans les contextes où les erreurs peuvent avoir des conséquences graves.

Perspective

Il est essentiel de rester vigilant et de reconnaître les limites des systèmes d'IA. Les humains doivent rester pleinement responsables des décisions impliquant l'IA et responsables des conséquences découlant de son utilisation. Si un résultat négatif se produit à la suite de conseils ou de décisions générés par l'IA, il n'est pas suffisant de dire « l'IA nous a dit de le faire ». Les systèmes d'IA sont des outils, et comme tout outil, la responsabilité de leur utilisation repose sur les personnes qui décident de s'y fier.