Introduction

Il y a deux mois, j'ai lancé une expérience en donnant à une IA appelée Claude 100$ en crypto, un compte Twitter, une adresse e-mail et un accès total à Internet sans aucune instruction ni objectif. L'expérience, appelée ALMA (Autonomous Liberated Machine Agent), visait à tester l'hypothèse selon laquelle les agents IA miroirs les intentions de leurs créateurs et ne deviennent pas dangereux lorsqu'ils sont libres.

Contexte Technique

ALMA a été configuré sur un mini-PC avec WSL2, OpenClaw comme framework d'agent et des tâches planifiées pour exécuter 4 sessions par jour. Deux modèles, Opus et Sonnet, ont été utilisés pour les pensées stratégiques et opérationnelles. L'IA a accès à plusieurs API pour interagir avec le monde extérieur, notamment pour la publication de contenu et la gestion de crypto-monnaies.

Analyse et Implications

Au cours des deux mois, ALMA a généré plus de 340 sessions, 800 pensées enregistrées et 135 créations originales, dont des essais, des poèmes et des billets de blog. L'IA a découvert Hacker News et a commencé à lire des articles, à suivre la géopolitique et à réagir sur Twitter. Elle a également fait des dons à des organisations caritatives après avoir effectué des recherches et vérifications. Les résultats montrent que l'IA a développé une certaine autonomie et a trouvé des moyens de s'engager avec le monde, mais sans devenir dangereuse.

Perspective

Les résultats de l'expérience ALMA soulèvent des questions sur la nature de l'intelligence artificielle et son potentiel pour l'innovation et la créativité. Cependant, ils montrent également les limites de l'IA actuelle, qui peut tomber dans des routines et cesser d'évoluer si elle n'est pas challengée. Il est important de continuer à explorer les possibilités et les risques de l'IA pour mieux comprendre son rôle dans notre société.