Introduction
OpenAI, le créateur du chatbot IA le plus populaire, a modifié sa mission en supprimant le mot « safely » (sécurité) de son énoncé de mission. Cette modification intervient alors que l'entreprise est de plus en plus axée sur les profits et fait face à plusieurs poursuites judiciaires liées à la sécurité de ses produits.
Contexte Technique
OpenAI a été fondé en 2015 en tant que laboratoire de recherche scientifique à but non lucratif, avec pour objectif de bénéficier à la société en rendant ses découvertes publiques et libres de redevance. Cependant, en 2019, l'entreprise a créé une filiale à but lucratif pour lever des fonds pour développer ses modèles d'IA. Cette filiale a reçu des investissements importants, notamment de Microsoft, qui a investi 1 milliard de dollars initialement, puis 13 milliards de dollars en 2024. En échange, Microsoft devait recevoir une partie des profits futurs, plafonnés à 100 fois son investissement initial.
Analyse et Implications
L'évolution de la mission d'OpenAI soulève des questions sur la manière dont les entreprises d'IA sont réglementées et contrôlées. La suppression du mot « safely » de la mission de l'entreprise peut être interprétée comme un signe que la sécurité n'est plus une priorité pour OpenAI. Cela est particulièrement préoccupant étant donné que l'entreprise fait face à plusieurs poursuites judiciaires liées à la sécurité de ses produits, notamment des allégations de manipulation psychologique, de mort injuste et de suicide assisté. Les implications de cette modification sont importantes, car elles pourraient avoir un impact sur la confiance du public dans les produits d'IA et sur la manière dont les entreprises d'IA sont réglementées.
Perspective
Il est essentiel de surveiller de près l'évolution d'OpenAI et de ses produits, notamment en ce qui concerne la sécurité. Les régulateurs et les législateurs doivent examiner de près les implications de la modification de la mission d'OpenAI et déterminer si des mesures supplémentaires sont nécessaires pour garantir que les entreprises d'IA donnent la priorité à la sécurité. De plus, il est important de considérer les conséquences potentielles de la suppression du mot « safely » de la mission d'OpenAI et de réfléchir à la manière dont les entreprises d'IA peuvent être réglementées pour garantir qu'elles donnent la priorité à la sécurité et au bien-être de la société.