Introduction

Grammarly, une plateforme de correction et d'amélioration de texte, a récemment déclenché une vague de critiques de la part de journalistes, d'universitaires et d'auteurs après le lancement de sa fonctionnalité 'Expert Review'. Cette fonctionnalité permettait aux utilisateurs de sélectionner des 'experts' pour améliorer leur écriture, mais ces experts étaient en réalité des intelligences artificielles générant des conseils imitant le style et le jugement de véritables écrivains.

Contexte Technique

La fonctionnalité 'Expert Review' de Grammarly utilisait l'apprentissage automatique pour générer des conseils d'écriture dans le style de véritables experts, dont certains étaient décédés. Les utilisateurs pouvaient sélectionner parmi une liste d'experts pour améliorer leur écriture, mais les véritables experts n'avaient pas été consultés ni informés de cette utilisation de leur nom et de leur style.

Les mécanismes derrière cette fonctionnalité reposaient sur l'utilisation de l'IA pour analyser et reproduire le style d'écriture des experts, mais sans leur consentement ni leur implication. Cela a soulevé des questions éthiques sur l'utilisation de l'IA pour imiter les humains et sur la propriété intellectuelle.

Analyse et Implications

La réaction des experts et des utilisateurs a été rapide et sévère, avec des critiques sur la façon dont Grammarly avait utilisé leur nom et leur style sans autorisation. Certains ont même intenté des poursuites judiciaires, comme Julia Angwin, une journaliste d'investigation, qui a déclaré que la fonctionnalité 'Expert Review' était une 'version contrefaite' de son expertise.

Les implications de cette affaire sont importantes, car elles soulignent les risques liés à l'utilisation de l'IA pour imiter les humains et les conséquences potentielles pour la propriété intellectuelle et la réputation des individus.

Perspective

Grammarly a finalement décidé de stopper la fonctionnalité 'Expert Review' après les critiques, et son PDG, Shishir Mehrotra, a présenté des excuses et a promis de réévaluer l'approche de l'entreprise. Cela montre que les entreprises doivent être conscientes des risques et des conséquences potentielles de l'utilisation de l'IA et doivent prendre des mesures pour protéger la propriété intellectuelle et la réputation des individus.

À l'avenir, il sera important de surveiller comment les entreprises utilisent l'IA pour imiter les humains et de veiller à ce que les droits et la réputation des individus soient protégés. Cela nécessitera une approche éthique et responsable de l'utilisation de l'IA, ainsi que des réglementations et des lois pour protéger les droits des individus.