Introduction
Grammarly, l'outil de correction et d'amélioration de texte, propose une fonctionnalité dite « expert review » qui offre des conseils d'écriture « inspirés » par des experts dans le domaine. Cependant, il a été découvert que cette fonctionnalité utilise les identités de personnes sans leur permission, y compris des journalistes et des éditeurs de The Verge.
Contexte Technique
La fonctionnalité « expert review » de Grammarly utilise l'IA pour analyser les écrits des utilisateurs et fournir des suggestions « inspirées » par des experts. Les « perspectives industrielles pertinentes » incluent des personnalités comme Stephen King, Neil deGrasse Tyson et Carl Sagan. Cependant, la fonctionnalité a été critiquée pour son manque de transparence et son utilisation non autorisée des identités de personnes.
Les descriptions des experts contiennent des inexactitudes, telles que des titres de poste obsolètes, qui auraient pu être mises à jour avec précision si les personnes concernées avaient été consultées. De plus, les sources liées aux suggestions sont souvent des copies spammeuses de sites Web légitimes ou des archives qui ne sont pas les pages sources réelles.
Analyse et Implications
L'utilisation non autorisée des identités de personnes par Grammarly soulève des questions éthiques importantes. Les experts dont les identités sont utilisées sans permission pourraient être associés à des suggestions de mauvaise qualité ou à des conseils inexacts, ce qui pourrait nuire à leur réputation.
De plus, la présentation des suggestions peut être trompeuse, notamment dans Google Docs, où elles ressemblent à des commentaires de vrais utilisateurs. Cela pourrait conduire les utilisateurs à suivre des conseils qui ne sont pas nécessairement pertinents ou de qualité.
Perspective
Il est essentiel que les entreprises comme Grammarly soient transparentes quant à l'utilisation des données et des identités des personnes. Les utilisateurs doivent être informés de la manière dont leurs données sont utilisées et des sources des suggestions fournies.
À l'avenir, il faudra surveiller de près les développements de l'IA et de l'apprentissage automatique pour garantir que les entreprises respectent les droits et la vie privée des individus. Les utilisateurs doivent également être conscients des limites et des risques potentiels liés à l'utilisation de ces technologies.