Introduction
Une cour d'appel américaine a suspendu une ordonnance d'un juge californien qui interdisait à Perplexity AI Inc. d'utiliser son agent de shopping alimenté par l'IA, Comet, sur le marché d'Amazon.com Inc.
Contexte Technique
Le litige a commencé fin 2025, lorsque Amazon a envoyé une lettre de cessation et de désistement à Perplexity, lui demandant de ne pas utiliser sa technologie d'agent pour acheter des biens sur son marché. Perplexity a répondu en affirmant qu'Amazon employait des tactiques d'intimidation et faisait des « menaces légales et de l'intimidation pour bloquer l'innovation ».
Amazon a allégué que les bots qui effectuent les achats « dégradent » l'expérience d'achat et de service client. Plus important encore, le fait que moins d'yeux humains soient sur les produits pourrait signifier une perte de revenus publicitaires. Amazon dispose de ses propres bots pour aider les utilisateurs à décider quoi acheter, mais avec l'agent d'achat de Perplexity, les utilisateurs n'ont pas besoin de se connecter à la plateforme.
Analyse et Implications
Les avocats d'Amazon ont invoqué la loi fédérale de 1986 sur la fraude informatique, qui interdit l'accès non autorisé aux systèmes informatiques. L'entreprise a également allégué que Perplexity avait violé la loi californienne sur le hacking. Perplexity a rétorqué que son agent n'accédait pas directement aux systèmes d'Amazon ; au lieu de cela, les utilisateurs eux-mêmes y accédaient.
La décision de la cour d'appel est une victoire temporaire pour Perplexity, mais l'affaire est loin d'être terminée. Il est prévu que Perplexity soumette des arguments supplémentaires à la 9e Cour d'appel en avril.
Perspective
Cette affaire soulève des questions importantes sur l'utilisation de l'IA dans le commerce électronique et les limites de l'accès aux systèmes informatiques. Il est essentiel de surveiller l'évolution de cette affaire, car elle pourrait avoir des implications significatives pour l'industrie du commerce électronique et l'utilisation de l'IA dans ce contexte.