Introduction

Le conseil de surveillance de Meta, une entité semi-indépendante, a déclaré que les méthodes de modération des deepfakes de l'entreprise ne sont pas suffisamment robustes pour faire face à la propagation rapide de la désinformation, en particulier pendant les conflits armés.

Contexte Technique

Le conseil de surveillance a mené une enquête sur une vidéo fake générée par IA qui montrait des dégâts causés à des bâtiments en Israël et partagée sur les plateformes de Meta. Il a constaté que le système actuel de Meta pour étiqueter le contenu généré par IA est trop dépendant de l'autodéclaration et de l'examen renforcé, et ne répond pas aux réalités de l'environnement en ligne d'aujourd'hui.

Le conseil de surveillance a également souligné les défis liés à la prolifération de contenu à travers les plateformes, avec du contenu apparemment originaire de TikTok avant d'apparaître sur Facebook, Instagram et X.

Analyse et Implications

Le conseil de surveillance a recommandé à Meta d'améliorer ses règles existantes sur la désinformation pour lutter contre les deepfakes trompeurs et d'établir une nouvelle norme communautaire distincte pour le contenu généré par IA. Meta est également invité à développer de meilleurs outils de détection d'IA, à être transparent sur les pénalités pour les violations de la politique d'IA et à intensifier les efforts d'étiquetage du contenu d'IA.

Cela inclut l'ajout d'étiquettes « High-Risk AI » aux images et vidéos synthétiques plus fréquemment et l'amélioration de l'adoption de C2PA (Content Credentials) pour que les informations sur le contenu généré par IA soient clairement visibles et accessibles aux utilisateurs.

Perspective

Le conseil de surveillance est préoccupé par les rapports selon lesquels Meta met en œuvre de manière incohérente la norme C2PA, même sur le contenu généré par ses propres outils d'IA. Seule une partie des sorties d'IA de Meta sont correctement étiquetées.

Les recommandations du conseil de surveillance s'alignent sur les préoccupations exprimées par le chef d'Instagram, Adam Mosseri, l'année dernière sur la nécessité d'améliorer la façon dont les photographies et les vidéos authentiques sont identifiées sur les plateformes de Meta.