Introduction

Un bogue a été découvert dans Microsoft 365 Copilot, l'assistant IA de Microsoft, qui provoque la résumé de courriels confidentiels. Ce problème a été détecté fin janvier et affecte la fonctionnalité de chat de Copilot, qui lit et résume incorrectement les courriels stockés dans les dossiers « Envoyés » et « Brouillons » des utilisateurs, y compris ceux avec des étiquettes de confidentialité.

Contexte Technique

Le bogue, suivi sous la référence CW1226324, affecte la fonctionnalité de chat de Copilot, qui utilise l'intelligence artificielle pour interagir avec les utilisateurs. Cette fonctionnalité a été déployée en septembre 2025 pour les clients commerciaux de Microsoft 365. Le problème est dû à une erreur de code qui permet à Copilot de traiter des courriels avec des étiquettes de confidentialité, même si des politiques de prévention de la perte de données (DLP) sont configurées pour les protéger.

Analyse et Implications

L'impact de ce bogue est important, car il peut compromettre la confidentialité des informations sensibles. Les organisations qui utilisent Microsoft 365 Copilot pourraient voir leurs données confidentielles résumées et potentiellement exposées. Microsoft a confirmé que le bogue est dû à une erreur de code et a commencé à déployer une correction en février. Cependant, l'entreprise n'a pas fourni de calendrier précis pour la résolution complète du problème.

Perspective

Il est essentiel de surveiller l'évolution de ce problème et les mesures prises par Microsoft pour y remédier. Les utilisateurs de Microsoft 365 Copilot doivent être conscients des risques potentiels liés à la confidentialité et prendre des mesures pour protéger leurs informations sensibles. Il est également important de noter que ce bogue souligne les limites et les risques potentiels liés à l'utilisation de l'IA dans les outils de productivité.