Introduction

Google Chrome a été découvert en train d'installer discrètement un modèle IA de 4 Go sur les appareils des utilisateurs sans leur consentement. Ce modèle, appelé Gemini Nano, est utilisé pour alimenter les fonctionnalités d'IA du navigateur, telles que la détection des arnaques et les suggestions de texte.

Contexte Technique

Le modèle IA est stocké dans un fichier appelé weights.bin, qui est créé dans le répertoire OptGuideOnDeviceModel du profil utilisateur. Le fichier est téléchargé sans avertissement et sans demande de consentement, et il est ré-téléchargé si l'utilisateur le supprime manuellement. Le modèle est utilisé pour alimenter les fonctionnalités d'IA de Chrome, telles que la détection des arnaques et les suggestions de texte.

Les mécanismes de téléchargement et d'installation du modèle sont complexes et impliquent plusieurs processus et sous-processus. Le modèle est téléchargé en arrière-plan, sans interaction avec l'utilisateur, et il est installé dans le répertoire du profil utilisateur. Les fichiers temporaires créés pendant le processus d'installation sont supprimés une fois l'installation terminée.

Analyse et Implications

L'installation discrète du modèle IA par Google Chrome soulève des préoccupations importantes en matière de confidentialité et de sécurité. L'absence de consentement et de transparence dans le processus d'installation est particulièrement préoccupante, car les utilisateurs ne sont pas informés de la présence du modèle IA sur leur appareil.

Les implications environnementales de l'installation du modèle IA sont également importantes, car le téléchargement et l'installation du modèle consomment des ressources importantes et contribuent aux émissions de gaz à effet de serre. Selon les estimations, le coût environnemental de l'installation du modèle IA pourrait être compris entre 6 000 et 60 000 tonnes d'équivalent CO2.

Perspective

Il est essentiel que les utilisateurs soient informés et consultés avant l'installation de tout modèle IA sur leur appareil. Les entreprises doivent être transparentes et responsables dans leur utilisation des données et des ressources, et elles doivent respecter les droits et les préférences des utilisateurs. Les utilisateurs doivent également être conscients des risques et des implications potentielles de l'utilisation des fonctionnalités d'IA et prendre des mesures pour protéger leur confidentialité et leur sécurité.