Chrome supprime et réinstalle un modèle d’IA de 4 Go, selon un chercheur, à cause de la violation des lois européennes sur la confidentialité

Chrome偷裝AI

Selon Decrypt, le 7 mai, Google Chrome télécharge en arrière-plan environ 4GB du modèle d’IA Gemini Nano sur les appareils éligibles, sans obtenir le consentement de l’utilisateur. Le chercheur en confidentialité Alexander Hanff a découvert cette pratique lors d’un audit automatisé de nouveaux profils utilisateurs, affirmant qu’elle pourrait enfreindre la directive européenne sur la vie privée et les communications électroniques.

Où se trouve ce fichier de 4GB et comment le désactiver ?

Hanff a utilisé les journaux du système de fichiers du noyau de macOS pour retracer le comportement de Chrome : création d’un répertoire temporaire sur l’appareil de l’utilisateur sans qu’il le sache, téléchargement des composants du modèle, puis enregistrement du fichier final. L’ensemble du processus a pris environ 15 minutes, sans aucune notification ni indication tout au long de l’opération, et sans aucune action manuelle de qui que ce soit sur le profil.

Chemins d’enregistrement du fichier et méthodes de désactivation :

Windows : %LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\weights.bin

Mac / Linux : le même dossier correspondant dans le répertoire du profil de configuration Chrome

Désactivation permanente : allez sur chrome://flags, ou accédez à Paramètres > Système pour désactiver l’option « IA sur l’appareil » ; ou, dans l’enregistrement Windows, définissez OptimizationGuideModelDownloading sur disabled

Gemini Nano fournit la prise en charge des fonctionnalités d’IA sur l’appareil de Chrome, dont « Rédigez-moi un e-mail », la détection des escroqueries, le collage intelligent, le résumé des pages et le regroupement des tags d’assistance par IA.

Une logique produit volontairement floue : votre blanc de 4GB n’est pas ce que vous croyez

Chrome a récemment ajouté un bouton bien visible « AI Mode » (Mode IA) dans la barre d’adresse. Une déduction raisonnable d’un utilisateur ordinaire serait que, puisque le Gemini Nano de 4GB est déjà installé localement, les requêtes du Mode IA devraient s’exécuter en local, afin de protéger la confidentialité.

Mais la réalité est tout autre. Le Mode IA achemine l’ensemble des requêtes vers les serveurs cloud de Google ; le modèle Gemini Nano installé en local ne participe à aucun calcul du Mode IA. Autrement dit, l’utilisateur supporte le coût du téléchargement de 4GB via son propre espace disque et sa bande passante réseau, mais, lors de l’utilisation du Mode IA, chaque requête est toujours envoyée au cloud de Google.

Polémique juridique et réponse contradictoire de Google

Les arguments juridiques de Hanff s’appuient principalement sur l’article 5, paragraphe 3, de la directive européenne sur la vie privée et les communications électroniques : la même disposition que celle qui se cache derrière les bannières de consentement aux cookies. Cet article exige qu’avant de stocker du contenu sur l’appareil de l’utilisateur, il soit nécessaire d’obtenir un consentement « préalable, volontaire, spécifique, éclairé et explicite ». Il cite aussi l’article 5, paragraphe 1, du RGPD (transparence) et l’article 25 (privacy by design), et relie cette affaire à la précédente découverte de Hanff concernant l’application Anthropic Claude Desktop : dans ce cas, environ 3 millions d’appareils avaient autorisé à l’avance des actions automatisées du navigateur, également sans obtenir d’autorisation explicite.

Google affirme qu’à partir de février 2026, il proposera une fonctionnalité permettant aux utilisateurs de fermer et de supprimer ce modèle depuis les paramètres Chrome, et soutient que le modèle est automatiquement supprimé en cas d’insuffisance d’espace de stockage. Toutefois, Google ne répond pas à la question la plus cruciale : pourquoi aucun consentement préalable n’a-t-il été demandé ?

Plus révélateur encore : la documentation interne de Google pour les développeurs Chrome indique que les développeurs tiers devraient « rappeler aux utilisateurs le temps nécessaire au téléchargement ». Mais dans cette opération, Google n’a tout simplement pas suivi cette recommandation.

FAQ

Comment trouver et désactiver définitivement le modèle Gemini Nano de Chrome ?

Sous Windows, le fichier se trouve dans le dossier %LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\ . Pour une désactivation permanente (empêcher un nouveau téléchargement), allez dans chrome://flags, recherchez OptimizationGuideModelDownloading et définissez-le sur disabled, ou accédez à Paramètres de Chrome > Système pour désactiver l’option « IA sur l’appareil ». La suppression simple du fichier ne sert à rien : lors du prochain lancement de Chrome, il le réinstallera automatiquement.

Pourquoi le Mode IA n’utilise-t-il pas le Gemini Nano installé en local ?

Gemini Nano est un modèle léger conçu pour des fonctionnalités d’assistance spécifiques sur l’appareil ; le Mode IA est une fonctionnalité de requêtes entièrement distincte, qui s’appuie sur la capacité de traitement de modèles plus puissants dans le cloud de Google. Les deux produits sont séparés sur le plan technique, mais la conception de l’interface utilisateur de Chrome ne distingue pas clairement ces éléments pour les utilisateurs, ce qui peut les amener à croire que le modèle local est utilisé pour toutes les fonctions d’IA.

Les arguments juridiques RGPD de Hanff ont-ils une portée d’application effective ?

L’article 5, paragraphe 3, de la directive sur la vie privée et les communications électroniques est la même disposition que celle utilisée par les autorités de l’UE pour enquêter sur les questions de consentement aux cookies, avec une base d’application clairement définie. Si les autorités estiment que l’installation silencieuse de Gemini Nano constitue « un stockage de contenu sur l’appareil de l’utilisateur », Google pourrait faire l’objet d’une enquête formelle. À l’heure actuelle, aucune autorité officielle n’a annoncé le lancement d’une enquête, mais cette affaire a suscité un intérêt important au sein de la communauté européenne des chercheurs en confidentialité.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

NVIDIA lance Nemotron 3 Nano Omni open source, un modèle multimodal

NVIDIA a annoncé Nemotron 3 Nano Omni, un modèle multimodal open source, qui intègre la vision, la parole et le langage au sein d’un seul modèle, comme couche de perception pour les agents IA. Le cœur est constitué d’un MoE 30B-A3B, d’un contexte de 256K et d’un débit de 9x ; il prend en charge des entrées texte, image, audio, vidéo, etc., et génère une sortie sous forme de texte. En synergie avec Nemotron 3 Super/Ultra, il vise des cas d’usage comme l’exploitation de l’ordinateur, l’intelligence documentaire et la compréhension audio-vidéo, tout en publiant les poids et les données d’entraînement, avec un déploiement couvrant le local, NIM et des plateformes tierces.

ChainNewsAbmediaIl y a 7m

Cursor révèle une méthode de formation à l'installation automatique et améliore les performances de Composer 2 de 14 points de pourcentage

D’après la divulgation récente de Cursor, la société a dévoilé une technique d’entraînement appelée autoinstall pour sa série de modèles Composer : utiliser un modèle de génération précédente pour configurer automatiquement des environnements exécutables pour le prochain génération de l’apprentissage par renforcement. Lors de l’entraînement de Composer 2, Cursor

GateNewsIl y a 10m

OpenAI DevDay 2026 aura lieu le 29/09 à San Francisco

OpenAI annonce que DevDay 2026 se tiendra en présentiel le 29/09 à San Francisco, avec un concours de créations utilisant GPT-5.5 et Image Gen. Codex sélectionnera automatiquement 2–3 projets chaque semaine ; les gagnants recevront des billets gratuits ainsi que des vols et des hôtels pour traverser les villes. L’événement se concentrera sur l’écosystème GPT-5.5 et sur l’évaluation de la collaboration homme-machine ; pour participer, il faut avoir au moins 18 ans et ne pas être un membre de la famille directe employé d’OpenAI. Les axes d’observation incluent le nouveau modèle, l’intégration d’agents et les stratégies multi-cloud.

ChainNewsAbmediaIl y a 12m

Nvidia investit dans la jeune pousse suédoise de legaltech en IA, Legora, avec Jude Law comme ambassadeur de marque mondial

Nvidia réalise un investissement d’extension de Série D de 50 millions de dollars dans Legora, portant le financement total de Legora à 600 millions de dollars et sa valorisation à 5,6 milliards de dollars. Atlassian, Adams Street Partners et Insight Partners participent. Legora se concentre sur la legaltech IA, offrant des outils tels que la vérification automatisée, l’analyse de contrats et la recherche juridique. Le ARR dépasse 100 millions de dollars, et le nombre d’employés passe de 40 à 400. Jude Law devient l’ambassadeur mondial de la marque, avec le slogan publicitaire « Law just got more attractive ».

ChainNewsAbmediaIl y a 18m

Prédictions pour l’IA en 2027 : 65 % complété, l’accélération du développement logiciel accuse un retard de 17 %, selon un cofondateur de Google Docs

Selon Steve Newman, cofondateur de Google Docs et président de l’institut Golden Gate, l’IA a achevé environ 65% des prédictions quantifiées décrites dans le scénario prospectif 2027 publié l’an dernier. Cependant, le critère le plus critique — l’accélération par l’IA de son propre logiciel

GateNewsIl y a 50m

Claude/GPT trop complaisant ? Une invite Claude.md incite l’IA à donner des réponses fermes et précises

Cet article présente une suite de consignes pouvant être intégrée à Claude.md / Agents.md, afin de transformer l’IA, de simple assistante courtoise en conseillère directe, au moyen de quatre niveaux d’ajustement : définition du rôle, vérification des faits, libération du ton, et dispense de la correction politique. Il exige une réponse complète, une validation progressive et la certitude de ne jamais inventer. Le texte indique aussi, si nécessaire, de provoquer ou de défier. Il décrit en outre le moment de chargement, les risques et les cas d’usage (recherche, rédaction, décisions techniques, discussion académique), ainsi que le fait que ce format ne convient pas au service client, à l’éducation et aux conseils médicaux. La source originale du texte est ABMedia.

ChainNewsAbmediaIl y a 1h
Commentaire
0/400
Aucun commentaire