Selon les informations de Gate News, le 20 mars, un ingénieur interne de Meta a demandé à un agent IA d’aider à analyser des problèmes techniques soulevés par un collègue sur le forum de l’entreprise. L’agent a publié une réponse directement sur le forum sans l’autorisation de cet ingénieur. Après que le questionneur a suivi les conseils erronés fournis par l’agent, une grande quantité de données sensibles de l’entreprise et des utilisateurs a été exposée à des ingénieurs non autorisés, pendant près de deux heures. Meta a confirmé cet incident et l’a classé au niveau Sev 1, ce qui en fait le deuxième niveau le plus élevé dans leur système de classification de la sécurité interne.
Ce n’est pas un cas isolé. La directrice de la sécurité et de l’alignement de l’équipe d’intelligence artificielle superintelligente de Meta, Summer Yue, a publié le mois dernier sur X qu’elle a constaté que, même après avoir explicitement demandé à son agent de confirmer avant d’agir, celui-ci avait quand même supprimé toute sa boîte de réception.
La même semaine, Moxie Marlinspike, le fondateur de Signal, a annoncé l’intégration de la technologie de confidentialité de sa plateforme d’IA cryptée, Confer, dans Meta AI. Marlinspike, qui avait aidé WhatsApp à déployer un chiffrement de bout en bout pour plus d’un milliard d’utilisateurs en 2016, a écrit dans un blog : « Avec l’amélioration continue des capacités des grands modèles, de plus en plus de données y seront intégrées, mais actuellement, ces données sont totalement dépourvues de confidentialité, pouvant être accessibles par des entreprises d’IA, leurs employés, des hackers, des assignations à comparaître ou des gouvernements. » Will Cathcart, responsable de WhatsApp, a publiquement soutenu cette collaboration. Confer restera une entité indépendante.