Brevis a récemment lancé un système d’authenticité média de bout en bout qui permet aux images et vidéos de prouver cryptographiquement leur origine tout en protégeant les données des utilisateurs.
Le 9 mars 2026, la société de calcul à preuve zéro connaissance Brevis a lancé un système d’authenticité média de bout en bout conçu pour faire face à la crise de confiance en ligne. Connu sous le nom de Brevis Vera, le système permet aux images et vidéos de prouver cryptographiquement leur origine et leur historique sans exposer les données des utilisateurs.
Avec la montée en puissance des deepfakes, l’industrie s’appuie sur des détecteurs d’intelligence artificielle (IA) pour repérer les faux. Cependant, Brevis qualifie cela de bataille perdue. « Les détecteurs sont une cible mouvante », a déclaré la société dans un blog. « Vera adopte une approche différente. Plutôt que de demander si le média semble réel, il lui permet de prouver d’où il vient. »
Les signatures C2PA actuelles authentifient les fichiers lors de la capture mais échouent dès qu’une modification est apportée, obligeant à choisir entre utiliser les fichiers bruts ou perdre la preuve d’authenticité. Vera comble cette lacune avec Brevis Pico, une machine virtuelle à preuve zéro connaissance (zkVM) qui génère des preuves mathématiques montrant que des modifications, telles que le recadrage ou le redimensionnement, étaient des transformations légitimes de l’original.
Selon un article de blog, le flux de travail de Vera se déroule en trois phases intégrées. Tout d’abord, le média est signé à la source de capture par des appareils compatibles C2PA. Ensuite, les preuves zkVM conservent cette authenticité lors des modifications ou compressions du fichier. Enfin, les plateformes affichent un badge « Vera-certifié » qui offre aux utilisateurs un historique complet et vérifié de l’actif numérique.
Le lancement de cet outil intervient à un moment critique pour la stabilité mondiale. Au premier trimestre 2026 seulement, le paysage numérique a été secoué par des imposteurs gouvernementaux de haute fidélité et des deepfakes hyper-réalistes ciblant des candidats politiques lors d’élections internationales majeures.
Ces incidents ont alimenté ce que les experts appellent le « Dividende du menteur » — un phénomène où l’existence même des deepfakes permet aux mauvais acteurs de rejeter comme fausses des preuves de corruption ou de crimes de guerre, en les qualifiant d’IA générée. La société a noté que la réaction par défaut face à des images frappantes est passée de la curiosité à la suspicion. Cependant, avec Vera, l’authenticité devient la norme et la vérité est à nouveau vérifiable.