Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les voix des acteurs doubleurs célèbres "volées" par l'IA, les défenseurs des droits s'enchaînent ! L'IA "change de visage" et obtient un jugement, comment résoudre le dilemme du "vol de voix" ? Les avocats pointent les difficultés : preuve difficile, coûts élevés, gains faibles
Grâce à l’avancée rapide de la technologie IA (intelligence artificielle), le visage et la voix des acteurs deviennent des cibles privilégiées de “pillage”.
En 2025, un court-métrage suspecté d’avoir utilisé l’IA pour remplacer le visage de Dilraba Dilmurat a suscité l’attention de l’industrie. Un an plus tard, le tribunal Internet de Beijing a publié un rapport sur une affaire de violation du droit à l’image, clarifiant la responsabilité des producteurs et diffuseurs pour établir les limites juridiques de la protection du droit à l’image. Par ailleurs, des acteurs de doublage renommés comme Bian Jiang et Ji Guanlin ont successivement pris la parole pour défendre leurs droits, dénonçant que l’IA leur avait “volé” leur voix.
Avec le développement fulgurant de l’IA, le “visage” et la “voix” des artistes deviennent des ressources régulièrement volées. “Le visage peut être reconnu d’un seul coup d’œil, mais la voix est difficile à juger avec précision, ce qui pose des problèmes de preuve, de coûts de défense élevés et de faibles bénéfices,” explique Jia Yuqian, avocate au cabinet Long’an à Shanghai, à la journaliste du Daily Economic News. De la “reconnaissance faciale” à la “voix volée”, la technologie IA remet en question les frontières de la protection des droits de la personnalité des acteurs, avec des défis de plus en plus variés.
“Ressemblant mais pas identique” constitue aussi une violation
En avril dernier, une actrice d’un court-métrage aurait vu son visage remplacé par celui de Dilraba Dilmurat via IA, ce qui a suscité la controverse. Le 20 mars, le tribunal Internet de Beijing a annoncé que la production du court-métrage avait utilisé la technologie IA pour superposer le visage de la plaignante sur celui d’un personnage, induisant le public en erreur quant à sa participation, constituant une violation du droit à l’image ; la plateforme de diffusion, en ne menant pas une vérification raisonnable, a également violé ce droit. Finalement, les deux défendeurs ont été condamnés à présenter des excuses et à indemniser la victime.
Selon les informations, le court-métrage en question comporte 44 épisodes d’environ 90 minutes, dont deux segments utilisant la technologie IA pour le remplacement de visage. La cour a estimé que, même si le portrait synthétisé par IA diffère de l’original, il peut être reconnu par le public ou certains professionnels, ce qui constitue une utilisation du portrait d’une personne naturelle.
Deng Yile, avocate au cabinet Xingquan à Beijing, a déclaré à Daily Economic News que cette affaire établit une limite judiciaire claire : même si l’IA génère un visage ressemblant mais non identique, cela constitue une violation. Elle souligne que “la neutralité technologique ne signifie pas l’exemption de responsabilité”, et que la règle de preuve empêche d’échapper à la responsabilité en utilisant l’IA.
Les journalistes ont noté qu’à l’heure où la jurisprudence sur la défense des droits face à l’IA “reconnaissant” le visage est en train de se consolider, un autre secteur clé de l’industrie audiovisuelle — le doublage — est confronté à la problématique de la “voix volée” par l’IA. Récemment, Ye Qing, qui avait doublé Li Xiaojun dans Sweet Honey, et Liu Jianming dans Infernal Affairs, a découvert que sa voix avait été reproduite de façon très fidèle et utilisée dans un court-métrage généré par IA. La voix de Ji Guanlin, un acteur de doublage renommé, a également été imitée pour une version “modifiée” de Zhen Huan Zhuan en Inde, ce qui a déclenché une action collective pour défendre leurs droits.
Selon des sources, la voix générée par IA est utilisée non seulement pour créer des versions modifiées de courts-métrages ou de fausses publicités, mais pourrait aussi servir dans des scénarios d’arnaque, exposant les acteurs de doublage à de grands risques juridiques et à des atteintes à leur réputation.
Au-delà des acteurs individuels, la principale société de doublage nationale, YinXiong LianMeng, a également publiquement dénoncé la “vol de voix” par l’IA. Dans un communiqué, elle affirme que “la voix est la base de la subsistance des acteurs de doublage, tout comme leur visage, elle bénéficie d’un droit de personnalité exclusif, strictement protégé par la loi”. Elle s’oppose fermement à toute collecte, enregistrement ou extraction non autorisée de leur voix par des particuliers, institutions ou plateformes, et à leur utilisation pour l’entraînement de l’IA, la synthèse vocale ou la reproduction sonore.
Pourquoi la défense contre le “vol de voix” par l’IA est-elle si difficile ?
Selon Jia Yuqian, du point de vue du marché et de l’industrie audiovisuelle, le problème du remplacement de visage et du vol de voix par l’IA suscite d’une part la méfiance et le rejet du public, ce qui nuit à la crédibilité de l’industrie ; d’autre part, il peut encourager la copie entre acteurs, aggravant la mauvaise utilisation de la technologie. “Les risques juridiques sont évidents. La tentation de réduire les coûts entraîne une utilisation abusive, ce qui provoque une concurrence malsaine, étouffe la création de qualité et crée un marché où la mauvaise monnaie chasse la bonne.”
Comparé au remplacement de visage, la défense contre le vol de voix par l’IA est encore plus difficile, non pas parce qu’elle est totalement “impossible à faire valoir”, mais parce que, dans la pratique, le seuil est plus élevé. Selon le Code civil, la protection de la voix des personnes naturelles se réfère aux dispositions relatives au droit à l’image.
En 2024, la première affaire nationale de violation du droit à la personnalité par une voix générée par IA a été jugée par le tribunal Internet de Beijing, confirmant que, sous réserve d’une capacité d’identification, la protection du droit à la voix s’étend à l’IA générant des voix. Cependant, “avoir une base” ne signifie pas “facile à défendre”. Jia Yuqian souligne que “le visage peut être reconnu d’un seul coup d’œil, mais la voix est difficile à juger avec précision.”
Elle ajoute que, bien que la voix bénéficie d’une protection légale similaire à celle du portrait, la voie pour faire valoir ses droits est confrontée à trois difficultés majeures : d’abord, la preuve est difficile à apporter, car la reconnaissance faciale est beaucoup plus aisée que celle de la voix, et il est difficile pour un acteur de doublage de prouver que ses données vocales proviennent de son propre entraînement IA ; ensuite, les coûts de défense sont élevés et les bénéfices faibles, car les équipes de stars disposent de soutiens juridiques spécialisés, ce qui n’est pas le cas pour les acteurs ordinaires ; enfin, le principe du “non-litige sans plainte” oblige l’acteur à engager une action en justice, ce qui revient aux deux premiers obstacles.
Deng Yile ajoute également que la nature éphémère de la voix rend difficile une reconnaissance immédiate de l’infraction, et que la recherche est compliquée. Actuellement, la majorité des vérifications repose sur l’écoute humaine, ce qui est très inefficace. De plus, la voix peut être facilement modifiée par montage, changement de vitesse ou collage, rendant difficile la fixation de l’état original, ce qui complique encore la défense. Alors que le droit à l’image bénéficie d’un “bouclier” juridique, le droit à la personnalité vocale fait face à un “vide réglementaire, l’absence de standards d’identification uniformes et de voies efficaces pour faire valoir ses droits”.
Une régulation complète et l’ajout de filigranes technologiques pourraient être la clé pour sortir de l’impasse
Que ce soit le remplacement de visage par IA ou le “vol de voix”, ces phénomènes reflètent la mentalité opportuniste de certains acteurs face à la vague technologique. Un professionnel de l’industrie cinématographique a confié au Daily Economic News que, dans un contexte de compétition accrue sur le marché des courts-métrages, certaines sociétés de production privilégient la “théorie du seul flux” et n’hésitent pas à “tricher” en insérant le visage ou la voix de stars dans leurs œuvres pour attirer l’attention. “Cela perturbe l’industrie et le marché, et doit être fermement rejeté.”
Plusieurs experts de l’industrie et du droit ont indiqué que face aux défis de l’IA, la défense des “visages et voix” des acteurs doit nécessiter une action concertée.
Deng Yile appelle à renforcer la régulation de toute la chaîne de la synthèse profonde par IA. Elle souligne que la difficulté à éradiquer la violation de la voix réside dans l’opacité des données d’entraînement et l’absence d’enregistrement des modèles. Elle propose d’établir des règles de consentement éclairé pour la collecte de données, d’imposer l’enregistrement et la labellisation des outils d’IA à usage commercial, et de mettre en place une gestion proactive pour réduire la charge de la responsabilité a posteriori. La création d’un mécanisme de plainte efficace, avec des procédures rapides de retrait et de traçabilité, est également essentielle.
Au niveau industriel et individuel, la prévention en amont et la défense en aval doivent être combinées. Jia Yuqian recommande que les acteurs précisent dans leurs contrats avec les partenaires qu’ils ne peuvent pas utiliser leur voix pour l’entraînement, la synthèse ou le clonage sans autorisation, et qu’ils intègrent des filigranes ou autres techniques pour assurer la traçabilité.
Par ailleurs, elle souligne que, outre la voie judiciaire, la méthode la plus rapide et économique pour faire respecter ses droits est la coopération des plateformes pour signaler et retirer rapidement les contenus illicites. La mobilisation collective de l’industrie, les plaintes administratives et les déclarations publiques peuvent aussi renforcer la protection, en informant le public des violations.
Journaliste | Song Xinyue
Édition | Chen Kemin, Yang Jun, Du Hengfeng
Relecture | Cheng Peng
|Daily Economic News nbdnews Article original|
|Interdiction de reproduction, de copie, de miroir ou d’utilisation sans autorisation|
Daily Economic News