X Alertar contra Pagamentos a Criadores por Vídeos de Guerra AI Não Revelados

Decrypt

Resumo

  • O chefe de produto do X, Nikita Bier, afirmou que criadores que publicarem vídeos de guerra gerados por IA não divulgados perderão o acesso ao programa de partilha de receitas da plataforma por 90 dias.
  • A política visa combater imagens geradas por IA que possam enganar os utilizadores durante tempos de guerra.
  • Investigadores e governos alertaram que deepfakes podem espalhar propaganda e desinformação online.

A plataforma de redes sociais de Elon Musk, X, anunciou que suspenderá criadores do seu programa de partilha de receitas se publicarem vídeos gerados por IA que retratem conflitos armados sem divulgar claramente que o conteúdo foi criado com inteligência artificial. Numa publicação na terça-feira, Nikita Bier, chefe de produto do X, afirmou que a empresa está a revisar as suas políticas de partilha de receitas para manter a autenticidade na linha do tempo da plataforma e “evitar manipulação do programa”. “Durante tempos de guerra, é fundamental que as pessoas tenham acesso a informações autênticas no terreno,” escreveu Bier. “Com as tecnologias de IA de hoje, é trivial criar conteúdos que possam enganar as pessoas.” 

Criadores que violarem a regra perderão o acesso ao programa de partilha de receitas do X por 90 dias, escreveu Bier. Violações repetidas levarão à remoção permanente do programa de monetização. A mudança na política ocorre numa altura em que vídeos gerados por IA alegam mostrar cenas de violência crescente no Médio Oriente após ataques de mísseis pelos EUA, Israel e Irã na semana passada. Na segunda-feira, um vídeo gerado por IA no X, mostrando um ataque aéreo ao Burj Khalifa em Dubai, foi visto mais de 8 milhões de vezes; ao mesmo tempo, outra versão do vídeo foi vista mais de 42.000 vezes no Instagram.

Disparamos 1.800 mísseis contra o Burj Khalifa.

Cada míssil atingiu o alvo. pic.twitter.com/pdfHWhN2D8

— Mojtaba Khamenei (@MojtabaSpoof) 2 de março de 2026

As Nações Unidas alertaram que deepfakes e conteúdos gerados por IA ameaçam a integridade da informação, especialmente em zonas de conflito onde imagens ou vídeos fabricados podem espalhar ódio ou desinformação em grande escala. Essa preocupação foi concretizada durante a invasão da Ucrânia pela Rússia, quando um vídeo deepfake circulou online, parecendo mostrar o presidente ucraniano Volodymyr Zelensky a pedir às tropas ucranianas que se rendessem. Autoridades rapidamente desmentiram o vídeo, e Zelensky posteriormente divulgou uma mensagem a rejeitar a alegação. Segundo Bier, a aplicação da lei dependerá de vários sinais, incluindo publicações que recebam uma Nota Comunitária identificando o vídeo como gerado por IA, juntamente com metadados ou outros indicadores que sugiram que o conteúdo foi produzido usando ferramentas de IA generativa. Ao vincular a aplicação da lei à monetização, a política do X foca especificamente nos incentivos financeiros que os criadores têm para publicar vídeos falsos que geram cliques e visualizações. “Continuaremos a aprimorar as nossas políticas e produtos para garantir que o X seja confiável durante estes momentos críticos,” escreveu Bier.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários