Os editores da Wikipedia adotaram medidas para restringir o uso de inteligência artificial na plataforma, numa atualização recente de política que proíbe o uso de grandes modelos de linguagem para escrever ou reescrever artigos.
A nova diretriz reflete a preocupação crescente na comunidade da Wikipedia de que textos gerados por IA podem conflitar com os padrões da plataforma, especialmente em relação à verificabilidade e às fontes confiáveis.
“O texto gerado por grandes modelos de linguagem muitas vezes viola várias das políticas centrais de conteúdo da Wikipedia”, afirma a atualização da política. “Por essa razão, o uso de LLMs para gerar ou reescrever o conteúdo dos artigos é proibido, salvo nas exceções abaixo.”
A política ainda permite o uso limitado de ferramentas de IA, incluindo sugestões de edições básicas ao próprio texto do editor, desde que o sistema não introduza informações novas. No entanto, os editores são aconselhados a revisar cuidadosamente essas sugestões.
Embora a nova política não mencione penalidades pelo uso de conteúdo gerado por IA, de acordo com as diretrizes da Wikipedia sobre divulgação, a repetição do uso indevido configura um “padrão de edição disruptiva” e pode levar a um bloqueio ou banimento. A Wikipedia oferece aos editores um caminho para reativar suas contas após um processo de apelação.
“Os bloqueios podem ser revertidos com o acordo do administrador que aplicou o bloqueio, por uma intervenção de outros administradores caso o bloqueio tenha sido claramente injustificado, ou (em casos muito raros) mediante apelação ao Comitê de Arbitragem”, afirmou a Wikipedia.
Segundo Emily M. Bender, professora de linguística na Universidade de Washington, alguns usos de modelos de linguagem em ferramentas de edição podem ser razoáveis, mas estabelecer uma fronteira clara entre editar e gerar texto pode ser difícil.
“Uma das coisas que você pode fazer com um modelo de linguagem é construir um corretor ortográfico muito bom, por exemplo”, disse Bender ao Decrypt. “Acho que é razoável dizer que é aceitável usar um corretor ortográfico nas edições. E, se você estiver usando uma ferramenta de nível superior, um corretor gramatical, isso também pode ser aceitável.”
Bender afirmou que o desafio surge quando os sistemas vão além de corrigir gramática e começam a alterar ou gerar conteúdo, observando que grandes modelos de linguagem carecem do tipo de responsabilidade que os contribuintes humanos trazem para projetos colaborativos de conhecimento.
“Usar grandes modelos de linguagem para produzir texto sintético é uma propriedade fundamental desses sistemas: eles não têm responsabilidade, nem conexão com o que alguém acredita ou defende”, explicou. “Quando falamos, baseamos nossas palavras no que acreditamos e pelo que somos responsáveis, não em uma noção objetiva de verdade. E isso não existe nos grandes modelos de linguagem.”
Bender também alertou que o uso generalizado de edições geradas por IA pode afetar a reputação do site.
“Se as pessoas simplesmente tomarem atalhos e criarem algo que pareça uma edição ou artigo da Wikipedia e colocarem lá, isso diminui o valor e a reputação geral do site”, afirmou.
Joseph Reagle, professor associado de estudos de comunicação na Northeastern University, que estuda a cultura e governança da Wikipedia, disse que a resposta da comunidade reflete preocupações antigas sobre precisão e fontes.
“A Wikipedia está cautelosa com textos gerados por IA”, disse Reagle ao Decrypt. “Eles levam a sério as caracterizações precisas do que fontes confiáveis afirmam sobre um tópico. A IA tem limitações sérias nesse aspecto, como alegações ‘alucinatórias’ e fontes fabricadas.”
Reagle afirmou que as políticas centrais da Wikipedia também moldam a visão dos editores sobre ferramentas de IA, observando que muitos grandes modelos de linguagem foram treinados com conteúdo da própria Wikipedia.
Em outubro, a Fundação Wikimedia anunciou que as visitas humanas à Wikipedia caíram cerca de 8% ao ano, à medida que motores de busca e chatbots fornecem respostas diretamente em suas plataformas, em vez de direcionar os usuários ao site.
Em janeiro, a Fundação Wikimedia anunciou acordos com empresas de IA, incluindo Microsoft, Google, Amazon e Meta, permitindo o uso de material da Wikipedia através do seu produto Enterprise, um serviço comercial voltado para a reutilização em larga escala do seu conteúdo.
“Embora o uso do conteúdo da Wikipedia seja permitido pelas licenças da Wikipedia, ainda há alguma antipatia entre os wikipedistas em relação a serviços que apropriando-se do conteúdo das comunidades impõem demandas indesejadas para lidar com o excesso de ‘resíduos’ de IA”, afirmou Reagle.
Apesar da proibição do uso de LLMs, a Wikipedia permite que ferramentas de IA traduzam artigos de outras edições linguísticas para o inglês, desde que os editores verifiquem o texto original.
A política também alerta os editores para não dependerem apenas do estilo de escrita para identificar conteúdo gerado por IA, devendo focar na conformidade do material com as políticas centrais da Wikipedia e no histórico de edição do contribuinte.
“Alguns editores podem ter estilos de escrita semelhantes aos de LLMs”, diz a atualização. “Mais evidências do que apenas sinais estilísticos ou linguísticos são necessárias para justificar sanções, sendo melhor considerar a conformidade do texto com as políticas centrais de conteúdo e as edições recentes do próprio editor.”