Anthropic processa o governo de Trump: Claude AI listado como “risco na cadeia de abastecimento”, a controvérsia sobre a política de inteligência artificial dos EUA aumenta

GateNews

10 de março de 2024, notícia: a empresa de inteligência artificial Anthropic processou o governo dos EUA na Corte Federal da Califórnia, alegando que foi alvo de “retaliação ilegal” após a recusa de abrir o uso ilimitado de tecnologia ao exército. A ação judicial centra-se na decisão do governo de incluí-la na lista de “risco na cadeia de abastecimento”, um rótulo geralmente usado para empresas com ligações a forças estrangeiras hostis, sendo esta a primeira vez que tal classificação é aplicada a uma empresa de tecnologia americana.

De acordo com os documentos do processo, o Departamento de Defesa dos EUA incluiu oficialmente a Anthropic na lista de risco na cadeia de abastecimento em 3 de março. A decisão foi aprovada pelo Secretário de Defesa, Pete Hegseth, e significa que todas as empresas ou indivíduos que tenham negócios com o exército americano estão proibidos de colaborar comercialmente com a Anthropic. A Anthropic afirma que essa medida carece de base legal e viola a proteção constitucional à liberdade de expressão das empresas.

O ponto central da controvérsia é a restrição ao uso do sistema de inteligência artificial Claude, desenvolvido pela Anthropic. A empresa afirma que seus contratos com o governo sempre especificaram que a tecnologia não poderia ser usada em armas autônomas letais ou para vigilância em massa de cidadãos americanos. A Anthropic diz que o Pentágono solicitou a remoção dessas restrições, mas a empresa recusou por motivos de segurança e ética.

Na ação, a Anthropic destaca que o Claude nunca foi testado para fins militares de destruição e que não pode garantir que o sistema funcione de forma segura e confiável nesses cenários. A denúncia aponta que, após o governo aceitar as restrições, o então presidente Donald Trump pediu às agências federais que parassem de usar a tecnologia Claude, o que caracteriza uma retaliação evidente.

Além do Departamento de Defesa, a ação inclui como réus o Departamento do Tesouro e seu secretário Scott Bessent, o Departamento de Estado e o secretário de Estado Marco Rubio, entre 17 órgãos e funcionários do governo.

Ao mesmo tempo, mais de 30 pesquisadores de IA de empresas como OpenAI e Google enviaram pareceres ao tribunal apoiando a ação da Anthropic, incluindo Jeff Dean, chefe de ciência do Google. Esses especialistas afirmam que, se o governo punir empresas líderes em IA por questões de restrições tecnológicas, isso pode afetar a competitividade dos EUA na pesquisa e na indústria de inteligência artificial a longo prazo.

Este caso é visto como um conflito jurídico importante entre ética na IA e as necessidades de segurança nacional, podendo influenciar profundamente as futuras regras de uso de IA no setor militar.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário