Anthropic processa o governo dos EUA por lista negra de IA relacionada com disputa de uso militar

robot
Geração de resumo em curso

A desenvolvedora de inteligência artificial Anthropic entrou com uma ação contra várias agências do governo dos EUA, acusando o governo federal de colocar ilegalmente a sua tecnologia na lista negra após a empresa se recusar a permitir certos usos militares dos seus sistemas de IA.

Resumo

  • A Anthropic processou várias agências dos EUA, alegando retaliação após recusar certos usos militares da sua IA.
  • A disputa centra-se nas restrições contra armas autónomas e vigilância em massa usando os modelos de IA Claude da empresa.
  • A ação judicial desafia uma diretiva federal que interrompeu o uso governamental da tecnologia da Anthropic e rotulou a empresa como um risco na cadeia de abastecimento de segurança nacional.

A queixa, apresentada no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, busca uma declaração e uma injunção contra um amplo grupo de entidades e funcionários federais, incluindo os Departamentos de Guerra, Tesouro, Estado e Segurança Interna, bem como o Federal Reserve e a Securities and Exchange Commission.

A Anthropic alega que o governo retaliou contra a empresa após ela se recusar a permitir que a família de modelos de IA, conhecida como Claude, fosse usada para guerra autónoma letal ou vigilância em massa dos americanos.

De acordo com a queixa, as tensões aumentaram após os funcionários do governo exigirem que a Anthropic removesse essas restrições e permitisse ao Departamento de Guerra fazer “todo uso legal” da tecnologia. A empresa afirmou que concordou em ampliar a cooperação, mas manteve as suas duas principais limitações de segurança.

A disputa culminou numa diretiva de Donald Trump, ordenando às agências federais que cessassem imediatamente o uso da tecnologia da Anthropic, seguida por uma decisão do Departamento de Guerra de rotular a empresa como um “Risco na Cadeia de Abastecimento para a Segurança Nacional”.

A designação proibiu os contratantes militares e parceiros de fazer negócios com a Anthropic, efetivamente excluindo a empresa da cadeia de fornecimento de defesa. Várias agências posteriormente interromperam contratos ou instruíram os funcionários a parar de usar os sistemas de IA da empresa.

A Anthropic argumenta que essas ações violam a Primeira Emenda, a Lei de Procedimento Administrativo e as proteções constitucionais de devido processo. A empresa afirma que as medidas foram tomadas em retaliação por expressar preocupações sobre a segurança e confiabilidade dos sistemas de IA usados em armas autónomas e vigilância em massa.

A queixa afirma que as ações do governo já levaram ao cancelamento de contratos e podem colocar em risco centenas de milhões de dólares em negócios de curto prazo, além de prejudicar a reputação e as relações comerciais da empresa.

A Anthropic pede ao tribunal que declare as ações do governo ilegais e bloqueie a aplicação das diretivas enquanto a disputa estiver em julgamento.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar