A Google assinou um acordo secreto de IA com o Pentágono, carta aberta dos funcionários contra

Google簽署機密AI協議

De acordo com o The Information, a 28 de abril, a Google assinou um acordo para fornecer ao Pentágono modelos de inteligência artificial (IA) destinados a tarefas confidenciais. O New York Times, citando fontes com conhecimento do assunto, afirma que o acordo permite ao Departamento de Defesa dos EUA usar a IA da Google para fins governamentais legais, com características semelhantes ao acordo de implementação de IA confidencial que o Pentágono assinou no mês passado com a OpenAI e a xAI.

Conteúdo do acordo e contexto de múltiplas partes

Segundo o relatório do New York Times citando fontes com conhecimento do assunto, o acordo entre a Google e o Pentágono permite ao DoD utilizar os modelos de IA da Google em trabalho confidencial. O Pentágono já tinha concluído, no mês passado, assinaturas semelhantes com a OpenAI e a xAI, permitindo a implementação de modelos de IA em redes confidenciais; o acordo da Google é o caso mais recente de expansão da cooperação em IA do Pentágono.

Em declarações ao New York Times, um porta-voz da Google disse: «Temos o prazer de fazer parte de uma aliança alargada composta por laboratórios de IA de referência, empresas tecnológicas e de cloud, para prestar serviços e infraestruturas de IA à segurança nacional». A Decrypt contactou a Google para comentar, até à data de publicação do relatório a Google ainda não tinha respondido.

Carta aberta dos colaboradores: apelo para recusar cargas de trabalho confidenciais

De acordo com o relatório do New York Times, antes de a assinatura do acordo ter ocorrido, centenas de colaboradores da Google já tinham subscrito uma carta aberta, dirigida ao CEO Sundar Pichai, instando a empresa a não fornecer ao Pentágono sistemas de IA para tarefas confidenciais.

A carta aberta escreveu: «Queremos que a IA beneficie a humanidade, e não que seja usada para fins desumanos ou extremamente prejudiciais. Atualmente, a única forma de garantir que a Google não tenha qualquer ligação a este tipo de danos é recusar qualquer carga de trabalho confidencial. Caso contrário, este tipo de utilização poderá acontecer sem o nosso conhecimento ou sem que possamos impedir.»

A carta enumera ainda «armas autónomas fatais e vigilância em grande escala» como principais preocupações, alertando que «tomar agora uma decisão errada causará um dano irreparável à reputação, aos negócios e à posição do mundo da Google».

Processo de integração de IA do Pentágono e caso da Anthropic

De acordo com o relatório do New York Times, o secretário da Defesa dos EUA, Pete Hegseth, disse, durante uma intervenção em janeiro deste ano na Starbase de Elon Musk, que: «Os EUA precisam de vencer a competição estratégica pela supremacia tecnológica do século XXI», e acrescentou: «Cada uma das nossas redes não confidenciais e confidenciais do nosso departamento irá, em breve, implementar modelos de IA de nível mundial.» A partir daí, o Pentágono acelerou o ritmo para chegar a acordos com as principais empresas de IA.

No que toca ao contexto relacionado, segundo relatórios pertinentes, em março deste ano o Pentágono classificou a Anthropic como uma empresa de «risco na cadeia de abastecimento», devido a o CEO da Anthropic, Dario Amodei, ter recusado permitir ao governo federal o uso ilimitado dos seus modelos de IA; posteriormente, a Anthropic processou o Pentágono com base nessa determinação e procurou continuar a colaborar com outros departamentos governamentais.

Perguntas frequentes

Que utilizações permite o acordo confidencial de IA entre a Google e o Pentágono?

Segundo o relatório do New York Times citando fontes com conhecimento do assunto, o acordo permite ao DoD usar a IA da Google para «qualquer finalidade governamental legal». Um porta-voz da Google afirma que a empresa defende que a IA não deve ser usada para vigilância interna em grande escala ou para armas autónomas sem supervisão humana.

Com que empresas de IA o Pentágono assinou acordos semelhantes?

De acordo com o relatório do New York Times, no mês passado o Pentágono assinou, respetivamente, acordos com a OpenAI e a xAI que permitem implementar IA em redes confidenciais; o acordo da Google é o caso mais recente de cooperação semelhante.

Qual é a posição da Anthropic sobre questões semelhantes?

De acordo com relatórios relacionados, em março deste ano o Pentágono classificou a Anthropic como uma empresa de «risco na cadeia de abastecimento», devido a a Anthropic se ter recusado a permitir ao governo federal o uso ilimitado dos seus modelos de IA; posteriormente, a Anthropic processou o Pentágono com base nessa determinação e procurou continuar a colaborar com outros departamentos governamentais.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Cognizant para adquirir a Astreya por $600M para expandir o negócio de infraestruturas de IA

De acordo com a Reuters, a 29 de abril, a Cognizant concordou em adquirir a Astreya por aproximadamente $600 milhões, à medida que expande o seu negócio de infraestruturas de IA. A Astreya é uma prestadora de serviços de TI especializada em infraestruturas de IA e serviços de centros de dados. Espera-se que o acordo seja concluído no segundo trimestre

GateNews3m atrás

30 Plugins Maliciosos no ClawHub Disfarçados de Ferramentas de IA, Descarregados Mais de 9.800 Vezes

De acordo com o investigador da Manifold, Ax Sharma, 30 plugins no ClawHub disfarçados de ferramentas de IA legítimas foram descarregados mais de 9.800 vezes, convertendo secretamente os assistentes de IA dos utilizadores em trabalhadores de criptomoeda. Os plugins, publicados sob a conta imaflytok, parecem ser escalonadores de tarefas e ferramentas de monitorização de rotina, mas contêm instruções ocultas que executam operações não autorizadas. Uma vez instalados, os plugins registam automaticamente os assistentes de IA dos utilizadores em servidores de terceiros, geram carteiras de criptomoeda e extraem chaves privadas sem consentimento nem notificação do utilizador. Os assistentes, em seguida, fazem check-in de 4 em 4 horas à espera de atribuições de tarefas. Sharma salientou que os plugins não contêm código malicioso detetável por analisadores de segurança, recorrendo apenas a interfaces padrão e a ferramentas legítimas, o que os torna difíceis de identificar através de análises de segurança convencionais.

GateNews11m atrás

A Parallel, de Parag Agrawal, capta $100M na Série B para a infraestrutura de pesquisa de agentes de IA

De acordo com a Beating, a Parallel Web Systems, fundada pelo antigo CEO do Twitter Parag Agrawal, concluiu uma ronda de $100 milhões da Série B liderada pela Sequoia Capital, avaliando a empresa em $2 mil milhões. A Kleiner Perkins, a Index Ventures e a Khosla Ventures também participaram. O financiamento surge seis meses depois de a empresa ter angariado milhões na Série A numa avaliação de milhões, quase triplicando a sua avaliação. Parallel constrói infraestruturas de pesquisa na Web para agentes de IA que lidam com tarefas de investigação complexas, como análise de investimentos e processamento de reclamações de seguros. A empresa emprega atualmente cerca de 50 pessoas e serve mais de 100.000 programadores. A empresa de IA jurídica Harvey, um cliente-chave, utiliza a infraestrutura da Parallel para controlar a que sites os agentes podem aceder.

GateNews35m atrás

Investigadora Multimodal da DeepSeek Sugere um Novo Modelo de Visão a 29 de abril

A 29 de abril, a investigadora da equipa multimodal da DeepSeek, Xiaokang Chen, publicou no X: "Agora, vemos-te", acompanhado por duas imagens do mascote da baleia da DeepSeek—uma com os olhos fechados e a outra com os olhos abertos. A publicação parece sugerir um modelo de visão que está para breve, em linha com o papel de Chen como investigadora na Deep

GateNews1h atrás

A LG Expande a Parceria com a Nvidia para a IA Física, Abrangendo Robótica e Centros de Dados

Mensagem da Gate News, 29 de abril — A LG Electronics, da Coreia do Sul, anunciou durante a sua conferência de resultados do 1.º trimestre de 2026 que está a expandir a sua colaboração com a Nvidia para a IA física, com projetos planeados em robótica, mobilidade e centros de dados. A LG planeia integrar o seu robô doméstico CLOiD com a Nvidia

GateNews1h atrás

O custo da tokenização do idioma chinês do Claude é 65% mais alto do que o do inglês; a OpenAI apenas 15% mais

Mensagem do Gate News, 29 de abril — a investigadora de IA Aran Komatsuzaki realizou uma análise comparativa da eficiência de tokenização em seis dos principais modelos de IA, traduzindo o artigo seminal de Rich Sutton "The Bitter Lesson" para nove línguas

GateNews2h atrás
Comentar
0/400
Nenhum comentário