Recentemente, Sam Altman anunciou que a OpenAI celebrou um acordo de parceria com o Departamento de Defesa dos Estados Unidos para implementar os seus modelos de IA em ambientes cloud classificados. O acordo integra princípios fundamentais, como “proibir a vigilância em larga escala nos Estados Unidos” e “garantir a responsabilidade humana pelo uso da força”. Embora esta colaboração seja apresentada como uma iniciativa entre setor privado e Estado, representa, na verdade, a integração formal da inteligência artificial no centro dos sistemas de segurança nacional.

Fonte da imagem: https://x.com/sama/status/2027578652477821175
Este desenvolvimento vai além da simples implementação técnica — marca um ponto de viragem na arquitetura institucional, nas dinâmicas de poder e na estrutura futura da sociedade.
Nos últimos anos, os grandes modelos de IA foram utilizados sobretudo em aplicações de consumo, serviços empresariais e investigação científica. A sua implementação em redes de defesa classificadas assinala três mudanças fundamentais:
Altman salientou dois princípios essenciais:
À primeira vista, isto demonstra uma postura proativa das tecnológicas na definição de limites éticos. Porém, a verdadeira questão é: quando a IA estiver profundamente integrada nas estruturas de segurança nacional, como serão estes princípios interpretados e aplicados em cenários complexos?
A história demonstra que, depois de a tecnologia ser integrada em sistemas estratégicos nacionais, a sua trajetória de desenvolvimento tende a transformar-se. As exigências de segurança, de eficiência e a pressão competitiva podem, gradualmente, redefinir os limites estabelecidos.
Atualmente, os grandes modelos de IA funcionam como sistemas de previsão probabilística. À medida que evoluem as suas capacidades de raciocínio, ativação de ferramentas e execução de tarefas prolongadas, a IA está a sofrer uma transformação de fundo:
Quando integrados em redes de defesa, os modelos de IA podem desempenhar funções como:
Estas funções não “premem o gatilho” diretamente, mas influenciam o processo de tomada de decisão. Ou seja, mesmo que “os humanos sejam responsáveis pelo uso da força”, a IA pode tornar-se determinante na definição das decisões.
Esta realidade introduz uma mudança de fundo: mesmo que a autoridade de decisão não seja transferida para a IA, a lógica subjacente às decisões dependerá cada vez mais destes sistemas.
No longo prazo, esta dependência pode ter um impacto estrutural mais profundo do que a delegação direta.
O acordo prevê a implementação de salvaguardas técnicas, com modelos exclusivamente em redes cloud e a introdução de Functionally Enhanced Devices (FDE) para garantir a conformidade.
Os objetivos destas medidas são:
O desafio é que as fronteiras dos controlos técnicos mudam frequentemente com a evolução dos requisitos.
Por exemplo:
Em sistemas altamente complexos, os riscos raramente advêm de falhas pontuais, mas sim da acumulação de funcionalidades. Quando os modelos integram dados de vários departamentos, mesmo que cada tarefa seja legal, o efeito agregado pode criar novas dinâmicas de poder.
Assim, as “salvaguardas técnicas” não constituem uma solução definitiva, mas sim uma negociação permanente.
O treino e a implementação da IA exigem imensos recursos computacionais e de dados, conferindo aos grandes modelos vantagens de escala e barreiras de capital. Quando a segurança nacional se torna um cenário de aplicação, esta tendência de concentração é ainda mais acentuada:
Isto significa que o futuro da IA tenderá para um cenário em que as capacidades nucleares serão controladas por poucas entidades.
A abertura tecnológica pode conflituar com a concentração verificada na implementação prática.
Se a IA se tornar infraestrutura nacional, o seu modelo operacional será semelhante ao da eletricidade, telecomunicações ou sistemas de compensação financeira — e não ao dos ecossistemas open-source.

Com base nas tendências atuais, antecipam-se três trajetórias de longo prazo.
Neste cenário, a IA amplifica a cognição humana, sem substituir o poder de decisão.
Este caminho não resulta em perda súbita de controlo, mas transforma gradualmente as estruturas de poder.
Se surgir uma verdadeira inteligência artificial geral (AGI), a produtividade e a capacidade cognitiva poderão transformar-se qualitativamente. No entanto, não há atualmente indícios de que esta fase esteja próxima.
O aumento das capacidades da IA é uma tendência tecnológica, mas o seu rumo depende de quatro variáveis críticas:
Quando tecnológicas e sistemas de defesa colaboram profundamente, a tecnologia transforma-se em ativo estratégico e deixa de ser apenas uma mercadoria de mercado.
A questão não está na colaboração em si, mas em saber:
Se o desenvolvimento institucional não acompanhar a evolução das capacidades tecnológicas, o risco de longo prazo não é a perda de controlo, mas sim a concentração de poder.
A inteligência artificial é hoje um elemento central da competição geopolítica.
Os Estados estão a acelerar iniciativas em:
Neste contexto, a colaboração entre empresas e governos é praticamente inevitável. Recusar a cooperação não travará a corrida tecnológica global.
Assim, a questão não é “se cooperar”, mas “como cooperar”. Se os princípios de segurança forem institucionalizados, transparentes e auditáveis, esta colaboração pode tornar-se responsável. Se os princípios forem apenas declarações, sem mecanismos de supervisão independente, os riscos aumentarão juntamente com as capacidades.
À medida que a IA assume progressivamente funções cognitivas e analíticas, as responsabilidades humanas podem alterar-se:
Trata-se de uma deslocação do centro do poder. O verdadeiro desafio não é saber se as máquinas serão mais inteligentes do que os humanos, mas sim se os humanos estão dispostos a assumir a responsabilidade última. Se o juízo for delegado cada vez mais aos modelos, então, mesmo com “autoridade final de decisão”, as decisões efetivas podem ser orientadas pela tecnologia.
Estes fatores determinarão se a IA será infraestrutura pública ou instrumento de concentração de poder.
Altman afirmou: “O mundo é complexo, caótico e, por vezes, perigoso.” Esta perceção revela a lógica da colaboração: perante a incerteza crescente, os Estados procuram vantagens tecnológicas.
O que realmente importa é isto: a força tecnológica não equivale automaticamente a maturidade institucional. O futuro da IA não é uma progressão linear, mas o resultado da dinâmica entre tecnologia, capital, governo e sociedade. A IA pode tornar-se infraestrutura cognitiva ou amplificador de poder. O seu destino dependerá de como a humanidade conceber regras, alocar responsabilidades e garantir transparência.
A entrada da IA em redes classificadas não é o fim — é apenas o início. O verdadeiro teste será saber se os limites permanecem claros e aplicáveis à medida que as capacidades evoluem.





