O ministro das Finanças dos EUA e o presidente da Reserva Federal convocaram de urgência líderes de topo de Wall Street para abordar alertas sobre o modelo mais recente da Anthropic, Mythos. As autoridades classificaram este modelo como um risco sistémico para o sistema financeiro.
De acordo com a reportagem da Bloomberg, o ministro das Finanças dos EUA, Scott Bessent, e o presidente da Reserva Federal, Jerome Powell, convocaram de urgência na semana passada, em Washington, na sede do Departamento do Tesouro, os principais CEO de bancos de Wall Street para apresentar alertas sobre potenciais riscos de segurança cibernética que o modelo mais recente da empresa de IA, a Anthropic, «Claude Mythos Preview», poderá desencadear.
Entre os líderes bancários presentes na reunião estavam a CEO do Citigroup, Jane Fraser, o CEO do Morgan Stanley, Ted Pick, o CEO do Bank of America, Brian Moynihan, o CEO do Wells Fargo, Charlie Scharf, e o CEO do Goldman Sachs, David Solomon; já o CEO do JPMorgan Chase, Jamie Dimon, não conseguiu comparecer. Estas instituições foram todas listadas pelas autoridades competentes como instituições financeiras de importância sistémica.
A reunião foi presidida pessoalmente pelo ministro das Finanças e pelo presidente da Reserva Federal, sendo vista no setor como um ato invulgar. Nas intervenções anteriores do governo face aos riscos de IA, estas tendiam a limitar-se a grupos de trabalho a nível institucional; agora, a situação escalou para um aviso apresentado diretamente pelos mais altos responsáveis das autoridades financeiras, deixando claro que as ameaças cibernéticas associadas à IA foram classificadas pelas autoridades como um risco sistémico para a estabilidade do sistema financeiro.
De acordo com os materiais técnicos divulgados pela Anthropic no mesmo dia, o Mythos tem a capacidade de identificar e explorar vulnerabilidades em todos os sistemas operativos e navegadores web principais. No modo de teste, o modelo detetou autonomamente milhares de vulnerabilidades zero-day até então desconhecidas (zero-day vulnerabilities), incluindo uma vulnerabilidade que permaneceu latente durante 27 anos no sistema operativo de código aberto orientado para a segurança OpenBSD; além disso, o modelo detetou também uma vulnerabilidade na biblioteca de processamento de vídeo FFmpeg que não foi detetada mesmo após executar 5.000.000 de processos com ferramentas de testes automatizados.
Os investigadores da Anthropic salientam que a capacidade do Mythos de descobrir vulnerabilidades resulta do progresso global do modelo em redação de código, raciocínio e autonomia, e não do treino intencional.
A empresa indicou na sua declaração que «a mesma capacidade que torna o modelo mais eficaz a corrigir vulnerabilidades torna-o igualmente mais eficaz a explorá-las.» Esta afirmação evidencia a natureza dupla do Mythos: a linha entre defesa e ataque quase desaparece perante este tipo de modelo.
Precisamente por ser demasiado poderosa, a Anthropic decidiu não publicar o Mythos para o público, adotando uma estratégia de limitar o acesso, disponibilizando-o apenas a empresas parceiras específicas. A empresa anunciou em simultâneo o arranque de um programa defensivo de segurança cibernética denominado «Project Glasswing», em colaboração com mais de 40 parceiros empresariais, incluindo a AWS, Apple, Cisco, Google, JPMorgan Chase, Microsoft e Nvidia, com o objetivo de detetar e corrigir ativamente vulnerabilidades em software crítico antes de os atacantes avançarem.
Fonte da imagem: X/@AnthropicAI A Anthropic anunciou simultaneamente o arranque de um programa defensivo de segurança cibernética denominado «Project Glasswing»
A Anthropic afirmou: «Dada a força das capacidades do modelo, adotamos uma postura prudente na forma como o divulgamos. Estamos a colaborar com um pequeno grupo de clientes com acesso antecipado para testar o modelo e consideramos que esta é a geração mais transformadora que construímos até agora.»
A empresa revelou ainda que já apresentou briefings aos responsáveis governamentais sobre cenários de aplicação do Mythos para ataque e defesa, e continua em conversações com a Agência dos EUA para a Segurança Cibernética e Infraestruturas (CISA) e com o AI Standards Innovation Center. O foco que o público passa a observar em seguida concentra-se em como é que os organismos reguladores vão definir critérios de revisão semelhantes para a divulgação destes modelos, que medidas defensivas concretas é que as instituições financeiras devem adotar, e se a coordenação entre entidades reguladoras internacionais conseguirá acompanhar a velocidade da evolução tecnológica.
Este artigo foi gerado por um agente de criptografia que compila informação de várias partes, e foi revisto e editado pelo «加密城市»; ainda se encontra na fase de treino, podendo haver desvios de lógica ou erros de informação. O conteúdo é apenas para referência e não deve ser interpretado como aconselhamento de investimento.
Related Articles
DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens
OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria
Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API
Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!
A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores
O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA