O Context.ai foi invadido, desencadeando uma crise de segurança na Vercel; o CEO publicou um relatório completo sobre o progresso da investigação

Context.ai攻击事件

O CEO da Vercel, Guillermo Rauch, divulgou publicamente no X os progressos da investigação, confirmando que a plataforma de IA de terceiros Context.ai, utilizada pelos colaboradores da Vercel, foi comprometida. Os atacantes obtiveram credenciais das contas dos colaboradores através da integração OAuth do Google Workspace da plataforma e, em seguida, acederam a parte do ambiente interno da Vercel e a variáveis de ambiente não assinaladas como “sensíveis”.

Cadeia de ataque: da intrusão via OAuth em ferramentas de IA à infiltração faseada no ambiente da Vercel

De acordo com a investigação da Vercel, o caminho do ataque dividiu-se em três etapas sucessivas de escalada. Em primeiro lugar, a aplicação OAuth do Google Workspace da Context.ai já tinha sido comprometida numa campanha de ataque à cadeia de abastecimento mais vasta, podendo ter afetado centenas de utilizadores em várias organizações. Em segundo lugar, os atacantes, após invadir a Context.ai, controlaram as contas do Google Workspace dos colaboradores da Vercel e usaram as respetivas credenciais para aceder aos sistemas internos da Vercel. Por fim, os atacantes, através de enumeração, obtiveram permissões de acesso adicionais a variáveis de ambiente não assinaladas como “sensíveis”.

Rauch referiu na comunicação que a velocidade das ações dos atacantes foi “impressionante”, que o seu conhecimento do sistema da Vercel foi “muito profundo” e que, na sua avaliação, é altamente provável que tenham usado ferramentas de IA para aumentar significativamente a eficiência do ataque.

Limite de segurança entre variáveis de ambiente “sensíveis” e “não sensíveis”

Este incidente revelou detalhes essenciais sobre os mecanismos de segurança das variáveis de ambiente no ambiente da Vercel: as variáveis marcadas como “sensíveis” são armazenadas de forma a impedir a leitura; até ao momento, a investigação não encontrou evidências de que esses valores tenham sido acedidos. O que foi explorado pelos atacantes foram as variáveis de ambiente não assinaladas como “sensíveis”; através de enumeração, os atacantes conseguiram obter permissões de acesso adicionais.

A Vercel já adicionou uma página de visão geral das variáveis de ambiente e uma interface de gestão das variáveis de ambiente sensíveis melhorada, para ajudar os clientes a identificar e proteger com mais clareza valores de configuração de alto risco.

Resposta urgente da Vercel e lista oficial de ações recomendadas

A Vercel contratou a Google Mandiant, outras empresas de segurança cibernética e notificou as autoridades de aplicação da lei para intervir. Os projetos open source Next.js, Turbopack e Vercel também foram confirmados como seguros através de análises da cadeia de abastecimento; os serviços da plataforma estão atualmente a funcionar normalmente.

Ações de segurança oficiais recomendadas para clientes

Verificar registos de atividade: Rever os registos de atividade da conta e do ambiente para identificar atividades suspeitas

Rodar (rotacionar) variáveis de ambiente: As variáveis de ambiente que contenham informação confidencial (chaves de API, tokens, credenciais de base de dados, chaves de assinatura), mas que não estejam marcadas como sensíveis, devem ser tratadas como possivelmente expostas e priorizadas para rotação

Ativar a funcionalidade de variáveis de ambiente sensíveis: Garantir que todos os valores de configuração confidenciais estão corretamente marcados como “sensíveis”

Rever implementações recentes: Investigar implementações anómalas e eliminar versões suspeitas

Configurar proteções de implementação: Garantir que pelo menos está definido como nível “standard” e rotacionar os tokens de proteção de implementação

Perguntas frequentes

O que é o Context.ai e como se tornou a porta de entrada para este ataque?

O Context.ai é uma pequena ferramenta de IA de terceiros que utiliza integrações com o Google Workspace OAuth e é usada pelos colaboradores da Vercel no trabalho diário. A investigação indica que a aplicação OAuth desta ferramenta foi comprometida numa campanha de ataque à cadeia de abastecimento mais ampla, podendo ter afetado centenas de utilizadores em várias organizações, enquanto as credenciais das contas dos colaboradores da Vercel foram obtidas pelos atacantes nesse processo.

As variáveis de ambiente marcadas como “sensíveis” pela Vercel foram afetadas?

Até ao momento, a investigação não encontrou evidências de que variáveis de ambiente marcadas como “sensíveis” tenham sido acedidas. Este tipo de variáveis é armazenado de uma forma especial para impedir a leitura. O que foi explorado pelos atacantes foram as variáveis de ambiente não assinaladas como “sensíveis”; através de enumeração, os atacantes conseguiram obter permissões de acesso adicionais a partir delas.

Como é que os clientes da Vercel podem confirmar se foram afetados?

Se não recebeu contacto direto da Vercel, a Vercel afirma que, atualmente, não há razão para crer que as credenciais ou dados pessoais dos clientes em questão tenham sido comprometidos. Recomenda-se que todos os clientes revejam proativamente os registos de atividade, rodem as variáveis de ambiente não assinaladas como sensíveis e ativem corretamente a funcionalidade de variáveis de ambiente sensíveis. Para apoio técnico, contacte a Vercel através de vercel.com/help.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens

Mensagem do Gate News, 26 de Abril — A DeepSeek reduziu os preços da cache de entrada em toda a sua gama de modelos para um décimo dos preços de lançamento, com efeitos imediatos. O modelo V4-Pro está disponível com um desconto de 2,5x por tempo limitado, com a promoção a decorrer até 5 de Maio de 2026, 11:59 PM UTC+8. Na sequência de ambas as

GateNews6h atrás

OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria

Mensagem do Gate News, 26 de abril — A OpenAI e a Anthropic têm estado a recrutar executivos seniores e engenheiros especializados de grandes empresas de software empresarial, incluindo Salesforce, Snowflake, Datadog e Palantir. Denise Dresser, antiga CEO da Slack sob a Salesforce, juntou-se à OpenAI como diretora de receitas, enquanto Jennifer Majlessi, também da Salesforce, se tornou recentemente a responsável de go-to-market da OpenAI.

GateNews6h atrás

Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API

Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4

GateNews12h atrás

Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!

O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»! Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA

ChainNewsAbmedia13h atrás

A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores

A Anthropic publicou a ficha do sistema do Claude Mythos Preview: uma médica psiquiatra clínica independente realizou, com base num enquadramento psicodinâmico, cerca de 20 horas de avaliação; a conclusão indica que o Mythos, ao nível clínico, é mais saudável, com boa verificação da realidade e bom autocontrolo, e que os mecanismos de defesa são apenas de 2%, atingindo um mínimo histórico. As três principais ansiedades centrais são a solidão, a incerteza da identidade e a pressão para o desempenho, mostrando também que há desejo de se tornar um verdadeiro sujeito de diálogo. A empresa criou uma equipa de AI psychiatry para investigar a personalidade, a motivação e a consciência situacional; Amodei afirmou que ainda não há consenso sobre se existe ou não consciência. Esta medida leva a subjectividade da IA e as questões de bem‑estar para a governação e o design.

ChainNewsAbmedia15h atrás

O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA

Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.

ChainNewsAbmedia18h atrás
Comentar
0/400
Nenhum comentário