*Dados atualizados pela última vez: 2026-04-17 16:14 (UTC+8)
Em 2026-04-17 16:14, o Anthropic (ANTHROPIC) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, ANTHROPIC esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.
Estatísticas principais de ANTHROPIC
Saiba mais sobre Anthropic (ANTHROPIC)
Artigos Gate Learn
As 72 horas da crise de identidade da Anthropic
Em apenas setenta e duas horas, a Anthropic viu-se confrontada com um ultimato do Pentágono, acusações públicas de Elon Musk e a retirada dos seus próprios compromissos de segurança. Da recusa em criar armas militares autónomas à revisão do RSP 3.0 e ao abandono da linha vermelha "pause training", esta empresa—reconhecida como líder em "IA segura"—enfrenta agora um crescente desfasamento entre a sua imagem e a realidade operacional. Este artigo explora as dinâmicas políticas, as pressões de valorização e o desmoronar do prémio narrativo de segurança que alimentam esta crise de identidade.
2026-03-05
Anthropic "Corta" Windsurf, Programação de IA Torna-se "Guerra por Procuração" Entre Gigantes da IA
A aquisição da plataforma de programação de IA Windsurf pela OpenAI causou alvoroço na indústria, enquanto a cessação do fornecimento do modelo Claude pela Anthropic à Windsurf intensificou ainda mais a concorrência no mercado.
2025-06-11
Fuga do código-fonte do Claude Code: Profunda análise da indústria—A visão da Anthropic ultrapassa largamente o conceito de um mero assistente de programação IA
O incidente de fuga do código-fonte do Claude Code evidencia algo mais do que um erro técnico isolado—revela antecipadamente a estratégia de produto da Anthropic, assente em operações em segundo plano, execução automatizada, colaboração multiagente e automatização de permissões. Este artigo analisa, numa ótica profissional, os caminhos prováveis que a Anthropic poderá trilhar com o Claude Code.
2026-04-02Blogues
Quantos modelos de linguagem de grande escala de IA foram integrados pelo GateRouter? Dados mais recentes de abril de 2026
A partir de 7 de abril de 2026, o GateRouter integrou-se oficialmente com mais de 20 modelos de IA de referência, abrangendo os principais fornecedores globais de IA, como OpenAI, Anthropic, Google, xAI e DeepSeek.
2026-04-07
Desvendar o Debate sobre Ética e Soberania na IA: Perspetivas do Setor por Detrás da Recusa da Anthropic ao Departamento de Defesa
A Anthropic, uma empresa de inteligência artificial, optou por abdicar de um contrato no valor de 200 milhões $ em vez de permitir ao Departamento de Defesa dos EUA acesso irrestrito aos seus modelos.
2026-02-28
Perguntas Frequentes sobre Anthropic (ANTHROPIC)
Qual é o preço das ações de Anthropic (ANTHROPIC) hoje?
Quais são os preços máximo e mínimo das últimas 52 semanas para Anthropic (ANTHROPIC)?
Qual é o índice preço-lucro (P/L) de Anthropic (ANTHROPIC)? O que indica este valor?
Qual é a capitalização de mercado de Anthropic (ANTHROPIC)?
Qual é o lucro por ação (EPS) trimestral mais recente de Anthropic (ANTHROPIC)?
Deve comprar ou vender Anthropic (ANTHROPIC) agora?
Que fatores podem influenciar o preço das ações da Anthropic (ANTHROPIC)?
Como comprar ações da Anthropic (ANTHROPIC)?
Aviso de Risco
Isenção de responsabilidade
Outros mercados de negociação
Últimas Notícias Anthropic (ANTHROPIC)
A Sequoia Capital angaria $7 mil milhões para um novo fundo liderado por Alfred Lin e Pat Grady
Mensagem da Gate News, 17 de abril — A Sequoia Capital angariou aproximadamente $7 mil milhões para um novo fundo sob a co-gestão de Alfred Lin e Pat Grady, assinalando o primeiro grande levantamento de fundos da firma sob a sua liderança. O capital destina-se a apoiar grandes empresas privadas, particularmente startups de IA, incluindo a OpenAI e a Anthropic, que exigem avultados gastos em infraestruturas de computação. O fundo de $7 mil milhões tem cerca do dobro do tamanho do fundo de 3,4 mil milhões de dólares que a Sequoia levantou em 2022, proporcionando significativamente mais capital para alocar no sector de IA intensivo em capital. Este levantamento de fundos reflecte uma mudança estratégica na Sequoia. A firma historicamente evitou financiar concorrentes directos dentro da mesma categoria — em 2020, abdicou de um investimento de $21 milhões na empresa de pagamentos Finix para evitar conflitos com a empresa da carteira Stripe. Hoje, a Sequoia detém participações em empresas concorrentes de IA, incluindo a OpenAI e a xAI (, empreendimento de IA de Elon Musk), sinalizando uma nova abordagem à construção da carteira na era da IA.
2026-04-17 01:13A Anthropic lança o Claude Opus 4.7 com salvaguardas de cibersegurança
Mensagem da Gate News, 17 de abril — A Anthropic anunciou o Claude Opus 4.7, um modelo de IA com salvaguardas concebidas para bloquear pedidos de cibersegurança de alto risco. O lançamento baseia-se no Claude Opus 4.6, apresentado em fevereiro, e precede uma implementação mais ampla dos modelos mais avançados da classe Mythos da Anthropic. O Mythos Preview, apresentado no início deste mês, continua a ser mais capaz do que o Opus 4.7, mas está atualmente disponível apenas para um conjunto limitado de empresas através do Project Glasswing, o programa de cibersegurança da Anthropic. O Opus 4.7 proporciona melhorias significativas nos fluxos de trabalho agentic e nas capacidades de visão. O desempenho na codificação autónoma subiu para 64.3% no SWE-bench Pro, um benchmark amplamente utilizado para tarefas de engenharia de software, face aos 53.4% da versão anterior. O tratamento de imagens passa a suportar mais do que o triplo da resolução, com a precisão da acuidade visual a melhorar de 54.5% para 98.5% em testes standard. Foram implementadas limitações intencionais de cibersegurança durante o treino; no CyberGym, um benchmark de desempenho em cibersegurança, o Opus 4.7 obteve 73.1%, abaixo dos 83.1% do Mythos Preview. A Anthropic restringiu o Mythos Preview na sequência de testes pré-lançamento que revelaram milhares de vulnerabilidades de alta criticidade, incluindo uma falha no OpenBSD não detetada durante 27 anos. Investigadores de segurança a conduzir investigação de vulnerabilidades, testes de penetração ou exercícios de red-team podem candidatar-se ao Programa de Verificação Cibernética da Anthropic para obter acesso defensivo sem recusa predefinida. O feedback das salvaguardas do Opus 4.7 irá informar futuros lançamentos de modelos.
2026-04-17 00:52Associação da Indústria de Valores Mobiliários alerta que a IA Mythos representa risco para a base de dados de acompanhamento do mercado da SEC
Mensagem da Gate News, 17 de abril — A (SIFMA), Securities Industry and Financial Markets Association, enviou ontem uma carta ao Secretário do Tesouro dos EUA, Bessent (16 de abril), instando à tomada de medidas para proteger os investidores americanos dos riscos de cibersegurança colocados pelo modelo de inteligência artificial Mythos da Anthropic para o sistema do Consolidated Audit Trail (CAT) da Securities and Exchange Commission. A SIFMA afirmou que o Mythos poderia permitir que maus agentes atacassem a base de dados do CAT, potencialmente facilitando o roubo de identidade em larga escala, expondo carteiras individuais de negociação e amplificando riscos financeiros sistémicos. A associação apelou a Bessent para que suspendesse imediatamente a recolha, na base de dados, da informação de identificação pessoal de traders de retalho e exigiu a destruição dos dados de negociação pessoais já recolhidos pelo CAT. O sistema CAT tem sido utilizado pela SEC para vigilância do mercado e para a investigação de atividades de negociação suspeitas.
2026-04-17 00:22Governo dos EUA prepara-se para disponibilizar o modelo de IA Mythos da Anthropic a agências federais
Mensagem da Gate News, 17 de abril — O governo dos EUA está a preparar-se para tornar o modelo de IA Mythos da Anthropic disponível para as principais agências federais, de acordo com um memorando analisado pela Bloomberg News. Gregory Barbaccia, o diretor de informação federal do White House Office of Management and Budget, informou os responsáveis dos ministérios do Gabinete a 14 de abril que a OMB está a preparar proteções para permitir que as agências comecem a utilizar a ferramenta de IA cuidadosamente guardada. A medida surge num contexto de preocupações de que a Mythos possa aumentar de forma acentuada o risco de cibersegurança caso seja utilizada de forma inadequada. A Anthropic limitou o lançamento do modelo a um grupo selecionado de empresas de tecnologia e instituições financeiras, instando-as a avaliarem as suas vulnerabilidades de cibersegurança. O Departamento do Tesouro tem procurado acesso à Mythos para detetar falhas de software nos seus próprios sistemas. No dia em que a Anthropic divulgou publicamente a existência da Mythos, o secretário do Tesouro, Scott Bessent, e a presidente do Sistema da Reserva Federal, Jerome Powell, reuniram-se com líderes de Wall Street para incentivá-los a utilizar o modelo para testes de cibersegurança. A iniciativa sinaliza o interesse contínuo do governo na Anthropic apesar de tensões anteriores. O Pentágono declarou a Anthropic uma ameaça à cadeia de abastecimento em 2024 devido a disputas sobre salvaguardas de IA, mas a Anthropic obteve em março uma ordem judicial que bloqueia uma proibição do uso governamental da sua tecnologia. Barbaccia escreveu no e-mail que o governo está a "trabalhar em estreita colaboração com fornecedores do modelo, outros parceiros da indústria e a comunidade de inteligência para garantir que estão em vigor as diretrizes e salvaguardas apropriadas" antes de, potencialmente, libertar uma versão modificada às agências.
2026-04-16 04:31A equipa da OpenAI, Anthropic e Google une-se para combater a destilação de modelos de IA por concorrentes chineses
Mensagem de notícias da Gate, 16 de abril — A OpenAI, a Anthropic e a (subsidiária da Alphabet) da Google iniciaram uma colaboração para contrariar os esforços de concorrentes chineses para extrair resultados de modelos avançados de IA dos EUA, a fim de melhorar as suas próprias capacidades, segundo a Bloomberg. As três empresas estão a partilhar informação através do Frontier Model Forum, uma organização do setor sem fins lucrativos cofundada pela OpenAI, Anthropic, Google e Microsoft em 2023. A iniciativa tem como objetivo identificar tentativas de destilação de dados adversariais que violem os termos de serviço. A destilação de dados refere-se a técnicas utilizadas para replicar o desempenho de modelos avançados de IA através da análise dos seus resultados, permitindo que os concorrentes desenvolvam sistemas comparáveis sem acesso direto à tecnologia proprietária.





































































































































































































































































