xAI vai fornecer enorme poder de computação com GPUs para o Cursor para treinamento de modelo de código de IA

Mensagem do Gate News, 17 de abril — A empresa de IA de Elon Musk, xAI, planeja fornecer poder de computação em grande escala para a startup de ferramentas de programação Cursor, com a expectativa de que a Cursor use milhares de GPUs adquiridas pela xAI de fornecedores como a Nvidia para treinar seu próximo modelo de código de geração, Composer 2.5.

Essa colaboração marca a transição da xAI de uma empresa de pesquisa focada em um único modelo para um papel que abrange serviços de poder computacional, posicionando-se como uma possível alternativa a grandes provedores de serviços em nuvem, incluindo Microsoft, Google, CoreWeave e Nebius. Para a xAI, alugar capacidade de computação pode aliviar os altos custos de construção e operação de data centers, ao mesmo tempo em que fortalece conexões com ecossistemas de desenvolvedores. A Cursor, que possui dados extensos de desenvolvedores, tem valor estratégico à medida que a competição de codificação por IA se intensifica.

A parceria deve aumentar as fontes de receita da xAI e tratar das preocupações dos investidores em relação ao processo de IPO contínuo da SpaceX. A xAI, que concluiu sua aquisição pela SpaceX antes do IPO, permanece em uma fase de investimentos intensos em P&D com perdas operacionais mensais superiores a $300 milhões e perdas líquidas acima de $4 bilhões em 2025. Melhorar a utilização de recursos representa uma prioridade crítica — a taxa atual de utilização de GPUs da xAI no treinamento de modelos está em aproximadamente 11%, bem abaixo do padrão da indústria de 35% a 45%.

A xAI implantou aproximadamente 200.000 GPUs como parte do projeto de data center “Colossus” e planeja expandir para 1 milhão de unidades. A Cursor, que gerou $2 bilhões em receita recorrente anual no mês passado com uma taxa de execução duas vezes maior do que a de três meses anteriores, é avaliada em aproximadamente $50 bilhões em discussões de financiamento contínuo. A startup cresceu e se tornou uma das empresas de maior crescimento da história desde sua fundação, há menos de cinco anos, com aproximadamente 60% da receita proveniente de clientes corporativos.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Claude Opus 4.7 esconde aumento de preços: novo Tokenizer faz o mesmo texto consumir 37–47% mais Tokens, a taxa não muda, mas a fatura fica mais cara

O novo tokenizador da versão 4.7 do Claude Opus da Anthropic divide o mesmo texto em mais tokens, o que faz os custos de entrada e saída aumentarem em 37–47%. Embora as tarifas oficiais não mudem, as empresas precisam verificar as cláusulas contratuais e o monitoramento de custos, porque a atualização do modelo pode levar a estouro de orçamento. Além disso, a falta de transparência chamará a atenção das autoridades reguladoras, tornando-se um novo tema para a indústria de IA.

ChainNewsAbmedia3m atrás

Merz da Alemanha pede à UE que relaxe regulações de IA industrial para impulsionar a produtividade

O chanceler alemão Friedrich Merz pediu que a UE alivie as regulações de IA industrial, garantindo ao mesmo tempo a supervisão do consumidor, conectando isso à iniciativa alemã de €800 bilhões “Feito para a Alemanha” para impulsionar a IA nos setores industriais e reduzir a dependência de tecnologia estrangeira.

GateNews36m atrás

Samsung se Aproxima de Operações na Fábrica do Texas para Produzir Chips de IA da Tesla com Processo de 2nm

A Samsung Electronics realizará uma cerimônia de instalação para sua fábrica no Texas, com o objetivo de fabricar chips de IA da Tesla usando a tecnologia de 2 nanômetros. A instalação, inicialmente atrasada, ganhou impulso após um contrato de US$ 16,5 bilhões com a Tesla para chips de IA.

GateNews47m atrás

Google em conversas com a Marvell para desenvolver chips de IA personalizados; unidade de processamento de memória prevista para 2027

A Google está colaborando com a Marvell Technology para criar dois chips personalizados para aprimorar a eficiência das cargas de trabalho de IA e reduzir a dependência das GPUs da Nvidia. Um chip será uma unidade de processamento de memória, enquanto o outro será uma nova unidade de processamento de tensores para inferência de IA, com os projetos previstos para 2027.

GateNews57m atrás

NSA Usa a Ferramenta de IA Mythos da Anthropic Apesar das Restrições de Cadeia de Suprimentos do Pentágono

A NSA está utilizando a IA Mythos da Anthropic, apesar de preocupações da cadeia de suprimentos do Pentágono, refletindo divisões internas do governo sobre seus benefícios em cibersegurança. A capacidade do modelo de explorar vulnerabilidades de software eleva riscos para o sistema financeiro global, levando a discussões entre líderes do setor financeiro e incentivando os bancos a aprimorarem os testes dos sistemas.

GateNews1h atrás

Realidade dos Agentes de IA do Vale do Silício: desperdício massivo de tokens, integração de sistemas “extremamente caótica”; a previsão de Huang Renxun sobre o “próximo ChatGPT” ainda precisa ser verificada

Em recente conferência em Silicon Valley, vários CEOs de startups de IA comentaram os desafios de uso dos atuais agentes de IA, afirmando que existem dois grandes obstáculos: desperdício de tokens e confusão no sistema. Especialistas apontam que as empresas precisam julgar com mais cautela quando usar modelos de linguagem de grande porte, para evitar desperdício desnecessário de recursos. Além disso, a colaboração entre múltiplos agentes de IA frequentemente causa problemas na transmissão de mensagens e na consistência do estado, indicando que a padronização ainda precisa ser aprimorada. Embora a perspectiva mencionada por Huang Renxun sobre a métrica de tokens como “salário” seja observada, o feedback mostra que isso não equivale a produtividade; seu valor real está no desenho eficaz das tarefas.

ChainNewsAbmedia11h atrás
Comentário
0/400
Sem comentários