Nvidia Aprofunda Controlo no AI em Cloud com Grande Acordo de Chips com AWS

Decrypt

Resumo

  • A AWS planeia implantar cerca de 1 milhão de GPUs Nvidia até 2027.
  • A expansão abrange computação, redes e sistemas para executar IA em escala.
  • Observadores dizem que a crescente procura por inferência está a remodelar a infraestrutura e a competição.

A Nvidia fornecerá à Amazon Web Services um volume massivo de GPUs até 2027, à medida que o fornecedor de cloud aumenta a sua infraestrutura de IA e procura atender à crescente procura. A AWS anunciou no início desta semana que planeia implantar cerca de 1 milhão de GPUs Nvidia como parte da expansão da sua infraestrutura de IA. Um executivo da Nvidia confirmou à Reuters na quinta-feira que a implementação deve estender-se até ao final de 2027. A partir deste ano, em regiões globais de cloud da AWS, será lançada juntamente com a expansão do trabalho com a Nvidia em redes e outras infraestruturas para construir sistemas “capazes de raciocinar, planear e agir autonomamente em fluxos de trabalho complexos”, disse a AWS, referindo-se ao seu trabalho em sistemas de IA agentic.

 A AWS continua a desenvolver chips de IA tanto para treino como para inferência. A colaboração sugere que a procura pode estar a mudar ao longo da pilha de IA, enquanto uma quota crescente de atividade parece estar ligada à execução de modelos em serviços ao vivo. O acordo surge numa altura em que os procuradores dos EUA estão a perseguir um caso alegando que chips Nvidia foram contrabandeados para a China, colocando sob escrutínio renovado o fornecimento global e os controlos da empresa. Desde 2022, os chips mais avançados da Nvidia têm sido controlados de perto como parte de uma estratégia mais ampla dos EUA para limitar o progresso da China em computação avançada e IA.

O desenvolvimento mais próximo de casa de quinta-feira pode quase ampliar essa disparidade. Alterações no ritmo Observadores dizem que a estrutura do acordo oferece pistas sobre onde a procura está a crescer e como a infraestrutura subjacente está a mudar a um ritmo cada vez mais rápido. “A Nvidia está a tornar-se na camada de infraestrutura por baixo dos fornecedores de cloud, não apenas num fornecedor de chips para eles,” disse Dermot McGrath, cofundador do estúdio de estratégia e crescimento ZenGen Labs, à Decrypt. Os chips do acordo são destinados a executar modelos de IA em escala, com foco na redução do custo de uso, afirmou McGrath, observando que a inferência agora representa cerca de dois terços do cálculo de IA, contra cerca de um terço em 2023. Espera-se que o mercado de chips focados em inferência ultrapasse os 50 mil milhões de dólares até 2026, acrescentou, citando estimativas da Deloitte. A AWS pode usar tanto chips Nvidia como os seus próprios nos mesmos sistemas, oferecendo aos clientes mais opções do que os rivais que mantêm os seus fechados, explicou McGrath, acrescentando que esta flexibilidade “é um fator diferenciador”. “Agora a Nvidia faz o mesmo, uma camada abaixo, com redes e arquitetura de racks em vez de um modelo de programação,” afirmou. Os chips de inferência são processadores desenhados para executar modelos de IA treinados em tempo real, sem necessidade de re-treinamento.

A procura por inferência está a “impulsionar compromissos a longo prazo” por mais potência de computação, e a criar laços mais estreitos entre fornecedores de cloud e fabricantes de chips, disse Pichapen Prateepavanich, estratega de políticas e fundadora da empresa de infraestruturas Gather Beyond, à Decrypt. “Os fornecedores de cloud querem independência a longo prazo, mas a curto prazo precisam que a Nvidia permaneça competitiva,” afirmou, notando como isto cria uma dinâmica em que cooperação e competição acontecem ao mesmo tempo. Ainda assim, o controlo sobre a infraestrutura de IA também está a mudar. O que está a acontecer é uma “viragem na infraestrutura,” disse Berna Misa, parceira de negócios na Boardy Ventures, um fundo de investimento liderado por IA, à Decrypt. A Nvidia está a “incorporar toda a sua pilha de computação, redes e inferência dentro dos data centers da AWS, que há anos utilizavam equipamento proprietário,” afirmou. Mas, enquanto a AWS desenvolve os seus próprios chips de IA, isto “não altera os cálculos,” explicou, notando que a inferência depende de múltiplos componentes ao longo da pilha, sendo a Nvidia responsável pela maior parte deles. “Quando estás tão fundo na pilha do cliente, o custo de mudança e a camada de contexto que dela advém tornam-se na defesa natural,” concluiu.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários