Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Durante a feira CES, a nova arquitetura Rubin da NVIDIA tornou-se o foco das discussões recentes do mercado, além de ser uma grande inovação além da arquitetura MOE, e uma solução feita sob medida para a era do Agentic AI, entre outros tópicos. Após uma análise aprofundada, realmente senti o sabor da "auto-revolução" do Jensen Huang:
1)No passado, a NVIDIA dependia de sua vantagem em hardware GPU, aproveitando o período de bonança em que os principais gigantes de IA estavam comprando loucamente capacidade de cálculo para treinar grandes modelos. Naquela época, a lógica era simples: quem tinha mais placas gráficas podia treinar os melhores modelos.
Mas agora, a guerra de IA mudou do campo de batalha do "poder de cálculo" para o "raciocínio", especialmente com a chegada da era Agentic, onde a IA precisa lidar com raciocínios de alta frequência, múltiplas etapas e contextos extremamente longos.
Neste momento, os modelos têm trilhões de parâmetros, o volume de dados é enorme, e por mais rápido que seja o GPU, se a transferência de dados na memória não for suficiente, o GPU ficará ocioso, formando a "parede de capacidade de armazenamento". Em outras palavras, ter muitas placas gráficas já não resolve o problema; é preciso alta capacidade de memória e largura de banda para suportar. Rubin busca resolver exatamente esse problema.
2)Por isso, o HBM4 de lançamento do Rubin é capaz de suportar a quarta geração de memória de alta largura de banda, chegando a uma largura de banda de 22TB/s. Mas o mais importante é que, combinado com a tecnologia NVLink 6 (com largura de banda de 260TB/s dentro do rack), transforma 72 placas em um "chip gigante" logicamente.
O que isso significa? Antes, ao comprar uma placa gráfica, você adquiria componentes independentes, e a transferência de dados entre elas era como uma entrega que passava por várias estações de trânsito. Agora, com uma interconexão de densidade extremamente alta, os dados fluem entre diferentes GPUs quase sem sentir a distância física, como se 72 trabalhadores não trabalhassem isoladamente, mas compartilhassem um cérebro.
Acredito que essa seja a verdadeira carta na manga do Rubin: não apenas acumular parâmetros de hardware, mas reestruturar o fluxo de dados de todo o sistema.
3)Se o MOE (Arquitetura de Modelo de Especialista Híbrido) foi uma redução de dimensão na estratégia da NVIDIA de competir com empresas emergentes como a DeepSeek, que apostam na "pilha de placas" de forma agressiva, então o Rubin parece ser uma contra-ofensiva estratégica do Jensen Huang. Não se trata mais de competir para ver quem economiza mais placas, mas de reestruturar diretamente o custo de uso da IA. Claro, essa jogada também significa que a NVIDIA está se despedindo do antigo modelo de "pilha de placas" de forma definitiva.
Jensen Huang calcula uma outra conta: para que a era Agentic realmente se implemente em todos os setores, é preciso superar o barreira do custo por token, uma tendência inevitável que a NVIDIA não consegue impedir.
Na visão dele, ao invés de esperar que grandes empresas como Google, Meta e outras desenvolvam seus próprios chips e acabem com o mercado, ou que empresas como DeepSeek revolucionem o mercado de oferta com novos modelos, é melhor ser aquele que toma a iniciativa de quebrar o impasse.
4)A questão é: como a NVIDIA, após sua auto-revolução, deve se posicionar? O caminho é bastante claro: de "vender placas gráficas" para "vender sistemas", de atender poucos grandes clientes para tornar a IA verdadeiramente acessível.
Antes, ao comprar um H100, a NVIDIA ganhava apenas com a venda da placa gráfica. Agora, o Rubin vai te dizer: você precisa comprar um rack completo NVL72 — 72 GPUs, switch NVLink, sistema de resfriamento líquido, gabinete, e até o software necessário, tudo em um pacote.
Jensen Huang também tem um plano bem definido: embora pareça que o custo do hardware em pacote ficou mais alto, ele oferece uma eficiência de raciocínio extrema, reduzindo o custo por unidade de uso de IA para o comprador, sem perder participação de mercado.
Porém, há um porém: essa abordagem também eleva a barreira de entrada para jogadores médios e pequenos. Apenas grandes empresas e provedores de nuvem poderão arcar com ela, o que pode intensificar ainda mais o monopólio de capacidade de cálculo. Diante do cenário atual de competição, isso é uma aposta arriscada, pois se houver problemas na produção em massa do HBM4, alternativas como AMD, TPU do Google e outros podem aproveitar a janela de oportunidade para substituí-lo, e o sonho da NVIDIA de vender sistemas pode não ser tão fácil de realizar.