Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Futuros
Cientos de contratos liquidados en USDT o BTC
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Durante la conferencia CES, la nueva arquitectura Rubin de NVIDIA se convirtió en el centro de atención en las discusiones del mercado reciente, además de ser otro gran avance más allá de la arquitectura MOE, diseñada específicamente para la era de la AI Agentic, entre otros temas. Después de profundizar en ello, realmente sentí el sabor de la "revolución personal" de Jensen Huang:
1)En el pasado, NVIDIA dependía de su ventaja en hardware GPU, aprovechando el período de bonanza en el que los grandes gigantes de la AI estaban comprando masivamente capacidad de cálculo para entrenar grandes modelos. En ese entonces, la lógica era simple: cuantos más gráficos tengas, mejor podrás entrenar tus modelos.
Pero ahora, la guerra de la AI se ha desplazado del "cálculo" al "razonamiento", especialmente con la llegada de la era Agentic, donde la AI necesita manejar razonamientos de alta frecuencia, múltiples pasos y contextos extremadamente largos.
En este momento, los modelos tienen billones de parámetros, el volumen de datos es enorme, y por mucho que la GPU sea rápida, si la memoria no transfiere datos lo suficientemente rápido, la GPU se quedará ociosa. Esto es lo que llamamos la "pared de capacidad de memoria". En otras palabras, tener muchas tarjetas gráficas ya no resuelve el problema; se necesita también una alta capacidad de memoria y ancho de banda para soportarlo. Rubin busca resolver precisamente este problema.
2)Por eso, el HBM4 de Rubin, que es la primera implementación, soporta la cuarta generación de memoria de alta ancho de banda, alcanzando un ancho de banda de 22TB/s. Pero lo más importante es que, junto con la tecnología NVLink 6 (que ofrece un ancho de banda de 260TB/s en el rack), convierte 72 tarjetas en un "un solo chip gigante" en lógica.
¿Y qué significa esto? Antes, cuando comprabas una tarjeta gráfica, adquirías componentes independientes, y la transferencia de datos entre tarjetas era como un servicio de mensajería que pasa por varias estaciones de transferencia. Ahora, Rubin, mediante una interconexión de densidad extremadamente alta, hace que los datos fluyan entre diferentes GPU casi sin sentir la distancia física. Los 72 "trabajadores" ya no trabajan por separado, sino que comparten un mismo cerebro.
Creo que esa es la verdadera carta ganadora de Rubin: no solo acumular hardware, sino reestructurar el flujo de datos en todo el sistema.
3)Si el MOE (arquitectura de modelos de expertos híbridos) fue un golpe de reducción de dimensión contra la estrategia de "montar tarjetas" de NVIDIA, impulsada por empresas emergentes como DeepSeek, entonces Rubin parece ser una contraofensiva estratégica de Jensen Huang. No se trata de competir en quién ahorra más tarjetas, sino de reestructurar directamente los costos de uso de la AI. Por supuesto, esta estrategia también implica que NVIDIA está diciendo adiós al viejo modelo de "montar tarjetas en masa".
Jensen Huang calcula otra cuenta: para que la era Agentic realmente se implemente en todos los sectores, hay que superar el costo de los tokens, una tendencia inevitable que NVIDIA no puede detener.
Desde su perspectiva, en lugar de esperar a que grandes empresas como Google o Meta desarrollen sus propios chips y acaben con el mercado, o que empresas como DeepSeek revolucionen el mercado de la oferta con nuevos modelos, sería mejor ser quien rompa el statu quo activamente.
4)La pregunta es, ¿cómo debe NVIDIA, tras su revolución interna, posicionarse? La ruta también está bastante clara: pasar de "vender tarjetas gráficas" a "vender sistemas", de servir solo a unos pocos grandes clientes a hacer que la AI sea verdaderamente popular.
Antes, comprar un H100 significaba que NVIDIA ganaba principalmente con esa tarjeta. En el futuro, Rubin te dirá: necesitas comprar toda la infraestructura NVL72 — 72 GPU, conmutador NVLink, sistema de enfriamiento líquido completo, armario, e incluso la pila de software asociada, todo empaquetado y vendido como un paquete.
El plan de Jensen también es muy claro: aunque el costo del hardware empaquetado parece más alto, añade una eficiencia de razonamiento extrema, reduciendo el costo unitario de uso de la AI para los compradores, y naturalmente, sin perder cuota de mercado.
Pero, pero, pero, esta estrategia también eleva la barrera de entrada para los jugadores medianos y pequeños. Solo las grandes empresas y los proveedores de servicios en la nube podrán permitírselo, lo que agravará aún más el monopolio en capacidad de cálculo. En el contexto actual de competencia, esto puede considerarse una apuesta arriesgada, porque si la producción en masa de HBM4 presenta problemas, será reemplazada por soluciones alternativas lanzadas por AMD, Google TPU, etc., y el sueño de NVIDIA de vender sistemas podría no ser tan fácil de realizar.