Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Недавно я увидел эту новость: в конце прошлого года NVIDIA приобрела бизнес по чипам для вывода inference у Groq, и логика этой сделки довольно интересна.
Huang Renxun впервые подробно объяснил на конференции GTC в этом году, почему он решил купить Groq. В общем, он заметил, что рынок inference начинает раскалываться. Раньше все оптимизировали чипы для inference с единственной целью: увеличить пропускную способность. Но сейчас ситуация изменилась: разные пользователи готовы платить разную цену за разную скорость отклика.
Здесь очень важна логика — если я могу обеспечить разработчиков более быстрым откликом токена, повысить их рабочую эффективность, они будут готовы за это платить. Этот рынок с высокой ценностью и низкой задержкой — это действительно недавно появившаяся возможность. Huang назвал это расширением парето-границы inference-рынка: раньше это была стратегия с высокой пропускной способностью, а теперь добавляется новая ниша — решения с низкой задержкой и высокой ценой за единицу.
Groq как раз является экспертом в этой области. Их архитектура LPU славится своей предсказуемой низкой задержкой, что полностью дополняет направление высокопропускной способности GPU от NVIDIA. В марте был выпущен Groq 3 LPU, выполненный по 4-нм техпроцессу Samsung, и его inference-способность на моделях с триллионами параметров превышает Blackwell NVL72 на 35 раз — разница в производительности действительно впечатляет.
С точки зрения продуктовой линейки, эта покупка заполняет пробел NVIDIA на рынке inference. Представьте: одна и та же модель, разные стратегии ценообразования в зависимости от времени отклика — чуть меньшая пропускная способность, но более высокая цена за единицу компенсирует это. Присоединение Groq позволяет NVIDIA иметь более полное покрытие inference-рынка. Эта сделка с стратегической точки зрения выглядит очень ясно.