По данным B.AI, 8 мая платформа сообщила, что вызовы API routing составили 90,6% от всех взаимодействий, а платные пользователи — 95,1% от всей базы пользователей. Модели серии Claude лидировали с 35,6% вызовов API, доминируя в сложных задачах рассуждений и в работе с длинным контекстом, в то время как DeepSeek-V4-Flash и GPT-5.5 показали сильный рост в сценариях высокой параллельности и низкой задержки.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Google запускает набор на вакансии с помощью экзаменов, на которых инженерам разрешают использовать инструменты ИИ
По данным The Chosun Daily, Google проводит пилотный набор экзаменов при приёме на работу, которые позволяют кандидатам на должности в США для разработки ПО использовать инструменты ИИ в отобранных позициях начального и среднего уровня. В рамках эксперимента предусмотрены задания на понимание кода: соискатели рассматривают существующий код, исправляют ошибки и улучшают производительность. Интервьюеры будут оценивать, как кандидаты формулируют запросы к ИИ, проверяют его вывод, вносят правки и от
GateNews2ч назад
OpenAI прекращает API для тонкой настройки с немедленным вступлением в силу; существующие пользователи могут продолжать пользоваться им до 6 января 2027 года
Согласно официальному объявлению OpenAI, которое отслеживает Beating, компания прекращает для разработчиков свой самообслуживаемый API для fine-tuning (тонкой настройки) с немедленным вступлением в силу. Новые пользователи больше не могут создавать задачи fine-tuning, тогда как существующие активные пользователи могут пользоваться сервисом до 6 января 2027 года. Развернутые модели после fine-tuning будут привязаны к жизненному циклу своих базовых моделей и прекратят работу, когда базовая модель
GateNews2ч назад
Sakana AI и Nvidia добиваются на 30% более быстрого вывода на H100, пропуская 80% недействительных вычислений
Sakana AI и Nvidia открыли исходный код TwELL — разреженного формата данных, который позволяет GPU H100 пропускать 80% недопустимых вычислений в больших языковых моделях без потери точности. Решение обеспечивает до 30% более быстрый инференс и 24% более быстрое обучение на H100, одновременно снижая пиковое потребление памяти. В тестах на модели с 1,5 миллиарда параметров подход сократил число активных нейронов до менее 2% за счёт лёгкой регуляризации во время обучения, при этом не наблюдалось ух
GateNews3ч назад
Microsoft открывает исходный код модели Phi-Ground 4B, превосходит OpenAI Operator и Claude по точности кликов по экрану
Борясь с трудностями, Microsoft недавно открыла исходный код семейств модели Phi-Ground, предназначенных для решения проблемы того, где именно ИИ должен кликать по экрану компьютера. Версия на 4 миллиарда параметров в паре с более крупными языковыми моделями для планирования инструкций превзошла по точности кликов OpenAI Operator и Claude Computer Use в бенчмарке Showdown и заняла первое место среди всех моделей с менее чем 100 миллиардами параметров по пяти оценкам, включая ScreenSpot-Pro. Кома
GateNews4ч назад
Tilde Research обнаруживает, что оптимизатор Muon убивает 25% нейронов; Aurora Alternative обеспечивает прирост эффективности работы с данными в 100 раз
По данным Tilde Research, оптимизатор Muon, который используют ведущие AI-модели, включая DeepSeek V4 и Kimi K2.5, имеет скрытый недостаток: он приводит к тому, что более 25% нейронов в слоях MLP необратимо умирают в ходе раннего обучения. Команда разработала Aurora — альтернативный оптимизатор — и открыла его исходный код. Модель с 1,1 млрд параметров, обученная всего на 100 млрд токенов, показала сопоставимую производительность с Qwen3-1,7B, обученной на 36 трлн токенов, на бенчмарках понимани
GateNews4ч назад
Nvidia вкладывает более $40 млрд в ИИ-инвестиции в начале 2026 года, включая $30 млрд на OpenAI
По данным TechCrunch, Nvidia в первые месяцы 2026 года направила более 40 миллиардов долларов на долевые инвестиции в компании, работающие в сфере ИИ, при этом 30 миллиардов долларов — крупнейшее единовременное обязательство — она вложила в OpenAI. Производитель чипов также обязался инвестировать до 3,2 миллиарда долларов в Corning, производителя стекла, и до 2,1 миллиарда долларов в оператора центров обработки данных IREN, что включает пятилетний варрант и отдельный контракт на 3,4 миллиарда до
GateNews7ч назад