Результаты поиска для "GPT-4O"
Сегодня
00:30

ZetaChain запускает Anuma — платформу агрегации ИИ с фокусом на приватность

Новостное сообщение Gate News, 28 апреля — команда ZetaChain официально запустила Anuma, ориентированную на приватность платформу агрегации ИИ, которая позволяет пользователям получать доступ к нескольким ИИ-моделям — включая GPT, Claude, Gemini, Grok, DeepSeek, Kimi и Qwen — через единый интерфейс. Anuma включает локальное хранилище для приватности, мульти-модальное взаимодействие и единую систему контекстной памяти между разными моделями. Веб-интерфейс платформы теперь открыт для использования.
Больше
05:17

GPT-5.5 Возвращается на Передний край в Кодинге, но OpenAI Меняет Бенчмарки После Поражения Opus 4.7

Gate News сообщение, 27 апреля — SemiAnalysis, фирма по анализу полупроводников и ИИ, опубликовала сравнительный бенчмарк ассистентов для программирования, включая GPT-5.5, Claude Opus 4.7 и DeepSeek V4. Ключевой вывод: GPT-5.5 знаменует собой первый возврат OpenAI на передний край в моделях для кодинга за последние шесть месяцев, при этом инженеры SemiAnalysis теперь чередуют между Codex и Claude Code после того, как ранее почти исключительно полагались на Claude. GPT-5.5 основана на новом подходе к предварительному обучению с кодовым названием "Spud" и представляет собой первое расширение масштаба предварительного обучения OpenAI со времён GPT-4.5. При практических испытаниях проявилось явное разделение ролей. Claude отвечает за планирование новых проектов и первичную настройку, тогда как Codex особенно силён в исправлениях багов, требующих интенсивных рассуждений. Codex демонстрирует более сильное понимание структур данных и логических рассуждений, но испытывает трудности с тем, чтобы выводить неоднозначные намерения пользователя. В задаче на одной панели Claude автоматически воссоздал компоновку эталонной страницы, но сфабриковал большие объёмы данных, тогда как Codex пропустил компоновку, зато предоставил значительно более точные данные. Анализ выявляет деталь манипуляции бенчмарком: февральский блог OpenAI призывал отрасль перейти на SWE-bench Pro как новый стандарт для бенчмарков кода. Однако в объявлении GPT-5.5 переход осуществлён на новый бенчмарк под названием "Expert-SWE." Причина, спрятанная в мелком шрифте, заключается в том, что GPT-5.5 был обойдён Opus 4.7 на SWE-bench Pro и заметно уступил ненадлежащим образом не раскрытому Anthropic Mythos 77.8%. Что касается Opus 4.7, Anthropic опубликовала разбор последствий через неделю после релиза, признав три ошибки в Claude Code, которые сохранялись в течение нескольких недель с марта по апрель, затрагивая почти всех пользователей. Ранее несколько инженеров сообщали о деградации производительности в версии 4.6, но их замечания были отклонены как субъективные. Кроме того, новый токенизатор Opus 4.7 увеличивает использование токенов до 35%, что Anthropic откровенно признала — фактически это означает скрытое повышение цены. DeepSeek V4 оценили как "удерживающий темп с передним краем, но не ведущий," позиционируя себя как самый бюджетный вариант среди закрытых моделей. Анализ также отметил, что "Claude по-прежнему превосходит DeepSeek V4 Pro в высокосложных задачах китайской письменности," и прокомментировал, что "Claude выиграл у китайской модели на её родном языке." В статье вводится ключевая идея: цена модели должна оцениваться через "стоимость за задачу," а не через "стоимость за токен." Прайсинг GPT-5.5 вдвое выше, чем у GPT-5.4 input $5, output за миллион токенов, но он выполняет те же задачи, используя меньшее число токенов, поэтому фактическая стоимость не обязательно выше. Первичные данные SemiAnalysis показывают, что коэффициент входов к выходам у Codex составляет 80:1, что ниже, чем 100:1 у Claude Code.
Больше
01:13
1

Сэм Альтман обозначает пять операционных принципов OpenAI, сигнализирует о возможных будущих ограничениях на доступ к возможностям моделей ради безопасности

Сообщение Gate News, 27 апреля — генеральный директор OpenAI Сэм Альтман опубликовал пять операционных принципов для компании под своей личной подписью, сигнализируя о том, что OpenAI может ограничивать доступ пользователей к возможностям моделей в определенные периоды, чтобы расставлять приоритеты в вопросах безопасности. В своем заявлении Альтман описал потенциальный сценарий будущего, при котором компании придется "пожертвовать некоторой расширенностью возможностей в обмен на большую устойчивость." Altman подчеркнул, что критически важные решения в области ИИ должны приниматься демократическими процессами, а не определяться исключительно ИИ-лабораториями. Он защищал недавние крупномасштабные закупки вычислительных мощностей OpenAI, строительство глобальных дата-центров и усилия по вертикальной интеграции, заявив, что цель — снизить затраты на ИИ, чтобы технология стала доступной для всех. Альтман отметил, что правительствам, возможно, придется изучить новые экономические модели, чтобы обеспечить распределение ценности. Он также выделил конкретный риск-сценарий: чрезвычайно мощные модели могут снизить порог для создания новых патогенов, что потребует реагирования на уровне общества. Альтман размышлял об исторической нерешительности OpenAI относительно публикации весов GPT-2, признав, что в ретроспективе проявленная осторожность была чрезмерной, но указал, что это привело к итерационной стратегии развертывания, которую OpenAI продолжает применять сегодня.
Больше
03:33

OpenAI объединяет Codex с основной моделью, начиная с GPT-5.4, прекращает отдельную линейку для кодинга

Новостное сообщение Gate News, 26 апреля — глава отдела взаимодействия с разработчиками OpenAI Ромен Юэ (Romain Huet) в недавнем заявлении на X сообщил, что Codex, линейка специализированных моделей для кодинга, независимо поддерживаемая компанией, была объединена с основной моделью начиная с GPT-5.4 и больше не будет получать отдельные
Больше
12:31

DeepSeek выпускает модели V4-Pro и V4-Flash при стоимости на 98% ниже, чем у OpenAI GPT-5.5 Pro

Gate News сообщение, 25 апреля — DeepSeek выпустила предварительные версии V4-Pro и V4-Flash 24 апреля; обе — модели с открытыми весами и контекстным окном на один миллион токенов. V4-Pro включает 1,6 трлн общих параметров, но активирует только 49 млрд за один проход инференса, используя архитектуру Mixture-of-Experts.
Больше
03:11

Nvidia развертывает AI-агента OpenAI Codex по всей организации на инфраструктуре Blackwell

Новостное сообщение Gate News, 25 апреля — Nvidia развернула Codex от OpenAI, AI-агент, работающий на GPT-5.5, для всей своей команды сотрудников после успешного пилотного проекта примерно с 10 000 сотрудников, сообщают внутренние коммуникации от генерального директора Дженсена Хуанга и генерального директора OpenAI Сэма Альтмана. Codex предназначен для того, чтобы помогать с
Больше
01:21

OpenClaw v2026.4.23 Добавляет поддержку прямого OAuth для gpt-image-2, представляет режим с форкнутым контекстом для субагентов

Сообщение Gate News, 25 апреля — OpenClaw, открытый фреймворк AI-агентов с открытым исходным кодом, выпустил v2026.4.23 23 апреля, представив обновления в генерации изображений, механизмах субагентов и усилении безопасности. Улучшения генерации изображений позволяют вызывать gpt-image-2 напрямую через Codex OAuth без
Больше
05:21

DeepSeek V4 вызывает дебаты в США: аналитический центр ставит под сомнение использование чипов, CEO Replit защищает открытые инновации

Сообщение Gate News, 24 апреля — В Соединенных Штатах разгорелись споры о технологических возможностях и соблюдении требований DeepSeek V4. Крис Макгвайр, старший научный сотрудник Совета по международным отношениям (CFR) и бывший сотрудник Совета по национальной безопасности при Белом доме и Министерства обороны, опубликовал аналитический материал, утверждающий, что V4 не изменила конкурентный ландшафт ИИ США и Китая. По словам Макгвайра, собственный отчет DeepSeek о V4 признает, что его рассуждающие возможности отстают от передовых моделей примерно на 3–6 месяцев, при этом в качестве бенчмарков используются GPT-5.2 и Gemini 3.0 Pro, выпущенные шестью месяцами ранее.
Больше
01:46

OpenAI представляет GPT-5.5, разработанную для задач агентов и сложных рабочих процессов

Сообщение Gate News, 24 апреля — OpenAI официально выпустила GPT-5.5, модель следующего поколения ИИ, предназначенную для решения сложных целей, интеграции инструментов, самопроверки и выполнения задач в несколько этапов. Модель особенно сильна в написании и отладке кода, онлайн-исследованиях, анализе данных, создании документов
Больше
04:54

Perplexity 公开 Web 搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4

Perplexity 使用基于 Qwen3.5 模型的 SFT,随后接着使用带有 RL 的强化学习,利用多跳问答数据集和评分准则检查来提升搜索准确性与效率,实现同级最优的 FRAMES 表现。 摘要:Perplexity 面向 Web 搜索代理的后训练流程,将监督微调 (SFT) 与在线强化学习 (RL) 结合,借助 GRPO 算法来强化指令遵循与语言一致性。强化学习阶段使用专有的多跳可验证问答数据集以及基于评分准则的对话数据,以防止 SFT 漂移;通过奖励门控与组内效率惩罚来实现。评估显示,Qwen3.5-397B-SFT-RL 在 FRAMES 上取得顶级表现,在单次工具调用下准确率为 57.3%,在四次调用下为 73.9%,成本为每次查询 $0.02;在这些指标上优于 GPT-5.4 和 Claude Sonnet 4.6。定价基于 API,并且不包含缓存。
Больше