AI Moonshot запускає Kimi K2.6 із можливістю роєвого флоту на 300 агентів, просуваючи автономні системи ШІ

Повідомлення Gate News, 21 квітня — AI Moonshot випустила Kimi K2.6 — модель відкритого ШІ з помітним оновленням архітектури агентського рою, яка тепер підтримує до 300 паралельних субагентів — майже утричі більше, ніж 100 субагентів, які підтримував її попередник K2.5. Модель доступна через Kimi.com, застосунок Kimi, API та Kimi Code, і орієнтована на розробників, які створюють робочі процеси на основі агентів та інструменти автоматизації.

Реліз K2.6 масштабує показники з 1 500 скоординованих кроків K2.5 до 4 000, забезпечуючи більшу паралелізацію та швидше виконання для складних багатодоменних завдань. Згідно з даними AI Moonshot, модель демонструє покращену продуктивність у довготривалому програмуванні на Rust, Go та Python, а також посилені можливості в розробці фронтенду, операціях DevOps та оптимізації продуктивності. Результати бенчмарків показують найсучаснішу продуктивність на HLE з інструментами (54.0), SWE-Bench Pro (58.6), SWE-bench Multilingual (76.7), BrowseComp (83.2) та Math Vision із Python (93.2).

Модель вводить механізм “Skills”, який перетворює структуровані документи — зокрема PDF, електронні таблиці та файли Word — на багаторазові шаблони завдань, фіксуючи шаблони форматування та міркувань для майбутніх робочих процесів. K2.6 позиціонується для автономних сценаріїв використання, зокрема багатокрокових програмних робочих процесів, розробки повноцінних застосунків і задач тривалого моніторингу, причому тестування показує підвищену надійність під час тривалих циклів виконання.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

DeepSeek V4 Pro на Ollama Cloud: Claude Code одним кліком

Згідно з твітом Ollama, DeepSeek V4 Pro було випущено 4/24, уже додано в каталог Ollama в режимі хмари, і лише однією командою можна викликати такі інструменти, як Claude Code, Hermes, OpenClaw, OpenCode, Codex тощо. В4 Pro1.6T params, 1M context, Mixture-of-Experts; хмарний висновок не завантажує локальні ваги. Щоб запускати локально, потрібно самостійно отримати ваги й виконувати їх з INT4/GGUF та кількома GPU. Ранні тести швидкості були впливом хмарного навантаження: у звичайному режимі приблизно 30 tok/s, у піку 1.1tok/s; рекомендується спочатку використовувати хмарний прототип, а для офіційного серійного виробництва — виконувати власний висновок або використовувати комерційне API.

ChainNewsAbmedia2хв. тому

UB (Unibase) за 24 години виріс на 14.96%

Gate News повідомлення: 27 квітня, за даними котирувань Gate, станом на час підготовки матеріалу UB (Unibase) зараз торгується на рівні $0.0491, за останні 24 години зріс на 14.96%, досягав максимуму $0.0534, а мінімум опускався до $0.0423; обсяг торгів за 24 години склав $3.9667 млн. Поточна ринкова капіталізація становить приблизно $123 млн。 Unibase — це високопродуктивний децентралізований AI-рівень пам’яті, який надає AI-агентам довготривалу пам’ять і кросплатформну сумісність, щоб вони могли запам’ятовувати, співпрацювати та самовдосконалюватися. Unibase має на меті створити відкрите інтернет-середовище для агентів, підтримуючи безшовну взаємодію розумних агентів між екосистемами, і розширює можливості розробників для створення наступного покоління AI-застосунків。 Це повідомлення не є інвестиційною рекомендацією; інвестування пов’язане з ризиком коливань ринку.

GateNews8хв. тому

Го Мінцзун: OpenAI хоче створити мобільний телефон з AI-агентом, MediaTek, Qualcomm і Luxshare Precision стають ключовими ланками ланцюга постачання

Го Міньцунь стверджує, що OpenAI співпрацює з MediaTek, Qualcomm і Luxshare Precision у розробці AI-агентного телефону, і що його планують перейти в серійне виробництво у 2028 році. Новий телефон буде орієнтований на виконання завдань: AI-агент розумітиме та виконуватиме запити, поєднуючи хмарні й пристроєві обчислення; ключовий акцент — на сенсорах і розумінні контексту. Перелік специфікацій і ланцюг постачання, як очікується, буде остаточно визначено у 2026–2027 роках. Якщо проєкт буде реалізовано, це може спричинити новий цикл оновлення для ринку в сегменті високого класу; Luxshare може стати основним бенефіціаром.

ChainNewsAbmedia21хв. тому

Керівник великої моделі Xiaomi: коли конкуренція в AI переходить у епоху агентів, самовдосконалення є ключовою подією для AGI

Керівник команди великомасштабних моделей Xiaomi Луо Фуліцзе 24 квітня на платформі Bilibili провела глибоке інтерв’ю (номер відео: BV1iVoVBgERD), тривалість інтерв’ю — 3,5 години; це її перша публічна системна викладка технічних поглядів у ролі технічного керівника. Луо Фуліцзе заявила, що змагання у сфері великих моделей уже перейшли від епохи Chat до епохи Agent, і вказала, що «самоеволюція» стане ключовою подією для AGI упродовж найближчого року.

MarketWhisper1год тому

Хмарне середовище Tencent Cloud QClaw інтегрує фреймворк Hermes, підтримує перемикання між кількома моделями, зокрема DeepSeek-V4 Pro

Згідно з офіційним оголошенням Tencent Cloud від 27 квітня, настільний інструмент QClaw для AI-агентів Tencent Cloud офіційно випущено у версії v0.2.14. Tencent Cloud заявила, що це найбільше за масштабом оновлення QClaw за весь час; ключові оновлення включають підключення фреймворку Hermes Agent, оновлення базової моделі до режиму вільного перемикання, а також повне оновлення «Інспіраційної площі» до «Площі експертів».

MarketWhisper1год тому

Голосовий сервіс xAI Grok бере на себе гарячу лінію служби підтримки Starlink, 70% дзвінків автоматично закриваються

Згідно з офіційним оголошенням xAI від 23 квітня, xAI запустила мовного AI-агента Grok Voice Think Fast 1.0 та вже розгорнула його на гарячій лінії служби підтримки Starlink +1 (888) GO STARLINK. За оприлюдненими в оголошенні результатами тестування, 70% дзвінків AI автоматично завершує, без участі людини.

MarketWhisper1год тому
Прокоментувати
0/400
Немає коментарів