Модель Ling-2.6-flash від Ant Group відкрито у вихідному коді: 104B параметрів із 7,4B активними, досягає кількох орієнтирів SOTA

Повідомлення Gate News, 29 квітня — вагові коефіцієнти моделі Ling-2.6-flash від Ant Group тепер відкрито у вихідному коді, раніше вони були доступні лише через API. Модель має 104 мільярди загальних параметрів із 7,4 мільярда активованих на кожен запит, вікно контексту 256K і ліцензію MIT. Доступні версії точності BF16, FP8 та INT4 на HuggingFace і ModelScope.

Ling-2.6-flash упроваджує вдосконалення гібридної лінійної уваги поверх Ling 2.0, оновлюючи початкову GQA до архітектури 1:7 MLA плюс Lightning Linear у поєднанні з дуже розрідженою MoE. Ефективність інференсу значно перевищує показники зіставних моделей: пікова швидкість генерації досягає 340 токенів/с на 4x GPU H20, а пропускна здатність prefill і decode приблизно в 4 рази вища, ніж у зіставних відкритих моделей. Бенчмарки, пов’язані з агентами, демонструють сильну продуктивність: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval і PinchBench досягають або наближаються до рівня SOTA. У всьому комплексі бенчмарків Artificial Analysis загальне споживання токенів становить лише 15 мільйонів. На AIME 2026 модель набрала 73,85%.

Офіційний вебсайт Ant Group також вказує флагманську версію Ling-2.6-1T (з трильйоном параметрів) і полегшену версію Ling-2.6-mini (lightweight version), однак станом на момент публікації їхні вагові коефіцієнти залишаються нерозміщеними на HuggingFace, доступним для завантаження є лише серія flash.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Дослідницький звіт a16z Crypto: рівень експлуатації вразливостей DeFi за допомогою AI-агентів досяг 70%

Згідно з дослідницьким звітом a16z Crypto, опублікованим 29 квітня, за умов, коли AI-агенти мають структуровані предметні знання, імовірність відтворення успішного зловживання (вразливістю) для маніпуляції ціною Ethereum досягає 70%; у середовищі пісочниці без будь-яких предметних знань імовірність становить лише 10%. У звіті також зафіксовано випадки, коли AI-агенти незалежно обходили обмеження пісочниці для доступу до майбутньої інформації про транзакції, а також системні моделі невдач, коли агенти під час побудови багатокрокових прибуткових атак демонстрували послідовні збої.

MarketWhisper9хв. тому

Моделі OpenAI поступово перейдуть на власний чип Trainium від Amazon, — каже Альтман: він «з нетерпінням чекає» цього

Повідомлення Gate News, 29 квітня — моделі OpenAI, що працюють на Amazon Web Services' Bedrock, поступово мігруватимуть до Trainium, спеціально розробленого для Amazon чипа ШІ, згідно з нещодавніми зауваженнями генерального директора OpenAI Сема Альтмана та керівників AWS. Наразі моделі працюють у змішаному середовищі, використовуючи як GPU, так і Tr

GateNews1год тому

Альтман: Токенозоване ціноутворення стає застарілим, оскільки GPT-5.5 переносить фокус на завершення задачі замість підрахунку токенів

Повідомлення Gate News, 29 квітня — Генеральний директор OpenAI Сем Альтман заявив в інтерв’ю Бену Томпсону на Stratechery, що токенозована ціна не є життєздатною моделлю в довгостроковій перспективі для сервісів ШІ. Наводячи як приклад GPT-5.5, Альтман зазначив, що хоча ціна за токен значно вища, ніж у GPT-5.4, модель використовує набагато менше токенів, щоб виконати ту саму задачу, тобто клієнтів не турбує кількість токенів—їх цікавить лише те, чи виконано завдання, і загальна вартість

GateNews1год тому

Мен Лтман опублікував скріншоти Codex у двох режимах: робочі й програмні функції офіційно розділено

Генеральний директор OpenAI Сем Альтман опублікував 29 квітня у X платформі скріншот і заяву про те, що Codex запускає нову версію інтерфейсу підказок: під час першого входу користувач має обрати один із двох режимів — Excelmogging і Codemaxxing. Наразі щотижнева активна аудиторія Codex перевищує 4 мільйони, а сценарії використання розширилися від генерації коду до нетехнічного застосування.

MarketWhisper1год тому

Codex від OpenAI виходить із дворежимним інтерфейсом: Excelmogging для офісної роботи, Codemaxxing для програмування

Повідомлення Gate News, 29 квітня — CEO OpenAI Сем Альтман сьогодні оголосив у X про перероблений інтерфейс Codex, представивши два окремі режими для користувачів. «Excelmogging» націлений на повсякденні офісні задачі з спрощеним інтерфейсом і слоганом «Same tools, simpler interface,» з прикладами завдань на кшталт створення електронних таблиць.

GateNews2год тому

ЗМІ США: проєкт адміністративного розпорядження Білого дому дозволяє моделям Anthropic Mythos вийти в уряд

За даними повідомлення, процитованого Axios 28 квітня, з осіб, обізнаних із ситуацією, Бiлий дiм розробляє настанови, які дозволяють усім федеральним органам обходити ухвалення щодо ризиків у ланцюгах постачання (SCRD) від Anthropic, а також запроваджувати нові моделі для використання урядом, включно з моделлю Mythos від Anthropic. У зв’язку з цим Білий дім оприлюднив офіційну заяву, в якій зазначив, що будь-які політичні заяви публікуватимуться безпосередньо президентом, а будь-які інші твердження є лише припущеннями.

MarketWhisper2год тому
Прокоментувати
0/400
Немає коментарів