NVIDIA та MIT випускають фреймворк Lightning OPD для покращення ефективності дистиляції моделей у 4 рази та усунення проблем із пам’яттю GPU

За повідомленнями, дослідники NVIDIA та MIT випустили Lightning OPD (Offline On-Policy Distillation) — нову посттренувальну методику для великих мовних моделей, яка усуває потребу тримати модель-вчителя запущеною під час навчання. Завдяки попередньому обчисленню лог-імовірностей моделі-вчителя офлайн фреймворк підвищує ефективність навчання у 4 рази, одночасно звільняючи всі ресурси GPU для тренування моделі-студента.

Під час тестування на 8 GPU NVIDIA H100 Lightning OPD успішно дистилювала Qwen3-30B-A3B-Base (MoE-модель із 30 мільярдами параметрів) і досягла 71,0 на бенчмарку AIME 2024, тоді як стандартна OPD на тій самій апаратній платформі вичерпала пам’ять. Для меншої моделі Qwen3-8B фреймворк вимагав лише 30 GPU-годин, щоб досягти 69,9 бала.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Cerebras цього тижня проводитиме IPO за оцінкою в 55 мільярдів доларів, надаючи OpenAI потенційний пакет акцій на 11%

За даними Odaily, виробник чипів для штучного інтелекту Cerebras вийде на біржу цього тижня з оцінкою IPO на суму 55 мільярдів доларів. Інвестиційне зобов’язання OpenAI на 200 мільярдів доларів може дати йому частку в 11% у компанії.

GateNews22хв. тому

Cerebras виходить на біржу цього тижня за оцінки в 5,5 мільярда доларів; частка OpenAI у 11% може принести понад 5 мільярдів доларів

За даними The Information, виробник AI-чипів Cerebras вийде на біржу цього тижня з оцінкою IPO у 5,5 мільярда доларів. Зобов’язання OpenAI інвестувати 20 мільярдів доларів може дати їй 11% частки в компанії, потенційно забезпечивши понад 5 мільярдів доларів у вигляді виручки.

GateNews23хв. тому

SAP інвестує в n8n, подвоюючи оцінку платформи автоматизації робочих процесів до $5,2B

За даними Bloomberg, SAP інвестувала в n8n у вівторок, удвічі підвищивши оцінку платформи автоматизації робочих процесів до 5,2 мільярда доларів. Німецький софтверний гігант також підписав багаторічну партнерську угоду з n8n, щоб інтегрувати інструменти платформи в платформу AI-агентобудови SAP Joule Studio, повідомляє заява SAP.

GateNews41хв. тому

AI-стартап White Circle завершив $11M -раунд посівного фінансування за участі керівників OpenAI та Anthropic

Згідно з Odaily, AI-стартап White Circle нещодавно завершив раунд seed на 11 мільйонів доларів за участі, зокрема, керівника OpenAI Ромена Уе та дослідника Anthropic Дурка Кінгми. Компанія надає уніфікований API для моніторингу в реальному часі вхідних і вихідних даних великих мовних моделей, призначений для виявлення галюцинацій, атак prompt injection, шкідливого контенту, дрейфу моделі та зловмисної поведінки користувачів. Платформа також підтримує налаштовувані політики безпеки та автоматизов

GateNews53хв. тому

Artificial Analysis публікує бенчмарк агента для кодування; Zhipu GLM-5.1 посідає перше місце серед моделей із відкритим кодом

Artificial Analysis сьогодні опублікувала новий Coding Agent Index, щоб оцінити, як AI-моделі працюють у поєднанні з агентськими фреймворками на ключових бенчмарках, зокрема SWE-Bench-Pro-Hard-AA, Terminal-Bench v2 і SWE-Atlas-QnA. Zhipu GLM-5.1 посів перше місце серед моделей із відкритим кодом у цьому оцінюванні, продемонструвавши лідерську продуктивність у сценаріях реальних кодингових агентів.

GateNews56хв. тому

Yuntianliyifei представляє архітектуру 3D-стекованої пам’яті в розробці інференційних чипів

Згідно з повідомленнями для інвесторів, оприлюдненими 12 травня, інференційний чіп Yuntianliyifei, що розробляється, використовує архітектуру GPNPU як основну технологічну дорожню карту. Ключові технічні акценти включають універсальне програмування на рівні GPGPU, сумісне з поширеними екосистемами CUDA, оптимізовані NPU-ядра для підвищення ефективності інференсу та 3D-стековану архітектуру пам’яті, створену для збільшення пропускної здатності й зменшення затримок доступу, щоб подолати вузьке міс

GateNews56хв. тому
Прокоментувати
0/400
Немає коментарів