Моделі OpenAI поступово перейдуть на власний чип Trainium від Amazon, — каже Альтман: він «з нетерпінням чекає» цього

Повідомлення Gate News, 29 квітня — моделі OpenAI, що працюють на Amazon Web Services’ Bedrock, поступово мігруватимуть до Trainium, спеціально розробленого для Amazon чипа ШІ, згідно з нещодавніми зауваженнями генерального директора OpenAI Сема Альтмана та керівників AWS. Наразі моделі працюють у змішаному середовищі, використовуючи як GPU, так і Trainium, причому частка, що з часом зміщується на Trainium, зростає. Альтман заявив, що компанія «з нетерпінням чекає на перенесення моделей на Trainium».

Керівник AWS Гарман визнав, що назва Trainium могла бути оманливою, оскільки чип розроблено і для навчання, і для інференсу, причому інференс, як очікується, буде основним сценарієм використання в майбутньому. Втім, Гарман підкреслив, що брендинг чипів значною мірою не має значення для більшості клієнтів: користувачі взаємодіють з OpenAI через її інтерфейс API, а не напряму з базовим обладнанням. Коли його запитали про майбутню інтеграцію не-OpenAI моделей у Bedrock Managed Agents, Гарман відмовився надавати подробиці, зазначивши лише, що зараз AWS зосереджена на своїй партнерській співпраці з OpenAI.

Співпраця підкреслює стратегію AWS використовувати власні спеціалізовані кремнієві компоненти для підтримки ключових навантажень ШІ на своїй хмарній платформі.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Дослідницький звіт a16z Crypto: рівень експлуатації вразливостей DeFi за допомогою AI-агентів досяг 70%

Згідно з дослідницьким звітом a16z Crypto, опублікованим 29 квітня, за умов, коли AI-агенти мають структуровані предметні знання, імовірність відтворення успішного зловживання (вразливістю) для маніпуляції ціною Ethereum досягає 70%; у середовищі пісочниці без будь-яких предметних знань імовірність становить лише 10%. У звіті також зафіксовано випадки, коли AI-агенти незалежно обходили обмеження пісочниці для доступу до майбутньої інформації про транзакції, а також системні моделі невдач, коли агенти під час побудови багатокрокових прибуткових атак демонстрували послідовні збої.

MarketWhisper21хв. тому

Альтман: Токенозоване ціноутворення стає застарілим, оскільки GPT-5.5 переносить фокус на завершення задачі замість підрахунку токенів

Повідомлення Gate News, 29 квітня — Генеральний директор OpenAI Сем Альтман заявив в інтерв’ю Бену Томпсону на Stratechery, що токенозована ціна не є життєздатною моделлю в довгостроковій перспективі для сервісів ШІ. Наводячи як приклад GPT-5.5, Альтман зазначив, що хоча ціна за токен значно вища, ніж у GPT-5.4, модель використовує набагато менше токенів, щоб виконати ту саму задачу, тобто клієнтів не турбує кількість токенів—їх цікавить лише те, чи виконано завдання, і загальна вартість

GateNews1год тому

Модель Ling-2.6-flash від Ant Group відкрито у вихідному коді: 104B параметрів із 7,4B активними, досягає кількох орієнтирів SOTA

Повідомлення Gate News, 29 квітня — вагові коефіцієнти моделі Ling-2.6-flash від Ant Group тепер відкрито у вихідному коді, раніше вони були доступні лише через API. Модель має 104 мільярди загальних параметрів із 7,4 мільярда активованих на кожен запит, вікно контексту 256K і ліцензію MIT. Версії BF16, FP8 та INT4

GateNews1год тому

Мен Лтман опублікував скріншоти Codex у двох режимах: робочі й програмні функції офіційно розділено

Генеральний директор OpenAI Сем Альтман опублікував 29 квітня у X платформі скріншот і заяву про те, що Codex запускає нову версію інтерфейсу підказок: під час першого входу користувач має обрати один із двох режимів — Excelmogging і Codemaxxing. Наразі щотижнева активна аудиторія Codex перевищує 4 мільйони, а сценарії використання розширилися від генерації коду до нетехнічного застосування.

MarketWhisper1год тому

Codex від OpenAI виходить із дворежимним інтерфейсом: Excelmogging для офісної роботи, Codemaxxing для програмування

Повідомлення Gate News, 29 квітня — CEO OpenAI Сем Альтман сьогодні оголосив у X про перероблений інтерфейс Codex, представивши два окремі режими для користувачів. «Excelmogging» націлений на повсякденні офісні задачі з спрощеним інтерфейсом і слоганом «Same tools, simpler interface,» з прикладами завдань на кшталт створення електронних таблиць.

GateNews2год тому

ЗМІ США: проєкт адміністративного розпорядження Білого дому дозволяє моделям Anthropic Mythos вийти в уряд

За даними повідомлення, процитованого Axios 28 квітня, з осіб, обізнаних із ситуацією, Бiлий дiм розробляє настанови, які дозволяють усім федеральним органам обходити ухвалення щодо ризиків у ланцюгах постачання (SCRD) від Anthropic, а також запроваджувати нові моделі для використання урядом, включно з моделлю Mythos від Anthropic. У зв’язку з цим Білий дім оприлюднив офіційну заяву, в якій зазначив, що будь-які політичні заяви публікуватимуться безпосередньо президентом, а будь-які інші твердження є лише припущеннями.

MarketWhisper2год тому
Прокоментувати
0/400
Немає коментарів