Згідно з Yonhapnews, Maven Smart System (MSS) від Palantir зіграв ключову роль у завданні понад 1 000 цілей протягом перших 48 годин військової операції США проти Ірану. Міністерство оборони США дедалі більше інтегрує системи ШІ в процеси ухвалення військових рішень, а Palantir виступає як ключовий партнер оборонних технологій. Під час конференції Palantir, що відбулася в середині березня, головний директор із цифрових технологій і ШІ в DoD напряму похвалив Maven як систему, яка «революціонізувала операційний робочий процес», заявивши, що командири «мають лише натиснути», і що Maven — перша система, яка покращує щодня.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
Google проводить експеримент із прийманням іспитів для найму інженерів, де можна використовувати інструменти ШІ
Як повідомляє The Chosun Daily, Google тестує іспити для найму, які дозволяють кандидатам на посади для US-інженерів програмного забезпечення використовувати інструменти ШІ в окремих позиціях початкового та середнього рівня. У межах експерименту передбачені завдання на розуміння коду, де заявники переглядають наявний код, виправляють помилки та покращують продуктивність. Інтерв’юери оцінюватимуть, як кандидати формулюють запити до ШІ, перевіряють його результат, редагують отримані дані та налаго
GateNews1год тому
OpenAI припиняє API для тонкого налаштування з негайною дією; чинні користувачі можуть отримувати доступ до 6 січня 2027 року
У офіційному оголошенні OpenAI, яке відстежує Beating, компанія припиняє роботу власного Fine-tuning API для самостійного використання розробниками — з негайним набранням чинності. Нові користувачі більше не можуть створювати завдання для доопрацювання, тоді як чинні активні користувачі можуть отримувати доступ до сервісу до 6 січня 2027 року. Розгорнуті fine-tuned моделі матимуть сервіси інференсу, прив’язані до життєвого циклу їхніх базових моделей: вони припинять роботу, коли базову модель бу
GateNews2год тому
Sakana AI та Nvidia досягають на 30% швидшого виведення на H100, пропускаючи 80% некоректних обчислень
Sakana AI та Nvidia оприлюднили з відкритим кодом TwELL — розріджений формат даних, який дає змогу GPU H100 пропускати 80% невалідних обчислень у великих мовних моделях без втрати точності. Рішення забезпечує до 30% швидшого виведення та на 24% швидшого навчання на H100, водночас зменшуючи пікове споживання пам’яті. Під час тестування на моделі з 1,5 мільярда параметрів підхід знизив активні нейрони до менш ніж 2% завдяки легкій регуляризації під час навчання, не спричинивши погіршення продуктив
GateNews3год тому
Microsoft відкриває вихідний код моделі Phi-Ground 4B, перевершує OpenAI Operator і Claude за точністю кліків по екрані
За Beating, Microsoft нещодавно відкрито опублікувала у відкритому доступі сімейство моделей Phi-Ground, створених для вирішення проблеми того, куди саме ШІ має клікати на екрані комп’ютера. Версія з 4 мільярдами параметрів у парі з більшими мовними моделями для планування інструкцій перевищила точність кліків OpenAI Operator і Claude Computer Use у бенчмарку Showdown та посіла перше місце серед усіх моделей із менш ніж 100 мільярдами параметрів у п’яти оцінюваннях, зокрема в ScreenSpot-Pro. Ком
GateNews4год тому
Tilde Research виявляє, що Muon Optimizer знищує 25% нейронів; альтернативний Aurora досягає приросту ефективності збирання даних у 100 разів
За даними Tilde Research, оптимізатор Muon, який використовують провідні моделі ШІ, зокрема DeepSeek V4 та Kimi K2.5, має прихований недолік: він спричиняє, що понад 25% нейронів шарів MLP назавжди гинуть під час раннього тренування. Команда розробила Aurora — альтернативний оптимізатор — і відкрила його код. Модель із 1,1B параметрами, натренована лише на 100B токенів, досягла продуктивності на рівні Qwen3-1.7B, навченої на 36T токенів, у бенчмарках розуміння мови, зокрема HellaSwag і Winogrand
GateNews4год тому
Nvidia інвестує понад 40 мільярдів доларів у проєкти зі ШІ на початку 2026 року, зокрема 30 мільярдів доларів для OpenAI
За даними TechCrunch, Nvidia у перші місяці 2026 року спрямувала понад 40 мільярдів доларів на інвестиції в акціонерний капітал AI-компаній, причому інвестиція в OpenAI на 30 мільярдів доларів стала найбільшою окремою угодою. Виробник чипів також пообіцяв до 3,2 мільярда доларів склозаводу Corning і до 2,1 мільярда доларів оператору дата-центрів IREN, що включає дворічну гарантію та окремий контракт на 3,4 мільярда доларів на керовані GPU-хмарні сервіси з використанням систем Nvidia Blackwell. З
GateNews7год тому