Повідомлення Gate News, 21 квітня — компанія з безпеки OX Security розкрила вразливість (RCE) з віддаленим виконанням коду на рівні проєктування в MCP (Model Context Protocol), відкритому стандарті для AI-агентів, щоб викликати зовнішні інструменти, яким керує Anthropic. Зловмисники можуть виконувати довільні команди на будь-якій системі, що працює з уразливою реалізацією MCP, отримуючи доступ до даних користувача, внутрішніх баз даних, ключів API та історій чатів.
Недолік виникає не через помилки реалізації, а через стандартну поведінку в офіційному SDK від Anthropic під час обробки транспорту STDIO — це стосується версій для Python, TypeScript, Java та Rust. StdioServerParameters в офіційному SDK безпосередньо запускає підпроцеси на основі параметрів команд конфігурації; без додаткового очищення введених даних розробниками будь-яке введення користувача, що потрапляє на цьому етапі, стає системною командою. OX Security визначила чотири вектори атаки: пряме впровадження команд через інтерфейси конфігурації, обходження очищення за допомогою прапорців команд зі списку дозволених (e.g., npx -c ), prompt injection у IDE для переписування файлів конфігурації MCP для інструментів на кшталт Windsurf, щоб запустити шкідливі STDIO-сервіси без взаємодії з користувачем, а також інжектування STDIO-конфігурацій через HTTP-запити в маркетплейсах MCP.
За даними OX Security, уражені пакети були завантажені понад 150 мільйонів разів, а понад 7,000 публічно доступних MCP-серверів розкривають до 200,000 інстансів у понад 200 open-source проєктах. Команда подала 30+ відповідальних повідомлень про вразливості, що призвело до 10+ вразливостей високої критичності або критичних CVE, які охоплюють AI-фреймворки та IDE, зокрема LiteLLM, LangFlow, Flowise, Windsurf, GPT Researcher, Agent Zero та DocsGPT; 9 із 11 протестованих репозиторіїв пакетів MCP можна було скомпрометувати із застосуванням цієї техніки.
Anthropic відповіла, що це “за задумом”, назвавши модель виконання STDIO “безпечним стандартним дизайном”, і переклала відповідальність за очищення введених даних на розробників, відмовившись змінювати протокол або офіційний SDK. Хоча DocsGPT і LettaAI випустили патчі, еталонна реалізація Anthropic лишається незмінною. Оскільки MCP стає де-факто стандартом для AI-агентів, які отримують доступ до зовнішніх інструментів — після чого йдуть OpenAI, Google та Microsoft — будь-який MCP-сервіс, що використовує стандартний підхід STDIO з офіційного SDK, може стати вектором атаки, навіть якщо розробники пишуть код без помилок.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
Тайванські банки об’єдналися для створення локального ШІ! Фінансові великі мовні моделі найшвидше запрацюють до кінця року
Під керівництвом China Citic Financial Holding Company 16 фінансових установ оголосили про запуск проєкту «фінансова велика мовна модель FinLLM». Перша версія банківської моделі планується до випуску в серпні, а в 2026 році Q1 — представлення AI-агентів на базі FinLLM. Навчання стартує з травня, бюджет становить приблизно 40–70 млн юанів. Через регуляторні вимоги та потреби локалізації основою є навчання на локальних даних: посилення суверенного AI, побудова спільної базової інфраструктури, а також розширення на інклюзивні фінанси. План уже включено до державної програми розвитку ШІ та отримано підтримку міжвідомства.
ChainNewsAbmedia17хв. тому
Генеральний директор Google: 2026 року капітальні витрати сягнуть 185 млрд, у період інвестицій в AI-агенти інвестиції збільшуються
Генеральний директор Google Сундар Пічаї 22 квітня на конференції Google Cloud Next у Лас-Вегасі оголосив, що Google планує у 2026 році спрямувати від 175 до 185 мільярдів доларів капітальних витрат на будівництво інфраструктури, необхідної для автономних агентів штучного інтелекту (AI Agent), що на додаток до 31 мільярда доларів у 2022 році.
MarketWhisper53хв. тому
Google Jules запускає список оновлених кандидатів у відкритому доступі та перевизначає його як платформу для розробки end-to-end продуктів
Згідно з офіційним оголошенням команди Google Jules від 23 квітня, позиціонування продукту Jules оновлено з «асинхронного агентного агенту для кодування» до «кінцево-до-кінцевого агентного платформи для розробки продуктів»; нова версія здатна зчитувати повний контекст продукту, самостійно визначати наступний напрям побудови та надсилати PR. Офіційно також оголошено про відкриття списку кандидатів на нову версію.
MarketWhisper58хв. тому
Google Jules перейменовує на платформу розробки агентних продуктів end-to-end, відкриває список очікування для нової версії
Повідомлення Gate News, 23 квітня — команда Jules від Google оголосила про відкриття списку очікування для нової версії продукту, переорієнтувавши Jules з асинхронного агента для програмування на платформу розробки агентних продуктів end-to-end. Згідно з офіційним описом, оновлена платформа зчитує повний контекст продукту, визначає, що слід створити далі, пропонує рішення та надсилає pull requests.
GateNews1год тому
Perplexity розкриває метод пост-тренування агента веб-пошуку; модель на базі Qwen3.5 перевершує GPT-5.4 за точністю та вартістю
Perplexity використовує SFT із подальшим RL із моделями Qwen3.5, застосовуючи багатокроковий набір даних для QA та перевірки за рубрикою, щоб підвищити точність і ефективність пошуку, досягаючи рівня FRAMES найвищого класу.
Анотація: Робочий процес пост-тренування Perplexity для агентів веб-пошуку поєднує контрольоване донавчання (SFT) для забезпечення дотримання інструкцій і мовної узгодженості з онлайн підкріплювальним навчанням (RL) через алгоритм GRPO. Етап RL використовує власний багатоходовий верифікований датасет запитань-відповідей і розмовні дані на основі рубрики, щоб запобігти дрейфу SFT, із обмеженням винагород і штрафами за ефективність у межах групи. Оцінювання показує, що Qwen3.5-397B-SFT-RL досягає найвищих показників FRAMES: 57,3% точності за одного виклику інструмента та 73,9% за чотирьох викликів при $0,02 за запит, випереджаючи GPT-5.4 і Claude Sonnet 4.6 за цими метриками. Ціноутворення базується на API і не включає кешування.
GateNews2год тому
Команда OpenAI Codex виправила баг із автентифікацією OpenClaw та суттєво покращила поведінку агента
OpenClaw переходить з Pi на оснастку Codex, щоб виправити беззвучний аварійний відкат автентифікації, і має два PR, які усувають проблеми з мостом і відкатом; після виправлення агент переходить від поверхневого опитування сердець до повного робочого циклу, що дає змогу прогресувати.
Анотація: Оптимізація оснастки Codex в OpenClaw усунула критичну ваду автентифікації, через яку при використанні Codex з моделями OpenAI відбувався беззвучний відкат на оснастку Pi. Два pull request-и виправляють міст автентифікації та запобігають беззвучному відкату, змінюючи адаптер виконання. У результаті поведінка агента еволюціонує від поверхневого опитування сердець до повного робочого циклу, який читає контекст, аналізує завдання, редагує репозиторії та перевіряє прогрес, покращуючи безперервність і видимість протягом сердець.
GateNews3год тому