# Anthropic обвинила китайські ІІ-лабораторії у «крадіжці» даних
Компанія Anthropic звинуватила три китайські ІІ-стартапи — DeepSeek, Moonshot і MiniMax — у масштабній кампанії з використання Claude для покращення власних моделей.
Лабораторії з КНР згенерували понад 16 млн взаємодій з чат-ботом через приблизно 24 000 шахрайських акаунтів, порушуючи умови використання та регіональні обмеження.
«Ми з високою впевненістю пов’язали кожну кампанію з конкретною компанією на основі кореляції IP-адрес, метаданих запитів, інфраструктурних ознак і підтверджень від партнерів у галузі. Вони націлювалися на найунікальніші можливості Claude: агентне міркування, використання інструментів і програмування», — заявили в Anthropic.
Компанії застосували дистилляцію — навчання менш потужної нейромережі на висновках більш сильної.
Це широко застосовуваний і легітимний метод. Провідні ІІ-лабораторії регулярно дистилюють власні моделі, щоб створювати їх компактні та дешеві версії для клієнтів.
«Однак вона може застосовуватися і незаконно: конкуренти покращують можливості за рахунок чужих LLM за незначний час і витрати порівняно з самостійною розробкою», — йдеться у блозі Anthropic.
У компанії підкреслили, що вікно для реагування на подібну «крадіжку» вузьке, а загроза виходить за межі однієї компанії або регіону. Для її усунення потрібні швидкі та скоординовані дії з боку індустрії, регуляторів і світової ІІ-спільноти.
Чому це небезпечно
В Anthropic пояснили ризики такого підходу. Незаконно дистилювані моделі не зберігають необхідні захисні механізми — це створює проблеми для національної безпеки.
Американські компанії впроваджують системи для запобігання застосуванню штучного інтелекту у розробці біологічної зброї, шкідливих кібернападів та інших небезпечних дій. Створені через незаконну дистилляцію моделі не отримують таких обмежень.
Іноземні лабораторії можуть інтегрувати незахищені можливості у військові та розвідувальні системи, дозволяючи авторитарним урядам використовувати передовий ІІ для кібератак, дезінформації та масового стеження, додали у компанії.
Способи боротьби
Експерти Anthropic підтримали експортні обмеження для збереження лідерства США у ІІ. За їх словами, дистилляційні атаки підривають ці заходи, дозволяючи закордонним лабораторіям скорочувати технологічний розрив.
«Без прозорості таких атак швидкий прогрес китайських лабораторій помилково трактується як доказ неефективності експортних обмежень. На практиці їх досягнення багато в чому залежать від використання можливостей американських моделей, а масштабування такого підходу вимагає доступу до передових чипів», — йдеться у блозі компанії.
Anthropic назвала власні методи боротьби:
покращення системи виявлення патернів дистилляції;
обмін технічними індикаторами з іншими лабораторіями та хмарними провайдерами;
посилення верифікації освітніх і дослідницьких акаунтів;
застосування контрзаходів, що знижують ефективність незаконної дистилляції.
Це не перше подібне звинувачення. У січні 2025 року, незабаром після стрімкого виходу DeepSeek-R1, компанію підозрювали у крадіжці даних у OpenAI.
Продовження боротьби з Пентагоном
Генеральний директор Anthropic Дарио Амодеї зустрінеться з міністром оборони Пітом Хегсетом у Пентагоні для обговорення способів використання ІІ-моделей компанії військовими.
Останнім часом між сторонами виникли розбіжності — Anthropic виступає проти застосування штучного інтелекту для масового стеження за громадянами США та створення автономної зброї. У Міноборони чітко дали зрозуміти, що мають намір використовувати LLM «для всіх законних сценаріїв» без обмежень.
Дійшло до того, що у Пентагоні заявили про можливе розірвання договору з Anthropic.
ІІ-сканер уразливостей
Акції провідних публічних компаній у сфері кібербезпеки знизилися після запуску Anthropic інструменту Claude Code Security — це ІІ-сканер уразливостей у коді.
На сайті компанії зазначено, що новий сервіс «аналізує всю кодову базу на наявність уразливостей, перевіряє кожну знахідку для мінімізації хибних спрацьовувань і пропонує виправлення».
Claude проводить аналіз «як досвідчений дослідник безпеки»: розуміє контекст, відслідковує потоки даних, виявляє уразливості.
За інформацією VentureBeat, Claude Opus 4.6 виявила понад 500 критичних уразливостей, які зберігалися десятиліттями, незважаючи на перевірки експертів.
П’ять найбільших за капіталізацією американських публічних компаній у сфері ІТ-безпеки продемонстрували двозначне зниження котирувань за останні п’ять днів на тлі появи ІІ-конкурента:
Palo Alto Networks — -14%;
CrowdStrike — -18%;
Fortinet — -12%;
Cloudflare — -18%;
Zscaler — -19%.
Графік ціноутворення акцій Palo Alto Networks. Джерело: Yahoo Finance.Аналітики Wedbush заявили, що розпродаж паперів пов’язаний із побоюваннями навколо так званої AI Ghost Trade. На їхню думку, реакція ринку помилкова, а Palo Alto, CrowdStrike і Zscaler доведуть свою ефективність у 2026 році.
Нагадаємо, у лютому OpenAI спільно з Paradigm представила EVMbench — бенчмарк для оцінки здатності ІІ-агентів виявляти, виправляти і експлуатувати вразливості у смарт-контрактах.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Anthropic звинуватила китайські ІІ-лабораторії у «крадіжці» даних - ForkLog: криптовалюти, ІІ, сингулярність, майбутнє
Компанія Anthropic звинуватила три китайські ІІ-стартапи — DeepSeek, Moonshot і MiniMax — у масштабній кампанії з використання Claude для покращення власних моделей.
Лабораторії з КНР згенерували понад 16 млн взаємодій з чат-ботом через приблизно 24 000 шахрайських акаунтів, порушуючи умови використання та регіональні обмеження.
Компанії застосували дистилляцію — навчання менш потужної нейромережі на висновках більш сильної.
Це широко застосовуваний і легітимний метод. Провідні ІІ-лабораторії регулярно дистилюють власні моделі, щоб створювати їх компактні та дешеві версії для клієнтів.
У компанії підкреслили, що вікно для реагування на подібну «крадіжку» вузьке, а загроза виходить за межі однієї компанії або регіону. Для її усунення потрібні швидкі та скоординовані дії з боку індустрії, регуляторів і світової ІІ-спільноти.
Чому це небезпечно
В Anthropic пояснили ризики такого підходу. Незаконно дистилювані моделі не зберігають необхідні захисні механізми — це створює проблеми для національної безпеки.
Американські компанії впроваджують системи для запобігання застосуванню штучного інтелекту у розробці біологічної зброї, шкідливих кібернападів та інших небезпечних дій. Створені через незаконну дистилляцію моделі не отримують таких обмежень.
Іноземні лабораторії можуть інтегрувати незахищені можливості у військові та розвідувальні системи, дозволяючи авторитарним урядам використовувати передовий ІІ для кібератак, дезінформації та масового стеження, додали у компанії.
Способи боротьби
Експерти Anthropic підтримали експортні обмеження для збереження лідерства США у ІІ. За їх словами, дистилляційні атаки підривають ці заходи, дозволяючи закордонним лабораторіям скорочувати технологічний розрив.
Anthropic назвала власні методи боротьби:
Це не перше подібне звинувачення. У січні 2025 року, незабаром після стрімкого виходу DeepSeek-R1, компанію підозрювали у крадіжці даних у OpenAI.
Продовження боротьби з Пентагоном
Генеральний директор Anthropic Дарио Амодеї зустрінеться з міністром оборони Пітом Хегсетом у Пентагоні для обговорення способів використання ІІ-моделей компанії військовими.
Останнім часом між сторонами виникли розбіжності — Anthropic виступає проти застосування штучного інтелекту для масового стеження за громадянами США та створення автономної зброї. У Міноборони чітко дали зрозуміти, що мають намір використовувати LLM «для всіх законних сценаріїв» без обмежень.
Дійшло до того, що у Пентагоні заявили про можливе розірвання договору з Anthropic.
ІІ-сканер уразливостей
Акції провідних публічних компаній у сфері кібербезпеки знизилися після запуску Anthropic інструменту Claude Code Security — це ІІ-сканер уразливостей у коді.
На сайті компанії зазначено, що новий сервіс «аналізує всю кодову базу на наявність уразливостей, перевіряє кожну знахідку для мінімізації хибних спрацьовувань і пропонує виправлення».
Claude проводить аналіз «як досвідчений дослідник безпеки»: розуміє контекст, відслідковує потоки даних, виявляє уразливості.
За інформацією VentureBeat, Claude Opus 4.6 виявила понад 500 критичних уразливостей, які зберігалися десятиліттями, незважаючи на перевірки експертів.
П’ять найбільших за капіталізацією американських публічних компаній у сфері ІТ-безпеки продемонстрували двозначне зниження котирувань за останні п’ять днів на тлі появи ІІ-конкурента:
Нагадаємо, у лютому OpenAI спільно з Paradigm представила EVMbench — бенчмарк для оцінки здатності ІІ-агентів виявляти, виправляти і експлуатувати вразливості у смарт-контрактах.