Anthropic стверджує, що 3 китайські компанії скопіювали її, використовуючи її інструменти штучного інтелекту для навчання своїх моделей: ‘Як обертаються стільці’

Anthropic звинуватила три провідні китайські компанії у сфері штучного інтелекту у масовому використанні свого чатбота Claude для таємного навчання конкурентних моделей, що стало несподіваним розвитком у багаторічних глобальних дебатах про межі шахрайства та промислову практику.

Рекомендоване відео


У понеділковому блозі компанія з Сан-Франциско, Anthropic, заявила, що китайські лабораторії DeepSeek, Moonshot AI і MiniMax порушили корпоративне законодавство, взаємодіючи з Claude, своїм інструментом для кодування, що змінює ринок. «Ми виявили масштабні кампанії трьох лабораторій штучного інтелекту — DeepSeek, Moonshot і MiniMax — щодо незаконного використання можливостей Claude для покращення власних моделей», — йдеться у заяві компанії. «Ці лабораторії здійснили понад 16 мільйонів обмінів з Claude через приблизно 24 000 фальшивих акаунтів, що порушує наші умови обслуговування та регіональні обмеження доступу.»

Згідно з Anthropic, китайські компанії використовували техніку, відому як «дистиляція», коли одна модель навчається на вихідних даних іншої, часто більш потужної системи. Кампанії нібито зосереджувалися на сферах, які Anthropic вважає ключовими для Claude, включаючи складне логічне мислення, допомогу у програмуванні та використання інструментів.

Anthropic стверджує, що хоча дистиляція є «широко використовуваним і легітимним методом навчання», використання її китайськими компаніями у такій формі може бути для «незаконних цілей». Використання масштабних мереж фальшивих акаунтів для копіювання власної моделі конкурента порушує умови обслуговування та підриває американські експортні обмеження, спрямовані на обмеження доступу Китаю до передових систем штучного інтелекту, заявила Anthropic, закликаючи до «швидких, скоординованих дій між галуззю, політиками та глобальною спільнотою ШІ».

Якщо не дистиляція, то нещодавно Anthropic звинуватили у порушенні авторських прав тисячі авторів, які нібито масово завантажували книги з тіньових бібліотек для навчання своїх моделей ШІ, замість купувати копії та самостійно сканувати їх. У історичному рішенні Anthropic врегулювала цей позов у вересні 2025 року, виплативши авторам близько 3 000 доларів за книгу за приблизно 500 000 творів.

Як звинувачують китайські компанії

Компанія стверджує, що три лабораторії обійшли геозони та бізнес-обмеження, які обмежують комерційний доступ до Claude в Китаї, маршрутизуючи трафік через проксі-сервіси, що перепродавали доступ до провідних західних моделей ШІ. Один із таких «гідра-кластерів», за словами Anthropic, керував десятками тисяч акаунтів одночасно, щоб розподіляти запити через різні API-ключі та хмарні провайдери.

Після створення цих акаунтів лабораторії нібито писали довгі, високотокенні діалоги, спрямовані на отримання детальних, покрокових відповідей, які потім можна було використовувати як навчальні дані для власних систем. За словами Anthropic, результатом стала «паралельна» лінія постачання, яка перетворила Claude на непримусового вчителя для моделей, що розробляються всередині Китаю в умовах зростаючої конкуренції у сфері ШІ.

Anthropic ще не оголосила конкретних позовів проти трьох компаній, але дала зрозуміти, що вже заблокувала відомі точки доступу та закликає Вашингтон посилити експортний контроль на передові чіпи та послуги ШІ, щоб запобігти подібним спробам у майбутньому.

«Як повернулися карти»

Якщо Anthropic сподівалася на співчуття, реакція в інтернеті та серед галузевих спостерігачів була помітно скептичною. Коментатори швидко зауважили, що сама Anthropic стикалася з високопрофільними звинуваченнями у надмірних діях щодо збору даних, окрім справи з авторським правом, наприклад, у окремій справі щодо скрапінгу контенту Reddit. «Як повернулися карти», — написав один із користувачів у Reddit-обговоренні r/singularity, гра слів, що часто приписується мемам із телевізійного шоу The Office.

За цим скепсисом приховується ширша боротьба за те, хто встановлює правила для галузі, побудованої на реміксі людської праці. Американські компанії, такі як Anthropic та OpenAI, дедалі більше наполягають на жорсткому застосуванні правил проти іноземних конкурентів, яких звинувачують у копіюванні власних систем, водночас захищаючи свої масштабні збори даних під прапором справедливого використання.

Китайські лабораторії, багато з яких випускають відкриті моделі, прагнуть закрити розрив у продуктивності з західними конкурентами, використовуючи будь-які легальні переваги. Оскільки Вашингтон уже обговорює посилення обмежень на експорт чіпів та хмарних сервісів у Китай, звинувачення Anthropic, ймовірно, підсилять заклики до нових обмежень — і дадуть критикам ще один привід звернути увагу на незручну симетрію у сучасному ШІ.

У цій статті журналісти Fortune використовували генеративний ШІ як інструмент дослідження. Редактор перевірив точність інформації перед публікацією.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити