Anthropic утверждает, что 3 китайские компании украли у него технологии, используя его инструменты ИИ для обучения своих моделей: «Как повернулась ситуация»

Anthropic обвинила три известных китайских компании, занимающихся искусственным интеллектом, в использовании своего чатбота Claude в массовых масштабах для тайного обучения конкурирующих моделей, что стало неожиданным развитием в многолетней глобальной дискуссии о границах мошенничества и отраслевых стандартных практик.

Рекомендуемое видео


В своем блоге в понедельник, базирующаяся в Сан-Франциско компания Anthropic заявила, что китайские лаборатории DeepSeek, Moonshot AI и MiniMax нарушили корпоративное законодательство, взаимодействуя с Claude — своим инструментом для кодирования, меняющим рынок. «Мы выявили масштабные кампании трех лабораторий — DeepSeek, Moonshot и MiniMax — по незаконному извлечению возможностей Claude для улучшения своих собственных моделей», — говорится в сообщении компании. «Эти лаборатории осуществили более 16 миллионов обменов с Claude через примерно 24 000 мошеннических аккаунтов, что нарушает наши условия использования и региональные ограничения доступа.»

По словам Anthropic, китайские компании использовали технику, известную как «дистилляция», при которой одна модель обучается на результатах другой, зачастую более мощной системы. Кампании, по их словам, сосредоточены на областях, которые Anthropic считает ключевыми отличиями Claude, включая сложное рассуждение, помощь в программировании и использование инструментов.

Anthropic утверждает, что хотя дистилляция является «широко используемым и легитимным методом обучения», использование ее китайскими компаниями в таком виде может иметь «незаконные цели». Использование обширных сетей фальшивых аккаунтов для копирования запатентованных моделей конкурентов нарушает условия использования и подрывает американский экспортный контроль, направленный на ограничение доступа Китая к передовым ИИ, заявила Anthropic, призывая к «быстрым, скоординированным действиям среди участников отрасли, политиков и мировой ИИ-сообщества.»

Если не дистилляция, то недавно Anthropic обвинили в нарушении авторских прав тысяч авторов, якобы массово скачивавших книги из теневых библиотек для обучения своих моделей ИИ, вместо того чтобы покупать копии и сканировать их самостоятельно. В историческом решении Anthropic урегулировала этот иск за 1,5 миллиарда долларов в сентябре 2025 года, выплатив авторам около 3000 долларов за книгу за примерно 500 000 произведений.

Как обвиняют китайские компании

Компания утверждает, что три лаборатории обходили геозонирование и бизнес-ограничения, ограничивающие коммерческую доступность Claude в Китае, направляя трафик через прокси-сервисы, перепродающие доступ к крупным западным моделям ИИ. Один из таких «гидра-кластеров», по словам Anthropic, управлял десятками тысяч аккаунтов одновременно, чтобы распределять запросы по разным API-ключам и облачным провайдерам.

После создания этих аккаунтов, лаборатории якобы писали длинные, высоко-токеновые диалоги, предназначенные для получения подробных, пошаговых ответов, которые затем могли быть использованы в их собственных системах как обучающие данные. По версии Anthropic, в результате получилась нелегальная цепочка, превращающая Claude в нежелательного учителя для моделей, разрабатываемых внутри Китая в условиях растущей конкуренции в секторе ИИ.

Anthropic еще не объявила конкретных исков против трех компаний, но дала понять, что отключила известные точки доступа и призывает Вашингтон ужесточить экспортный контроль на передовые чипы и услуги ИИ, чтобы предотвратить подобные попытки в будущем.

«Как меняются роли»

Если Anthropic надеялась на сочувствие, реакция в интернете и среди отраслевых наблюдателей оказалась заметно скептической. Комментаторы быстро отметили, что сама Anthropic сталкивалась с громкими обвинениями в чрезмерных сборе данных, выходящих за рамки авторского дела, например, в отдельном случае скрейпинга контента Reddit. «Как меняются роли», — написал один из участников на Reddit в теме r/singularity, игра слов, часто приписываемая мемам, возникшим по мотивам телешоу The Office.

За этой критикой скрывается более широкая борьба за установление правил для отрасли, основанной на ремиксе человеческой работы. Американские компании, такие как Anthropic и OpenAI, все активнее требуют строгого преследования иностранных конкурентов, которых обвиняют в копировании запатентованных систем, несмотря на защиту своих собственных масштабных сборов данных под предлогом fair use.

Китайские лаборатории, многие из которых выпускают более открытые модели с открытым исходным кодом, стремятся сократить разрыв с западными конкурентами, используя любые легальные преимущества. В то время как Вашингтон уже обсуждает ужесточение экспортных ограничений на ИИ-чипы и облачные сервисы в Китай, обвинения Anthropic, вероятно, усилят призывы к введению новых правил — и дадут критикам еще один повод отметить неудобную симметрию в современной ИИ-среде.

Для этой статьи журналисты Fortune использовали генеративный ИИ в качестве исследовательского инструмента. Редактор проверил точность информации перед публикацией.

Присоединяйтесь к Summit по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Наступает новая эпоха инноваций на рабочем месте — и старые стратегии переписываются. На этом эксклюзивном, насыщенном событиями мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить