72 часа кризиса идентичности Anthropic

2026-03-05 07:03:46
Средний
Blockchain
За семьдесят два часа Anthropic оказалась перед ультиматумом Пентагона, публичными обвинениями от Илона Маска и отказом от собственных обязательств по безопасности. Компания, ранее отказавшаяся от разработки автономного военного оружия, пересмотрела RSP 3.0 и отказалась от принципа «pause training», продолжая позиционировать себя как лидера в сфере «безопасного ИИ». Теперь Anthropic сталкивается с усиливающимся разрывом между имиджем и реальными действиями. В статье рассматриваются политические факторы, давление оценки и разрушение премиального нарратива безопасности, которые формируют этот кризис идентичности.

Вторник, 24 февраля. Вашингтон, Пентагон.

Генеральный директор Anthropic Дарио Амодеи сидел напротив министра обороны Пита Хегсета. По данным NPR и CNN, встреча прошла «вежливо», но ее содержание было далеко от мягкости.

Хегсет выдвинул ультиматум: к 17:01 в пятницу Anthropic должен снять все ограничения на военное использование Claude и разрешить Пентагону применять его для «всех законных целей», включая автономное наведение оружия и масштабное внутреннее наблюдение.

В противном случае контракт на $200 миллионов будет аннулирован. Будет применен Закон о производстве для нужд обороны, предусматривающий принудительное изъятие. Anthropic будет признан «риском для цепочки поставок» — фактически внесен в черный список вместе с противниками, такими как Россия и Китай.

В тот же день Anthropic опубликовал третью редакцию Responsible Scaling Policy (RSP 3.0), тихо убрав свое основное обещание: не обучать более мощные модели без внедрения мер безопасности.

Также в этот день Илон Маск разместил на X: «Anthropic осуществил крупномасштабное хищение обучающих данных — это факт». В то же время Community Notes на X ссылались на сообщения о том, что Anthropic выплатил $1,5 миллиарда для урегулирования претензий по обучению Claude на пиратских книгах.

За семьдесят два часа компания, ранее заявлявшая о наличии «души», стала мучеником безопасности, нарушителем интеллектуальной собственности и предателем Пентагона.

Кто настоящая Anthropic?

Возможно, все три.

Мандат Пентагона: «Выполняй или уходи»

Первый слой истории прост.

Anthropic стала первой компанией ИИ, получившей секретный доступ от Министерства обороны США, с контрактом до $200 миллионов, заключенным прошлым летом. OpenAI, Google и xAI позже получили аналогичные контракты.

Al Jazeera сообщает, что Claude применялся в военной операции США в январе. Миссия включала похищение президента Венесуэлы Мадуро.

Anthropic провела две красные линии: не поддерживать полностью автономное наведение оружия и не поддерживать масштабное наблюдение за гражданами США. Компания утверждает, что ИИ недостаточно надежен для управления оружием, а законы для массового наблюдения с помощью ИИ отсутствуют.

Пентагон не принял эти аргументы.

В октябре советник Белого дома по ИИ Дэвид Сакс публично обвинил Anthropic на X в «использовании страха для достижения регуляторного контроля».

Конкуренты уже уступили. OpenAI, Google и xAI согласились разрешить военное применение своих ИИ для «всех законных сценариев». Grok Маска только что одобрен для секретных систем.

Anthropic осталась последней, кто не уступил.

На момент написания Anthropic в последнем заявлении сообщила, что не собирается уступать. Но крайний срок — пятница, 17:01 — приближается.

Анонимный бывший посредник между Министерством юстиции и Пентагоном сказал CNN: «Как можно объявить компанию "риском для цепочки поставок" и одновременно заставлять ее работать на военные нужды?»

Это хороший вопрос — но Пентагон им не интересуется. Их задача — если Anthropic не пойдет на компромисс, заставить подчиниться или оставить компанию в изоляции в Вашингтоне.

«Distillation Attack»: публичное обвинение оборачивается против обвинителя

23 февраля Anthropic опубликовал резкий блог-пост, обвинив три китайские компании ИИ — DeepSeek, Moonshot AI и MiniMax — в «промышленных атаках дистилляции» на Claude.

Anthropic утверждает, что эти компании использовали 24 000 фейковых аккаунтов для проведения более 16 миллионов взаимодействий с Claude, систематически извлекая его ключевые возможности в агентном мышлении, использовании инструментов и программировании.

Anthropic представил это как угрозу национальной безопасности, заявив, что дистиллированные модели «вряд ли сохраняют защитные барьеры» и могут быть использованы авторитарными правительствами для кибератак, дезинформации и массового наблюдения.

Этот нарратив был своевременным и хорошо сформулированным.

Он появился после того, как администрация Трампа ослабила экспортный контроль чипов в Китай — как раз тогда Anthropic понадобились новые аргументы для лоббирования экспорта чипов.

Но Маск ответил: «Anthropic осуществил крупномасштабное хищение обучающих данных и выплатил миллиарды в урегулировании. Это факт».

Сооснователь IO.Net Тори Грин прокомментировал: «Вы обучаете свои модели на всем интернете, а когда другие учатся через ваш публичный API, называете это "атакой дистилляции"?»

Anthropic называет дистилляцию «атакой», но это стандартная практика в индустрии ИИ. OpenAI использовал ее для сжатия GPT-4, Google — для оптимизации Gemini, Anthropic тоже применяла ее. Единственное отличие — в этот раз объектом стала Anthropic.

Как отметил профессор ИИ из NTU Эрик Камбрия в интервью CNBC: «Грань между легитимным использованием и злонамеренной эксплуатацией часто размыта».

Еще ироничнее, Anthropic недавно выплатила $1,5 миллиарда для урегулирования претензий по обучению Claude на пиратских книгах. Они обучали на всем интернете, а затем обвиняют других в обучении через свой публичный API. Это не просто двойные стандарты — это тройные стандарты.

Anthropic пыталась представить себя жертвой, но оказалась обвиняемой.

Отказ от обязательств по безопасности: RSP 3.0

В тот же день, когда Anthropic столкнулась с Пентагоном и спорила с Кремниевой долиной, компания выпустила третью версию Responsible Scaling Policy.

Главный научный сотрудник Джаред Каплан заявил: «Мы не считаем, что остановка обучения моделей ИИ приносит кому-либо пользу. ИИ развивается настолько быстро, что односторонние обязательства, когда конкуренты идут вперед на полной скорости, не имеют смысла».

Иными словами: если другие не соблюдают правила, мы тоже не будем.

В основе RSP 1.0 и 2.0 лежало жесткое обязательство: если возможности модели выходят за рамки мер безопасности, обучение приостанавливается. Это обещание обеспечило Anthropic уникальную репутацию в сообществе по безопасности ИИ.

Но версия 3.0 отказалась от этого обещания.

Его заменили более «гибкой» схемой — разделением мер безопасности, которые Anthropic может внедрить, и отраслевых рекомендаций. Каждые 3–6 месяцев будет публиковаться отчет о рисках с внешней экспертной оценкой.

Звучит ли это ответственно?

Крис Пейнтер, независимый эксперт METR, после ознакомления с черновиком отметил: «Это показывает, что Anthropic считает необходимым перейти в "режим сортировки", потому что оценка и снижение рисков не успевают за ростом возможностей. Это еще одно доказательство того, что общество не готово к катастрофическим рискам ИИ».

TIME сообщил, что Anthropic почти год внутренне обсуждала эту редакцию, а генеральный директор Амодеи и совет директоров одобрили ее единогласно. Официально исходная политика должна была способствовать консенсусу в отрасли, но индустрия не поддержала ее. Администрация Трампа заняла позицию невмешательства в ИИ, даже пыталась отменить законы штатов. Федеральное регулирование ИИ остается недостижимым. В 2023 году казалось возможным создание глобальной системы управления, но спустя три года эта возможность исчезла.

Анонимный исследователь с большим стажем в управлении ИИ выразился прямо: «RSP — самый ценный брендовый актив Anthropic. Отказ от паузы в обучении — как если бы производитель органических продуктов тихо убрал "органик" с этикетки, а потом заявил, что теперь тестирование стало прозрачнее».

Кризис идентичности при оценке $380 миллиардов

В начале февраля Anthropic завершила раунд финансирования на $30 миллиардов при общей оценке $380 миллиардов, где Amazon выступил ведущим инвестором. С момента основания компания достигла $14 миллиардов годовой выручки, а за последние три года этот показатель рос более чем в десять раз ежегодно.

В то же время Пентагон угрожает включить компанию в черный список. Маск публично обвиняет ее в краже данных. Ключевое обязательство по безопасности исчезло. Руководитель по безопасности ИИ Anthropic Мринанк Шарма ушел и написал на X: «Миру грозит опасность».

Противоречие?

Возможно, противоречие — часть ДНК Anthropic.

Основанная бывшими руководителями OpenAI, обеспокоенными скоростью внедрения мер безопасности в OpenAI, Anthropic создала еще более мощные модели, быстрее, одновременно рассказывая миру об их опасности.

Суть бизнес-модели: мы боимся ИИ больше всех, поэтому вы должны платить нам за его создание.

Этот нарратив отлично работал в 2023–2024 годах. Безопасность ИИ была ключевой темой в Вашингтоне, а Anthropic — самым активным лоббистом.

К 2026 году ситуация изменилась.

«Woke AI» стал политическим оскорблением, регулирование ИИ на уровне штатов заблокировано Белым домом, и хотя SB 53 в Калифорнии (поддержанный Anthropic) стал законом, на федеральном уровне ничего не произошло.

Нарратив безопасности Anthropic превращается из «отличительной черты» в «политическую обузу».

Anthropic ведет сложную игру — ей нужно быть достаточно «безопасной» для сохранения бренда, но достаточно «гибкой», чтобы не быть отвергнутой рынком или государством. Проблема в том, что терпимость обеих сторон уменьшается.

Сколько стоит нарратив безопасности сегодня?

В совокупности три события дают ясную картину.

Обвинение китайских компаний в дистилляции Claude усиливает лоббистские аргументы за экспортный контроль чипов. Отказ от паузы безопасности сохраняет Anthropic в гонке вооружений. Неподчинение требованию Пентагона по автономному оружию оставляет последний слой моральной репутации.

Каждое действие логично, но каждое противоречит другому.

Нельзя утверждать, что китайские компании «дистиллируют» вашу модель и это угрожает национальной безопасности, одновременно снимая собственное обязательство не допускать выхода модели из-под контроля. Если модель настолько опасна, нужно быть осторожнее, а не агрессивнее.

Если только вы не Anthropic.

В индустрии ИИ идентичность определяется не заявлениями, а балансом. Нарратив «безопасности» Anthropic — по сути, надбавка к бренду.

В начале гонки ИИ эта надбавка была ценной. Инвесторы платили за «ответственный ИИ», правительства одобряли «доверенный ИИ», клиенты покупали «более безопасный ИИ».

Но к 2026 году эта надбавка исчезает.

Anthropic теперь сталкивается не с вопросом «компромисс или нет», а с дилеммой «с кем идти на компромисс первым». Компромисс с Пентагоном — ущерб бренду. Компромисс с конкурентами — отказ от обязательства по безопасности. Компромисс с инвесторами — уступки обеих сторон.

В пятницу в 17:01 Anthropic даст ответ.

Каким бы ни был результат, ясно одно: Anthropic, которая раньше строила успех на лозунге «мы не такие, как OpenAI», становится такой же, как все.

Конец кризиса идентичности часто означает исчезновение самой идентичности.

Заявление:

  1. Данная статья воспроизводится с сайта [TechFlow]. Авторские права принадлежат оригинальному автору [Ada]. Если у вас есть вопросы по данному воспроизведению, пожалуйста, свяжитесь с командой Gate Learn, и мы оперативно решим вопрос в соответствии с действующими процедурами.
  2. Отказ от ответственности: Мнения и взгляды, изложенные в данной статье, принадлежат исключительно автору и не являются инвестиционной рекомендацией.
  3. Другие языковые версии данной статьи переведены командой Gate Learn. Без упоминания Gate копирование, распространение или плагиат переведенных материалов запрещены.

Пригласить больше голосов

Крипто-календарь
Разблокировка Токенов
Wormhole разблокирует 1,280,000,000 W токенов 3 апреля, что составляет примерно 28.39% от текущего обращающегося предложения.
W
-7.32%
2026-04-02
Разблокировка Токенов
Сеть Pyth разблокирует 2 130 000 000 токенов PYTH 19 мая, что составляет примерно 36,96% от текущего обращающегося предложения.
PYTH
2.25%
2026-05-18
Разблокировка Токенов
Pump.fun разблокирует 82 500 000 000 токенов PUMP 12 июля, что составит примерно 23,31% от currently circulating supply.
PUMP
-3.37%
2026-07-11
Разблокировка токенов
Succinct разблокирует 208,330,000 PROVE токенов 5 августа, что составляет примерно 104,17% от текущего обращающегося предложения.
PROVE
2026-08-04
sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

Похожие статьи

Что такое Tronscan и как вы можете использовать его в 2025 году?
Новичок

Что такое Tronscan и как вы можете использовать его в 2025 году?

Tronscan — это обозреватель блокчейна, который выходит за рамки основ, предлагая управление кошельком, отслеживание токенов, аналитику смарт-контрактов и участие в управлении. К 2025 году она будет развиваться за счет улучшенных функций безопасности, расширенной аналитики, кроссчейн-интеграции и улучшенного мобильного опыта. Теперь платформа включает в себя расширенную биометрическую аутентификацию, мониторинг транзакций в режиме реального времени и комплексную панель управления DeFi. Разработчики получают выгоду от анализа смарт-контрактов на основе искусственного интеллекта и улучшенных сред тестирования, в то время как пользователи наслаждаются унифицированным многоцепочечным представлением портфеля и навигацией на основе жестов на мобильных устройствах.
2023-11-22 18:27:42
Что такое индикатор кумулятивного объема дельты (CVD)? (2025)
Средний

Что такое индикатор кумулятивного объема дельты (CVD)? (2025)

Изучите эволюцию кумулятивного объема дельты (CVD) в криптоторговле в 2025 году, от интеграции машинного обучения и анализа межбиржевых данных до продвинутых инструментов визуализации, позволяющих более точно принимать рыночные решения за счет агрегации данных с нескольких платформ и автоматического обнаружения дивергенций.
2023-12-10 20:02:26
Что такое Нейро? Все, что вам нужно знать о NEIROETH в 2025 году
Средний

Что такое Нейро? Все, что вам нужно знать о NEIROETH в 2025 году

Neiro - это собака породы шиба-ину, которая вдохновила запуск токенов Neiro на различных блокчейнах. К 2025 году Neiro Ethereum (NEIROETH) превратился в ведущий мем-коин с рыночной капитализацией 215 миллионов долларов, 87 000+ держателей и листингом на 12 крупнейших биржах. Экосистема теперь включает DAO для управления сообществом, официальный магазин мерчандайза и мобильное приложение. NEIROETH внедрил решения второго уровня для увеличения масштабируемости и закрепил свою позицию в топ-10 мем-коинов по капитализации, поддерживаемый активным сообществом и ведущими крипто-инфлюенсерами.
2024-09-05 15:37:05
Что такое Solscan и как его использовать? (Обновление 2025 года)
Средний

Что такое Solscan и как его использовать? (Обновление 2025 года)

Solscan — это усовершенствованный обозреватель блокчейна Solana, который предлагает пользователям веб-платформу для исследования и анализа транзакций, адресов кошельков, контрактов, NFT и DeFi проектов на блокчейне Solana. После его приобретения Etherscan в 2025 году платформа теперь имеет переработанную аналитическую панель, расширенные инструменты для разработчиков, продвинутые функции безопасности, комплексный мониторинг DeFi протоколов по 78 протоколам и сложные интеграции NFT-рынков с инструментами анализа редкости.
2024-03-08 14:36:44
15 криптовалютных проектов уровня 1 (L1), на которые стоит обратить внимание в 2024 году
Новичок

15 криптовалютных проектов уровня 1 (L1), на которые стоит обратить внимание в 2024 году

В этой статье рассматриваются 15 проектов криптовалюты Layer-1, на которые стоит обратить внимание в 2024 году, подчеркивая их важность в обеспечении безопасности, консенсуса и децентрализации экосистемы блокчейна. В то время как решения Layer-2 улучшают производительность, они все равно полагаются на безопасность и децентрализацию, обеспечиваемые сетями Layer-1.
2024-07-19 07:05:12
Что такое Telegram NFT?
Средний

Что такое Telegram NFT?

В этой статье обсуждается превращение Telegram в приложение, работающее на основе NFT, интегрирующее технологию блокчейна для революционизации цифрового дарения и владения. Узнайте основные возможности, возможности для художников и создателей, и будущее цифровых взаимодействий с NFT от Telegram.
2025-01-10 01:41:40