Вторник, 24 февраля. Вашингтон, Пентагон.
Генеральный директор Anthropic Дарио Амодеи сидел напротив министра обороны Пита Хегсета. По данным NPR и CNN, встреча прошла «вежливо», но ее содержание было далеко от мягкости.
Хегсет выдвинул ультиматум: к 17:01 в пятницу Anthropic должен снять все ограничения на военное использование Claude и разрешить Пентагону применять его для «всех законных целей», включая автономное наведение оружия и масштабное внутреннее наблюдение.
В противном случае контракт на $200 миллионов будет аннулирован. Будет применен Закон о производстве для нужд обороны, предусматривающий принудительное изъятие. Anthropic будет признан «риском для цепочки поставок» — фактически внесен в черный список вместе с противниками, такими как Россия и Китай.
В тот же день Anthropic опубликовал третью редакцию Responsible Scaling Policy (RSP 3.0), тихо убрав свое основное обещание: не обучать более мощные модели без внедрения мер безопасности.
Также в этот день Илон Маск разместил на X: «Anthropic осуществил крупномасштабное хищение обучающих данных — это факт». В то же время Community Notes на X ссылались на сообщения о том, что Anthropic выплатил $1,5 миллиарда для урегулирования претензий по обучению Claude на пиратских книгах.
За семьдесят два часа компания, ранее заявлявшая о наличии «души», стала мучеником безопасности, нарушителем интеллектуальной собственности и предателем Пентагона.
Кто настоящая Anthropic?
Возможно, все три.
Первый слой истории прост.
Anthropic стала первой компанией ИИ, получившей секретный доступ от Министерства обороны США, с контрактом до $200 миллионов, заключенным прошлым летом. OpenAI, Google и xAI позже получили аналогичные контракты.
Al Jazeera сообщает, что Claude применялся в военной операции США в январе. Миссия включала похищение президента Венесуэлы Мадуро.
Anthropic провела две красные линии: не поддерживать полностью автономное наведение оружия и не поддерживать масштабное наблюдение за гражданами США. Компания утверждает, что ИИ недостаточно надежен для управления оружием, а законы для массового наблюдения с помощью ИИ отсутствуют.
Пентагон не принял эти аргументы.
В октябре советник Белого дома по ИИ Дэвид Сакс публично обвинил Anthropic на X в «использовании страха для достижения регуляторного контроля».
Конкуренты уже уступили. OpenAI, Google и xAI согласились разрешить военное применение своих ИИ для «всех законных сценариев». Grok Маска только что одобрен для секретных систем.
Anthropic осталась последней, кто не уступил.
На момент написания Anthropic в последнем заявлении сообщила, что не собирается уступать. Но крайний срок — пятница, 17:01 — приближается.
Анонимный бывший посредник между Министерством юстиции и Пентагоном сказал CNN: «Как можно объявить компанию "риском для цепочки поставок" и одновременно заставлять ее работать на военные нужды?»
Это хороший вопрос — но Пентагон им не интересуется. Их задача — если Anthropic не пойдет на компромисс, заставить подчиниться или оставить компанию в изоляции в Вашингтоне.
23 февраля Anthropic опубликовал резкий блог-пост, обвинив три китайские компании ИИ — DeepSeek, Moonshot AI и MiniMax — в «промышленных атаках дистилляции» на Claude.
Anthropic утверждает, что эти компании использовали 24 000 фейковых аккаунтов для проведения более 16 миллионов взаимодействий с Claude, систематически извлекая его ключевые возможности в агентном мышлении, использовании инструментов и программировании.
Anthropic представил это как угрозу национальной безопасности, заявив, что дистиллированные модели «вряд ли сохраняют защитные барьеры» и могут быть использованы авторитарными правительствами для кибератак, дезинформации и массового наблюдения.
Этот нарратив был своевременным и хорошо сформулированным.
Он появился после того, как администрация Трампа ослабила экспортный контроль чипов в Китай — как раз тогда Anthropic понадобились новые аргументы для лоббирования экспорта чипов.
Но Маск ответил: «Anthropic осуществил крупномасштабное хищение обучающих данных и выплатил миллиарды в урегулировании. Это факт».

Сооснователь IO.Net Тори Грин прокомментировал: «Вы обучаете свои модели на всем интернете, а когда другие учатся через ваш публичный API, называете это "атакой дистилляции"?»
Anthropic называет дистилляцию «атакой», но это стандартная практика в индустрии ИИ. OpenAI использовал ее для сжатия GPT-4, Google — для оптимизации Gemini, Anthropic тоже применяла ее. Единственное отличие — в этот раз объектом стала Anthropic.
Как отметил профессор ИИ из NTU Эрик Камбрия в интервью CNBC: «Грань между легитимным использованием и злонамеренной эксплуатацией часто размыта».
Еще ироничнее, Anthropic недавно выплатила $1,5 миллиарда для урегулирования претензий по обучению Claude на пиратских книгах. Они обучали на всем интернете, а затем обвиняют других в обучении через свой публичный API. Это не просто двойные стандарты — это тройные стандарты.
Anthropic пыталась представить себя жертвой, но оказалась обвиняемой.
В тот же день, когда Anthropic столкнулась с Пентагоном и спорила с Кремниевой долиной, компания выпустила третью версию Responsible Scaling Policy.
Главный научный сотрудник Джаред Каплан заявил: «Мы не считаем, что остановка обучения моделей ИИ приносит кому-либо пользу. ИИ развивается настолько быстро, что односторонние обязательства, когда конкуренты идут вперед на полной скорости, не имеют смысла».
Иными словами: если другие не соблюдают правила, мы тоже не будем.
В основе RSP 1.0 и 2.0 лежало жесткое обязательство: если возможности модели выходят за рамки мер безопасности, обучение приостанавливается. Это обещание обеспечило Anthropic уникальную репутацию в сообществе по безопасности ИИ.
Но версия 3.0 отказалась от этого обещания.
Его заменили более «гибкой» схемой — разделением мер безопасности, которые Anthropic может внедрить, и отраслевых рекомендаций. Каждые 3–6 месяцев будет публиковаться отчет о рисках с внешней экспертной оценкой.
Звучит ли это ответственно?
Крис Пейнтер, независимый эксперт METR, после ознакомления с черновиком отметил: «Это показывает, что Anthropic считает необходимым перейти в "режим сортировки", потому что оценка и снижение рисков не успевают за ростом возможностей. Это еще одно доказательство того, что общество не готово к катастрофическим рискам ИИ».
TIME сообщил, что Anthropic почти год внутренне обсуждала эту редакцию, а генеральный директор Амодеи и совет директоров одобрили ее единогласно. Официально исходная политика должна была способствовать консенсусу в отрасли, но индустрия не поддержала ее. Администрация Трампа заняла позицию невмешательства в ИИ, даже пыталась отменить законы штатов. Федеральное регулирование ИИ остается недостижимым. В 2023 году казалось возможным создание глобальной системы управления, но спустя три года эта возможность исчезла.
Анонимный исследователь с большим стажем в управлении ИИ выразился прямо: «RSP — самый ценный брендовый актив Anthropic. Отказ от паузы в обучении — как если бы производитель органических продуктов тихо убрал "органик" с этикетки, а потом заявил, что теперь тестирование стало прозрачнее».
В начале февраля Anthropic завершила раунд финансирования на $30 миллиардов при общей оценке $380 миллиардов, где Amazon выступил ведущим инвестором. С момента основания компания достигла $14 миллиардов годовой выручки, а за последние три года этот показатель рос более чем в десять раз ежегодно.
В то же время Пентагон угрожает включить компанию в черный список. Маск публично обвиняет ее в краже данных. Ключевое обязательство по безопасности исчезло. Руководитель по безопасности ИИ Anthropic Мринанк Шарма ушел и написал на X: «Миру грозит опасность».
Противоречие?
Возможно, противоречие — часть ДНК Anthropic.
Основанная бывшими руководителями OpenAI, обеспокоенными скоростью внедрения мер безопасности в OpenAI, Anthropic создала еще более мощные модели, быстрее, одновременно рассказывая миру об их опасности.
Суть бизнес-модели: мы боимся ИИ больше всех, поэтому вы должны платить нам за его создание.
Этот нарратив отлично работал в 2023–2024 годах. Безопасность ИИ была ключевой темой в Вашингтоне, а Anthropic — самым активным лоббистом.
К 2026 году ситуация изменилась.
«Woke AI» стал политическим оскорблением, регулирование ИИ на уровне штатов заблокировано Белым домом, и хотя SB 53 в Калифорнии (поддержанный Anthropic) стал законом, на федеральном уровне ничего не произошло.
Нарратив безопасности Anthropic превращается из «отличительной черты» в «политическую обузу».
Anthropic ведет сложную игру — ей нужно быть достаточно «безопасной» для сохранения бренда, но достаточно «гибкой», чтобы не быть отвергнутой рынком или государством. Проблема в том, что терпимость обеих сторон уменьшается.
В совокупности три события дают ясную картину.
Обвинение китайских компаний в дистилляции Claude усиливает лоббистские аргументы за экспортный контроль чипов. Отказ от паузы безопасности сохраняет Anthropic в гонке вооружений. Неподчинение требованию Пентагона по автономному оружию оставляет последний слой моральной репутации.
Каждое действие логично, но каждое противоречит другому.
Нельзя утверждать, что китайские компании «дистиллируют» вашу модель и это угрожает национальной безопасности, одновременно снимая собственное обязательство не допускать выхода модели из-под контроля. Если модель настолько опасна, нужно быть осторожнее, а не агрессивнее.
Если только вы не Anthropic.
В индустрии ИИ идентичность определяется не заявлениями, а балансом. Нарратив «безопасности» Anthropic — по сути, надбавка к бренду.
В начале гонки ИИ эта надбавка была ценной. Инвесторы платили за «ответственный ИИ», правительства одобряли «доверенный ИИ», клиенты покупали «более безопасный ИИ».
Но к 2026 году эта надбавка исчезает.
Anthropic теперь сталкивается не с вопросом «компромисс или нет», а с дилеммой «с кем идти на компромисс первым». Компромисс с Пентагоном — ущерб бренду. Компромисс с конкурентами — отказ от обязательства по безопасности. Компромисс с инвесторами — уступки обеих сторон.
В пятницу в 17:01 Anthropic даст ответ.
Каким бы ни был результат, ясно одно: Anthropic, которая раньше строила успех на лозунге «мы не такие, как OpenAI», становится такой же, как все.
Конец кризиса идентичности часто означает исчезновение самой идентичности.





