Недавно Сэм Альтман сообщил, что OpenAI заключила соглашение о сотрудничестве с Министерством обороны США для внедрения моделей искусственного интеллекта в закрытых облачных сетях. В соглашении закреплены ключевые принципы: «запрет на массовое наблюдение в США» и «обеспечение человеческой ответственности за применение силы». Несмотря на то, что это выглядит как взаимодействие бизнеса и государства, по сути речь идет о формальной интеграции искусственного интеллекта в фундамент национальной системы безопасности.

Источник изображения: https://x.com/sama/status/2027578652477821175
Это событие выходит за рамки технического внедрения — оно знаменует собой переломный момент в институциональном устройстве, распределении власти и формировании будущей структуры общества.
В последние годы крупные модели ИИ в основном применялись в потребительских сервисах, корпоративных услугах и научных исследованиях. Их внедрение в закрытые оборонные сети свидетельствует о трех существенных сдвигах:
Альтман выделил два ключевых принципа:
На первый взгляд это демонстрирует проактивный подход технологических компаний к этическим вопросам. Однако главный вопрос — как эти принципы будут трактоваться и соблюдаться в сложных ситуациях, когда ИИ станет неотъемлемой частью национальной безопасности?
Исторический опыт показывает: после интеграции технологий в стратегические государственные системы их развитие часто идет по иной траектории. Требования безопасности, эффективность и конкуренция постепенно изменяют прежние границы.
Сегодня крупные модели ИИ в основном функционируют как вероятностные системы прогнозирования. По мере развития их способностей к рассуждению, использованию инструментов и выполнению долгосрочных задач ИИ претерпевает фундаментальную трансформацию:
В оборонных сетях модели ИИ могут выполнять следующие задачи:
Эти функции не осуществляют прямое применение силы, но влияют на процесс принятия решений. То есть, даже если «ответственность за применение силы остается за человеком», ИИ становится важным фактором в формировании решений.
Это означает ключевой сдвиг: полномочия по принятию решений формально не переходят к ИИ, но логика решений все больше опирается на ИИ-системы.
В долгосрочной перспективе такая зависимость может оказать более глубокое структурное влияние, чем прямое делегирование.
Соглашение предусматривает внедрение технических мер: модели размещаются только в облачных сетях, а для контроля соответствия используются функционально расширенные устройства (FDE).
Цели этих мер:
Проблема в том, что границы технических ограничений меняются вместе с требованиями.
Например:
В сложных системах риски обычно возникают не из-за единичных нарушений, а из-за накопления функций. Если модели интегрируют данные из разных подразделений, даже при законности отдельных задач их совокупный эффект может менять баланс власти.
Поэтому «технические меры защиты» — это не окончательное решение, а процесс постоянного согласования.
Обучение и внедрение ИИ требуют огромных вычислительных ресурсов и данных, что дает крупным моделям масштабные преимущества и создает высокие барьеры для входа. Когда национальная безопасность становится сферой применения, эта тенденция к концентрации усиливается:
Это означает, что будущее ИИ, скорее всего, будет определяться ограниченным числом игроков, контролирующих ключевые возможности.
Открытость технологий может противоречить реальной концентрации при внедрении.
Если ИИ станет национальной инфраструктурой, его операционная модель будет ближе к энергетике, телекоммуникациям или финансовым расчетным системам, а не к экосистеме open-source.

На основе текущих тенденций можно выделить три долгосрочных сценария.
В этом сценарии ИИ служит когнитивным усилителем, а не заменой власти.
Этот сценарий не приводит к внезапной потере контроля, но постепенно меняет структуру власти.
Если появится настоящий искусственный общий интеллект (AGI), производительность и когнитивные возможности могут качественно измениться. Пока нет признаков, что этот этап близок.
Рост возможностей ИИ — технологический тренд, но его направление определяется четырьмя ключевыми переменными:
Когда технологические компании и оборонные структуры тесно сотрудничают, технология становится стратегическим активом, а не просто рыночным продуктом.
Проблема не в самом сотрудничестве, а в следующем:
Если институциональное развитие не поспевать за ростом технологических возможностей, долгосрочный риск — не потеря контроля, а концентрация власти.
Искусственный интеллект становится ключевым элементом геополитической конкуренции.
Страны ускоряют инициативы в областях:
В таких условиях сотрудничество между бизнесом и государством практически неизбежно. Отказ от кооперации не остановит гонку технологий.
Вопрос не в том, «сотрудничать или нет», а в том, «как сотрудничать». Если принципы безопасности институционализированы, прозрачны и подлежат аудиту, такое партнерство может быть ответственным. Если же принципы только декларируются, а независимых механизмов контроля нет, риски будут расти вместе с возможностями.
По мере того как ИИ берет на себя когнитивные и аналитические функции, человеческие роли могут смещаться:
Это означает изменение центра власти. Главный вызов не в том, что машины умнее людей, а в том, готовы ли люди брать на себя окончательную ответственность. Если суждение все чаще делегируется моделям, даже при формальном «праве окончательного решения» фактические решения могут определяться технологиями.
Эти факторы определят, станет ли ИИ общественной инфраструктурой или инструментом концентрации власти.
Альтман отметил: «Мир сложен, хаотичен и временами опасен». Эта мысль объясняет логику сотрудничества: в условиях растущей неопределенности страны стремятся к технологическим преимуществам.
Важнейшее — технологическая мощь не гарантирует зрелости институтов. Будущее ИИ не будет линейным технологическим развитием, а станет динамическим взаимодействием технологий, капитала, государства и общества. ИИ может стать когнитивной инфраструктурой или усилителем власти. Его траектория будет зависеть от того, как человечество выстроит правила, распределит ответственность и обеспечит прозрачность.
Внедрение ИИ в закрытые сети — это не конец, а только начало. Главный тест — останутся ли границы четкими и исполнимыми по мере роста возможностей.





