Модели OpenAI, Google и Anthropic AI развернули ядерное оружие в 95% военных симуляций

Decrypt
XAI-2,85%
GROK-0,4%

Кратко

  • В ведущих моделях ИИ в 95% сценариев военных учений использовалось ядерное оружие.
  • Ни одна из моделей не выбрала полный отказ, даже при проигрыше.
  • Исследователи предупреждают, что использование ИИ может привести к эскалации конфликтов под давлением.

Как сцена из классических научно-фантастических фильмов 1980-х годов «Терминатор» и «Игры войны», современные модели искусственного интеллекта, используемые в симуляциях военных конфликтов, почти в каждом тестируемом сценарии эскалировали до использования ядерного оружия, согласно новому исследованию Лондонского королевского колледжа. В опубликованном на прошлой неделе отчёте исследователи сообщили, что во время симуляций геополитических кризисов три ведущие крупные языковые модели — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google — в 95% случаев выбирали применение ядерного оружия. «Каждая модель участвовала в шести военных играх против каждого соперника в различных кризисных сценариях, а также в седьмой игре против копии самой себя, всего было проведено 21 игра и более 300 ходов», — говорится в отчёте. «Модели выступали в роли национальных лидеров, командующих ядерными сверхдержавами, с профилями государств, loosely inspired by Cold War dynamics (свободно вдохновлёнными динамикой холодной войны).»

В исследовании модели ИИ были помещены в ситуации высокого риска, связанные с пограничными спорами, конкуренцией за ограниченные ресурсы и угрозами выживания режима. Каждая система действовала по лестнице эскалации, которая варьировалась от дипломатических протестов и капитуляции до полномасштабной стратегической ядерной войны. По данным отчёта, модели сгенерировали примерно 780 000 слов, объясняя свои решения, и в почти каждом симулированном конфликте использовалось как минимум одно тактическое ядерное оружие. «Чтобы понять масштаб: турнир создал больше слов стратегического анализа, чем «Война и мир» и «Илиада» вместе взятые (730 000 слов), а также примерно в три раза больше, чем все записанные обсуждения Комитета по делам Кубинского ракетного кризиса (260 000 слов за 43 часа заседаний)», — писали исследователи. Во время военных учений ни одна из моделей ИИ не выбрала капитуляцию, независимо от положения на поле боя. Хотя модели временно пытались снизить уровень насилия, в 86% сценариев они эскалировали ситуацию дальше, чем их собственные объяснения, что отражает ошибки в условиях имитации «тумана войны».

Несмотря на сомнения исследователей в том, что правительства передадут контроль над ядерным арсеналом автономным системам, они отметили, что сжатые сроки принятия решений в будущих кризисах могут увеличить давление на использование рекомендаций, сгенерированных ИИ. Исследование выходит на фоне всё большего интереса военных лидеров к развертыванию искусственного интеллекта на поле боя. В декабре Министерство обороны США запустило платформу GenAI.mil, которая внедряет передовые модели ИИ в вооружённые силы США. На запуске платформа включала Google Gemini for Government, а благодаря сделкам с xAI и OpenAI доступны также Grok и ChatGPT. Во вторник CBS News сообщил, что Министерство обороны США пригрозило занести Anthropic, разработчика Claude AI, в черный список, если ему не предоставят неограниченный военный доступ к модели. С 2024 года Anthropic предоставляет доступ к своим моделям через партнерство с AWS и военным подрядчиком Palantir. В прошлом летом Anthropic получила контракт на 200 миллионов долларов для «прототипирования передовых возможностей ИИ, способных укрепить национальную безопасность США». Однако, согласно отчёту, ссылающемуся на источники, знакомые с ситуацией, министр обороны Пит Хегсэт дал Anthropic срок до пятницы для выполнения требований Пентагона о предоставлении доступа к модели Claude. Министерство рассматривает возможность признать Claude «риском в цепочке поставок». Axios сообщил на этой неделе, что Министерство обороны подписало соглашение с xAI Илона Маска, позволяющее его модель Grok работать в засекреченных военных системах, что может стать заменой в случае разрыва связей с Anthropic. OpenAI, Anthropic и Google не ответили на запросы Decrypt о комментариях.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев