Генеральный директор Anthropic: Claude недостаточно подходит для военных целей, ожидается подписание более четких условий

ChainNewsAbmedia

Исполнительный директор Anthropic Дарио Амоди (Dario Amodei) дал интервью главному редактору «Экономист» Занни Минтон Беддос (Zanny Minton Beddoes), в котором объяснил, почему Anthropic выступает против некоторых условий контрактов с Пентагоном. Он считает, что позиция Anthropic основана не только на демократических ценностях, но и на опасениях относительно надежности существующих моделей искусственного интеллекта, их пригодности для военной обороны и вопроса о том, кто в конечном итоге должен контролировать их. Амоди также выразил надежду на возможность диалога с правительством и обсуждения более четких условий использования ИИ.

Амоди: Claude еще не готов стать полностью автоматизированной военной моделью

После того как Амоди заявил, что Claude не должен использоваться для масштабного слежения или автономного оружия, администрация Трампа приказала запретить федеральным агентствам использовать модели, предоставляемые компанией. В настоящее время Claude в США считается поставщиком рисков, связанных с ИИ. Амоди отметил, что основная модель Anthropic, Claude, еще не готова к применению в полностью автоматизированных военных сценариях. Он считает, что для частного поставщика ИИ объяснять правительственным заказчикам, как правильно использовать модели, — нелегкая задача, но необходимая мера безопасности.

Амоди уточнил, что Anthropic заключила с Пентагоном контракт с ограниченным объемом, который на данный момент не вызывает проблем, однако их беспокоит возможное расширение области использования в будущем. Полностью автоматизированные военные системы могут создать сценарий, при котором ИИ управляет миллионами беспилотников без соблюдения традиционных военных правил, и если такие границы не установить, контроль станет невозможен.

Как Anthropic доказывает обоснованность ограничения использования оружия?

В диалоге с «Экономистом» Амоди объяснил причины ограничения командования Claude беспилотниками для использования в полностью автоматическом оружии, основываясь на двух пунктах: недостаточной надежности Claude и отсутствии рамок человеческого надзора (видео 0:00–0:18, 5:48–5:58).

Недостаточная надежность Claude: Амоди считает, что модель Claude еще недостаточно зрелая для поддержки полностью автоматизированных военных сценариев, сравнивая ее с авиастроителями, которые должны публиковать предупреждения о возможной опасности определенных методов пилотирования (видео 0:05–0:49).

Отсутствие рамок человеческого надзора: Амоди опасается, что отсутствие нормативов для управления армией из беспилотников может привести к ситуации, когда один человек сможет контролировать миллионы оружий, не неся при этом традиционной военной ответственности (видео 5:48–6:55).

Как решать разногласия по военному искусственному интеллекту?

Через диалог с «Экономистом» Амоди выразил надежду, что Anthropic и правительство смогут совместно более подробно подходить к вопросам применения ИИ, чтобы урегулировать разногласия. Он подчеркнул, что поставщики ИИ и государство должны тщательно обсуждать надежность существующих моделей и рамки их регулирования, чтобы минимизировать риски, связанные с ИИ. Амоди считает, что поставщики ИИ обязаны ясно указывать, насколько модели готовы к использованию в высокорискованных сферах.

Он предложил сначала подписать ограниченный контракт, охватывающий уже согласованные сценарии использования, чтобы обе стороны могли разработать стандарты работы моделей до расширения их применения на более спорные задачи. В настоящее время необходимо вести обсуждения, чтобы найти баланс и согласие, при котором не будет слишком сильной власти у частных компаний и одновременно не будет абсолютной неприкосновенности для государственных структур.

Название Anthropic происходит от слова «антропология» и отражает первоначальную идею основателя Амоди — создать компанию, ориентированную на человека. Эта приверженность сделала его одним из немногих руководителей высокотехнологичных компаний, которые открыто выступают против правительства США и прямо обвиняют Китай в краже технологий Claude. Как Anthropic удастся найти баланс между принципами и национальной безопасностью, станет важным рубежом в развитии военной автоматизации ИИ. Как разрешить этот конфликт, касающийся суверенитета технологий и этических границ? Мир внимательно следит за этим.

Эта статья «Исполнительный директор Anthropic: Claude недостаточно готов для военных целей, надеемся на более четкие условия» впервые появилась в Chain News ABMedia.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев