Виталик хвалит Anthropic за соблюдение этической границы «не проводить масштабное социальное наблюдение»

robot
Генерация тезисов в процессе

По данным ChainCatcher, Виталик Бутерин опубликовал статью, поддерживающую приверженность компании Anthropic, занимающегося искусственным интеллектом, двух этических принципов: «не разрабатывать полностью автономное оружие» и «не проводить масштабное наблюдение со стороны Соединённых Штатов», похвалив решимость компании противостоять давлению со стороны правительства. Виталик утверждает, что в идеальном мире такие высокорискованные приложения были бы ограничены уровнем открытого доступа к LLM (то есть уровнем, где все люди имеют равный публичный доступ); Даже аванс на 10% снижает риск автономного оружия и нарушений конфиденциальности, обеспечивая более безопасную работу ИИ.

Согласно предыдущим новостям, недавняя угроза Пентагона прекратить сотрудничество с Anthropic может привести к потере контрактов на сумму 200 миллионов долларов, поскольку Anthropic отказывается предоставлять технологии ИИ без вмешательства человека для военных целей.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить