Anthropic、軍事利用に関する紛争に関連したAIブラックリストを巡り米国政府を提訴

robot
概要作成中

人工知能開発企業のAnthropicは、複数の米国政府機関を相手に訴訟を提起し、同社のAIシステムの特定の軍事利用を許可しなかったことに対し、違法なブラックリスト入りを行ったと非難しています。

概要

  • Anthropicは、AIの特定の軍事利用を拒否したことに対し、報復として複数の米国機関を訴えた。
  • 紛争は、自律兵器や大量監視に関する制限をめぐるもので、同社のClaude AIモデルの使用に関するもの。
  • 訴訟は、米国政府がAnthropicの技術の使用を停止し、同社を国家安全保障のサプライチェーンリスクと位置付けた連邦指令に異議を唱えるもの。

カリフォルニア州北部地区連邦地裁に提出された訴状は、戦争省、財務省、国務省、国土安全保障省、連邦準備制度理事会、証券取引委員会など広範な連邦機関や役人に対し、宣言的および差止めの救済を求めています。

Anthropicは、同社のClaudeと呼ばれるAIモデル群を致死的な自律戦争やアメリカ人の大量監視に使用することを拒否した後、政府が報復したと主張しています。

訴状によると、政府関係者がAnthropicに対し、これらの制限を撤廃し、戦争省に「すべての合法的な利用」を許可するよう求めたことで緊張が高まりました。同社は協力範囲を拡大することに同意したものの、二つの安全性の制限を維持しました。

紛争は、ドナルド・トランプ大統領の指示により、連邦機関に対しAnthropicの技術の使用を直ちに停止させる命令と、その後の戦争省による同社を「国家安全保障のサプライチェーンリスク」として位置付ける決定へと発展しました。

この指定により、軍事請負業者やパートナーはAnthropicと取引できなくなり、事実上防衛サプライチェーンから排除されました。その後、いくつかの機関は契約を停止したり、従業員に対し同社のAIシステムの使用を中止するよう指示しました。

Anthropicは、これらの措置が第一修正権、行政手続法、憲法上の適正手続きの保護に違反していると主張しています。同社は、これらの措置は、自律兵器や大量監視に使用されるAIシステムの安全性と信頼性に関する懸念を表明したことに対する報復だと述べています。

訴状は、政府の行動により既に契約が取り消され、今後数億ドル規模のビジネスが危険にさらされる可能性があるとともに、同社の評判や商業関係にもダメージを与えていると指摘しています。

Anthropicは、裁判所に対し、政府の行動を違法と宣言し、紛争の解決まで指令の執行を差し止めるよう求めています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン