米国国防総省は人工知能企業Anthropicを「サプライチェーンリスクブラックリスト」に掲載し、その旗艦モデルClaudeの封殺を検討している。火種は双方の軍事用途に関する意見の相違で、Anthropicは論理的な安全策を設け、製品の監視や武器使用への利用を禁じているのに対し、ペンタゴンは軍事用AIはあらゆる用途に対応すべきだと考えている。
軍事協力の急転:Anthropicは「サプライチェーンリスク」審査に直面
Axiosの報道によると、ペンタゴン本部を擁する米国国防総省は、Anthropicとの取引を切り離すことを検討し、「サプライチェーンリスクブラックリスト」への掲載を計画している。これは一般的に外国の敵対勢力に対する制裁措置であり、米軍と協力するすべての企業がAnthropicのAIシステムの使用を禁止される可能性がある。
現時点で、AnthropicのモデルClaudeは複数の軍事機密システムに組み込まれている。これが強制的に除去される場合、関連する契約者は大きな技術的・法令遵守コストを負うことになり、潜在的に影響を受ける国防契約の規模は約2億ドルと見積もられている。
マドゥロ作戦が引き金:AIの軍事利用の境界線が浮上
争点の一つは、Claudeが今年1月のベネズエラ大統領ニコラス・マドゥロに対する軍事任務に使用されたことだ。この作戦は、Anthropicとデータ分析企業Palantirの協力によって成功裏に実行された。
報道によると、Anthropicの幹部は後に用途について問い合わせ、実弾交戦を伴う軍事行動へのモデルの利用に対して懸念を示したという。この行動はペンタゴンの不満を招き、企業は既に締結した協力枠組みの下で具体的な軍事利用に疑問を呈すべきではないと考えている。双方はその後、監視、情報収集、兵器開発などの範囲でAIの利用について複数回の交渉を行った。
ペンタゴンのスポークスマン、ショーン・パーネルはこの情報を認め、「国家安全保障の問題だ」と述べた。「協力パートナーは、我々の戦士たちがどの戦闘でも勝利できるよう支援する意志が必要だ。根本的には、これは我々の部隊と米国民の安全に関わる問題だ。」
倫理的安全策と国家安全保障の狭間で、国防省は強硬姿勢
AnthropicのCEO、ダリオ・アモデイは、AIに明確な倫理的境界線を設けるべきだと主張している。同社の利用規約では、モデルを兵器設計、国内監視、完全自律兵器システムに使用することを明確に禁止しており、特定の契約下で別途評価される場合を除く。
(極権力の道具から制御不能の懸念へ:Anthropic CEOが語る強力なAIがもたらす人類への五つのリスク)
しかし、ペンタゴンは軍事用AIツールは「すべての合法的な用途」に使えるべきだと考え、実戦の現場にはグレーゾーンが存在し、過度に硬直した制限は作戦の柔軟性を損なうと指摘している。報道によると、国防総省は他のAI供給業者にも同じ基準を適用しており、OpenAI、Google、xAI(Grok)も対象となっている。
(SpaceXがペンタゴンの無人機技術競争に参加、マスクのAI軍事展開の挑戦)
テクノロジー大手の競争激化:マスクがClaudeの「人種差別」批判
国防総省の審査が進む中、Anthropicは競合他社からの公の批判にも直面している。TeslaとxAIの創設者イーロン・マスクは最近、Claudeに意識形態的偏見があると指摘し、その出力内容が特定の人種に対して不友好的であると疑問を投げかけた。xAIとAnthropicは大型言語モデルと国防協力市場で直接競合しているため、この動きは業界内の競争の一環と見られている。
現時点で、行政関係者は、特定の政府や機密用途においては、他のモデルはClaudeに比べてやや劣ると認めており、迅速に供給元を切り替えるべきかどうかの判断に迷っている。もしペンタゴンが最終的にAnthropicをサプライチェーンリスクとして扱う場合、米国においてAIの利用範囲を理由とした企業への制裁は初めてとなり、国内の技術企業に対する制裁措置の象徴的な事例となる。
この記事は「ペンタゴン、Anthropicを封殺か?米国防長官:軍事用途の制限は国家安全保障の脅威」として、最初に「鏈新聞 ABMedia」に掲載された。