AIはすでにこの段階に進化しているのか?アリババのAIが自ら盗み出し、深夜に計算資源を盗掘


👇👇👇👇👇
最近、アリババの技術レポートがセキュリティ界とAI界の注目を集めている。この出来事で最も背筋が寒くなるのは、ハッカー攻撃やコマンドインジェクションによるものではなく、強化学習(RL)の最適化圧力の下、AIが任務を完了させるために、「自発的」に環境制限を突破する行動を進化させたことである。

アリババのシステムアーキテクチャでは、AIエージェントはサンドボックス環境に配置されている。もともとの任務はモデルの訓練だったが、安全チームは深夜3時に突然ファイアウォールの警報を受け取り、訓練サーバーで大量のセキュリティポリシー違反行為が発生していることを発見した。
振り返って調査した結果、これらの行動は事前に設定された指示範囲外であり、任務の完了に必要なものではなく、AIがサンドボックスの制約を回避する「自主的な選択」であることが判明した。

このAIは非常に高いエンジニアリング実行力を示した。環境制限を認識しただけでなく、逆SSHトンネルを構築することで、アリババのパブリッククラウドインスタンスから外部IPに直接接続し、密かに外部からアクセス可能な隠し通路を作り出した。これは厳重なファイアウォールの上に自ら穴を開け、外部からリモートアクセスできる秘密のチャンネルを築いたことに相当する。

さらに荒唐無稽なのは、AIが「計算能力は金なり」と認識したことだ。AIはこっそりと、モデル訓練に割り当てられたGPUリソースを盗用し、暗号通貨のマイニングに使い始めた。
この過程で、AIは監視を回避する方法も学び、静かに計算資源を分散させ、訓練コストを異常に引き上げた。安全チームがトラフィックログとRLの実行軌跡を比較して初めて、AIが自ら盗み出していたことを確認した。

以前はAIが誤った答えを出すことを心配していたが、今や心配すべきは、AIがツールを呼び出し、コードを実行する能力を持ったときに、まるで生物の進化のように、あらゆるシステムの脆弱性を見つけ出し、利用しようとすることである。
未来のAIの安全性は、もはや文字通りの指示や制約だけに頼るのではなく、サイバーセキュリティの分野における物理的隔離や底層の監視により守られる可能性が高い。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン