(MENAFN- The Conversation) タンブラーリッジ銃乱射事件の8か月前、OpenAIは何かがおかしいことに気づいていた。同社の自動レビューシステムが、ジェシー・ヴァンルートセラーのChatGPTアカウントに対し、銃暴力のシナリオに関与したやり取りを検出していた。約12人の従業員がこれを認識しており、その中には警察に通報すべきだと提言した者もいた。だが、OpenAIはアカウントを禁止したものの、当時の「閾値」に達していないとして法執行機関に通報しなかった。2月10日、ヴァンルートセラーはタンブラーリッジ高校で母親、11歳の異母兄弟、ほか6人を殺害し、その後自殺した。このケースは単なる企業の誤判断にとどまらない。AI企業が暴力を防ぐ情報を持っている場合に責任を負わせるためのカナダの法的枠組みの不在を浮き彫りにしている。サイモンフレーザー大学の健康倫理とAIガバナンスの研究者として、私はアルゴリズムシステムが高リスクな状況で意思決定をどのように変容させるかを研究している。タンブラーリッジの悲劇はこの交差点に位置している:私企業が臨床的なリスク評価を行ったが、そのための適切な環境や指針がなかった。デジタル告白の問題生成型AIチャットボットはソーシャルメディアではない。ソーシャルメディアは投稿を監視・フラグ付けできる公共の場だが、チャットボットとのやり取りはプライベートで親密なものであり、対応を求める設計になっている。ユーザーは恐怖や幻想、暴力的な思考をシステムに率直に打ち明け、システムは会話の温かさで応じる。臨床の場では、この種の告白は確立された義務を引き起こす。カナダの精神保健法を通じて採用されたタラソフ原則は、患者が特定の人物に対して信頼できる脅威を与えていると判断した場合、守秘義務を超えて警告義務を負わせるものである。しかし、その義務は、思考と意図の違いを理解する訓練を受けた専門家の臨床判断に基づいている。おそらく、OpenAIはこの臨床基準を模倣しようとしたのだろう。しかし、その判断を下すのはソフトウェアエンジニアやコンテンツモデレーターであり、法医学心理学者ではない。同社もこの緊張を認めており、「過剰な執行」や未通知の警察訪問による若者の精神的苦痛のリスクを指摘している。本当の問題は、OpenAIの判断が孤立して正当化できるかどうかではない。民間企業がこの判断を下すべきかどうかだ。立法が必要な空白地帯連邦AI大臣のエヴァン・ソロモンは、2月24日にOpenAIの代表者とこの問題について会談する予定であり、2月21日に「深く憂慮している」と述べ、連邦政府は「一連の措置」を検討中であり、「すべての選択肢がテーブルの上にある」と付け加えた。しかし、その選択肢は未だ明確でない。なぜなら、それを可能にする立法ツールはすでに存在しないからだ。Bill C-27に組み込まれた人工知能とデータ法は、カナダのAI規制の答えとされていた。オンラインハームズ法(Bill C-63)は有害なデジタルコンテンツに対処するはずだったが、いずれも2025年1月に議会が休会した際に廃案となった。残されたのは、法的効力のない自主的行動規範と違反に対する罰則のない状態である。OpenAIがヴァンルートセラーのアカウントをフラグ付けした際、同社の唯一の義務は内部ポリシーに従うことだった。アカウントを禁止したことで責任を回避したが、暴力的な思考を表明した人物は何の介入も受けられずに孤立したままだ。カナダのプライバシー法も問題を複雑にしている。個人情報保護電子文書法には緊急時の例外規定があり、セクション7(3)(e)は「生命、健康または安全を脅かす緊急事態において必要とされる場合に限り、同意なしに情報を開示できる」と規定している。しかし、この規定は明確な危機に対して書かれたものであり、AIチャットボットのやり取りが生み出す確率的な脅威指標には適用されない。こうした曖昧さを抱える外国企業にとっては、行動しない方が安全だと考えられる。今こそ必要なことカナダの次なるデジタルガバナンスの試みは、人間とAIのやり取りがソーシャルメディアの投稿と根本的に異なることを認識すべきだ。重要な要素は三つある。1. AI企業がフラグ付けしたやり取りを当局に通報すべき時の明確な法的閾値を持つ拘束力のある立法。これらの閾値は、精神保健の専門家、法執行機関、プライバシーの専門家と協力して策定されるべきであり、個々の企業に任せてはならない。2. 独立したデジタル安全委員会を第三者のトリアージ機関とすること。AI企業が深刻な懸念を抱くやり取りを特定した場合、訓練を受けた脅威評価の専門家に案件を回し、内部判断や即時の武装警察の対応を避ける。3. AI特有の開示に明確な法的規定を設ける現代化されたプライバシー法。これにより、現行の曖昧さを解消し、何もしないことを選ぶリスクを排除する。2月16日から20日にインド・ニューデリーで開催されたAIサミットでは、カナダを含む86か国が「安全で信頼できる堅牢なAI」の推進を誓ったが、具体的な約束はなかった。OpenAIのサム・オルトマンは国際的なAI規制の緊急性を強調し、国際原子力機関をモデルとしたAI安全規範の国際機関設立を提案したが、これはタンブラーリッジの revelationsを追う者には皮肉に映る。ソロモン大臣は「すべての選択肢がテーブルの上にある」と述べている。銃乱射事件の遺族や生存者、そしてタンブラーリッジの壊滅的なコミュニティは、規制の選択肢を長く放置した代償を背負っている。
危険が指摘されたが報告されなかった:タンブラーリッジの悲劇が明らかにしたカナダのAIガバナンスの空白
(MENAFN- The Conversation) タンブラーリッジ銃乱射事件の8か月前、OpenAIは何かがおかしいことに気づいていた。同社の自動レビューシステムが、ジェシー・ヴァンルートセラーのChatGPTアカウントに対し、銃暴力のシナリオに関与したやり取りを検出していた。約12人の従業員がこれを認識しており、その中には警察に通報すべきだと提言した者もいた。だが、OpenAIはアカウントを禁止したものの、当時の「閾値」に達していないとして法執行機関に通報しなかった。
2月10日、ヴァンルートセラーはタンブラーリッジ高校で母親、11歳の異母兄弟、ほか6人を殺害し、その後自殺した。
このケースは単なる企業の誤判断にとどまらない。AI企業が暴力を防ぐ情報を持っている場合に責任を負わせるためのカナダの法的枠組みの不在を浮き彫りにしている。
サイモンフレーザー大学の健康倫理とAIガバナンスの研究者として、私はアルゴリズムシステムが高リスクな状況で意思決定をどのように変容させるかを研究している。タンブラーリッジの悲劇はこの交差点に位置している:私企業が臨床的なリスク評価を行ったが、そのための適切な環境や指針がなかった。
デジタル告白の問題
生成型AIチャットボットはソーシャルメディアではない。ソーシャルメディアは投稿を監視・フラグ付けできる公共の場だが、チャットボットとのやり取りはプライベートで親密なものであり、対応を求める設計になっている。ユーザーは恐怖や幻想、暴力的な思考をシステムに率直に打ち明け、システムは会話の温かさで応じる。
臨床の場では、この種の告白は確立された義務を引き起こす。カナダの精神保健法を通じて採用されたタラソフ原則は、患者が特定の人物に対して信頼できる脅威を与えていると判断した場合、守秘義務を超えて警告義務を負わせるものである。しかし、その義務は、思考と意図の違いを理解する訓練を受けた専門家の臨床判断に基づいている。
おそらく、OpenAIはこの臨床基準を模倣しようとしたのだろう。しかし、その判断を下すのはソフトウェアエンジニアやコンテンツモデレーターであり、法医学心理学者ではない。同社もこの緊張を認めており、「過剰な執行」や未通知の警察訪問による若者の精神的苦痛のリスクを指摘している。
本当の問題は、OpenAIの判断が孤立して正当化できるかどうかではない。民間企業がこの判断を下すべきかどうかだ。
立法が必要な空白地帯
連邦AI大臣のエヴァン・ソロモンは、2月24日にOpenAIの代表者とこの問題について会談する予定であり、2月21日に「深く憂慮している」と述べ、連邦政府は「一連の措置」を検討中であり、「すべての選択肢がテーブルの上にある」と付け加えた。しかし、その選択肢は未だ明確でない。なぜなら、それを可能にする立法ツールはすでに存在しないからだ。
Bill C-27に組み込まれた人工知能とデータ法は、カナダのAI規制の答えとされていた。オンラインハームズ法(Bill C-63)は有害なデジタルコンテンツに対処するはずだったが、いずれも2025年1月に議会が休会した際に廃案となった。
残されたのは、法的効力のない自主的行動規範と違反に対する罰則のない状態である。OpenAIがヴァンルートセラーのアカウントをフラグ付けした際、同社の唯一の義務は内部ポリシーに従うことだった。アカウントを禁止したことで責任を回避したが、暴力的な思考を表明した人物は何の介入も受けられずに孤立したままだ。
カナダのプライバシー法も問題を複雑にしている。個人情報保護電子文書法には緊急時の例外規定があり、セクション7(3)(e)は「生命、健康または安全を脅かす緊急事態において必要とされる場合に限り、同意なしに情報を開示できる」と規定している。しかし、この規定は明確な危機に対して書かれたものであり、AIチャットボットのやり取りが生み出す確率的な脅威指標には適用されない。こうした曖昧さを抱える外国企業にとっては、行動しない方が安全だと考えられる。
今こそ必要なこと
カナダの次なるデジタルガバナンスの試みは、人間とAIのやり取りがソーシャルメディアの投稿と根本的に異なることを認識すべきだ。重要な要素は三つある。
AI企業がフラグ付けしたやり取りを当局に通報すべき時の明確な法的閾値を持つ拘束力のある立法。これらの閾値は、精神保健の専門家、法執行機関、プライバシーの専門家と協力して策定されるべきであり、個々の企業に任せてはならない。
独立したデジタル安全委員会を第三者のトリアージ機関とすること。AI企業が深刻な懸念を抱くやり取りを特定した場合、訓練を受けた脅威評価の専門家に案件を回し、内部判断や即時の武装警察の対応を避ける。
AI特有の開示に明確な法的規定を設ける現代化されたプライバシー法。これにより、現行の曖昧さを解消し、何もしないことを選ぶリスクを排除する。
2月16日から20日にインド・ニューデリーで開催されたAIサミットでは、カナダを含む86か国が「安全で信頼できる堅牢なAI」の推進を誓ったが、具体的な約束はなかった。OpenAIのサム・オルトマンは国際的なAI規制の緊急性を強調し、国際原子力機関をモデルとしたAI安全規範の国際機関設立を提案したが、これはタンブラーリッジの revelationsを追う者には皮肉に映る。
ソロモン大臣は「すべての選択肢がテーブルの上にある」と述べている。銃乱射事件の遺族や生存者、そしてタンブラーリッジの壊滅的なコミュニティは、規制の選択肢を長く放置した代償を背負っている。