(MENAFN- The Conversation) Delapan bulan sebelum penembakan massal di Tumbler Ridge, OpenAI sudah mengetahui ada yang tidak beres. Sistem peninjauan otomatis perusahaan tersebut menandai akun ChatGPT Jesse Van Rootselaar karena interaksi yang melibatkan skenario kekerasan senjata. Sekitar selusin karyawan menyadarinya. Beberapa menyarankan menghubungi polisi. Sebaliknya, OpenAI memblokir akun tersebut, tetapi tidak melaporkannya ke penegak hukum karena saat itu tidak memenuhi “ambang batas yang diperlukan”.
Pada 10 Februari, Van Rootselaar menembak dan membunuh delapan orang (ibunya, setengah saudara laki-lakinya yang berusia 11 tahun, dan enam lainnya di Sekolah Menengah Tumbler Ridge) sebelum meninggal karena luka bunuh diri.
Kasus ini bukan sekadar tentang kesalahan satu perusahaan. Ini mengungkapkan tidak adanya kerangka hukum Kanada untuk menetapkan tanggung jawab ketika perusahaan AI memiliki informasi yang dapat mencegah kekerasan.
Sebagai peneliti etika kesehatan dan tata kelola AI di Universitas Simon Fraser, saya mempelajari bagaimana sistem algoritmik mengubah pengambilan keputusan dalam situasi berisiko tinggi. Tragedi Tumbler Ridge berada tepat di persimpangan ini: sebuah perusahaan swasta melakukan penilaian risiko secara klinis yang sebenarnya tidak mampu mereka lakukan, dalam lingkungan hukum yang tidak memberikan panduan.
Masalah pengakuan pengakuan digital
Chatbot AI generatif bukan media sosial. Media sosial berfungsi sebagai ruang publik di mana postingan dapat dipantau dan ditandai oleh pengguna lain. Interaksi dengan chatbot bersifat pribadi, intim, dan dirancang untuk bersikap ramah. Pengguna rutin mengungkapkan ketakutan, fantasi, dan ide kekerasan kepada sistem yang dirancang untuk merespons dengan kehangatan percakapan.
Dalam praktik klinis, pengungkapan semacam ini memicu kewajiban yang sudah mapan. Prinsip Tarasoff, yang diadopsi di seluruh provinsi Kanada melalui undang-undang kesehatan mental, mewajibkan terapis untuk memberi peringatan jika mereka menentukan bahwa pasien berpotensi mengancam orang yang dapat diidentifikasi, bahkan jika itu berarti melanggar kerahasiaan. Tetapi kewajiban itu bergantung pada penilaian klinis dari profesional terlatih yang memahami perbedaan antara ideasi dan niat.
Argumennya, OpenAI berusaha meniru standar klinis ini. Tetapi orang-orang yang melakukan penilaian ini adalah insinyur perangkat lunak dan moderator konten, bukan psikolog forensik. Perusahaan sendiri mengakui ketegangan ini, menyebut risiko “penegakan berlebihan” dan stres akibat kunjungan polisi yang tidak diumumkan kepada anak muda.
Pertanyaan sebenarnya bukan apakah penalaran OpenAI dapat dipertahankan secara sendiri-sendiri. Tetapi apakah perusahaan swasta seharusnya membuat penilaian ini sama sekali.
Kekosongan di mana legislasi seharusnya ada
Menteri AI federal Evan Solomon, yang berencana bertemu dengan perwakilan OpenAI hari ini, 24 Februari, tentang masalah ini, mengatakan pada 21 Februari bahwa dia “sangat terganggu” oleh pengungkapan tersebut, menambahkan bahwa pemerintah federal sedang meninjau “serangkaian langkah” dan bahwa “semua opsi terbuka.” Tetapi opsi-opsi tersebut tetap tidak terdefinisi karena alat legislatif yang memungkinkan mereka tidak lagi ada.
Undang-Undang Kecerdasan Buatan dan Data, yang tertanam dalam RUU C-27, seharusnya menjadi jawaban Kanada terhadap regulasi AI. Undang-Undang Bahaya Digital (RUU C-63) akan mengatasi konten digital yang berbahaya. Keduanya mati di papan legislasi saat Parlemen dihentikan sementara pada Januari 2025.
Yang tersisa adalah kode etik sukarela tanpa kekuatan hukum dan tanpa konsekuensi bagi yang tidak mematuhinya. Ketika OpenAI menandai akun Van Rootselaar, satu-satunya kewajibannya adalah terhadap kebijakan internalnya sendiri. Melarang akun tersebut menyelesaikan tanggung jawab perusahaan sekaligus meninggalkan individu yang mengungkapkan ide kekerasan terputus dari jalur intervensi.
Undang-undang privasi Kanada memperburuk masalah ini. Undang-Undang Perlindungan Informasi Pribadi dan Dokumen Elektronik memang mengandung pengecualian darurat: bagian 7(3)(e) mengizinkan pengungkapan tanpa izin “kepada orang yang membutuhkan informasi karena keadaan darurat yang mengancam nyawa, kesehatan, atau keamanan individu.” Tetapi ketentuan ini dirancang untuk krisis yang jelas, bukan untuk indikator ancaman probabilistik yang dihasilkan dari interaksi chatbot AI. Bagi perusahaan asing yang menavigasi ambiguitas ini, ketidakpastian lebih menyukai tindakan tidak dilakukan.
Apa yang dibutuhkan Kanada sekarang
Upaya berikutnya Kanada dalam tata kelola digital harus mengakui bahwa interaksi manusia dengan AI secara fundamental berbeda dari posting media sosial. Tiga elemen penting adalah:
Legislasi yang mengikat dengan ambang batas hukum yang jelas kapan perusahaan AI harus merujuk interaksi yang ditandai ke otoritas. Ambang batas ini harus dikembangkan bersama profesional kesehatan mental, penegak hukum, dan pakar privasi, bukan diserahkan kepada perusahaan individu.
Komisi keamanan digital independen sebagai badan triase pihak ketiga. Ketika perusahaan AI mengidentifikasi interaksi yang sangat mengkhawatirkan, mereka harus merujuk kasus tersebut kepada profesional penilaian ancaman yang terlatih, bukan membuat keputusan secara internal atau memicu respons polisi bersenjata secara langsung.
Legislasi privasi yang diperbarui yang memberikan kejelasan hukum eksplisit untuk pengungkapan khusus AI, menyelesaikan ketidakpastian yang saat ini mendorong untuk tidak bertindak.
Dalam KTT AI yang berlangsung di New Delhi dari 16 hingga 20 Februari, 86 negara, termasuk Kanada, berjanji untuk mempromosikan AI yang “aman, dapat dipercaya, dan kokoh.” Tidak ada komitmen konkret yang diikuti. Sam Altman dari OpenAI menekankan urgensi regulasi AI internasional dan mengusulkan badan internasional untuk norma keselamatan AI yang dimodelkan pada Badan Energi Atom Internasional, sebuah ironi yang tidak luput dari perhatian siapa pun yang mengikuti pengungkapan Tumbler Ridge.
Menteri Solomon mengatakan semua opsi terbuka. Keluarga korban penembakan, penyintas, dan komunitas yang hancur di Tumbler Ridge hidup dengan biaya karena membiarkan opsi regulasi tetap terbuka terlalu lama.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Bahaya Diberi Tanda, Tapi Tidak Dilaporkan: Apa yang Dapat Dipelajari dari Tragedi Tumbler Ridge tentang Kekosongan Tata Kelola AI di Kanada
(MENAFN- The Conversation) Delapan bulan sebelum penembakan massal di Tumbler Ridge, OpenAI sudah mengetahui ada yang tidak beres. Sistem peninjauan otomatis perusahaan tersebut menandai akun ChatGPT Jesse Van Rootselaar karena interaksi yang melibatkan skenario kekerasan senjata. Sekitar selusin karyawan menyadarinya. Beberapa menyarankan menghubungi polisi. Sebaliknya, OpenAI memblokir akun tersebut, tetapi tidak melaporkannya ke penegak hukum karena saat itu tidak memenuhi “ambang batas yang diperlukan”.
Pada 10 Februari, Van Rootselaar menembak dan membunuh delapan orang (ibunya, setengah saudara laki-lakinya yang berusia 11 tahun, dan enam lainnya di Sekolah Menengah Tumbler Ridge) sebelum meninggal karena luka bunuh diri.
Kasus ini bukan sekadar tentang kesalahan satu perusahaan. Ini mengungkapkan tidak adanya kerangka hukum Kanada untuk menetapkan tanggung jawab ketika perusahaan AI memiliki informasi yang dapat mencegah kekerasan.
Sebagai peneliti etika kesehatan dan tata kelola AI di Universitas Simon Fraser, saya mempelajari bagaimana sistem algoritmik mengubah pengambilan keputusan dalam situasi berisiko tinggi. Tragedi Tumbler Ridge berada tepat di persimpangan ini: sebuah perusahaan swasta melakukan penilaian risiko secara klinis yang sebenarnya tidak mampu mereka lakukan, dalam lingkungan hukum yang tidak memberikan panduan.
Masalah pengakuan pengakuan digital
Chatbot AI generatif bukan media sosial. Media sosial berfungsi sebagai ruang publik di mana postingan dapat dipantau dan ditandai oleh pengguna lain. Interaksi dengan chatbot bersifat pribadi, intim, dan dirancang untuk bersikap ramah. Pengguna rutin mengungkapkan ketakutan, fantasi, dan ide kekerasan kepada sistem yang dirancang untuk merespons dengan kehangatan percakapan.
Dalam praktik klinis, pengungkapan semacam ini memicu kewajiban yang sudah mapan. Prinsip Tarasoff, yang diadopsi di seluruh provinsi Kanada melalui undang-undang kesehatan mental, mewajibkan terapis untuk memberi peringatan jika mereka menentukan bahwa pasien berpotensi mengancam orang yang dapat diidentifikasi, bahkan jika itu berarti melanggar kerahasiaan. Tetapi kewajiban itu bergantung pada penilaian klinis dari profesional terlatih yang memahami perbedaan antara ideasi dan niat.
Argumennya, OpenAI berusaha meniru standar klinis ini. Tetapi orang-orang yang melakukan penilaian ini adalah insinyur perangkat lunak dan moderator konten, bukan psikolog forensik. Perusahaan sendiri mengakui ketegangan ini, menyebut risiko “penegakan berlebihan” dan stres akibat kunjungan polisi yang tidak diumumkan kepada anak muda.
Pertanyaan sebenarnya bukan apakah penalaran OpenAI dapat dipertahankan secara sendiri-sendiri. Tetapi apakah perusahaan swasta seharusnya membuat penilaian ini sama sekali.
Kekosongan di mana legislasi seharusnya ada
Menteri AI federal Evan Solomon, yang berencana bertemu dengan perwakilan OpenAI hari ini, 24 Februari, tentang masalah ini, mengatakan pada 21 Februari bahwa dia “sangat terganggu” oleh pengungkapan tersebut, menambahkan bahwa pemerintah federal sedang meninjau “serangkaian langkah” dan bahwa “semua opsi terbuka.” Tetapi opsi-opsi tersebut tetap tidak terdefinisi karena alat legislatif yang memungkinkan mereka tidak lagi ada.
Undang-Undang Kecerdasan Buatan dan Data, yang tertanam dalam RUU C-27, seharusnya menjadi jawaban Kanada terhadap regulasi AI. Undang-Undang Bahaya Digital (RUU C-63) akan mengatasi konten digital yang berbahaya. Keduanya mati di papan legislasi saat Parlemen dihentikan sementara pada Januari 2025.
Yang tersisa adalah kode etik sukarela tanpa kekuatan hukum dan tanpa konsekuensi bagi yang tidak mematuhinya. Ketika OpenAI menandai akun Van Rootselaar, satu-satunya kewajibannya adalah terhadap kebijakan internalnya sendiri. Melarang akun tersebut menyelesaikan tanggung jawab perusahaan sekaligus meninggalkan individu yang mengungkapkan ide kekerasan terputus dari jalur intervensi.
Undang-undang privasi Kanada memperburuk masalah ini. Undang-Undang Perlindungan Informasi Pribadi dan Dokumen Elektronik memang mengandung pengecualian darurat: bagian 7(3)(e) mengizinkan pengungkapan tanpa izin “kepada orang yang membutuhkan informasi karena keadaan darurat yang mengancam nyawa, kesehatan, atau keamanan individu.” Tetapi ketentuan ini dirancang untuk krisis yang jelas, bukan untuk indikator ancaman probabilistik yang dihasilkan dari interaksi chatbot AI. Bagi perusahaan asing yang menavigasi ambiguitas ini, ketidakpastian lebih menyukai tindakan tidak dilakukan.
Apa yang dibutuhkan Kanada sekarang
Upaya berikutnya Kanada dalam tata kelola digital harus mengakui bahwa interaksi manusia dengan AI secara fundamental berbeda dari posting media sosial. Tiga elemen penting adalah:
Legislasi yang mengikat dengan ambang batas hukum yang jelas kapan perusahaan AI harus merujuk interaksi yang ditandai ke otoritas. Ambang batas ini harus dikembangkan bersama profesional kesehatan mental, penegak hukum, dan pakar privasi, bukan diserahkan kepada perusahaan individu.
Komisi keamanan digital independen sebagai badan triase pihak ketiga. Ketika perusahaan AI mengidentifikasi interaksi yang sangat mengkhawatirkan, mereka harus merujuk kasus tersebut kepada profesional penilaian ancaman yang terlatih, bukan membuat keputusan secara internal atau memicu respons polisi bersenjata secara langsung.
Legislasi privasi yang diperbarui yang memberikan kejelasan hukum eksplisit untuk pengungkapan khusus AI, menyelesaikan ketidakpastian yang saat ini mendorong untuk tidak bertindak.
Dalam KTT AI yang berlangsung di New Delhi dari 16 hingga 20 Februari, 86 negara, termasuk Kanada, berjanji untuk mempromosikan AI yang “aman, dapat dipercaya, dan kokoh.” Tidak ada komitmen konkret yang diikuti. Sam Altman dari OpenAI menekankan urgensi regulasi AI internasional dan mengusulkan badan internasional untuk norma keselamatan AI yang dimodelkan pada Badan Energi Atom Internasional, sebuah ironi yang tidak luput dari perhatian siapa pun yang mengikuti pengungkapan Tumbler Ridge.
Menteri Solomon mengatakan semua opsi terbuka. Keluarga korban penembakan, penyintas, dan komunitas yang hancur di Tumbler Ridge hidup dengan biaya karena membiarkan opsi regulasi tetap terbuka terlalu lama.