CEO Anthropic: Claude tidak cukup untuk digunakan dalam militer, menantikan penandatanganan ketentuan yang lebih jelas

ChainNewsAbmedia

CEO Anthropic, Dario Amodei, diwawancarai oleh editor-in-chief The Economist, Zanny Minton Beddoes, untuk menjelaskan mengapa Anthropic menentang beberapa klausul kontrak dengan Pentagon. Ia berpendapat bahwa posisi Anthropic tidak hanya didasarkan pada nilai-nilai demokrasi, tetapi juga karena kekhawatiran terhadap keandalan model AI yang ada untuk digunakan dalam pertahanan militer, serta siapa yang akhirnya harus mengendalikan teknologi tersebut. Amodei juga menyampaikan harapannya untuk membuka ruang dialog dengan pemerintah guna membahas penandatanganan ketentuan AI yang lebih jelas.

Amodei: Claude Belum Siap Menjadi Model Otomatisasi Militer

Setelah menegaskan bahwa Claude tidak boleh digunakan untuk pengawasan massal atau senjata otonom, pemerintahan Trump mengeluarkan perintah larangan kepada lembaga federal untuk menggunakan alat model yang disediakan oleh perusahaan tersebut. Kini, Claude dikategorikan oleh AS sebagai penyedia risiko AI. Amodei menyatakan bahwa model utama Anthropic, Claude, belum siap digunakan dalam skenario aplikasi militer otomatis penuh. Ia berpendapat bahwa sebagai penyedia AI swasta, menjelaskan kepada klien pemerintah tentang penggunaan model secara aman bukanlah hal yang mudah, tetapi ia menganggap ini sebagai langkah keamanan yang perlu diambil.

Amodei menegaskan bahwa Anthropic telah menandatangani kontrak terbatas dengan Pentagon, dan saat ini kontrak tersebut berjalan tanpa masalah. Kekhawatiran mereka adalah mengenai penggunaan di masa depan. Otomatisasi militer penuh akan menciptakan skenario di mana AI dapat mengendalikan jutaan drone tanpa mengikuti norma militer tradisional, dan jika cakupan penggunaannya tidak dibatasi, maka kontrolnya akan menjadi tidak mungkin.

Bagaimana Anthropic Membuktikan Pembatasan Penggunaan Senjata Sebagai Langkah yang Rasional?

Dalam wawancara dengan The Economist, Amodei menjelaskan dua alasan utama mengapa Claude tidak boleh digunakan untuk mengendalikan drone dalam senjata otomatis penuh: ketidakandalan Claude dan kurangnya kerangka pengawasan manusia (video 0:00-0:18, 5:48-5:58).

Ketidakandalan Claude: Amodei berpendapat bahwa model Claude belum cukup andal untuk mendukung skenario aplikasi militer otomatis penuh. Ia membandingkannya dengan pilot pesawat yang harus diumumkan bahwa beberapa metode penerbangan tertentu berbahaya (video 0:05-0:49).

Kurangnya Kerangka Pengawasan Manusia: Amodei khawatir tentang kekurangan regulasi manusia untuk mengelola pasukan drone, yang berpotensi memungkinkan satu orang mengendalikan jutaan senjata tanpa tanggung jawab militer tradisional (video 5:48-6:55).

Bagaimana Mengatasi Perbedaan Pendapat tentang Kecerdasan Buatan Militer?

Dalam wawancara dengan The Economist, Amodei menyatakan harapannya agar Anthropic dan pemerintah dapat bekerja sama secara lebih rinci dalam menangani perbedaan pendapat terkait penerapan AI. Ia menekankan bahwa penyedia AI dan pemerintah harus berdiskusi secara serius mengenai keandalan model yang ada dan kerangka pengaturan pengawasan, guna mengantisipasi risiko yang mungkin timbul dari AI. Menurut Amodei, penyedia AI memiliki tanggung jawab untuk secara jelas menyatakan tingkat kematangan model dalam aplikasi berisiko tinggi.

Amodei mengusulkan agar terlebih dahulu ditandatangani kontrak terbatas yang mencakup use case yang telah disepakati, sehingga kedua pihak dapat membangun standar operasional model sebelum penerapan ke tugas yang lebih kontroversial. Saat ini, diskusi perlu diperluas untuk menemukan titik kesepahaman dan keseimbangan—agar kekuasaan perusahaan swasta tidak terlalu besar, tetapi juga agar kekuasaan pemerintah tidak sepenuhnya tak tertandingi.

Nama Anthropic berasal dari kata “antropologi,” yang mencerminkan niat pendirinya, Amodei, untuk membangun perusahaan AI yang berpusat pada manusia. Ketekunan ini menjadikannya salah satu dari sedikit CEO perusahaan teknologi tinggi yang berani secara terbuka menentang pemerintah AS dan secara langsung menuduh China mencuri teknologi Claude. Bagaimana Anthropic menyeimbangkan prinsipnya dengan kebutuhan keamanan nasional akan menjadi titik penting dalam perkembangan militerisasi AI. Bagaimana ketegangan terkait kedaulatan teknologi dan batas-batas etika ini akan diselesaikan? Dunia sedang memperhatikan.

Artikel ini berjudul “CEO Anthropic: Claude Belum Siap Digunakan dalam Militer, Harapkan Penandatanganan Ketentuan yang Lebih Jelas” pertama kali muncul di ABMedia.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar