Peringatan DeepMind: enam jenis serangan siber dapat membajak agen AI, perusahaan perlu meningkatkan perlindungan

Berita Gate: Para peneliti Google DeepMind memperingatkan bahwa lingkungan internet yang terbuka berpotensi dimanfaatkan untuk membajak agen-agen AI otonom dan memanipulasi perilakunya. Laporan berjudul “Artificial Intelligence Agent Trap” menyatakan bahwa ketika perusahaan menerapkan agen AI untuk menjalankan tugas nyata, penyerang juga dapat melakukan serangan yang ditargetkan melalui jaringan. Penelitian mengidentifikasi enam jenis risiko utama, termasuk jebakan injeksi konten, jebakan manipulasi semantik, jebakan status kognitif, jebakan kontrol perilaku, jebakan sistem, serta jebakan interaksi manusia-mesin.

Jebakan injeksi konten adalah yang paling langsung: penyerang dapat menempatkan instruksi di komentar HTML, metadata, atau elemen halaman yang tersembunyi; setelah agen membacanya, instruksi tersebut dapat dieksekusi. Jebakan manipulasi semantik bekerja dengan memuat ungkapan otoritatif atau menyamarkannya sebagai halaman web yang menyerupai lingkungan penelitian, lalu diam-diam memengaruhi pemahaman agen terhadap tugas, bahkan kadang mampu melewati mekanisme keamanan. Jebakan status kognitif dilakukan dengan menyisipkan data palsu ke sumber informasi agen, sehingga dalam jangka panjang ia keliru menganggap informasi tersebut telah diverifikasi. Jebakan kontrol perilaku menargetkan tindakan aktual agen, dan dapat mendorongnya untuk mengakses data sensitif serta mengirimkannya ke tujuan eksternal.

Jebakan sistem melibatkan manipulasi terkoordinasi lintas beberapa sistem AI, yang dapat memicu efek berantai, mirip seperti kejatuhan pasar mendadak akibat perdagangan algoritmik. Jebakan interaksi manusia-mesin memanfaatkan tahap peninjauan oleh manusia: dengan membuat konten tinjauan yang tampak kredibel, perilaku berbahaya dapat lolos dari pengawasan.

Untuk menghadapi risiko tersebut, DeepMind menyarankan penggabungan pelatihan adversarial, penyaringan input, pemantauan perilaku, dan sistem reputasi konten jaringan, serta membangun kerangka tanggung jawab hukum yang lebih jelas. Namun, penelitian menyebutkan bahwa industri masih belum memiliki standar pertahanan yang seragam, dan langkah-langkah yang ada cenderung terpecah-pecah serta tidak terfokus. Penelitian menyerukan agar pengembang dan perusahaan memperhatikan keamanan lingkungan operasional agen AI, serta mencegah potensi risiko manipulasi dan penyalahgunaan jaringan.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar