Anthropic menuduh laboratorium AI China atas "pencurian" data - ForkLog: cryptocurrency, AI, singularitas, masa depan

риски ИИ. ИИ предоставляет риски для компаний, бизнеса AI risks# Anthropic menuduh laboratorium AI Tiongkok mencuri data

Perusahaan Anthropic menuduh tiga startup AI Tiongkok — DeepSeek, Moonshot, dan MiniMax — melakukan kampanye besar-besaran menggunakan Claude untuk meningkatkan model mereka sendiri.

Laboratorium dari Tiongkok menghasilkan lebih dari 16 juta interaksi dengan chatbot melalui sekitar 24.000 akun penipuan, melanggar ketentuan penggunaan dan batasan regional.

«Kami dengan tingkat kepercayaan tinggi mengaitkan setiap kampanye dengan perusahaan tertentu berdasarkan korelasi alamat IP, metadata permintaan, ciri infrastruktur, dan konfirmasi dari mitra industri. Mereka menargetkan fitur unik Claude: penalaran agen, penggunaan alat, dan pemrograman,» kata Anthropic.

Perusahaan menggunakan distilasi — pelatihan neural network yang lebih lemah berdasarkan kesimpulan dari model yang lebih kuat.

Ini adalah metode yang umum digunakan dan sah. Laboratorium AI terkemuka secara rutin melakukan distilasi model mereka sendiri untuk membuat versi yang lebih kecil dan murah bagi klien.

«Namun, ini juga dapat digunakan secara ilegal: pesaing meningkatkan kemampuan dengan memanfaatkan LLM orang lain dalam waktu dan biaya yang lebih sedikit dibandingkan pengembangan mandiri,» tulis blog Anthropic.

Perusahaan menekankan bahwa waktu untuk merespons pencurian semacam ini sangat sempit, dan ancamannya melampaui satu perusahaan atau wilayah. Untuk mengatasinya, diperlukan tindakan cepat dan terkoordinasi dari industri, regulator, dan komunitas AI global.

Mengapa ini berbahaya

Anthropic menjelaskan risiko dari pendekatan semacam ini. Model yang didistilasi secara ilegal tidak menyimpan mekanisme perlindungan yang diperlukan — ini menimbulkan masalah bagi keamanan nasional.

Perusahaan AS mengimplementasikan sistem untuk mencegah penggunaan AI dalam pengembangan senjata biologis, serangan siber berbahaya, dan tindakan berbahaya lainnya. Model yang dibuat melalui distilasi ilegal tidak memiliki pembatasan tersebut.

Laboratorium asing dapat mengintegrasikan kemampuan yang tidak terlindungi ke dalam sistem militer dan intelijen, memungkinkan pemerintah otoriter menggunakan AI canggih untuk serangan siber, disinformasi, dan pengawasan massal, tambah perusahaan.

Cara mengatasi

Para ahli dari Anthropic mendukung pembatasan ekspor untuk menjaga keunggulan AS dalam AI. Menurut mereka, serangan distilasi merusak langkah-langkah ini, memungkinkan laboratorium asing mengurangi kesenjangan teknologi.

«Tanpa transparansi, serangan semacam ini menyebabkan kemajuan cepat laboratorium Tiongkok disalahartikan sebagai bukti ketidakefektifan pembatasan ekspor. Pada praktiknya, pencapaian mereka sangat bergantung pada pemanfaatan model AS, dan skala pendekatan ini membutuhkan akses ke chip canggih,» kata blog perusahaan.

Anthropic menyebutkan metode mereka sendiri dalam mengatasi hal ini:

  • meningkatkan sistem deteksi pola distilasi;
  • bertukar indikator teknis dengan laboratorium lain dan penyedia cloud;
  • memperkuat verifikasi akun pendidikan dan penelitian;
  • menerapkan langkah-langkah kontra yang mengurangi efektivitas distilasi ilegal.

Ini bukan kali pertama tuduhan semacam ini. Pada Januari 2025, tak lama setelah peluncuran besar DeepSeek-R1, perusahaan diduga mencuri data dari OpenAI.

Melanjutkan perjuangan melawan Pentagon

CEO Anthropic Dario Amodei akan bertemu dengan Menteri Pertahanan Lloyd Austin di Pentagon untuk membahas penggunaan model AI perusahaan oleh militer.

Belakangan ini, terjadi ketidaksepakatan — Anthropic menentang penggunaan AI untuk pengawasan massal warga AS dan pembuatan senjata otonom. Departemen Pertahanan dengan tegas menyatakan akan menggunakan LLM «untuk semua skenario yang sah» tanpa batasan.

Hingga menyatakan bahwa Pentagon mempertimbangkan untuk memutus kontrak dengan Anthropic.

Pemindai kerentanan AI

Saham perusahaan keamanan siber publik terkemuka turun setelah peluncuran alat Claude Code Security dari Anthropic — pemindai kerentanan dalam kode.

Di situs perusahaan disebutkan bahwa layanan baru ini «menganalisis seluruh basis kode untuk kerentanan, memeriksa setiap temuan untuk meminimalkan false positive, dan menawarkan perbaikan».

Claude melakukan analisis «seperti peneliti keamanan berpengalaman»: memahami konteks, melacak aliran data, dan mendeteksi kerentanan.

Menurut VentureBeat, Claude Opus 4.6 menemukan lebih dari 500 kerentanan kritis yang telah ada selama puluhan tahun, meskipun telah diperiksa oleh para ahli.

Lima perusahaan publik AS terbesar di bidang keamanan TI menunjukkan penurunan dua digit dalam harga saham selama lima hari terakhir akibat munculnya kompetitor AI:

  • Palo Alto Networks — -14%;
  • CrowdStrike — -18%;
  • Fortinet — -12%;
  • Cloudflare — -18%;
  • Zscaler — -19%.

Grafik harga saham Palo Alto Networks. Sumber: Yahoo Finance. Analis Wedbush menyatakan bahwa penjualan saham ini terkait kekhawatiran tentang apa yang disebut AI Ghost Trade. Menurut mereka, reaksi pasar salah, dan Palo Alto, CrowdStrike, serta Zscaler akan membuktikan efektivitasnya pada 2026.

Ingat, pada Februari, OpenAI bersama Paradigm memperkenalkan EVMbench — tolok ukur untuk menilai kemampuan agen AI dalam mengidentifikasi, memperbaiki, dan mengeksploitasi celah dalam kontrak pintar.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)