Anthropic menuduh tiga perusahaan kecerdasan buatan terkenal di China menggunakan chatbot Claude-nya secara besar-besaran untuk secara diam-diam melatih model pesaing, sebuah perkembangan tak terduga dalam perdebatan global bertahun-tahun tentang di mana penipuan berakhir dan praktik standar industri dimulai.
Video Rekomendasi
Dalam sebuah posting blog pada hari Senin, Anthropic yang berbasis di San Francisco menuduh bahwa laboratorium China DeepSeek, Moonshot AI, dan MiniMax melanggar hukum perusahaan dengan berinteraksi dengan Claude, alat pengkodean vibe yang mengubah pasar miliknya. “Kami telah mengidentifikasi kampanye skala industri oleh tiga laboratorium AI—DeepSeek, Moonshot, dan MiniMax—untuk secara ilegal mengekstrak kemampuan Claude guna meningkatkan model mereka sendiri,” kata perusahaan tersebut. “Laboratorium-laboratorium ini menghasilkan lebih dari 16 juta pertukaran dengan Claude melalui sekitar 24.000 akun palsu, yang melanggar ketentuan layanan dan pembatasan akses regional kami.”
Menurut Anthropic, perusahaan-perusahaan China tersebut menggunakan teknik yang dikenal sebagai “distilasi,” di mana satu model dilatih berdasarkan output dari model lain, sering kali sistem yang lebih mampu. Kampanye tersebut diduga berfokus pada bidang yang dianggap oleh Anthropic sebagai pembeda utama Claude, termasuk penalaran kompleks, bantuan pengkodean, dan penggunaan alat.
Anthropic berpendapat bahwa meskipun distilasi adalah “metode pelatihan yang umum dan sah,” penggunaan teknik ini oleh perusahaan China dalam cara tersebut mungkin dilakukan untuk “tujuan ilegal.” Menggunakan jaringan besar akun palsu untuk menyalin model kepemilikan pesaing melanggar ketentuan layanan dan melemahkan kontrol ekspor AS yang bertujuan membatasi akses China ke AI mutakhir, kata Anthropic, mendesak “tindakan cepat dan terkoordinasi di antara pelaku industri, pembuat kebijakan, dan komunitas AI global.”
Jika bukan distilasi, Anthropic baru-baru ini dituduh melanggar hak cipta oleh ribuan penulis, yang diduga mengunduh buku secara massal dari perpustakaan bayangan untuk melatih model AI-nya, alih-alih membeli salinan dan memindainya sendiri. Dalam langkah bersejarah, Anthropic menyelesaikan gugatan tersebut dengan uang sebesar $1,5 miliar pada September 2025, membayar penulis sekitar $3.000 per buku untuk sekitar 500.000 karya.
Bagaimana perusahaan China diduga melakukannya
Perusahaan mengklaim bahwa ketiga laboratorium tersebut melewati geofencing dan pembatasan bisnis yang membatasi ketersediaan komersial Claude di China dengan mengarahkan lalu lintas melalui layanan proxy yang menjual kembali akses ke model AI Barat utama. Salah satu “klaster hydra,” kata Anthropic, mengoperasikan puluhan ribu akun secara bersamaan untuk menyebarkan permintaan melalui berbagai kunci API dan penyedia cloud.
Setelah akun-akun tersebut dibuat, laboratorium-laboratorium tersebut diduga membuat skrip percakapan panjang dan tinggi token yang dirancang untuk mengekstrak jawaban rinci langkah demi langkah yang kemudian dapat dimasukkan kembali ke dalam sistem mereka sebagai data pelatihan. Menurut penjelasan Anthropic, hasilnya adalah sebuah jalur tidak resmi yang mengubah Claude menjadi pengajar yang enggan bagi model-model yang sedang dikembangkan di dalam sektor AI China yang semakin kompetitif.
Anthropic belum mengumumkan gugatan spesifik terhadap ketiga perusahaan tersebut, tetapi mereka telah memberi sinyal bahwa mereka telah memutus akses yang diketahui dan mendesak Washington untuk memperketat kontrol ekspor terhadap chip canggih dan layanan AI guna mencegah upaya serupa di masa depan.
‘Bagaimana balas dendam berbalik’
Jika Anthropic berharap mendapatkan simpati, reaksi daring dan di kalangan pengamat industri cukup skeptis. Komentator dengan cepat menunjukkan bahwa Anthropic sendiri pernah menghadapi tuduhan profil tinggi terkait praktik pengumpulan data yang berlebihan di luar kasus hak cipta dari para penulis, seperti kasus terpisah tentang pengambilan data dari Reddit. “Bagaimana balas dendam berbalik,” tulis seorang komentator di thread Reddit r/singularity, sebuah permainan kata yang sering dikaitkan dengan meme yang berasal dari acara televisi The Office.
Di balik kritik tersebut tersembunyi perjuangan yang lebih luas tentang siapa yang menentukan aturan untuk industri yang dibangun di atas remix karya manusia. Perusahaan-perusahaan AS seperti Anthropic dan OpenAI semakin mendorong penegakan hukum yang agresif terhadap pesaing asing yang mereka tuduh menyalin sistem kepemilikan mereka, meskipun mereka membela pengumpulan data mereka sendiri secara luas dengan dalih penggunaan yang adil.
Laboratorium-laboratorium China, banyak di antaranya merilis model sumber terbuka yang lebih banyak, berlomba menutup kesenjangan performa dengan pesaing Barat menggunakan segala keuntungan hukum yang mereka temukan. Dengan Washington yang sudah memperdebatkan pembatasan yang lebih ketat terhadap ekspor chip AI dan layanan cloud ke China, tuduhan Anthropic kemungkinan akan memperkuat seruan untuk pengaturan baru—sementara memberi kritik satu lagi kesempatan untuk menunjukkan simetri yang tidak nyaman di inti AI modern.
Untuk cerita ini, wartawan Fortune menggunakan AI generatif sebagai alat riset. Seorang editor memverifikasi keakuratan informasi sebelum dipublikasikan.
Bergabunglah dengan kami di Fortune Workplace Innovation Summit 19–20 Mei 2026, di Atlanta. Era inovasi tempat kerja berikutnya telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif dan penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, manusia, dan strategi bersatu kembali untuk mendefinisikan masa depan kerja. Daftar sekarang.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Anthropic mengklaim bahwa 3 perusahaan China mencuri teknologi mereka, menggunakan alat AI-nya untuk melatih model mereka: ‘How the turn tables’
Anthropic menuduh tiga perusahaan kecerdasan buatan terkenal di China menggunakan chatbot Claude-nya secara besar-besaran untuk secara diam-diam melatih model pesaing, sebuah perkembangan tak terduga dalam perdebatan global bertahun-tahun tentang di mana penipuan berakhir dan praktik standar industri dimulai.
Video Rekomendasi
Dalam sebuah posting blog pada hari Senin, Anthropic yang berbasis di San Francisco menuduh bahwa laboratorium China DeepSeek, Moonshot AI, dan MiniMax melanggar hukum perusahaan dengan berinteraksi dengan Claude, alat pengkodean vibe yang mengubah pasar miliknya. “Kami telah mengidentifikasi kampanye skala industri oleh tiga laboratorium AI—DeepSeek, Moonshot, dan MiniMax—untuk secara ilegal mengekstrak kemampuan Claude guna meningkatkan model mereka sendiri,” kata perusahaan tersebut. “Laboratorium-laboratorium ini menghasilkan lebih dari 16 juta pertukaran dengan Claude melalui sekitar 24.000 akun palsu, yang melanggar ketentuan layanan dan pembatasan akses regional kami.”
Menurut Anthropic, perusahaan-perusahaan China tersebut menggunakan teknik yang dikenal sebagai “distilasi,” di mana satu model dilatih berdasarkan output dari model lain, sering kali sistem yang lebih mampu. Kampanye tersebut diduga berfokus pada bidang yang dianggap oleh Anthropic sebagai pembeda utama Claude, termasuk penalaran kompleks, bantuan pengkodean, dan penggunaan alat.
Anthropic berpendapat bahwa meskipun distilasi adalah “metode pelatihan yang umum dan sah,” penggunaan teknik ini oleh perusahaan China dalam cara tersebut mungkin dilakukan untuk “tujuan ilegal.” Menggunakan jaringan besar akun palsu untuk menyalin model kepemilikan pesaing melanggar ketentuan layanan dan melemahkan kontrol ekspor AS yang bertujuan membatasi akses China ke AI mutakhir, kata Anthropic, mendesak “tindakan cepat dan terkoordinasi di antara pelaku industri, pembuat kebijakan, dan komunitas AI global.”
Jika bukan distilasi, Anthropic baru-baru ini dituduh melanggar hak cipta oleh ribuan penulis, yang diduga mengunduh buku secara massal dari perpustakaan bayangan untuk melatih model AI-nya, alih-alih membeli salinan dan memindainya sendiri. Dalam langkah bersejarah, Anthropic menyelesaikan gugatan tersebut dengan uang sebesar $1,5 miliar pada September 2025, membayar penulis sekitar $3.000 per buku untuk sekitar 500.000 karya.
Bagaimana perusahaan China diduga melakukannya
Perusahaan mengklaim bahwa ketiga laboratorium tersebut melewati geofencing dan pembatasan bisnis yang membatasi ketersediaan komersial Claude di China dengan mengarahkan lalu lintas melalui layanan proxy yang menjual kembali akses ke model AI Barat utama. Salah satu “klaster hydra,” kata Anthropic, mengoperasikan puluhan ribu akun secara bersamaan untuk menyebarkan permintaan melalui berbagai kunci API dan penyedia cloud.
Setelah akun-akun tersebut dibuat, laboratorium-laboratorium tersebut diduga membuat skrip percakapan panjang dan tinggi token yang dirancang untuk mengekstrak jawaban rinci langkah demi langkah yang kemudian dapat dimasukkan kembali ke dalam sistem mereka sebagai data pelatihan. Menurut penjelasan Anthropic, hasilnya adalah sebuah jalur tidak resmi yang mengubah Claude menjadi pengajar yang enggan bagi model-model yang sedang dikembangkan di dalam sektor AI China yang semakin kompetitif.
Anthropic belum mengumumkan gugatan spesifik terhadap ketiga perusahaan tersebut, tetapi mereka telah memberi sinyal bahwa mereka telah memutus akses yang diketahui dan mendesak Washington untuk memperketat kontrol ekspor terhadap chip canggih dan layanan AI guna mencegah upaya serupa di masa depan.
‘Bagaimana balas dendam berbalik’
Jika Anthropic berharap mendapatkan simpati, reaksi daring dan di kalangan pengamat industri cukup skeptis. Komentator dengan cepat menunjukkan bahwa Anthropic sendiri pernah menghadapi tuduhan profil tinggi terkait praktik pengumpulan data yang berlebihan di luar kasus hak cipta dari para penulis, seperti kasus terpisah tentang pengambilan data dari Reddit. “Bagaimana balas dendam berbalik,” tulis seorang komentator di thread Reddit r/singularity, sebuah permainan kata yang sering dikaitkan dengan meme yang berasal dari acara televisi The Office.
Di balik kritik tersebut tersembunyi perjuangan yang lebih luas tentang siapa yang menentukan aturan untuk industri yang dibangun di atas remix karya manusia. Perusahaan-perusahaan AS seperti Anthropic dan OpenAI semakin mendorong penegakan hukum yang agresif terhadap pesaing asing yang mereka tuduh menyalin sistem kepemilikan mereka, meskipun mereka membela pengumpulan data mereka sendiri secara luas dengan dalih penggunaan yang adil.
Laboratorium-laboratorium China, banyak di antaranya merilis model sumber terbuka yang lebih banyak, berlomba menutup kesenjangan performa dengan pesaing Barat menggunakan segala keuntungan hukum yang mereka temukan. Dengan Washington yang sudah memperdebatkan pembatasan yang lebih ketat terhadap ekspor chip AI dan layanan cloud ke China, tuduhan Anthropic kemungkinan akan memperkuat seruan untuk pengaturan baru—sementara memberi kritik satu lagi kesempatan untuk menunjukkan simetri yang tidak nyaman di inti AI modern.
Untuk cerita ini, wartawan Fortune menggunakan AI generatif sebagai alat riset. Seorang editor memverifikasi keakuratan informasi sebelum dipublikasikan.
Bergabunglah dengan kami di Fortune Workplace Innovation Summit 19–20 Mei 2026, di Atlanta. Era inovasi tempat kerja berikutnya telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif dan penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, manusia, dan strategi bersatu kembali untuk mendefinisikan masa depan kerja. Daftar sekarang.