Selasa, 24 Februari. Washington, Pentagon.
CEO Anthropic, Dario Amodei, duduk berhadapan langsung dengan Menteri Pertahanan Pete Hegseth. Menurut sumber yang dikutip NPR dan CNN, pertemuan tersebut berlangsung “sopan,” meskipun isinya jauh dari kata lembut.
Hegseth mengajukan ultimatum: sebelum pukul 17.01 hari Jumat, seluruh pembatasan penggunaan militer pada Claude harus dicabut dan Pentagon diizinkan menggunakannya untuk “semua tujuan yang sah,” termasuk penargetan senjata otonom dan pengawasan domestik berskala besar.
Jika tidak, kontrak senilai $200 juta akan dibatalkan. Defense Production Act akan diberlakukan untuk pengambilalihan wajib. Anthropic akan dikategorikan sebagai “supply chain risk”—yang berarti masuk daftar hitam bersama lawan seperti Rusia dan Tiongkok.
Di hari yang sama, Anthropic merilis edisi ketiga Responsible Scaling Policy (RSP 3.0), secara diam-diam menghapus janji paling mendasar sejak awal: tidak akan melatih model yang lebih kuat kecuali langkah-langkah keamanan telah diterapkan.
Masih di hari itu, Elon Musk menulis di X: “Anthropic melakukan pencurian data pelatihan skala besar—ini fakta.” Pada saat yang sama, Community Notes di X mengutip laporan bahwa Anthropic membayar $1,5 miliar untuk menyelesaikan klaim pelatihan Claude dengan buku bajakan.
Dalam waktu tujuh puluh dua jam, perusahaan AI ini—yang pernah mengklaim memiliki “jiwa”—dicap sebagai tiga hal: martir keamanan, pencuri kekayaan intelektual, dan pembelot Pentagon.
Siapa Anthropic yang sebenarnya?
Mungkin semuanya benar.
Lapis pertama cerita ini sangat jelas.
Anthropic adalah perusahaan AI pertama yang mendapatkan akses rahasia dari Departemen Pertahanan AS, dengan kontrak musim panas lalu senilai hingga $200 juta. OpenAI, Google, dan xAI kemudian memperoleh kontrak serupa.
Menurut Al Jazeera, Claude digunakan dalam operasi militer AS pada Januari lalu. Laporan tersebut menyebutkan misi itu melibatkan penculikan Presiden Venezuela Maduro.
Namun Anthropic menetapkan dua garis merah: tidak mendukung penargetan senjata otonom sepenuhnya dan tidak mendukung pengawasan berskala besar terhadap warga negara AS. Anthropic berpendapat AI belum cukup andal untuk mengendalikan senjata, dan belum ada regulasi hukum terkait AI dalam pengawasan massal.
Pentagon tidak menerima alasan itu.
Pada Oktober lalu, penasihat AI Gedung Putih, David Sacks, secara terbuka menuduh Anthropic di X karena “memanfaatkan ketakutan untuk menguasai regulasi.”
Para pesaing sudah mengalah. OpenAI, Google, dan xAI semuanya setuju militer dapat menggunakan AI mereka untuk “semua skenario sah.” Grok milik Musk baru saja disetujui untuk sistem rahasia minggu ini.
Anthropic adalah satu-satunya yang masih bertahan.
Saat artikel ini ditulis, Anthropic dalam pengumuman terbarunya menyatakan tidak berniat menyerah. Namun, tenggat Jumat pukul 17.01 semakin dekat.
Seorang mantan penghubung antara Departemen Kehakiman dan Pentagon, yang tidak disebutkan namanya, mengatakan kepada CNN: “Bagaimana Anda bisa menyatakan sebuah perusahaan sebagai ‘supply chain risk’ dan sekaligus memaksanya bekerja untuk militer Anda?”
Pertanyaan yang bagus—tapi bukan itu yang jadi perhatian Pentagon. Fokus mereka, jika Anthropic tidak mau kompromi, mereka akan memaksakan kepatuhan atau membiarkan Anthropic terisolasi di Washington.
Pada 23 Februari, Anthropic menerbitkan blog dengan nada tajam yang menuduh tiga perusahaan AI Tiongkok—DeepSeek, Moonshot AI, dan MiniMax—melakukan “distillation attack skala industri” terhadap Claude.
Anthropic menuduh perusahaan-perusahaan ini menggunakan 24.000 akun palsu untuk memulai lebih dari 16 juta interaksi dengan Claude, secara sistematis mengekstraksi kapabilitas inti seperti agent reasoning, penggunaan alat, dan pemrograman.
Anthropic membingkai hal ini sebagai ancaman keamanan nasional, menyatakan model hasil distilasi “tidak mungkin mempertahankan pagar keamanan” dan dapat digunakan pemerintah otoriter untuk serangan siber, disinformasi, serta pengawasan massal.
Narasi ini disusun dengan waktu dan strategi yang tepat.
Ini terjadi tepat setelah pemerintahan Trump melonggarkan kontrol ekspor chip ke Tiongkok—saat Anthropic membutuhkan amunisi baru untuk lobi ekspor chip.
Tetapi Musk membalas: “Anthropic melakukan pencurian data pelatihan skala besar dan membayar miliaran dolar untuk penyelesaian. Ini fakta.”

Co-founder IO.Net, Tory Green, berkomentar, “Anda melatih model Anda di seluruh internet, tetapi saat orang lain belajar dari API publik Anda, Anda menyebutnya ‘distillation attack’?”
Anthropic menyebut distillation sebagai “serangan,” padahal ini praktik standar di industri AI. OpenAI menggunakannya untuk mengompresi GPT-4, Google untuk mengoptimalkan Gemini, dan Anthropic sendiri juga melakukannya. Satu-satunya perbedaan kali ini: Anthropic yang menjadi target.
Seperti kata Profesor AI Nanyang Technological University, Erik Cambria, kepada CNBC, “Batas antara penggunaan yang sah dan eksploitasi jahat sering kali kabur.”
Lebih ironis lagi, Anthropic baru saja membayar $1,5 miliar untuk menyelesaikan klaim pelatihan Claude dengan buku bajakan. Mereka melatih dari seluruh internet, lalu menuduh pihak lain belajar dari API publik mereka. Ini bukan sekadar standar ganda—melainkan standar tiga lapis.
Anthropic ingin tampil sebagai korban, tapi akhirnya justru menjadi tertuduh.
Di hari yang sama ketika menghadapi Pentagon dan berdebat dengan Silicon Valley, Anthropic merilis versi ketiga Responsible Scaling Policy.
Kepala Ilmuwan Jared Kaplan menyampaikan kepada media, “Kami tidak berpikir menghentikan pelatihan model AI membantu siapa pun. Dengan perkembangan AI yang sangat pesat, membuat komitmen sepihak saat pesaing melaju penuh tidak masuk akal.”
Dengan kata lain, jika yang lain tidak mematuhi aturan, kami pun tidak.
Inti dari RSP 1.0 dan 2.0 adalah komitmen tegas: jika kapabilitas model melebihi cakupan langkah keamanan, pelatihan akan dihentikan. Janji tersebut memberi Anthropic reputasi unik di komunitas keamanan AI.
Namun pada versi 3.0, janji itu dihapus.
Janji itu diganti dengan kerangka kerja yang lebih “fleksibel”—memisahkan langkah keamanan yang bisa diterapkan Anthropic dari rekomendasi industri. Setiap 3–6 bulan, laporan risiko akan diterbitkan, dengan tinjauan eksternal dari pakar.
Apakah itu terdengar bertanggung jawab?
Chris Painter, peninjau independen dari organisasi nonprofit METR, mengatakan setelah melihat draft awal, “Ini menunjukkan Anthropic merasa perlu masuk ‘mode triase’ karena penilaian dan mitigasi risiko tak mampu mengejar pertumbuhan kapabilitas. Ini bukti tambahan bahwa masyarakat belum siap menghadapi risiko AI yang berpotensi katastrofik.”
TIME melaporkan Anthropic menghabiskan hampir setahun memperdebatkan perubahan ini secara internal, dengan CEO Amodei dan dewan menyetujui secara bulat. Secara resmi, kebijakan asli dimaksudkan mendorong konsensus industri—namun industri tidak mengikuti. Pemerintahan Trump mengambil pendekatan lepas tangan terhadap AI, bahkan berupaya mencabut undang-undang negara bagian. Legislasi AI federal tetap di luar jangkauan. Pada 2023, kerangka tata kelola global tampak mungkin, namun tiga tahun kemudian, peluang itu telah tertutup.
Seorang peneliti tata kelola AI berpengalaman yang tidak disebutkan namanya berkata blak-blakan: “RSP adalah aset merek paling bernilai Anthropic. Menghapus jeda pelatihan sama seperti perusahaan makanan organik diam-diam menghapus label ‘organik’, lalu mengklaim pengujian mereka kini lebih transparan.”
Pada awal Februari, Anthropic menutup pendanaan $30 miliar dengan valuasi $380 miliar, Amazon sebagai investor utama. Sejak berdiri, Anthropic meraih pendapatan tahunan sebesar $14 miliar, dan dalam tiga tahun terakhir, angka itu tumbuh lebih dari sepuluh kali lipat setiap tahunnya.
Pada saat yang sama, Pentagon mengancam akan memasukkan perusahaan ke daftar hitam. Musk terbuka menuduhnya mencuri data. Komitmen keamanan intinya hilang. Kepala keamanan AI Anthropic, Mrinank Sharma, mengundurkan diri dan menulis di X: “Dunia dalam bahaya.”
Kontradiksi?
Mungkin kontradiksi adalah DNA Anthropic.
Didirikan oleh mantan eksekutif OpenAI yang khawatir dengan kecepatan keamanan OpenAI, Anthropic justru membangun model yang lebih kuat, lebih cepat, sambil memperingatkan dunia tentang bahayanya model-model tersebut.
Model bisnisnya singkatnya: kami lebih takut pada AI daripada siapa pun, jadi Anda harus membayar kami untuk membangunnya.
Narasi ini berjalan sempurna pada 2023–2024. Keamanan AI menjadi kata kunci di Washington, dan Anthropic menjadi pelobi terpanas.
Pada 2026, arah angin berubah.
“Woke AI” menjadi hinaan politik, regulasi AI tingkat negara bagian diblokir Gedung Putih, dan meskipun SB 53 California (didukung Anthropic) menjadi undang-undang, tidak ada kemajuan di tingkat federal.
Narasi keamanan Anthropic berubah dari “pembeda” menjadi “liabilitas politik.”
Anthropic melakukan aksi keseimbangan yang rumit—harus cukup “aman” untuk menjaga merek, tapi cukup “fleksibel” agar tidak ditolak pasar atau pemerintah. Masalahnya, toleransi dari kedua sisi semakin menipis.
Jika dilihat bersama, ketiga peristiwa tersebut membentuk gambaran yang jelas.
Menuduh perusahaan Tiongkok melakukan distillation terhadap Claude memperkuat lobi pembatasan ekspor chip. Menghapus jeda keamanan menjaga Anthropic tetap dalam perlombaan senjata. Menolak permintaan Pentagon soal senjata otonom mempertahankan lapisan terakhir kredibilitas moralnya.
Setiap langkah logis, tetapi semuanya saling bertentangan.
Anda tidak bisa mengklaim perusahaan Tiongkok “mendistilasi” model Anda mengancam keamanan nasional, sementara Anda sendiri menghapus janji untuk mencegah model Anda lepas kendali. Jika model itu memang berbahaya, Anda seharusnya lebih berhati-hati—bukan lebih agresif.
Kecuali Anda Anthropic.
Di industri AI, identitas Anda tidak ditentukan oleh pernyataan—melainkan oleh neraca keuangan. Narasi “keamanan” Anthropic pada dasarnya adalah premium merek.
Di awal perlombaan senjata AI, premium ini sangat bernilai. Investor membayar lebih untuk “AI yang bertanggung jawab,” pemerintah mengizinkan “AI yang dapat dipercaya,” dan klien membayar untuk “AI yang lebih aman.”
Namun pada 2026, premium itu mulai menghilang.
Sekarang Anthropic menghadapi bukan lagi pertanyaan “haruskah kami berkompromi,” melainkan “dengan siapa kami harus berkompromi lebih dulu.” Kompromi dengan Pentagon, merek akan rusak. Kompromi dengan pesaing, janji keamanan batal. Kompromi dengan investor, kedua sisi harus mengalah.
Pada pukul 17.01 hari Jumat, Anthropic akan memberikan jawabannya.
Apa pun hasilnya, satu hal pasti: Anthropic yang dulu mengusung “kami berbeda dari OpenAI” kini menjadi seperti yang lain.
Akhir dari krisis identitas sering kali berarti hilangnya identitas itu sendiri.





