72 Jam Krisis Identitas Anthropic

2026-03-05 07:03:46
Menengah
Blockchain
Dalam waktu hanya tujuh puluh dua jam, Anthropic menghadapi ultimatum dari Pentagon, tuduhan publik dari Elon Musk, serta penarikan komitmen keamanannya sendiri. Dari penolakan untuk mengembangkan senjata militer otonom, revisi RSP 3.0, hingga meninggalkan garis merah "pause training", perusahaan yang dikenal sebagai pemimpin dalam "AI aman" ini kini berhadapan dengan jurang yang semakin lebar antara citra merek dan kenyataan operasionalnya. Artikel ini mengupas dinamika politik, tekanan valuasi, serta keruntuhan narasi premium keamanan yang mendorong krisis identitas ini.

Selasa, 24 Februari. Washington, Pentagon.

CEO Anthropic, Dario Amodei, duduk berhadapan langsung dengan Menteri Pertahanan Pete Hegseth. Menurut sumber yang dikutip NPR dan CNN, pertemuan tersebut berlangsung “sopan,” meskipun isinya jauh dari kata lembut.

Hegseth mengajukan ultimatum: sebelum pukul 17.01 hari Jumat, seluruh pembatasan penggunaan militer pada Claude harus dicabut dan Pentagon diizinkan menggunakannya untuk “semua tujuan yang sah,” termasuk penargetan senjata otonom dan pengawasan domestik berskala besar.

Jika tidak, kontrak senilai $200 juta akan dibatalkan. Defense Production Act akan diberlakukan untuk pengambilalihan wajib. Anthropic akan dikategorikan sebagai “supply chain risk”—yang berarti masuk daftar hitam bersama lawan seperti Rusia dan Tiongkok.

Di hari yang sama, Anthropic merilis edisi ketiga Responsible Scaling Policy (RSP 3.0), secara diam-diam menghapus janji paling mendasar sejak awal: tidak akan melatih model yang lebih kuat kecuali langkah-langkah keamanan telah diterapkan.

Masih di hari itu, Elon Musk menulis di X: “Anthropic melakukan pencurian data pelatihan skala besar—ini fakta.” Pada saat yang sama, Community Notes di X mengutip laporan bahwa Anthropic membayar $1,5 miliar untuk menyelesaikan klaim pelatihan Claude dengan buku bajakan.

Dalam waktu tujuh puluh dua jam, perusahaan AI ini—yang pernah mengklaim memiliki “jiwa”—dicap sebagai tiga hal: martir keamanan, pencuri kekayaan intelektual, dan pembelot Pentagon.

Siapa Anthropic yang sebenarnya?

Mungkin semuanya benar.

Mandat “Comply or Get Out” dari Pentagon

Lapis pertama cerita ini sangat jelas.

Anthropic adalah perusahaan AI pertama yang mendapatkan akses rahasia dari Departemen Pertahanan AS, dengan kontrak musim panas lalu senilai hingga $200 juta. OpenAI, Google, dan xAI kemudian memperoleh kontrak serupa.

Menurut Al Jazeera, Claude digunakan dalam operasi militer AS pada Januari lalu. Laporan tersebut menyebutkan misi itu melibatkan penculikan Presiden Venezuela Maduro.

Namun Anthropic menetapkan dua garis merah: tidak mendukung penargetan senjata otonom sepenuhnya dan tidak mendukung pengawasan berskala besar terhadap warga negara AS. Anthropic berpendapat AI belum cukup andal untuk mengendalikan senjata, dan belum ada regulasi hukum terkait AI dalam pengawasan massal.

Pentagon tidak menerima alasan itu.

Pada Oktober lalu, penasihat AI Gedung Putih, David Sacks, secara terbuka menuduh Anthropic di X karena “memanfaatkan ketakutan untuk menguasai regulasi.”

Para pesaing sudah mengalah. OpenAI, Google, dan xAI semuanya setuju militer dapat menggunakan AI mereka untuk “semua skenario sah.” Grok milik Musk baru saja disetujui untuk sistem rahasia minggu ini.

Anthropic adalah satu-satunya yang masih bertahan.

Saat artikel ini ditulis, Anthropic dalam pengumuman terbarunya menyatakan tidak berniat menyerah. Namun, tenggat Jumat pukul 17.01 semakin dekat.

Seorang mantan penghubung antara Departemen Kehakiman dan Pentagon, yang tidak disebutkan namanya, mengatakan kepada CNN: “Bagaimana Anda bisa menyatakan sebuah perusahaan sebagai ‘supply chain risk’ dan sekaligus memaksanya bekerja untuk militer Anda?”

Pertanyaan yang bagus—tapi bukan itu yang jadi perhatian Pentagon. Fokus mereka, jika Anthropic tidak mau kompromi, mereka akan memaksakan kepatuhan atau membiarkan Anthropic terisolasi di Washington.

“Distillation Attack”: Tuduhan Publik yang Berbalik Arah

Pada 23 Februari, Anthropic menerbitkan blog dengan nada tajam yang menuduh tiga perusahaan AI Tiongkok—DeepSeek, Moonshot AI, dan MiniMax—melakukan “distillation attack skala industri” terhadap Claude.

Anthropic menuduh perusahaan-perusahaan ini menggunakan 24.000 akun palsu untuk memulai lebih dari 16 juta interaksi dengan Claude, secara sistematis mengekstraksi kapabilitas inti seperti agent reasoning, penggunaan alat, dan pemrograman.

Anthropic membingkai hal ini sebagai ancaman keamanan nasional, menyatakan model hasil distilasi “tidak mungkin mempertahankan pagar keamanan” dan dapat digunakan pemerintah otoriter untuk serangan siber, disinformasi, serta pengawasan massal.

Narasi ini disusun dengan waktu dan strategi yang tepat.

Ini terjadi tepat setelah pemerintahan Trump melonggarkan kontrol ekspor chip ke Tiongkok—saat Anthropic membutuhkan amunisi baru untuk lobi ekspor chip.

Tetapi Musk membalas: “Anthropic melakukan pencurian data pelatihan skala besar dan membayar miliaran dolar untuk penyelesaian. Ini fakta.”

Co-founder IO.Net, Tory Green, berkomentar, “Anda melatih model Anda di seluruh internet, tetapi saat orang lain belajar dari API publik Anda, Anda menyebutnya ‘distillation attack’?”

Anthropic menyebut distillation sebagai “serangan,” padahal ini praktik standar di industri AI. OpenAI menggunakannya untuk mengompresi GPT-4, Google untuk mengoptimalkan Gemini, dan Anthropic sendiri juga melakukannya. Satu-satunya perbedaan kali ini: Anthropic yang menjadi target.

Seperti kata Profesor AI Nanyang Technological University, Erik Cambria, kepada CNBC, “Batas antara penggunaan yang sah dan eksploitasi jahat sering kali kabur.”

Lebih ironis lagi, Anthropic baru saja membayar $1,5 miliar untuk menyelesaikan klaim pelatihan Claude dengan buku bajakan. Mereka melatih dari seluruh internet, lalu menuduh pihak lain belajar dari API publik mereka. Ini bukan sekadar standar ganda—melainkan standar tiga lapis.

Anthropic ingin tampil sebagai korban, tapi akhirnya justru menjadi tertuduh.

Membongkar Komitmen Keamanan: RSP 3.0

Di hari yang sama ketika menghadapi Pentagon dan berdebat dengan Silicon Valley, Anthropic merilis versi ketiga Responsible Scaling Policy.

Kepala Ilmuwan Jared Kaplan menyampaikan kepada media, “Kami tidak berpikir menghentikan pelatihan model AI membantu siapa pun. Dengan perkembangan AI yang sangat pesat, membuat komitmen sepihak saat pesaing melaju penuh tidak masuk akal.”

Dengan kata lain, jika yang lain tidak mematuhi aturan, kami pun tidak.

Inti dari RSP 1.0 dan 2.0 adalah komitmen tegas: jika kapabilitas model melebihi cakupan langkah keamanan, pelatihan akan dihentikan. Janji tersebut memberi Anthropic reputasi unik di komunitas keamanan AI.

Namun pada versi 3.0, janji itu dihapus.

Janji itu diganti dengan kerangka kerja yang lebih “fleksibel”—memisahkan langkah keamanan yang bisa diterapkan Anthropic dari rekomendasi industri. Setiap 3–6 bulan, laporan risiko akan diterbitkan, dengan tinjauan eksternal dari pakar.

Apakah itu terdengar bertanggung jawab?

Chris Painter, peninjau independen dari organisasi nonprofit METR, mengatakan setelah melihat draft awal, “Ini menunjukkan Anthropic merasa perlu masuk ‘mode triase’ karena penilaian dan mitigasi risiko tak mampu mengejar pertumbuhan kapabilitas. Ini bukti tambahan bahwa masyarakat belum siap menghadapi risiko AI yang berpotensi katastrofik.”

TIME melaporkan Anthropic menghabiskan hampir setahun memperdebatkan perubahan ini secara internal, dengan CEO Amodei dan dewan menyetujui secara bulat. Secara resmi, kebijakan asli dimaksudkan mendorong konsensus industri—namun industri tidak mengikuti. Pemerintahan Trump mengambil pendekatan lepas tangan terhadap AI, bahkan berupaya mencabut undang-undang negara bagian. Legislasi AI federal tetap di luar jangkauan. Pada 2023, kerangka tata kelola global tampak mungkin, namun tiga tahun kemudian, peluang itu telah tertutup.

Seorang peneliti tata kelola AI berpengalaman yang tidak disebutkan namanya berkata blak-blakan: “RSP adalah aset merek paling bernilai Anthropic. Menghapus jeda pelatihan sama seperti perusahaan makanan organik diam-diam menghapus label ‘organik’, lalu mengklaim pengujian mereka kini lebih transparan.”

Krisis Identitas di Valuasi $380 Miliar

Pada awal Februari, Anthropic menutup pendanaan $30 miliar dengan valuasi $380 miliar, Amazon sebagai investor utama. Sejak berdiri, Anthropic meraih pendapatan tahunan sebesar $14 miliar, dan dalam tiga tahun terakhir, angka itu tumbuh lebih dari sepuluh kali lipat setiap tahunnya.

Pada saat yang sama, Pentagon mengancam akan memasukkan perusahaan ke daftar hitam. Musk terbuka menuduhnya mencuri data. Komitmen keamanan intinya hilang. Kepala keamanan AI Anthropic, Mrinank Sharma, mengundurkan diri dan menulis di X: “Dunia dalam bahaya.”

Kontradiksi?

Mungkin kontradiksi adalah DNA Anthropic.

Didirikan oleh mantan eksekutif OpenAI yang khawatir dengan kecepatan keamanan OpenAI, Anthropic justru membangun model yang lebih kuat, lebih cepat, sambil memperingatkan dunia tentang bahayanya model-model tersebut.

Model bisnisnya singkatnya: kami lebih takut pada AI daripada siapa pun, jadi Anda harus membayar kami untuk membangunnya.

Narasi ini berjalan sempurna pada 2023–2024. Keamanan AI menjadi kata kunci di Washington, dan Anthropic menjadi pelobi terpanas.

Pada 2026, arah angin berubah.

“Woke AI” menjadi hinaan politik, regulasi AI tingkat negara bagian diblokir Gedung Putih, dan meskipun SB 53 California (didukung Anthropic) menjadi undang-undang, tidak ada kemajuan di tingkat federal.

Narasi keamanan Anthropic berubah dari “pembeda” menjadi “liabilitas politik.”

Anthropic melakukan aksi keseimbangan yang rumit—harus cukup “aman” untuk menjaga merek, tapi cukup “fleksibel” agar tidak ditolak pasar atau pemerintah. Masalahnya, toleransi dari kedua sisi semakin menipis.

Berapa Nilai Narasi Keamanan Saat Ini?

Jika dilihat bersama, ketiga peristiwa tersebut membentuk gambaran yang jelas.

Menuduh perusahaan Tiongkok melakukan distillation terhadap Claude memperkuat lobi pembatasan ekspor chip. Menghapus jeda keamanan menjaga Anthropic tetap dalam perlombaan senjata. Menolak permintaan Pentagon soal senjata otonom mempertahankan lapisan terakhir kredibilitas moralnya.

Setiap langkah logis, tetapi semuanya saling bertentangan.

Anda tidak bisa mengklaim perusahaan Tiongkok “mendistilasi” model Anda mengancam keamanan nasional, sementara Anda sendiri menghapus janji untuk mencegah model Anda lepas kendali. Jika model itu memang berbahaya, Anda seharusnya lebih berhati-hati—bukan lebih agresif.

Kecuali Anda Anthropic.

Di industri AI, identitas Anda tidak ditentukan oleh pernyataan—melainkan oleh neraca keuangan. Narasi “keamanan” Anthropic pada dasarnya adalah premium merek.

Di awal perlombaan senjata AI, premium ini sangat bernilai. Investor membayar lebih untuk “AI yang bertanggung jawab,” pemerintah mengizinkan “AI yang dapat dipercaya,” dan klien membayar untuk “AI yang lebih aman.”

Namun pada 2026, premium itu mulai menghilang.

Sekarang Anthropic menghadapi bukan lagi pertanyaan “haruskah kami berkompromi,” melainkan “dengan siapa kami harus berkompromi lebih dulu.” Kompromi dengan Pentagon, merek akan rusak. Kompromi dengan pesaing, janji keamanan batal. Kompromi dengan investor, kedua sisi harus mengalah.

Pada pukul 17.01 hari Jumat, Anthropic akan memberikan jawabannya.

Apa pun hasilnya, satu hal pasti: Anthropic yang dulu mengusung “kami berbeda dari OpenAI” kini menjadi seperti yang lain.

Akhir dari krisis identitas sering kali berarti hilangnya identitas itu sendiri.

Pernyataan:

  1. Artikel ini diterbitkan ulang dari [TechFlow]. Hak cipta milik penulis asli [Ada]. Jika Anda memiliki keberatan terkait penerbitan ulang ini, silakan hubungi tim Gate Learn, dan kami akan menanganinya sesuai prosedur yang berlaku.
  2. Disclaimer: Pandangan dan opini yang diungkapkan dalam artikel ini sepenuhnya milik penulis dan tidak merupakan saran investasi.
  3. Versi bahasa lain dari artikel ini diterjemahkan oleh tim Gate Learn. Tanpa menyebutkan Gate, artikel terjemahan tidak boleh disalin, didistribusikan, atau dijiplak.

Bagikan

Kalender Kripto
Token Terbuka
Wormhole akan membuka 1.280.000.000 token W pada 3 April, yang merupakan sekitar 28,39% dari pasokan yang saat ini beredar.
W
-7.32%
2026-04-02
Token Dibuka
Jaringan Pyth akan membuka 2.130.000.000 token PYTH pada 19 Mei, yang merupakan sekitar 36,96% dari pasokan yang saat ini beredar.
PYTH
2.25%
2026-05-18
Token Terbuka
Pump.fun akan membuka 82.500.000.000 token PUMP pada 12 Juli, yang merupakan sekitar 23,31% dari total pasokan yang saat ini beredar.
PUMP
-3.37%
2026-07-11
Pembukaan Token
Succinct akan membuka 208.330.000 token PROVE pada 5 Agustus, yang merupakan sekitar 104,17% dari suplai yang sedang beredar saat ini.
PROVE
2026-08-04
sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

Artikel Terkait

Apa itu Tronscan dan Bagaimana Anda Dapat Menggunakannya pada Tahun 2025?
Pemula

Apa itu Tronscan dan Bagaimana Anda Dapat Menggunakannya pada Tahun 2025?

Tronscan adalah penjelajah blockchain yang melampaui dasar-dasar, menawarkan manajemen dompet, pelacakan token, wawasan kontrak pintar, dan partisipasi tata kelola. Pada tahun 2025, ia telah berkembang dengan fitur keamanan yang ditingkatkan, analitika yang diperluas, integrasi lintas rantai, dan pengalaman seluler yang ditingkatkan. Platform ini sekarang mencakup otentikasi biometrik tingkat lanjut, pemantauan transaksi real-time, dan dasbor DeFi yang komprehensif. Pengembang mendapatkan manfaat dari analisis kontrak pintar yang didukung AI dan lingkungan pengujian yang diperbaiki, sementara pengguna menikmati tampilan portofolio multi-rantai yang terpadu dan navigasi berbasis gerakan pada perangkat seluler.
2023-11-22 18:27:42
Apa itu Hyperliquid (HYPE)?
Menengah

Apa itu Hyperliquid (HYPE)?

Hyperliquid adalah platform blockchain terdesentralisasi yang memungkinkan perdagangan efisien, kontrak abadi, dan alat yang ramah pengembang untuk inovasi.
2025-03-03 02:56:44
Apa itu USDC?
Pemula

Apa itu USDC?

Sebagai jembatan yang menghubungkan mata uang fiat dan mata uang kripto, semakin banyak stablecoin yang dibuat, dengan banyak di antaranya yang ambruk tak lama kemudian. Bagaimana dengan USDC, stablecoin terkemuka saat ini? Bagaimana itu akan berkembang di masa depan?
2022-11-21 10:36:25
Apa itu Stablecoin?
Pemula

Apa itu Stablecoin?

Stablecoin adalah mata uang kripto dengan harga stabil, yang sering dipatok ke alat pembayaran yang sah di dunia nyata. Ambil USDT, stablecoin yang paling umum digunakan saat ini, misalnya, USDT dipatok ke dolar AS, dengan 1 USDT = 1 USD.
2022-11-21 08:35:14
Apa Itu Narasi Kripto? Narasi Teratas untuk 2025 (DIPERBARUI)
Pemula

Apa Itu Narasi Kripto? Narasi Teratas untuk 2025 (DIPERBARUI)

Memecoins, token restaking yang cair, derivatif staking yang cair, modularitas blockchain, Layer 1s, Layer 2s (Optimistic rollups dan zero knowledge rollups), BRC-20, DePIN, bot perdagangan kripto Telegram, pasar prediksi, dan RWAs adalah beberapa narasi yang perlu diperhatikan pada tahun 2024.
2024-11-26 02:13:25
Apa itu Axie Infinity?
Pemula

Apa itu Axie Infinity?

Axie Infinity adalah proyek GameFi terkemuka, yang model dual-token AXS dan SLP-nya telah sangat membentuk proyek-proyek kemudian. Karena meningkatnya P2E, semakin banyak pendatang baru tertarik untuk bergabung. Menanggapi biaya yang melonjak, sebuah sidechain khusus, Ronin, yang
2024-07-10 09:04:21