Baru-baru ini, Sam Altman mengumumkan bahwa OpenAI telah menandatangani perjanjian kemitraan dengan Departemen Pertahanan Amerika Serikat untuk mengimplementasikan model AI-nya dalam lingkungan jaringan cloud yang bersifat rahasia. Perjanjian ini mengusung prinsip utama seperti “melarang pengawasan berskala besar di Amerika Serikat” dan “menjamin manusia tetap bertanggung jawab atas penggunaan kekuatan.” Meski tampak sebagai kolaborasi bisnis dan pemerintah, hal ini menandai integrasi formal kecerdasan buatan ke pusat sistem keamanan nasional.

Sumber gambar: https://x.com/sama/status/2027578652477821175
Perkembangan ini bukan sekadar penerapan teknis—melainkan menjadi titik penting dalam desain institusi, dinamika kekuasaan, dan struktur masa depan masyarakat.
Selama beberapa tahun terakhir, model AI berskala besar terutama digunakan dalam aplikasi konsumen, layanan perusahaan, dan riset ilmiah. Penerapannya di jaringan pertahanan rahasia menandai tiga pergeseran signifikan:
Altman menekankan dua prinsip utama yang sangat penting:
Secara kasat mata, ini mencerminkan langkah proaktif perusahaan teknologi dalam menetapkan batasan etis. Namun, pertanyaan utama adalah: Ketika AI tertanam dalam struktur keamanan nasional, bagaimana prinsip-prinsip ini akan diinterpretasikan dan ditegakkan di tengah skenario yang kompleks?
Sejarah membuktikan bahwa setelah teknologi diintegrasikan ke sistem strategis nasional, arah perkembangannya kerap berubah. Kebutuhan keamanan, tuntutan efisiensi, dan tekanan kompetitif dapat secara bertahap membentuk ulang batas-batas yang ada.
Saat ini, model AI berskala besar pada dasarnya berfungsi sebagai sistem prediksi probabilistik. Seiring meningkatnya kemampuan penalaran, pemanggilan alat, dan eksekusi tugas jangka panjang, AI mengalami transformasi fundamental:
Ketika diterapkan dalam jaringan pertahanan, model AI dapat berfungsi sebagai:
Fungsi-fungsi ini tidak secara langsung “menarik pelatuk,” namun memengaruhi proses pengambilan keputusan. Dengan kata lain, walaupun “manusia bertanggung jawab atas penggunaan kekuatan,” AI dapat menjadi faktor penting dalam membentuk keputusan.
Ini memunculkan perubahan utama: Otoritas pengambilan keputusan mungkin tidak dialihkan ke AI, tetapi logika di balik keputusan akan semakin bergantung pada sistem AI.
Dalam jangka panjang, ketergantungan ini dapat berdampak struktural lebih dalam daripada sekadar delegasi langsung.
Perjanjian tersebut menguraikan pembangunan perlindungan teknis, dengan model hanya diterapkan dalam jaringan cloud dan pengenalan Functionally Enhanced Devices (FDE) untuk memastikan kepatuhan.
Tujuan utama dari langkah-langkah ini adalah:
Tantangannya adalah batas perlindungan teknis sering berubah seiring kebutuhan.
Contohnya:
Pada sistem yang sangat kompleks, risiko jarang berasal dari pelanggaran satu titik, melainkan akumulasi fungsi. Ketika model dapat mengintegrasikan data lintas departemen, meskipun tugas individu legal, efek agregatnya dapat menciptakan dinamika kekuasaan baru.
Dengan demikian, “perlindungan teknis” bukanlah solusi definitif, melainkan negosiasi berkelanjutan.
Pelatihan dan penerapan AI membutuhkan daya komputasi dan sumber data yang sangat besar, sehingga model besar memiliki keunggulan skala dan hambatan modal bawaan. Ketika keamanan nasional menjadi skenario aplikasi, tren konsentrasi ini semakin diperkuat:
Hal ini berarti masa depan AI kemungkinan bergerak menuju lanskap di mana kapabilitas inti dikendalikan oleh segelintir entitas.
Keterbukaan teknologi mungkin bertentangan dengan konsentrasi yang terjadi dalam penerapan nyata.
Jika AI menjadi infrastruktur nasional, model operasinya akan menyerupai sistem listrik, telekomunikasi, atau kliring keuangan, bukan ekosistem perangkat lunak open-source.

Berdasarkan tren saat ini, tiga jalur jangka panjang dapat diantisipasi.
Dalam skenario ini, AI berfungsi sebagai penguat kognitif, bukan pengganti kekuasaan.
Jalur ini tidak menyebabkan kehilangan kontrol secara tiba-tiba, melainkan secara bertahap mengubah struktur kekuasaan.
Jika kecerdasan umum buatan (AGI) benar-benar muncul, produktivitas dan kemampuan kognitif dapat mengalami transformasi kualitatif. Namun, saat ini belum ada bukti bahwa tahap ini akan segera terjadi.
Kemampuan AI yang semakin berkembang adalah tren teknologi, namun arah perkembangannya bergantung pada empat variabel penting:
Ketika perusahaan teknologi dan sistem pertahanan berkolaborasi secara mendalam, teknologi menjadi aset strategis, bukan sekadar komoditas pasar.
Masalahnya bukan pada kolaborasi itu sendiri, melainkan:
Jika perkembangan institusi tidak dapat mengikuti kemampuan teknologi yang berkembang, risiko jangka panjangnya bukan kehilangan kontrol, melainkan konsentrasi kekuasaan.
Kecerdasan buatan kini menjadi elemen utama dalam kompetisi geopolitik.
Negara-negara mempercepat inisiatif dalam:
Dalam lingkungan ini, kolaborasi antara perusahaan dan pemerintah hampir tidak terhindarkan. Menolak kerja sama tidak akan menghentikan perlombaan teknologi global.
Jadi, pertanyaannya bukan “apakah akan bekerja sama,” melainkan “bagaimana bekerja sama.” Jika prinsip-prinsip keamanan diinstitusionalisasi, dibuat transparan, dan dapat diaudit, kolaborasi semacam ini dapat membentuk model yang bertanggung jawab. Jika prinsip hanya berupa deklarasi tanpa mekanisme pengawasan independen, risiko akan meningkat seiring bertambahnya kapabilitas.
Ketika AI perlahan mengambil peran kognitif dan analitik, tanggung jawab manusia dapat berubah:
Ini merupakan pergeseran titik kekuasaan. Tantangan sebenarnya bukan apakah mesin lebih pintar dari manusia, melainkan apakah manusia bersedia mengambil tanggung jawab akhir. Jika penilaian semakin dialihkan ke model, maka meskipun secara formal “otoritas keputusan akhir” tetap pada manusia, keputusan nyata dapat dipandu oleh teknologi.
Faktor-faktor ini akan menentukan apakah AI menjadi infrastruktur publik atau alat konsolidasi kekuasaan.
Altman menyatakan, “Dunia ini kompleks, kacau, dan terkadang berbahaya.” Pandangan ini menunjukkan alasan kolaborasi: Di era ketidakpastian yang meningkat, negara-negara mencari keunggulan teknologi.
Yang benar-benar penting adalah: Kekuatan teknologi tidak secara otomatis berujung pada kematangan institusi. Masa depan AI bukanlah progres teknologi linier, melainkan interaksi dinamis antara teknologi, modal, pemerintah, dan masyarakat. AI dapat menjadi infrastruktur kognitif atau penguat kekuasaan. Trajektori akhirnya akan bergantung pada bagaimana manusia merancang aturan, mengalokasikan tanggung jawab, dan menjaga transparansi.
Masuknya AI ke jaringan rahasia bukanlah titik akhir—ini baru permulaan. Ujian sebenarnya terletak pada apakah batas-batas tetap jelas dan dapat ditegakkan seiring kemampuan berkembang.





