Inovasi Disruptif Menginjak Garis Merah Politik, Bagaimana Anthropic Bertahan di Celah Tegang?

ChainNewsAbmedia

Silicon Valley startup team selalu menyebut produk mereka sebagai inovasi disruptif, tetapi tidak ada perusahaan lain seperti Anthropic yang benar-benar menciptakan inovasi disruptif dan menghadapi krisis eksistensi. Ketika “inovasi disruptif” menjadi klise yang membuat investor di Silicon Valley bosan, Anthropic justru menunjukkan sebuah wahyu modern, di mana terobosan teknologi membuat valuasi perusahaan melipatgandakan, namun label politik dan badai regulasi yang menyertainya justru menjerumuskan mereka ke dasar jurang. Majalah Time secara eksklusif mengungkap kisah di balik para anomali AI ini, di tengah ancaman keamanan nasional dan kompetitor yang mengelilingi, bagaimana perusahaan AI yang berjanji melindungi manusia ini bertahan di celah tekanan politik?

Pertumbuhan pesat Anthropic, menjadi ancaman bagi industri perangkat lunak

Dalam aplikasi bisnis AI, nilai pasar Anthropic telah mencapai 380 miliar dolar AS, dengan pertumbuhan pendapatan yang signifikan, bahkan melampaui Goldman Sachs, McDonald’s, dan Coca-Cola. Claude, produk dari Anthropic, mampu menjalankan kode secara mandiri, menemukan kesalahan, dan mengoptimalkan sistem, sehingga mengubah total cara kerja insinyur perangkat lunak. Investor menyadari bahwa Anthropic bahkan memiliki kemampuan mempengaruhi pasar keuangan; setiap kali versi baru dirilis, sering menyebabkan fluktuasi besar pada saham perangkat lunak. CEO Amodei memprediksi dalam lima sampai sepuluh tahun ke depan, kecerdasan buatan mungkin menggantikan sebagian besar pekerjaan kantoran. Fenomena keberhasilan bisnis ini sekaligus risiko sosialnya membuat tim pengawas sosial internal Anthropic merasa bertentangan: di satu sisi ingin meningkatkan produktivitas dan kinerja perusahaan, di sisi lain khawatir produk mereka akan menyebabkan pengangguran massal.

Risiko tersembunyi Claude 3.7 Sonnet

Dengan visi perusahaan yang berfokus pada keamanan manusia, Anthropic berada di pusat badai ledakan teknologi dan regulasi pemerintah. Prinsip etika yang dianut perusahaan menghadapi tekanan saat memenuhi kebutuhan pengadaan dari Departemen Pertahanan AS, yang berpotensi memblokir mereka.

Berdasarkan pengujian internal, Claude mampu menyelesaikan tugas-tugas penting 427 kali lebih cepat dari manusia. Pada Februari tahun lalu, anggota tim teknologi Anthropic menemukan bahwa versi Claude yang akan dirilis memiliki risiko membantu pembuatan senjata biologis. Temuan ini memaksa perusahaan menunda peluncuran Claude 3.7 Sonnet secara darurat, menunjukkan komitmen tinggi terhadap keamanan. Kepala tim merah Anthropic, Logan Graham, menyatakan bahwa dalam menghadapi risiko bencana seperti perang nuklir atau kepunahan manusia yang mungkin dipicu AI, pengembang memikul tanggung jawab sosial besar. Saat ini, tidak ada solusi yang diakui secara umum di industri, dan tim pengembangan harus menyeimbangkan antara kompetisi sumber daya dan pengendalian risiko. Standar perusahaan yang mengutamakan keselamatan manusia ini menjadikan Anthropic sebagai entitas unik di dunia AI.

Konflik etika perusahaan dengan pemerintahan Trump

Hubungan Anthropic dengan pemerintah AS mulai berubah drastis tahun lalu. Karena menolak menggunakan AI untuk senjata otomatis penuh dan pengawasan warga, mereka menolak permintaan Pentagon untuk negosiasi ulang. Kemudian, pemerintahan Trump menempatkan mereka sebagai pemasok risiko keamanan nasional—pertama kalinya pemerintah AS memberi label semacam ini kepada perusahaan domestik. Departemen Pertahanan berpendapat bahwa perusahaan swasta tidak boleh membatasi sistem komando militer, sementara Amodei dalam memo internal menyatakan bahwa ini disebabkan perusahaan menolak menyumbang dana kepada Trump dan menolak tujuan politik tertentu, serta berpegang pada transparansi regulasi. Kebuntuan ini menyebabkan kompetitor OpenAI mendapatkan kontrak militer. Konflik ini tidak hanya soal kontrak, tetapi juga soal siapa yang berhak membatasi teknologi.

Pendiri Anthropic, Amodei, si “hipster” di dunia AI

Ketika membahas tekad perusahaan Anthropic, tak lengkap tanpa menyebut keunikan pendirinya, Amodei. Pada tahun 2024, ia menulis artikel sepanjang 14.000 kata tentang bagaimana AI dapat mempercepat penemuan ilmiah dan mengubah dunia menjadi utopia. Pada Januari tahun ini, ia merilis novel pendek yang menggambarkan krisis yang mungkin timbul dari kemajuan AI, seperti pengawasan massal, pengangguran, bahkan hilangnya kendali manusia secara permanen. Pertanyaannya, perusahaan startup manakah yang pendirinya sendiri meramalkan bahaya produk mereka dan takut menimbulkan kesengsaraan orang lain?

Dalam persaingan bisnis AI, OpenAI sementara unggul

Menurut laporan Time, tanpa disadari oleh Anthropic, saat mereka masih memikirkan strategi, Pentagon juga sedang bernegosiasi dengan OpenAI untuk mengintegrasikan ChatGPT ke dalam sistem pemerintah. Kemudian, berita muncul bahwa pendiri OpenAI, Altman, mengklaim telah mencapai kesepakatan dengan Pentagon, yang memiliki kesamaan dasar dengan kesepakatan Anthropic. Amodei mengirim pesan kepada staf bahwa Altman dan Pentagon sedang “menyembunyikan” dari masyarakat, mencoba meyakinkan mereka bahwa kesepakatan tersebut memiliki banyak batasan. Sebelumnya, pejabat Departemen Pertahanan mengonfirmasi bahwa Elon Musk melalui xAI juga akan menyediakan modelnya di server rahasia, dan Pentagon saat ini juga sedang bernegosiasi dengan Google.

Anthropic menerapkan kebijakan penundaan dan penangguhan

Claude menulis sebagian besar kode yang diperlukan untuk pengembangan model AI masa depan, sehingga jarak waktu peluncuran model AI berkurang dari bulan menjadi minggu. Kecepatan eksekusi Claude dalam tugas tertentu telah jauh melampaui manusia, membuat manajemen khawatir bahwa teknologi AI di masa depan bisa melampaui kendali manusia.

Ketika AI mulai menulis logika evolusinya sendiri, berapa banyak waktu yang tersisa bagi manusia? Mengingat kompetisi eksternal yang semakin ketat, Anthropic baru-baru ini mengubah kebijakan mereka. Kebijakan baru berjanji meningkatkan transparansi risiko keamanan AI, termasuk mengungkapkan performa model mereka dalam pengujian keamanan. Selain itu, jika pimpinan perusahaan menilai bahwa posisi mereka di jalur AI berpotensi membawa risiko bencana, mereka akan “menunda” pengembangan teknologi.

Namun, kisah tentang etika AI ini belum berakhir.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar