Pasar infrastruktur kecerdasan buatan (AI) sedang berkembang pesat, dengan lima hyperscaler terbesar (pemilik pusat data besar) saja diperkirakan akan menghabiskan hingga $700 miliar pada tahun 2026. Untuk memberi gambaran, angka tersebut melebihi Produk Domestik Bruto (PDB) dari semua negara kecuali 24 negara.
Saat ini, pengeluaran ini dilakukan untuk dua tujuan utama. Yang pertama adalah untuk melatih model bahasa besar (LLMs), seperti ChatGPT dari OpenAI, Claude dari Anthropic, dan Gemini dari Alphabet. Yang kedua adalah untuk mendukung inferensi AI, yang kemudian menerapkan model untuk menjawab pertanyaan.
Sumber gambar: Getty Images.
Nvidia (NVDA +0.69%) adalah pemimpin yang jelas dalam pelatihan model AI, dan telah membangun keunggulan yang luas melalui platform perangkat lunak CUDA-nya, yang merupakan tempat sebagian besar kode AI dasar ditulis dan dioptimalkan untuk GPU-nya. Namun, perusahaan ini juga memimpin dalam inferensi. Chip Blackwell GB300 Ultra-nya dirancang khusus untuk inferensi, sementara platform Vera Rubin yang akan datang diproyeksikan akan menawarkan lima kali lipat performa inferensi dibanding generasi sebelumnya. Sementara itu, Nvidia NIM (Nvidia Inference Microservices) menyediakan microservices inferensi yang sudah dibangun dan dioptimalkan, memberinya keunggulan perangkat lunak juga.
Namun, keunggulan Nvidia dalam inferensi tidak sebesar dalam pelatihan. Karena itu, Advanced Micro Devices (AMD +8.73%) mampu menempati ceruk yang baik di bidang inferensi dengan GPU-nya. Sementara itu, dengan investasi dari OpenAI dan komitmen dari pembuat ChatGPT untuk membeli 6 gigawatt GPU khusus untuk inferensi dalam beberapa tahun mendatang, AMD diharapkan dapat memperoleh pangsa pasar di pasar inferensi.
Namun, pemenang terbesar di pasar inferensi kemungkinan besar adalah Broadcom (AVGO 1.87%).
Perluas
NASDAQ: AVGO
Broadcom
Perubahan Hari Ini
(-1.87%) $-6.17
Harga Saat Ini
$324.17
Data Utama
Kapitalisasi Pasar
$1.6T
Rentang Hari Ini
$314.50 - $328.27
Rentang 52 minggu
$138.10 - $414.61
Volume
756K
Rata-rata Volume
31M
Margin Kotor
64.71%
Hasil Dividen
0.73%
Pertumbuhan ASIC AI di Era Inferensi
Broadcom adalah pemimpin dalam teknologi ASIC (application-specific integrated circuit), yang menyediakan blok bangunan dan kekayaan intelektual untuk membantu pelanggan mewujudkan desain chip AI mereka. Perusahaan ini juga memiliki akses ke komponen penting, seperti memori bandwidth tinggi (HBM), dan hubungan yang sudah terjalin dengan pabrik wafer Taiwan Semiconductor Manufacturing untuk memproduksi chip khusus ini secara massal.
Karena ASIC dirancang khusus untuk melakukan tugas tertentu, mereka kurang fleksibel dan adaptif dibanding GPU. Namun, karena sifatnya yang khusus, ASIC dapat mengungguli GPU dalam tugas yang dirancang untuk mereka sekaligus lebih hemat energi. Hal ini menjadi faktor yang semakin penting dalam inferensi AI, karena setiap kali model AI harus menjawab pertanyaan atau melakukan tugas, biaya berkelanjutan akan muncul. Inferensi AI juga tidak serumit pelatihan AI, sehingga perangkat lunak Nvidia tidak memiliki keunggulan sebesar itu.
ASIC sudah mengganggu GPU di ruang penambangan cryptocurrency, karena mampu menawarkan tingkat hash yang lebih baik sekaligus lebih hemat energi. Sekarang, penambangan cryptocurrency tidak serumit beban kerja AI, meskipun model AI memang berkembang, tetapi presedennya ada, dan ASIC dapat menawarkan ekonomi yang lebih baik untuk inferensi. Ini adalah peluang besar bagi Broadcom untuk merebut pangsa pasar.
Broadcom telah berhasil membantu Alphabet mengembangkan unit pemrosesan tensor (TPUs) yang sangat dihormati, yang telah digunakan perusahaan selama bertahun-tahun untuk menjalankan beban kerja internalnya. Dengan pengeluaran capex pusat data yang diperkirakan akan melonjak tahun ini, Broadcom berada dalam posisi yang baik untuk mendapatkan manfaat dari pertumbuhan ini. Pada saat yang sama, Alphabet juga mulai membiarkan pelanggan menggunakan TPU-nya di Google Cloud, dan Anthropic telah memesan TPU sebesar $21 miliar dari Broadcom untuk dikirim tahun ini.
Sementara itu, hyperscaler lain juga beralih ke Broadcom untuk membantu mereka mengembangkan chip AI khusus mereka sendiri. Termasuk di dalamnya OpenAI, yang berkomitmen untuk mengerahkan 10 gigawatt chip khusus. Berdasarkan harga GPU Nvidia, 10 gigawatt akan bernilai sekitar $350 miliar. Harga ASIC akan lebih rendah, tetapi itu tetap merupakan peluang besar.
Dengan Broadcom menghasilkan pendapatan total hampir $64 miliar pada tahun fiskal 2025, perusahaan ini diperkirakan akan mengalami pertumbuhan yang pesat dalam beberapa tahun mendatang. Mengingat pesanan yang ada, perusahaan ini tampaknya siap menjadi raja inferensi AI yang baru pada akhir 2026 (meskipun Nvidia secara teknis tetap memegang pangsa pasar yang lebih besar).
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Prediksi: Era "Inferensi" AI Akan Mengukuhkan Pemenang Baru pada Akhir 2026
Pasar infrastruktur kecerdasan buatan (AI) sedang berkembang pesat, dengan lima hyperscaler terbesar (pemilik pusat data besar) saja diperkirakan akan menghabiskan hingga $700 miliar pada tahun 2026. Untuk memberi gambaran, angka tersebut melebihi Produk Domestik Bruto (PDB) dari semua negara kecuali 24 negara.
Saat ini, pengeluaran ini dilakukan untuk dua tujuan utama. Yang pertama adalah untuk melatih model bahasa besar (LLMs), seperti ChatGPT dari OpenAI, Claude dari Anthropic, dan Gemini dari Alphabet. Yang kedua adalah untuk mendukung inferensi AI, yang kemudian menerapkan model untuk menjawab pertanyaan.
Sumber gambar: Getty Images.
Nvidia (NVDA +0.69%) adalah pemimpin yang jelas dalam pelatihan model AI, dan telah membangun keunggulan yang luas melalui platform perangkat lunak CUDA-nya, yang merupakan tempat sebagian besar kode AI dasar ditulis dan dioptimalkan untuk GPU-nya. Namun, perusahaan ini juga memimpin dalam inferensi. Chip Blackwell GB300 Ultra-nya dirancang khusus untuk inferensi, sementara platform Vera Rubin yang akan datang diproyeksikan akan menawarkan lima kali lipat performa inferensi dibanding generasi sebelumnya. Sementara itu, Nvidia NIM (Nvidia Inference Microservices) menyediakan microservices inferensi yang sudah dibangun dan dioptimalkan, memberinya keunggulan perangkat lunak juga.
Namun, keunggulan Nvidia dalam inferensi tidak sebesar dalam pelatihan. Karena itu, Advanced Micro Devices (AMD +8.73%) mampu menempati ceruk yang baik di bidang inferensi dengan GPU-nya. Sementara itu, dengan investasi dari OpenAI dan komitmen dari pembuat ChatGPT untuk membeli 6 gigawatt GPU khusus untuk inferensi dalam beberapa tahun mendatang, AMD diharapkan dapat memperoleh pangsa pasar di pasar inferensi.
Namun, pemenang terbesar di pasar inferensi kemungkinan besar adalah Broadcom (AVGO 1.87%).
Perluas
NASDAQ: AVGO
Broadcom
Perubahan Hari Ini
(-1.87%) $-6.17
Harga Saat Ini
$324.17
Data Utama
Kapitalisasi Pasar
$1.6T
Rentang Hari Ini
$314.50 - $328.27
Rentang 52 minggu
$138.10 - $414.61
Volume
756K
Rata-rata Volume
31M
Margin Kotor
64.71%
Hasil Dividen
0.73%
Pertumbuhan ASIC AI di Era Inferensi
Broadcom adalah pemimpin dalam teknologi ASIC (application-specific integrated circuit), yang menyediakan blok bangunan dan kekayaan intelektual untuk membantu pelanggan mewujudkan desain chip AI mereka. Perusahaan ini juga memiliki akses ke komponen penting, seperti memori bandwidth tinggi (HBM), dan hubungan yang sudah terjalin dengan pabrik wafer Taiwan Semiconductor Manufacturing untuk memproduksi chip khusus ini secara massal.
Karena ASIC dirancang khusus untuk melakukan tugas tertentu, mereka kurang fleksibel dan adaptif dibanding GPU. Namun, karena sifatnya yang khusus, ASIC dapat mengungguli GPU dalam tugas yang dirancang untuk mereka sekaligus lebih hemat energi. Hal ini menjadi faktor yang semakin penting dalam inferensi AI, karena setiap kali model AI harus menjawab pertanyaan atau melakukan tugas, biaya berkelanjutan akan muncul. Inferensi AI juga tidak serumit pelatihan AI, sehingga perangkat lunak Nvidia tidak memiliki keunggulan sebesar itu.
ASIC sudah mengganggu GPU di ruang penambangan cryptocurrency, karena mampu menawarkan tingkat hash yang lebih baik sekaligus lebih hemat energi. Sekarang, penambangan cryptocurrency tidak serumit beban kerja AI, meskipun model AI memang berkembang, tetapi presedennya ada, dan ASIC dapat menawarkan ekonomi yang lebih baik untuk inferensi. Ini adalah peluang besar bagi Broadcom untuk merebut pangsa pasar.
Broadcom telah berhasil membantu Alphabet mengembangkan unit pemrosesan tensor (TPUs) yang sangat dihormati, yang telah digunakan perusahaan selama bertahun-tahun untuk menjalankan beban kerja internalnya. Dengan pengeluaran capex pusat data yang diperkirakan akan melonjak tahun ini, Broadcom berada dalam posisi yang baik untuk mendapatkan manfaat dari pertumbuhan ini. Pada saat yang sama, Alphabet juga mulai membiarkan pelanggan menggunakan TPU-nya di Google Cloud, dan Anthropic telah memesan TPU sebesar $21 miliar dari Broadcom untuk dikirim tahun ini.
Sementara itu, hyperscaler lain juga beralih ke Broadcom untuk membantu mereka mengembangkan chip AI khusus mereka sendiri. Termasuk di dalamnya OpenAI, yang berkomitmen untuk mengerahkan 10 gigawatt chip khusus. Berdasarkan harga GPU Nvidia, 10 gigawatt akan bernilai sekitar $350 miliar. Harga ASIC akan lebih rendah, tetapi itu tetap merupakan peluang besar.
Dengan Broadcom menghasilkan pendapatan total hampir $64 miliar pada tahun fiskal 2025, perusahaan ini diperkirakan akan mengalami pertumbuhan yang pesat dalam beberapa tahun mendatang. Mengingat pesanan yang ada, perusahaan ini tampaknya siap menjadi raja inferensi AI yang baru pada akhir 2026 (meskipun Nvidia secara teknis tetap memegang pangsa pasar yang lebih besar).