Sabtu, September 7

Jakarta

Nvidia baru saja memperkenalkan Blackwell B100, B200, dan GB200, chip generasi terbarunya untuk kecerdasan buatan (AI). Sepertinya harga kedua chip itu tidak akan jauh berbeda dibandingkan pendahulunya.

Dalam peluncuran di event GTC beberapa hari yang lalu, CEO Nvidia Jensen Huang memang belum mengumumkan harga chip Blackwell. Kini dalam wawancara dengan CNBC, Huang mengatakan chip itu akan dibanderol dengan harga antara USD 30.000-40.000 (Rp 471 juta-629 jutaan) per unit.

Huang juga memperkirakan Nvidia telah menggelontorkan sekitar USD 10 miliar (untuk biaya riset dan pengembangan. “Kita harus menciptakan beberapa teknologi baru untuk mewujudkannya,” kata Huang, seperti dikutip dari CNBC, Rabu (20/3/2024).


Harga tersebut mengindikasikan chip Blackwell akan dijual dengan harga yang tidak jauh berbeda dengan generasi sebelumnya. Seperti diketahui, chip H100 yang diluncurkan pada tahun 2022 dijual dengan harga USD 25.000-40.000 per unit.

Huang menambahkan harga itu bukan hanya untuk chip-nya saja, melainkan juga untuk merancang pusat data dan mengintegrasikannya dengan pusat data milik perusahaan lain. Chip ini diperkirakan akan laris manis diboyong oleh perusahaan untuk melatih AI.

Meskipun hadir dalam beberapa konfigurasi, Nvidia tidak mengumbar harga masing-masing varian chip Blackwell secara spesifik. Selain itu, harga yang dibayarkan oleh perusahaan seperti Meta dan Microsoft mungkin akan berbeda.

Perbedaan harga ini dipengaruhi oleh beberapa faktor, misalnya berapa banyak chip yang dibeli, atau apakah perusahaan membeli chip AI langsung dari Nvidia lewat sistem menyeluruh atau lewat vendor pihak ketiga seperti Dell, HP, atau Supermicro yang membangun server AI.

Seperti diketahui, Nvidia menggadang Blackwell sebagai chip AI terkencang di dunia. B200 misalnya, menawarkan kemampuan komputasi hingga 20 petaflops FP4, yang dihasilkan dari 208 miliar transistor yang dipakainya.

Sedangkan GB200 menggabungkan dua unit B200 menjadi CPU Grace yang menawarkan performa 30 kali lebih kencang untuk komputasi LLM inference, tapi dengan konsumsi daya yang diklaim 25 kali lebih irit ketimbang H100.

Simak Video “Saham Nvidia Melonjak 16,4%, Lampaui Amazon-Alphabet
[Gambas:Video 20detik]

(vmp/fay)

Membagikan
Exit mobile version