TEMPO.CO, Jakarta - Nvidia (NVDA.O) pada hari Senin waktu Amerika Serikat atau Selasa, 14 November 2023 WIB, menambahkan fitur-fitur baru ke chip terbaiknya untuk kecerdasan buatan. Nvidia mengatakan penawaran baru tersebut akan mulai diluncurkan tahun depan bersama Amazon.com (AMZN.O), Alphabet's (GOOGL. o) Google dan Oracle (ORCL.N).
H200, demikian sebutan chip tersebut, akan menyalip chip H100 teratas Nvidia saat ini. Peningkatan utama adalah memori dengan bandwidth yang lebih tinggi, salah satu bagian chip yang paling mahal yang menentukan berapa banyak data yang dapat diproses dengan cepat.
Nvidia mendominasi pasar chip AI dan mendukung layanan ChatGPT OpenAI dan banyak layanan AI generatif serupa yang merespons pertanyaan dengan tulisan mirip manusia. Penambahan memori bandwidth tinggi dan koneksi yang lebih cepat ke elemen pemrosesan chip berarti bahwa layanan tersebut akan mampu memberikan jawaban lebih cepat.
H200 memiliki memori bandwidth tinggi sebesar 141 gigabyte, naik dari 80 gigabyte pada H100 sebelumnya. Nvidia tidak mengungkapkan pemasoknya untuk memori pada chip baru ini. Namun, Micron Technology (MU.O) mengatakan pada bulan September bahwa mereka sedang berupaya untuk menjadi pemasok Nvidia.
Nvidia juga membeli memori dari SK Hynix Korea (000660.KS), yang bulan lalu mengatakan chip AI membantu menghidupkan kembali penjualan.
Nvidia pada hari Rabu mengatakan Amazon Web Services, Google Cloud, Microsoft Azure dan Oracle Cloud Infrastructure akan menjadi salah satu penyedia layanan cloud pertama yang menawarkan akses ke chip H200, selain penyedia cloud AI khusus CoreWeave, Lambda dan Vultr.
Pilihan Editor: Rektor Kampus Ini Dukung Fatwa MUI Boikot Produk Israel, Ajak Warga Kampus Patuh
Selalu update info terkini. Simak breaking news dan berita pilihan dari Tempo.co di kanal Telegram “Tempo.co Update”. Klik https://t.me/tempodotcoupdate untuk bergabung. Anda perlu meng-install aplikasi Telegram terlebih dahulu.