NVIDIA Supercharges Hopper HGX H200 Eksplorasi Pasar Komputasi AI

marketeers article
NVIDIA Supercharges Hopper HGX H200 (Foto: NVIDIA)

NVIDIA memperkenalkan platform komputasi AI terbarunya, NVIDIA HGX H200. Berdasarkan arsitektur NVIDIA Hopper™, platform ini dilengkapi GPU NVIDIA H200 Tensor Core dengan memori canggih untuk menangani data dalam jumlah besar untuk AI generatif dan beban kerja komputasi performa tinggi.

NVIDIA H200 adalah GPU pertama yang menawarkan HBM3e. Perusahaan mengklaim, produk ini memiliki memori lebih cepat dan lebih besar untuk mendorong percepatan AI generatif dan model bahasa besar, sekaligus memajukan komputasi ilmiah untuk beban kerja HPC.

Dengan HBM3e, NVIDIA H200 menghadirkan memori 141GB dengan kecepatan 4,8 terabyte per detik, kapasitasnya hampir dua kali lipat dan bandwidth 2,4x lebih besar dibandingkan pendahulunya, NVIDIA A100.

BACA JUGA: Kolaborasi dengan AWS, ICS Compute Raih Pertumbuhan 378%

“Untuk menciptakan kecerdasan dengan AI generatif dan aplikasi HPC, data dalam jumlah besar harus diproses secara efisien dengan kecepatan tinggi menggunakan memori GPU yang besar dan cepat,” kata Ian Buck, Wakil Presiden Hyperscale dan HPC di NVIDIA dalam laporannya.

Menurutnya, dengan NVIDIA H200, platform superkomputer AI end-to-end terdepan di industri menjadi lebih cepat dalam memecahkan beberapa tantangan paling penting di dunia.

BACA JUGA: Kembangkan Teknologi Otomotif, MediaTek Gandeng NVIDIA

NVIDIA H200 akan tersedia dalam papan server NVIDIA HGX H200 dengan konfigurasi empat dan delapan arah, yang kompatibel dengan perangkat keras dan perangkat lunak sistem HGX H100. Produk ini juga tersedia di Superchip NVIDIA GH200 Grace Hopper™ dengan HBM3e.

Dengan opsi ini, H200 dapat diterapkan di setiap jenis pusat data, termasuk on-premise, cloud, hybrid-cloud, dan edge. Ekosistem global pembuat server mitra NVIDIA —termasuk ASRock Rack, ASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron dan Wiwynn— dapat memperbarui sistem mereka yang ada dengan H200.

Sementara itu, Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi penyedia layanan cloud pertama yang menerapkan instans berbasis H200 mulai tahun depan, selain CoreWeave, Lambda, dan Vultr.

NVIDIA H200 akan tersedia dari produsen sistem global dan penyedia layanan cloud mulai kuartal kedua tahun 2024.

Related