sp-globalindo.co.id- November 2023, NVIDIA mengumumkan chip pemrosesan grafis (GPU) untuk mengelola Hopper Architecture Intelligence (AI), yaitu H200.
Sekarang, NVIDIA secara resmi mengumumkan H200 NVL, yang merupakan konfigurasi GPU AI, yang terdiri dari empat GPU H200 AI yang terhubung ke Modul PCI Express (PCIE).
Karena menyatu dengan modul tipe PCIe, NVIDIA mengklaim bahwa H200 NVL dapat dengan mudah digunakan di berbagai server atau pusat data yang dimiliki oleh perusahaan.
Secara teknis, chip HBM3E AI AI GPU memiliki memori HBM3E dengan kapasitas 141GB.
Bandwidth dari empat GPU AI H200 melalui tautan komunikasi NVLink standar adalah 4,8 tb/s, dan hasil 34 tflop yang dihitung dalam AI FP64 atau 67 TFLOP untuk FP32, dengan konsumsi energi 600 watt.
Baca Juga: AMD Mengumumkan Chip AI Insting MI325X, lebih tahan daripada NVIDIA H200
Dibandingkan dengan generasi sebelumnya, yaitu, H100 NVL, H200 NVL dikatakan memiliki peningkatan memori 1,5x, bandwidth hingga 1,2x dan kinerja AI di segmen inferensi memiliki kinerja 1,7x .
Untuk Ilmu Komputer investasi tinggi (HPC), NVIDIA H200 NVL berkinerja 1,3 kali lebih cepat dari H100 NVL, dan Ampere AI GPU 2,5 kali lebih tinggi.
Untuk melakukan operasi optimal tanpa lebih dari pemanasan (amplop) dan mempertahankan efisiensi daya, GPU H200 NVL juga dapat dikonfigurasi oleh sistem pendingin berbasis udara (air). NVIDIA GB200 NVL4
Selain H200 NVL, NVIDIA juga telah mengumumkan “Superchip” GB200 NVL4.
Seperti H200 NVL, GB200 NVL4 adalah solusi yang menggabungkan empat GPU AI, tetapi arsitektur GB200 Grace Blackwell (GB) diperkenalkan pada bulan Maret tahun lalu.
Perbedaannya adalah bahwa empat GPU AIS dengan arsitektur Blackwell bergabung di papan (papan) dengan dua “CPU” dan “Grace” Nvidia, yang memiliki memori LPDDR5X dan kapasitas total 960 GB.
Baca Juga: Koordinat Broadcom, Menurut OpenSai, membuat chip AI Anda sendiri
Nah, berbagai komponen ini dihubungkan oleh teknologi NVLink dan, berkat teknologi ini, NVIDIA menyatakan bahwa GB200 NVL4 dapat memberikan kapasitas memori HBM3, hingga 768GB dan bandwidth hingga 32 TB/s.
Dibandingkan dengan generasi GH200 NVL4 sebelumnya, NVIDIA mengklaim bahwa GB200 NVL4 2,2 kali lebih cepat dan mampu menghasilkan proses pelatihan (pelatihan) atau mendukung inferensi AI 1,8 kali lebih efisien.
Ketika Kpastekno de Nvidia (20 November 2024) dirangkum, GPU AI H200 NVL dimulai minggu ini, sedangkan ketersediaan GB200 NVL4 akan berada di ponsel tengah. Pilih saluran utama Anda untuk mengunjungi sp-globalindo.co.id WhatsApp Channel: https: //www.whhatsapp.com/chaannel/0029vafbbbbbbbbbpzrk13ho3d. Pastikan -Anda telah menginstal aplikasi WhatsApp.