NVIDIA剛剛宣布推出增強型GH200 GPU,該GPU現在配備了世界上最快的記憶體解決方案HBM3e。
據NVIDIA稱Hopper GH200 GPU現在是世界上第一款採用HBM3e的晶片,它不僅提供更高的記憶體頻寬,而且還提供更高的記憶體容量。雙Grace Hopper系統現在提供比現有產品高3.5倍的容量和3倍的頻寬。該系統現在可提供高達282GB的HBM3e記憶體。
HBM3e本身的速度比現有HBM3標準快50%,每個系統可提供高達10TB/s的頻寬,每個晶片可提供高達5TB/s的頻寬。HBM3e現在將用於為一系列採用GH200 的系統(400個及以上)提供支援,其中包括NVIDIA最新CPU、GPU和DPU架構(包括Grace、Hopper、Ada Lovelace 和 Bluefield)的各種組合,以滿足人工智慧領域的需求激增。
NVIDIA尚未具體宣布他們將從誰那裡採購用於其GH200 AI GPU的全新HBM3e記憶體晶片,但據報導SK Hynix最近收到了NVIDIA的請求,要求為其下一代HBM3e DRAM提供樣品。與此同時三星還擁有更快的HBM3晶片,每個堆棧可以提供高達5TB/s的頻寬,儘管SK Hynix似乎可能是GH200 GPU的選擇。
NVIDIA今天宣布推出下一代NVIDIA GH200 Grace Hopper平台,該平台採用配備全球首款HBM3e處理器的全新Grace Hopper超級晶片,專為加速計算和生成式AI時代而打造。該新平台旨在處理世界上最複雜的生成式人工智慧工作負載,涵蓋大型語言模型、推薦系統和矢量數據庫,將提供多種配置。
與當前一代產品相比,雙配置的記憶體容量增加了3.5倍,頻寬增加了3倍,包括一台有144個Arm Neoverse核心、8 Petaflops的AI性能和282GB最新HBM3e記憶體技術的伺服器。HBM3e比當前HBM3快50%,提供總共10TB/秒的組合頻寬,使新平台能夠運行比之前版本大3.5倍的模型,同時透過快3倍的記憶體頻寬提高性能。
透過 NVIDIA
NVIDIA還表示首批採用採用全新HBM3e記憶體技術的Hopper GH200 GPU的系統將於2024年第二季推出,略晚於AMD Instinct MI300X GPU,後者將搭載類似的5TB/s+頻寬HBM3晶片,有192GB VRAM容量。
消息來源 |