sxs112.tw 發表於 2022-3-23 00:05:00

NVIDIA Hopper GH100 GPU發布:世界上第一款最快的4nm數據中心晶片,搭配80GB HBM3記憶體

NVIDIA正式推出了其下一代數據中心Hopper GH100 GPU,它採用全新的4nm製程。GPU是一個擁有800億個電晶體管的怪物,並提供市場上任何GPU中最快的 AI和計算能力。

採用Hopper架構的Hopper GPU是在尖端TSMC 4nm製程上生產的工程奇蹟。就像之前的數據中心GPU一樣,Hopper GH100將針對各種工作負載,包括人工智慧 (AI)、機器學習 (ML)、深度神經網路 (DNN) 和各種以HPC為重點的計算工作負載。GPU是滿足所有HPC要求的一次性解決方案,如果我們查看它的尺寸和性能數據,它就是一個晶片怪物。

因此按照規格NVIDIA Hopper GH100 GPU由一個巨大的144 SM(Streaming Multiprocessor)晶片組成,總共有8個GPC。這些GPC共有9個TPC,每個TPC進一步由2個SM單元組成。這使我們每個GPC有18個SM,而在完整的8個GPC配置中我們有144個。每個SM最多由128個FP32單元組成,這應該給我們總共18,432個CUDA核心。

這比完整的GA100 GPU配置增加了2.25倍。NVIDIA還在其Hopper GPU中利用更多的 FP64、FP16和Tensor核心,這將極大地提高性能。這將是與Intel的Ponte Vecchio競爭的必要條件,後者也有望採用1:1 FP64。

快取是NVIDIA這款產品的另一個重點,在Hopper GH100 GPU中將其提高到48 MB。這比Ampere GA100 GPU上的40MB增加了20%,是AMD旗艦Aldebaran MCM GPU MI250X的3倍。

綜合性能數據NVIDIA的GH100 Hopper GPU將提供4000 TFLOP的FP8、2000 TFLOP的FP16、1000 TFLOP的TF32和60 TFLOP的FP64計算性能。這些破紀錄的數字摧毀了之前的所有其他HPC加速器。相比之下在FP64計算中,這比NVIDIA自己的A100 GPU快3.3倍,比AMD的Instinct MI250X快28%。在FP16計算中H100 GPU比A100快3倍,比MI250X快5.2倍。

記憶體方面NVIDIA Hopper GH100 GPU配備了全新的HBM3,該記憶體透過6144位元記憶體匯流排執行,提供高達3TB/s的頻寬,比A100的HBM2e記憶體系統提高了50%。每個H100加速器都將配備80GB,但我們可以期待未來像A100 80GB那樣雙倍記憶體容量配置。

GPU還符合PCIe Gen 5標準,傳輸速率高達128GB/s,NVLINK可提供900GB/s的GPU到GPU互連頻寬。整個Hopper H100晶片提供了驚人的4.9TB/s的外部頻寬。所有這些怪物性能都採用700W (SXM) 封裝。PCIe版本將配備最新的PCIe Gen 5連接器,可提供高達600W的功率。

消息來源
頁: [1]
查看完整版本: NVIDIA Hopper GH100 GPU發布:世界上第一款最快的4nm數據中心晶片,搭配80GB HBM3記憶體