NVIDIA推出了最新的Blackwell GB200 NVL4解決方案,將四個GPU和兩個GPU打包到一個強大的HPC和AI解決方案中。
作為SC24公告的一部分,NVIDIA推出了兩種全新的硬體平台,一種採用其現有的Hopper組合,另一種則由其最新的Blackwell組合提供支援。這兩種解決方案專為企業伺服器而設計,為加速的HPC和AI工作負載提供支援。
從NVIDIA H200 NVL開始,該公司現在正在確認這些採用PCIe的Hopper卡的普遍可用性,這些卡可以透過NVLINK連接多達4個GPU,提供比標準PCIe解決方案快七倍的頻寬。該公司表示H200 NVL解決方案可以適合任何資料中心,並提供一系列針對混合HPC和AI工作負載進行最佳化的靈活伺服器配置。在規格方面Hopper H200 NVL解提供1.5倍的HBM記憶體、1.7倍的LLM推理效能和1.3倍的HPC效能。您將獲得114個SM,總共14,592個CUDA核心、456個Tensor核心以及高達3 TFLOP的FP8(累積FP16)效能。 GPU有跨5120位元配置的80Gb HBM2e記憶體,TDP為350W。
轉向Blackwell,NVIDIA首次展示NVIDIA GB200 NVL4,這是一個全新的模組,是原始GB200 Grace Blackwell Superchip AI解決方案的更大擴展。 GB200 NVL4 模組使CPU和GPU功能加倍,並且還增加了記憶體。
您將在一塊帶有兩個Grace CPU的較大主機板上配置兩個Blackwell GB200 GPU。該模組被設計為單伺服器解決方案,有4-GPU NVLINK和1.3T Coherent memory。在性能方面,此模組的模擬性能將提高2.2倍,訓練和推理性能將提高1.8倍。 NVIDIA越來越多的合作夥伴將在未來幾個月內提供NVL4解決方案。
至於TDP,由於Superchip模組約為2700W,預計更大的GB200 NVL4解決方案將消耗接近6KW的功率。不難看出NVIDIA為加速AI運算領域所做的努力。
該公司最近在MLPerf v4.1中公佈了訓練和推理方面的世界紀錄,不僅Blackwell令人驚嘆,而且Hopper透過持續優化也變得更加出色。該公司還正在將其人工智慧路線圖加快到一年的節奏,並計劃在未來幾年建立幾個新的基礎設施,例如Blackwell Ultra和Rubin。
消息來源 |