找回密碼註冊
作者: sxs112.tw
查看: 10481
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

O11 VISION COMPACT 玩家開箱體驗分享活動

迷你身形 三面透視打造精緻PC視野新境界O11 VISION COMPACT 強強聯合 ...

2024 三星SD記憶卡 玩家開箱體驗分享活動

2024 PRO Plus SD 記憶卡 [*]為專業人士打造 [*]釋放極限速度 [*]多 ...

體驗極速WiFi 7!MSI Roamii BE Lite Mesh

MSI首款WiFi 7 Mesh系統登場-Roamii BE Lite Mesh System。Roamii ...

打印 上一主題 下一主題

[顯示卡器] 配備94GB HBM3的NVIDIA H100 NVL GPU是專為ChatGPT設計

[複製鏈接]| 回復
跳轉到指定樓層
1#
sxs112.tw 發表於 2023-3-22 07:24:25 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
NVIDIA剛剛推出了其全新的Hopper H100 NVL GPU,配備94GB HBM3,專為ChatGPT設計。

NVIDIA Hopper GPU驅動的H100 NVL PCIe顯示卡據說有雙GPU NVLINK互連,每個晶片有94GB的HBM3e。GPU能夠隨時隨地處理多達1750億個ChatGPT參數。與配備多達8個GPU的傳統DGX A100伺服器相比,單個伺服器中的四個GPU可以提供高達10倍的速度。
NVIDIA-Hopper-H100-NVL-GPU-94-GB-HBM3e-ChatGPT-_1.png

與H100 SXM5配置不同,H100 PCIe提供精簡規格,在GH100 GPU的全部144個SM和H100 SXM上的132個SM中啟用了114個SM。該晶片本身提供3200 FP8、1600 TF16和48 TFLOPs的FP64計算能力。它還有456個Tensor & Texture單元。
NVIDIA-Hopper-H100-NVL-GPU-94-GB-HBM3e-ChatGPT-_2.png

由於其較低的峰值計算能力,H100 PCIe應該會以較低的時脈執行,因此TDP為350W,而SXM5版本的TDP為雙倍的700W。但是PCIe卡將保留其80GB記憶體,透過5120位元匯流排,但採用HBM2e版本(>2TB/s頻寬)。

H100的非Tensor  FP32 TFLOP額定值為48 TFLOP,而MI210的峰值額定FP32計算能力為45.3 TFLOP。透過Sparsity與Tensor運算,H100可以輸出高達800 TFLOPs的FP32運算能力。與MI210的64GB相比,H100還擁有更高的80GB記憶體容量。從表面上看NVIDIA正在為其更高的AI/ML功能收取更高的售價。

消息來源
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-7 04:50 , Processed in 0.079923 second(s), 33 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表