據稱AMD的下一代採用CDNA GPU的Radeon Instinct MI100加速器的性能和細節已被AdoredTV洩露。在一篇獨家文章中AdoredTV曝光了即將問世的HPC GPU與NVIDIA的Volta和Ampere GPU的性能測試。
AdoredTV聲稱他們收到的資料來自AMD Radeon Instinct MI100官方展示。來源上發布的內容似乎是原始內容的修改版本,但細節保持不變。Radeon Instinct MI100 GPU將於2020年2H進入市場。AdoredTV的資料進一步揭示了我們可以預期AMD及其合作夥伴在2020年推出的計劃和伺服器配置。
AMD Radeon Instinct MI100 1U伺服器規格
首先AMD計劃推出一種HPC特定伺服器,該伺服器採用2P設計,並帶有雙AMD EPYC CPU,該CPU可以採用Rome或Milan。每個EPYC CPU將透過第二代Infinity Fabric互連到兩個Radeon Instinct MI100加速器。四個GPU將能夠持續提供136 TFLOP的FP32(SGEMM)輸出,指出每個GPU大約有34 TFLOP的FP32計算。每個Radeon Instinct MI100 GPU的TDP為300W。
其他規範包括在第4代協議上可能達到的256GB/s的GPU PCIe總頻寬。四個GPU的組合記憶體頻寬為4.9TB/s,這意味著AMD正在使用HBM2e DRAM(每個GPU抽出1.225TB/s頻寬)。每個GPU的組合記憶體為128GB或32GB。這表明AMD也在使用4個HBM2 DRAM堆棧技術,每個堆棧都裝有8-hi DRAM。看起來XGMI不會在標準配置中提供,並且將僅限於專用的1U機架。
就可用性而言,配備AMD EPYC (Rome / Milan) HPC CPU的1U伺服器據說將於2020年12月推出,而Intel XEON版本有望於2021年2月發布。
AMD Radeon Instinct MI100 3U伺服器規格
第二台3U伺服器預計將於2021年3月推出,並將提供更加強大的規格,例如將8個Radeon Instinct MI100 GPU連接到兩個EPYC CPU。每組四個Instinct MI 100將通過XGMI(雙向100GB/s)和1.2TB/ s的四倍頻寬連接在一起。四個Instinct加速器的FP32計算能力總共有272個TFLOP,每秒512GB的PCIe頻寬,9.8TB/s HBM頻寬和256GB的DRAM容量。機架的額定功率為3kW。
AMD CDNA GPU與NVIDIA Ampere A100 GPU進行比較
在性能方面,AMD將Radeon Instinct MI100與NVIDIA Volta V100和NVIDIA Ampere A100 GPU加速器進行了比較。有趣的是這些資料提到了300W Ampere A100加速器,儘管不存在這樣的配置,這意味著這些資料採用假設的A100配置,而不是採用兩款實際版本,即SXM架構的400W配置和250W的PCIE版本出現。
根據測試Radeon Instinct MI100的FP32性能比Ampere A100高出約13%,性能比Volta V100 GPU高出2倍以上。CP值與V100S相比,MI100的價值高2.4倍,與Ampere A100相比高50%。資料還顯示出即使在Resenet中多達32個GPU配置,性能縮放也幾乎是線性的,這非常令人印象深刻。
話雖如此,資料還提到AMD將在三個特定領域提供更好的性能和價值,這些領域包括石油和天然氣,學術界以及HPC和機器學習。在FP64計算,AI和數據分析等其他HPC工作負載中,NVIDIA將通過其A100加速器提供出色的性能。與AMD相比,NVIDIA還擁有多實例GPU架構的優勢。由於使用了Ampere A100 GPU上的最新一代Tensor核心,因此性能指標顯示FP64性能提高了2.5倍,FP16性能提高了2倍,Tensor性能提高了兩倍。
需要強調的一件事是,AMD在測試中未提及NVIDIA的正確數字。但NVIDIA的Ampere A100擁有高達156 TFLOP的能力,儘管看來AMD只是想與Ampere A100進行特定的測試比較。從目前來上看Radeon Instinct MI100的性能和價值在發佈時似乎確實是一款不錯的HPC產品。
消息來源 |