HBM3記憶體將在NVIDIA和AMD的下一代AI GPU中佔據主導地位
TrendForce報告稱下一代HBM3和HBM3e記憶體將主導AI GPU行業,尤其是在各公司對採用DRAM的興趣大幅增加之後。現有的NVIDIA A100和H100 AI GPU均採用HBM2e和HBM3,分別於2018年和2020年推出。 Micron, SK Hynix與Samsung等多家製造商正在快速開發設施,用於生產新型、更快的HBM3,用不了多久它就會成為新的標杆。
關於HBM3,有一個很多人不知道的通用細節。正如TrendForce所強調的HBM3將會有不同的變化。據報導低階HBM3的速度為5.6至6.4Gbps,而更高版本的速度則超過8Gbps。更高階的版本將被稱為 HBM3P、HBM3A、HBM3+和HBM3 Gen2。
之後HBM行業的市佔率將大幅上升,其中SK Hynix處於領先地位。預計未來的AI GPU,例如AMD MI300 InstinctGPU和 NVIDIA的H100,將採用下一代HBM3,SK Hynix在這方面佔據上風,因為它已經進入製造階段。
Micron最近還宣布了未來HBM4記憶體設計的計劃,但預計要到2026年才會實現,因此即將推出的代號為GB100的NVIDIA Blackwell GPU很可能會在2024年至2025年之間推出時使用更快的HBM3產品。並採用第五代製程技術(10nm)的HBM3E預計將於2024年上半年開始量產,SK Hynix與Samsung預計將加速生產。
消息來源
頁:
[1]