NVIDIA將於2024年第一季透過Hopper H200開始採用HBM3e,HBM4預計將於2026年首次亮相
根據TrendForce估計HBM產業似乎已以NVIDIA為中心,其中NVIDIA的AI訂單將主導當前和下一代HBM供應。根據市場研究NVIDIA準備將其HBM訂單的相當一部分交給韓國龍頭三星,因為兩家公司都開始建立對人工智慧產業至關重要的業務關係。早在9月就有消息稱,三星的HBM產品已通過多項資質審核,獲得了NVIDIA的信任,TrendForce目前透露三星可能會在12月份完成這一流程,明年年初開始陸續有訂單流入。
除了HBM3之外,下一代HBM3e標準的採用也已步入正軌,因為業內消息人士稱,美光、SK Hynix和三星等供應商已經啟動了HBM3e的採樣過程,據說這將是決定性的一步。結果可能會在2024年某個時候出現。回顧一下HBM3e預計將在NVIDIA 的Blackwell AI GPU中首次亮相,據傳該GPU將於2024年第二季推出,而在性能方面它將帶來決定性的性能提升每瓦,透過採用小晶片設計。
說到有趣的事情,NVIDIA在2024年為客戶制定了很多計劃,因為該公司已經發布了H200 Hopper GPU,預計明年將得到大規模採用,隨後將推出B100 Blackwell AI GPU,兩者都將採用HBM3e記憶體技術。
除了傳統路線外,據傳NVIDIA還將針對AI領域推出採用ARM的CPU,這將創造市場多元化,同時加劇競爭。Intel和AMD預計也將推出各自的AI解決方案,其中值得注意的是下一代AMD Instinct GPU和採用 HBM3e 記憶體的Intel Gaudi AI加速器。
最後TrendForce給出了我們對HBM4的預期,特別是即將推出的記憶體標準將在板載晶片配置方面進行全面改造HBM4有望標誌著下一代運算能力的轉變,也可能成為人工智慧產業未來突破的關鍵。
消息來源
頁:
[1]