NVIDIA將斥巨資為即將推出的Hopper H200和Blackwell B100 AI GPU採購HBM3E記憶體
NVIDIA在HBM3E記憶體上投入了大量資金,試圖為其下一代Hopper H200和Blackwell B100 AI GPU確保足夠的庫存。韓國媒體Biz.Chosun透露NVIDIA已向SK hynix、美光等公司訂購大量HBM3E記憶體,為其針對AI領域的下一代產品做準備。這種方法限制了其他公司的訪問,要麼使他們無法獲取資源,要麼限制他們對資源的訪問。
韓國媒體稱NVIDIA已為HBM3E預付了約7,000億至1兆韓元,這是一個不同的數字,但考慮到該行業的巨大需求,預計實際金額將接近1兆韓元大關。光是預付款一項就約為7.75億美元,實際數字可能超過10億美元。據業內人士26日透露SK hynix和美光已分別從NVIDIA獲得了7000億至1兆韓元的預付款,用於供應尖端記憶體產品。
NVIDIA的巨額預付款引發了那些努力擴大HBM產能的記憶體半導體公司的投資行動。特別是最大供應商SK Hynix計劃將從NVIDIA收到的預付款集中投資於擴大 TSV設施。去年第三季新建TSV線的相關工作進展順利就證明了這一點。同樣美光對TSV設施的投資預計也會增加。
同時據悉三星電子近期也與NVIDIA完成了HBM3和HBM3E產品適用性測試,並簽署了供貨合約。
來自Biz.Chosun(機器翻譯)
AI產業發展迅速,Intel、AMD等公司加緊研發,追趕NVIDIA,NVIDIA團隊必須先發製人,以保住主導地位。說到HBM3E,目前NVIDIA計劃在其下一代 Blackwell AI GPU中首次亮相HBM3E此外,NVIDIA的Hopper H200 GPU也將配備全球最快的HBM3E,因此該解決方案對於NVIDIA在AI和HPC市場的成功有重要意義。
NVIDIA對資料中心領域的收入抱有很高的期望,因此他們顯然領先其他公司一步。NVIDIA計劃在2027年透過AI驅動的銷售創造高達3000億美元的收入,因此確保向客戶穩定供應AI GPU是他們的首要目標。另一個有趣的事實是收購HBM3E將為HBM行業帶來巨大的推動力,特別是在設施擴建方面,因為訂單積壓對於SK hynix和Micron等公司來說是一個大問題,因此需要預先測量供應意味著HBM的交付將變得更加容易。
NVIDIA目前處於主導地位,並且還不打算放棄其寶座。NVIDIA及其硬體部門在CUDA平台上的進步已經徹底改變了市場狀況,未來的前景將會很有趣。
消息來源
頁:
[1]