美光科技已開始向包括NVIDIA在內的客戶提供其下一代HBM3 Gen2記憶體樣品,這些客戶對其性能和效率的提升表示讚賞。
在周三的財報電話會議上,美光預計由於消費記憶體市場的需求下降,下一季的虧損將更加擴大。不過美光確實透露了這樣一個事實,即該公司目前一直在與 NVIDIA密切合作,他們的高頻寬HBM3 Gen2記憶體預計將於2024年上半年在NVIDIA即將推出的AI和HPC GPU中首次亮相。
美光預計人工智慧熱潮將把他們從糟糕的財務季中拯救出來,因為該公司執行Sanjay Mehrotra預測人工智慧產業將產生數百萬美元的收入。
美光的下一代HBM3技術被命名為HBM3 Gen2。在規格方面它採用1β製程,帶來更快的速度和更密集的容量。首批第二代HBM3採用8-Hi設計,提供高達24GB的容量和超過1.2TB/s的頻寬,每W性能是上一代的2.5倍。DRAM的速度為9.2Gb/s,比標準HBM3的速度提高了50%,後者的速度約為4.6Gb/s。
美光還宣布了12-Hi設計,計劃稍後推出。如果我們看一下行業的情況,SK Hynix佔據市佔率主要是因為它與NVIDIA和AMD等公司的緊密聯繫,但這種情況在未來似乎會改變。美光計畫透過快速採用下一代標準來主導HBM業務,這一點在今天的發展中顯而易見。這對AI晶片製造商來說也是個好消息,因為他們現在可以選擇美光、三星和 SK Hynix HBM3 Gen2 / HBM3e模組。
NVIDIA目前人工智慧領域對其運算晶片有巨大需求,因此該公司正在努力擴大其供應鏈。這就是美光和三星等公司的切入點,它們旨在尋找合適的機會。
消息來源 |