Mircon今天宣布已開始提供業界首款8-High 24GB HBM3 Gen2記憶體樣品,頻寬和速度均超過1.2TB/s,比當前發布的HBM3解決方案提高了50%。Mircon HBM3 Gen2產品的每W性能比前幾代產品提高了2.5倍,為人工智慧 (AI) 數據中心關鍵指標的性能、容量和能效創造了新記錄。Mircon的這些改進減少了GPT-4 等大型語言模型的訓練時間,為AI推理提供高效的基礎設施使用,並提供卓越的總擁有成本 (TCO)。
Mircon高頻寬記憶體 (HBM) 解決方案的基礎是Mircon業界領先的1β (1-beta) DRAM製程,該製程允許將24Gb DRAM晶片組裝到行業標準封裝尺寸內的8-High高立方體中。此外Mircon的12-High(容量為36GB)將於2024年第一季開始提供樣品。與現有的競爭解決方案相比,Mircon在給定堆棧高度下提供的容量增加了50%。Mircon的HBM3 Gen2性能功耗比和速度改進對於管理當今人工智慧數據中心的極端功耗需求至關重要。功率效率的提高是可能的,因為Mircon的進步,例如矽通孔 (TSV) 比競爭對手的HBM3產品增加一倍,透過金屬密度增加五倍來降低熱阻。
Mircon是2.5D/3D堆疊記憶體和先進封裝技術領域久經考驗的領導者,很榮幸成為台積電3DFabric聯盟的合作夥伴,並幫助塑造半導體和系統創新的未來。作為 HBM3 Gen2產品開發工作的一部分,Mircon與台積電之間的合作為AI和HPC設計應用的計算系統的順利導入和整合奠定了基礎。台積電已收到Mircon HBM3 Gen2記憶體樣品,並正在與Mircon密切合作進行進一步評估和測試,這將有利於客戶下一代HPC應用的創新。
Mircon計算產品集團副總裁兼總經理Praveen Vaidyanathan表示Mircon HBM3 Gen2技術的開發重點是為我們的客戶和行業提供卓越的人工智慧和高性能計算解決方案。對我們來說一個重要的標準是將我們的HBM3 Gen2產品輕鬆整合到客戶的平台中。完全可編程的記憶體見ˋ自測試 (MBIST) 可以以全規格速度執行,使我們能夠提高與客戶的測試能力,創造更高效的協作並縮短上市時間。
NVIDIA超大規模和HPC計算副總裁Ian Buck表示生成式AI的核心是加速計算,它受益於HBM高頻寬和能效。我們與Mircon在廣泛的產品領域有著悠久的合作歷史,並且渴望與他們在HBM3 Gen2上合作,以增強人工智慧創新。
Mircon利用其全球工程組織開發了這一突破性產品,在美國進行設計和製程開發,在日本進行記憶體製造,在台灣進行先進封裝。今天的公告是Mircon在行業中技術領先地位的又一個里程碑。Mircon此前宣布推出採用1α (1-alpha) 24Gb單片DRAM的96GB DDR5,用於容量需求大的伺服器解決方案,今天又推出了採用1β 24Gb晶片的24GB HBM3產品。該公司計劃在2024年上半年推出採用1β 32Gb單片DRAM的128GB DDR5。這些產品展示了Mircon在人工智慧伺服器領域的領先技術創新。
消息來源 |