(PR)美光開始HBM3e量產,將在NVIDIA的H200 AI GPU中首次亮相
隨著NVIDIA等公司在H200 AI GPU中大規模採用該標準,美光科技已開始大規模生產其HBM3e記憶體。[新聞稿]:美光科技今天宣布其HBM3E(高頻寬記憶體3E)解決方案已開始量產。美光的24GB 8H HBM3E將成為NVIDIA H200 Tensor Core GPU的一部分,該 GPU將於2024年第二季開始出貨。
這一里程碑使美光處於行業前端,以HBM3E行業領先的性能和能源效率為人工智慧 (AI) 解決方案提供支援。隨著人工智慧需求持續激增,記憶體解決方案與不斷增長的工作負載保持同步至關重要。
美光的HBM3E解決方案透過以下方式正面應對這項挑戰:
[*]卓越性能:美光HBM3E的速度超過9.2Gb/s,可提供超過1.2TB/s的記憶體頻寬,為AI加速器、超級電腦和資料提供閃電般的資料存取中心。
[*]卓越的效率:HBM3E領先產業,與競爭產品相比,功耗降低約30%。為了支援不斷增長的人工智慧需求和使用,HBM3E以最低的功耗提供最大的吞吐量,以改善重要的資料中心營運支出指標。
[*]無縫可擴展性:HBM3E目前擁有24GB容量,允許資料中心無縫擴展其人工智慧應用。無論是訓練大規模神經網路還是加速推理任務,美光的解決方案都提供了必要的記憶體頻寬。
[*]美光科技利用其1-beta技術、先進的矽通孔 (TSV) 以及其他可實現差異化封裝解決方案的創新技術,開發了這項業界領先的HBM3E設計。美光是2.5D/3D堆疊記憶體和先進封裝技術領域久經考驗的領導者,很榮幸成為台積電3DFabric聯盟的合作夥伴,並幫助塑造半導體和系統創新的未來。
美光科技憑藉這一HBM3E里程碑實現了三重成就:上市時間領先、一流的行業性能以及差異化的能源效率概況。AI工作負載嚴重依賴記憶體頻寬和容量,美光處於有利位置,可以透過我們業界領先的HBM3E和HBM4路線圖以及我們用於AI應用的完整DRAM和NAND解決方案組合來支援未來的AI顯著增長。
- Sumit Sadana,美光科技執行副總裁兼首席商務官
美光也透過36GB 12 Hi HBM3E樣品擴大了其領先地位,與競爭解決方案相比,該產品預計將提供超過1.2TB/s的性能和卓越的能效。美光是NVIDIA GTC的贊助商,3月18日開始的全球人工智慧會議,該公司將在會上分享更多有關其領先業界的人工智慧記憶體產品組合和路線圖的資訊。
消息來源
頁:
[1]