AMD推出了最新的Instinct MI325X AI GPU加速器,配備256GB HBM3e記憶體,而明年的MI355X則將配備288GB。
作為今天Advancing AI活動的一部分,AMD推出了全新的Instinct MI325X AI GPU加速器,該加速器在MI300X的基礎上進行了改進,提供了全新的功能。
但在詳細介紹之前,我們必須先談談AMD的Instinct平台,該平台獲得了世界頂級AI公司的支持,並被Meta、OpenAI和微軟等一些最大的品牌所使用。
AMD對性能領先、輕鬆遷移、開放生態系統和以客戶為中心的產品組合的承諾贏得了領先OEM和雲端合作夥伴的大力支持,因此該公司已快速推出其下一個解決方案:AI該行業的需求成長到無與倫比的高度。
目前AMD的MI300X據稱在一系列AI特定工作負載中的效能比NVIDIA H100高出30%。 AMD在ROCm中增加的工作有助於從旗艦加速器中提取更多效能,但現在是時候在同樣強大的軟體支援下建立更好的硬體了。
AMD Instinct MI325X,這款全新加速器採用與MI300X相同的基本設計和架構而建造。 MI325X採用CDNA3 GPU架構,可視為中期升級,提供256GB HBM3e 記憶體,採用16-Hi堆疊製成,記憶體頻寬高達6TB/s,FP8為2.6 PFLOPs,FP8為1.3 PFLOPs,FP8為2.6 PFLOPs,FP8為1.3 PFLOPs。在有1530億個電晶體的晶片內。
AMD預計Instinct MI325X AI GPU將於2024年第四季開始首次生產,並透過領先的合作夥伴於2025年第一季開始提供相應的伺服器解決方案。 AI Instinct伺服器將採用多達8個MI325X配置,有高達2TB的HBM3e記憶體、896GB/s的無限結構頻寬、48TB/s的記憶體頻寬、20.8 PFLOP的FP8和10.4 PFLOP的FP16效能。每個GPU的配置也為1000W,比MI300X的750-700W配置有很大提升。
AMD聲稱Instinct MI325X AI GPU加速器在Mixtral 8x7B中比NVIDIA H200快40%,在Mistral 7B中快30%,在Meta Llama 3.1 70B LLM中快20%。與 Llama 3.1 405B中的H200 HGX AI平台相比,8x MI325X平台的效能也將提高40%,在70B推理測試中效能將提高20%。在AI訓練方面MI325X將提供與H200平台相似或優於H200平台10%的效能。
明年AMD計劃推出全新的Instinct MI355X GPU加速器,該加速器將針對AI工作負載,並將使用3nm製程打造。 GPU將採用CDNA4架構。規格方面記憶體將升級至更高容量,最高可達288GB HBM3e,同時支援FP4/FP6資料類型。
AMD表示CDNA4架構的效能比CDNA3提升了35倍,AI運算能力提高了7倍,記憶體容量/頻寬提高了50%,並且還有最新的網路效率改進。在效能方面AMD Instinct MI355X AI GPU將提供高達2.3 PFLOP的FP16效能,比MI325X提升80%,而FP8資料也比MI325X提升80%,達到4.6 PFLOP。新的FP6和FP4計算性能額定為9.2 PFLOP。
MI355X的記憶體容量和記憶體頻寬將增加50%,與當前世代MI300X相比,速度高達8TB/s。第一批配備8個MI355X GPU的平台將於2025年下半年推出,提供高達2.3TB的HBM3E記憶體容量和64TB/s頻寬、18.5 PFLOP的FP16、37 PFLOP的FP8和74 PFL的計算。
回到軟體方面,AMD宣布推出最新的ROCm 6.2生態系統,該生態系統使推理中的一系列AI工作負載的平均效能提高了2.4倍,最高可達2.8倍,訓練效能平均提高了2.4倍。
最後AMD仍在確認其於2026年發布的Instinct MI400作為CDNA Next產品,而不是使用最近披露的UDNA架構名稱。也許現在接受UDNA命名還為時過早,因為儘管AMD的一位高級代表證實了這一點,但AMD尚未正式宣布這一命名,所以我們將看看未來會如何發展。
話雖如此AMD希望透過未來的Instinct產品全力投入AI熱潮,與NVIDIA等公司展開激烈競爭,並應對一直在努力追趕的Intel。
消息來源 |