在數據中心及AI人工智慧領域,NVIDIA的GPU優勢明顯,AMD現在也在一步步追趕,日前微軟宣布首家採購AMD的MI200系列加速器,用於雲端大規模AI訓練。
在日前的Build 2022大會上微軟首席技術官Kevin Scott宣布Azeure將成為首個採用AMD旗艦級MI200系列GPU進行大規模AI加速的公共雲端服務。MI200系列加速卡去年11月份發布,AMD當時稱其性能比NVIDIA的A100加速卡快5倍,特別是在FP64計算中。
MI200系列升級為新的CDNA2計算架構,搭配升級的6nm FinFET,580億個電晶體管,並使用2.5D EFB橋接技術,業內首創多Die整合封裝(MCM),內部整合了兩顆核心。
新系列分為兩款型號,Instinct MI250X整合了220個計算單元、14080個處理器核心,最高頻率1.7GHz,並有880個第二代矩陣核心,峰值性能為:FP16半精度383TFlops、FP32單精度/FP64單精度47.9TFlops、FP32單精度/FP64雙精度矩陣95.7TFlops、INT4/INT8/BF16 383TFlops。
記憶體/顯示記憶體搭配8192-bit頻寬的128GB HBM2e,頻率1.6GHz,峰值頻寬3276.8GB/s,並支援全晶片ECC。整卡採用OAM模組形態(未來也會推出PCIe卡形態),支援PCIe 4.0 x16,被動散熱(系統散熱),典型功耗500W,峰值功耗560W。Instinct MI250精簡為208計算單元、13312個處理器核心,各項性能指標也順應下降約5.5%,其他規格完全不變。
消息來源
|