開放工程聯盟(MLCommons)日前公布其業界標準 AI 效能基準測試套件 MLPerf Inference v4.1 的結果。Intel 第 5 代 Xeon 可擴充處理器和首次參與測試並搭載效能核心(P-core)的 Intel Xeon 6 處理器,提交了 6 項 MLPerf 基準測試結果。相較於第 5 代 Xeon 處理器,搭載效能核心(P-core)的 Intel Xeon 6 處理器在 AI 效能上實現約 1.9 倍的幾何平均效能(geomean performance)提升。
AI 系統需要 CPU 作為關鍵元件,以便於各種情境中成功布署解決方案。英特爾 Xeon 提供優異的 AI 推論解決方案,包括古典機器學習(ML)和向量搜尋嵌入(vector search embedding)。
利用 MLPerf Inference v4.1 測試基準,英特爾提交了第 5 代 Xeon 處理器和搭載效能核心(P-core)的 Xeon 6 處理器,並以 ResNet50、RetinaNet、3DUNet、BERT、DLRM v2 和 GPT-J 模型進行測試。相較於第 5 代 Intel Xeon 處理器,Xeon 6 在六項基準測試中平均提供約 1.9 倍的 AI 推論效能提升。
英特爾自四年前首次提交 MLPerf 測試結果以來,在 CPU 的 AI 效能方面已經取得顯著進展。與 2021 年第 3 代 Intel Xeon 可擴充處理器相比,Xeon 6 在自然語言處理(BERT模型)上的效能表現提升高達 17 倍,在電腦視覺(ResNet50 模型)工作負載上的效能則提升高達 15 倍。英特爾在其 CPU 產品藍圖規畫中持續投資 AI 領域,例如藉由新的資料類型與效率提升,持續創新 Intel Advanced Matrix Extensions(AMX)。
最新的 MLCommons 基準測試結果,突顯了 Xeon 處理器如何為 OEM 提供強大的 CPU AI 伺服器解決方案。隨著 AI 運算需求的成長,許多客戶在執行企業工作負載的同時,也在執行 AI 工作負載。OEM 會將 MLPerf 基準測試結果列為優先考量條件,以確保能為顧客提供針對 AI 工作負載最佳化的高效能 Xeon 系統。
英特爾在最新的 MLPerf 基準測試中,支援思科、戴爾科技、慧與科技(HPE)、廣達和美超微(按廠商英文名稱順序排列)等五家 OEM 夥伴。每位客戶皆提交了使用第五代 Xeon 可擴充處理器的 MLPerf 測試結果,展示其系統對各種 AI 工作負載和布署的支援。
|
組圖打開中,請稍候......
|