Arc A系列GPU現已在Intel PyTorch擴展 (IPEX) 中獲得支援,可在深度學習和LLM領域提供更快的AI功能。
Intel採用Alchemist架構的Arc A系列GPU有大量的硬體潛力,而這些潛力正在日復一日地實現。軟體部門在優化這些GPU的遊戲效能方面做得非常出色,現在的重點是新興的AI市場,這些晶片上的XMX單元將在該市場中充分利用。
在更新中Intel確認IPEX(PyTorch的Intel擴充)現在跨Windows、Linux和WSL2平台提供對Arc A系列GPU的支援。憑藉這一新增支持,Intel A系列GPU不僅可以提升LLM等深度學習模型的加速,還可以為Intel硬體帶來新的優化,從而實現更快的性能,並使用戶能夠在Alchemist系列GPU上運行PyTorch模型。
對於擁有Intel Arc A系列GPU並希望利用PyTorch中的XMX AI引擎的人來說,該公司在此處發布了有關如何在Windows和WSL2上運行Llama 2 面的完整部落格。根據Intel人工智慧軟體團隊介紹:
- GPU非常適合大型語言模型 (LLM) 工作負載,因為GPU擅長大規模資料並行性和高記憶體頻寬。Arc A系列顯示卡(包括Arc A770 顯示卡)是高效能顯示卡,多達512個Xe矩陣擴充 (XMX) 引擎,提供加速執行深度學習模型(包括LLM)的能力。
- IPEX利用Intel獨立GPU上的XMX引擎,透過針對Intel硬體的最新效能最佳化來擴展PyTorch。
- PyTorch的IPEX擴充功能支援PyTorch XPU設備,使其能夠輕鬆地將PyTorch模型和輸入資料移至設備,以便在有GPU加速功能的Intel獨立GPU上執行。
- 最新版本的IPEX (v2.1.10+xpu) 正式支援WSL2、本機Windows和本機Linux上的Arc A-Series Graphics。
- 展示了透過Ipex在Windows 的Arc A770和WSL2上運行Llama 2 7B和Llama 2-Chat 7B推理。
- 要在Arc A系列GPU上運行Llama 2或任何其他PyTorch模型,只需添加幾行額外的程式碼即可導入intel_extension_for_pytorch 和 .to("xpu")將模型和資料移至裝置以在Arc A上執行系列GPU。
Intel前GPU老闆Raja Koduri提到客戶端和遊戲PC GPU如何在實現AI成功方面發揮著至關重要的作用。Intel擴大對其Arc A系列GPU的支援對於該市場來說是一件好事,NVIDIA和AMD一直透過在以消費者為中心的硬體上提供快速的人工智慧支援而處於領先地位。
消息來源 |