找回密碼註冊
作者: sxs112.tw
查看: 5114
回復: 0

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

O11 VISION COMPACT 玩家開箱體驗分享活動

迷你身形 三面透視打造精緻PC視野新境界O11 VISION COMPACT 強強聯合 ...

2024 三星SD記憶卡 玩家開箱體驗分享活動

2024 PRO Plus SD 記憶卡 [*]為專業人士打造 [*]釋放極限速度 [*]多 ...

打印 上一主題 下一主題

[顯示卡器] Intel PyTorch擴展現已支援Intel Arc GPU,增強人工智慧、深度學習和LLM能力

[複製鏈接]| 回復
跳轉到指定樓層
1#
sxs112.tw 發表於 2024-2-25 00:05:00 | 只看該作者 |只看大圖 回帖獎勵 |倒序瀏覽 |閱讀模式
Arc A系列GPU現已在Intel PyTorch擴展 (IPEX) 中獲得支援,可在深度學習和LLM領域提供更快的AI功能。

Intel採用Alchemist架構的Arc A系列GPU有大量的硬體潛力,而這些潛力正在日復一日地實現。軟體部門在優化這些GPU的遊戲效能方面做得非常出色,現在的重點是新興的AI市場,這些晶片上的XMX單元將在該市場中充分利用。
Intel-Arc-A-Series-GPUs-PyTorch-AI.jpg

在更新中Intel確認IPEX(PyTorch的Intel擴充)現在跨Windows、Linux和WSL2平台提供對Arc A系列GPU的支援。憑藉這一新增支持,Intel A系列GPU不僅可以提升LLM等深度學習模型的加速,還可以為Intel硬體帶來新的優化,從而實現更快的性能,並使用戶能夠在Alchemist系列GPU上運行PyTorch模型。
2022-03-30_15-32-19-1030x579.jpg


2022-03-30_15-32-20-1030x579.jpg


2022-03-30_15-32-21-1030x579.jpg


2022-03-30_15-32-23-1030x579.jpg

對於擁有Intel Arc A系列GPU並希望利用PyTorch中的XMX AI引擎的人來說,該公司在此處發布了有關如何在Windows和WSL2上運行Llama 2 面的完整部落格。根據Intel人工智慧軟體團隊介紹:

  • GPU非常適合大型語言模型 (LLM) 工作負載,因為GPU擅長大規模資料並行性和高記憶體頻寬。Arc A系列顯示卡(包括Arc A770 顯示卡)是高效能顯示卡,多達512個Xe矩陣擴充 (XMX) 引擎,提供加速執行深度學習模型(包括LLM)的能力。
  • IPEX利用Intel獨立GPU上的XMX引擎,透過針對Intel硬體的最新效能最佳化來擴展PyTorch。
  • PyTorch的IPEX擴充功能支援PyTorch XPU設備,使其能夠輕鬆地將PyTorch模型和輸入資料移至設備,以便在有GPU加速功能的Intel獨立GPU上執行。
  • 最新版本的IPEX (v2.1.10+xpu) 正式支援WSL2、本機Windows和本機Linux上的Arc A-Series Graphics。
  • 展示了透過Ipex在Windows 的Arc A770和WSL2上運行Llama 2 7B和Llama 2-Chat 7B推理。
  • 要在Arc A系列GPU上運行Llama 2或任何其他PyTorch模型,只需添加幾行額外的程式碼即可導入intel_extension_for_pytorch 和 .to("xpu")將模型和資料移至裝置以在Arc A上執行系列GPU。


Intel前GPU老闆Raja Koduri提到客戶端和遊戲PC GPU如何在實現AI成功方面發揮著至關重要的作用。Intel擴大對其Arc A系列GPU的支援對於該市場來說是一件好事,NVIDIA和AMD一直透過在以消費者為中心的硬體上提供快速的人工智慧支援而處於領先地位。

消息來源
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-13 14:37 , Processed in 0.081765 second(s), 33 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表