lin.sinchen 發表於 2024-3-20 10:18:09

AMD 展示 Ryzen AI 7840U 運行 Mistral Instruct 語言模式贏過 155H 17% TPS

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-1.jpg

前陣子 AMD 分享過如何在 Ryzen AI PC 或 Radeon 顯示卡的平台上運行大型語言模型(Large Language Model,LLM),並透過啟動檢索增強生成(Retrieval Augmented Generation,RAG)功能增強和提供 LLM 內容,以及使用本地 LLM 進行編碼。在本地執行這些應用程式無需連接網路,能夠維護AI PC上的資料安全。

這次 AMD 則以 Ryzen AI 筆電對決 Intel Core Ultra 筆電,並主要採用本地運行的 LLM 模型,像是 Llama 2、Mistral AI、code llamma、RAG 等 LLM 模型。

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-2.jpg

Ryzen AI 7840U 對比 Core Ultra 7 155H 在 Mistral Instruct 7b Q4 K M 的模型上有著 17% 的 TPS(tokens per second)的效能領先,而在 LLAMA v2 Chat 則有著 14% TPS 提升。

至於 TTFT(time to first token)表現上,Ryzen AI 7840U 在 Mistral Instruct 7b Q4 K M 上帶來高達 41% 的效能提升,在 LLAMA v2 Chat 上更有高達 79% 的效能提升。

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-3.jpg

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-4.jpg


而 Mistral AI 一樣在 TPS、TTFT 等結果上都由 Ryzen AI 獲得較好的效能表現。

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-5.jpg

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-6.jpg


同樣 Llama 2 測試一樣在 TPS、TTFT 等結果有著更好的效能。

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-7.jpg

https://news.xfastest.com/wp-content/uploads/2024/03/Ryzen-AI-and-LM-Studio-8.jpg


有興趣的玩家可以參考 AMD Blog 中的引導,在本地電腦上安裝 LLM 語言模型,建立自己的 AI 聊天機器人。

[*]如何在AMD Ryzen™ AI PC或Radeon顯示卡上執行大型語言模型(Large Language Model,LLM)
[*]如何在AMD Ryzen™ AI PC上啟動RAG (Retrieval Augmented Generation)
[*]如何在AMD Ryzen™ AI PC上取得AI編碼助理
頁: [1]
查看完整版本: AMD 展示 Ryzen AI 7840U 運行 Mistral Instruct 語言模式贏過 155H 17% TPS