找回密碼註冊
作者: lin.sinchen
查看: 5096
回復: 0

文章標籤:

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

O11 VISION COMPACT 玩家開箱體驗分享活動

迷你身形 三面透視打造精緻PC視野新境界O11 VISION COMPACT 強強聯合 ...

2024 三星SD記憶卡 玩家開箱體驗分享活動

2024 PRO Plus SD 記憶卡 [*]為專業人士打造 [*]釋放極限速度 [*]多 ...

體驗極速WiFi 7!MSI Roamii BE Lite Mesh

MSI首款WiFi 7 Mesh系統登場-Roamii BE Lite Mesh System。Roamii ...

打印 上一主題 下一主題

[顯示卡器] NVIDIA 推出個人 AI 聊天機器人 Chat With RTX 開放下載

[複製鏈接]| 回復
跳轉到指定樓層
1#


聊天機器人在各種領域中被廣泛使用,並且不少採用 NVIDIA GPU 的雲端伺服器提供服務,但對於個人的敏感資料或者企業內部使用的狀況下,NVIDIA 推出 Chat with RTX 基於本機的 RTX GPU 提供生成 AI 的聊天機器人服務。

Chat with RTX 採用檢索增強生成(Retrieval-Augmented Generation, RAG)、NVIDIA TensorRT-LLM 軟體與 NVIDIA RTX 加速的本地端生成 AI,玩家可依據本地的資料連結至開源的大型語言模型庫:Mistral、Llama 2,達到快速的查詢並獲得相關答案。



此外,Chat with RTX 工具支援著 .txt、.pdf、.doc、.docx 與 .xml 等文檔格式,能將這些本地資料加入資料庫中,並且可加入 YouTube  影片、播放清單,讓聊天機器人可根據喜愛的影片清單提供相關的整理資訊。

Chat with RTX 基於 PC 或者工作站電腦提供本地快速的生成 AI 聊天互動功能,使用者的資料只會儲存在本地端的資料庫中,只要使用 GeForce RTX 30、RTX 40 系列 GPU 並有著 8GB VRAM 以上的規格,在 Windows 10、11 等作業系統都可運行。

Chat with RTX 工具基於 TensorRT-LLM RAG 開發人員參考專案所建立並於 GitHub 中開源釋出,開發者可依據此專案自行研發自有的 RAG 應用程式,並採用 RTX 加速的 TensorRT-LLM 語言模型。

Chat With RTX 下載:nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/

安裝完畢後 Chat with RTX 必須要指定文件、資料,才能依據這些資料透過 AI 模型生成相關的對話,像是我指定有關於 RTX 40 Super 的資料後,就可以詢問關於 NVIDIA、RTX 40 等問題。

換句話說若個人或企業的資料夠龐大時,可讓 Chat with RTX 的 AI 模型有著更好的資料比對產生出關連度更高的結果;有興趣的玩家不妨下載安裝並提供資料,如此一來個人的本地端生成 AI 聊天機器人就開始上工囉。



source: blogs.nvidia.com
更多圖片 小圖 大圖
組圖打開中,請稍候......
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-11 00:06 , Processed in 0.109351 second(s), 65 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表