找回密碼註冊
作者: lin.sinchen
查看: 5224
回復: 0

文章標籤:

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

SAMSUNG T7 Shield 移動固態硬碟

[*]超快的移動固態硬碟,比傳統外接 HDD 快 9.5 倍 [*]堅固的儲存 ...

GEX PRO 850W玩家開箱體驗分享活動

卓越性能,超值選擇 GEX PRO 系列通過 80 PLUS 金牌認證,實現高達 ...

體驗極速WiFi 7!MSI Roamii BE Lite Mesh

第一名 guanrung1110 https://www.xfastest.com/thread-293988-1- ...

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

打印 上一主題 下一主題

[顯示卡器] NVIDIA 推出個人 AI 聊天機器人 Chat With RTX 開放下載

[複製鏈接]| 回復
跳轉到指定樓層
1#


聊天機器人在各種領域中被廣泛使用,並且不少採用 NVIDIA GPU 的雲端伺服器提供服務,但對於個人的敏感資料或者企業內部使用的狀況下,NVIDIA 推出 Chat with RTX 基於本機的 RTX GPU 提供生成 AI 的聊天機器人服務。

Chat with RTX 採用檢索增強生成(Retrieval-Augmented Generation, RAG)、NVIDIA TensorRT-LLM 軟體與 NVIDIA RTX 加速的本地端生成 AI,玩家可依據本地的資料連結至開源的大型語言模型庫:Mistral、Llama 2,達到快速的查詢並獲得相關答案。



此外,Chat with RTX 工具支援著 .txt、.pdf、.doc、.docx 與 .xml 等文檔格式,能將這些本地資料加入資料庫中,並且可加入 YouTube  影片、播放清單,讓聊天機器人可根據喜愛的影片清單提供相關的整理資訊。

Chat with RTX 基於 PC 或者工作站電腦提供本地快速的生成 AI 聊天互動功能,使用者的資料只會儲存在本地端的資料庫中,只要使用 GeForce RTX 30、RTX 40 系列 GPU 並有著 8GB VRAM 以上的規格,在 Windows 10、11 等作業系統都可運行。

Chat with RTX 工具基於 TensorRT-LLM RAG 開發人員參考專案所建立並於 GitHub 中開源釋出,開發者可依據此專案自行研發自有的 RAG 應用程式,並採用 RTX 加速的 TensorRT-LLM 語言模型。

Chat With RTX 下載:nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/

安裝完畢後 Chat with RTX 必須要指定文件、資料,才能依據這些資料透過 AI 模型生成相關的對話,像是我指定有關於 RTX 40 Super 的資料後,就可以詢問關於 NVIDIA、RTX 40 等問題。

換句話說若個人或企業的資料夠龐大時,可讓 Chat with RTX 的 AI 模型有著更好的資料比對產生出關連度更高的結果;有興趣的玩家不妨下載安裝並提供資料,如此一來個人的本地端生成 AI 聊天機器人就開始上工囉。



source: blogs.nvidia.com
更多圖片 小圖 大圖
組圖打開中,請稍候......
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-12-18 12:18 , Processed in 0.111506 second(s), 64 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表