未來DLSS或利用AI生成紋理、角色和物件:朝著英偉達全AI渲染願景又進一步
根據More Than Moore報道,前一段時間英偉達創始人兼首席執行官黃仁勳在COMPUTEX 2024的問答環節上,回答了一個與DLSS相關的提問,表示未來將看到純粹通過人工智能(AI)創建生成的紋理和物體,另外AI NPC也將完全透過DLSS生成。利用DLSS技術有助於提升Geforce RTX顯示卡的遊戲效能,將部分工作轉移到Tensor Core,減輕了對CUDA核心的需求,從而釋放資源並提高幀數。黃仁勳稱,已看到了DLSS自己生成紋理和物體,能提升物體的質量。
某種程度來說,這可能接近於DLSS技術的下一個迭代。據了解,英偉達已經在研究一種新的紋理壓縮技術,考慮了訓練有素的人工智慧神經網絡,以顯著提高紋理質量,同時保持相近的顯存需求。傳統的紋理壓縮方法將壓縮比限制8倍,但英偉達基於神經網路的新壓縮技術可以將壓縮比提高至16倍。更有趣的是遊戲內的物件利用DLSS技術從零開始創建,這是超越現有DLSS框架的第一步,不過這需要告知物件需要放置在遊戲世界中的什麼位置以及需要渲染的內容。
黃仁勳希望DLSS技術不僅能生成遊戲內的物體,還能生成NPC。去年英偉達成立了一個新的研究小組,名為“GEAR(Generalist Embodied Agent Research)”,目標是為了讓英偉達進一步推進和構建基於人工智慧(AI)的實體,並使其能夠在虛擬世界和物理世界中熟練地操作,例如智慧機器人和NPC之類。
消息來源
ai最終反人類:time:...
頁:
[1]