找回密碼註冊
作者: lin.sinchen
查看: 6671
回復: 0

文章標籤:

文章分享:

+ MORE精選文章:

+ MORE活動推薦:

GEX PRO 850W玩家開箱體驗分享活動

卓越性能,超值選擇 GEX PRO 系列通過 80 PLUS 金牌認證,實現高達 ...

體驗極速WiFi 7!MSI Roamii BE Lite Mesh

第一名 guanrung1110 https://www.xfastest.com/thread-293988-1- ...

極致效能 為遊戲而生 990 PRO SSD 玩家體驗

[*]極致效能固態硬碟 [*]PCIe 4.0 速度大幅提升 [*]優化的電源效率 ...

Micron Crucial PRO D5 6400超頻版 玩家開

解銷更快的遊戲速度! 利用低延遲遊戲記憶體的強大功能 利用 Cruci ...

打印 上一主題 下一主題

[業界新聞] AI 與 NVIDIA Omniverse 讓 GANverse3D 打造經典汽車 KITT

[複製鏈接]| 回復
跳轉到指定樓層
1#


NVIDIA Research 所開發的深度學習引擎 GANverse3D 應用程式,能將 2D 平面影像變成 3D 模型,並藉由 NVIDIA Omniverse 虛擬環境中進行視覺化的呈現和控制。

這項功能可以幫助建築師、創作者、遊戲開發者和設計師輕鬆地在他們的模型中加入新的物件,無需 3D 建模方面的專業知識,也不用花費大筆預算進行渲染。
舉例來說,將一張汽車的照片變成一個 3D 模型,這個模型可以在虛擬場景中行駛,車上還配有逼真的頭燈、尾燈和方向燈。



為了產生訓練用的資料集,研究人員利用生成對抗網路 (GAN) 來合成從多個視角描繪同一物件的影像,就像攝影師圍繞一輛停放的車子走動,並從不同的角度進行拍攝。這些多視角影像被插入一個用於製作反影像的渲染框架中,這便是從 2D 影像推論出 3D 網格模型的過程。

使用多視角影像進行訓練後,GANverse3D 只需要一張 2D 影像便能預測出一個 3D 網格模型。此模型可以搭配 3D 神經網路渲染器,讓開發人員可以控制自訂物件和背景交換。

如果將 GANverse3D 當作 NVIDIA Omniverse 平台的擴充項目進行匯入,並且在 NVIDIA RTX GPU 上運行,便能透過 GANverse3D 把任何 2D 影像重新打造成 3D 物件,例如將 1980 年代熱門電影影集《霹靂遊俠》中,那輛深受觀眾喜愛、協助主角打擊犯罪的經典汽車 KITT。

過去用於製作反影像的模型將 3D 形狀作為訓練資料。

NVIDIA 將在接下來的兩場會議上發表 GANverse3D 背後的研究成果,分別為五月的國際學習表徵會議 (International Conference on Learning Representations; ICLR) 與六月的國際電腦視覺與模式識別會議 (Conference on Computer Vision and Pattern Recognition; CVPR)。


從平面影像到立體的 KITT

遊戲、建築與設計領域的創作者,使用像 NVIDIA Omniverse 模擬與協作平台這樣的虛擬環境來測試新的想法,並且在打造最終產品前,以視覺化的方式呈現原型。開發人員透過 Omniverse Connectors,便能在 Omniverse 中使用他們喜愛的 3D 應用程式,以即時光線追蹤技術來模擬複雜的虛擬世界。

不是每個創作者都有足夠的時間和資源為他們繪製的每個物體建立 3D 模型。渲染一台展示間裡的汽車或街道上的建築物,所需捕捉的多視角影像成本可能會令人望之卻步。

這正是經過訓練的 GANverse3D 應用程式可以派上用場的地方,將一輛汽車、一棟建築物,甚至一匹馬的標準影像,變成可以在 Omniverse 中進行自訂及製作動畫的 3D 物件。

研究人員為了重建霹靂車 KITT,將汽車影像丟進訓練好的模型,讓 GANverse3D 預測出相應的 3D 紋理網格,還有車輪和頭燈等各種車輛零件。他們接著使用 NVIDIA Omniverse KitNVIDIA PhysX 工具,將預測出的紋理變成高品質的材料,讓霹靂車 KITT 的外觀和感受更加真實,並將其置於動態的駕駛序列中。


GAN 推動維度轉變

從不同角度捕捉同一物體的實體資料集實屬罕見,通常是使用 ShapeNet 等合成 3D 資料集來訓練大多數將影像從 2D 轉成 3D 的 AI 工具。

為了從網路上的公開汽車影像等實體資料獲得多視角影像,NVIDIA 的研究人員改為使用 GAN 模型,在神經網路層進行操作,將其變成一個資料生成器。
研究團隊發現打開神經網路的前四層與凍結剩下的十二層,會使得 GAN 從不同視角渲染同一物體的影像。

凍結前四層和變動其它的十二層,神經網路會從同一個視角產生不同影像。研究人員手動分配標準視角,在特定高度和相機距離下拍攝車輛,便能從單個 2D 影像中快速產生出多視角資料集。

最終使用 GAN 所產生出的 55,000 張汽車影像而訓練出的模型,表現優於使用熱門 Pascal3D 資料集所訓練出的反影像網路。

歡迎閱讀 ICLR 論文全文內容,報告作者為 Wenzheng Chen、NVIDIA 研究員 Jun Gao 和 Huan Ling、NVIDIA 多倫多研究實驗室主任 Sanja Fidler、滑鐵盧大學 (University of Waterloo) 學生 Yuxuan Zhang、史丹佛大學 (Stanford) 學生 Yinan Zhang,以及麻省理工學院 (MIT) 教授 Antonio Torralba。CVPR 論文的其他共同研究人員包括 Jean-Francois Lafleche、NVIDIA 研究員 Kangxue Yin 和 Adela Barriuso。

NVIDIA Research 團隊由全球超過兩百名科學家組成,專注於 AI、電腦視覺、自動駕駛車、機器人和繪圖等領域。在本週 GPU 技術大會 NVIDIA 執行長黃仁勳的主題演說中,可以取得更多關於 NVIDIA 最新研究及產業突破的資訊。

4 月 23 日前可以免費報名參加 GTC 大會,與會者可於 5 月 11 日前觀看喜歡的內容。
更多圖片 小圖 大圖
組圖打開中,請稍候......
您需要登錄後才可以回帖 登錄 | 註冊 |

本版積分規則

小黑屋|手機版|無圖浏覽|網站地圖|XFastest  

GMT+8, 2024-11-28 09:33 , Processed in 0.107441 second(s), 36 queries .

專業網站主機規劃 威利 100HUB.COM

© 2001-2018

快速回復 返回頂部 返回列表