英偉達再出AI黑科技,通過生成模型渲染3D環(huán)境
近日,在蒙特利爾舉行的神經信息處理系統(tǒng)大會(NeurIPS)上,英偉達在一篇題為“視頻到視頻合成(“Video-to-Video Synthesis” )”的技術論文中闡述了其最新AI成果。
據透露,英偉達最新研發(fā)的這項成果,是可以渲染合成交互式3D環(huán)境的AI技術。在創(chuàng)建逼真的3D環(huán)境時,英偉達研發(fā)團隊不再使用傳統(tǒng)的圖形技術,而是使用神經網絡 ,特別是“生成模型”,通過來自如YouTube等來源的真實視頻,進行模型訓練,最終構建逼真的3D虛擬世界。
英偉達研發(fā)團隊之所以使用“生成模型”來提高輸出的準確性,是由于這種模型要求機器必須有效地內化數據的本質,它也因此被廣泛認為是促進機器“理解”大量數據之間關系的最有前途的方法之一。
但是,像所有神經網絡一樣,使用這個模型也需要訓練數據。幸運的是,英偉達研發(fā)團隊將AI模型應用于街景,通過自動駕駛項目采集到的大量視頻數據,確保了其關于城市街道上行駛車輛的訓練鏡頭,再以分段網絡識別不同的對象類別,如地面,樹木,汽車,天空,建筑物等,開發(fā)算法以了解每個對象與其他對象的關系,最終,這些模型創(chuàng)建了城市環(huán)境的基本拓撲結構,然后AI再從基于從訓練數據中學到的東西,模擬世界外觀,包括照明,材料和動態(tài)等,由此生成幾乎是還原性的高逼真3D環(huán)境。
“由于場景是完全合成生成的,因此可以輕松編輯以刪除,修改或添加對象”英偉達表示。
在論文中,英偉達研發(fā)團隊得出的結論是:“我們提出了一種基于條件生成對抗網絡(GAN)的通用視頻到視頻合成框架:通過精心設計的發(fā)生器、鑒別器網絡以及時空對抗物鏡,我們可以合成高分辨率、照片級真實、時間一致的視頻,大量實驗表明,我們的結果明顯優(yōu)于最先進方法的結果。”
不得不承認,迄今為止,AI已經是人類最強有力的創(chuàng)新“加速器”,它讓人類的能力得以延展,并逐漸變得更加強大。我們都能看到,在全世界范圍內,數以萬計的科學家們都在為AI技術的前沿突破做出努力,除了英偉達之外,不論是像Google、Facebook這樣的海外巨頭,還是類似國內曠視科技、極鏈科技這樣的AI科技公司,都致力于全力研發(fā)產出能像人一樣思考的AI技術。今天,曠視科技已經實現AI識別人臉對象中的各種特征,極鏈科技已經實現AI理解海量視頻的場景表達,而未來,AI必然不僅是會讓機器“知其然”,還要做到讓它“知其所以然”,以最終實現推動整個AI進入“深度智能”的偉大愿景。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10月23日火熱報名中>> 2025是德科技創(chuàng)新技術峰會
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業(yè)大會
-
精彩回顧立即查看>> 【限時福利】TE 2025國際物聯網展·深圳站