ECCV 2020 | 基于對抗路徑采樣的反事實視覺語言導航
一、方法架構(gòu)
本文的核心——模型未知的對抗路徑采樣器顯示如下,首先APS從路徑集P中采樣出一批路徑、并利用Speaker來得到復現(xiàn)的指令I(lǐng)。
對抗采樣器APS的學習架構(gòu),其中Speaker表示用于生成導航指令的反向翻譯語言模型,而NAV表示導航模型。
在獲取路徑P和指令I(lǐng)后,模型的目標就在于優(yōu)化導航損失函數(shù)。針對APS學習采樣的路徑,導航器并不能通過最大化導航損失來得到較好的性能。針對導航損失在導航模型NAV和APS之間會產(chǎn)生對抗的行為,APS不斷采樣出有挑戰(zhàn)性的路徑,同時NAV則嘗試著在APS申請的路徑中進行導航完成任務(wù)。通過這種對抗方法,基于P和I生成的對抗增強數(shù)據(jù)將有效提升NAV的導航能力。在實際過程中,Speaker和導航器都通過原始數(shù)據(jù)進行了預(yù)訓練,同時Speaker在對抗訓練過程中參數(shù)保持固定。
在本文中,研究人員使用了回歸行為采樣器πAPS來采樣行為序列at(基于場景特征ft),并結(jié)合得到路徑輸出。其中ft表示從環(huán)境中抽取的視覺特征。對于全景輸入圖像來說,ftj表示時間t時從視角j獲取的視覺特征。
對抗采樣器的架構(gòu)模型
模型首先利用LSTM對先前的視覺特征和上一步行為進行編碼,而后基于歷史編碼和行為嵌入u來決定此時此刻需要采取的行為。APS模型中包含了一系列可學習的權(quán)重,具體可以在原文3.3部分找到詳細的理論描述。
在通過APS處理后,將得到的一系列導航歷史{at}和視覺特征{ftj}組建成路徑P。為了保持與原始訓練數(shù)據(jù)的一致性(其導航路徑都是最短路徑),需要將APS采樣得到的路徑轉(zhuǎn)換為最小路徑。隨后通過Speaker模型為每一條采樣路徑P生成指令I(lǐng),最終將得到增強過的數(shù)據(jù)對(P,I)。隨后通過“學生強制”的方法基于(P,I)來對導航模型進行訓練,其中訓練損失以可以視為NAV在(P,I)下的性能指標,損失越高性能越差。為了創(chuàng)造難度不斷增加的路徑來改善導航策略,研究人員將APS損失定義為了與LAN損失相關(guān)的表示:
由于APS與模型無關(guān),它僅僅考慮導航模型訓練損失而不關(guān)系模型架構(gòu),所以這種機制可以被集成到任意的導航模型中去。
下面的算法展示了整個對抗路徑采樣器的訓練過程,APS目標是最大化導航損失以便創(chuàng)建盡可能困難的路徑,而NAV的目標則是最小化導航損失以便進行更好的導航。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 先進算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 2 人形機器人,正狂奔在批量交付的曠野
- 3 宇樹機器人撞人事件的深度剖析:六維力傳感器如何成為人機安全的關(guān)鍵屏障
- 4 解碼特斯拉新AI芯片戰(zhàn)略 :從Dojo到AI5和AI6推理引擎
- 5 AI版“四萬億刺激”計劃來了
- 6 2025年8月人工智能投融資觀察
- 7 特斯拉三代靈巧手:演進歷程與核心供應(yīng)鏈梳理
- 8 a16z最新AI百強榜:硅谷頂級VC帶你讀懂全球生成式AI賽道最新趨勢
- 9 Manus跑路,大廠掉線,只能靠DeepSeek了
- 10 地平線的野心:1000萬套HSD上車