IJCA2019公開協調ADAS新方法:隨機對抗性模仿學習
最小二乘損失函數(3)對決策邊界兩側遠離標準軌跡的采樣軌跡進行懲罰。
該方法可以用公式(4)表示。
公式(5)表示對抗模仿學習與隨機對抗模仿學習RAIL的隨機參數空間搜索之間的關系。
圖3中實驗的目的是為了展示樣品的效率。為了評估效率,實驗考慮了平均車速、換道次數、超車次數、縱向獎勵和橫向獎勵,如圖3和圖4所示。
由表1可以看出,兩層政策的平均車速和平均超車統計量最高,分別為70.38km/h和45.04。這是因為基于蓋爾的框架和基于與環(huán)境交互的策略優(yōu)化,經過訓練的策略有時可以獲得比專業(yè)人類駕駛員更高的性能。另一方面,單層策略的性能提高了90%。這是因為單層不足以正確處理高維觀測。上述,BC試圖將專業(yè)演示過程中的1步偏差誤差最小化。因此,由于訓練和測試之間的分布不匹配,單層策略表現出不理想的性能。
在圖4中,使用縱向補償來分析環(huán)境補償?v向補償與速度成正比;因此,歸一化結果與圖3a所示的平均速度相同。為了評估行動決策的敏感性,使用了橫向補償。在變道完成之前,車輛可以根據觀察改變決策。由于換道過程中橫向獎勵是連續(xù)發(fā)生的,因此在換道過程中頻繁的換道會導致換道過程中獎勵的減少。在圖4b中,兩層策略在最后一種情況下獲得了較大的橫向獎勵。然而,兩層策略比專家策略顯示了更多的車道變化。這是因為兩層策略不太可能在操作期間更改決策。另一方面,單層策略比專家策略更能顯示頻繁的換道。因為單層策略經常更改其決策,單層策略獲得最小的橫向補償。BC表示換道次數最少。然而,經過培訓的策略比RAIL培訓的單層策略獲得了更大的回報。變道數量明顯小于單層策略;從而使訓練后的策略比單層策略獲得更大的橫向回報。
通過圖3c的實驗,模擬專家論證,測量合適的決策。為了獲得與專家相似的超車次數,仿真過程中的換道點和決策應與專家相似。在圖3c中,兩層策略相比之下,顯示了預期的性能。此外,決策點和操作與專家相似。然而,單層策略比專家策略顯示的接管數量要少。這是因為平均速度較低,并且根據觀察做出了不合適的換道決定。
綜上所述,驗證了RAIL方法提高了平均速度,減少了不必要的變道次數。這就意味著RAIL方法政策方向是正確的。實驗結果表明,兩層策略取得了與駕駛專家相似的性能。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-6.16立即報名>> 【在線會議】Solution Talks |Computex 2025關鍵趨勢深讀
-
6月20日立即下載>> 【白皮書】精準測量 安全高效——福祿克光伏行業(yè)解決方案
-
7月3日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身機器人動力電池技術應用大會
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 國家數據局局長劉烈宏調研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產元年誰在領跑?
- 9 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單
- 10 為何全球AI巨頭都在搶?MCP協議背后的暴富玄機大公開!