谷歌提出Context R-CNN, 利用時域上下文信息的增強目標檢測系統(tǒng)
這種方法超過了僅僅使用單幀圖像的FasterR-CNN方法,在多個生態(tài)環(huán)境圖像檢測領(lǐng)域內(nèi)都具有明顯的優(yōu)勢。研究人員已將模型整合到TF Object Detection API中,為相關(guān)研究人員提供更為簡化的訓練和部署。
上圖中顯示了上下文信息(長達一個月)是如何幫助專家確定模糊場景中的動物的。上下文中目標形狀、尺寸、每天固定的食草時間幫助算法確定這是角馬。
上下文R-CNN模型
上下文R-CNN主要利用靜態(tài)相機拍攝圖像序列間的高度相關(guān)性,在無需額外人工標注數(shù)據(jù)的情況下提升算法在復(fù)雜情況下的性能,同時改善在新的相機設(shè)置下的泛化性。與Faster R-CNN類似,它也采用了兩階段目標檢測架構(gòu)。
上圖顯示了上下文R-CNN的頂層架構(gòu),顯示了檢測模型與長期上下文信息如何有效系統(tǒng)提升性能。
為了抽取某一相機的上下文信息,研究人員首先利用參數(shù)固定的特征抽取器從較大的時間跨度中構(gòu)建出上下文存儲空間(下圖中M);隨后每幅圖像在對應(yīng)上下文信息聚合的幫助下,上下文R-CNN將會更好地在復(fù)雜情況下對目標進行檢測(包括低光、濃霧、模糊等場景)。這種聚合利用attention方式實現(xiàn),它對靜態(tài)相機中出現(xiàn)的稀疏和非規(guī)則采樣具有較好的魯棒性。
第一階段的Faster R-CNN將提出潛在目標,而第二階段將對每個候選目標進行分類。在Context R-CNN中針對第一階段的候選目標,使用基于相似性的注意力機制來確定當前目標與記憶池中特征的相關(guān)性。隨后利用相關(guān)性權(quán)重加權(quán)記憶池中的特征來構(gòu)建針對這一目標的上下文特征,并將其添加到原始的目標特征后,送入第二階段的Faster R-CNN中進行最終的分類。
Context R-CNN將近一個月的上下文信息用于幫助分類當前目標。綠色數(shù)字顯示了每個記憶特征與當前目標的注意力相關(guān)性權(quán)重。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
-
10 月之暗面,絕地反擊
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風翻身?