谷歌提出基于神經(jīng)網(wǎng)絡搜索的目標檢測新型架構,同時適應圖像識別
所有備選架構的計算量都幾乎相同,因為在這一過程中僅僅輪換了特征模塊的順序。最終學習到的尺度輪換模型在目標檢測任務中比ResNet-50-FPN高了2.9%的AP。如果添加搜索選項來適應模塊的尺度和種類(包括殘差模塊或者瓶頸模塊)還能夠減少10%的浮點運算提升效率。下圖顯示了標準尺寸和mobile尺寸的SpingNet性能。
研究人員將得到的49層尺度輪換主干架構命名為SpineNet-49,如果利用重復模塊疊加和維度拓展可以方便地構建出SpineNet-96/143/190等架構。
下圖展示了RestNet-50-FPN和SpineNet-49的對比情況。
ResNet 主干 (左) 和 基于NAS搜索得到的SpineNet 主干 (右) 的比較。
二、性能
通過與ResNet-FPN的比較展示了新架構在性能上的大幅度提升。在使用相同模塊的情況下,SpineNet比ResNet-FPN提升了3%的AP,同時還減少了10-20%的浮點計算。值得一提的是最大的SpineNet-190模型在COCO實現(xiàn)了52.1%的AP,在沒有使用多尺度測試的情況下單模型結果超過了先前的檢測器架構。SpineNet同時在分類任務基準iNaturalist細粒度數(shù)據(jù)集上取得了5%的top-1精度提升。
SpineNet模型和ResNet-FPN模型在bbox檢測上的性能比較。

請輸入評論內容...
請輸入評論/評論長度6~500個字