訂閱
糾錯
加入自媒體

谷歌提出基于神經(jīng)網(wǎng)絡(luò)搜索的目標檢測新型架構(gòu),同時適應(yīng)圖像識別

所有備選架構(gòu)的計算量都幾乎相同,因為在這一過程中僅僅輪換了特征模塊的順序。最終學(xué)習(xí)到的尺度輪換模型在目標檢測任務(wù)中比ResNet-50-FPN高了2.9%的AP。如果添加搜索選項來適應(yīng)模塊的尺度和種類(包括殘差模塊或者瓶頸模塊)還能夠減少10%的浮點運算提升效率。下圖顯示了標準尺寸和mobile尺寸的SpingNet性能。

研究人員將得到的49層尺度輪換主干架構(gòu)命名為SpineNet-49,如果利用重復(fù)模塊疊加和維度拓展可以方便地構(gòu)建出SpineNet-96/143/190等架構(gòu)。

下圖展示了RestNet-50-FPN和SpineNet-49的對比情況。

ResNet 主干 (左) 和 基于NAS搜索得到的SpineNet 主干 (右) 的比較。

二、性能

通過與ResNet-FPN的比較展示了新架構(gòu)在性能上的大幅度提升。在使用相同模塊的情況下,SpineNet比ResNet-FPN提升了3%的AP,同時還減少了10-20%的浮點計算。值得一提的是最大的SpineNet-190模型在COCO實現(xiàn)了52.1%的AP,在沒有使用多尺度測試的情況下單模型結(jié)果超過了先前的檢測器架構(gòu)。SpineNet同時在分類任務(wù)基準iNaturalist細粒度數(shù)據(jù)集上取得了5%的top-1精度提升。

SpineNet模型和ResNet-FPN模型在bbox檢測上的性能比較。

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號