訂閱
糾錯(cuò)
加入自媒體

谷歌提出基于神經(jīng)網(wǎng)絡(luò)搜索的目標(biāo)檢測(cè)新型架構(gòu),同時(shí)適應(yīng)圖像識(shí)別

在圖像任務(wù)中卷積網(wǎng)絡(luò)通常將輸入圖像編碼成一系列中間特征來捕捉圖像局部和全局的語意信息,特征的空間分辨率也會(huì)隨著層數(shù)的增加而減小。然而,這種以犧牲空間分辨率為代價(jià)的模型結(jié)構(gòu)對(duì)于需要多尺度特征的識(shí)別任務(wù)來說并不能獲取非常有效的特征,尤其像是目標(biāo)檢測(cè)和語意分割任務(wù)中,類別識(shí)別和目標(biāo)定位同樣重要。像FCN和DeepLab等工作都提出了多尺度的編解碼器架構(gòu)來解決這一問題,利用犧牲尺度的模型來作為編碼器,同時(shí)利用解碼器來恢復(fù)空間信息。

雖然這種架構(gòu)成功地提升了識(shí)別和定位任務(wù)的性能,但使用了降采樣的編碼器依舊損失了空間信息,需要解碼器進(jìn)行恢復(fù),但這種恢復(fù)無法保留足夠的原始空間信息。人們不禁想到,如果可以設(shè)計(jì)出一種主干模型避免空間信息的損失,是不是就能天然地同時(shí)適應(yīng)于圖像識(shí)別與定位任務(wù)了?

幾種不同的尺度輪換架構(gòu)

在這種思想的指導(dǎo)下,研究人員在今年的CVPR論文SpineNet中提出了一種名為尺度輪換模型(scale-permuted)的元結(jié)構(gòu),從兩個(gè)方面提升了主干結(jié)構(gòu)的性能。中間特征圖的空間分辨率應(yīng)該可以在任意層提升或者減小,以便在網(wǎng)絡(luò)加深時(shí)保持空間信息的有效性;其次特征圖間的連接應(yīng)該跨越特征尺度來促進(jìn)多尺度信息的融合。在新架構(gòu)下,研究人員利用了神經(jīng)架構(gòu)搜索(Neural Architecture Search,NAS)方法在新的搜索空間中尋找有效的尺度輪換模型。結(jié)果表明這種模型在多尺度視覺任務(wù)中超過了標(biāo)準(zhǔn)的尺度縮減主干網(wǎng)絡(luò),在多個(gè)基準(zhǔn)上實(shí)現(xiàn)了優(yōu)異性能指標(biāo)。

左圖顯示了尺度縮減結(jié)構(gòu),右圖顯示了尺度置換主干網(wǎng)絡(luò)。每個(gè)矩形表示了一個(gè)模塊,顏色和尺寸顯示了空間分辨率和特征維度的變化,箭頭表示了不同層間的連接。

一、SpineNet的架構(gòu)設(shè)計(jì)

為了高效地設(shè)計(jì)SpingNet的架構(gòu),避免耗時(shí)的手工設(shè)計(jì)、參數(shù)搜索和設(shè)計(jì),研究人員設(shè)計(jì)了NAS來優(yōu)化模型結(jié)構(gòu)。主干模型在COCO數(shù)據(jù)集上進(jìn)行了訓(xùn)練,同時(shí)強(qiáng)化了識(shí)別和定位任務(wù)的需求。在架構(gòu)搜索階段,研究人員主要在三個(gè)方面進(jìn)行了處理:

尺度輪換:由于需要從已有的模塊進(jìn)行構(gòu)建,網(wǎng)絡(luò)模塊的順序十分重要。在搜索中通過重整中間特征和輸出模塊的序列關(guān)系來重新定義了尺度輪換空間。交叉尺度連接:為每個(gè)模塊定義了兩個(gè)輸出連接,可以來自于任意的低層模塊或主干網(wǎng)絡(luò)模塊。模塊自適應(yīng)(可選):模塊可以自適應(yīng)地調(diào)節(jié)其尺度和種類。

從尺度縮減到尺度輪換的架構(gòu)搜索過程對(duì)比

NAS搜索中使用了ResNet-50 主干網(wǎng)絡(luò)來作為搜索種子,首先學(xué)習(xí)了尺度輪換和交叉連接的方式。研究人員使用了基于遞歸神經(jīng)網(wǎng)絡(luò)的控制器來實(shí)現(xiàn)架構(gòu)搜索,這是目前最適合于尺度輪換的搜索架構(gòu)。為了加速搜索過程,研究人員還設(shè)計(jì)了SpineNet代理,將SpineNet- 49的特征維度縮減因子設(shè)置為0.25,設(shè)置重采樣因子α為0.25,并在bbox檢測(cè)和分類中使用了64維的特征。為了防止搜索空間的指數(shù)增加,研究人員限制了中間架構(gòu)僅僅允許最后五個(gè)block搜索,并在在現(xiàn)有block中進(jìn)行檢索。針對(duì)每個(gè)樣本,代理訓(xùn)練512分辨率的圖像5個(gè)epoch,同時(shí)驗(yàn)證集上的AP被作為獎(jiǎng)勵(lì)來優(yōu)化結(jié)構(gòu)。實(shí)際中使用了100個(gè)TPU來運(yùn)行,來搜索最好的結(jié)構(gòu)。

1  2  3  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)