訂閱
糾錯
加入自媒體

ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強勢圍觀!


來自復旦、谷歌和Nuro,Inc提出一種深度BA方法來實現(xiàn)SFM重建,通過設計一種基于物理原理的架構來實現(xiàn)優(yōu)化過程中的結構約束。架構中包含了兩個cost volum來估計深度和位置,迭代的進行改進。其中不僅加入圖像度量來保證輸入間的連續(xù)性,同時還添加了幾何連續(xù)性保證不同視角間的深度一致。位置和深度的顯式約束結合了BA和深度學習的共同優(yōu)勢,實現(xiàn)了非常好重建性能。

來自牛津大學、百度和港中文的研究人員提出了一種具有域不變性的立體匹配網(wǎng)絡,通過域歸一化的手段來正則化學習到的分布,同時利用可訓練的非局域圖濾波器抽取結構和幾何特征進一步增強域不變性的的泛化性。下圖顯示了域歸一化和文中使用的圖結構。

來自康奈爾和浙大的研究人員提出了一種弱監(jiān)督的特征描述子學習方法,基于圖像和相機間的相對位置來進行監(jiān)督。為此采用了包含極線約束的損失函數(shù)和完全可差分的高效模型架構。由于脫離了逐像素約束的限制,這種方法可以在更為廣泛的數(shù)據(jù)集上訓練得到更無偏更通用的描述子。下圖顯示了僅僅依賴相機位置的極線約束訓練過程(相同顏色對應點和極線):

下圖則是極線約束的具體示意圖:

可差分層和由粗到細的模塊結構:

來自清華、慕尼黑理工和谷歌的研究人員提出的自監(jiān)督單目6D位姿估計,消除了對于標注數(shù)據(jù)的需求。研究人員首先在合成的RGB數(shù)據(jù)集上進行訓練,隨后利用大量非標記數(shù)據(jù)和神經(jīng)渲染方法來改進訓練結果。

下圖展示了完整的訓練架構:

谷歌的研究人員針對深度估計領域提出了雙相機雙像素的估計方法,獲得了具有邊緣感知在遮擋情況下精度更高的深度結果。通過大垂直極限的雙相機和小水平基線的雙像素緩解了孔徑問題和遮擋問題。這篇文章使用了新穎的架構融合雙目立體視覺和雙像素立體視覺,克服了單純立體視覺在遮擋、重復紋理、邊緣誤差方面的劣勢。

<上一頁  1  2  3  4  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號