訂閱
糾錯(cuò)
加入自媒體

港大研究員提出融合自適應(yīng)法向量約束和遮擋注意力的深度估計(jì)新方法

下式顯示了優(yōu)化網(wǎng)絡(luò)的損失函數(shù),P(q)為位置q處的遮擋概率。損失函數(shù)綜合了遮擋概率作用下的深度、法向量以及遮擋概率圖,并用權(quán)重調(diào)節(jié)各部分的重要性:

實(shí)驗(yàn)結(jié)果

在模型訓(xùn)練過程中,研究人員使用了ScanNet作為訓(xùn)練數(shù)據(jù),并在7Scenes和SUND3D數(shù)據(jù)集上進(jìn)行了測試。訓(xùn)練過程首先對(duì)DepthNet進(jìn)行訓(xùn)練,而后固定其權(quán)重再訓(xùn)練RefineNet,最后再共同對(duì)整個(gè)模型進(jìn)行調(diào)優(yōu)。

下圖顯示了這種方法與多種深度估計(jì)方法在7-Scenes數(shù)據(jù)上的比較,可以看到針對(duì)多個(gè)指標(biāo)都取得了優(yōu)異的結(jié)果:

下圖顯示了模型重建的結(jié)果,可以看到深度圖中邊緣更為銳利、更好地保留了形狀的規(guī)則外形:

在得到的表面法向量上也達(dá)到了優(yōu)異性能:

在視覺質(zhì)量上也超過了其他方法,CNM約束可以更好的保留局部和全局的幾何結(jié)構(gòu)信息。

從最終的三維重建結(jié)果中可以看到,即便是對(duì)于像沙發(fā)、白墻這樣的弱紋理結(jié)構(gòu)也能輕松重建,重建的顏色也更接近于基準(zhǔn)、形狀更為連續(xù)噪聲也更少。

此外研究人員還分析了局域/全局法向量CNM、優(yōu)化模塊和遮擋概率圖等不同模塊的有效性:

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)