訂閱
糾錯
加入自媒體

ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強勢圍觀!

下圖顯示了問題的流程,下采樣過程使用了小波變換,并通過網(wǎng)絡(luò)得到了包含丟失信息的分布和對應(yīng)的低分辨圖像。

針對視角合成問題,來自伯克利、谷歌和UCSD的研究人員提出了將場景表示為神經(jīng)輻射場的過來進行合成。利用全連接深度網(wǎng)絡(luò)來表示場景,其輸入為5D的空間位姿坐標、輸出為體密度和空間位置視角相關(guān)的輻射。通過在相機方向上查詢5D坐標并利用經(jīng)典的渲染技術(shù)將輸出顏色和密度映射到圖像上。

還有來自CMU和Argo AI關(guān)于自動駕駛中延時造成場景流理解的研究,并提出了流精度的概念來將處理延時和精度進行了整合。

以及谷歌研究人員對于非監(jiān)督光流進行系統(tǒng)的研究,并構(gòu)建包括代價空間歸一化、遮擋梯度截止、光流場上采樣平滑以及尺度變化過程中的自監(jiān)督來改進光流估計的結(jié)果。

除了這些論文,還有非常多有趣的精彩的研究成果在Oral中呈現(xiàn),更多的論文和代碼也在逐漸放出,我們將持續(xù)追蹤后續(xù)放出的研究成果,及時為小伙伴們呈現(xiàn)更多高水平的研究成果。

<上一頁  1  2  3  4  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號