訂閱
糾錯(cuò)
加入自媒體

Meta 與牛津大學(xué)合作論文:從語言預(yù)訓(xùn)練中揭開 LLM 視覺先驗(yàn)的起源

大型語言模型 (LLM) 盡管僅基于文本進(jìn)行訓(xùn)練,卻意外地能夠發(fā)展出豐富的視覺先驗(yàn)。這些先驗(yàn)使得模型能夠利用相對少量的多模態(tài)數(shù)據(jù)來解鎖潛在的視覺能力,從而完成視覺任務(wù)。在某些情況下,甚至無需任何圖像即可執(zhí)行視覺任務(wù)。

Meta 與牛津大學(xué)研究團(tuán)隊(duì)近日發(fā)布的一篇論文表示,LLM 的潛在視覺推理能力主要通過基于推理中心數(shù)據(jù)(例如代碼、數(shù)學(xué)、學(xué)術(shù))的預(yù)訓(xùn)練而發(fā)展,并且會逐步擴(kuò)展。這種從語言預(yù)訓(xùn)練中獲得的推理先驗(yàn)具有可遷移性,并且普遍適用于視覺推理。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮瑒(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號