侵權(quán)投訴

BERT


  • 技術(shù)文章:將BERT應(yīng)用于長(zhǎng)文本

    背景自從谷歌的BERT預(yù)訓(xùn)練模型橫空出世,預(yù)訓(xùn)練-下游任務(wù)微調(diào)的方式便成了自然語言處理任務(wù)的靈丹妙藥。然而,復(fù)雜度高、顯存消耗大等問題一直困擾著BERT等預(yù)訓(xùn)練模型的優(yōu)化;由于BERT中Transformer(多層自注意力)關(guān)于輸入文本長(zhǎng)度L有的O()的時(shí)間空間復(fù)雜度,長(zhǎng)文本消耗顯存陡然增加

    CogLTXBERT 2020-12-08
最新招聘 更多

粵公網(wǎng)安備 44030502002758號(hào)