訂閱
糾錯(cuò)
加入自媒體

中科院計(jì)算所副研究員馮洋:神經(jīng)機(jī)器翻譯的訓(xùn)練改進(jìn)和解碼提速

2. 可導(dǎo)的序列級(jí)目標(biāo)

接下來(lái)介紹如果解決詞級(jí)匹配的對(duì)于好一點(diǎn)的匹配和差的匹配一視同仁的問(wèn)題。

這個(gè)是我們?cè)贓MNLP 2018上所做的工作。通過(guò)使用可導(dǎo)的序列級(jí)目標(biāo)來(lái)解決詞級(jí)匹配的問(wèn)題。

首先介紹一下傳統(tǒng)的序列級(jí)損失函數(shù)。傳統(tǒng)的序列級(jí)損失函數(shù)基本上都是基于N-gram正確率的損失函數(shù),比如,BLEU,GLEU等等。計(jì)算方法為,命中n-gram的個(gè)數(shù)/總共的n-gram的個(gè)數(shù)(candidate),其中n-gram的個(gè)數(shù)為其每個(gè)詞語(yǔ)出現(xiàn)頻次的乘積。

直接使用BLEU不可到的原因是因?yàn)椴僮髦杏衋rgmax,為了使其可導(dǎo),我們使用token的預(yù)測(cè)概率,而非使用argmax。這個(gè)方法和直接用BLEU作為Score,然后reinforce算法直接訓(xùn)練對(duì)比有啥優(yōu)勢(shì)?由于reinforce算法的方差比較大,所以在訓(xùn)練的時(shí)候是很難收斂的。而使用傳統(tǒng)的梯度下降的方法,訓(xùn)練過(guò)程就會(huì)平穩(wěn)的多。

這里是3-gram的例子,其中output是概率最高的詞,3-gram概率的是由獨(dú)立Token的輸出概率相乘得到結(jié)果,然后求和會(huì)得到The total probabilistic count of 3-grams。將匹配上的3-gram的概率拿出來(lái)求和作為分子,Total probabilistic count作為分母,計(jì)算得到 Precision of 3-grams。這就是我們的loss。

這個(gè)例子用來(lái)展示整個(gè)的訓(xùn)練過(guò)程,這里需要注意的一點(diǎn)就是,和傳統(tǒng)的teacher forcing方式不同,這里當(dāng)前步輸入的為上一步預(yù)測(cè)的結(jié)果(貪心搜索得到的結(jié)果),而不是ground truth的值。剩下的就是按照上頁(yè)slides介紹的來(lái)計(jì)算loss。對(duì)于loss采用傳統(tǒng)的梯度下降算法即可。下面貼的是在數(shù)據(jù)集上的結(jié)果。

從結(jié)果中可以看出,2-gram比4-gram的效果要好,這里我們給出的解釋是,過(guò)多的使用自己生成的去計(jì)算的話,會(huì)存在一定程度上的錯(cuò)誤累積。

在訓(xùn)練的時(shí)候,也是可以通過(guò)teacher forcing的方式來(lái)訓(xùn)練的,但是從圖中可以看出,teacherforcing的方式收斂的比較快,但是效果不如greedy search的方式好。

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)