訂閱
糾錯
加入自媒體

Anthropic 論文指出:少量樣本會使任何規(guī)模的 LLM “中毒”

近日,Anthropic Alignment Science 團(tuán)隊(duì)發(fā)現(xiàn),只需 250 份惡意文檔即可在大語言模型(LLM)中產(chǎn)生 “backdoor“ 漏洞——無論是多大的模型規(guī)模或訓(xùn)練數(shù)據(jù)。

盡管 130 億參數(shù)模型的訓(xùn)練數(shù)據(jù)量是 6 億模型的 20 多倍,但同樣少量的中毒文檔都可能對兩者都產(chǎn)生 “backdoor” 效應(yīng)。Anthropic 表示,數(shù)據(jù)中毒的攻擊可能遠(yuǎn)超人們的想象,需要進(jìn)一步研究數(shù)據(jù)中毒及其潛在的防御措施。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號