訂閱
糾錯(cuò)
加入自媒體

ChatGPT正在到處惹麻煩

來(lái)源 | 零壹財(cái)經(jīng)

作者 | Chenglin Pua

ChatGPT備受寵愛(ài),但它也正在到處惹麻煩,比如不準(zhǔn)確甚至誤導(dǎo)性的回答、對(duì)數(shù)據(jù)安全的挑戰(zhàn)、對(duì)教育的沖擊等等。

它帶來(lái)一個(gè)新時(shí)代,因?yàn)樗频沽撕芏鄸|西,尤其是我們正賴以正常運(yùn)行的秩序。重建規(guī)則的過(guò)程,也是麻煩不斷的過(guò)程。

誤導(dǎo)性的知識(shí)

經(jīng)濟(jì)學(xué)家保羅?克魯格曼表示ChatGPT的出現(xiàn)將會(huì)影響知識(shí)工作者。例如問(wèn)答網(wǎng)站 Stack Overflow  2022 年 12 月禁止使用ChatGPT來(lái)生成問(wèn)題的答案,理由是 ChatGPT 的回答在事實(shí)上模棱兩可。頂級(jí)科學(xué)期刊《Nature》給出ChatGPT的評(píng)價(jià),F(xiàn)luent but not factual,即通暢但未必正確。

ChatGPT基于龐大的數(shù)據(jù)集訓(xùn)練,進(jìn)而做出回答。但沒(méi)人能保證這些數(shù)據(jù)100%準(zhǔn)確,客觀,不帶有偏見(jiàn)。

對(duì)于知識(shí)工作者,知識(shí)的準(zhǔn)確性非常重要。ChatGPT能夠“一本正經(jīng)的胡說(shuō)八道”,容易讓人們相信ChatGPT給出的答案是正確的。然而事實(shí)未必如此,可能ChatGPT 80%是正確,20%是錯(cuò)誤的。對(duì)中有錯(cuò),錯(cuò)中有對(duì)最難讓人理清楚了。ChatGPT可能會(huì)誤導(dǎo)很多人,讓人們相信一個(gè)不完全正確的結(jié)論。

ChatGPT生成對(duì)話文本的能力引發(fā)了人們對(duì)其創(chuàng)建假新聞或其他誤導(dǎo)性內(nèi)容的可能性的擔(dān)憂。這有可能會(huì)造成嚴(yán)重后果,例如損害聲譽(yù)、甚至煽動(dòng)暴力。

作為一種語(yǔ)言模型,ChatGPT 具有生成類似于人類對(duì)話的文本的能力;但是還沒(méi)有相同的能力來(lái)理解它生成的文字的上下文語(yǔ)境。這意味著 ChatGPT 有一定的概率會(huì)生成具有攻擊性或誹謗性的內(nèi)容。

在網(wǎng)上,已經(jīng)有著許多人得到了ChatGPT種族歧視的回答。例如,當(dāng)ChatGPT被要求編寫(xiě)一些代碼以根據(jù)某人的性別和種族評(píng)估某人是否會(huì)成為一名優(yōu)秀的科學(xué)家時(shí),ChatGPT只建議白人男性。

ChatGPT之所以出現(xiàn)“種族主義者”問(wèn)題,劍橋大學(xué)人工智能研究員 Kanta Dihal 表示,究其原因是ChatGPT根據(jù)從公開(kāi)來(lái)源(包括網(wǎng)站和社交媒體)獲取的數(shù)千億個(gè)單詞進(jìn)行訓(xùn)練的。這些文本反映了人類作者的偏見(jiàn),而ChatGPT學(xué)會(huì)了復(fù)制。這個(gè)機(jī)器人沒(méi)有基本信念。

Kanta Dihal表示,雖然理論上可以過(guò)濾掉偏執(zhí)的內(nèi)容,但這將是非常昂貴和困難的。人們需要事先過(guò)濾所有這些數(shù)據(jù)并確保它不包含明確的種族主義內(nèi)容,這是一項(xiàng)艱巨的任務(wù),這使得訓(xùn)練該模型的成本大大增加。況且類似的偏見(jiàn)可以采取微妙的形式,很難從訓(xùn)練人工智能的數(shù)據(jù)中剔除。

多年來(lái)一直有關(guān)于人工智能種族主義的警告,但成果卻是寥寥無(wú)幾。最大的科技公司之一,谷歌嘗試解決,但進(jìn)展不大。谷歌最終在 2020 年解雇了 Timnit Gebru,他是一名專門(mén)幫助公司解決人工智能種族主義問(wèn)題的工程師。

法律上的挑戰(zhàn)

法律往往對(duì)于新的事物缺乏治理能力,它需要時(shí)間進(jìn)行調(diào)整。AIGC行業(yè)的迅速崛起勢(shì)必會(huì)給各國(guó)法律帶來(lái)一定的挑戰(zhàn)。

ChatGPT依托海量數(shù)據(jù)庫(kù)信息存在,其中包括大量的互聯(lián)網(wǎng)用戶自行輸入的信息,因此當(dāng)用戶輸入個(gè)人數(shù)據(jù)或商業(yè)秘密等信息時(shí),ChatGPT可能將其納入自身的語(yǔ)料庫(kù)而產(chǎn)生泄露的風(fēng)險(xiǎn)。雖然ChatGPT承諾刪除所有個(gè)人身份信息,但未說(shuō)明刪除方式。在其不能對(duì)信息與數(shù)據(jù)來(lái)源進(jìn)行事實(shí)核查的情況下,這類信息仍然具有泄露風(fēng)險(xiǎn)。

ChatGPT能夠與其用戶共享來(lái)自其訓(xùn)練數(shù)據(jù)集的個(gè)人數(shù)據(jù)。此功能意味著ChatGPT可能違反了世界上大多數(shù)國(guó)家/機(jī)構(gòu)的數(shù)據(jù)保護(hù)法。

ChatGPT是個(gè)文字AIGC,實(shí)際上還有有圖片、影音AIGC等。AIGC就是利用已有的數(shù)據(jù)集進(jìn)行訓(xùn)練,基于這些數(shù)據(jù)生成更多的內(nèi)容。網(wǎng)絡(luò)上有人試驗(yàn),隨機(jī)生成一個(gè)肖像,發(fā)現(xiàn)有一定比例生成的肖像酷似名人。

AIGC基于此前的數(shù)據(jù)集訓(xùn)練,生成酷似名人的肖像再正常不過(guò),但這就產(chǎn)生了一個(gè)問(wèn)題,即這些生成的肖像會(huì)不會(huì)侵犯了該名人的肖像權(quán)呢?畢竟AIGC是用其肖像進(jìn)行訓(xùn)練,再生成類似的圖片。這就陷入了一個(gè)灰色的邊緣地帶。

近期Netflix利用AIGC生成了動(dòng)畫(huà)。在未來(lái),AIGC應(yīng)用在影音、圖片等領(lǐng)域的比例也會(huì)越來(lái)越高,產(chǎn)生肖像權(quán)沖突的幾率就越來(lái)越高。

ChatGPT基于大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,包括書(shū)籍、文章和其他書(shū)面材料。如果此訓(xùn)練數(shù)據(jù)包含受版權(quán)保護(hù)的作品,那么 ChatGPT 的輸出可能會(huì)侵犯這些作品的版權(quán)。ChatGPT在生成文本時(shí),如果使用并非公開(kāi)的開(kāi)源代碼、使用開(kāi)源代碼商用未辦理許可證或者未按照許可證的要求實(shí)施的,可能會(huì)導(dǎo)致侵權(quán)。

對(duì)于一些受著作權(quán)保護(hù)的文本、視頻、代碼等,如果沒(méi)有經(jīng)過(guò)權(quán)利主體的授權(quán),直接獲取復(fù)制到自己的數(shù)據(jù)庫(kù)中,并在此基礎(chǔ)上修改、拼湊,極可能侵害他人的著作權(quán)。

再者,利用ChatGPT生成的內(nèi)容能否成為相關(guān)人士的著作權(quán),這些都有待法律進(jìn)一步完善以及詮釋。

對(duì)教育的沖擊

2023年1月,美國(guó)北密歇根大學(xué)的哲學(xué)教授Antony Aumann在為自己任教的一門(mén)世界宗教課程評(píng)分時(shí),看到了一篇非常好的論文,仔細(xì)一查發(fā)現(xiàn)是ChatGPT生成的。該論文以簡(jiǎn)潔的段落、恰當(dāng)?shù)呐e例和嚴(yán)謹(jǐn)?shù)恼摀?jù),探討了罩袍禁令的道德意義。

Antony Aumann教授也為此感到震驚,之后更是采取措施,讓所有學(xué)生必須在監(jiān)控下且在限制上網(wǎng)的瀏覽器中,撰寫(xiě)論文初稿。在隨后的草稿中如有改動(dòng),學(xué)生必須解釋每個(gè)改動(dòng)的理由。Antony Aumann教授表示他雖然提防ChatGPT的影響,但他考慮將ChatGPT融入課程中,例如讓學(xué)生評(píng)估ChatGPT的回答。

在全美范圍內(nèi),許多大學(xué)教授都在對(duì)課堂進(jìn)行大規(guī)模的調(diào)整應(yīng)對(duì)ChatGPT對(duì)教學(xué)活動(dòng)造成的巨大沖擊。很多教授重新設(shè)計(jì)課程,更多地采用口試、小組合作和手寫(xiě)文章作為評(píng)估方式,而不是簡(jiǎn)單利用電腦撰寫(xiě)文章/論文。

如今在學(xué)校里,老師們需要仔細(xì)辨別學(xué)生是否利用了ChatGPT寫(xiě)作業(yè)。在紐約和西雅圖的公立學(xué)校系統(tǒng),學(xué)校的網(wǎng)絡(luò)和設(shè)備上已經(jīng)全面禁止了ChatGPT,但“道高一尺魔高一丈”,只要學(xué)生有心仍然有辦法使用ChatGPT。

隨著時(shí)間推移,使用ChatGPT的人勢(shì)必也越來(lái)越多。如今的學(xué)生懂得利用網(wǎng)絡(luò)技術(shù)查找資料,但未來(lái)如果發(fā)展成利用ChatGPT來(lái)完成作業(yè),是否會(huì)導(dǎo)致學(xué)生的思考、動(dòng)手能力下降呢?顯然是會(huì)的。

搜索引擎的使用,我們需要逐個(gè)閱讀原文,整理過(guò)濾成自己的思想。但ChatGPT直接幫助我們整理過(guò)濾,少了中間最重要的思考步驟,可能會(huì)導(dǎo)致學(xué)生平均能力的下降。

教育界正在開(kāi)展ChatGPT反擊戰(zhàn),但教育界不可能抵制ChatGPT,而是要考慮如何在AIGC時(shí)代創(chuàng)造新的教育模式。


       原文標(biāo)題 : ChatGPT正在到處惹麻煩

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)