訂閱
糾錯(cuò)
加入自媒體

谷歌AI竟然教唆網(wǎng)友自殺?被質(zhì)疑,被批評(píng)的谷歌AI究竟路在何方?

2024-05-28 09:34
新火種
關(guān)注

作者:小巖

編輯:彩云

最近,谷歌的日子不太好過(guò)。

以O(shè)penAI,Meta,微軟為代表的AI巨頭公司們正忙著大殺四方,不斷更新和迭代自己的AI模型;而谷歌這邊,不僅沒(méi)辦法推出足以戰(zhàn)勝競(jìng)爭(zhēng)對(duì)手的新一代產(chǎn)品,就連現(xiàn)有的AI模型也飽受質(zhì)疑和諷刺,如今,更是有“谷歌AI教唆網(wǎng)友自殺”的負(fù)面消息傳出。

AI Overview頻頻展現(xiàn)bad case,最夸張的竟然還教唆網(wǎng)友自殺?

近日,有網(wǎng)友心情感到沮喪,他向谷歌AI Overview求助,卻被告知“建議從金門大橋跳下去”。不知道AI Overview是不是想“一勞永逸”的解決情緒低落的問(wèn)題,但很顯然,這個(gè)“地獄笑話”開(kāi)得非常的不合時(shí)宜。

事實(shí)上,谷歌AI Overview的翻車遠(yuǎn)不止這一次。有網(wǎng)友向它提問(wèn),“如何不讓芝士從披薩上面滑落”,它給的答案是,“給披薩加點(diǎn)料——膠水。給醬汁中加入八分之一的無(wú)毒膠水,可以使其更粘稠,有助于芝士粘附”?墒聦(shí)上,這個(gè)參考答案最早可以追溯到11年前的Reddit帖子,是網(wǎng)友玩的一個(gè)梗?梢(jiàn)AI Overview學(xué)藝不精,知識(shí)都學(xué)雜了。

除此以外,AI Overview還建議網(wǎng)友,吃有毒的蘑菇,殺人,跳橋等,給出了各種震碎三觀的回答。

在援引文獻(xiàn)方面,AI Overview有時(shí)候的做法也很令人匪夷所思。

有網(wǎng)友對(duì)其發(fā)問(wèn),“每天應(yīng)該多吃多少石頭”,AI Overview不僅不加以制止,還會(huì)引用UC伯克利地質(zhì)教授給出的建議“每天至少吃一塊小石頭”。    

對(duì)于不明真相的用戶來(lái)說(shuō),這種看上去有權(quán)威人士說(shuō)明,有相關(guān)資料和細(xì)節(jié)說(shuō)明的答案,是妥妥的優(yōu)質(zhì)文本,或許還真有可能去嘗試每天吃石子。但事實(shí)是,ResFrac發(fā)布這篇文章的原因只是想轉(zhuǎn)發(fā)洋蔥報(bào)(the Onion)上的諷刺內(nèi)容。這也在無(wú)意中暴露了谷歌 AI Overview識(shí)別諷刺內(nèi)容能力較弱的短板。事實(shí)上,AI Overview經(jīng)常會(huì)把互聯(lián)網(wǎng)上的諷刺內(nèi)容當(dāng)事實(shí),諸如拿著剪刀跑步會(huì)增加運(yùn)動(dòng)量,提升心率等。

從Bard到AI Overview,對(duì)谷歌的質(zhì)疑,批評(píng),群嘲從未停止...

其實(shí)谷歌所經(jīng)歷過(guò)的質(zhì)疑遠(yuǎn)不僅僅是在AI Overview上,它于去年推出的AI模型Bard同樣飽受爭(zhēng)議。

去年12月,就在AI聊天機(jī)器人ChatGPT3.5對(duì)外發(fā)布幾周后,谷歌就意識(shí)到了危機(jī)的存在,CEO Sundar Pichai立刻對(duì)內(nèi)發(fā)出了“紅色警報(bào)”。他2015年正式執(zhí)掌谷歌,1年后就提出“AI第一”,讓谷歌成為在AI領(lǐng)域投入最堅(jiān)決的科技巨頭。但ChatGPT的破圈,仿佛是一個(gè)莫大的諷刺,讓外界覺(jué)得他這些年似乎什么都沒(méi)做。

為了平息外界的質(zhì)疑,并且在進(jìn)度上全面趕超OpenAI,Pichai和谷歌做出了一個(gè)十分兵荒馬亂的決定:讓Bard盡快上馬。    

所謂Bard,就是由谷歌推出的一款致力于對(duì)標(biāo)ChatGPT的AI對(duì)話產(chǎn)品。

在發(fā)布會(huì)上,谷歌播放了一段展示視頻——問(wèn):“詹姆斯·韋伯太空望遠(yuǎn)鏡有什么新發(fā)現(xiàn),值得我告訴我9歲的孩子?”Bard給出了三段回答,其中一段是:“望遠(yuǎn)鏡拍攝了第一張?zhí)?yáng)系外行星的照片。”

但很快有人發(fā)現(xiàn),第一張?zhí)?yáng)系外的行星照片拍攝于2004年,在NASA官網(wǎng)可查。

在發(fā)布會(huì)上掉鏈子,讓谷歌成為了一個(gè)莫大的笑話。接著,更多的Bard試用者開(kāi)始吐槽。推特上有一條高贊用戶評(píng)論:“看到谷歌的產(chǎn)品后,我不擔(dān)心AI的威脅了。”

除此之外,二級(jí)市場(chǎng)也很快給出了反饋。Bard發(fā)布當(dāng)天的一次回答錯(cuò)誤,就讓谷歌母公司Alphabet市值減少了1000億美元。在這種情況下,谷歌行業(yè)的競(jìng)爭(zhēng)對(duì)手微軟還在“捅刀”,它極力將自己塑造為搜索行業(yè)顛覆者。微軟CEO Satya Nadella在一場(chǎng)電話會(huì)議上表示,“融入了ChatGPT后,Bing在搜索市場(chǎng)的份額正在增長(zhǎng)”,妥妥的打了谷歌的臉。    

早早進(jìn)入AI賽道深耕,為何交出的答卷如此不理想?

谷歌算是把握住先機(jī),較早進(jìn)入到AI領(lǐng)域的科技巨頭了。但尷尬的是,近10年過(guò)去了,谷歌始終都沒(méi)有拿出過(guò)真正顛覆性的AI產(chǎn)品。究其原因,很可能有兩大致命因素:保守和遲鈍。

谷歌的前產(chǎn)品經(jīng)理就曾透露過(guò),“谷歌顧慮很多,非常害怕公司聲譽(yù)受損……他們傾向于保守主義”。

谷歌的保守在于它永遠(yuǎn)披著一層倫理捍衛(wèi)者的外衣,習(xí)慣性的在做政治正確的事情,它不斷向外界傳遞“AI很危險(xiǎn)”的論調(diào)。2018年,谷歌發(fā)布《人工智能原則》,強(qiáng)調(diào)AI研發(fā)必須有益于社會(huì),反對(duì)歧視等。甚至在谷歌內(nèi)部,也始終把AI倫理歸為敏感問(wèn)題。

根據(jù)知情人士透露,早在2017年,谷歌就研發(fā)了一款對(duì)話式AIGC產(chǎn)品——LaMDA。當(dāng)時(shí)谷歌內(nèi)部評(píng)估了LaMDA的風(fēng)險(xiǎn),認(rèn)為它不時(shí)犯錯(cuò),會(huì)誤導(dǎo)用戶,讓用戶對(duì)谷歌產(chǎn)生不信任感。而谷歌的主業(yè)之一搜索引擎的宗旨就是致力于幫助用戶找到正確答案,AIGC被認(rèn)為有可能動(dòng)搖公司的根基。對(duì)于大公司而言,存在這樣的顧慮也是正常的。因?yàn)榇蠊緯?huì)害怕產(chǎn)品不完善,會(huì)犯錯(cuò)。

而ChatGPT的橫空出世,直接拉高了門檻,給予了用戶一個(gè)較高的標(biāo)準(zhǔn)。當(dāng)然,這并不意味著ChatGPT就是完美的,它也會(huì)給出很多錯(cuò)誤,甚至是離譜的答案。但作為一家非上市的初創(chuàng)企業(yè),OpenAI顯然不會(huì)像谷歌一樣的瞻前顧后。他們大膽的將一個(gè)全新的產(chǎn)品推給了公眾,由此把握住了先機(jī)。    

而相比于保守,谷歌在技術(shù)上的遲鈍就不可理解了。據(jù)了解,谷歌和OpenAI都使用了模仿人類神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)技術(shù),但路線上略有區(qū)別。谷歌采用監(jiān)督式學(xué)習(xí)模型,OpenAI采用預(yù)訓(xùn)練模型;谷歌更強(qiáng)調(diào)干預(yù),而OpenAI先讓ChatGPT自主學(xué)習(xí),隨后再引入人工標(biāo)注語(yǔ)料進(jìn)行訓(xùn)練和引導(dǎo)。這更像一場(chǎng)在黑暗中進(jìn)行的軍備競(jìng)賽。直到2018年,馬斯克還認(rèn)為谷歌領(lǐng)先于OpenAI。但一切都在潛移默化中發(fā)生了變化。除此之外,谷歌還陸續(xù)失去了這場(chǎng)軍備競(jìng)賽中最重要的資產(chǎn):人才。隨著科技巨頭間AI軍備競(jìng)賽的大幕徐徐拉開(kāi),已至少有13位人工智能領(lǐng)域明星級(jí)人才離開(kāi)了谷歌,其中包括預(yù)訓(xùn)練語(yǔ)言模型的負(fù)責(zé)人Jacob Devlin,而他最后選擇加入了OpenAI。

不過(guò),10年的時(shí)間既漫長(zhǎng),又短暫。畢竟,對(duì)于AI賽道的競(jìng)爭(zhēng)是一場(chǎng)毋庸置疑的持久戰(zhàn)。谷歌是會(huì)就此隕落,還是會(huì)在未來(lái)的某個(gè)契機(jī)上實(shí)現(xiàn)彎道超車?我們拭目以待。

       原文標(biāo)題 : 新火種AI|谷歌AI竟然教唆網(wǎng)友自殺?被質(zhì)疑,被批評(píng)的谷歌AI究竟路在何方?

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)