13名OpenAI與谷歌員工聯(lián)合發(fā)聲:AI失控可能導(dǎo)致人類滅絕...
作者:小巖
編輯:彩云
2024年,OpenAI的CEO Sam Altman就沒(méi)有清閑過(guò),他似乎一直走在解決麻煩的路上。最近,他的麻煩又來(lái)了。
當(dāng)?shù)貢r(shí)間6月4日,13位來(lái)自O(shè)penAI和Google Deep Mind的現(xiàn)任及前任員工聯(lián)合發(fā)布了一封公開信,引發(fā)了外界的廣泛關(guān)注。這些員工在信中表達(dá)了對(duì)人工智能技術(shù)潛在風(fēng)險(xiǎn)的嚴(yán)重?fù)?dān)憂,并呼吁相關(guān)公司采取更加透明,更加負(fù)責(zé)任的措施來(lái)應(yīng)對(duì)這些風(fēng)險(xiǎn)。
不夸張的說(shuō),這一次,OpenAI和谷歌是被討伐了。
多位知名人士聯(lián)合背書,就連AI教父也為其站臺(tái)。
這封由13名OpenAI和谷歌Deep Mind現(xiàn)任及前任員工聯(lián)合發(fā)出的公開信,一方面揭發(fā)了OpenAI的魯莽和保密文化;另一方面還強(qiáng)調(diào)了前沿AI技術(shù)的嚴(yán)峻風(fēng)險(xiǎn),表達(dá)了對(duì)AI公司在開發(fā)和推廣AI技術(shù)時(shí)利益優(yōu)先,打壓異見者以及規(guī)避監(jiān)管等種種行徑的擔(dān)憂。
信中指出,盡管AI技術(shù)可能會(huì)給人類帶來(lái)巨大益處,但其帶來(lái)的風(fēng)險(xiǎn)同樣不容忽視,包括加劇社會(huì)不平等,操縱和虛假信息傳播,以及自主AI系統(tǒng)失控可能導(dǎo)致的人類滅絕等。這些風(fēng)險(xiǎn)絕非空穴來(lái)風(fēng),不僅得到了人工智能公司本身的確認(rèn),也得到了世界各國(guó)政府和其他AI專家的認(rèn)可。
公開信簽署者們表示,他們希望在科學(xué)界,政策制定者和公眾的指導(dǎo)下,能夠充分緩解這些風(fēng)險(xiǎn)。他們出現(xiàn)了很強(qiáng)的憂患意思,他們擔(dān)心,人工智能公司出于強(qiáng)烈的經(jīng)濟(jì)動(dòng)機(jī),可能會(huì)避免接受有效的監(jiān)督,可僅靠現(xiàn)有的公司治理結(jié)構(gòu),完全不足以解決這一問(wèn)題。
信中還提到,由于嚴(yán)格的保密協(xié)議,員工們?cè)诒磉_(dá)對(duì)AI風(fēng)險(xiǎn)的擔(dān)憂時(shí),還要面臨著種種限制,目前對(duì)于舉報(bào)人的保護(hù)措施也存在著嚴(yán)重不足,很多員工擔(dān)心因?yàn)樘岢雠u(píng)而遭遇報(bào)復(fù)。
值得一提的是,這封信獲得了多位知名人士的聯(lián)名背書,這其中就有被譽(yù)為“人工智能教父”的Geoffrey Hinton,還有因開創(chuàng)性AI研究獲得圖靈獎(jiǎng)的Yoshua Bengio,AI安全領(lǐng)域的學(xué)者Stuart Russell。
公開信署名人員的訴求和初心:要實(shí)驗(yàn)室對(duì)透明度做出更廣泛的承諾。
那么,在公開信上署名的這些人,他的心聲是什么呢?
OpenAI 的前員工Daniel Kokotajlo正是聯(lián)名信公開署名人員中的一位,他曾在社交平臺(tái)發(fā)文提到,“我們之中,一些最近從 OpenAI 辭職的人聚集在一起,要求實(shí)驗(yàn)室對(duì)透明度作出更廣泛的承諾。”
資料顯示,Daniel剛剛從OpenAI 辭職,其中很重要的一個(gè)原因在他對(duì)OpenAI在構(gòu)建通用人工智能方面未采取負(fù)責(zé)任的行為表示失望,并且失去了信心。在Daniel看來(lái),AI系統(tǒng)不是普通的軟件,它們是從大量數(shù)據(jù)中學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)。盡管目前關(guān)于可解釋性,對(duì)齊和控制的科學(xué)文獻(xiàn)正在迅速增多,但這些領(lǐng)域仍處于起步階段。如果不小心,可能會(huì)在一段時(shí)間內(nèi)造成災(zāi)難性后果。Daniel曾對(duì)公司提出,他希望其在AI功能越做越強(qiáng)大的同時(shí),也能夠在安全研究方面投入更多資金,但OpenAI并未做出相應(yīng)的調(diào)整,這導(dǎo)致多名員工相繼辭職。
在Daniel看來(lái),OpenAI等實(shí)驗(yàn)室構(gòu)建的系統(tǒng)的確可以給人類社會(huì)帶來(lái)巨大的好處,但如果不謹(jǐn)慎處理,很可能帶來(lái)災(zāi)難性的后果。更可怕的是,當(dāng)前的AI技術(shù)幾乎沒(méi)有被有效監(jiān)管,主要是依靠公司在進(jìn)行自我監(jiān)管,而這種方式存在巨大的風(fēng)險(xiǎn)。
Daniel還透露,離職時(shí)他被要求簽署一份“封口協(xié)議”,其中包含一項(xiàng)不貶損條款,禁止他發(fā)表任何批評(píng)公司的話,否則將失去已歸屬的股權(quán)。然而,他在深思熟慮后,依舊決定放棄簽署協(xié)議。
無(wú)獨(dú)有偶,今年4月,Leopold Aschenbrenner也離開了OpenAI,與Daniel不同的事,他不是主動(dòng)辭職,而是被OpenAI以泄露公司機(jī)密為由開除的。
Aschenbrenner曾是OpenAI前超級(jí)對(duì)齊部門成員。據(jù)知情人士透露,他被開除的真實(shí)原因是他給幾位董事會(huì)成員分享了一份OpenAI安全備忘錄,結(jié)果招致OpenAI高層的不滿。據(jù)說(shuō),OpenAI當(dāng)時(shí)很清楚地告訴他,開除他的主要原因就是因?yàn)檫@份備忘錄。
在此之后,Aschenbrenner上線了一個(gè)網(wǎng)站,用165頁(yè)P(yáng)DF文件匯總了他在OpenAI工作期間所了解的信息,這份文件被看作是“硅谷最激進(jìn)的AI研究人員提出的一份未來(lái)10年AI發(fā)展的綱領(lǐng)性文件”。Aschenbrenner認(rèn)為,目前深度學(xué)習(xí)還沒(méi)有遇到瓶頸,到2030年左右,AGI很有可能會(huì)發(fā)展出全面超越人類的超級(jí)人工智能。對(duì)此,人類似乎還沒(méi)有做好準(zhǔn)備。AI所帶來(lái)的,也絕不僅僅是多數(shù)專家所認(rèn)為的“另一場(chǎng)互聯(lián)網(wǎng)規(guī)模的技術(shù)變革”。
安全主管辭職,超級(jí)對(duì)齊團(tuán)隊(duì)解散,多名骨干成員正在“背叛”OpenAI...
事實(shí)上,從OpenAI離職的遠(yuǎn)不止以上兩位,很多掌握著核心部門的大佬都相繼離開了OpenAI。
其中,最具代表性的當(dāng)屬OpenAI原首席科學(xué)家Ilya Sutskever,以及前安全主管,超級(jí)對(duì)齊團(tuán)隊(duì)負(fù)責(zé)人Jan Leike。
與Aschenbrenner和Deniel一樣,Leike在離職后公開批評(píng)了OpenAI的管理層,指責(zé)其追求華而不實(shí)的產(chǎn)品,卻忽視了AGI本身存的安全問(wèn)題。他表示,在過(guò)去的幾個(gè)月里,超級(jí)對(duì)齊團(tuán)隊(duì)一直都是逆風(fēng)航行,在提升模型安全性的道路上受到公司內(nèi)部的重重阻礙。
Ilya則在OpenAI的宮斗事件之后一直保持沉默,即便到了最后官宣離職的時(shí)候,也沒(méi)過(guò)多的闡述自己的立場(chǎng)和觀點(diǎn)。不過(guò),Ilya曾在先前的一段視頻中提到,一旦AGI徹底實(shí)現(xiàn),AI未必會(huì)仇恨人類,但他們對(duì)待人類的方式可能會(huì)像人類對(duì)待動(dòng)物一樣:人可能無(wú)意傷害動(dòng)物,但如果你想修一條城際高速,你不會(huì)征詢動(dòng)物的意見,而是直接去做。當(dāng)面臨這種情況時(shí),AI 可能也會(huì)自然而然地做出類似的選擇。
去年11月OpenAI爆發(fā)宮斗事件,借著宮斗事件的最終走向,我們可以大致看出OpenAl內(nèi)部存在的大模型安全性問(wèn)題,以及分化日趨明顯的兩大陣營(yíng)。一方陣營(yíng)是以Sam Altman為代表的“發(fā)展派”;另一方,則是以Ilya為代表的“安全派”。兩方斗法,如今來(lái)看,結(jié)局很明顯:以Ilya為代表的的安全派基本喪失了話語(yǔ)權(quán),就連昔日備受矚目的超級(jí)對(duì)齊團(tuán)隊(duì)也被連根拔起。
在這種情況下,未來(lái)的一切都成了未知數(shù)。我們無(wú)法預(yù)判Sam Altman所代表的激進(jìn)發(fā)展派是否會(huì)一路長(zhǎng)虹的前進(jìn)。如果事實(shí)真是這樣,未來(lái)人類該如何平衡與生成式AI之間的關(guān)系,也會(huì)成為巨大的未知數(shù)。
原文標(biāo)題 : 新火種AI|攤上事兒了!13名OpenAI與谷歌員工聯(lián)合發(fā)聲:AI失控可能導(dǎo)致人類滅絕...

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會(huì)
-
4月30日立即下載>> 【村田汽車】汽車E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線下巡回】2025年STM32峰會(huì)
-
即日-5.15立即報(bào)名>>> 【在線會(huì)議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評(píng) >> 【評(píng)選啟動(dòng)】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評(píng)選
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺(tái)
- 5 國(guó)產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來(lái)商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽(yáng)光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長(zhǎng)空間
- 8 地平線自動(dòng)駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營(yíng)收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?