也來談談人工智能的罪與罰
也許彼時,我們就是另一個“自然”
會議中,馬斯克顯然并不試圖讓這番“人工智能威脅論”顯得太過激進,也并沒有像普通大眾那樣,抱怨AI監(jiān)管“令人厭煩”,而是嚴肅地指出“讓AI無拘無束發(fā)展的風險太高”。
與馬克·扎克伯格所持的人工智能“和諧論”不同,多年以來,馬斯克始終在持續(xù)拉響AI警鐘。2014年,他將人工智能開發(fā)人員比作“自認為能控制所召喚惡魔”的人類。2015年,他簽署了一份關于AI軍備競賽的預警信。為了防止AI被一家公司控制,他甚至投資了一個旨在促進AI開源的項目。
然而,硅谷的一些領袖并不贊成他的想法,包括谷歌聯(lián)合創(chuàng)始人拉里·佩奇在內(nèi),都將AI描述為一種人類可借力的好工具。外媒評論指出,馬斯克的言論頂多是一種營銷戰(zhàn)略,“他對品牌宣傳的興趣比拯救世界大得多”。部分參會政客仍在懷疑發(fā)展中的AI是否具備管理能力,但馬斯克建議,美國政府第一步應“洞察”當前研究的實際情況,“一旦意識到了現(xiàn)狀,人們就會明白恐懼的含義”。
拋開態(tài)度不一的言論,縱觀現(xiàn)實,大自然耗費百億年孕育出智慧生命,在輝煌顯世了數(shù)千年后,模仿自然的手筆,人類只需短短數(shù)十年便能造出與自身不相上下的人工智能AI,堪稱奇跡。也許,自誕生之日起,人類存在于世間的唯一籌碼便是智慧。唯有用全部的智慧與機械交換,科學家理想中的AI才會成為現(xiàn)實。
倘若我們依然對控制權存有疑惑,想要獲得文明的安全感,那不妨捫心自問:自然成功“控制”了人類嗎?當然沒有!因為在人類文明中,自然是背景、是環(huán)境、是賴以生存的物質(zhì)資料的來源,是本質(zhì)不同的存在。那么,在人工智能的問題上是否同理,人類對未來可能產(chǎn)生的“覺醒AI”能夠“完全控制”嗎?
也許彼時,AI眼中,我們就是另一個“自然”!
3.怕或不怕 人工智能就在那里
自阿爾法狗橫掃棋壇后,關于人工智能是福是禍的“口水戰(zhàn)”就沒停過。隨著人工智能技術的日新月異,相關爭議不但沒有平息,反而日漸升級。這不,連臉書網(wǎng)創(chuàng)始人扎克伯格與特斯拉掌門人馬斯克,都因為它互懟起來了。
日前,先是馬斯克再次提出人工智能對人類文明是一個“可怕的問題和威脅”。而后,這一觀點遭到扎克伯格反駁,后者明確表示對人工智能持樂觀態(tài)度。然后,兩天后馬斯克又懟回去了,說扎克伯格對人工智能理解“有限”。
扎克伯格和馬斯克都是當今科技界引領潮流的人物。他們執(zhí)掌的公司都涉及人工智能業(yè)務,二人卻對它持截然相反的態(tài)度,而且因此公開吵起來。只能說明,這確實是人工智能發(fā)展繞不過去的問題。
到底該對人工智能持樂觀態(tài)度,還是悲觀態(tài)度?梳理兩種觀點,會發(fā)現(xiàn)如下規(guī)律!皹酚^派”更多關注當下,他們認為人工智能為社會帶來眾多好處,沒必要對它過于恐慌。讓“悲觀派”感到焦慮的是未來。他們擔心未來人工智能會帶來失業(yè),引發(fā)戰(zhàn)爭,甚至導致人類終結。
平心而論,兩種說法都有道理。一方面,誰也無法否認,現(xiàn)階段人工智能為人類帶來的實惠;另一方面,誰也無法斷定,數(shù)百年后人工智能會發(fā)展成什么樣。但毋庸置疑的是,無論你樂觀還是悲觀,人工智能時代已經(jīng)到來,這一趨勢無法改變。
作為一門技術,人工智能本身是中性的。它既可以用來為人類造福,也可能給人類帶來困擾。正如互聯(lián)網(wǎng)既可以用來社交、購物,也可以用來散播勒索病毒。所以,與其盲目樂觀,或盲目悲觀,倒不如理性對待人工智能。
既然它具有革新性,那就充分挖掘其潛能,讓社會生活更加便捷。要想避免它誤入歧途,那就及時制定法律法規(guī)和行業(yè)標準,為它營造更好的發(fā)展環(huán)境。如果擔心它搶飯碗,那就提供更好的社會保障,讓失業(yè)的人重歸工作。至于千百年以后的事,既然無法預測,而未來又始于現(xiàn)在,只能先把當下做好。
兩位在科技界舉足輕重的巨擘,為人工智能是否會帶來災難而大打嘴仗之后,不妨想想做點什么,才能保證人工智能的光明未來。
作為一名人工智能研究員,我常常會想到人類對人工智能的恐懼。
然而,目前我也很難想象我開發(fā)出來的計算機怎么樣才能成為未來世界的怪物。有時就會像奧本海默在帶頭建造世界上第一顆核彈之后哀嘆的那樣,我會想我是否也會成為“世界的毀滅者”?
我想,我會在歷史上留名,但確是臭名昭著。那作為一名人工智能科學家,我在擔心什么呢?
對未知的恐懼
由科幻小說作家Arthur Clarke設想并最后由電影導演Stanley Kubrick制成的計算機HAL 9000就是一個很好的例子。在很多復雜的系統(tǒng)里,例如泰坦尼克號、美國航空航天局的航天飛機、切爾諾貝利核電站,工程師們把許多不同的組件放在一起。設計師們可能非常清楚每個單獨的元素是如何工作的,但是當這些元素連接在一起時,他們就無法知之甚透,就會產(chǎn)生意外的后果。
所以不能完全了解的系統(tǒng),往往會不受控制并出現(xiàn)意外的后果。一艘輪船的沉沒,兩架航天飛機的爆炸,遍布歐亞大陸的放射性污染,在每一場災難都是一系列小差錯導致的大災難。
而在我看來,目前人工智能也落入了同樣的境地之中。我們從認知科學中學習最新的研究結果,然后將其轉(zhuǎn)化為一種程序算法并添加到現(xiàn)有的系統(tǒng)中。我們在還不了解智能認知的情況下,便開始對人工智能進行改造。
例如IBM的沃森和谷歌的Alpha系統(tǒng),我們將強大的計算機能力和人造神經(jīng)系統(tǒng)結合在一起,幫助他們?nèi)〉昧艘幌盗辛钊梭@嘆的成就。如果這些機器出了差錯,可能出現(xiàn)的結果是沃森不會喊“危險”了或者Alpha不能打敗圍棋大師了,但是這些錯誤都不是致命的。
然而,隨著人工智能的設計變得更加復雜,電腦處理器變得更快,它們的技能也會得到提升。出現(xiàn)意外的風險也在增加,我們的責任也更重。我們經(jīng)常說“人無完人”,那么我們創(chuàng)造的系統(tǒng)也肯定存在缺陷。
對濫用的恐懼
目前我正在應用“神經(jīng)進化法”來開發(fā)人工智能,在可能引發(fā)的意外后果這一方面,我并不十分擔心。我創(chuàng)造虛擬環(huán)境,開發(fā)數(shù)字生物從而使他們的大腦可以解決日益復雜的任務。我們會評估這些智能生物的表現(xiàn),表現(xiàn)最好的會被挑選出來再次生產(chǎn)并研發(fā)下一代。這樣,經(jīng)過幾代的進化,這些機器生物已經(jīng)逐漸演變出了認知能力。
現(xiàn)在,我們正在給這些機器生物設定一些非常簡但的任務,比如他們可以做簡單的導航任務,做一些簡單的決定等,但很快我們就會設計出能夠執(zhí)行更復雜任務更智能的機器,最終,我們希望可以達到人類的智力水平。
在這個過程中,我們會發(fā)現(xiàn)問題并解決問題。每一代機器都能更好地處理前幾代機器曾經(jīng)出現(xiàn)的問題。這幫助我們可以減少在未來他們真正進入世界時出現(xiàn)意外結果的概率。
此外,這種"代代相傳“的改良方法還可以幫助我們發(fā)展人工智能的倫理道德。最終我們想要演變出是有可信賴性及利他主義這樣人類道德的人工智能。我們可以設置一個虛擬環(huán)境,給那些表現(xiàn)出友善、誠實和同理心的機器獎勵?赡苓@也是一種確保我們研發(fā)的是更聽話的仆人或值得信賴的伙伴的方法。同時也可以減少出現(xiàn)冷酷殺手機器人的幾率。
雖然這種“神經(jīng)進化法”可能降低出現(xiàn)不可控結果的可能性,但它并不能防止濫用。但這是一個道德問題,而不是科學問題。作為一名科學家,我有說出真相的義務,我需要報告我在實驗中發(fā)現(xiàn)的東西,不管這種結果我想不想說。我的重點不是決定我想要什么,而是將結果展示出來。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?