人工智能的虛火燒出一地尸骨
4
人工智能的概念滿天飛,除了暗下以“人工”代替“人工智能”的造假,還有大量把數(shù)據(jù)分析當(dāng)做人工智能的公司滿天飛。這些公司一般的演變路徑是:小數(shù)據(jù)分析公司——大數(shù)據(jù)公司——人工智能公司,實(shí)際上他們除了名稱在演變外,實(shí)際上的工作幾乎沒有發(fā)生變化。
很多人錯(cuò)誤地認(rèn)為,一家公司的業(yè)務(wù)只要與數(shù)據(jù)有關(guān),就可以被稱為人工智能。其實(shí)區(qū)別人工智能公司和一般數(shù)據(jù)分析公司的關(guān)鍵在于:人工智能系統(tǒng)具有迭代性,分析的數(shù)據(jù)越多,系統(tǒng)就會(huì)變得越智能。比如,Google大力研發(fā)的自動(dòng)駕駛系統(tǒng)是人工智能,因?yàn)樗梢愿鶕?jù)車輛在路上的行駛里程來不斷完善自己。但如果只是根據(jù)數(shù)據(jù)來分析什么時(shí)候送外賣最好,就不是人工智能。因?yàn)榍罢邥?huì)迭代和自我學(xué)習(xí),而后者不會(huì)。
一般而言,一個(gè)人工智能項(xiàng)目如果隔三個(gè)月去看,它在算法上的進(jìn)步只是代數(shù)級(jí),而不是幾何級(jí)的,那么它更像是普通算法,就是偽人工智能。強(qiáng)的人工智能一定是進(jìn)步神速,因?yàn)樗旧頃?huì)實(shí)現(xiàn)自我進(jìn)化。
但實(shí)際上要實(shí)現(xiàn)這種自我進(jìn)化,目前看起來還顯得相當(dāng)艱難,即使目前拿最火熱的深度學(xué)習(xí)技術(shù)也讓人看不到很明顯的方向。2018年8月,在以“共享全球智慧,引領(lǐng)未來科技”為主題的世界科技創(chuàng)新論壇上,諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)獲得者Thomas J. Sargent表示:當(dāng)前的人工智能其實(shí)就是統(tǒng)計(jì)學(xué),只不過用了一個(gè)很華麗的辭藻,好多的公式都非常老。
被譽(yù)為“硅谷精神布道師”的皮埃羅·斯加魯菲(Piero Scaruffi)是全球人工智能及認(rèn)知科學(xué)專家,他也認(rèn)為:“人工智能最大的問題是沒有常識(shí),人們已經(jīng)花了幾十年去嘗試解決這個(gè)問題,可能我們的方法用錯(cuò)了。現(xiàn)在所有的重點(diǎn)都在深度學(xué)習(xí),但深度學(xué)習(xí)不能獲取常識(shí)。深度學(xué)習(xí)只是收集許許多多的數(shù)據(jù),基本上做的是統(tǒng)計(jì)工作!
5
當(dāng)然,并不是所有的公司都只是打著人工智能的旗號(hào),做著騙取資本的事情,而是實(shí)實(shí)在在在做一些推動(dòng)人工智能發(fā)展的工作。但是,一些人工智能探索的方向仍然是值得警惕的。
比如,一些人工智能似乎走向了一個(gè)不是那么正確的方向:一味追求和人很像。如果真的很像了,又能怎么樣呢?事實(shí)上,人越覺得輕而易舉的事情,機(jī)器越覺得困難,比如走路,比如平衡感,比如情感。而人覺得越難的事情,機(jī)器覺得越簡(jiǎn)單,比如大型數(shù)據(jù)處理能力,記憶等等。所以,人工智能的方向也許應(yīng)該是替代那些人覺得難的部分,而非替代人覺得容易的部分。
人工智能有兩種應(yīng)用形態(tài):一種是弱人工智能,即只擅長(zhǎng)單個(gè)領(lǐng)域,比如只會(huì)下圍棋的AlphaGo;另一種是強(qiáng)人工智能,即各方面都很強(qiáng),F(xiàn)階段,弱人工智能比人強(qiáng),強(qiáng)人工智能比人弱,且非常不成熟。
人工智能的好處,不是說他們比人聰明,而是他們的思維方式和人類不一樣,因?yàn)槿斯ぶ悄艿陌l(fā)展方向并不是強(qiáng)調(diào)它跟人類如何像,而是補(bǔ)充與增強(qiáng)人類智慧。人的思維方式只是具體的某一種思維方式,而世界上還有許多思維方式。凱文·凱利在此前的《科技想要什么》一書中,就把科技描述成生命的第七種存在方式,就像人類已經(jīng)定義的六種生命形態(tài),植物、動(dòng)物、原生生物、真菌、原細(xì)菌、真細(xì)菌一樣,科技也是一種具備自主進(jìn)化能力的生命。
另外,人工智能要真正實(shí)現(xiàn)助推人類的發(fā)展,必須還要具有跟人類情感交互的能力,否則就永遠(yuǎn)是一件機(jī)器。人和人之間互動(dòng)之所以有意義,是因?yàn)槿祟惢?dòng)的百分之七八十都是情緒。
人和人之間之所以能夠感受到相互的感情溝通和交流,是因?yàn)槲覀兇竽X有一組叫做鏡像的神經(jīng)元,它的作用就是當(dāng)對(duì)方臉上出現(xiàn)或者快樂或者悲傷或者焦慮的各種表情的時(shí)候,你的臉上下意識(shí)的就會(huì)呈現(xiàn)出同樣的表情跟他來呼應(yīng)。人工智能盡管獲得了一些發(fā)展,但是在解決情緒方面還有很大的差距。如果情緒問題沒有進(jìn)入人工智能底層,人工智能終究只是一個(gè)機(jī)器配置,無法獲得人類的交互。
因此,人工智能需要情緒鏡像的技術(shù),用攝像頭來捕捉人類的面部表情,再通過算法來理解人類的情緒,然后以情緒與人類進(jìn)行交互。
6
人工智能一定是未來的方向,這點(diǎn)毋庸置疑。但是我們短時(shí)間,切記不可期望過高,否則可能又是一地的“尸骨”。
我們不要馬上就期待看到路上不需要人工駕駛的汽車。其實(shí),我們離那個(gè)時(shí)代還很遠(yuǎn)。坦率地講,當(dāng)前的人工智能領(lǐng)域就像是一杯搖晃很久的啤酒,既有真酒,更多是存在很大的泡沫。人工智能就像早期的互聯(lián)網(wǎng)一樣,成為了圈錢的金字招牌。
曾在IBM研究院和沃森團(tuán)隊(duì)工作了15年的Michelle Zhou把人工智能分為三個(gè)階段:第一個(gè)階段是識(shí)別智能,更強(qiáng)大的計(jì)算機(jī)和更強(qiáng)大的算法,可以從大量文本中識(shí)別模式和主題;第二個(gè)階段是認(rèn)知智能機(jī)器超越模式識(shí)別,能夠從數(shù)據(jù)中做出推論;第三個(gè)階段是機(jī)器可以像人類一樣思考和行動(dòng)。
目前我們還處在第一階段,所有的人工智能都依賴人類提供數(shù)據(jù),無論是計(jì)算機(jī)視覺還是語音識(shí)別都是如此。
至少到現(xiàn)在為止,很多宣稱是人工智能的東西,也許叫做“機(jī)器自動(dòng)”會(huì)更好。智能時(shí)代還遠(yuǎn)沒有來臨。
即使那一天來臨,我們也要時(shí)刻警惕兩點(diǎn):一是因?yàn)閭(gè)別機(jī)構(gòu)或群體對(duì)人工智能的掌控,造成的整體社會(huì)權(quán)利的失衡。二是人工智能的暴力傾向。
英國(guó)哲學(xué)家羅素曾說:物理學(xué)中的基礎(chǔ)概念是能量,而社會(huì)科學(xué)中的基礎(chǔ)概念是權(quán)力,對(duì)社會(huì)動(dòng)力學(xué)規(guī)律的闡釋一定離不開權(quán)力。中世紀(jì)的社會(huì)活動(dòng)家馬基雅維利從當(dāng)時(shí)殘酷的社會(huì)現(xiàn)實(shí)出發(fā),指出權(quán)力就其本質(zhì)而言,與暴力、欺騙、殘酷和戰(zhàn)略侵犯密不可分,越能掌握這種工具的群體就會(huì)擁有越大的權(quán)力。一旦失去暴力、欺騙、殘酷和戰(zhàn)略侵犯等手段,就失去了權(quán)力存在的基礎(chǔ)。
作為未來基礎(chǔ)工具的人工智能,由于內(nèi)核只可能被極少數(shù)的群體掌握,去影響人們生活的方方面面,因而會(huì)使人類之間已然失衡的權(quán)力變得更加失衡。
另外,隨著人工智能技術(shù)的進(jìn)步,未來可能一個(gè)普通人也具有了廣泛制造暴力的能力。比如隨著面部識(shí)別、無人機(jī)導(dǎo)航等開源技術(shù)的傳播,使一些犯罪分子利用這些技術(shù)實(shí)施犯罪成為了可能。想象一下,如果一架自動(dòng)飛行的無人機(jī)具備了面部識(shí)別能力,然后針對(duì)目標(biāo)對(duì)象精準(zhǔn)發(fā)動(dòng)攻擊,世界將會(huì)如何呢?
7
盡管人類離人工智能社會(huì)還很遙遠(yuǎn),但是人工智能的發(fā)展還是帶來了一些恐懼。2018年3月,Google被披露與軍方合作,引起大量員工抗議,受到各路抨擊。作為回應(yīng),Google CEO桑達(dá)爾 · 皮查伊(Sundar Pichai)在2018年6月宣布了他們使用人工智能的七項(xiàng)原則,以及四條底線。
這七項(xiàng)原則具體內(nèi)容包括:①對(duì)社會(huì)有益;②避免制造或加劇社會(huì)偏見;③提前測(cè)試以保證安全;④由人類承擔(dān)責(zé)任,即AI技術(shù)將受到適當(dāng)?shù)娜祟愔笇?dǎo)和控制;⑤保證隱私;⑥堅(jiān)持科學(xué)的高標(biāo)準(zhǔn);⑦從主要用途、技術(shù)獨(dú)特性、規(guī)模等方面來權(quán)衡。
四條底線是:①對(duì)于那些將產(chǎn)生或者導(dǎo)致傷害的整體性技術(shù),我們會(huì)確保其利大于弊,并將做好確保安全的相關(guān)限制;②不會(huì)將AI用于制造武器及其它將會(huì)對(duì)人類產(chǎn)生傷害的產(chǎn)品;③不會(huì)將AI用于收集或使用用戶信息,以進(jìn)行違反國(guó)際公認(rèn)規(guī)范的監(jiān)視;④不會(huì)將AI用于違反國(guó)際法和人權(quán)的技術(shù)開發(fā)。
這不應(yīng)是Google一家公司的原則與底線,而是所有從事開發(fā)人工智能公司的原則與底線。只有這樣,人工智能才是造福人類的工具,而不是毀滅自己的工具。
作者 | 劉國(guó)華

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
圖片新聞
最新活動(dòng)更多
-
10月23日火熱報(bào)名中>> 2025是德科技創(chuàng)新技術(shù)峰會(huì)
-
10月23日立即報(bào)名>> Works With 開發(fā)者大會(huì)深圳站
-
10月24日立即參評(píng)>> 【評(píng)選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評(píng)選
-
11月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會(huì)
-
12月18日立即報(bào)名>> 【線下會(huì)議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會(huì)
-
精彩回顧立即查看>> 【限時(shí)福利】TE 2025國(guó)際物聯(lián)網(wǎng)展·深圳站
推薦專題