訂閱
糾錯(cuò)
加入自媒體

汽車人工智能不如七個(gè)月的孩子聰明?

如何改進(jìn)自動(dòng)駕駛汽車的智能性。

編譯 | 豆豆

編輯 | G3007

7個(gè)月大以后,多數(shù)孩子都已經(jīng)學(xué)會(huì)了移出視線的物體仍然存在。把玩具放在毯子下面,孩子會(huì)知道玩具還在那里,并且可以伸手把它從毯子下面取回來。這種對(duì)于“物體永久性”的理解是常見的發(fā)展里程碑,也是基本的現(xiàn)實(shí)原則。

但這也是自動(dòng)駕駛汽車所不具備的,這會(huì)是一個(gè)問題。自動(dòng)汽車越來越好,但它們理解世界的方式仍然與人類不同。在自動(dòng)駕駛汽車看來,被經(jīng)過的貨車暫時(shí)擋住的自行車已不再存在。

對(duì)于現(xiàn)在廣泛存在的僭取了稍有誤導(dǎo)性的人工智能稱號(hào)的計(jì)算原則來講,這種失敗是基礎(chǔ)性的。目前人工智能通過建造世界的復(fù)雜統(tǒng)計(jì)模型來工作,但是其缺乏對(duì)于現(xiàn)實(shí)的更深層理解。對(duì)于如何能夠給人工智能賦予一定程度的理解能力(也許是與7個(gè)月大孩子一樣的推理能力),人們正在積極開展研究。

現(xiàn)代人工智能基于機(jī)器學(xué)習(xí)的理念。如果工程師想要計(jì)算機(jī)認(rèn)識(shí)停車標(biāo)識(shí),他不需要費(fèi)力寫出上千行代碼,以表述有可能指示該標(biāo)識(shí)的每種像素模式。他會(huì)寫一個(gè)能夠自己學(xué)習(xí)的程序,然后給它看成千上萬張停車標(biāo)識(shí)的圖片。重復(fù)多次以后,該程序會(huì)逐漸了解這些圖片的共同特點(diǎn)是什么。

人們也在使用類似的技巧來訓(xùn)練自動(dòng)駕駛汽車在交通中的操作。這樣,汽車就能夠?qū)W習(xí)如何按交通標(biāo)線行駛,躲避其他汽車,遇到紅燈踩剎車,等等。但對(duì)于人類司機(jī)認(rèn)為理所當(dāng)?shù)暮芏嗍虑?它們并不理解。例如,不理解其他上路的汽車有發(fā)動(dòng)機(jī)和四個(gè)輪子,不理解它們(通常)會(huì)遵守交通規(guī)則、(永遠(yuǎn))會(huì)遵守物理定律,也不理解物體永久性。

瑞典Orebro大學(xué)的Melhul Bhatt是CoDesign Lab公司的創(chuàng)始人,他通過該公司按照自己的想法進(jìn)行商業(yè)開發(fā)。他最近在“人工智能”雜志發(fā)表了一篇文章,描述了另外一種方法。他和同事們獲取了一些在自動(dòng)駕駛汽車中使用的已有人工智能程序,在上面注入了名叫符號(hào)推理引擎的軟件。

心有其理

與機(jī)器學(xué)習(xí)那樣通過概率來接觸世界不同,該軟件將基礎(chǔ)物理概念應(yīng)用在自動(dòng)駕駛汽車傳感器信號(hào)處置程序的輸出結(jié)果中。這種修正后的結(jié)果將被輸入駕駛汽車的軟件中。相關(guān)概念涉及的相關(guān)理念包括:分離的物體持續(xù)存在;它們彼此間有“在前面”和“在后面”這樣的空間關(guān)系;它們可能完全可見、部分可見或徹底被另一物體遮擋。

這種方法很管用。在測(cè)試中,如果一輛車暫時(shí)地被另一輛車擋住,該推理強(qiáng)化軟件將跟蹤這輛被擋住的車,預(yù)測(cè)它將于何處、何時(shí)再次出現(xiàn),有必要的話會(huì)想辦法躲避。這種改進(jìn)并不算大。在一般測(cè)試中,Bhatt博士的系統(tǒng)已有軟件的得分高約5%。但這證明該原則成立。此外還有其他收獲。例如,與機(jī)器學(xué)習(xí)算法不同,推理引擎能夠告訴你它做事情的原因。

例如,你可以問一輛裝有推理引擎的車為什么踩剎車,它將能夠告訴你,它認(rèn)為一輛被貨車擋住的自行車將進(jìn)入前方路口。機(jī)器學(xué)習(xí)程序做不到這一點(diǎn)。除了能夠幫助改進(jìn)程序設(shè)計(jì),Bhatt博士認(rèn)為這樣的信息將對(duì)監(jiān)管者和保險(xiǎn)公司有幫助。這也將能夠加快公眾對(duì)與自動(dòng)駕駛汽車的接受速度。

Bhatt博士的工作處于人工智能領(lǐng)域長期存在的爭論之中。1950年代,早期人工智能研究者曾利用這種前期植入的推理程序取得一定成功。但從1990年代起,隨著編程技術(shù)的增強(qiáng),更強(qiáng)大計(jì)算機(jī)及更多可用數(shù)據(jù)的涌現(xiàn),機(jī)器學(xué)習(xí)發(fā)生了顯著改進(jìn)。今天,幾乎所有的人工智能都是基于機(jī)器學(xué)習(xí)。

并非只有Bhatt博士對(duì)此產(chǎn)生疑問。紐約大學(xué)研究心理學(xué)和神經(jīng)學(xué)的Gary Marcus也有同感,他也是一家名叫Robust.AI的人工智能和機(jī)器人公司的老板。為了支持自己的觀點(diǎn),Marcus博士引用了8年前的一個(gè)廣受關(guān)注的報(bào)告。那時(shí)DeepMind公司(當(dāng)時(shí)是獨(dú)立公司,現(xiàn)在已被收入Google旗下)的工程師編寫了一個(gè)程序,能夠在不了解任何規(guī)則的前提下學(xué)會(huì)玩Breakout視頻游戲,即用虛擬球拍擊打移動(dòng)的虛擬球。

DeepMind成為了一個(gè)很棒的玩家。但當(dāng)另一組研究者改動(dòng)Breakout游戲的代碼時(shí),即便是只把球拍的位置移動(dòng)幾個(gè)像素,DeepMind的能力都會(huì)大幅下降。即便是在稍有不同的情境下,它都無法將特定情境下學(xué)到的東西進(jìn)行廣泛應(yīng)用。

回到未來

對(duì)于Marcus博士,這個(gè)例子突出了機(jī)器學(xué)習(xí)的脆弱性。但也有人認(rèn)為,符號(hào)推理才是脆弱的那個(gè),機(jī)器學(xué)習(xí)的前景還很大。自動(dòng)駕駛汽車公司W(wǎng)ayve的科技副總裁Jeff Hawke就是持這種觀念的人之一。Wayve采取的方法是通過同時(shí)驅(qū)動(dòng)汽車不同部件來訓(xùn)練軟件,而不是分開來做。在演示中,Wayve的汽車在狹窄、擁堵的倫敦街頭行駛時(shí)判斷準(zhǔn)確,這即使是對(duì)于很多人來說都很挑戰(zhàn)。

Hawke博士指出:“眾所周知,無論設(shè)想的正式邏輯有多周到、結(jié)構(gòu)有多合理,專家通過規(guī)則建造的系統(tǒng)的復(fù)雜性一般都不夠。多數(shù)真實(shí)世界任務(wù)的復(fù)雜性都比使用編制規(guī)則所能解決的要大。”例如,這樣的系統(tǒng)可能會(huì)制定汽車遇紅燈應(yīng)該停的規(guī)則。但不同國家信號(hào)燈的設(shè)計(jì)不同,有些燈是給行人而不是車輛的。還有時(shí)候,你可能需要闖紅燈來給救火車讓道!皺C(jī)器學(xué)習(xí)的美妙之處”,Hawke博士說,“就是所有這些因素和概念,都能夠通過數(shù)據(jù)自動(dòng)發(fā)現(xiàn)和學(xué)習(xí)。數(shù)據(jù)越多,它通過學(xué)習(xí)就能夠變得越智能。”

加州大學(xué)伯克利分校的機(jī)器人和人工智能研究者Nicholas Rhinehart也支持機(jī)器學(xué)習(xí)。他指出,Bhatt博士的方式實(shí)際上顯示可以將兩種方法結(jié)合起來。但他對(duì)于其必要性并不確定。在他和其他一些人的研究中,機(jī)器學(xué)習(xí)系統(tǒng)本身就已經(jīng)能夠預(yù)測(cè)未來幾秒鐘的可能性(例如另一輛車是否會(huì)避讓),并按照這些預(yù)測(cè)來制定應(yīng)急計(jì)劃。

Bhatt博士則回應(yīng),你可能用數(shù)百萬公里駕駛積累的數(shù)據(jù)訓(xùn)練汽車后,仍無法確認(rèn)已經(jīng)把所有可能情境都覆蓋了。在很多情況下,從一開始就把一些規(guī)則編入程序中可能更簡單,更有效。

對(duì)于這兩種策略的擁護(hù)者,這個(gè)問題不僅局限于自動(dòng)駕駛汽車,而是涉及人工智能本身的未來!拔艺J(rèn)為我們目前采取的方式不對(duì)”,Marcus博士說,“機(jī)器學(xué)習(xí)對(duì)于語音識(shí)別等已經(jīng)被證實(shí)有效,但其實(shí)際上并不是人工智能的答案。我們?nèi)匀粵]有真正破解智能問題。”無論如何,看來7個(gè)月大的孩子仍然有很多東西可以教給機(jī)器。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)