自動駕駛汽車將如何影響未來的城市生活?
道德考量
無人駕駛汽車的問題可以概括為自動駕駛汽車的道德規(guī)范。在問題的經典版本中,有一輛車沿著車道行走,駕駛員必須在保持車道和切換車道之間做出選擇。如果繼續(xù)保持在當前車道上,那么將有五人被殺。但是,如果他切換車道,則會只有一個人會被殺死。 2014年,麻省理工學院的研究人員建立了“道德機器”,以測試世界各地人們對自動駕駛汽車可能會遇到的棘手問題的態(tài)度和方法。
本質上,車輛必須選擇要撞到的東西。例如,汽車將與寵物發(fā)生相撞,是否應該轉彎而與人相撞?這類情況是為殘疾人、年老、年輕、守法的公民、罪犯、男人,婦女、健康和有病的人設立的。
該研究的主要作者Edmond Awad解釋說:“該研究基本上是在試圖理解無人駕駛汽車可能要訴諸的道德決定。我們還不知道他們應該怎么做。”如果車輛能夠識別出犯罪分子,那么它必須非常聰明才能找出適合的人以及隱私隱患,但是我們僅假設車輛可以做出這樣的區(qū)分。
四年后,研究人員得到了答案。編入無人駕駛汽車的決策可能必須取決于汽車的位置。例如,假設車輛必須在撞上老人或兒童之間做出選擇。在法國和希臘,這種文化使年輕人可以幸免。然而,在中國和日本,老年人受到更多的尊重,更受歡迎的選擇是使老年人處境更加安全。但是,對于各種選擇,文化態(tài)度并不相同。考慮到在節(jié)省旅客和行人之間可以做出選擇,日本和中國處于相反的境地。日本人想挽救乘客,而中國人想饒恕行人。
研究人員從道德引擎中學到的東西是,人們想要的可能不是最佳的道德選擇,決策者可能需要介入并確保這些工具做出與大眾期望相反的決定。例如,世界上大多數(shù)人都認為,將地位高的人的安全放在地位低的人的安全上是可以接受的。
現(xiàn)在的事情是,當車輛被編程為以某種方式起作用時,它將在每次具有相同選擇的情況下都選擇該選項。例如,可以對車輛進行編程以使一個8歲的孩子免于受傷,并撞到一個80歲的男人,F(xiàn)在,每次得到選擇時,它都會做同樣的事情,乘客無權干預此決定,制造商已經做出了道德選擇。
在法國的中國乘客上車時可能會面臨道德難題。乘客可能會更加猶豫,因為他們知道與行人相比,自己的生活將受到較低的重視。一種建議是,如果出現(xiàn)這種情況,則將控制權提供給駕駛員。但是,有研究表明,大多數(shù)人根本無法做出足夠迅速的反應來做出這樣的決定,因此這不是可行的方法。所有這些考慮都引出了一個問題,人類是否愿意讓計算機做出生死攸關的決定?
但是,考慮到自動駕駛汽車的實際工作方式,決策可能不會那么簡單,而只是做出選擇并繼續(xù)前進。決策過程是連續(xù)的,就像從所有傳感器了解周圍環(huán)境和車輛當前狀態(tài)的過程一樣。在自動駕駛汽車的計算機大腦中,權重賦予了某些概率,并根據(jù)這些概率采取后續(xù)行動。
例如,看似純白色的表面可以解釋為霧墻,實際上可能是水泥墻或卡車的后部。對功能性質進行的任何判斷都可能隨時隨地更改。這通知了車輛做出的決定。因此,將道德考慮因素真正納入自動駕駛汽車的編程是一項非常細微的工作。車輛可能不得不在沒有完整的周圍環(huán)境信息的情況下做出決定,這受到車載傳感系統(tǒng)的限制。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?