AI成戰(zhàn)場新寵,潘多拉的盒子已經(jīng)打開?
AI武器,只是隨著歷史的潮流,發(fā)展到如今的危險一步。
AI會殺人嗎?
答案是肯定的。
本月,俄羅斯媒體衛(wèi)星通訊社揭露了第一例記錄在案的AI無人機(jī)殺人案例。
在利比亞首都郊外,一只國民軍武裝小隊(duì)正按照計(jì)劃撤退。
突然,一架無人機(jī)出現(xiàn)在小隊(duì)上空,在一陣機(jī)槍掃射過后,一名武裝人員倒在血泊中。
事后,聯(lián)合國安理會利比亞問題專家小組調(diào)查發(fā)現(xiàn),這臺由土耳其STM公司生產(chǎn)的“卡古-2”(kargu)型無人攻擊機(jī)并沒有后臺人員去操控,完全是憑著預(yù)先編程好的程序進(jìn)行跟蹤并攻擊。
也就是說,當(dāng)時這架“卡古-2”無人機(jī)是在沒有人為命令的情況下擅自作主將人殺死。
AI成戰(zhàn)場新寵
這一類與“卡古-2“無人機(jī)相似、具備自主攻擊能力的軍用設(shè)備都屬于致命性自主武器系統(tǒng)(LAWS),俗稱“殺人機(jī)器人”。
它們可以在自動模式下完成許多操作:按照設(shè)定的參數(shù)發(fā)現(xiàn)和識別目標(biāo)、跟蹤目標(biāo)、武器引導(dǎo),在完成軍事任務(wù)的同時,減少己方人員和平民的傷亡。
作為新型作戰(zhàn)力量的代表,致命性自主武器正受到越來越多國家的重視。
早在上世紀(jì)80年代,美國軍方就成立了人工智能中心,專門從事人工智能軍事應(yīng)用方面的研究,希望在未來用機(jī)器人士兵代替?zhèn)鹘y(tǒng)士兵。
截至目前,美國、法國、俄羅斯、日本、英國、土耳其、伊朗、韓國等國紛紛加大了對致命性自主武器系統(tǒng)的研發(fā)和采購力度,已經(jīng)公開的自治武器和軍事機(jī)器人系統(tǒng)就多達(dá)近400種。
相比于人類士兵,機(jī)器人士兵的優(yōu)點(diǎn)很明顯:
隨著AI能力的提升,自主武器可以替代人類士兵執(zhí)行高難度和高風(fēng)險任務(wù),最大限度地避免己方人員傷亡;
提高目標(biāo)判斷的準(zhǔn)確性和打擊精度,減少平民傷亡和其他附帶損傷;
通過自主識別和智能分析等技術(shù),可以避免由于控制者精神不集中、目標(biāo)誤判等人為失誤引起的誤傷。
在今年五月初的巴以沖突里,AI技術(shù)已經(jīng)在信息戰(zhàn)方面嶄露頭角。
據(jù)報道,以色列國防軍利用煉金術(shù)士(Alchemist)、福音(Gospel)以及深智(Depth of Wisdom)三大AI系統(tǒng),共計(jì)殺死了150多名哈馬斯特工,其中包括高級指揮官和導(dǎo)彈等軍事項(xiàng)目研發(fā)人員,并且大大降低了平民的誤傷率。
對于這一次戰(zhàn)斗,以色列定義為“世界上第一場人工智能參與的戰(zhàn)爭”。
我們看到,以色列依靠著強(qiáng)大的AI實(shí)力牢牢占據(jù)著信息層面的主導(dǎo)方面,而哈馬斯只能任由以色列情報部門收集數(shù)據(jù)。
一名以色列國防軍(IDF)情報部門的高級官員對媒體表示:“這是AI第一次成為與敵人作戰(zhàn)的關(guān)鍵組成部分和戰(zhàn)力放大器,對于以色列軍方來說,這是史無前例的。”
馬斯克帶頭反對
凡是硬幣都有兩面,AI軍用化也不例外。
當(dāng)致命性自主武器智能化水平發(fā)展到一定程度,也會帶來相應(yīng)的風(fēng)險。
對于AI的軍事運(yùn)用,美國新安全中心技術(shù)與國家安全項(xiàng)目某研究員曾認(rèn)為,AI可能會像核武器、計(jì)算機(jī)或飛機(jī)的發(fā)明一樣對軍事產(chǎn)生重大影響。
多年前,美國新安全中心在一份長達(dá)132頁的報告里就談到AI軍用化的幾點(diǎn)危害,例如:隨著無人機(jī)成本下降,軍隊(duì)會制造出大量小型、廉價的軍用AI機(jī)器人;數(shù)百萬小型人工智能無人機(jī)的擴(kuò)散,將會威脅美國的國家安全。該報告還假設(shè)了一個場景,一個航空母艦戰(zhàn)斗群將如何應(yīng)對來自數(shù)百萬架神風(fēng)式自殺無人機(jī)的攻擊?
這個報告并非危言聳聽,這類武器極易被恐怖武裝或極端分子獲得,或被處于戰(zhàn)爭中的國家大規(guī)模裝備使用,從而引發(fā)新的沖突和軍備競爭。
傳言包括極端組織“伊斯蘭國”在內(nèi)的多個武裝組織已經(jīng)裝備無人機(jī)。敘利亞恐怖分子也曾多次使用無人機(jī)襲擊敘利亞政府軍和俄羅斯駐敘軍事設(shè)施。
這一類AI武器已經(jīng)擴(kuò)散到越來越多的國家,并且價格更加低廉,種類更加繁多。
正因如此,科學(xué)家和企業(yè)家們相比于軍方,一直以來都對AI軍用化存在著反對意見。
譬如特斯拉創(chuàng)始人馬斯克,就特別反對武器AI化,并一直在公開場合發(fā)表“人工智能威脅論”。
馬斯克曾發(fā)推文稱,人工智能的大國競爭“最有可能”成為第三次世界大戰(zhàn)的原因,甚至?xí)蔀闆_突的導(dǎo)火索。
潘多拉的盒子已經(jīng)打開?
“我們沒有太長時間來采取行動了。一旦這個潘多拉的盒子打開,將很難關(guān)閉!
在2018年的日內(nèi)瓦首腦會議上,聯(lián)合國常規(guī)武器公約(CCW)的一個小組就自主武器問題展開正式談判,希望制定一個禁止自主武器的條約。
然而,參與國只是達(dá)成了一系列非約束性建議,對于政策的搭建卻避而不談,畢竟誰都不想在AI武器的建設(shè)道路上落后于其他國家。
在會議期間,美國、澳大利亞、俄羅斯、韓國、以色列等國家多次表達(dá)了他們繼續(xù)探索發(fā)展殺人機(jī)器人的優(yōu)勢和益處的意愿。
許多人表示,自主武器禁令可能會阻礙人工智能的發(fā)展。另一些人則擔(dān)心,若是一些國家允許一些國家禁止,會產(chǎn)生嚴(yán)重的安全隱患。
最終在美俄的堅(jiān)決反對下,這項(xiàng)全面禁止AI自主武器的談判無果而終。
不過相比于政府的模棱兩可,AI領(lǐng)域的科學(xué)家和企業(yè)家們的態(tài)度倒是堅(jiān)持得多:決不允許“殺人機(jī)器人”出現(xiàn)!
在這次日內(nèi)瓦首腦會議開幕前,有來自36個國家的多達(dá)160家人工智能相關(guān)公司、覆蓋90個國家的2400名個人聯(lián)名簽署宣言,誓言絕不將他們的技能用于開發(fā)“殺人機(jī)器人”。
這份協(xié)議全稱《致命性自主武器宣言》(lethal autonomous weapons pledge),在瑞典斯德哥爾摩舉辦的2018國際人工智能聯(lián)合會議上推出,核心內(nèi)容就是宣誓不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作,而且“殺人機(jī)器人”的研發(fā)及使用應(yīng)當(dāng)被嚴(yán)格禁止。
宣誓人中就有我們的老熟人馬斯克。
但不得不說的是,雖然很多人都在抵制武器AI化,但武器的人工智能發(fā)展從未間斷,并且全球人工智能軍用物品數(shù)量正在成倍增長。
波士頓咨詢集團(tuán)的數(shù)據(jù)顯示,2000年至2015年間,全球軍用機(jī)器人在無人駕駛工具上的支出增加了兩倍,從24億美元增至75億美元。預(yù)計(jì)到2025年將再翻一番,將達(dá)到165億美元。
道德是AI武器最后的屏障
2013年4月起,和平組織PAX創(chuàng)立了國際知名的停止殺手機(jī)器人運(yùn)動,一直在推進(jìn)禁止自主武器的開發(fā)、生產(chǎn)和部署,以及關(guān)注其中的法律、道德和安全問題。對于PAX而言,AI武器必須被禁止的最重要原因,就是其中的道德問題。
當(dāng)技術(shù)問題無法阻止AI武器的發(fā)展時,道德就成了AI武器最后的屏障。
許多人認(rèn)為,致命性自主武器難以分辨?zhèn)麊T及戰(zhàn)俘,可能會導(dǎo)致“誤殺”。如果將決定生與死的權(quán)力交給機(jī)器,意味著“道義責(zé)任的缺失”。
由于戰(zhàn)場形勢過于復(fù)雜或程序出錯,致命性自主武器脫離人類控制后,很難完全避免誤傷已經(jīng)喪失戰(zhàn)斗力的傷員和準(zhǔn)備投降的士兵,遵守相關(guān)國際法變得越發(fā)困難。
這些問題的出現(xiàn),以及由之引發(fā)的道德和倫理問題,使得越來越多的人開始探討如何從道德、條約、法律等不同層面規(guī)制致命性自主武器的發(fā)展和使用。
同樣的,任何AI技術(shù)在戰(zhàn)場上都不能避免誤傷,據(jù)加沙衛(wèi)生官員報告稱,巴以沖突中,至少有243名巴勒斯坦平民在這場沖突中喪生,其中包括66名兒童,AI技術(shù)并沒有阻止這些慘案的發(fā)生。
結(jié)語
時間回到一個世紀(jì)之前,化學(xué)武器的出現(xiàn)同樣給無數(shù)生命帶來了痛苦。
但我們并不曾因?yàn)榛瘜W(xué)武器的危害性而停滯了化學(xué)的發(fā)展,只是禁止了使用化學(xué)武器。
同樣地,AI武器只是隨著歷史的潮流“走”到如今這一步,它本身沒有對錯。任何技術(shù)都有正反面,既然AI用于軍事的趨勢是不可阻擋的,那就需要通過法律和政治去限制。
諸如人類士兵擁有日內(nèi)瓦公約等法律協(xié)議來指導(dǎo)他們,AI武器野蠻發(fā)展的原因之一就是受到的限制太少,目前僅涉及標(biāo)準(zhǔn)武器的武裝沖突法的保護(hù)。
從積極的方面來看,隨著政策的不斷完善,未來國際禁令的勢頭正在增長。
目前,有超過30個國家明確支持禁止使用完全自主武器。此外,受AI武器威脅的發(fā)展中國家也已經(jīng)組團(tuán)呼吁禁止,相信在政策不斷完善之后,我們會看到AI在保護(hù)平民等方面做出更大的努力。
作者:家衡

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?