訂閱
糾錯
加入自媒體

AI成戰(zhàn)場新寵,潘多拉的盒子已經(jīng)打開?

AI武器,只是隨著歷史的潮流,發(fā)展到如今的危險一步。

AI會殺人嗎?

答案是肯定的。

本月,俄羅斯媒體衛(wèi)星通訊社揭露了第一例記錄在案的AI無人機(jī)殺人案例。

在利比亞首都郊外,一只國民軍武裝小隊(duì)正按照計(jì)劃撤退。

突然,一架無人機(jī)出現(xiàn)在小隊(duì)上空,在一陣機(jī)槍掃射過后,一名武裝人員倒在血泊中。

事后,聯(lián)合國安理會利比亞問題專家小組調(diào)查發(fā)現(xiàn),這臺由土耳其STM公司生產(chǎn)的“卡古-2”(kargu)型無人攻擊機(jī)并沒有后臺人員去操控,完全是憑著預(yù)先編程好的程序進(jìn)行跟蹤并攻擊。

也就是說,當(dāng)時這架“卡古-2”無人機(jī)是在沒有人為命令的情況下擅自作主將人殺死。

AI成戰(zhàn)場新寵

這一類與“卡古-2“無人機(jī)相似、具備自主攻擊能力的軍用設(shè)備都屬于致命性自主武器系統(tǒng)(LAWS),俗稱“殺人機(jī)器人”。

它們可以在自動模式下完成許多操作:按照設(shè)定的參數(shù)發(fā)現(xiàn)和識別目標(biāo)、跟蹤目標(biāo)、武器引導(dǎo),在完成軍事任務(wù)的同時,減少己方人員和平民的傷亡。

作為新型作戰(zhàn)力量的代表,致命性自主武器正受到越來越多國家的重視。

早在上世紀(jì)80年代,美國軍方就成立了人工智能中心,專門從事人工智能軍事應(yīng)用方面的研究,希望在未來用機(jī)器人士兵代替?zhèn)鹘y(tǒng)士兵。

截至目前,美國、法國、俄羅斯、日本、英國、土耳其、伊朗、韓國等國紛紛加大了對致命性自主武器系統(tǒng)的研發(fā)和采購力度,已經(jīng)公開的自治武器和軍事機(jī)器人系統(tǒng)就多達(dá)近400種。

相比于人類士兵,機(jī)器人士兵的優(yōu)點(diǎn)很明顯:

隨著AI能力的提升,自主武器可以替代人類士兵執(zhí)行高難度和高風(fēng)險任務(wù),最大限度地避免己方人員傷亡;

提高目標(biāo)判斷的準(zhǔn)確性和打擊精度,減少平民傷亡和其他附帶損傷;

通過自主識別和智能分析等技術(shù),可以避免由于控制者精神不集中、目標(biāo)誤判等人為失誤引起的誤傷。

在今年五月初的巴以沖突里,AI技術(shù)已經(jīng)在信息戰(zhàn)方面嶄露頭角。

據(jù)報道,以色列國防軍利用煉金術(shù)士(Alchemist)、福音(Gospel)以及深智(Depth of Wisdom)三大AI系統(tǒng),共計(jì)殺死了150多名哈馬斯特工,其中包括高級指揮官和導(dǎo)彈等軍事項(xiàng)目研發(fā)人員,并且大大降低了平民的誤傷率。

對于這一次戰(zhàn)斗,以色列定義為“世界上第一場人工智能參與的戰(zhàn)爭”。

我們看到,以色列依靠著強(qiáng)大的AI實(shí)力牢牢占據(jù)著信息層面的主導(dǎo)方面,而哈馬斯只能任由以色列情報部門收集數(shù)據(jù)。

一名以色列國防軍(IDF)情報部門的高級官員對媒體表示:“這是AI第一次成為與敵人作戰(zhàn)的關(guān)鍵組成部分和戰(zhàn)力放大器,對于以色列軍方來說,這是史無前例的。”

馬斯克帶頭反對

凡是硬幣都有兩面,AI軍用化也不例外。

當(dāng)致命性自主武器智能化水平發(fā)展到一定程度,也會帶來相應(yīng)的風(fēng)險。

對于AI的軍事運(yùn)用,美國新安全中心技術(shù)與國家安全項(xiàng)目某研究員曾認(rèn)為,AI可能會像核武器、計(jì)算機(jī)或飛機(jī)的發(fā)明一樣對軍事產(chǎn)生重大影響。

多年前,美國新安全中心在一份長達(dá)132頁的報告里就談到AI軍用化的幾點(diǎn)危害,例如:隨著無人機(jī)成本下降,軍隊(duì)會制造出大量小型、廉價的軍用AI機(jī)器人;數(shù)百萬小型人工智能無人機(jī)的擴(kuò)散,將會威脅美國的國家安全。該報告還假設(shè)了一個場景,一個航空母艦戰(zhàn)斗群將如何應(yīng)對來自數(shù)百萬架神風(fēng)式自殺無人機(jī)的攻擊?

這個報告并非危言聳聽,這類武器極易被恐怖武裝或極端分子獲得,或被處于戰(zhàn)爭中的國家大規(guī)模裝備使用,從而引發(fā)新的沖突和軍備競爭。

傳言包括極端組織“伊斯蘭國”在內(nèi)的多個武裝組織已經(jīng)裝備無人機(jī)。敘利亞恐怖分子也曾多次使用無人機(jī)襲擊敘利亞政府軍和俄羅斯駐敘軍事設(shè)施。

這一類AI武器已經(jīng)擴(kuò)散到越來越多的國家,并且價格更加低廉,種類更加繁多。

正因如此,科學(xué)家和企業(yè)家們相比于軍方,一直以來都對AI軍用化存在著反對意見。

譬如特斯拉創(chuàng)始人馬斯克,就特別反對武器AI化,并一直在公開場合發(fā)表“人工智能威脅論”。

馬斯克曾發(fā)推文稱,人工智能的大國競爭“最有可能”成為第三次世界大戰(zhàn)的原因,甚至?xí)蔀闆_突的導(dǎo)火索。

潘多拉的盒子已經(jīng)打開?

“我們沒有太長時間來采取行動了。一旦這個潘多拉的盒子打開,將很難關(guān)閉!

在2018年的日內(nèi)瓦首腦會議上,聯(lián)合國常規(guī)武器公約(CCW)的一個小組就自主武器問題展開正式談判,希望制定一個禁止自主武器的條約。

然而,參與國只是達(dá)成了一系列非約束性建議,對于政策的搭建卻避而不談,畢竟誰都不想在AI武器的建設(shè)道路上落后于其他國家。

在會議期間,美國、澳大利亞、俄羅斯、韓國、以色列等國家多次表達(dá)了他們繼續(xù)探索發(fā)展殺人機(jī)器人的優(yōu)勢和益處的意愿。

許多人表示,自主武器禁令可能會阻礙人工智能的發(fā)展。另一些人則擔(dān)心,若是一些國家允許一些國家禁止,會產(chǎn)生嚴(yán)重的安全隱患。

最終在美俄的堅(jiān)決反對下,這項(xiàng)全面禁止AI自主武器的談判無果而終。

不過相比于政府的模棱兩可,AI領(lǐng)域的科學(xué)家和企業(yè)家們的態(tài)度倒是堅(jiān)持得多:決不允許“殺人機(jī)器人”出現(xiàn)!

在這次日內(nèi)瓦首腦會議開幕前,有來自36個國家的多達(dá)160家人工智能相關(guān)公司、覆蓋90個國家的2400名個人聯(lián)名簽署宣言,誓言絕不將他們的技能用于開發(fā)“殺人機(jī)器人”。

這份協(xié)議全稱《致命性自主武器宣言》(lethal autonomous weapons pledge),在瑞典斯德哥爾摩舉辦的2018國際人工智能聯(lián)合會議上推出,核心內(nèi)容就是宣誓不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作,而且“殺人機(jī)器人”的研發(fā)及使用應(yīng)當(dāng)被嚴(yán)格禁止。

宣誓人中就有我們的老熟人馬斯克。

但不得不說的是,雖然很多人都在抵制武器AI化,但武器的人工智能發(fā)展從未間斷,并且全球人工智能軍用物品數(shù)量正在成倍增長。

波士頓咨詢集團(tuán)的數(shù)據(jù)顯示,2000年至2015年間,全球軍用機(jī)器人在無人駕駛工具上的支出增加了兩倍,從24億美元增至75億美元。預(yù)計(jì)到2025年將再翻一番,將達(dá)到165億美元。

道德是AI武器最后的屏障

2013年4月起,和平組織PAX創(chuàng)立了國際知名的停止殺手機(jī)器人運(yùn)動,一直在推進(jìn)禁止自主武器的開發(fā)、生產(chǎn)和部署,以及關(guān)注其中的法律、道德和安全問題。對于PAX而言,AI武器必須被禁止的最重要原因,就是其中的道德問題。

當(dāng)技術(shù)問題無法阻止AI武器的發(fā)展時,道德就成了AI武器最后的屏障。

許多人認(rèn)為,致命性自主武器難以分辨?zhèn)麊T及戰(zhàn)俘,可能會導(dǎo)致“誤殺”。如果將決定生與死的權(quán)力交給機(jī)器,意味著“道義責(zé)任的缺失”。

由于戰(zhàn)場形勢過于復(fù)雜或程序出錯,致命性自主武器脫離人類控制后,很難完全避免誤傷已經(jīng)喪失戰(zhàn)斗力的傷員和準(zhǔn)備投降的士兵,遵守相關(guān)國際法變得越發(fā)困難。

這些問題的出現(xiàn),以及由之引發(fā)的道德和倫理問題,使得越來越多的人開始探討如何從道德、條約、法律等不同層面規(guī)制致命性自主武器的發(fā)展和使用。

同樣的,任何AI技術(shù)在戰(zhàn)場上都不能避免誤傷,據(jù)加沙衛(wèi)生官員報告稱,巴以沖突中,至少有243名巴勒斯坦平民在這場沖突中喪生,其中包括66名兒童,AI技術(shù)并沒有阻止這些慘案的發(fā)生。

結(jié)語

時間回到一個世紀(jì)之前,化學(xué)武器的出現(xiàn)同樣給無數(shù)生命帶來了痛苦。

但我們并不曾因?yàn)榛瘜W(xué)武器的危害性而停滯了化學(xué)的發(fā)展,只是禁止了使用化學(xué)武器。

同樣地,AI武器只是隨著歷史的潮流“走”到如今這一步,它本身沒有對錯。任何技術(shù)都有正反面,既然AI用于軍事的趨勢是不可阻擋的,那就需要通過法律和政治去限制。

諸如人類士兵擁有日內(nèi)瓦公約等法律協(xié)議來指導(dǎo)他們,AI武器野蠻發(fā)展的原因之一就是受到的限制太少,目前僅涉及標(biāo)準(zhǔn)武器的武裝沖突法的保護(hù)。

從積極的方面來看,隨著政策的不斷完善,未來國際禁令的勢頭正在增長。

目前,有超過30個國家明確支持禁止使用完全自主武器。此外,受AI武器威脅的發(fā)展中國家也已經(jīng)組團(tuán)呼吁禁止,相信在政策不斷完善之后,我們會看到AI在保護(hù)平民等方面做出更大的努力。

作者:家衡

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號