從武裝機器狗到無人潛艇,再到搜尋目標的無人機,現(xiàn)代戰(zhàn)爭中越來越廣泛應用的人工智能技術給人們帶來了急需解答的倫理難題。
2020年11月27日,下午3點30分,一列車隊駛入德黑蘭的伊瑪目霍梅尼大道。車內(nèi)有一名重要人物——伊朗秘密核武器項目的總負責人穆赫辛·法克里扎德。當時,他與妻子正駕車前往鄉(xiāng)村住宅,由安保車輛護送,然而在即將抵達目的地時遭到了襲擊。
幾聲槍響過后,法克里扎德駕駛的黑色尼桑汽車被擊中,無法繼續(xù)行駛。槍聲再次響起,子彈擊中了這位科學家的肩膀,迫使他走出車輛求救。隨后,完全暴露在外的他又遭受了致命一擊,而坐在副駕駛的妻子安全無恙。
接下來,奇怪的事情發(fā)生了。一輛停在路邊的皮卡車不知為何突然爆炸。事后,伊朗安全部隊在檢查皮卡車的殘骸時,發(fā)現(xiàn)了一些機槍碎片。這是一把由電腦遠程遙控的機槍,配備了多個攝像頭。難道,法克里扎德是被機器人槍殺的?
《紐約時報》的后續(xù)報道披露,這把機槍并非全自動槍械。據(jù)推測,襲擊者位于1000公里之外,會根據(jù)皮卡車回傳的圖片判斷扣動扳機的時機,并利用人工智能軟件解決信號延遲的問題。
這簡直就是一場噩夢?;ヂ?lián)網(wǎng)上流傳的俄烏沖突的視頻片段更是加深了人們的恐懼。在烏克蘭戰(zhàn)場上,無人機隨處可見,從土耳其制造的“旗手”無人機、襲擊船只的海上無人機,到能夠投擲手榴彈的四軸飛行器。如果這些片段屬實,那么現(xiàn)實情況只會越來越糟糕。
| 機器人的新風險 |
網(wǎng)上有這樣一段視頻:一架無人機將一只機器狗運送至目的地。機器狗落地后便迅速啟動,背上還馱著一把機槍。在另一段視頻中,一名俄羅斯人改裝了一只商用機器狗,使其能夠射出子彈。
針對這些觸目驚心的視頻,2022年10月,波士頓動力公司與另外五家機器人公司發(fā)表了聯(lián)合聲明:“我們認為,改裝遠程遙控機器人或自動化機器人,為它們添加武器,遙控它們進入從前難以進入的他人工作起居之地,這些會造成新的風險,也嚴重違反倫理。將此類新型機器人武器化,會導致公眾不再信任本能造福社會的機器人技術。目前有大量個人嘗試將商用機器人武器化的事件,我們表示強烈反對,并將極力避免這種情況。我們希望,有關部門能協(xié)助我們一同提倡安全使用移動機器人?!?/p>
現(xiàn)代汽車集團旗下的現(xiàn)代羅特姆公司,似乎并沒有這方面的顧慮。2023年4月,現(xiàn)代羅特姆宣布,將與韓企彩虹機器人公司合作研發(fā)一款多足防務機器人。宣傳片顯示,這款產(chǎn)品其實就是配有槍支的機器狗。
防務分析家、軍事歷史學家蒂姆·里普利表示,波士頓動力公司的聲明不具有太大的實際意義?!熬退銠C器人不配備武器,也依然會被用于戰(zhàn)爭。比如一架偵察無人機在發(fā)現(xiàn)目標后,由使用者決定射出炮彈,奪人性命。那么,這架無人機和可發(fā)射炮彈的無人機其實沒有太大區(qū)別,它們都是攻擊鏈中的一環(huán)?!崩锲绽f。他還指出,偵察無人機在俄烏沖突中發(fā)揮了關鍵作用,既能追蹤敵軍動向,又能發(fā)現(xiàn)轟炸目標。
由計算機控制的軍事硬件通常由兩部分組成:硬件本身與控制軟件。在戰(zhàn)場上,除了無人機,其他機器人尚不多見。不過,智能軟件的應用已越來越普及?!坝奈淦飨到y(tǒng)中內(nèi)置了一系列自主軟件,這很有必要。有了這些軟件,士兵就能更快地作出決定?!眰惗貒鯇W院的資深戰(zhàn)爭研究員馬丁·邁克說,“比如一架負責探測地面熱輻射信號的阿帕奇直升機,其機載軟件能迅速識別潛在目標,甚至能給出建議,告訴飛行員哪些目標應優(yōu)先處理。飛行員獲得信息后,便能作出抉擇?!?/p>
| 防微杜漸 |
軍方顯然希望擁有更多類似的武器系統(tǒng),尤其是能與機器人適配的武器系統(tǒng)。美國幽靈機器人公司研制的機器狗(業(yè)內(nèi)又稱四足機器人)被譽為偵察利器,可幫助巡邏人員探測潛在風險地區(qū)。此外,它們也被稱作殺人機器。
在2021年10月的美國陸軍協(xié)會年會上,幽靈機器人公司展出了一只“殺手機器狗”,它的背上頂著一把槍。這把槍由美國斯沃德防御系統(tǒng)公司制造,名為特殊用途無人步槍。斯沃德公司在官方網(wǎng)站上宣稱:特殊用途無人步槍是無人武器系統(tǒng)的未來,而這個未來已經(jīng)到來。
英國皇家海軍曾測試過名為曼塔的無人潛航器。該潛航器長九米,裝載了聲吶、攝像機、通信裝置及干擾裝置,進行水下作業(yè)。此外,2021年11月,美軍與英軍在莫哈維沙漠練習使用了無人機、機器人運輸工具及人工智能技術,幫助英軍在戰(zhàn)場上變得更加致命。
然而,就目前而言,即使是最精細復雜的自主武器系統(tǒng),決策環(huán)節(jié)依舊需要人類參與。參與形式分為兩種。一種是“人在環(huán)中”,即電腦將潛在目標呈現(xiàn)給人類操作員,由操作員決定如何行動。另一種是“人在環(huán)上”,即電腦給出目標的擊殺順序,雖然人類能隨時操控電腦,但大部分決策由電腦作出。而更為極端的情況是,系統(tǒng)完全自主運行,在沒有人類干預的情況下自主選擇并除掉目標。
“希望我們永遠不會走到最后一個階段?!边~克說,“如果把決定權交給自主武器系統(tǒng),那我們就失去了控制權。如果系統(tǒng)認為,除掉人類領導者是對當前戰(zhàn)局最有利的選擇,那該怎么辦呢?誰都無法保證這種事情不會發(fā)生?!彪娪啊督K結者》便描繪了類似的噩夢場景:人工智能機器人發(fā)起戰(zhàn)爭,誓將人類趕盡殺絕。
弗吉尼亞理工大學教授費拉斯·巴塔爾塞相信,人類社會距離完全自主的武器系統(tǒng)還很遙遠,但人工智能已發(fā)展到了危險水平?!叭斯ぶ悄芗夹g還不夠聰明,不足以讓我們完全信任。但它們也沒有那么蠢,所以人類會下意識地反應過來,不能讓它們脫離控制。”他說。
換句話說,若士兵全然信任人工智能系統(tǒng),或許會讓自己陷入更危險的境地。原因在于,目前的人工智能還無法處理沒有學習過的情況。研究學者將意外情況稱作異常值,而戰(zhàn)爭顯然會造成大量異常值。“在戰(zhàn)場上,意外狀況隨時隨地都會發(fā)生。異常值簡直就是戰(zhàn)爭的代名詞,而目前的人工智能還無法很好地處理它?!卑退柸f。
即使解決了這個問題,我們依然需要應對棘手的倫理困境。舉個例子,當人工智能作出了擊殺的決定,你該如何判斷它的決定是否正確?這與阻撓自動駕駛技術發(fā)展的電車難題是類似的。再比如,面對即將發(fā)生的事故,我們應任由其發(fā)展,致使五個人喪生,還是應該采取行動犧牲第六人,拯救這五個人?怎么做才符合倫理?
普渡大學的教授索蘭·馬泰認為,解決辦法或許在于,讓人工智能戰(zhàn)士意識到自身的脆弱所在。如此,它們才會重視自己的“生命”,并“推己及人”。馬泰甚至認為,這么做或許能讓戰(zhàn)爭變得更加人性化,“要讓人工智能變得可信任,就必須將它們擔心失去的東西賦予它們。”
但即使是最具倫理道德的戰(zhàn)爭機器人也有一個硬傷,那就是無法抵御黑客入侵?!澳氵@邊研發(fā)一個武器系統(tǒng),那邊就會有人嘗試破解它?!崩锲绽f。這也是為什么機器人部隊顯然會成為敵軍入侵的首要目標。若敵軍將倫理道德從機器人的芯片中抹去,策反它們,那么后果不堪設想。
邁克認為,要想控制這些可怕的武器,或許可以參考軍事歷史。“歷史上讓人類恐懼的武器有很多,比如核武器、化學武器、生物武器。如今各方簽署了軍備控制條約,不是因為哪國政府主動放棄了研發(fā),而是因為大家在軍備競賽中發(fā)現(xiàn),這些武器竟然如此可怕,所以才愿意坐下來好好談一談?!?/p>
如今,無人機、機器人及其他無人武器越來越頻繁地出現(xiàn)在戰(zhàn)場上。在自主武器控制條約出臺之前,想必還有一段膽戰(zhàn)心驚的日子要過。
編輯:侯寅