邁克爾·霍洛維茲,保羅·沙爾
(新美國安全中心,美國 華盛頓特區(qū) 20005)
近年來,機器學習革命引發(fā)了一系列行業(yè)對人工智能(AI)應(yīng)用的興趣。各國也在動員將人工智能用于國家安全和軍事目的。[1]因此,評估人工智能軍事化如何影響國際穩(wěn)定以及如何鼓勵軍方以負責任的方式采用人工智能至關(guān)重要。要做到這一點,就需要了解人工智能的特點、它塑造戰(zhàn)爭的方式,以及人工智能軍事化給國際穩(wěn)定帶來的風險。
人工智能是一種類似于計算機或內(nèi)燃機的通用技術(shù),而不是像導彈或飛機那樣的離散技術(shù)。因此,盡管對“人工智能軍備競賽”的擔憂言過其實,但真正的風險依然存在。[2]此外,盡管許多國家領(lǐng)導人言辭激烈,但迄今為止在人工智能方面的軍費開支相對較少。軍方對人工智能的追求,與其說是激烈的軍備競賽,不如說更像是對新技術(shù)的例行采用,以及對計算機、網(wǎng)絡(luò)和其他信息技術(shù)采用的數(shù)十年趨勢的延續(xù)。盡管如此,將AI 納入國家安全應(yīng)用和戰(zhàn)爭仍會帶來真正的風險。然而,僅僅認識到風險是不夠的。解決這些問題需要為各國采取切實可行的措施提出建議,以盡量減少軍事AI 競爭帶來的風險。各國可以采取的一種辦法是建立信任措施(CBMs):各國可以采取單邊、雙邊或多邊行動來建立信任和防止無意中的軍事沖突。建立信任措施通常涉及利用透明度、通知和監(jiān)測來試圖減輕沖突風險。[2]由于當今國際競爭的特點與冷戰(zhàn)時期(當時建立信任措施作為一個概念變得突出)不同,采用建立信任措施面臨著挑戰(zhàn)。然而,考慮建立信任措施的可能性并探索形成有關(guān)人工智能對話的方式,可能會采用促進穩(wěn)定的建立信任措施的可能性更大。
本文簡要概述了人工智能軍事應(yīng)用對國際穩(wěn)定的一些潛在風險,包括人工智能影響戰(zhàn)爭性質(zhì)的方式、基于當前人工智能技術(shù)限制的風險以及與某些特定任務(wù)領(lǐng)域有關(guān)的風險,如核行動,其中引入人工智能可能會給穩(wěn)定性帶來挑戰(zhàn)。然后,本文描述了解決這些風險的可能的信任措施,從適用于人工智能許多軍事應(yīng)用的廣泛措施轉(zhuǎn)向旨在解決特定風險的有針對性的措施。在每一次有關(guān)建立信任措施的討論中,本文都闡述了采用建立信任措施的國家的機遇和潛在弊端。
軍方固有的興趣是要保持領(lǐng)先于競爭對手,或者至少不落后于競爭對手。國家希望避免部署劣質(zhì)的軍事能力,因此通常會尋求可以提高戰(zhàn)斗力的新興技術(shù)。盡管追求新技術(shù)是正常的,但某些技術(shù)卻因其對穩(wěn)定性的影響,或?qū)?zhàn)爭轉(zhuǎn)移到對所有參戰(zhàn)人員或平民造成傷害增加的方向而引起關(guān)注。例如,在20 世紀初,一些大國就針對一系列工業(yè)時代的技術(shù)引發(fā)軍備控制進行了辯論,結(jié)果是喜憂參半,他們擔心這些技術(shù)會深刻地改變戰(zhàn)爭。其中包括潛艇、空投武器、爆炸子彈和毒氣。
核武器發(fā)明之后,鑒于核武器的巨大破壞力,圍繞其潛在用途的擔憂主導了決策者的注意力。特別是在古巴導彈危機顯示出確實存在的風險升級之后,美國和蘇聯(lián)就一系列武器技術(shù)進行了軍備控制,其中包括戰(zhàn)略導彈防御、中程導彈、天基大規(guī)模毀滅性武器(大規(guī)模殺傷性武器)、生物武器以及中子彈和反衛(wèi)星武器的明顯默契克制。美國和蘇聯(lián)有時還通過諸如《開放天空條約》和1972 年《海上事件協(xié)定》之類的措施進行合作,以避免錯誤估計并提高穩(wěn)定性。
研究人工智能與戰(zhàn)爭的結(jié)合是否會帶來決策者應(yīng)該關(guān)注的風險是合理的,事實上也是至關(guān)重要的。一些人工智能研究人員自己也對軍方采用人工智能及其可能增加戰(zhàn)爭和國際不穩(wěn)定風險的方式發(fā)出了警告。[3]然而,由于人工智能不像導彈或潛艇那樣是一種離散的技術(shù),因此理解人工智能在軍事上的使用所帶來的風險是很復雜的。作為一種通用技術(shù),人工智能有許多應(yīng)用,其中任何一種都可能以各種方式提高或破壞穩(wěn)定性。
軍方才剛剛開始采用人工智能,在不久的將來,軍事人工智能的使用可能會受到限制,而且限制會逐漸增加。隨著時間的推移,通過引入人工智能對戰(zhàn)爭的認識可能會深刻地改變戰(zhàn)爭,就像過去的工業(yè)革命塑造了戰(zhàn)爭一樣。[4]即使軍方成功地管理了安全和安保問題,并且野戰(zhàn)人工智能系統(tǒng)是強健和安全的,正常運作的人工智能系統(tǒng)也可能給國際穩(wěn)定帶來挑戰(zhàn)。
例如,中美兩國學者認為,在作戰(zhàn)行動中引入人工智能和自主系統(tǒng)可能會加快戰(zhàn)爭的步伐,超出人類控制的范圍。中國學者將這一概念稱為戰(zhàn)場“奇點”[5],而一些美國人則創(chuàng)造了“超級戰(zhàn)爭”一詞來指代類似的想法。[6]如果戰(zhàn)爭發(fā)展到戰(zhàn)斗速度超過人類跟上的能力,就有可能必須將軍事行動的控制權(quán)交給機器,而這將對國際穩(wěn)定構(gòu)成重大風險。人類可能會失去對升級管理的控制權(quán),并且如果機器以比人類能夠響應(yīng)的速度更快地作戰(zhàn),則終止戰(zhàn)爭可能會變得非常復雜。此外,將升級控制權(quán)下放給機器可能意味著在混亂和迷霧的戰(zhàn)爭中,作為軍事行動重要組成部分的輕微戰(zhàn)術(shù)失誤或事故,包括自相殘殺、平民傷亡和軍事判斷力差,可能在人類有時間干預之前失控并達到災難性的程度。
戰(zhàn)場奇點或超級戰(zhàn)爭的邏輯之所以令人不安,正是因為競爭壓力可能會促使軍隊加快作戰(zhàn)節(jié)奏,并將人類“從循環(huán)中”排除,即使他們寧愿不這樣做,但是只有這樣才能跟上對手的步伐。當時的國防部副部長羅伯特·沃克(Robert Work)提出了一個問題,“如果我們的競爭對手成為‘終結(jié)者’……事實證明,‘終結(jié)者’能夠更快地做出決定,即使他們很糟糕,我們該如何應(yīng)對?”[7]雖然這種“速度上的軍備競賽”通常在致命的自主武器系統(tǒng)的背景下以戰(zhàn)術(shù)為特征,但同樣的動態(tài)可能會在操作上出現(xiàn),包括設(shè)計為決策輔助工具的算法。決策者認為,戰(zhàn)爭正在演變?yōu)橐粋€機器主導的沖突時代,在這個時代,人類必須將控制權(quán)讓給機器才能保持競爭力,這就可能加速這種發(fā)展,特別是如果決策者缺乏有關(guān)人工智能局限性的適當知識背景。在極端情況下,軍事決策算法的使用,再加上更加自動化的戰(zhàn)場,可能會改變戰(zhàn)爭的性質(zhì)。從最廣泛的意義上講,戰(zhàn)爭仍然是政治的延續(xù),但在最極端的情況下,它可能很少有人類參與,因此不再是人類的意志體現(xiàn)。[8]
人工智能的廣泛采用可能在其他方面對國際穩(wěn)定產(chǎn)生凈影響。人工智能系統(tǒng)可以改變戰(zhàn)爭中的戰(zhàn)略,包括在某些任務(wù)領(lǐng)域用機器代替人類的決策,從而將人類心理的某些方面從戰(zhàn)爭中去除。[9]今天的戰(zhàn)爭是由人類通過物理機器進行的,但決策幾乎普遍是人類主導的。隨著算法越來越接近戰(zhàn)場,一些決策將由機器做出,即使戰(zhàn)爭仍然是為人類政治目的而進行的由人類指揮的活動。機器決策在戰(zhàn)術(shù)、作戰(zhàn)和戰(zhàn)略層面的廣泛整合可能會產(chǎn)生深遠的影響。在玩實時電腦戰(zhàn)略游戲(如星際爭霸和Dota2)時,人工智能特工已經(jīng)表現(xiàn)出超越人類的攻擊性、精確性和協(xié)調(diào)性。在撲克和圍棋等其他策略游戲中,人工智能已經(jīng)證明了一種能力,可以從根本上調(diào)整游戲風格和冒險行為,而這種方式充其量只是挑戰(zhàn)人類出于心理原因的模仿。人工智能dogfighting 代理同樣表現(xiàn)出超人的精確性,并采用不同的戰(zhàn)術(shù),因為它們有能力承擔更大的風險。[10]
在許多方面,人工智能系統(tǒng)有能力成為完美的戰(zhàn)略代理人,不受恐懼、厭惡情緒、承諾偏見或其他人類情感或認知偏見和局限性的束縛。[11]雖然用于電腦游戲的特定算法和模型不太可能很好地轉(zhuǎn)移到作戰(zhàn)應(yīng)用中,但人工智能代理相對于人類的一般特征和優(yōu)勢可能在軍事領(lǐng)域得到應(yīng)用。就像速度一樣,機器決策對作戰(zhàn)心理的凈影響可以深刻地改變戰(zhàn)爭的性質(zhì)。[12]
人工智能可能會對戰(zhàn)爭產(chǎn)生其他累積效應(yīng)。[13]決策者通常根據(jù)對對手能力和意圖的理解來評估對手的行為。向人工智能的轉(zhuǎn)變可能會破壞這兩個領(lǐng)域的決策者知識。軍事能力向軟件的過渡已經(jīng)在進行,但可以說是由于采用AI 和自治系統(tǒng)而加速的,這可能會使決策者更難準確地判斷相對的軍事能力。因此,有關(guān)敵方能力的不完整信息會增加,可以想象,這會增加誤判的風險?;蛘?,相反的可能是真正的人工智能,即用于情報收集和分析的自主系統(tǒng)可以從根本上提高軍事力量的透明度,使決策者更容易判斷軍事能力并提前預測沖突的結(jié)果。增加的透明度可以減少計算錯誤的風險,并化解一些潛在的沖突,然后再開始決策。
人工智能融入軍事系統(tǒng),再加上向更自動化的部隊結(jié)構(gòu)轉(zhuǎn)變,也可能會改變決策者承擔風險的門檻,要么是因為他們相信有更少人的生命處于危險之中,要么是因為人工智能系統(tǒng)能夠?qū)崿F(xiàn)更高的精度,要么是因為他們認為人工智能系統(tǒng)具有獨特的危險性。人工智能系統(tǒng)的感知可用性可能會改變決策者對其預見沖突結(jié)果或獲勝能力的信念。
毫無疑問,站在人工智能時代的開端,想象人工智能在軍事行動的各個方面的應(yīng)用所產(chǎn)生的累積后果是一個挑戰(zhàn),包括影響人類對技術(shù)的認知和技術(shù)特征本身的影響。19 世紀末和20 世紀初試圖管制工業(yè)時代武器影響的歷史表明,即使決策者準確預測了某些技術(shù)的風險,例如空中運載武器或毒氣,他們經(jīng)常精心制定法規(guī),結(jié)果發(fā)現(xiàn)這些法規(guī)不適合這些技術(shù)成熟時所采用的特定形式。此外,即使雙方都希望克制,那些法規(guī)也經(jīng)常在戰(zhàn)爭的緊急情況下崩潰。[14]我們沒有理由認為,我們在預測未來技術(shù)發(fā)展道路或抑制戰(zhàn)爭的能力方面的先見之明在今天會更好。然而,在開始思考人工智能影響戰(zhàn)爭的各種方式時,無論大小,還是有好處的。
即使超出上述情況,也有可能將人工智能的軍事應(yīng)用如何影響國際穩(wěn)定分為兩大類:(1)與算法的性質(zhì)和軍方使用算法有關(guān)的風險;(2)與軍方將人工智能用于特定任務(wù)有關(guān)的風險。
軍事上采用人工智能的一個挑戰(zhàn)是,與采用新技術(shù)相關(guān)的兩個關(guān)鍵風險正處于緊張狀態(tài)。首先,軍方可能無法采用(或足夠迅速地采用或以正確的方式使用)一種產(chǎn)生重大戰(zhàn)場優(yōu)勢的新技術(shù)。最近的一個例子是,盡管軍用無人機市場總體上有所增長,但無人駕駛車輛的采用有時是美國國防機構(gòu)內(nèi)部爭論的一個來源,主要是基于這種新技術(shù)相對于現(xiàn)有替代技術(shù)的優(yōu)點的辯論。[15]
或者,軍方可能會過快地采用一種不成熟的技術(shù),在一種技術(shù)如何改變戰(zhàn)爭的新的、未經(jīng)檢驗的主張上下大量錯誤的賭注。考慮到軍方在確保其能力在戰(zhàn)場上發(fā)揮作用方面的天然動機,可以合理地假設(shè),軍方將合理地管理這些風險,盡管并非不會發(fā)生一些災難。但在權(quán)衡事故風險與技術(shù)創(chuàng)新落后于對手之間的關(guān)系時,軍方可以說是把安全作為次要考慮因素。[16]在追求技術(shù)優(yōu)勢的過程中,軍方可能會相對接受事故的風險,因為事故是軍事行動的一個常規(guī)要素,甚至在訓練中也是如此。[17]然而,在最終確保部署的能力是強大和安全的方面,存在著強烈的官僚利益,現(xiàn)有的機構(gòu)流程可能會通過一些調(diào)整來管理人工智能的安全和保障風險。
對于軍方來說,在采用人工智能的過程中,在速度過慢與速度過快之間進行平衡是復雜的,因為人工智能,尤其是深度學習,是一種相對不成熟的技術(shù),存在著嚴重的漏洞和可靠性問題。在沒有足夠的數(shù)據(jù)來訓練機器學習系統(tǒng)的情況下,這些問題就更加突出了。機器學習系統(tǒng)通常依賴于非常大的數(shù)據(jù)集,而這些數(shù)據(jù)集在某些軍事環(huán)境中可能不存在,特別是在涉及罕見事件的早期預警或在多維戰(zhàn)場中跟蹤對手行為時。當使用不充分的數(shù)據(jù)集進行訓練或在狹窄的設(shè)計環(huán)境之外使用時,人工智能系統(tǒng)通常是不可靠和脆弱的。人工智能系統(tǒng)往往看起來很有能力,在某些實驗室環(huán)境中表現(xiàn)良好,但在現(xiàn)實世界中,在不斷變化的環(huán)境條件下卻會急劇失效。例如,在某些情況下,自動駕駛汽車可能比人工駕駛更安全,然后在人工駕駛不會有麻煩的情況下,自動駕駛會莫名其妙地變成致命的。此外,深度學習算法目前可能是不夠可靠的安全關(guān)鍵應(yīng)用,即使在其設(shè)計規(guī)范的范圍內(nèi)運行仍然如此。[18]
例如,對跨人群的算法可靠性的限制的擔憂阻礙了面部識別技術(shù)在美國的部署,特別是在執(zhí)法等后果嚴重的應(yīng)用中。軍方也應(yīng)該關(guān)注其人工智能系統(tǒng)的技術(shù)限制和漏洞。軍方需要有效的技術(shù),尤其是在戰(zhàn)場上。因此,美國國防部(DoD)的人工智能戰(zhàn)略要求人工智能系統(tǒng)具有“彈性、魯棒性、可靠性和安全性”。 考慮到當今許多算法的使用所面臨的可靠性問題以及戰(zhàn)場使用的高度動態(tài)條件,這無疑是正確的方法,但至少在短期內(nèi)是一個挑戰(zhàn)。
另一個挑戰(zhàn)來自安全困境的動態(tài)。競爭壓力可能導致各國采取捷徑測試與評估(T&E),以期在對手之前部署新的人工智能能力。在自動駕駛汽車和商用飛機自動駕駛儀的人工智能系統(tǒng)事故風險方面,類似的競爭壓力似乎起到了加劇作用。軍方評估一個可靠性不確定的人工智能系統(tǒng),如果他們相信其他國家也在采取類似措施,他們可能會感到加快部署的壓力,這并非毫無道理。從歷史上看,這些壓力在戰(zhàn)爭前和戰(zhàn)爭期間都是最高的,在戰(zhàn)爭期間,由于現(xiàn)實生活的影響,圍繞新技術(shù)的風險或回報等式可能會發(fā)生變化。例如,競爭壓力可能促使第一次世界大戰(zhàn)中更快地引入毒氣。[19]同樣,在第二次世界大戰(zhàn)中,德國將資金從成熟的技術(shù)轉(zhuǎn)移到噴氣發(fā)動機、彈道導彈和直升機上,盡管這些技術(shù)在戰(zhàn)后才被證明是成熟的。這種動態(tài)風險可能會引發(fā)一種自我實現(xiàn)的預言,即各國出于擔心其他國家會首先部署未經(jīng)充分測試的人工智能系統(tǒng)而加快部署。其凈影響不是軍備競賽,而是對安全的“抄底競賽”,導致部署不安全的人工智能系統(tǒng),增加事故和不穩(wěn)定的風險。
即使軍事人工智能系統(tǒng)得到了充分的測試,使用人工智能來實現(xiàn)軍事系統(tǒng)中更自主的機器行為也會帶來額外的風險。在將決策權(quán)從人下放給機器的過程中,決策者實際上可能在部署靈活性和理解能力較差的部隊,這將對危機穩(wěn)定和管理升級產(chǎn)生有害影響。雖然機器在速度、精度和可重復動作方面有許多優(yōu)勢,但今天的機器在理解上下文和靈活適應(yīng)新情況方面還不能接近人類的智能。在沖突前的危機局勢中,機器決策的這種脆弱性可能尤其是一個挑戰(zhàn),在這種局勢中,國家間的緊張局勢非常嚴重。在各種有爭議的地區(qū),來自競爭國家的軍事力量經(jīng)常在低于戰(zhàn)爭門檻的軍事化爭端中進行互動。部署部隊之間的這種互動有時會因可能加劇各方緊張局勢的事件或小規(guī)模沖突而面臨升級的風險。這對國家領(lǐng)導人提出了挑戰(zhàn),他們對自己的軍隊指揮和控制不完善。然而,今天部署的軍事力量依賴于人類的決策。人類可以從他們的國家領(lǐng)導和指揮官的意圖中理解其廣泛的指令,例如“保衛(wèi)我們的領(lǐng)土,但不要發(fā)動戰(zhàn)爭”。相對于人類,即使是當今最先進的人工智能系統(tǒng)也沒有能力理解廣泛的指令,它們也沒有表現(xiàn)出人類經(jīng)常稱之為“常識”的那種背景理解。軍方已經(jīng)在有爭議的地區(qū)使用無人駕駛車輛(無人機)。隨著時間的推移,隨著軍隊將更多的自主功能納入無人駕駛車輛,這種功能可能會使有爭議地區(qū)的互動變得復雜。
自主系統(tǒng)可能會根據(jù)編程采取行動,這些編程雖然不是故障,但與指揮官在相同情況下希望處于類似位置的人所做的不同。盡管軍事文化和理論賦予部署的靈活性程度有很大差異,但人類有更大的能力靈活應(yīng)對復雜和可能模棱兩可的升級事件,從而可以在確保升級的同時滿足國家決心的競爭需求。[20]自主系統(tǒng)將簡單地遵循它們的程序,不管那可能是什么,即使那些規(guī)則不再有意義或與指揮官在特定情況下的意圖不一致。由于人類指揮官無法預測在有爭議地區(qū)部署的前方軍事力量可能面臨的所有可能情況,這一挑戰(zhàn)更加復雜。在危機中使用自主系統(tǒng)有效地迫使人類決策者用某些預先指定的行動來約束自己,即使他們不愿意這樣做。
自主系統(tǒng)在軍事糾紛或有爭議地區(qū)采取的意外行動對軍隊構(gòu)成了挑戰(zhàn),因為他們在部隊中采用了更多的自主系統(tǒng)。當今使用的許多自主系統(tǒng)的復雜性,即使是那些依賴基于規(guī)則的決策的系統(tǒng),也可能意味著使用自主系統(tǒng)的人員對某些情況下該系統(tǒng)可能采取的行動缺乏足夠的了解。相比之下,人類有能力靈活地解釋高級指揮官的指導,甚至忽略指導,即使在不再適用的指導下,也可以通過在有爭議的部隊之間互動時保留人類的決策來管理風險升級地區(qū)。[21]
意外局勢升級不僅僅局限于致命的行動,例如向敵軍開火。非致命的行動,例如越過另一個國家的領(lǐng)土,也可以被視為升級。即使這些行動不會直接導致戰(zhàn)爭,也可能加劇緊張局勢,增加對對手意圖的懷疑,或激化公眾情緒。雖然在大多數(shù)情況下,人類仍然會保留如何應(yīng)對事件的代理權(quán),但相互競爭的自主系統(tǒng)可能會產(chǎn)生意想不到的交互作用或不斷升級的螺旋。在其他環(huán)境中,包括金融市場,甚至在算法相對簡單的情況下,也可以看到算法之間復雜的交互動態(tài)。[22]另一個問題源于一旦部署,人類可能無法取消自主系統(tǒng)。采用自主功能的一個原因是,即使無人駕駛的車輛在沒有與人工控制器的可靠通信鏈接的情況下運行,它們也可以繼續(xù)執(zhí)行其任務(wù)。當人類操作員和自主系統(tǒng)之間沒有通信鏈接時,如果政治環(huán)境發(fā)生變化,導致系統(tǒng)行為不再合適,人類操作員將無法召回該自主系統(tǒng)。如果政治領(lǐng)導人決定終止敵對行動,但至少在一段時間內(nèi)沒有能力召回自主系統(tǒng),這可能是使沖突升級的挑戰(zhàn)。其結(jié)果可能是,即使政治領(lǐng)導人希望?;穑瑪硨π袆尤詫⒗^續(xù)?;蛘?,不能完全停止敵對行動可能破壞停戰(zhàn)談判,導致沖突繼續(xù)。這些問題并不是自主系統(tǒng)所獨有的。政治領(lǐng)導人對人類軍事力量的指揮和控制不完善,有時也會導致人類指揮部署的部隊發(fā)生類似的事件。例如,1812 年的新奧爾良戰(zhàn)役是在一項和平條約簽署后進行的,因為指揮部門與已部署部隊的通信遲緩。
由于軍事任務(wù)的性質(zhì),在某些情況下,將人工智能引入軍事行動也可能帶來風險,即使人工智能系統(tǒng)的性能正確且符合人類意圖。一些現(xiàn)有的研究已經(jīng)把重點放在人工智能與特定軍事任務(wù)領(lǐng)域的交叉點上,尤其是核穩(wěn)定性。鑒于有意或無意核爆炸的潛在后果,核穩(wěn)定顯然是一個令人關(guān)切的領(lǐng)域。致命性自主武器系統(tǒng)(LAWS)是人工智能的一種特殊用途,它將致命性決策權(quán)從人類委托給機器,也是現(xiàn)有研究的一個重點領(lǐng)域。關(guān)注人工智能風險的學者可能會特別關(guān)注其他領(lǐng)域。人工智能與網(wǎng)絡(luò)安全和生物安全的交叉點是值得探索的領(lǐng)域,目前的研究工作相對較少。[23]
人工智能的潛在風險應(yīng)用已經(jīng)超出了戰(zhàn)場,擴展到人工智能在預警和預測對手行為等領(lǐng)域的輔助決策。例如,用于監(jiān)視、跟蹤和分析大量敵方行為數(shù)據(jù)的人工智能工具,對于潛在攻擊的早期指示和警告具有明確的價值。然而,算法也有已知的局限性和潛在的問題特征,例如缺乏透明度或可解釋性、面對數(shù)據(jù)分布變化的脆弱性和自動化偏差。人工智能系統(tǒng)在新的條件下往往表現(xiàn)不佳,這表明人類的判斷仍在發(fā)揮作用。人類傾向于自動化,再加上非人工智能預警和預測系統(tǒng)產(chǎn)生虛假警報的歷史,表明決策者應(yīng)謹慎對待人工智能在預警和預測中的應(yīng)用,盡管人工智能在智能決策輔助工具中具有潛在價值。確保在預警和預測場景中負責任地使用人工智能系統(tǒng)的教育和培訓至關(guān)重要。
最后,自主系統(tǒng)提出了新的挑戰(zhàn),即在有爭議的地區(qū),因為收到的信號模棱兩可,它們的行為是否應(yīng)由人類指揮官決策。即使系統(tǒng)按照預期運行,由于上述命令和控制問題,對手也可能不知道自主系統(tǒng)的行為是否符合人類的意圖。在危機情況下,這會造成如何解釋自主系統(tǒng)行為的模糊性。例如,如果一個自主系統(tǒng)向一個國家的軍隊開火,這應(yīng)該被解釋為指揮國家的政治領(lǐng)導人故意發(fā)出的信號,還是一個意外?但這其實并不是一個新問題,因為人類指揮的軍事力量也面臨類似的挑戰(zhàn)。各國可能不知道敵方部署部隊的行動是否完全符合其政治領(lǐng)導層的意志。由于自主系統(tǒng)的行為是否與人類的預期行為一致的不確定性,自主系統(tǒng)可能會使這種動態(tài)復雜化。
人工智能的軍事應(yīng)用帶來了一些風險,包括人工智能改變戰(zhàn)爭性質(zhì)的方式、當今人工智能技術(shù)的局限性,以及將人工智能用于核行動等特定軍事任務(wù)。決策者應(yīng)該意識到這些風險,因為各國開始將人工智能納入其軍事力量,他們應(yīng)該盡可能地減輕這些風險。由于人工智能是一種通用技術(shù),因此期望軍方整體上不采用人工智能是不合理的,正如期望軍方不采用計算機或電力一樣。然而,軍方如何采用人工智能系統(tǒng)非常重要,各種方法可以緩解軍事人工智能競爭帶來的風險。
建立信任措施是決策者可以用來幫助降低國家間軍事人工智能競爭風險的一個潛在工具??梢圆捎酶鞣N可能的建立信任的措施,所有這些措施都有不同的利弊。隨著學者和政策制定者進一步了解軍事人工智能競爭的風險,這些和其他建立信任的措施應(yīng)與傳統(tǒng)軍備控制等其他方法一起仔細考慮。