王浩東
【摘要】近年來,人工智能技術(shù)發(fā)展迅猛,加快了具備自主控制能力的武器和戰(zhàn)斗系統(tǒng)在戰(zhàn)爭中的應(yīng)用,美國國防部和軍方已經(jīng)表示將人工智能與武器系統(tǒng)結(jié)合是未來趨勢,歐洲各國也在加緊研制各類自主控制武器系統(tǒng),但這勢必會對目前國際人道法原則發(fā)起挑戰(zhàn),影響其對非人道行為的制裁。本文將從介紹戰(zhàn)爭中人工智能技術(shù)的運(yùn)用情況出發(fā),探討其對國際人道法體系的挑戰(zhàn),對未來國際人道法的發(fā)展提出可行的建議。
【關(guān)鍵詞】人工智能 ?國際人道法 ?挑戰(zhàn)與對策
一、戰(zhàn)爭中人工智能技術(shù)運(yùn)用介紹
人工智能,是指能夠使機(jī)器以人類智能相似的方式作出反應(yīng)的計算機(jī)技術(shù),它不是人的智能,但可以超過人的智能。在戰(zhàn)爭中,人工智能可以依靠大數(shù)據(jù)的分析,對軍事指揮官的軍事行動提供決策建議,但最后的決定權(quán)依舊掌握在指揮官手中,故在這一應(yīng)用場景下,人工智能技術(shù)只是作為數(shù)據(jù)資料,不產(chǎn)生違反國際人道法的情況。而人工智能目前最主要并且最具爭議的應(yīng)用主要體現(xiàn)在自主控制武器的使用。
紅十字國際委員會提出,自主控制武器是指能夠獨(dú)立選擇目標(biāo)進(jìn)行攻擊的武器。而美國國防部則認(rèn)為自主控制武器是指在投入使用后可以自主選擇目標(biāo)并與之交戰(zhàn)的武器。各方對于自主控制武器的定義都表明獨(dú)立自主地選擇目標(biāo)并進(jìn)行不同程度的打擊是這決定這一武器不同于傳統(tǒng)軍事技術(shù)的關(guān)鍵。自主控制武器能夠在減少武器使用方戰(zhàn)斗員傷亡的情況下實(shí)現(xiàn)軍事目的,成為各國加快速度研發(fā)這一武器系統(tǒng)并廣泛應(yīng)用于戰(zhàn)爭中的現(xiàn)實(shí)動力。因此,對于這一技術(shù)是否符合國際人道法的規(guī)定的研究存在一定的必要性。
二、國際人道法基本原則概述
在國內(nèi)外學(xué)者對于國際人道法的研究中,比例原則和區(qū)分原則均屬于國際人道法的基本原則成為各方的共識。因此,要分析自主控制系統(tǒng)是否具備合法性,就要從研究比例原則和區(qū)分原則出發(fā)。
(一)比例原則
在國際人道法體系中,比例原則主要體現(xiàn)在日內(nèi)瓦公約《第一附加議定書》的第五十一條和第五十七條中。按照第五十一條的規(guī)定,預(yù)期的軍事利益若不及附帶造成的損失,那么這次軍事行動便違反了比例原則。而第五十七條規(guī)定了在實(shí)施軍事行動時,應(yīng)盡可能采取預(yù)防措施,以降低對平民和民用物體造成的危險。另外,在日內(nèi)瓦公約《第二附加議定書》以及《國際刑事法庭規(guī)約》中,均有對比例原則的相關(guān)規(guī)定。
(二)區(qū)分原則
區(qū)分原則在《圣彼得堡宣言》中首次被闡述,此后在多部法律文件中得到重申。日內(nèi)瓦公約《第一附加議定書》第四十八條將區(qū)分原則描述為,為了尊重與保護(hù)平民和民用物體,沖突各方無論何時都要區(qū)分平民和戰(zhàn)斗員,民用物體和軍事目標(biāo)。國際刑事法庭也在關(guān)于核武器合法性問題的咨詢意見中表示,國家并沒有無限制的權(quán)利選擇其使用的作戰(zhàn)手段和方法。
三、自主控制武器合法性探究
(一)自主控制武器與比例原則
根據(jù)比例原則的要求,自主控制武器造成的傷害需要低于取得的軍事利益。在武裝沖突中,影響軍事行動所造成損失的范圍由多重因素決定,人為指令下的軍事行動在沒有合理規(guī)劃的情況下,極容易違反比例原則,而自主控制武器通過人工智能進(jìn)行技術(shù)分析,往往能夠更迅速地模擬出打擊后的傷害范圍,對違反比例原則的軍事行動方案加以避免,保證附帶傷害與預(yù)期軍事利益之間的平衡性。即便其計算存在一定的誤差,在多數(shù)情況下,自主控制武器比人為指揮的軍事行動更能遵循比例原則。
(二)自主控制武器與區(qū)分原則
區(qū)分原則要求平民和民用物體等不得作為軍事目標(biāo),自主控制武器發(fā)起的攻擊也需要對該類受保護(hù)主體加以避免。毫無疑問,人工智能在數(shù)據(jù)庫支持下比人類更容易分辨出醫(yī)院、古跡等這類受到國際人道法保護(hù)的民用物體。國際人道法將平民定義為沒有直接加入武裝沖突的人,這一概念本就不夠明確,就更提高了自主控制武器的技術(shù)要求。但是,人工智能技術(shù)如果滿足了這一要求,其也就不違反區(qū)分原則的要求。
綜上,在人工智能技術(shù)發(fā)展到足夠成熟的情況下,自主控制武器在戰(zhàn)爭中的運(yùn)用便不違反國際人道法的規(guī)定。
四、人工智能技術(shù)對國際人道法的挑戰(zhàn)
雖然自主控制武器的可以在戰(zhàn)爭中被合法運(yùn)用,但是一旦其造成過分損失或因技術(shù)失誤造成不符合國際人道法規(guī)定的后果,對責(zé)任主體的確定便成為一個關(guān)鍵。顯然,載有人工智能技術(shù)的自主控制武器不能以被告身份登上軍事法庭。
根據(jù)前述內(nèi)容,自主控制武器的使用在具備合法性的情況下,武器的生產(chǎn)者和技術(shù)的開發(fā)者也不應(yīng)承擔(dān)刑事責(zé)任。而在武裝沖突中,自主控制武器的使用應(yīng)當(dāng)是需要經(jīng)過指揮官批準(zhǔn)的,那么指揮官是否需要對自主控制武器造成的不當(dāng)后果造承擔(dān)責(zé)任呢?
根據(jù)《犯罪要件》,各個罪名的成立都需要以“故意”來作為主觀方面的構(gòu)成要件。而與我國刑法理論不同的是,此處的故意只要求犯罪嫌疑人希望或者追求犯罪結(jié)果的發(fā)生,并對發(fā)生的結(jié)果有清醒的認(rèn)識,類似我國刑法上的直接故意,又或是犯罪嫌疑人意識到自己的作為或者不作為將使危害結(jié)果不可避免。而自主控制武器在發(fā)起攻擊時,脫離指揮官的控制,其根據(jù)人工智能技術(shù)將演算出多種軍事行動策略,每個策略都可能會造成截然不同的后果,指揮官相對于大數(shù)據(jù)分析,對這些情況的掌握顯然是有限的,很難在主觀層面上談?wù)撝笓]官對于自主攻擊武器造成的后果存在故意。因此,依照現(xiàn)階段的法律體系,難以針對自主控制武器所造成的違反國際人道法的危害后果確定相關(guān)主體的刑事責(zé)任。
五、國際人道法的對策
由于自主控制武器主觀上的獨(dú)立性,指揮官免除了其采取人工智能技術(shù)所帶來的違反國際人道法的危害后果,逃脫了法律制裁,這使受國際人道法保護(hù)的主體被置于危險境地,國際人道法的秩序體系也將受到一系列挑戰(zhàn)。
筆者認(rèn)為,自主控制武器造成了嚴(yán)重的危害后果,批準(zhǔn)使用這一武器的指揮官難辭其咎,其應(yīng)當(dāng)成為責(zé)任主體,接受法庭的審判和法律的制裁。首先,國際人道法應(yīng)當(dāng)對“故意”這一構(gòu)成要件進(jìn)行擴(kuò)充,將有意或刻意的放任也加入到主觀故意中去,因?yàn)橹笓]官明知自主控制武器是脫離自己的指揮而采取行動的,其借助該項(xiàng)技術(shù)來達(dá)到軍事目的,就應(yīng)當(dāng)對運(yùn)用自主控制武器這一行為產(chǎn)生的所有后果承擔(dān)責(zé)任。其次,應(yīng)當(dāng)明確負(fù)有刑事責(zé)任的指揮官應(yīng)承擔(dān)個人責(zé)任,自主控制武器不是適格的國際人道法主體,雙方之間不存在上下級關(guān)系,引用《羅馬規(guī)約》第二十五條,指揮官的行為是單獨(dú)實(shí)施犯罪。 這兩種做法,成本低,規(guī)則明確,能在一定程度上緩解人工智能技術(shù)對國際人道法的沖擊。