李亞龍
(南開大學 法學院,天津 300350)
自1939年紐約世界博覽會開始,無人駕駛車輛的發(fā)展前景成為各國關注的焦點,那時通用汽車公司就預測,到20世紀60年代,無人駕駛汽車將取代傳統(tǒng)汽車。[1]近年,無人駕駛汽車的發(fā)展日新月著,2014年谷歌的測試車已經(jīng)行駛了70萬英里,[2]4132016年12月,世界汽車之都密歇根州通過了允許無人駕駛汽車在公共道路上行駛的法律。而在我國,2017年12月2日,深圳市的無人駕駛公交車已經(jīng)在路上行駛。與技術不斷創(chuàng)新跟進相比,制度標準的創(chuàng)定相對停滯。于此,國家發(fā)改委2018年1月5日發(fā)布了《智能汽車創(chuàng)新發(fā)展戰(zhàn)略(征求意見稿)》,提出應盡快出臺公共道路自動駕駛測試規(guī)范,適時出臺智能汽車測試、準入、使用等環(huán)節(jié)的法律法規(guī),同時應抓緊制定智能汽車運行安全、自動駕駛能力、封閉場地、半開放場地、公共道路測試標準。緊跟國家發(fā)展戰(zhàn)略,研究無人駕駛汽車的刑事風險具有重大的理論實踐意義。
2017年7月20日,《新一代人工智能發(fā)展規(guī)劃》正式發(fā)布,明確把人工智能的發(fā)展提升到國家戰(zhàn)略層面。無人駕駛汽車的研發(fā),正是順應了這一歷史浪潮。
參照美國國家公路交通安全管理局(NHTSA)根據(jù)“車輛的自動化程度”確定的汽車的5個級別,(1)Nat’l Highway Traffic Safety Admin., Preliminary Statement of Policy Concerning Automated Vehicles 4 (2013).無人駕駛汽車應該位于第4級別。其中第0級為“無自動化”,駕駛員完全控制車輛的速度、轉向和其他安全行車所需的功能。第1級為“特定功能的自動化”,駕駛員仍然控制著車輛的安全運行,但是車輛擁有一些“自主”技術,可以輔助駕駛員控制速度、監(jiān)控行人等。第2級為“綜合功能自動化”,車輛能夠控制速度和轉向,司機只需要監(jiān)測道路,并在車輛發(fā)出警告的任何時候采取控制取代自動駕駛。第3級為“有條件的自動駕駛”,車輛承擔大部分駕駛任務,司機僅在特定的交通或環(huán)境條件下監(jiān)視著路面并采取措施。第4級為“全自動駕駛”,“司機”僅需乘坐即可。[3]本文所稱的“無人駕駛汽車”,僅指第4級別的智能汽車,即無人駕駛系統(tǒng)將是“司機”,而人類為“乘客”。
目前來說,無人駕駛汽車有兩大類:“自給自足型”和“相互連接型”?!白越o自足型”無人駕駛汽車完全依賴于已經(jīng)編入汽車程序的信息,它的運行使用GPS系統(tǒng)、地圖數(shù)據(jù)、傳感器和攝像頭等設備接收的數(shù)據(jù),通過運算處理規(guī)劃路線行駛。此種類型的汽車只接收數(shù)據(jù),不向其他車輛或設施發(fā)出信息。而“相互連接型”的無人駕駛汽車則無線連接到一個或多個通信網(wǎng)絡上,它可以由外部控制。相互連接的車輛不僅通過網(wǎng)絡接收信息,而且將自己的信息傳送給網(wǎng)絡和其他車輛。[4]“相互連接型”無人駕駛汽車的運行,需要借助兩項通信技術:車對車“V2V”和車對基礎設施“V21”的技術。[5]“V2V”通信是附近車輛之間的無線數(shù)據(jù)交換。它使車輛能夠全方位感知與其他車輛的位置信息,從而計算風險,發(fā)出駕駛警告或者采取先發(fā)制人的行動來避免和減輕碰撞。然而,要實現(xiàn)“V2V”通信的全部好處,也得需要對方車輛必須配備這種技術?!癡21”通信是車輛和道路基礎設施之間的關于安全和運行數(shù)據(jù)的無線交換。[2]401此項技術能夠識別紅綠燈、交通指示標志等數(shù)據(jù)。通過將這些技術結合起來,無人駕駛汽車能夠以一種全新的方式與周圍環(huán)境互動,使得這些車輛能“看到”人類司機能看到的一切,而且比人類更快、更有效。
無人駕駛汽車因大數(shù)據(jù)、深度學習、蒙特卡洛樹搜索、神經(jīng)網(wǎng)絡等技術的不斷發(fā)展終會取代傳統(tǒng)的駕駛汽車,實現(xiàn)完全“脫離”人類自動駕駛。與傳統(tǒng)模式汽車相比,無人駕駛汽車具有以下特點。
1. 運行自主性
無人駕駛汽車,相較于傳統(tǒng)模式的汽車來說,操作的主體由“人”變成了“無人駕駛系統(tǒng)”。路線規(guī)劃、轉彎、超車、避讓行人、按交警指示行駛操作都是由無人駕駛系統(tǒng)自主完成。而以往的駕駛員,完全可以在車上工作、飲食、看報,甚至是睡覺,形象地說無人駕駛汽車相當于一輛完全私人的“出租車”。
2. 主體無限性
主體的無限性是指相對于傳統(tǒng)駕駛模式的汽車而言,無人駕駛汽車是一個相對的“無限性”。根據(jù)《機動車駕駛證申領和使用規(guī)定》,只有符合“18周歲以上、70周歲以下;兩耳分別距音叉50厘米能辨別聲源方向;無紅綠色盲;雙手拇指健全,每只手其他手指必須有三指健全,肢體和手指運動功能正?!钡葪l件才能申請機動車駕駛證。但是,在無人駕駛模式下,根據(jù)智能化程度可以對這些條件進行無限放寬,兒童、聾啞人、高齡老人、殘疾人,甚至是盲人都有可能“駕駛”汽車。
3. 運用廣泛性
無人駕駛汽車可以使“共享汽車”的廣泛使用成為可能。之前限制“共享汽車”發(fā)展的主要原因在于監(jiān)管乏力,智能化系統(tǒng)管理可以使這一弊病得到解決。無人駕駛汽車還可以運用于長途的物流運輸中,極大提升運輸效率;同樣可以運用到軍事、科研中,豐富國家的戰(zhàn)略計劃;就連外賣運送、快遞運輸、送子通勤等事項中也能見到無人駕駛汽車的身影。
目前沒有任何一種技術可以在沒有人工操作者參與的情況下違法,而無人駕駛汽車等人工智能將有潛力做到這一點,由此會引發(fā)一系列法律問題。[6]由于沒有“人”來進行駕駛,那么違法行為的責任應當由誰來承擔呢?無人駕駛系統(tǒng)能否具備刑事責任主體地位的爭論甚囂塵上。
刑事責任的主體資格,以具有刑事責任能力為標準。刑事責任能力,簡單來說就是可以“認識自己行為的性質、意義、作用和后果,并能對自己的行為進行解釋、控制以及對自己的行為承擔刑事責任的能力”[7]90。一言以蔽之,刑事責任的主體得具備辨認和控制自己行為的能力。
1.不具備認識能力
根據(jù)哲學上的“二元論”理論,宇宙被分為精神和物質,前者不能歸結為后者。在沒有任何精神物質的情況下,無人駕駛汽車無法擁有欲望或信仰等精神狀態(tài)。如John Searle所提出的“生物自然主義”認為,本體論上講精神狀態(tài)不能歸結為物質形態(tài)。某些事物,如意識和意向性,“只存在于人類或動物主體的經(jīng)歷中”,而不能通過“制造(類似人)計算機模擬”而存在。Searle還通過其著名的“中文室”思維實驗來證明,模擬理解并不等于真正的理解。[8]所以,無人駕駛系統(tǒng)并不具備刑事責任能力意義上的認識能力。
2.不具備控制能力
獨立主體必須是康德意義上的自治主體,在康德意義上恰當?shù)匕选爸黧w”視為欲望的創(chuàng)造者。[9]雖然一個人的欲望可能是由他所處的環(huán)境塑造的,但這些欲望中至少有一部分必須來自本人。相比之下,無人駕駛汽車等人工智能的“欲望”或“信念”完全是由外部的力量控制的。它們完全來自算法,算法由設計者創(chuàng)建,并由培訓師補充。因此,無人駕駛汽車的動作永遠不能被認為是“自主的”,也即無人駕駛系統(tǒng)并不具備刑事責任能力意義上的控制能力。
3.倫理不可接受性
賦予無人駕駛汽車刑法上的主體地位,無疑將人類和人類制造的產(chǎn)品等同視之,這在一定程度上意味著對人類群體的不尊重,在倫理秩序上是不可接受的。無人駕駛汽車系統(tǒng)再怎么無限趨近于人,究其根本而言它還是人類制造的產(chǎn)品,是凝結著人類智慧光芒的“人造品”,是無法從刑事責任能力層面上和人類同等看待的。
4.刑罰上的無效性
報應主義認為刑法的目的是懲罰道德上的錯誤行為,即不犯下道德上錯誤行為的人不應因這些行為而受到懲罰。那么對于無人駕駛汽車來說,其并不具備可以做出道德上錯誤行為的能力。[10]因為無人駕駛汽車本身不能形成任何精神狀態(tài),并不可能知道自己的行為違反任何道德準則。再從目的刑理論出發(fā),處罰無人駕駛汽車本身,同樣無法實現(xiàn)“預防”功用。所以,對無人駕駛系統(tǒng)施以刑罰起不到任何效果。
5.有悖于罪責自負
如果肯定無人駕駛汽車的主體地位,與其說懲罰無人駕駛汽車本身,不如說是在懲罰“人”,畢竟無人駕駛是屬于“人”的財產(chǎn)。哪怕再精致的理論,也沒辦法脫離無人駕駛汽車本身無法“罪責自負”的詰難。執(zhí)意處罰無人駕駛汽車,背離責任主義原則。
6.功利主義的考量
否定無人駕駛汽車的主體地位,更具功用價值。此種取向使更多的風險由設計者、制造商和用戶承受,這可以使這些人類主體在進行研發(fā)、生產(chǎn)和使用過程中,更加恪守審慎義務,使得在避免無人駕駛汽車失控的防范中達到最大化的效果。因為在無人駕駛汽車發(fā)展過程中,最大的風險就在于無人駕駛汽車失控。為了更好地規(guī)避這一風險,妥帖的方法還是否定人工智能的主體地位。
無人駕駛汽車擁有高度自主權力,正是這種權力切斷了事故與創(chuàng)造者、設計者等之間的因果聯(lián)系。此種情況下,處罰無人駕駛汽車背后的“人”未必公平,若再不賦予其刑事主體地位,則會在刑法上出現(xiàn)“責任”或“懲罰”缺口。[11]300為避免缺口,賦予無人駕駛汽車刑事責任主體地位的聲音日隆。歐洲議會就大膽建議,為機器人創(chuàng)造一種特定的法律地位,(2)Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics, EUR. PARL. Doc. 2015/2103(INL) 59.“在機器人社會化應用不可避免的情況下,我國(乃至世界各國)應當肯定機器人的法律主體地位,賦予機器人必要的權利”[12]。
1.道德算法發(fā)展
創(chuàng)建道德算法支配下的“道德機器”,已經(jīng)成為一個活躍的研究領域。David Abel, James MacGlashan和Michael Littman認為道德算法的創(chuàng)建大概可以分為基于規(guī)則的方法和效用最大化方法。嚴格的基于規(guī)則的方法要求研究人員事先對所有道德規(guī)則進行編碼。因此,它將不允許人工智能學習新規(guī)則或“在道德不確定性下”做出決策。相比之下,在基于軟規(guī)則的方法下,研究人員為人工智能提供一定的高級道德規(guī)則,并通過實例訓練機器人,幫助演示這些規(guī)則如何適用于特定的案例。[13-14]比如:由Michael Anderson, Susan Anderson和Chris Armen開發(fā)的醫(yī)學倫理學專家MedEthEx系統(tǒng),可以根據(jù)Tom Beauchamp和James Childreses提出的生物倫理原則(自治、非惡意、慈善和公正),為醫(yī)務人員提供建議。[15][16]498-499道德算法可以使無人駕駛汽車對自己的“動作”進行一些控制,并且可以遵循提供的道德規(guī)范,而這些道德規(guī)范反過來又決定了無人駕駛汽車對特定刺激的反應。這樣無人駕駛汽車就有了主體性也有了責任能力,人們也會愿意接納無人駕駛汽車作為刑事責任的主體。
2.類比單位犯罪
對責任能力的理解,如果采用一種功能性且不那么以人為中心的解釋,如Peter French或Philip Pettit所提出的理論(賦予非人類實體虛擬的人格,會使事故調(diào)查進展高效化),那么人工智能無疑有資格具備獨立的責任能力。[16]492賦予單位刑事責任主體地位的合理解釋是,有助于識別個人的不法行為。外部方(如監(jiān)管機構)通常很難準確確定具體的個人或代表,通過具有多層管理和授權的公司犯下了法律錯誤。相比之下,公司內(nèi)部的個人執(zhí)行這項任務相對容易且高效一些。這些人還能更好地采取措施,防止今后發(fā)生類似的錯誤。如此將刑事責任強加于公司,將查明不法分子的責任從“外人”轉移到“內(nèi)部人士”身上,可以降低調(diào)查成本。[17]
對無人駕駛汽車來說,首先,其算法可能比企業(yè)內(nèi)部結構復雜。例如它的異常舉動可能是由一系列看似無害的指令造成的,相關的指令可能是當前的,也可能是在異常行為發(fā)生前多年給出的。指令可能是有意的,也可能是無意的(例如,當機器人被動地觀察人類的行為時)。[16]508-509其次,無人駕駛汽車的算法在功能上類似于公司企業(yè)的內(nèi)部決策結構,算法實例化了無人駕駛汽車的“目標和政策”。這些目標和政策是相對穩(wěn)定的,因為它們代表了一組無人駕駛汽車設計者的綜合觀點,而不是指導人工智能執(zhí)行任務的任何人當前的愿望。根據(jù)算法做出的任何行為都是出于無人駕駛汽車自身的原因,因此會構成“有意”行為。[16]520-521最后,公司刑事責任在美國已經(jīng)被承認了一百多年,一種既定做法的存在本身往往證明了這種做法的價值。[18]5所以,將道德資格(moral agency)授予非人類實體,在沒有明顯錯誤的情況下,應優(yōu)先考慮。[16]517
3.整合社會矛盾
刑法具有責難功能(也稱為表達功能)至少表現(xiàn)在兩方面。其一,對罪犯施加刑事責任有助于消除罪犯的行為可能對社會價值體系產(chǎn)生的不良影響。[19]其二,不追究罪犯的刑事責任可能被解釋為表達一種含蓄的價值,即罪犯的行為是允許的。[18]51刑罰的判斷,如果與社會的實際價值體系不一致,可能會造成混亂,破壞法律的權威。將刑事責任施加給一個無人駕駛汽車,可以有效地向社會成員傳達對該類“出格”行為的反對。相比于懲處與其交互的人,這可能是實現(xiàn)這種譴責功能的最合適的方式。此外,研究表明人們對非人類實體(如公司和機器人)所做的行為會產(chǎn)生情感反應(憤怒、沮喪等),而且隨著人工智能變得更加擬人化,人們更傾向于這樣做。[20]比如:在一項實驗中,40名大學生與人形機器人Robovie互動。在學生不知情的情況下,研究人員指示Robovie錯誤地評估學生的表現(xiàn),阻止他們贏得20美元的獎金。隨后的采訪顯示,65%的學生認為應該譴責Robotive。[16]506所以,當無人駕駛汽車傷害了人類,給其貼上罪犯的標簽,可能會給那些受害者帶來一些急需的撫慰。
以上,直接處罰無人駕駛汽車,進一步向受害者傳達了對無人駕駛汽車錯誤行為的集體反對。這樣的否定會給受害者帶來一定程度的“解脫”,為治愈矛盾鋪平道路,從而整合社會矛盾。
4.契合責任主義
人工智能背后的“人”,完全不可能預測人工智能遭遇的每一個場景,并對該場景做出適當?shù)姆磻?。[21]此外,盡管一些深度學習系統(tǒng)似乎“有效”,但構建它們的設計者不一定知道它們?yōu)槭裁从行?,也不能展示系統(tǒng)決策背后的邏輯。在這種情況下,無人駕駛汽車本身才是其決策的最終權威。比如:AlphaGo在與世界頂級圍棋選手李世石的第二場比賽中,做出了一個被人們視為“無人能理解”的非凡舉動。[16]526-527類比電腦,每次有人使用電腦犯罪時,我們不會責怪電腦制造商。還有就是,人工智能的行為在于算法,而算法的素材取源于其背后的大數(shù)據(jù),大數(shù)據(jù)本身可能就存在問題。正如Solon Barocas等在文章《大數(shù)據(jù)的不同影響》中指出,數(shù)據(jù)挖掘有時“反映了社會中普遍存在的偏見”。[22]一個典型的例子是St. George’s Hospital Medical School用計算機程序來篩選入學候選人。最后被淘汰的人中,大多數(shù)是女性和非歐洲的人士,因為在過去醫(yī)學界對婦女和非歐洲的人存在偏見。[23]由于數(shù)據(jù)的偏見,無人駕駛汽車等人工智能的決定同樣存在缺陷。同樣,一個聰明的機器人,可以從它的訓練者那里學習道德規(guī)范,也會繼承那些訓練者的偏見和錯誤。如果這些偏見被廣泛持有,則往往是無意識的。所以,不讓無人駕駛汽車承擔“應有”的責任,轉而讓背后的“人”負責是不公平的,也不符合責任主義的要求。
5.具有工具價值
肯定無人駕駛汽車的刑事責任主體地位具有以下工具價值:第一,可以消除受害者直接報復無人駕駛汽車背后的設計者、制造商和用戶的想法,減少可能造成的不成比例甚至是無理的傷害。第二,會為未來制造這類機器的科學家提供一些刺激,讓他們更仔細地思考如何“教”無人駕駛汽車符合人類秩序的規(guī)范。[16]492-493第三,類似古代法蘭克質押制度(frankpledge)[24]機理,會讓無人駕駛汽車等人工智能設計者之間、制造商之間、制造商與用戶之間更充分地合作。
無人駕駛汽車要想良性發(fā)展,關鍵在于將其應用限定于人類可控制的范圍之內(nèi)。所謂的“可控”是指,主觀上能夠預見風險的射程范圍,客觀上具有技術措施能夠化解風險,而不至于成本畸高。只要存在這一前提,實際責任的承擔都應該落到無人駕駛汽車背后具體的“人”身上。若突破這一前提,無人駕駛系統(tǒng)已經(jīng)不受人類控制了,這種情況下其實更沒有必要談論其刑事責任的主體地位問題。到那時應該是無人駕駛系統(tǒng)等人工智能們在積極地“探討”如何“立法”保障人類權利的圖景。
1.對于道德算法發(fā)展而言
認為道德算法可以創(chuàng)造出道德上優(yōu)秀的無人駕駛汽車的想法是天真的。從技術上來說,編程或訓練機器遵守我們想要的道德規(guī)則是非常困難的,或許這可以被攻克,但從“軟件”上來說存在諸多謎思。首先,對什么是合適的道德行為沒有達成一致。其次,大多數(shù)道德規(guī)則都承認反例或例外,但像人工智能一樣按照“字面上”的方式遵循,可能不能預見和避免這些例外。再次,可能沒有動機去創(chuàng)造一個道德完美的人工智能,因為有些人工智能的創(chuàng)造可能就是為了從事道德上“不確定”的行為。[11]303最后,人工智能架構在不復制類人的心智架構時工作得最好。下國際象棋的電腦和面部識別程序并不遵循類似人類的策略或方法來完成任務。人工智能是通過研究深不可測的大型數(shù)據(jù)集,并從這些數(shù)據(jù)集中推斷出規(guī)則和策略來工作。處理這類任務的方法沒有理由會涉及像信仰、欲望和意圖等心理狀態(tài)的功能類比。程序可以按照優(yōu)化過程來構建,而優(yōu)化過程缺少與我們所說的信念或意圖相一致的子組件。[25]即使它們有類似人類的心理結構,這些可能不包括道德能力或對行動的道德原因的敏感性。[11]304
2. 對于類比單位犯罪而言
刑法規(guī)定單位犯罪,并不是因為“單位”具有類似自然人的主體性,而是因為在單位制度中,自然人與單位財產(chǎn)彼此獨立,單位犯罪在本質上是自然人利用單位進行犯罪。為了更好地處罰自然人,就將單位“勉強”地作為刑事主體,以此進一步“罰沒”自然人財產(chǎn)。如學者所言,這就是“《刑法》第31條對單位犯罪規(guī)定‘雙罰制’的主要原因。否則,如果認為不是自然人犯罪而只是單位犯罪,則只應規(guī)定處罰單位而不能同時處罰自然人,因為‘罪責自負、反對株連’的個人責任主義是現(xiàn)代刑法的基本原則”[26]。所以,用單位犯罪來類比無人駕駛汽車論證其刑事主體地位并不合適。再者,在單位犯罪中自然人背后的操控具有濃重的痕跡,而在無人駕駛汽車的犯罪中,自然人與其顯然是“割裂”的,用單位來類比也不準確。
3. 對于整合社會矛盾而言
整合社會矛盾的論據(jù)主要是從刑法的責難功能和照顧受害者情感的角度出發(fā),但是此論據(jù)的成立前提應該是無人駕駛汽車已經(jīng)具備“主體性”。因為只有證明了人工智能造成的損害是類似人類的“行為”造成的,才能被刑法的責難功能所評價。所以,“肯定說”的邏輯存在謬誤。退一步而言,人類情緒的宣泄對象并不能作為成為主體性的依據(jù)。無須說是針對高度擬人化的人工智能,就是被樹枝絆倒,人們也可能咒罵抑或是踢打樹枝發(fā)泄憤怒。在這種情況下,我們并不會認為通過處罰樹枝來安撫受害人是妥當?shù)?,對待無人駕駛汽車“犯罪”亦是如此。
4. 對于契合責任主義而言
對于規(guī)避責任主義的詰難而言,解決的最好方法并不是讓無人駕駛汽車本身承擔責任,反而讓汽車承擔責任,會忽略其背后“人”的真正責任,以致使其淪為替罪羊。懲處無人駕駛汽車背后的“人”,并不意味著所有事故都需要“人”擔責,可以判斷背后的“人”有沒有合理地預見此種差池的義務。如果有并且能夠通過適當?shù)某绦蛟O計規(guī)避而其并不采取任何措施,對其懲罰并沒有任何有違責任主義的嫌疑。但若是其并不具有預見的可能性,根據(jù)現(xiàn)有刑法理論,當然也不必承擔刑事責任,不存在所謂的刑法處罰漏洞,也沒有違背責任主義的詬病。
5. 對于具有工具價值而言
賦予無人駕駛汽車刑事主體的地位,的確存在一定的裨益,但是總體上來說是弊大于利的。如Ryan Calo所言,“機器人越擬人化,人們越有可能贊揚或指責它”,其實質是忽略了出現(xiàn)問題的真正原因。無人駕駛汽車本身承擔責任,減少了“人”的風險,以致“人們可能會為了機器人而冒險”,也就是突破法律、倫理的限制,大膽創(chuàng)新,致使人工智能發(fā)展失控。[27]
無人駕駛汽車本身并不能成為刑事責任的主體,真正的責任主體在于其背后的人。根據(jù)無人駕駛汽車可能造成犯罪的風險類型可以分為:內(nèi)在事故引起的犯罪風險;外在事故引起的犯罪風險;無人駕駛汽車作為工具使用的犯罪風險。
無人駕駛汽車的內(nèi)在事故,主要是指無人駕駛系統(tǒng)“自主性”活動、非外在侵入事項引起的犯罪風險。由于無人駕駛的設計者、制造商,哪怕是用戶在設計、制造和使用過程中故意使用無人駕駛汽車進行犯罪活動,并不存在理論和實務上的難題,因此,此處內(nèi)在事故的風險分擔主要從設計者、制造者和用戶的過失和不作為的責任談起。
1. 設計者、制造商
基于無人駕駛汽車的高科技屬性,普羅大眾甚至監(jiān)管部門難以窺見其具體運行機理,所以內(nèi)在事故的風險由設計者、制造商保持著實質性控制,而“國家相關管理部門缺乏足夠的技術能力和專業(yè)管理資源”,只能通過前者進行間接管理。[28]所以,設計者、制造商是無人駕駛汽車內(nèi)在事故風險的支配者。
設計者、制造商是否承擔內(nèi)在事故引起的刑事責任的關鍵在于其“保證人”地位的滿足。由于設計者、制造商保持著對汽車內(nèi)在事故的支配地位,那么“保證人”的地位就取決于,其是否滿足社會對無人駕駛汽車的設計者、制造商合理的期待,以及與用戶之間的特別合同(超過合理社會期待的部分)約定。社會對無人駕駛系統(tǒng)合理的期待是,原本由傳統(tǒng)駕駛員承擔的合理審慎駕駛的義務應該由無人駕駛系統(tǒng)承擔,這種義務也當然轉嫁到無人駕駛設計者、制造商身上。同時由于碰撞規(guī)避能力的增強,會給無人汽車制造商帶來更高的注意義務。[29]此外,設計者、制造商如果與用戶之間有超過合理社會期待的承諾,設計者、制造商應該履行對用戶的承諾。
具體而言,當無人駕駛的制造商、設計者能夠或者應當意識到,其產(chǎn)品不能滿足社會的期待和合同的承諾時,應當采取補救措施,如召回汽車或者安裝補丁程序等。若在意識到缺陷之后,不采取措施或者采取措施并不達其能力所及時,應該承擔內(nèi)在事故引起的刑事責任。
2. 用戶
根據(jù)無人駕駛技術承諾,用戶可以在使用無人駕駛汽車的過程中看書、看電影或睡覺,即類似于傳統(tǒng)駕駛模式中的“乘客”。在這樣的保證下,制造商與用戶建立了一種近乎信托的關系,這種關系遠遠超過了人類與其他產(chǎn)品之間的關系。[30]在這樣的模式下,用戶免除了內(nèi)在事故的大量責任,在考量過失構成犯罪的過程中應該給予更多的空間。因為基于這項技術的前景,用戶在駕駛全自動汽車時分心是完全合理的,畢竟,這就是這項技術的意義所在。但是,也并不是說在內(nèi)在事故中用戶的責任為零。用戶應該在使用無人駕駛汽車前,經(jīng)過國家機關規(guī)定的培訓并取得駕駛無人汽車的資格,還有就是應該遵守無人駕駛汽車的操作規(guī)范,由不遵守此類義務引起的內(nèi)在事故,由用戶自身承擔刑事責任。此外,倘若無人駕駛汽車真的發(fā)生事故,用戶并不免除造成傷亡結果之后的積極救助義務,若不積極救助,仍需要承擔相應責任。
3. 社會
無人駕駛汽車的發(fā)展在一定程度上是為全人類謀福利,在超出無人駕駛汽車設計者、制造商和用戶公平合理的責任之外的內(nèi)在事故風險,應該落入全社會的擔責范圍,這樣才不會給予設計者、制造商和用戶過重的責任,進而產(chǎn)生阻礙科技發(fā)展的反效果。無人駕駛技術在安全性、效率和機動性上遠甚于傳統(tǒng)駕駛。其一,在所有的汽車事故中,操作失誤占95%以上。鑒于駕駛員的錯誤是造成這些死亡的主要原因,因此,無人駕駛可以減少甚至完全消除因駕駛員操作問題帶來的事故,從而挽救生命。[31]226其二,與傳統(tǒng)汽車相比,無人駕駛汽車更加高效且經(jīng)濟,無人駕駛汽車更便于共享而緩解交通擁堵。自動駕駛汽車之間可以相互協(xié)調(diào)的交通還可以節(jié)省20%~25%的燃料。[31]227據(jù)統(tǒng)計,汽車保險行業(yè)也將會受益,因為自動駕駛汽車減少了交通事故的數(shù)量,使得美國每年汽車保險賠償減少370多億美元。[32]其三,無人駕駛汽車可以幫助兒童、老年人或殘疾人保持積極的生活方式。其四,近年來機器學習的不透明性確實受到越來越多的關注。警方和監(jiān)管機構等“局外人”可能需要機器人設計者、制造商和所有者等“局內(nèi)人”的廣泛合作,才能發(fā)現(xiàn)機器人不當行為的真正原因。但若嚴厲地追究這些“內(nèi)部人”的責任,可能會使他們極力撇清自己的責任而不細致調(diào)查事故的真實原因,這對無人駕駛技術來說是極不利的。此時,若讓社會給予更大的寬容,或可換取事故的避免和技術的進步。簡而言之,無人駕駛技術的發(fā)展是利大于弊的,社會更多地承擔內(nèi)在事故引起的風險可使這一項技術更快更好地良性運轉。
無人駕駛汽車的外在事故主要是指,外在的物理侵入無人駕駛汽車、外在的數(shù)據(jù)干擾或者侵入無人駕駛系統(tǒng)所造成的事故。前者是指干擾自動駕駛汽車的部件或者用身體、其他器物干擾駕駛,比如移除或者多加一個部件。后者是指對無人駕駛系統(tǒng)進行黑客攻擊。黑客行為被定義為“未經(jīng)授權訪問計算機系統(tǒng)、程序或數(shù)據(jù)”。[33]
1. 侵權人
侵權人惡意移除或者添加無人駕駛汽車部件,造成外在事故的,侵權人應該承擔由此造成的責任。比如,侵權人盜竊了無人駕駛汽車的GPS系統(tǒng),侵權人除承擔盜竊的責任外,還應該為缺失GPS系統(tǒng)造成的交通事故“買單”。又如,侵權人惡意發(fā)射電磁波,在無人駕駛汽車雷達顯示器上形成強雜波背景或大量假目標回波,使雷達的探測能力降低造成的事故,應該由侵權人承擔相應刑事責任。
2. 黑客
黑客利用互聯(lián)網(wǎng)技術侵入無人駕駛汽車系統(tǒng),盜竊、篡改無人駕駛汽車系統(tǒng)數(shù)據(jù),造成的外在事故由黑客承擔相應刑事責任。比如:黑客為了敲詐勒索某富豪,通過侵入富豪之子的無人駕駛汽車系統(tǒng)篡改數(shù)據(jù),將其子送到黑客指定地點進行綁架。黑客除了承擔敲詐勒索的刑事責任外,還應該承擔侵入無人駕駛汽車系統(tǒng)的刑事責任。當無人駕駛汽車成為可能,無人駕駛汽車系統(tǒng)的安全將成為值得刑法保護的獨立法益,惡意侵入無人駕駛汽車系統(tǒng)應該受到刑法的規(guī)制。
3. 用戶
用戶在使用無人駕駛汽車之前,應該進行合理的檢查,檢查汽車設備是否遭到破壞。如果用戶未盡到合理的檢查義務,那么就造成的損害應該承擔相應責任。用戶在經(jīng)過無人駕駛系統(tǒng)駕駛警告提示后,應該采取合理的措施,例如維修、求助等,使汽車恢復如常后才能繼續(xù)使用。如用戶不顧無人駕駛系統(tǒng)的警告繼續(xù)行駛,也應該承擔由此造成外在事故的刑事責任。
工具化使用的事故是指,把無人駕駛汽車作為犯罪工具進行犯罪造成的事故。技術變革帶來生活便利的同時,犯罪方式、手段也開始推陳出新,無人駕駛因為其智能化和無人化,一定程度上使犯罪變得更為便利。勢必會有犯罪人,利用無人駕駛汽車運輸違禁品、毒品,最為恐怖的是把無人駕駛汽車當作從事恐怖活動的工具。有學者指出,無人駕駛汽車因可以裝載大量易燃易爆物品、容易藏匿危險品、容易沖開保安人員的阻攔、警方不易檢查等特點而易被恐怖分子利用。[34]當無人駕駛汽車被當作運輸毒品或者進行恐怖活動的工具時,承擔刑事責任的主體肯定是背后的策劃者。但是,若是策劃者冒用別人汽車進行諸如此類的犯罪活動,車主將視情況而定成立共同犯罪還是無責任。若是無人駕駛系統(tǒng)識別到危險情況,向車主提出警告,車主應該向相關機關報警或及時采取制動措施。車主若不采取措施,具有構成不作為犯罪的余地。
為了回應時代的要求與現(xiàn)實的需要,關于無人駕駛的法律規(guī)定亟待出臺,只有在法律保障下的無人駕駛的發(fā)展才會是良性的。從防控網(wǎng)絡犯罪的經(jīng)驗教訓來看,對高技術應用實行事后嚇阻式管控是無效的[35],所以,法律只有在無人駕駛研發(fā)制造時、使用中、事故后全方位地干預和管控,才能將風險控制在人類能夠承受的范圍內(nèi)。
毋庸置疑無人駕駛汽車可為社會帶來巨大效益,刑法在應對無人駕駛在研發(fā)制造階段的風險時應該采取積極措施,確保施加于無人駕駛汽車產(chǎn)業(yè)的責任不會妨礙這項新興技術的發(fā)展。為保護新技術,“限制責任”的立法是歷史上的慣例。如1957年頒布了《普萊斯安德森核工業(yè)賠償法》,以限制核工業(yè)的賠償責任。1994年的《通用航空振興法》,規(guī)定小型飛機、小型飛機部件制造商在18年內(nèi)不承擔責任等。[31]245無人駕駛汽車研發(fā)制造階段的刑法應對,“限制責任”的立法路徑或可借鑒。
1. 確保無人駕駛的發(fā)展是人類可控的
牛津大學互聯(lián)網(wǎng)研究院Lucian Floridi教授認為,人工智能對人類的主要威脅是人類本身,濫用人工智能的危險性堪比核武器,因此需要人類明智地使用這項技術。[36]國內(nèi)學者也指出:“防范與控制風險的技術必須成為人工智能技術發(fā)展中的重要組成部分,不使人類喪失對智能機器人的控制,不發(fā)生系統(tǒng)性風險,是發(fā)展人工智能技術的底線要求?!盵7]94所以,把無人駕駛汽車的發(fā)展限制在人類可控領域是此項技術的前提,否則真有可能出現(xiàn)人工智能們“立法”來規(guī)范人類活動的圖景。
為確保無人駕駛發(fā)展可控,使無人駕駛技術的發(fā)展在為人類謀福利的軌道上良好運行,可以建立無人駕駛研發(fā)的報批制度,以防研發(fā)人員為了過度探索、滿足好奇抑或是自己的私利,私下展開無人駕駛研究。監(jiān)管部門應確保研發(fā)人員所設計、編程、使用的無人駕駛汽車始終處于人類的監(jiān)督范圍之內(nèi)。在研發(fā)無人駕駛的同時,牽制無人駕駛的技術也應該同步跟進。
在此領域,可設研究人工智能不報罪、私自開展人工智能研究罪、濫用人工智能罪等犯罪,以預防無人駕駛等人工智能在研發(fā)制造領域脫離人類控制。
2. 確保無人駕駛汽車為“良車”
“良車”是指無人駕駛汽車的算法,應該符合人類倫理秩序,能夠遵守人類社會所制定的規(guī)范,在法律上可以提出比人類更高的道德標準的無人駕駛汽車。無人駕駛系統(tǒng)的設計者、制造商應當承擔無人駕駛汽車的研發(fā)安全管理義務,確保無人駕駛汽車可以成為“良車”進而投入市場。無人駕駛汽車的培訓師,也應該“教”無人駕駛汽車遵守規(guī)范以及用于這一目的的數(shù)據(jù)類型。之于對無人駕駛汽車等人工智能提出更高的道德要求而言,原因有二:其一,人工智能具有重生資本,若人工智能不幸“臨難”,可以很容易地通過從云服務器下載到內(nèi)存并將其上傳到一個新的物理模型中來重新生成[16]500;其二,人工智能具備更強的能力,實施救助的成本更低且效率也會更高。所以,法律應該提供所有人工智能都必須遵守的最低道德標準,防止可能出現(xiàn)的逐底競爭(race to the bottom),避免制造商為了制造出最自私的人工智能而相互競爭。想象一下,如果自動駕駛汽車只關注自己的用戶是安全的,將會對別人造成多大的傷害。[16]502-503
在此領域,可以設立對設計者的玩忽職守罪、算法不符合最低標準罪等罪,以促使設計者、制造商在研發(fā)制造過程中極盡審慎義務,確保無人駕駛汽車為“良車”。
3. 無人駕駛汽車硬件標準的制定
無人駕駛汽車具有被利用從事運輸毒品、從事恐怖活動等風險,為了防控以上風險,需要在無人駕駛汽車研發(fā)制造階段提出相應標準來規(guī)避或減少此類風險。(1)無人駕駛汽車的設備應該能支持識別操作人的功能。(2)為防汽車爆炸等恐怖活動犯罪,無人汽車車身標準應該達到“防爆盾”的標準。(3)無人駕駛汽車在使用過程中發(fā)生故障,車輛必須能夠通知駕駛員。在這種情況下,車輛必須要求駕駛員控制或遠程控制車輛。如果駕駛員不控制或不能控制,車輛必須完全停止。(4)可以參照美國加利福尼亞州和內(nèi)華達州的法規(guī),要求無人駕駛汽車在事故發(fā)生前30秒以read me格式捕捉事故信息,(3)Cal. Veh. Code§38750(c)(1)(C) (2012); Nev. Admin. Code§482A.190(2) (a) (2012).自主技術傳感器數(shù)據(jù)必須能夠被捕獲并以只讀格式存儲,以供警察處理交通事故和日后科研所用。(5)無人駕駛車輛需要配備類似飛機上的“黑匣子”,可以記錄相關數(shù)據(jù)。為防止過度侵犯公民隱私,“黑匣子”通常只有在發(fā)生交通事故后才能進入。(6)參照美國加利福尼亞州的規(guī)定,可以要求無人駕駛汽車的制造商簽署“反病毒”文件,以約束設計者、制造商對于反病毒入侵的提前預防并對未進行病毒入侵防控造成的損害承擔責任。(4)Cal. Veh. Code§227.16 (2012).(7)具備“V2V”、“V21”技術,這將進一步提高互聯(lián)自動駕駛汽車的安全性,因為它們將能夠與更多的車輛和設施進行通信。
在此領域,可以設立生產(chǎn)、銷售無人駕駛汽車不符合標準等犯罪,確保只有符合安全標準的無人駕駛汽車才能投入市場。
無人駕駛汽車及其系統(tǒng),在使用階段會被物理侵入、外在的數(shù)據(jù)干擾而造成事故,所以在使用階段需要刑法來進行規(guī)制,保障無人駕駛汽車的出行安全。
1. 冒用無人駕駛汽車
為防控無人駕駛汽車被犯罪分子當作犯罪工具使用,無人駕駛應該實施實名制度。經(jīng)過培訓的駕駛人員,需要國家機關頒發(fā)的準許駕駛無人汽車編碼,此碼應該如身份證號碼一般“人與碼一一對應”。在每次駕駛無人汽車時,都需要驗證編碼,車輛還需驗證編碼與人是否對應,并需要把這些數(shù)據(jù)存儲到無人駕駛系統(tǒng)里。若是盲人的駕駛編碼,只能操控配備語音操作系統(tǒng)的無人駕駛汽車。未成年人的駕駛編碼需要監(jiān)護人駕駛編碼的遠程驗證,非所用人借用汽車也需要所有人的遠程編碼驗證等。
在此領域,可以設立盜用、冒用無人駕駛汽車罪,以保障無人駕駛汽車實名制度的秩序。
2. 無人駕駛汽車交通肇事
用戶由于操作失誤造成交通事故,并沒有任何理論和實務上的困惑。但是,在無人駕駛汽車的條件下判斷用戶的具體責任時,需要考慮智能時代下整個一代人的“習得的無能”(learned incompetence),即每個人都習慣了無人駕駛汽車不出差錯,這就造成了一種可能性,即在一輛發(fā)生故障的汽車里,實際上沒有人有能力處理緊急情況。[37]所以,刑法在此領域或許應做一定的柔性處理。但若是用戶并未經(jīng)過培訓而使用無人駕駛汽車,并不需要考慮這一特殊的時代條件。若無人駕駛汽車造成事故,無人駕駛汽車的操作人員具有救助義務,如不救助則有成立“遺棄罪”的余地。
在此領域,可以設立非法駕駛無人汽車等罪,規(guī)制類似“無證駕駛”的行為。
3. 干擾無人駕駛汽車行駛
干擾無人駕駛汽車行駛,包括干擾無人駕駛汽車硬件設施和干擾無人駕駛汽車系統(tǒng)兩種情況。隨著無人駕駛汽車的發(fā)展,無人駕駛汽車的硬件本身及其系統(tǒng),都是值得刑法進行保護的獨立法益。
具體來說,干擾無人駕駛汽車行駛有如下情況:(1)破壞無人駕駛汽車設施、設備的,是指盜竊、剝離或添加無人駕駛汽車的設施、設備,干擾無人駕駛汽車行駛的情況。此領域可以設破壞無人駕駛汽車設施、設備罪,以預防此類犯罪的發(fā)生。(2)破壞無人駕駛汽車正常行駛的,是指用身體、器物故意逼停無人駕駛汽車等情況。此領域可以設破壞無人駕駛汽車正常行駛罪,以規(guī)制諸如此類造成嚴重影響的行為。(3)破壞無人駕駛汽車系統(tǒng)的,如發(fā)送電磁波干擾無人駕駛汽車系統(tǒng)的雷達信號、黑客入侵無人駕駛汽車系統(tǒng)等情況。雖說現(xiàn)有制度具有反黑客方面的補救措施,但這些法規(guī)的目的是保護計算機和數(shù)據(jù)免受入侵。在這些情況下,通常的損失是經(jīng)濟損失,但無人駕駛汽車受到黑客攻擊,損失將是嚴重的人身傷害、財產(chǎn)損失,或者兩者兼而有之。因此,在此領域應該獨立設置非法侵入無人駕駛汽車系統(tǒng)罪,以保障無人駕駛汽車的運行安全。
無人駕駛汽車在事故后階段面臨的問題,主要在于事后的補救和責任方的認定問題。如上述為了保障無人駕駛技術的可持續(xù)發(fā)展,法律需要對為全人類謀福利的高新技術進行一定的讓步,讓步的條件就是整個社會承擔更多的責任。
1. 事后的補救
為確保無人駕駛技術可持續(xù)發(fā)展,歐洲議會議員呼吁“建立一項強制性保險計劃和一項補充基金”,以確保無人駕駛汽車的受害者得到充分補償。[38]其中補充基金是指,人工智能系統(tǒng)的研發(fā)者依法向該基金繳納一定數(shù)量的“無人駕駛汽車發(fā)展基金”,當無人駕駛汽車造成事故后,由無人駕駛的保險公司賠償,不足部分由“無人駕駛汽車發(fā)展基金”補充。在美國佛羅里達州,“在無人駕駛汽車開始測試前,必須向本部門提交一份保險文書、擔保保函或本部門可接受的自我保險證明,金額為500萬美元”。(5)Fla. Stat. §316.86 (2014).在我國,《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范(試行)》規(guī)定,申請路測時需要提供交通事故責任強制險憑證,以及每車不低于500萬元人民幣的交通事故責任保險憑證或不少于500萬元人民幣的自動駕駛道路測試事故賠償保函。保險金制度和補充基金制度,可以為無人駕駛研發(fā)制造階段的主體分擔風險,也能為受害者提供足夠賠償,進而保障無人駕駛技術的發(fā)展保有活力。
在此領域,可以設置不交、拖欠保險金和發(fā)展基金罪等犯罪,以確保無人駕駛可持續(xù)性發(fā)展。
2. 責任的認定
不具備專業(yè)算法知識的人,或許根本就無法領悟算法的要旨,也沒辦法明確到底設計者、制造商是否在創(chuàng)造無人駕駛汽車系統(tǒng)過程中存在故意或過失。未來更多人工智能將走進我們的生活,更多的人工智能“行為”也會踏進我們的犯罪圈。那么如何緩解這一證明窘境,或許應該加強復合型人才的培養(yǎng),為應對人工智能“犯罪”培養(yǎng)儲備力量。也可以通過加強社會責任,緩和“設計者、制造商和用戶”的責任,促進司法部門與“設計者、制造商和用戶”的合作,以明確罪責,整合社會矛盾。還有就是強制設計者、制造商,對事故原因進行解釋、說明,以緩解責任認定難題。
在此領域,可設置故意隱瞞人工智能事故原因罪、不履行人工智能事故說明罪等犯罪,以保障罪責明確,精準認定事故責任。