• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      自動駕駛視角下罪刑體系的現(xiàn)狀、困境與紓解

      2024-04-07 08:11:14鄒子銘
      關鍵詞:信賴年資義務

      鄒子銘

      (華東政法大學 刑事法學院,上海 200042)

      一、自動駕駛事故究竟如何歸責

      汽車作為世界上最偉大的發(fā)明之一,現(xiàn)已成為人類運用最為廣泛的代步工具。 汽車的普及為社會帶來巨大的經(jīng)濟效益,同時也負擔巨大的社會成本;科學技術往往是一把尖刀,既反映著有利的一面,又折射出“利維坦”效應。 最為突出的問題是,自動駕駛誘發(fā)的交通事故究竟如何歸責。具體而言,主要有三大子問題:其一,包括自動駕駛在內的人工智能經(jīng)過深度學習后能否成為刑事責任主體? 中國刑法上的犯罪主體只能是自然人和單位,也即判斷是否為適格刑事主體關鍵在于意志自由和感知能力。 換言之,人工智能是否具備人格? 其二,如果自動駕駛為適格刑事主體,由此產(chǎn)生的交通事故責任如何在自動駕駛身上予以實現(xiàn)? 如果否認自動駕駛的主體資格,那么刑事責任究竟由誰“買單”? 其三,倘若承認自動駕駛為適格刑事主體,那么既有刑罰能否對其奏效?如果不能,那么是否有必要創(chuàng)設一套適配包括自動駕駛在內的人工智能針對性刑罰?

      二、自動駕駛給中國罪刑體系帶來的挑戰(zhàn)

      2021 年,由工信部和全國汽車標準化技術委員會聯(lián)合發(fā)布的《汽車自動駕駛化分級》(GB/T 40429-2021)將自動駕駛分為三個級別:有條件的自動駕駛、高度自動駕駛和完全自動駕駛。《智能網(wǎng)絡汽車道路測試管理規(guī)范(試行)》(以下簡稱《汽車規(guī)范》)第28 條第2 款規(guī)定,有條件的自動駕駛是指駕駛系統(tǒng)完成所有駕駛工作,駕駛人在駕駛系統(tǒng)發(fā)出請求的情況下有必要進行適當干預;高度自動駕駛是指駕駛系統(tǒng)完成所有駕駛工作,特定環(huán)境下系統(tǒng)會向駕駛人發(fā)出請求,駕駛人可以選擇性作出回應;完全自動駕駛是指駕駛系統(tǒng)完成所有駕駛工作而無需駕駛人介入。

      處于輔助駕駛階段時,由于關鍵性駕駛操作仍由人類支配,故而發(fā)生交通事故當然可以直接歸責于駕駛人。 但在有條件的駕駛模式發(fā)生交通事故時,完全將刑事責任非難于駕駛人存在有違罪責相適應原則,畢竟不能排除智能駕駛是否完全作出精確預判或在駕駛階段沒有出現(xiàn)任何機器故障等情況。 更遑論“完全自動駕駛”中駕駛人對智能駕駛的完全信賴,不存在駕駛過錯時刑事歸責如何分配的問題。 下文將從人工智能視角出發(fā),探討附條件自動駕駛刑事責任分配合理與否,以及高度自動駕駛和完全自動駕駛是否具備刑事主體資格以實現(xiàn)刑事歸責。

      (一)犯罪主體無處適配:對肯定人工智能主體資格之否定

      中國刑法上的刑事主體是指擁有自由意志并在此基礎上作出某種行為決定以期達到某種目的的自然人或單位。 中國刑法理論采取犯罪構成要件說,即犯罪成立必須同時具備犯罪客體、犯罪客觀方面、犯罪主體和犯罪主觀方面四要件,且排列具有先后次序性[1]87。 問題在于,四要件理論在判斷自動駕駛是否為適格犯罪主體時,又得倒過來分析自動駕駛是否足以實施危害行為。 既然刑法理論通說認為危害行為是在意志支配下所實施的身體動作,也即只能由自然人和法人做出,且自動駕駛均不屬于二者之一,那么自然也就談不上危害行為的問題了。

      基于此,有論者論道,人工智能經(jīng)過科學實驗驗證得出“常常像人類一樣思考”的結論,超脫于人類指令作出獨立思考,可以認定為具備“理性人”的自由意志,都不得再將其視作簡單的“智慧工具”[2]100。 《美國自動駕駛汽車政策》將自動駕駛認定為“非人類駕駛員”,司法實踐中曾出現(xiàn)過將自動駕駛認定為“合法的汽車操控者”的判例[3]63。 但需要指出,所謂人工智能“自由意志”是人類通過事先設計的數(shù)據(jù)編程和算法決策在一定程度范圍內使其作出認知、分析、決定的能力,充其量屬設定范圍內的機械化反饋。 “自動駕駛的‘思維過程’只是人類部分思維的簡化。 簡化的目的是為了減少無關信息的采集,讓系統(tǒng)收集更加純粹,從而作出更加精準的決定?!保?]108從形式理性上看,所謂自動駕駛的深度學習只是收集車輛駕駛這一特定范圍內的信息并作出理性決策,而人類大腦作出選擇時不僅考慮域內因素,而且涵蓋不特定范圍內的多個選擇;深度學習一旦置換領域外場合,相關決策功能勢必化為泡影。正如同讓“阿爾法狗”駕駛機動車一樣,顯然是不切實際的幻想。 學者不外乎從刑事責任能力這一角度出發(fā),“有責”意味著刑法可以對受內心意志控制的行為進行非難,判斷是否為適格的刑事主體關鍵在于意志自由與否。 但實際上,刑事責任能力只是有責與否的條件之一,仍需罪過、期待可能性等檢驗才足以實現(xiàn)非難。

      即便承認伴隨著人工智能技術的不斷迭代更新,人工駕駛在未來也確有可能完全被自動駕駛取而代之,但絕不能將智能決策等同于具有社會意義的自由意志。 包括自動駕駛在內的人工智能尚不具備刑法意義上的控制辨認能力。 隨即支持者補充論述指出,“未來的智能代理將獲得使其更像是人類的特質和能力并非不可能。 如果它們獲得其我反省和類似于良知的能力,那么關于它們人格的問題可能不得不作出重新的思考”[5]338-340,因此法律適逢其時應付諸行動。 然而,沒有任何人能夠在人工智能初露鋒芒的今天準確預測何時超越甚至反控人類,有關理論學說只不過是不切實際的杞人憂天。 法律作為一門現(xiàn)代科學,既不能大膽預測未來,搞虛無科幻主義,也不能過于落后社會發(fā)展,與人類生活脫軌。 法律解決的只能是當下及未來一段時間內的矛盾,而非尚且不存在的價值預設。

      還有學者認為,自動駕駛發(fā)生交通事故時的確不應追究駕駛人之責任,反而相關生產(chǎn)商、制造商應承擔過失的刑事責任。 法人作為多數(shù)人的集合,其意思決定仍[6]75由主管人員或其他直接責任人員作出,并體現(xiàn)著法人意志,而且可以通過自然人的罪過為媒介追究法人的刑事責任,因此可以將法人與自然人同等視之為具有獨立思考和決策能力[1]87。 然而,不論從內在結構上看,人工智能并不如同法人那般表現(xiàn)為多數(shù)人的集合,還是從自由意志上看,人工智能迥異于法人由自然人作出意思決策并操作具體業(yè)務,都不得將自動駕駛類比為單位犯罪。

      以此觀之,將人工智能類比于法人不合理,即使創(chuàng)設“自然人——單位——人工智能”三層犯罪主體結構也不切實際。 伴隨著人工智能發(fā)展的日趨完善,大多數(shù)勞務性工作不再由人類操控也不足為奇,由此引發(fā)的失范行為應當如何規(guī)制便成為傳統(tǒng)罪刑理論的一大困難。

      (二)刑罰體系功能失真:對人工智能“三階層”刑罰的駁斥

      刑罰針對的是具有意思決定權的主體所作出的剝奪某種資質以達到限制和消除再犯條件之目的,行刑是實現(xiàn)有責性的重要途徑。 刑罰是否適配人工智能必須回答以下問題:承襲自動駕駛是否為適格的刑事主體之探討,若承認刑事主體之地位,那么是否能科處現(xiàn)有刑罰? 若否認刑事主體之地位,那么是否需要重構刑罰體系以適配人工智能的革新?

      從可罰性角度上看,在承認人工智能刑事主體地位的同時,有必要對刑罰體系進行重構,“增加刪除數(shù)據(jù)、修改程序、永久銷毀的‘三階層’”[7]47專門針對人工智能的刑罰方式。 域外有學者持相同觀點,“刪除數(shù)據(jù)”可類比為死刑,“暫停使用”可類比為自由刑,而且社區(qū)矯正和緩刑亦可以適用于人工智能[8]45。 然而,現(xiàn)有刑種和針對人工智能的“三階層”刑罰體系均無法發(fā)揮作用。 刑罰的性質在于剝奪某種資格或權利,這種非難正體現(xiàn)在人格權的限制和消減之上。 人工智能并不如同人類享有生命形式、情緒特征、思辨能力等所構成的人格權,雖然深度學習能力進一步增強,但人工智能面對諸如具有社會倫理道德意義的籠統(tǒng)復雜概念時卻束手無策。 這就意味著對自動駕駛剝奪自由并無適配對象,總不可能說將“禁止上路通行”等同于監(jiān)禁刑。

      從外部形態(tài)上看,自動駕駛并不存在生命形式,對“銅皮鐵骨”科處死刑令人啼笑皆非。 同時也就決定了自動駕駛不可能享有財產(chǎn)權利和政治權利,因而處以罰金或沒收財產(chǎn),抑或剝奪相關政治權利并無意義。 即便有學者在傳統(tǒng)刑種的基礎上另辟蹊徑,創(chuàng)設出針對性刑罰,但最終仍是“隔靴搔癢”,“將責任轉嫁給機器人或人工智能,可能帶來的惡果是掩蔽了真正的責任主體”[9]87。

      從形式上看,刪除數(shù)據(jù)、修正程序、永久銷毀欠缺實踐合理性和邏輯自洽性。 所謂刪除數(shù)據(jù),是將事故發(fā)生的行車數(shù)據(jù)予以刪除,并不能保證自動駕駛將來是否還會發(fā)生類似或者另類事故,充其量是治標不治本。 更遑論刪除事故數(shù)據(jù)反而無助于深度學習積累駕駛經(jīng)驗,發(fā)生相同事故的誘因仍然存在。 修改程序只是將一定范圍內深度學習后擁有的自由意志予以修正;但必須詰問的是,修正后的自由意志是否仍足以作出理性決策,抑或能否仍被評價為論者所稱的“自由意志”? 上述問題涵蓋編程、算法和大數(shù)據(jù)等復雜專業(yè)性知識,這恐怕是刑法學者鞭長莫及的。 永久銷毀稱之為永不復生的生命刑,但銷毀了事故車輛和駕駛系統(tǒng)后又將再次出現(xiàn)別無二致的標的與客體,與生命刑起到的震懾效果相距甚遠,那么永久銷毀又何嘗具備意義。

      從刑罰功能上看,科處刑罰的目的在于報應與預防犯罪。 但就目前而言,對人工智能科處刑罰絲毫無法發(fā)揮刑罰目的。 既然特殊預防是通過刑罰的保安、威懾功能,使犯罪人感知到痛苦或惡害以防止其再次犯罪予以實現(xiàn)的,那么“痛苦感知”和“情緒認知”便是實現(xiàn)特殊預防的關鍵所在。 可是,人工智能并不具有生命形式,更不具備意識形態(tài)。 根據(jù)馬克思主義哲學對意識的定義,即人腦對大腦內外表象的覺察;意識是主觀世界對客觀世界的一種反應,人有七情六欲、喜怒哀樂,可以感受悲傷與喜悅。 即便承認人工智能擁有自由意志,據(jù)此推斷其具備意識認知顯然是天方夜譚。 因此,特殊預防無法在缺乏感知器官的非生命體中通過痛苦和惡害發(fā)揮功能,進而也無法使人們感知犯罪后會使自己遭受更大的不快樂,一般預防的威懾力最終功虧一簣。

      (三)客觀歸責的尷尬窘境:人工智能承擔刑事責任之質疑

      歸責理論解決的是行為人是否需要對結果承擔刑事責任的問題。 晚近以來,刑法歸責理論已然呈現(xiàn)出兩個范式轉變:一是結果歸責不再作為唯一的歸責類型;二是“引起型”“義務型”“概率升高型”三種歸責類型逐漸占據(jù)主流地位[10]146。人工智能的日益興起為社會發(fā)展帶來了創(chuàng)新收益,尤其是在汽車行業(yè)領域,自動駕駛使交通事故發(fā)生率逐步下降。 由此給歸責理論的詰難是,在自動駕駛的情況下發(fā)生交通事故,罪責究竟是咎責于自動駕駛系統(tǒng)還是駕駛人,抑或是生產(chǎn)商、制造商? 又或者是責任競合?

      客觀歸責繁瑣化濫觴于因果關系判斷復雜化,畢竟“刑法中因果關系的判斷并非意在弄清行為與結果之間有無自然科學意義上的因果關聯(lián),而最終是為了解決歸責問題”[10]87。 行為與結果是否存在事實上的因果關聯(lián),抑或結果的發(fā)生是否可以歸咎于行為人的判斷愈發(fā)困難。 究其原因在于風險滲透于社會生活的每一個角落中,風險的蔓延性和日常性決定了風險分配的繁瑣復雜,進而致使注意義務呈現(xiàn)井噴式增長。 風險分配問題本質上就是注意義務如何分配的問題。 實際上,能否將交通事故責任歸咎于自動駕駛,其實就是判斷自動駕駛是否應負擔遵守道路交通安全管理法規(guī)的注意義務。 注意義務的履行以注意能力為前提,如果不具有注意能力則無須再考察注意義務。

      在高級自動駕駛和完全自動駕駛階段,駕駛任務基本上由自動駕駛承擔,駕駛人只是需要在緊急狀態(tài)下承擔接管任務。 因此,處于“完全自動駕駛階段”發(fā)生的交通事故大多數(shù)不應當歸咎于駕駛人,畢竟既然自動駕駛的發(fā)明在于使人們卸下沉疴的駕駛任務,那么相關注意義務亦不應由駕駛人負擔。 此時,罪責要么是歸咎于自動駕駛系統(tǒng),要么是歸咎于汽車生產(chǎn)制造商。 上文已述,注意能力的有無以適格的犯罪主體為前提,然而人工智能并不是當前罪責理論中適格的犯罪主體,因此不應當認為自動駕駛承擔安全駕駛的注意義務,自然也就推導出不得將事故罪責歸責自動駕駛。 以此觀之,汽車生產(chǎn)制造商便為唯一歸責主體。

      在附條件自動駕駛階段,駕駛人的注意義務變得模棱兩可。 以德國為例,自動駕駛時并不要求駕駛人每時每刻均需把握方向盤,更不禁止駕駛人做出與駕駛無關的舉動。 但緊急狀態(tài)出現(xiàn)時,駕駛人就應當及時接管汽車,使其恢復傳統(tǒng)駕駛模式。 如此規(guī)定使駕駛人的注意義務擴大化。 傳統(tǒng)過失理論以預見可能性為基礎,那么司法機關辦案時必然循規(guī)蹈矩于“駕駛人在緊急狀態(tài)發(fā)生前就應當及時預見相關情況并采取接管措施或其他安全措施”。 依筆者之見,既然自動駕駛初衷在于使人類從傳統(tǒng)繁瑣復雜的駕駛工作中解放出來,那么在注意義務方面也應當比傳統(tǒng)駕駛更為寬容。 倘若無時無刻要求駕駛人關注自動駕駛狀況,無疑相當于重返傳統(tǒng)駕駛崗位,那么自動駕駛存續(xù)的必要性也將遭受質疑。 更遑論,從生理機能而言,處于放松狀態(tài)下的人面對突如其來的緊急狀況,很難作出精確有效的反應;抑或駕駛人習慣了長期自動駕駛而遺忘駕駛技巧,彼時再次要求他承擔復雜的駕駛工作顯然舉步維艱。 “自動駕駛的采用,意味著社會必須容忍這樣的風險,若規(guī)則一方面允許駕駛員可以做出與駕駛無關的事情,同時又要求其在所有的緊急狀態(tài)下都應作出正確的應對,這樣的規(guī)則就存在自我矛盾的嫌疑。”[9]79

      三、自動駕駛的刑事歸責理論重塑

      自動駕駛技術給傳統(tǒng)罪行體系帶來了前所未有的沖擊,最終體現(xiàn)在刑事歸責困境上。 包括自動駕駛技術在內的人工智能并不足以促成刑法構建一個專門針對人工智能的罪刑體系,即使風險的演變最終迫使刑法作出回應,但這個過程終究是漸進性的, 遠未達到誘發(fā)刑法質變的可能[11]124-125。 當前以人類為中心的歸責體系仍具有長久適配性,不能為了處理當下科技困境而動輒予以刑法規(guī)制,否則,既不利于這一領域新興科技的發(fā)展,刑法也將淪為“科技管理法”。

      由于機器人自身無法承擔刑事責任,被害人與社會面臨一條巨大的責任鴻溝。 但就目前而言,自動駕駛產(chǎn)生的事故責任仍需回溯傳統(tǒng)交通參與關系中,根據(jù)自動化等級的不同合理分配駕駛人的注意義務,并結合產(chǎn)品質量追究幕后生產(chǎn)商①本文所指的生產(chǎn)商,特指自動駕駛系統(tǒng)研發(fā)者。的刑事責任。 之所以排除銷售商作為責任主體,是因為其缺乏實質檢驗技術查明自動駕駛體系有無缺陷,若強行將技術缺陷誘發(fā)的刑事責任施加銷售商,無疑具有違反責任自負之虞。 即便承認銷售商確有一定的商品瑕疵檢驗義務,但這種義務是一種形式審查義務,而非類似于研發(fā)者運用高科技的測試檢驗,而且銷售商承擔的責任濫觴于民事結果的遇見可能,而非危害結果的遇見可能[12]101。

      (一)信賴原則視角下駕駛人注意義務的限縮

      過失犯罪中注意義務的探討,并非意在明確行為人是否預見危害結果并采取相關防范措施,而是在于最終解決刑事歸責的問題。 注意義務是判斷過失責任的核心內容。 也就是說,處于自動駕駛狀態(tài)下發(fā)生的交通事故究竟能否歸咎于駕駛人,相當于在詰問駕駛人是否負有遵守交通安全法規(guī)的事前義務,或言之,是否仍與傳統(tǒng)駕駛中的注意義務別無二致? 需要明確的是,自動駕駛的發(fā)明在于使人類從繁瑣復雜的駕駛任務和規(guī)則中解放出來,回歸人類本性,那么相對來說注意義務并不應如同學者論及“隨時隨地密切關注自動駕駛狀況”那般嚴苛,相反,較于傳統(tǒng)駕駛而言應更為寬松。 這一論斷背后的核心觀點正在于“信賴原則”。

      所謂信賴原則,甫始于德國交通過失判決,目的在于減輕交通參與人的注意義務,后來逐漸擴展至分工合作中存在危險分配的領域[13]241。 大體而言,是指當存在當行為人充分相信行使一定行為或不作為不會給他人法益造成侵害的信賴條件時,在合法條件下確有實施適當行為并同時造成法益侵害結果而無須行為人承擔相應責任[14]440。 扼要來說,信賴原則意在限縮注意義務內容從而阻卻預見可能而限制過失犯罪構成要件成立犯罪。 問題在于,信賴原則是否適用于自動駕駛? 抑或自動駕駛系統(tǒng)是否值得被信賴?

      反對者認為,交通肇事適用信賴原則弊大于利。 一方面,不但進一步增強機動車本在交通關系中的強勢地位,弱化行人、非機動車的弱勢地位,而且掩蓋了刑事歸責問題,使有罪之人逃脫法律制裁;另一方面,人工智能技術并不完善,尚未達到值得被信任的標準。 學者憂慮的只不過是對社會上法的信守表示懷疑。 然而,在交通管理法規(guī)相對完備的今天,交通參與者高度認可并遵守交通法規(guī)已成為常態(tài),交通關系中的當事人往往能信任對方做出的舉動,如指示燈變綠時相對人可以向前通行。 更遑論信賴原則具有嚴格的適用條件,并非行為人辯稱:存在信任關系便無須承擔責任。 依筆者之見,既然注意義務由舊過失論和新過失論紛爭構成,那么只要滿足結果預見可能或結果回避可能其中之一的,便可以認定適用信賴原則。 再者,伴隨著自動化水平的不斷成熟,許多流水線的簡單工作已被機器人取代;即便承認這類自動化機器人甚至未達到人類思維的萬分之一,但起碼處于專業(yè)領域內所完成的工作相較于人類而言更為精湛,那么當然可以值得人類信賴。 更何況,外界給人工智能提供了一個積極穩(wěn)定向上發(fā)展的態(tài)勢,那么在未來機器人的表現(xiàn)將愈發(fā)穩(wěn)定、出錯率更低的情況下,將重大攻關項目托付于人工智能便相當于信賴機器人所作所為。

      當然,上述討論僅是站在宏觀層面的探討,至于自動駕駛系統(tǒng)可以適用信賴原則也非一概而論的。 自動駕駛由“附條件自動駕駛”“高度自動駕駛”“完全自動駕駛”三個等級構成,每一等級的自動駕駛程度和人為介入因素均不同,駕駛人的注意義務也因此迥異。

      1.輔助自動駕駛階段

      在輔助自動駕駛情況下,雖然車輛附帶一定的智能駕駛系統(tǒng),但絕大多數(shù)關鍵性駕駛操作仍由駕駛人掌控。 如駕駛人雖然確信在其不踩油門踏板的情況下車輛仍繼續(xù)前進,但絕不能因為信任輔助駕駛系統(tǒng)擁有轉向功能而免除轉向義務。在生產(chǎn)商、銷售商已盡到充分說明駕駛系統(tǒng)功能的相關提示義務時,駕駛人仍過度信賴自動駕駛用于未成熟領域或疏忽大意未盡到其他駕駛義務,不得主張信賴原則阻卻結果預見的可能。

      2.附條件自動駕駛階段

      課堂教學中,由學生占主體地位變?yōu)榻處熣贾黧w地位就是“收”。教師要善于在課堂失控之前強行介入,積極引導,在知識的河流上制造“彎道”“漩渦”和“水壩”,減緩流速,讓課堂可能出現(xiàn)的肆意奔流轉為舒緩和諧,讓課堂由激烈轉入“寧靜”的狀態(tài),使學生由知到識,由淺入深,從而滿足課堂深刻性的需求。

      在附條件自動駕駛情況下,由于智能駕駛系統(tǒng)負責所有駕駛工作,包括前進、制動、轉向等,因此認為駕駛人依賴于駕駛系統(tǒng)并無疑問,駕駛人可以主張信賴原則阻卻自動駕駛功能范圍內的注意義務,從而免除在附條件駕駛情況下發(fā)生的大多數(shù)交通事故的責任。 至于駕駛人負有何種注意義務,學界聚訟紛紜:一部分學者認為應承擔嚴格注意義務,即駕駛人仍需及時注意駕駛系統(tǒng)情況,時刻保持警覺;另一部分學者認為,只有在駕駛系統(tǒng)出現(xiàn)緊急情況時,駕駛人才負有及時接管義務,又稱為寬容義務。 既然自動駕駛旨趣在于減輕繁瑣的駕駛負擔,那么又要求駕駛人無時無刻關注著自動駕駛系統(tǒng)和行車狀況,本質上只不過是用一項沉疴的義務取代了另一項復雜的任務,自動駕駛也就此陷入邏輯矛盾中。 因而,筆者更傾向于后者。 但認定自動駕駛出現(xiàn)緊急狀況的客觀標準何在? 是能夠預見緊急狀況發(fā)生的可能,還是能夠避免緊急狀況發(fā)生后的結果可能,抑或兩者兼具? 總之,缺失接管義務來源仍要求駕駛人承擔緊急接管義務并不妥當。

      筆者認為上述問題應分情況討論。 情況一,駕駛人主觀上擁有避免能力、客觀上存在避免條件的,則駕駛人完全負有接管義務,一般應否定信賴原則阻卻結果預見可能。 情況二,駕駛人主觀上擁有避免能力、客觀上存在避免條件,履行接管義務后仍無法避免事故發(fā)生的,雖然不能適用信賴原則阻卻結果預見可能,但仍可以阻卻結果回避可能,因此駕駛人無須為此承擔責任。 情況三,如果自動駕駛系統(tǒng)在發(fā)生事故前就已有相關故障征兆,且駕駛人主觀上擁有避免能力、客觀上存在避免條件,因其過于自信或疏忽大意而未履行及時接管義務的,或對情形存在重大誤判之過失的,依據(jù)“如果根據(jù)具體情狀沒有辦法預料到符合秩序的舉止,那么就不適用信賴原則”[15]336之原理,一般否認信賴原則的適用。

      3.高級自動駕駛階段

      在高級自動駕駛情況下,因由系統(tǒng)完成所有駕駛任務,且根據(jù)《汽車規(guī)范》第28 條第2 款規(guī)定“使用者既可以作出回應,也可以不為一定操作”的選擇性條款,因此多數(shù)情況下可以適用信賴原則阻卻結果預見和回避的可能。 但這并不意味著駕駛人完全不負有其他駕駛義務。

      首先,不論是附條件自動駕駛,抑或是高級自動駕駛或完全自動駕駛,均須履行《道路交通安全法》第21 條要求的“車輛安全技術性能檢查”義務。 從操控全局性的角度看,全程手動操作相較于中途介入而言更容易補救,畢竟在生理機能上從相對懈怠突然轉變?yōu)槿褙炞?,沒有受過訓練的人幾乎不可能完成這一項工作。 既然駕駛人或使用人明知車輛存在技術性能故障,那么對事故發(fā)生的預見可能性就無法被否定,自然排除信賴原則的適用。 其次,使用者也應當保證自身擁有駕駛資質。 《道路交通安全法》第19 條規(guī)定駕駛人必須取得機動車駕駛證才能上路駕駛,雖然處于完全自動駕駛狀態(tài)下并不期望使用者作出駕駛回應,但并不排除駕駛系統(tǒng)出現(xiàn)緊急狀況時使用者及時接管義務的可能性。 在相關法律法規(guī)尚未修改的情況下,“不論在自動駕駛還是在人工駕駛的情形,通過駕駛資格考試的駕駛人對于駕駛行為的危險性具有一般認知是不可否認的”[16]140,自動駕駛的使用者應與傳統(tǒng)駕駛保持一致。 最后,至于使用者是否應保持《道路交通安全法》第22 條第2 款要求“自身處于意識正常清醒狀態(tài)”,筆者認為需要結合法益位階和緊迫程度具體討論。 例如,在車輛密集的城鎮(zhèn)公路或高速公路上高度自動駕駛,當駕駛系統(tǒng)出現(xiàn)故障警報時,此時使用者在不特定多數(shù)人的身體健康、生命安全和重大財產(chǎn)(法益次第靠前且危害緊迫)面前負有及時接管義務。 法益位階和緊迫性決定了使用者在自動駕駛過程中飲酒或服用國家管控類精神藥物,不得處于醉酒、昏迷等不清醒狀態(tài);否則將一律排除信賴原則的適用,但由于自身健康原因誘發(fā)的除外。 又如,在荒郊公路或汽車賽場上高度自動駕駛,由于法益位階靠后且危害緊迫較弱,那么使用者在選擇不接管汽車或沒有接管能力的情況下發(fā)生交通事故,原則上可以適用信賴原則排除法律非難。

      4.完全自動駕駛階段

      在完全自動駕駛情況下,因由系統(tǒng)完成所有駕駛任務,并且不期待使用者作出回應,角色也從以往的駕駛人搖身一變?yōu)槌丝?,因此完全適用信賴原則阻卻結果預見可能和回避可能也毫無疑問。 即便駕駛人在酒后乘坐完全自動駕駛汽車,設定了目的地和駕駛路線,途中發(fā)生交通事故,也不能以《刑法》第133 條之一危險駕駛罪入罪。畢竟車輛行駛過程中完全無駕駛操作,也即缺失處于意志不清醒狀態(tài)下的危險駕駛行為。 既然沒有刑法意義上的危害行為,自然也就不能將刑事責任歸咎于乘車人。 由是之故,同理也不適用《刑法》第133 條交通肇事罪。 但值得注意的是,因自動駕駛致他人損傷的,使用者在確保自身安全的情況下,負有救助被害人的義務,否則可能構成不作為犯罪。

      (二)被允許的危險理論視角下生產(chǎn)商責任不應為嚴格責任

      彭文華教授認為,既然在自動駕駛中原駕駛人轉換為乘客角色,責任主體缺失的情況下一旦發(fā)生交通事故將出現(xiàn)無人擔責的窘境,不僅被害人法益無法得到救濟,而且社會公眾對交通信賴度也會下降,因此自動駕駛系統(tǒng)的研發(fā)者相較于傳統(tǒng)駕駛而言所負擔注意義務更為嚴苛,即具備一定的“前瞻能力”使危害結果能夠避免,若在產(chǎn)品研發(fā)或生產(chǎn)階段,為了達到某種目標實施冒險計劃的,則應承擔過失責任[17]87。 誠然,在使用者阻卻結果預見可能的情況下,由系統(tǒng)研發(fā)者直接承擔商品質量責任是毋庸置疑的,畢竟自動駕駛汽車涉及的不僅僅是使用者的生命安全,而且涵蓋不特定多數(shù)人的生命安全。

      然而,學者論及的責任形式未免過于嚴格。從橫向角度看,沒有理由要求業(yè)務者承擔比非業(yè)務者更加繁重的注意義務。 即便行內從業(yè)者相較于行外人員的確應更熟知相關標準和規(guī)定,但這只是科處加重刑的依據(jù),而非注意義務孰輕孰重的正當事由。 從縱向角度看,研發(fā)自動駕駛汽車與傳統(tǒng)汽車所承擔的注意義務亦應當是均等的,論者論及的“自動駕駛以傳統(tǒng)駕駛為基礎,因而自動駕駛研發(fā)必須承擔高標準責任”并不合理,在社會發(fā)展和科技創(chuàng)新等宏觀利益面前,個人身體健康與生命安全的位階在遵循相關行業(yè)標準、國家標準和法律法規(guī)前提下退居次席也是不得不承認的價值預設。

      由是之故,因自動駕駛技術缺陷而引發(fā)的人員傷亡、財產(chǎn)損失,不僅不應當歸責于使用人,同時也要嚴格限制生產(chǎn)商責任。 具體路徑為,生產(chǎn)商承擔的注意義務應當在被允許的危險理論視角下進一步限縮,以達到相對寬松的產(chǎn)品生產(chǎn)注意義務即可。 所謂被允許的危險,是指“隨著科學技術的發(fā)展,社會生活中不可避免地存在的具有侵害法益的危險行為,基于其對社會的有用性,即使發(fā)生了法益侵害結果,也應當在一定范圍內允許”[18]112。 在風險社會其被稱為可容許的風險。從科技發(fā)展的角度分析,技術的發(fā)展與風險的存在總是如影隨形的,欲使新興科技取得突破性進展就必須對一定范圍內所伴隨的風險保持容忍。囿于“算法黑箱”和“算法操縱”等技術壁壘,對于新興技術動輒采用法律制裁甚至是最為嚴厲的刑事手段所付出的代價與收益之間并不均衡,勢必扼殺科技發(fā)展的未來走向。 因此,一個機器人因為其自主學習程序偏離了預期,由這種偏差所導致的危害可以歸屬于社會。

      在被允許的危險理論視角下,生產(chǎn)商責任應分情況討論:情形一,在研發(fā)自動駕駛系統(tǒng)過程中嚴格遵循相關法規(guī)和行業(yè)標準,投入市場流通后發(fā)現(xiàn)技術存在缺陷的,且當前技術不具有預見可能性的,生產(chǎn)者、銷售者只需采取警示、召回等結果回避可能措施即可。 即便仍無法阻卻結果發(fā)生的,也不應追究相關責任人員的刑事責任。 情形二,在投入市場流通后發(fā)現(xiàn)存在技術缺陷的,且當前技術足以預見缺陷可能,生產(chǎn)者、銷售者不僅要采取警示、召回等結果回避可能措施,而且必須實體阻卻危害結果發(fā)生。 也就是說,在喪失結果預見可能的情況下,必須履行結果回避義務。 情形三,在生產(chǎn)研發(fā)階段為了追求某種目標而實施冒險計劃,突破相關法律法規(guī)或行業(yè)標準限制的,此時已無法阻卻結果預見可能,以生產(chǎn)、銷售不符合安全標準的產(chǎn)品罪定罪處罰;若投入市場流通后能夠及時采取結果回避措施或尚未造成嚴重后果的,且銷售金額或存貨價值達到定罪標準,則以產(chǎn)生、銷售偽劣產(chǎn)品罪定罪處罰。

      (三)自動駕駛過失競合責任的限縮

      過失競合是指數(shù)個不具有共同注意義務的行為人同時違反各自注意義務并因作用力相加而造成同一危害結果的過失形式[19]115。 過失競合并不要求行為人負有同等注意義務,雖然因各行為作用力相加造成同一危害結果,但客觀上各行為獨立存在,主觀上亦無意思聯(lián)絡。 在自動駕駛層面,過失競合往往由駕駛系統(tǒng)故障所引發(fā),加之駕駛人未履行及時接管義務最終共同導致交通事故發(fā)生。 那么,在駕駛系統(tǒng)故障和駕駛人存在過錯的情況下,所引發(fā)的交通事故應如何分配責任?

      以埼玉醫(yī)科大學案為例,高年資醫(yī)生和低年資醫(yī)生共同組成的醫(yī)療小組因加入過量抗癌藥劑導致病人死亡而均被判處業(yè)務過失致人死亡罪。本案中,雖然由低年資醫(yī)師負責抗癌藥劑配量,但高年資醫(yī)生未對低年資醫(yī)師的用藥計劃詳細審查,具體臨床診斷中亦未作出合理指導,沒有把握手術療法的副作用,無法排除監(jiān)督過失的認定。根據(jù)信賴原則,既然處于監(jiān)督場合或支配場合下低年資醫(yī)師并無診療方案的最終決定權,“大多數(shù)情況下出于對高年資醫(yī)師的信賴而在主觀上認為已履行相當?shù)淖⒁饬x務,抑或懾于權威未盡注意義務,而是在醫(yī)療權力體系下他盡到注意義務后提示”[20]76,那么就是這種信賴理應阻卻危害結果的預見可能。

      上述案例如同自動駕駛引發(fā)的交通事故一樣,駕駛人相當于“低年資醫(yī)師”,完全信任智能駕駛系統(tǒng)這類“高年資醫(yī)師”的決策,只要在駕駛人未盡及時接管義務的情況下,過失競合似乎也在所難免,駕駛人的注意義務亦不當擴張。 那么,如何在自動駕駛場合限制過失競合使駕駛人擺脫莫須有的罪名,便成為自動駕駛過失競合責任亟待解決的難題。

      域外理論通說認為,“如果多個行為人的不謹慎行為導致了死亡結果,當且僅當他們所有人本來都保持謹慎才能避免結果,那么多個行為人都必須對結果負責?!保?5]338即使采取了合乎謹慎的舉止仍無法阻卻危害結果的發(fā)生,也不能以已盡份內注意義務為托詞而免除刑事責任。 只有在所有行為因果流程參與人均履行注意義務的場合下,不論結果是否發(fā)生,才能認為均無需承擔過失責任。

      因此,日本學者提出了否定正犯性和限定相當因果關系兩種學說以限制過失競合擴大化。 否定正犯性學說認為,低年資醫(yī)師在診療方案和手術進程中不具有決定權,因而對患者診療風險升高無法起到支配作用,那么就完全可以否定其過失正犯的地位,并以共犯理論排除可罰性。 然而,即便否定了低年資醫(yī)師的正犯地位,但其違反注意義務造成患者死亡的原因里引發(fā)的相當因果關系依舊存在,過失行為滿足該當性而構成犯罪,由于刑法理論通說并不承認過失的共同犯罪,否定正犯性亦無法排除相當因果關系,自此便陷入悖論窠臼。 學者繼而主張以限定因果關系紓解這一尷尬窘境:在過失競合中若存在其他重大過失的,那么可以將已盡相當責任且不足以誘發(fā)結果發(fā)生的先前行為脫離出因果流程。 垂直醫(yī)療小組的支配性和監(jiān)督性決定了低年資醫(yī)師的診療行為對患者死亡無法起到關鍵作用,該過失行為對因果流程介入的影響較小,故而不應責難該過失行為。

      依筆者之見,圍繞該當層面做文章并不足以限縮過失競合范圍過大化,遑論上述理論自身存在諸多不足之處。 故而筆者提議應回歸責任階段限縮過失競合范圍。 在過失競合中只要一行為人沒有結果預見可能或結果回避可能,那么就不能認定為過失競合,抑或即使該行為人預見了結果發(fā)生可能,也采取了相應結果回避措施,但仍無法避免結果發(fā)生的,也不能責難于該行為人。 也就是說,即便肯定低年資醫(yī)師實施冒險診療方案存在對患者死亡結果的預見可能,但礙于高年資醫(yī)師在手術過程或診療決策中的主導地位,要求前者采取結果回避措施似乎強人所難。 因此,從新過失論的角度上可以排除低年資醫(yī)師的過失罪責。

      通過對琦玉醫(yī)科大學案分析得知,即使低年資醫(yī)師在診斷過程中存在一定程度的過失,但礙于其在垂直領導小組中的弱勢地位以及對高年資醫(yī)師的信賴,阻卻著其對患者死亡結果的遇見可能,因而不應追究低年資醫(yī)師的過失罪責。 通過上述案例拋磚引玉,在自動駕駛發(fā)生故障的場合,由于駕駛人出于對駕駛系統(tǒng)的信賴,加之駕駛人在自動駕駛中處于被支配地位,表明駕駛人對交通事故的發(fā)生并無結果預見可能。 得知駕駛系統(tǒng)發(fā)生故障后,駕駛人有且僅有的結果回避義務為轉換為人工駕駛,至于是否成功阻卻危害結果的發(fā)生,在所不問,以限制過失競合范圍擴大化。

      結 語

      包括自動駕駛技術在內的人工智能發(fā)展已邁向新臺階,為人類帶來巨額社會創(chuàng)收的同時又給法律帶來前所未有的困境。 刑法對此左右為難,搖擺不定:干涉過于嚴苛,可能阻礙科學技術創(chuàng)新,延緩社會進步;置之不理,可能導致不法之人利用人工智能于非法目的。 一個永恒不變的定律是,在現(xiàn)有風險和無窮利益面前,人類總是會選擇利益而容忍風險。 就中國目前而言,自動駕駛技術在汽車領域尚未普及,因此引發(fā)的交通事故也只是零星個案,刑法對此討論似乎有一種“杞人憂天”的味道。 但不得不承認,社會風險的蔓延化和常態(tài)化迫使刑事法律必須具備一定程度的前瞻,尤其是以ChatGPT 為代表的生成式人工智能逐漸興起,因此刑法面對自動駕駛誘發(fā)的風險也必須以“未雨綢繆”的姿態(tài)實現(xiàn)預防。 刑法作為保障法,在回應自動駕駛帶來的難題時完全沒有必要獨樹一幟地開創(chuàng)專門針對包括自動駕駛技術在內的人工智能罪刑體系,自動駕駛引發(fā)的事故責任應恪守前端駕駛人和幕后研發(fā)者的歸責原則。 如此一來,不但避免了刑法滑向“科技管理法”的窠臼,而且一定程度緩解了刑法與現(xiàn)代科學技術發(fā)展的滯后差異以及配平了刑法制定新法則以保護新興技術革新的旖旎。

      猜你喜歡
      信賴年資義務
      混合模擬工作坊在低年資胸心外科住院醫(yī)師規(guī)范化培訓中的應用
      幸福的人,有一項獨特的義務
      海峽姐妹(2020年12期)2021-01-18 05:53:12
      2019年資管行業(yè)十大猜想
      中國外匯(2019年6期)2019-07-13 05:44:18
      淺談行政法的信賴利益保護原則
      三十載義務普法情
      人大建設(2018年4期)2018-06-26 08:38:26
      信賴利益保護原則的中國化
      行政法論叢(2018年1期)2018-05-21 00:41:50
      跟蹤導練(一)(4)
      一種改進的自適應信賴域算法
      PDCA循環(huán)管理法在急診科低年資護士培訓中的應用
      “良知”的義務
      浦江县| 淮北市| 蒙自县| 汾阳市| 临夏市| 浑源县| 宜春市| 罗定市| 德昌县| 鸡东县| 和政县| 延长县| 交城县| 永平县| 邹城市| 沁阳市| 广宁县| 安溪县| 上栗县| 广宁县| 民乐县| 绥中县| 河曲县| 拉孜县| 北辰区| 青铜峡市| 塔城市| 潮州市| 阿巴嘎旗| 咸宁市| 竹北市| 台湾省| 古交市| 太保市| 新源县| 罗江县| 巴里| 新绛县| 嘉善县| 宁武县| 新民市|