袁曾
內(nèi)容摘要:真正意義上的無人駕駛時代即將來臨,但囿于技術“黑箱”的客觀存在,無論何種智能水平的無人駕駛汽車均可能產(chǎn)生侵權。由于全自動無人駕駛汽車無需人類駕駛?cè)诉M行干預,其行為與結果間的因果關系將發(fā)生變化,責任承擔將不同于傳統(tǒng)機動車責任。結合無人駕駛技術研發(fā)、生產(chǎn)、監(jiān)管、使用的實際,每個環(huán)節(jié)均需要清晰的責任體系規(guī)制并形成鏈式分配機制。研發(fā)者需要遵循人類的基本倫理,并對“負面清單”下的侵權承擔嚴格責任。負有嚴格責任的生產(chǎn)者承擔基礎性義務,但存在免責條款。使用者必須承擔恰當?shù)牧x務,監(jiān)管者對于市場準入、數(shù)據(jù)控制、事后處理負有監(jiān)督責任。施行強制責任保險與使用保險并行制度,分別承擔賠償責任,而保險人享有責任限制。此外,由無人駕駛汽車發(fā)展基金承擔補充義務。通過完整的責任分配機制,在促進無人駕駛行業(yè)發(fā)展與保護被侵權人利益之間找到平衡。
關鍵詞:算法 侵權歸責 風險效用測試 責任分配
中國分類號:D913? 文獻標識碼:A? 文章編號:1674-4039-(2019)05-0028-39
與存在人類駕駛行為的“有人駕駛”汽車不同,“無人駕駛”汽車利用全智能、自動化的計算機技術,實現(xiàn)由電腦控制車輛,人類脫離干預駕駛,完全由計算機完成所有車輛啟停、動作控制、碰撞規(guī)避等傳統(tǒng)需要由人操控的駕駛過程?!? 〕就現(xiàn)實而言,有關無人駕駛的法律規(guī)定已經(jīng)明顯落后于現(xiàn)實的需要?!? 〕例如,根據(jù)我國《道路交通安全法》第19條的規(guī)定,駕駛?cè)笋{駛機動車上路必須取得駕駛證,這就造成無人駕駛機動車駕駛主體的認定與規(guī)制存在法律空白——誰是駕駛?cè)??誰應該取得駕駛證?無駕駛證能否進行開放道路測試?從更為復雜的責任劃分體系分析,若計算機獨立作出駕駛判斷的無人駕駛車輛造成人身傷亡,目前的侵權責任和產(chǎn)品責任體系已捉襟見肘?!? 〕機器完全自主地駕駛意味著由人工智能基于其感知的信息與預設的程序算法適用“獲取數(shù)據(jù)→計算數(shù)據(jù)(即類人思考)→作出判斷并行動”的應用范式,而無需人類的指令介入或分析判斷。〔4 〕無人駕駛汽車與傳統(tǒng)汽車在駕駛主體上存在根本性區(qū)別,使得其侵權責任的劃分與現(xiàn)行體系產(chǎn)生明顯不同。在現(xiàn)行法律責任體系中,駕駛?cè)顺袚^錯責任,機動車保有人、生產(chǎn)者和銷售者承擔無過錯(嚴格)責任,其責任認定的核心是機動車駕駛?cè)说倪^錯。但對于無人駕駛而言,“過錯”這一頗具主觀色彩的要件如何認定需要重新審視。在無人駕駛汽車發(fā)生侵權事故時,對過錯的劃分需要對無人駕駛系統(tǒng)所依賴的算法決策和運算機理具有清晰明確的認識,這不僅涉及立法技術問題,更關系到如何在更高層面處理人與人工智能之間倫理的權衡問題。
人工智能法應汲取過去互聯(lián)網(wǎng)等科技法無法回應實踐的教訓,以避免社會治理中可能出現(xiàn)的紕漏?!? 〕法律責任的體系設計和審判應用,應當對責任主體的擴大作出正向回應和有效調(diào)整,“這一方面有利于促進人工智能更好地服務于人類,另一方有利于確保其不異化為‘超人類的主體”。〔6 〕無人駕駛汽車涉及的責任至少包括合同、侵權、產(chǎn)品、保險等多種責任,有關其侵權責任歸屬需要予以明確,由何種主體承擔相應責任需要先行研究。當務之急是完善相關法律法規(guī),對包括《侵權責任法》《道路交通安全法》《保險法》等在內(nèi)的相關法律法規(guī)作出調(diào)整,重新界定風險承擔的方式,建立完整的無人駕駛汽車侵權責任鏈式分配機制,為無人駕駛汽車的發(fā)展系上法律安全帶。
無人駕駛引發(fā)的事故涉及機動車所有人、駕駛?cè)?、生產(chǎn)者、強制保險公司甚至無人駕駛汽車等多方主體。侵權損害分配責任的合理性,需要結合無人駕駛汽車的特性重新厘定。有學者提出,讓生產(chǎn)者承擔更多甚至唯一的責任?!? 〕筆者認為,責任分配的出發(fā)點應是在對受害方進行保護的前提下,促進科學技術的發(fā)展。如果由生產(chǎn)者承擔所有與無人駕駛汽車有關的侵權責任,無疑將增加生產(chǎn)者不可預期的侵權責任,導致沒有生產(chǎn)者愿意不計成本地投入人工智能產(chǎn)品的研發(fā),最終阻礙進步?!? 〕也有學者提出,對于人工智能體引發(fā)的侵權,應當規(guī)定嚴格責任,侵害行為與損害之間存在因果關系即可判定責任。再依據(jù)事實的不同,對應各自的因果關系,從而決定生產(chǎn)者、銷售者、使用者等主體之間的過錯比例、責任分擔?!? 〕筆者認為,這種觀點表面上分析較為科學,但在實際操作層面很難落實。因為侵權責任因果關系的判定在無人駕駛汽車上發(fā)生了變化。
無人駕駛依靠的是機器自我學習而應用到場景中的能力,具體到實際,仍需無人駕駛汽車根據(jù)可能發(fā)生的情況作出選擇。同人類大腦的認知決策機制不同,人工智能體需要在有限的時間內(nèi)計算所有可能發(fā)生的可能性,不受經(jīng)驗等主觀因素的制約,其會選擇計算得出的最優(yōu)方案,這種方案可能超出人類的常規(guī)認知。例如,在行駛過程中遇到不可避免的碰撞時,人工智能體可能會選擇主動碰撞路人而保護自身。當發(fā)生侵權事件時,即使對于人工智能體的每一步運算均可以依靠技術手段溯源,當事人能否通過技術手段查明問題的源頭頗具困難,從經(jīng)濟成本上考慮也并不合適——這實際是法律抽象化與技術黑箱化之間的必然沖突。
對于無人駕駛汽車而言,有侵權損害就必須由主體承擔責任,不應基于損害是由人工智能體引發(fā)的理由去限制受害人可獲得的救濟。清晰的責任制度是現(xiàn)代責任文化的體現(xiàn),從技術研發(fā)、應用到最終的實際投產(chǎn),關于無人駕駛汽車的每個環(huán)節(jié)都應該并且可以找到清晰的責任制度加以對應并形成鏈條,避免無主體擔責的窘境出現(xiàn)。筆者認為,應當從以下幾個方面重點考慮調(diào)整無人駕駛汽車侵權的責任體系分配,建立鏈式分配責任體系:一是依托現(xiàn)有侵權責任體系的基礎性規(guī)定,減少因立法的變化而造成社會整體成本,例如生產(chǎn)者對于產(chǎn)品缺陷的嚴格責任保護不變;二是針對無人駕駛汽車帶來的客觀變化,適度調(diào)整傳統(tǒng)責任分配體系。不應將所有責任僅強加于無人駕駛汽車的生產(chǎn)者身上,而對于技術的研發(fā)者、使用者、獲益者僅有道德提供的無強制力約束,即鏈條內(nèi)的主體均應有恰當?shù)呢熑沃贫扔枰砸?guī)制;三是調(diào)整后的責任分配體系必須形成侵權責任風險分擔的閉環(huán),通過明確各個環(huán)節(jié)的清晰責任架構,形成完整的侵權責任分配鏈條,在保護被侵權人利益與促進技術發(fā)展間提供良性法律框架。無人駕駛侵權責任鏈式分配可以下圖說明:
從無人駕駛汽車操作系統(tǒng)的研發(fā)者角度分析,如果沒有明確的價值指引以及足夠的預期違法成本考慮,則無法保證無人駕駛技術在重大經(jīng)濟利益面前長期妥善發(fā)展。筆者認為,除了明晰在研發(fā)過程中應遵循的道德倫理準則,還應構建技術研發(fā)的動態(tài)評估評價體系,明確研發(fā)者責任,使得其在設計制造軟件系統(tǒng)時,考慮責任預期并嚴格遵循相關法律規(guī)范。
(一)遵循人類倫理規(guī)則
人類目前對人工智能的發(fā)展表現(xiàn)出極大的隱憂,必須通過倫理與價值的設定以保障人工智能在合理的軌道上前進。〔10 〕早在1942年,阿西莫夫就提出了“機器人不得傷害人類、必須服從人類的命令、保護自身安全”的著名“機器人三大定律”。在無人駕駛的研發(fā)過程中,倫理規(guī)范的調(diào)整功能可以起到重要作用,通過對人工智能預設道德準則,為科研進行倫理指引。已有國家嘗試通過算法的頂層價值觀設計以避免技術走向消極,韓國工商能源部頒布《機器人倫理憲章》,日本組織起草了《新一代機器人安全問題指引方針》,美國國家科學基金會和美國航天局設立專項基金對“機器人倫理學”進行研究。2017年,德國公布了針對自動駕駛的道德準則,確立了下述價值準則,對算法邏輯的價值選擇提供了有益借鑒:道路安全優(yōu)于出行的效率;對于個體的保護優(yōu)于其他功利主義;法律應當在個人自由與他人自由間取得平衡;對人類權益的保護優(yōu)于動物權利與財產(chǎn)權利。特別值得說明的是,該道德準則還對生命的“兩難選擇” 〔11 〕作出了特別的規(guī)定,要求不得對于某些極端情況提前設定標準化的計算邏輯,例如在路人與駕駛員同時在懸崖邊面臨碰撞時,不得提前設定以犧牲路人性命換取駕駛員存活的編程。
電氣電子工程師學會在2017年發(fā)布的《人工智能設計的倫理準則》中提出,合乎倫理地設計、開發(fā)和應用人工智能,應遵循以下原則:確保人工智能不得侵犯國際公認的人權、在人工智能的設計和使用中優(yōu)先考慮人類福利、確保人工智能的設計和操作可被問責、確保人工智能技術以透明的方式運營。人類的倫理概念也不是天生的,主要通過兩個途徑獲得,一個是人所有的感覺,另一個就是已相信的事物創(chuàng)造、解釋和衍生結果?!?2 〕因此,極有必要通過算法的頂層價值設計以實現(xiàn)人工智能法益位階的設定,確保人工智能自身邏輯不會突破底線。與之相對,如果研發(fā)者違背倫理規(guī)則設定算法,應當承擔相應責任,〔13 〕該部分內(nèi)容將于本文第五部分監(jiān)管者責任中再行論述。
(二)“負面清單”下的嚴格責任
即使人工智能具有強大的運算能力,也無法窮盡無人駕駛可能遇到的各種情景。〔14 〕人工智能的發(fā)展趨勢是逐步成為技術黑箱,即使運算的算法與邏輯可以被公開,但基于該算法可能產(chǎn)生的模型卻無法限定在固定模式內(nèi),即便是研發(fā)者也無法完全預知其內(nèi)部的決策運算邏輯?!?5 〕當情況特殊時,無人駕駛汽車在缺乏預設情景設定而獨立作出決策時,以產(chǎn)品缺陷的理由使生產(chǎn)者獨立承擔嚴格責任,顯然是不公平的。筆者認為,必須設立研發(fā)者的嚴格責任,以便于鏈式機制內(nèi)的相關主體明確自身權利與義務,并通過算法等技術的頂層設計盡力消除消極后果。
從包括規(guī)制人類基因技術的應用等高科技法的發(fā)展歷程分析,〔16 〕應對無人駕駛技術的禁止開發(fā)領域或者應然共有價值選擇作出明確的限制性規(guī)定,以避免技術的研發(fā)陷入不可控的狀態(tài)??梢酝ㄟ^規(guī)則沒定禁止無人駕駛汽車系統(tǒng)研發(fā)者進入特定領域,若無人駕駛汽車的侵權事故由屬于“負面清單”中的缺陷產(chǎn)生,則研發(fā)者與生產(chǎn)者需要承擔嚴格責任,而普通消費者或被侵權人無需驗證具體是某一項計算環(huán)節(jié)出現(xiàn)運算錯誤,就可認定存在產(chǎn)品缺陷。〔17 〕此外,無人駕駛技術研發(fā)者還應遵循一些強制性義務,例如創(chuàng)建開發(fā)與應用數(shù)據(jù)記錄系統(tǒng),強制妥善保存研發(fā)核心參數(shù),以便于確定侵權事件的“因果關系”與責任主體。在人工智能的設計研發(fā)過程中,必須保證系統(tǒng)滿足動態(tài)評估并具有監(jiān)測危險的能力后再投入市場。技術開發(fā)的法律“負面清單”規(guī)定由研發(fā)者承擔相應民事、刑事及其他責任,通過法律的震懾使得負面技術減少應用效應并將研發(fā)者作為承擔侵權責任的主體之一,同時滿足技術批判理論范式下所需的事前預防。
產(chǎn)品責任在我國屬于無過錯的嚴格責任,根據(jù)《侵權責任法》《產(chǎn)品質(zhì)量法》等規(guī)定,只要存在缺陷,生產(chǎn)者就必須對所生產(chǎn)的產(chǎn)品承擔侵權責任,而被侵權方無需證明生產(chǎn)者存在過錯。被侵權方需要證明的是產(chǎn)品有缺陷、存在損害事實、產(chǎn)品缺陷和損害事實間有因果關系。相對于無人駕駛汽車侵權責任鏈條上的其他主體,生產(chǎn)者作為技術的集成者、商品與服務的提供商,同時作為大量社會資本的集中者,最易成為指向主體,無疑在責任分配上占據(jù)重要地位。
(一)生產(chǎn)者的嚴格責任
現(xiàn)有規(guī)制無人駕駛汽車的法律主要集中在強制性技術條件上,例如美國交通部修訂了《聯(lián)邦機動車輛安全標準》,包括無人駕駛汽車主動、被動安全等多個領域,所有無人駕駛車輛與部件必須符合該標準,否則不得銷售。〔18 〕在普通法下,原告要求被告承擔產(chǎn)品責任通常有四種形式:疏忽、嚴格責任、違反保證以及誤述?!?9 〕但不論依據(jù)何種形式,原告均需證明被告銷售了缺陷產(chǎn)品并且缺陷是被侵權方遭受傷害的主要原因。〔20 〕筆者認為,規(guī)制生產(chǎn)者責任,最低限度應當滿足以下原則:一是數(shù)據(jù)強制性記錄原則,且不得篡改源代碼。德國已經(jīng)開始要求無人駕駛汽車必須安裝數(shù)據(jù)記錄儀,以便查明因果關系,〔21 〕明確侵權事故發(fā)生時的各方責任;〔22 〕二是保護使用者隱私的原則。例如美國2017年《自動駕駛法》中第12條對生產(chǎn)者、銷售者提出了一系列隱私保護的標準;三是若因汽車的硬件問題導致侵權,則無人駕駛汽車生產(chǎn)者應當承擔嚴格責任。同時,若因操作系統(tǒng)等軟件的原生性缺陷導致了侵權,生產(chǎn)者應承擔嚴格責任并視具體情況向操作系統(tǒng)研發(fā)者追償。若生產(chǎn)者銷售的無人駕駛汽車存在違反上述基本原則的情形,則強制性地通過嚴格責任分配敦促生產(chǎn)者承擔責任,并投入更多精力發(fā)展更為安全的技術。
(二)產(chǎn)品缺陷的判斷標準
對于產(chǎn)品缺陷的判斷標準,在英美法中常用“消費者期待性原則”與“風險效用原則”加以判斷?!?3 〕根據(jù)美國《侵權法第三次重述》的規(guī)定,產(chǎn)品存在“不合理危險”缺陷的判定因素需采用“消費者期待”標準,產(chǎn)品的可預見風險要以合理的替代性設計消除。若能夠證明存在制造或警示缺陷,如未能合理告知如何操作無人駕駛系統(tǒng),同樣可證明產(chǎn)品責任。我國法律對產(chǎn)品缺陷在《產(chǎn)品質(zhì)量法》第46條作了規(guī)定,產(chǎn)品缺陷可以分為設計、制造、指示這三種缺陷。在無人駕駛汽車領域,證明缺陷將非常困難,如前文所述,受人工智能“黑箱”特性的影響,侵權事故的發(fā)生可能無法從人工智能系統(tǒng)的設計或制造方面找到合理歸因的因素,這將直接影響到傳統(tǒng)產(chǎn)品責任的架構——例如制造商無法作為人工智能產(chǎn)品設計缺陷的責任主體,特別是侵權事故是由設計缺陷引發(fā)的。而無人駕駛汽車的產(chǎn)品缺陷判斷標準又應當采用何種標準?筆者認為,缺陷的判斷標準應以另外一臺合格的無人駕駛車輛在相同情形下可能作出的合理反應作為判斷依據(jù),而合格的標準由主管部門預先設定,這種合格的標準應隨著科技的發(fā)展而不斷提高,但其基準邏輯仍是自然人在遇到相同情形時的合理反應?!?4 〕產(chǎn)品的可預見風險要以合理的替代性設計消除,否則生產(chǎn)者就必須承擔無人駕駛汽車侵權的嚴格責任。
(三)生產(chǎn)者的免責事由
無人駕駛汽車至少需要環(huán)境感知、行為判斷、高精導航等多個方面的頂級研發(fā)技術,從保護研發(fā)、生產(chǎn)者的角度出發(fā),必須在侵權責任中明確其免責事由,在保護被侵權方的利益與促進技術的進步間找到平衡?!懂a(chǎn)品質(zhì)量法》第41條規(guī)定,生產(chǎn)者能夠證明有下列情形的,不承擔賠償責任:一是未將產(chǎn)品投入流通的;二是產(chǎn)品投入流通時,引起損害的缺陷尚不存在的;三是將產(chǎn)品投入流通時的科學技術水平尚不能發(fā)現(xiàn)缺陷的存在的(即“開發(fā)風險”)。從無人駕駛汽車的生產(chǎn)者角度分析,其最有可能依據(jù)“投入流通時尚不能發(fā)現(xiàn)”的理由進行抗辯。但在無人駕駛領域,主張此類抗辯存在一定困難,該類抗辯需要缺陷可以被識別。有學者提出,如果出現(xiàn)了無人駕駛系統(tǒng)無法應對的情況,只要根據(jù)目前的技術可以識別這種情況,無論該情況是否可被避免,生產(chǎn)者主張開發(fā)風險抗辯的理由均無法成立?!?5 〕該抗辯的評價標準采用已知的安全技術標準,但無人駕駛領域的安全標準是不斷動態(tài)變化的,這使得生產(chǎn)者很難據(jù)此主張該抗辯。也有學者提出截然不同的觀點,認為雖然開發(fā)風險的抗辯有助于促進廠商投入成本發(fā)展科技,但這種免責可能成為“有組織”的不負責,應通過適用嚴格的召回制度、警示責任體系,以使該種風險的負擔者在投入流通時履行充分論證的義務,避免因為利益罔顧此類缺陷是否真的可以被發(fā)現(xiàn)?!?6 〕
筆者認為,可以借鑒英美法系下的“風險效用測試” 〔27 〕判斷生產(chǎn)者的免責條件。在風險效用測試中,如果當前產(chǎn)品設計導致消費者受傷害的概率,超過了另一種合理設計的成本加上修改設計可以減少的效用花費,那么制造商將承擔責任?!?8 〕通俗地理解,就是生產(chǎn)者在制造無人駕駛汽車時原本可以使用近似成本下更安全的設計卻未使用,就無法依據(jù)開發(fā)風險進行免責抗辯。例如,若沃爾沃等汽車廠在制造無人駕駛汽車時,依據(jù)當時的科學條件尚無法發(fā)現(xiàn)某型移動偵測雷達在一些極端情況下存在的技術性缺陷,則沃爾沃公司可以免責;若發(fā)現(xiàn)使用另一款雷達可以避免上述極端情況的發(fā)生并且使用該型雷達并不會對生產(chǎn)商的成本造成大幅提升時,則沃爾沃公司無法免責。適用風險效用測試能夠較好地控制生產(chǎn)商的成本風險,由于無人駕駛汽車侵權責任鏈條分配下的賠償責任主要由保險公司與無人駕駛汽車運營基金最終承擔,生產(chǎn)者實際承擔的大額賠付風險將大大降低。
(四)結合保費披露義務的警告責任
根據(jù)美國《侵權的第三次聲明》中產(chǎn)品責任的規(guī)定,當一款產(chǎn)品的安全性不能被普通消費者掌握時,生產(chǎn)者應為產(chǎn)品已被預見的可能造成的身體傷害提供警告?!?9 〕當警告提出后,消費者或使用者對于產(chǎn)品的期待性將會改變。香煙上的恐怖廣告將及時提醒煙民吸煙可能造成的危害,但這并不影響香煙的產(chǎn)品缺陷,只是改變了使用者預期。當生產(chǎn)者以恰當?shù)姆绞教岢鼍婧?,其責任可以免除。例如,無人駕駛汽車在行使前提醒乘客在行駛過程中禁止暴力拍打中控面板,該行為可能導致車輛失控,若記錄顯示車輛曾遭受乘客踢踹而引發(fā)侵權事故,則生產(chǎn)者應當免責。當然,上述警告同樣包含著默示保證的內(nèi)容,生產(chǎn)者應當提供理論上安全的產(chǎn)品,“無人汽車在操作不當下有漏電的風險”與“無人汽車會漏電”是截然不同的兩種安全性標準,生產(chǎn)者履行警告責任的基礎是滿足了提供合格產(chǎn)品的默示保證。為了解決產(chǎn)品安全問題,侵權法要求生產(chǎn)者對可預見的可能造成的身體傷害需要提供普通消費者可以理解的警告??紤]無人駕駛汽車的現(xiàn)實特性,生產(chǎn)者可以根據(jù)不同情形提供一系列適當?shù)木?,并結合經(jīng)濟成本考慮使得普通消費者作出恰當?shù)倪x擇?!?0 〕
筆者認為,這種警告可與保費的披露相結合,共同覆蓋產(chǎn)品可能帶來的人身傷害風險。例如,一輛裝備更復雜探測功能的豪華無人駕駛汽車銷售價為50萬元人民幣,其1年的保費為1萬元人民幣,而一輛家用普通無人駕駛汽車售價為10萬元人民幣,而1年的保費為2萬元人民幣,在此種情況下,消費者能夠較為容易地判斷出無人駕駛車輛的人身傷亡事故率與理賠風險,生產(chǎn)者也恰當?shù)芈男辛司玖x務。再如,同樣一輛無人駕駛出租汽車,行駛不同的長途路線,其保費價格也是不一致的,生產(chǎn)者或運營者提供不同的價格供消費者選擇,這種價格的差異包含了對于風險的不同預期,消費者若選擇了便宜的保費,其理應承擔更高的受傷害幾率。這種雙軌制實際更加符合大數(shù)據(jù)時代的要求,人工智能依托的是海量數(shù)據(jù)計算,除了人命等哲學意義范疇內(nèi)的東西無法被計算價值,任何數(shù)據(jù)推導出的價格均可較為容易地被計算。通過計算并以合適的方式提示風險,使得生產(chǎn)者風險限定在一個可以預期的范圍內(nèi),免于承擔實際的無限責任。
(五)銷售者等其他主體責任
根據(jù)《民法通則》第122條、《產(chǎn)品質(zhì)量法》第41條的相關規(guī)定,因產(chǎn)品存在缺陷造成人身、缺陷產(chǎn)品以外的其他財產(chǎn)損害的,被侵權方無需證明生產(chǎn)者存在過錯,可向產(chǎn)品的生產(chǎn)者或者銷售者請求賠償,但生產(chǎn)者和銷售者之間實際上構成非真正連帶責任,承擔侵權責任方可向有過錯方追償。〔31 〕無人駕駛汽車侵權還有可能涉及銷售者、改裝者其他責任主體,筆者認為,在侵權責任鏈式分配機制下,由于生產(chǎn)者、研發(fā)者、監(jiān)管者、使用者與保險人已經(jīng)承擔了相應絕大多數(shù)責任,已能較為妥善地處理責任分擔。為減少立法成本,其他主體的責任分擔依照現(xiàn)行侵權法的規(guī)定執(zhí)行即可。例如,一旦車輛由第三方改造為無人駕駛汽車,則原始生產(chǎn)者不再對車輛缺陷承擔責任,除非能夠證明改造前車輛已有缺陷?!?2 〕
(一)誰是駕駛?cè)耍?/p>
無人駕駛汽車顯著改變了傳統(tǒng)機動車事故責任體系,例如,如何認定“駕駛?cè)恕睂⑹沟脵C動車保險體系發(fā)生整體變化。例如,《德國道路交通法》在修改后加入了駕駛?cè)恕氨3志X”的義務,不論何種級別的自動駕駛,駕駛?cè)司鶓撚袡z查機動車的義務。但在無人駕駛領域,是否將乘坐者定義為駕駛者?從該法第1A條第2款的規(guī)定分析,無人駕駛系統(tǒng)的使用人為駕駛?cè)?,但從發(fā)生侵權事故的時間點判定,如果選擇由無人駕駛系統(tǒng)作出,則車內(nèi)的所有人員均應作為乘客對待。而根據(jù)美國內(nèi)華達州第511號組裝法案第3款與第4款的規(guī)定,無人駕駛汽車的“操作者”是指“發(fā)動汽車的人”。〔33 〕有觀點認為,由于無人駕駛沒有真正意義上的駕駛員,因此不存在乘員的主觀駕駛過錯及駕駛行為,乘客無需承擔侵權責任,可以將無人駕駛汽車的生產(chǎn)者解釋為駕駛?cè)??!?4 〕從保護受害人的角度而言,此種設計是充分的,但這種分配機制將顯著加重生產(chǎn)者責任。也有觀點提出適用使用人雇主責任,按照這一構思,雇主將承擔人工智能侵權的替代責任?!?5 〕例如,利用無人駕駛出租汽車運送旅客等服務,雇主就應對人工智能的行為負責。但根據(jù)我國法律的規(guī)定,替代責任以職務范圍內(nèi)的加害行為為限,如何確定無人駕駛汽車職務行為與非職務行為的標準,是法律必須作出明確回答的問題。
筆者認為,在實現(xiàn)完全自動駕駛的情況下,將使用者定義為駕駛?cè)耸桥c事實不符的,既然車輛的一切操作動作及判斷決定由操作系統(tǒng)決定,車輛的使用者無需再作為駕駛?cè)藢Υ?。一般情況下,無人駕駛汽車因行駛過程造成的侵權責任依照鏈式責任分配的體系設計,由生產(chǎn)者和研發(fā)者承擔嚴格責任,由保險與基金承擔賠付責任。但在無人駕駛狀態(tài)下,使用者需要承擔新的使用責任。例如,無人駕駛汽車肇事致人重傷,使用者視而不見繼續(xù)駛離,放任受害者死亡,在無人駕駛汽車及其生產(chǎn)商履行相應責任義務后,使用者仍應承擔相應程度的刑事與民事責任。作為無人駕駛汽車的主要參與方,使用者具有無可推卸的責任,其中最為重要的是使用者的注意義務與權利讓渡。
(二)注意義務的變化
雖然無人駕駛汽車的使用者無需承擔駕駛的義務與責任,但并非使用者任何義務都不存在。筆者認為,無人駕駛汽車的使用者必須履行恰當?shù)淖⒁饬x務。例如,使用者必須承擔定期維護尤其是下載更新系統(tǒng)應用的義務,現(xiàn)代無人駕駛汽車需要經(jīng)常更新固件以完善汽車的行駛狀態(tài)與相關穩(wěn)定檢查,若使用者未按照使用說明和提示進行操作使用維護從而出現(xiàn)侵權事故,同時證明該行為與結果的發(fā)生存在因果關系,則生產(chǎn)者與銷售者無需承擔責任。但若證明由于無人駕駛系統(tǒng)故障釀成事故,則仍須由生產(chǎn)者等主體承擔責任。德國聯(lián)邦議院《道路交通法第八修正案》采納了前述規(guī)定,若駕駛?cè)俗C明其合法使用無人駕駛模式,可以免責。有關使用者注意義務的范圍與限度,使用者的注意義務要與生產(chǎn)者的警告和監(jiān)管者設定的安全標準相結合,若生產(chǎn)者以恰當?shù)姆绞教岢隽司妫缟a(chǎn)商已提示吸毒者禁止使用汽車,而使用者無視相關提示依然吸毒并暴力攻擊車輛導致失控,則使用者應當承擔相應責任。
(三)同意讓渡部分數(shù)據(jù)隱私權
數(shù)據(jù)如今已明顯具有個人權利與財產(chǎn)屬性,特別是網(wǎng)絡環(huán)境下,經(jīng)過各種加工處理的衍生數(shù)據(jù),已由《民法總則》第128條承認了其權利客體屬性。而無人駕駛技術等人工智能應用最重要的是利用已知數(shù)據(jù)加以算法運用以模仿人類深度思考與學習的能力,這就加劇了數(shù)據(jù)使用與保護之間的矛盾。為保護公民隱私,美國《自動駕駛法》第12條強化了隱私權保護,要求生產(chǎn)者與銷售者保證無人駕駛汽車系統(tǒng)在使用個人數(shù)據(jù)時,是在所有人或使用人知情的狀態(tài)下完成。歐盟《一般數(shù)據(jù)保護條例》于2018年5月生效,著重規(guī)定了對個人數(shù)據(jù)的保護以及自由流動的自由?!?6 〕由于無人駕駛系統(tǒng)必然需要提取使用者的部分數(shù)據(jù),因此根據(jù)實踐的需要,有必要對使用者的數(shù)據(jù)隱私權作出合理合法范圍內(nèi)的讓渡,使得無人駕駛系統(tǒng)獲取有用的可識別信息,〔37 〕例如自然人身份證號、性別、網(wǎng)絡地址等體現(xiàn)多重社會性、生理性等屬性的數(shù)據(jù)。人工智能系統(tǒng)通過收集并處理上述數(shù)據(jù),必須取得汽車使用者的同意并履行妥善保管使用的義務。在無人駕駛汽車發(fā)動前,無人駕駛系統(tǒng)可以通過發(fā)送統(tǒng)一的格式化協(xié)議通知使用者可能會使用的數(shù)據(jù)信息及因無法提取信息可能會導致的風險,如果使用者接受了上述協(xié)議,可認定使用者已同意汽車使用自己認可權限范圍內(nèi)的數(shù)據(jù)。
根據(jù)摩根士丹利的報告,無人駕駛汽車投入大規(guī)模應用后,僅美國就可以獲得1.3萬億美元的收入,其中燃料、醫(yī)療和保險成本就可節(jié)省近1萬億美元。〔38 〕無人駕駛汽車的投入將顯著地減少公共服務成本的投入,為政府維持社會發(fā)展提供有益支撐。目前對于無人駕駛汽車的相關法學研究中,較少對政府等主體應負的監(jiān)管責任作深入研究。但從人工智能的實際出發(fā),監(jiān)管者在無人駕駛汽車的發(fā)展與應用中,起著重要作用?!?9 〕首先,無人駕駛技術的發(fā)展是系統(tǒng)性工程,除了汽車自身技術的改變,更需要路網(wǎng)、信號燈、充電帶等配套性基礎設施的建設,僅靠汽車的自身進步,是無法實現(xiàn)無人駕駛大規(guī)模應用的;其次,無人駕駛汽車發(fā)生的侵權事故,對過錯以及責任的劃分,需要立法機構與行政機構對人工智能的倫理價值、算法邏輯等領域有著清晰的理解。公權力機構尤其是立法機關必須著重增強責任分配機制對于風險與科技的考量;再次,應加強對于無人駕駛汽車監(jiān)管體系的完善,實現(xiàn)設計問責、應用問責、事后追責并存的機制。
(一)事前監(jiān)管——強制性入市測試
鑒于當前實際,目前已有的立法監(jiān)管主要嘗試通過非強制性技術指南向強制性標準過渡的路徑。美國《自動駕駛法案》提出了生產(chǎn)、研發(fā)企業(yè)在數(shù)據(jù)應用、產(chǎn)品標準、功能適用等各方面的安全標準,要求企業(yè)提交具有處理安全問題能力的相關證明。監(jiān)管機構通過恰當?shù)谋O(jiān)管程序,確保通過審批的無人駕駛車輛能夠適合技術發(fā)展與保障相關人員人身財產(chǎn)安全,具有處理突發(fā)事件的能力。從監(jiān)管者的能力出發(fā),制定一個客觀的準入標準非常有必要,該準入標準至少應包括以下維度:首先是試圖投放市場的無人駕駛汽車的安全性已經(jīng)證明將顯著高于傳統(tǒng)車輛,例如在減少乘員死亡率、第三方傷害率上顯著低于傳統(tǒng)車輛;其次是無人駕駛汽車具有處理典型情況的能力,例如符合轉(zhuǎn)彎減速、斑馬線避讓行人等強制性要求;再次是無人汽車生產(chǎn)商應當具有一定的責任能力,例如生產(chǎn)規(guī)模、企業(yè)實繳注冊資本達到較高的標準,以應對將來可能出現(xiàn)的各類訴訟。除了準入許可,無人駕駛汽車應遵循嚴格的登記原則,無人駕駛汽車權利人應就所有、占有、使用、租賃、抵押等權利分別向機動車主管部門辦理權利登記,所有權等權利的轉(zhuǎn)讓應當遵循書面原則。
筆者認為,可以實行差別化責任制度,鼓勵生產(chǎn)者提供符合安全標準的產(chǎn)品,無人駕駛汽車的路測與上市必須經(jīng)過審批,保障終端用戶的權益并增進民眾對于無人駕駛汽車的信賴度。通過監(jiān)管機構審批的無人駕駛汽車,制造商實質(zhì)上可以承擔有限的侵權責任,生產(chǎn)者與研發(fā)者對于相關審批的尊重與遵守,可以獲得實際責任的減少。其本應承擔但實際減少的責任可以由強制保險、無人駕駛汽車基金等特殊主體承擔,最大化實現(xiàn)對于被侵權人的救濟。而對于未經(jīng)過審批的無人駕駛汽車,特別是沒有經(jīng)過性能安全標準評估與分析的車輛,其研發(fā)者、生產(chǎn)者、銷售者必須承擔嚴格的責任。
(二)事中監(jiān)管——數(shù)據(jù)可控原則
對于無人駕駛汽車而言,數(shù)據(jù)是最為寶貴的財富。作為監(jiān)管者,必須從立法的高度明確其具有獲取、掌握、在特殊情況下利用數(shù)據(jù)的權力。歐盟《一般數(shù)據(jù)保護條例》第38條提出設立數(shù)據(jù)保護官職位,具體職能包括:一是數(shù)據(jù)保護官可用恰當和及時的方式,介入個人數(shù)據(jù)的保護;二是數(shù)據(jù)的控制者和處理者應支持數(shù)據(jù)保護官履責,并提供必要資源。在人工智能時代,生產(chǎn)商等企業(yè)對于技術的研發(fā)應用能力與動態(tài)更新能力顯著強于監(jiān)管機構。在此情況下,如何體現(xiàn)監(jiān)管機構所代表的公權力權威性是需要著重解決的法律難題。而賦予監(jiān)管者隨時調(diào)取、閱讀、研判研發(fā)、生產(chǎn)、使用等各個環(huán)節(jié)數(shù)據(jù)的權力,則有利于監(jiān)管機關掌握技術發(fā)展的方向,確保各個環(huán)節(jié)可控并為個人數(shù)據(jù)提供保護。在無人駕駛汽車侵權責任鏈式分配的體系下,監(jiān)管者可以與保險公司在保障隱私的前提下共享部分基礎數(shù)據(jù),在事故責任勘定、定損、理賠等諸多環(huán)節(jié)減少因信息不通造成的隔閡,提高責任認定與侵權救濟的效率。
(三)事后監(jiān)管——無過錯賠付機制
即使通過嚴苛的審批和大量的論證,無人駕駛汽車依然會造成侵權。當侵權行為發(fā)生時,為有效保障被侵權人權益并保護無人駕駛汽車行業(yè)的發(fā)展,可以借鑒美國《兒童疫苗傷害法案》建立的“無過錯賠付機制”。經(jīng)過檢測的安全疫苗注射入兒童體內(nèi)后也會有較低的概率致殘致死。消費者在對疫苗生產(chǎn)廠商提起訴訟時,無需證明疫苗存在產(chǎn)品缺陷,只要在規(guī)定的時間內(nèi)出現(xiàn)醫(yī)療機構列舉的病癥即可獲得賠償與治療,在出現(xiàn)清單外的病癥時,才需被侵權人證明產(chǎn)品缺陷的因果關系。同時,對于疫苗傷害的賠付由專門基金支付,基金的來源為對注射疫苗征收的專門稅收?!?0 〕在有效地減少人類疾病與保護極少數(shù)兒童權益方面,無過錯賠償機制發(fā)揮了極為重要的作用。與疫苗相同,無人駕駛汽車的無過錯賠付機制將準確地為生產(chǎn)者等責任主體提供明確的責任預期,同時較好地覆蓋侵權事件的賠償。但無過錯賠償機制并沒有完全將無人駕駛汽車排除于現(xiàn)行侵權法體系之外,當不屬于無過錯賠償機制償付的事由出現(xiàn)時,依然適用現(xiàn)行侵權法的規(guī)定。事后無過錯賠付機制將與保險體系一同構成鏈式侵權分配機制的基礎性保障,在鼓勵無人駕駛技術發(fā)展與保護人類生命安全的維度中尋找平衡。
(一)舉證責任
根據(jù)我國《侵權責任法》的規(guī)定,產(chǎn)品責任的構成要件包括產(chǎn)品存在缺陷、損害以及因果關系。其中,證明產(chǎn)品存在缺陷是重中之重,按照現(xiàn)行法律,一般遵循“誰主張、誰舉證”的原則。鑒于無人駕駛汽車的高度技術性,消費者若承擔缺陷的舉證責任則存在顯著不公平。有觀點認為,鑒于人工智能技術的復雜性與資本集中的先天特性,建議由生產(chǎn)者承擔舉證責任,作為解決舉證責任的方法。〔41 〕也有觀點提出,個案很難反映人工智能等新興科技的總體收益與風險,不能僅憑訴訟雙方當事人的證詞決定獨立的實體問題,在涉及無人駕駛汽車產(chǎn)品責任的舉證時,需要設立特殊的舉證責任機制?!?2 〕筆者建議,若使用者能夠證明侵權事故發(fā)生時,無人駕駛汽車處于自動駕駛模式,就可以推定產(chǎn)品存在缺陷,從而將舉證責任轉(zhuǎn)移。根據(jù)《最高人民法院關于民事訴訟證據(jù)的若干規(guī)定》第4條第6款的規(guī)定,若侵權事故中被侵權方試圖依托產(chǎn)品缺陷起訴生產(chǎn)商,由生產(chǎn)商需證明存在免責事由。這種舉證責任的分配將會在一定程度上加重生產(chǎn)者免責證明的責任。由于存在數(shù)據(jù)記錄以及監(jiān)管的強制性要求,被侵權人通過相關數(shù)據(jù)記錄、使用痕跡可以相對容易地證明汽車處于自動行駛的狀態(tài)。對于生產(chǎn)者而言,其實際上承擔了傳統(tǒng)過錯推定的駕駛?cè)素熑?。被侵權人無需證明無人駕駛汽車的生產(chǎn)者在研發(fā)、設計、制造中未能妥善履行義務。這種模式類似傳統(tǒng)的機動車責任分配,被侵權方無需證明產(chǎn)品缺陷,保險人代位賠償后取得追償請求權,從而減少了被侵權方的舉證責任。
(二)雙軌制保險與責任限制
保險公司在無人駕駛時代面臨著諸多沖擊。首先,是事故責任的認定問題;其次,是無人駕駛汽車的保險與賠付費率厘定如何確定。從理論上分析,人工智能的反應速度、響應時間均優(yōu)于人腦,其事故率、車輛故障率應顯著低于有人駕駛汽車,〔43 〕根據(jù)世界衛(wèi)生組織統(tǒng)計,中國每年死于交通事故的人數(shù)超過26萬人,其中90%的事故是人為失誤導致的,無人駕駛汽車有望將車禍發(fā)生數(shù)量降低至目前的1%水平?!?4 〕如果根據(jù)事故率、車輛故障率計算保額,則保險金理應維持在較低的水平,但現(xiàn)實是承認無人駕駛汽車地位的國家往往加重對于保險金額的限制,例如德國聯(lián)邦議院《道路交通法第八修正案》規(guī)定,因自動化汽車的系統(tǒng)故障導致人員傷亡的,最高賠償額從500萬歐元提高到1000萬歐元,無疑增加了保險業(yè)成本。再次,保費的承擔主體發(fā)生變化。傳統(tǒng)保險公司在侵權事故責任劃分、處理、定損賠償?shù)确矫嬗兄?jīng)驗優(yōu)勢,但谷歌公司所屬無人駕駛汽車在2016年路測時曾與公交車發(fā)生碰撞,谷歌表示由其承擔事故責任。特斯拉在亞洲地區(qū)推出了一體化消費套餐服務,用戶支付一次性保費后,其汽車整個生命周期的保險都將由生產(chǎn)商覆蓋。此時生產(chǎn)商替代了保險的角色,生產(chǎn)廠商需要將侵權責任的保險成本平攤到車輛的銷售價格中,傳統(tǒng)車險的保費來源將受到?jīng)_擊。
為維護現(xiàn)行立法體系的穩(wěn)定,筆者傾向于在鏈式責任分配機制下,對被侵權方予以綜合保障。對無人駕駛的研發(fā)、生產(chǎn)、使用、監(jiān)管必須投保強制責任保險,由強制責任保險覆蓋基本的侵權責任風險,當強制責任保險無法完全覆蓋風險尤其是生產(chǎn)者風險時,由監(jiān)管者建立的無人駕駛汽車基金承擔無過錯賠償責任。同時,使用者在使用時,可以根據(jù)實際需要,投保相應的使用保險。實踐中,強制保險因賠償無需過錯、受害人具有直接的保險金請求權,在保護被侵權人方面起到了重要作用。2017年2月,英國《汽車技術和航空法案》將無人駕駛汽車強制保險納入了機動車保險范圍。在無人駕駛模式下發(fā)生事故,保險公司需承擔賠償責任。隨著無人駕駛技術生產(chǎn)者逐漸取代原駕駛?cè)说牡匚?,原本由機動車所有人作為投保主體的強制責任保險需要作出調(diào)整,強制責任保險的投保主體可以擴展至研發(fā)者、生產(chǎn)者、使用者,通過不同階段的責任保險,共同覆蓋侵權風險。被侵權方可以直接向無人駕駛汽車強制責任保險人請求賠償,而保險人有權向既有法律責任主體進行追償。例如,如果事故的發(fā)生是由生產(chǎn)者的過錯引起,則保險公司在賠償后可按照產(chǎn)品責任法等相關法律法規(guī)向生產(chǎn)者追償。除了強制責任保險,未來自動駕駛汽車的保險模式很可能是基于微觀風險,具體到每小時或每公里的收費。保險公司同樣可以利用人工智能的技術優(yōu)勢,借助先進的實時數(shù)字信息系統(tǒng),及時發(fā)現(xiàn)鎖定事故經(jīng)過,重新還原事故情形,準確定責并快速定損理賠,實現(xiàn)更為快速便捷安全的保險服務。〔45 〕如果被保險人存在過錯,例如使用者投保了無人駕駛汽車使用險,但未及時履行保單覆蓋內(nèi)的注意義務,保險公司可以不承擔使用責任賠付。
無人駕駛汽車使用的是依托聯(lián)網(wǎng)技術的高科技操作系統(tǒng),若一臺汽車發(fā)現(xiàn)產(chǎn)品缺陷,往往是同批次車輛均存在產(chǎn)品缺陷,為減少無人駕駛汽車保險人的巨額賠付風險,可以參照航空法與海商法建立保險賠付限額機制,在充分救濟受害人的同時限制企業(yè)的賠償責任,促進行業(yè)發(fā)展。
在科技生產(chǎn)力得到釋放后,現(xiàn)行法律法規(guī)如何順應無人駕駛汽車大規(guī)模應用的趨勢,成為亟待解決的基礎性問題?!?6 〕西方國家已著手調(diào)整現(xiàn)行規(guī)定,為無人駕駛的應用清除法律障礙。聯(lián)合國歐洲經(jīng)濟委員會根據(jù)實踐的變化,于2016年通過了《維也納道路交通公約(修正案)》,明確允許完全自動駕駛技術運用到實踐中。對于無人駕駛導致的交通事故,德國聯(lián)邦議院2017年頒布的《道路交通法第八修正案》強化了對于受害人的保護,具體包括駕駛?cè)肆x務變化、強制保險賠償額度上浮、事故證據(jù)等數(shù)據(jù)嚴格保存等內(nèi)容。一個可預測的責任機制將更好地促進無人駕駛汽車的大規(guī)模應用與發(fā)展,必須對無人駕駛汽車侵權的責任分配作出清晰明確的規(guī)定,在盡量減少對現(xiàn)行法規(guī)大規(guī)模調(diào)整的基礎上,結合無人駕駛汽車的實際對侵權責任法規(guī)作出修改,形成完整的責任分配鏈條,妥善解決無人駕駛汽車侵權責任問題。無人駕駛汽車等人工智能技術的出現(xiàn),給一直在試圖超車的中國一個換道超車的機會,使得中國可以為人工智能的未來制定標準,走自己獨特的道路,而不再是去填補其他國家發(fā)展的空白,而人工智能產(chǎn)品的侵權責任是亟待解決的關鍵一環(huán)。