夏利民,王慶松
隨著人工智能在交通、醫(yī)療、生產(chǎn)制造、金融乃至生活服務(wù)等各領(lǐng)域的廣泛應(yīng)用,其引發(fā)的侵權(quán)責(zé)任認定和承擔(dān)問題備受關(guān)注。在人類使用人工智能過程中,由于智能機器或設(shè)備開發(fā)以及系統(tǒng)缺陷、人類錯誤操作、人類與操作系統(tǒng)之間的交接等方面的原因,可能發(fā)生各種事故致使對他人的人身或財產(chǎn)帶來嚴重的損害。責(zé)任保險關(guān)注損害填補和責(zé)任轉(zhuǎn)移,增強了人工智能產(chǎn)品生產(chǎn)者的賠付能力,為民事責(zé)任的分配和承擔(dān)提供了新的思路和解決方案。因此,如何通過責(zé)任保險制度安排解決侵權(quán)救濟并兼顧智能技術(shù)創(chuàng)新發(fā)展,成為需要深入探討的重要問題。
根據(jù)我國《保險法》第65條,責(zé)任保險是以被保險人對第三者依法應(yīng)負的賠償責(zé)任為保險標(biāo)的的保險。沒有民事責(zé)任制度,就不會有轉(zhuǎn)嫁責(zé)任風(fēng)險的要求,也就沒有投保責(zé)任保險的必要。責(zé)任保險人支付的一切賠償都以侵權(quán)法確定致害人的責(zé)任為前提。因此,要構(gòu)建人工智能侵權(quán)責(zé)任的保險制度,首先要厘清侵權(quán)責(zé)任的分配與承擔(dān)。而厘清責(zé)任需要在對各方參與人權(quán)利、義務(wù)及責(zé)任全面考察的基礎(chǔ)上,構(gòu)建以受害人救濟為主要功能的責(zé)任體系。人工智能侵權(quán)行為的法律連接點主要有兩個:一是所有人或使用人;二是生產(chǎn)者或系統(tǒng)開發(fā)者。當(dāng)人類的決定被人工智能的自主決定所替代時,人工智能自身需要對侵權(quán)行為承擔(dān)責(zé)任,這就涉及獨立法律人格問題。
人工智能侵權(quán)責(zé)任制度為相應(yīng)責(zé)任保險制度提供了理論基礎(chǔ)。但如果建立了以生產(chǎn)者為主的責(zé)任體系,對生產(chǎn)者課以過重的責(zé)任,則會影響其開發(fā)和推廣人工智能新技術(shù)的積極性。而責(zé)任保險安排則有利于顯著降低生產(chǎn)者經(jīng)營成本,同時又具備及時、充分救濟受害人的功能。不過,現(xiàn)有責(zé)任保險制度建立于非智能時代的法律背景之下。當(dāng)前,很多人工智能機器或設(shè)備已屬于強人工智能,其運行不再主要依賴人類操作者,而是能夠獨立做出決定,這意味著人類可能并不需要對其行為承擔(dān)全部的責(zé)任。傳統(tǒng)上,自動化機器或機動車等的責(zé)任保險的投保主體主要是所有人、使用人等,保險責(zé)任范圍并未覆蓋系統(tǒng)缺陷造成的損害;而對于自主化的人工智能,是否應(yīng)將生產(chǎn)者(包括設(shè)計者,如系統(tǒng)另有他人開發(fā))等的責(zé)任納入責(zé)任主體體系,并設(shè)定強制投保義務(wù)等成為考慮重點。
當(dāng)前,人工智能技術(shù)尚未成熟,責(zé)任保險制度的實施會增加保險公司的賠付費用,加重保險人的保險責(zé)任,進而增加投保人的保費負擔(dān),因此有必要建立保險人代位求償權(quán)制度,賦予保險人向過錯侵權(quán)人的代位求償權(quán)。同時,在保險人追償時確定具體的侵權(quán)責(zé)任,并通過保險人代位求償制度將“過錯”(特別是智能系統(tǒng)缺陷)舉證責(zé)任壓實給生產(chǎn)者、設(shè)計者,避免受害人救濟賠償?shù)难舆t。
從責(zé)任保險的法律關(guān)系來看,各方當(dāng)事人之間存在兩個獨立的法律關(guān)系:保險關(guān)系與侵權(quán)責(zé)任關(guān)系。兩種法律關(guān)系因人工智能的介入變得更為復(fù)雜。而責(zé)任保險以侵權(quán)人對受害人應(yīng)負的侵權(quán)責(zé)任為保險標(biāo)的,因此構(gòu)建人工智能責(zé)任保險制度必須先厘清人工智能侵權(quán)的基礎(chǔ)法律關(guān)系,進而完善侵權(quán)責(zé)任分配與承擔(dān)規(guī)則。隨著人工智能越來越普及,對涉及人工智能的事故或事件的責(zé)任進行分配將會變得越來越普遍。侵權(quán)責(zé)任法最重要的立法目的就是保護民事主體不受侵害及受到侵害時得到及時救濟,因此,應(yīng)將受害人救濟作為完善人工智能侵權(quán)責(zé)任制度的首要考量因素,以此確定侵權(quán)責(zé)任分配與承擔(dān)的各項規(guī)則。
1.各侵權(quán)主體及其責(zé)任分配
人工智能致?lián)p的侵權(quán)責(zé)任涉及的法律主體主要有:所有人或使用人、生產(chǎn)者或開發(fā)者以及人工智能機器或設(shè)備自身。智能化背景下,這些主體的責(zé)任分配與承擔(dān)發(fā)生了新的變化。
(1)所有人或使用人不再是主要的責(zé)任主體
現(xiàn)行侵權(quán)責(zé)任制度是以人類行為和決定為中心構(gòu)建起來的,即機器的所有人或使用人是侵權(quán)責(zé)任承擔(dān)者。但當(dāng)人類將操作權(quán)交給智能系統(tǒng)后,人工智能就可以在獨立于人類干預(yù)的情況下自主做出決定,這時再由所有人或使用人對侵權(quán)損害承擔(dān)主要責(zé)任不盡合理。以智能駕駛為例,當(dāng)駕駛權(quán)從人類轉(zhuǎn)移到智能機器,在人類駕駛?cè)瞬淮嬖谥饔^過錯甚至身份轉(zhuǎn)變?yōu)槌丝偷那闆r下,從智能駕駛行為的控制和利益的角度考慮,智能機器造成的損失不應(yīng)歸咎于所有人或使用人。此時,所有人或使用人只是在少數(shù)特定情形下,因不當(dāng)行為造成人工智能發(fā)生事故時才會承擔(dān)侵權(quán)責(zé)任。英國2018年實施的《自動與電動汽車法案》(The Automated and Electric Vehicles Bill,AEV法案)規(guī)定,如果被保險人(車主)或被保險人知情的情況下(一般是司機)未經(jīng)授權(quán)對機動車軟件系統(tǒng)進行更改或未更新對機動車安全至關(guān)重要的軟件而導(dǎo)致交通事故發(fā)生的,被保險人應(yīng)當(dāng)承擔(dān)事故的責(zé)任。
(2)生產(chǎn)者、設(shè)計者或銷售者因產(chǎn)品缺陷承擔(dān)責(zé)任
人工智能在沒有發(fā)生系統(tǒng)程序故障的情況下,也同樣可能發(fā)生事故導(dǎo)致?lián)p害,這時并不能認定人工智能存在產(chǎn)品責(zé)任,因為產(chǎn)品在生產(chǎn)、銷售和使用的各個環(huán)節(jié)中均可能遭受毀損。只有在損害事故歸因于軟件系統(tǒng)時,才可將人工智能機器或設(shè)備看成產(chǎn)品,從而適用產(chǎn)品責(zé)任,即當(dāng)涉及人工智能的事故是由于產(chǎn)品缺陷造成的,相應(yīng)責(zé)任才會被分配給生產(chǎn)者、設(shè)計者、銷售者等。智能系統(tǒng)的缺陷可能是設(shè)計缺陷、制造缺陷或警示缺陷。
因此,在智能系統(tǒng)下自主運行時,其因系統(tǒng)缺陷造成損害的責(zé)任應(yīng)當(dāng)由所有人、使用人之外的其他主體替代承擔(dān),其中,產(chǎn)品的生產(chǎn)者是主要的責(zé)任承擔(dān)者。當(dāng)前,主張主要由人工智能生產(chǎn)者承擔(dān)侵權(quán)責(zé)任已漸成主流觀點。當(dāng)人工智能產(chǎn)品存在設(shè)計缺陷,而開發(fā)設(shè)計另有他人時,設(shè)計者應(yīng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任。如果在產(chǎn)品流通的某個環(huán)節(jié)造成了毀損導(dǎo)致智能系統(tǒng)缺陷,則可能需要由銷售者承擔(dān)相應(yīng)的責(zé)任。對于受害人來說,由于很難證明智能系統(tǒng)是否存在缺陷,為及時得到救濟應(yīng)對此侵權(quán)損害實行無過錯責(zé)任。但如責(zé)任過重,也會阻礙生產(chǎn)者發(fā)展人工智能的積極性。為此,必須有保險制度幫助生產(chǎn)者承擔(dān)產(chǎn)品風(fēng)險。
(3)人工智能本身在具備主體資格的情形下承擔(dān)責(zé)任
在人工智能正常運行的情況下,人類只是一個啟動或終止運行的角色。當(dāng)人工智能獨立于人類自主做出決定時,如果損害的發(fā)生不能歸責(zé)于人工智能之外的原因,同時人工智能產(chǎn)品也不存在缺陷,那么賦予人工智能法律人格,讓其為自己的侵權(quán)行為承擔(dān)責(zé)任就是最好的選擇。此時人工智能成為侵權(quán)責(zé)任主體,但這引發(fā)了關(guān)于人工智能主體資格的質(zhì)疑。
2.人工智能的法律主體資格
人工智能的法律主體資格即法律人格是近年來頗具爭議的話題。隨著強人工智能的逐步推廣與普及,“主體論”的呼聲也越來越高。
(1)人工智能法律人格的證成
關(guān)于人工智能法律人格,總體上有“主體論”和“客體論”兩種觀點,爭論的焦點在于它是法律關(guān)系的主體還是客體。需注意的是,爭論只發(fā)生在強人工智能背景下。在弱人工智能時代,人工智能只是法律關(guān)系中的“客體”。根據(jù)民法的基本原理,意思表示是法律行為的核心要素。強人工智能不依賴人類即可做出相對獨立的思考和行動,具備了獨立意思表示能力。因此,有些學(xué)者提出了“主體論”。
首先,法律人格的適格性以人工智能功能的復(fù)雜性為前提,其要具備獨立學(xué)習(xí)、思考和決策的能力。因此,“主體論”和“客體論”將爭議聚焦于“意思表示”,但是,意思表示是法律行為的成立要件,并非法律人格的前提。法律人格由國家通過法律規(guī)定或認可。如果從“法人”人格賦予的法理推論,是否具有獨立意思表示能力并不影響“擬制”人格的確定,法人是擬制的,其意思表示借助一定自然人(如法定代表人)完成。同理,人工智能自身能否獨立意思表示,并不影響法律對其賦予擬制人格。此外,意思表示方式只是形式問題,而非實質(zhì)要件,應(yīng)容許不同于自然人的“意思表示”方式。其次,法律人格的正當(dāng)性以簡化人工智能參與法律關(guān)系的復(fù)雜性為必要,這是法律人格的實踐意義。當(dāng)初,賦予“法人”或“其他組織”以擬制人格,確實簡化了法律關(guān)系以及法律行為涉及的權(quán)利、義務(wù)和責(zé)任分配問題。主體論充分評估了人工智能自我意識的獨立性,充分考慮了人工智能未來發(fā)展對法律人格體系的沖擊,預(yù)留了法律對未來社會關(guān)系的復(fù)雜性、虛擬性以足夠的調(diào)整空間。但將人工智能納入法律主體體系面臨的最大問題是,法人是由背后的代理人或代表人為意思表示,而人工智能卻在試圖“擺脫人類的控制”。同時,一旦賦予人工智能以法律人格,即意味其具備獨立承擔(dān)法律責(zé)任的能力,這就必然涉及財產(chǎn)歸屬,或通過其他途徑(如保險)解決其賠償責(zé)任的能力問題。
實踐中,在當(dāng)前及今后相當(dāng)長的一段時間內(nèi),各種技術(shù)等級的人工智能仍會并存。因此,筆者以為,應(yīng)以德國學(xué)者薩維尼的擬制人格說作為人工智能法律人格的法理基礎(chǔ),從社會現(xiàn)實性和規(guī)制必要性出發(fā),對法律人格認定實行“雙軌制”:對弱人工智能不賦予法律人格,而對經(jīng)過依法嚴格認定的強人工智能賦予主體資格。
(2)人工智能法律人格的認定
賦予人工智能法律人格會帶來一系列法律后果,因此,人工智能法律人格的適格性要經(jīng)過權(quán)威部門的嚴格認定,包括技術(shù)適格性和專業(yè)適格性,即“雙重許可”。
首先,人工智能的技術(shù)適格性意味著不僅要達到一定的智能化程度,而且還要具有物理意義上的“獨立性”,一般來說應(yīng)當(dāng)是具有一定外在形體的智能設(shè)備,而不只是附著于互聯(lián)網(wǎng)的某一或若干碎片化的功能。人工智能在技術(shù)上的智能化程度和獨立、完整性應(yīng)由技術(shù)部門(如科技部、工信部等)認定并進行登記注冊,生成專屬編號,對其功能、用途及性能做出精確說明。其次,人工智能的專業(yè)適格性是其行業(yè)準(zhǔn)入標(biāo)準(zhǔn),應(yīng)由行業(yè)監(jiān)管部門(如銀保監(jiān)會)或委托的機構(gòu)認定并頒發(fā)許可證書,取得特定經(jīng)營資格。人工智能不僅要具備能獨立完成分析、判斷和決策的能力,還應(yīng)考慮特定領(lǐng)域的法律倫理及法技術(shù)性。如人工智能用于保險領(lǐng)域,就要內(nèi)嵌相應(yīng)的功能程序,使其能秉持保險法所特有的法律倫理,避免逆向選擇和道德風(fēng)險,堅持最大誠信、損失補償、近因、保險利益等基本原則,以及由此衍生的特定主體告知義務(wù)、說明義務(wù)等所主導(dǎo)的具體規(guī)則,推進人工智能以最大善意訂立保險合同。
無論是強人工智能還是弱人工智能,實際上都很難甚至無法探尋其在侵權(quán)關(guān)系中是否具有過錯。同時,為了給受害人以及時、充分、有效的救濟,特別是在遭受嚴重人身傷害時,應(yīng)以無過錯責(zé)任為宜。對于弱人工智能來說,智能機器人系統(tǒng)存在的瑕疵(缺陷)造成他人權(quán)益的損害,可根據(jù)產(chǎn)品責(zé)任予以追責(zé)。而產(chǎn)品責(zé)任屬于無過錯責(zé)任,只要產(chǎn)品存在缺陷,生產(chǎn)者或銷售者就應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任,而無須證明其存在過錯。對于強人工智能來說,即便其具有獨立意識,通過自主的決定為一定的行為,但其依然需要依靠人來生產(chǎn)、制造方能得以存在,設(shè)計者、生產(chǎn)者所設(shè)定之目的對其后續(xù)自主性有決定性的影響。若設(shè)計者、生產(chǎn)者出于善意設(shè)計、制造的智能機器人侵犯了他人的權(quán)益,他人無須證明智能機器人過錯與否,也應(yīng)以“無過錯責(zé)任”對智能機器人予以歸責(zé)。
基于上述分析,受害人可基于產(chǎn)品責(zé)任和替代責(zé)任追究人工智能的侵權(quán)責(zé)任,所有人或使用人僅在少數(shù)特定情形下承擔(dān)侵權(quán)責(zé)任。其實,強、弱人工智能均為智能化的“產(chǎn)品”,都可追究其產(chǎn)品責(zé)任,但是前提條件是存在缺陷。智能系統(tǒng)在設(shè)計或制造上是否存在缺陷,由生產(chǎn)者及設(shè)計者承擔(dān)舉證責(zé)任,可這通常又很難做到,但因?qū)嵭械氖恰盁o過錯責(zé)任原則”,因此不影響受害人及時得到賠償。這也是責(zé)任保險制度發(fā)揮作用的優(yōu)勢所在。通過責(zé)任保險賠付受害人,避免了因責(zé)任認定導(dǎo)致訴訟拖延而影響救濟的及時性。如“產(chǎn)品”并不存在缺陷,則可依據(jù)替代責(zé)任規(guī)則,追究人工智能的侵權(quán)責(zé)任。強、弱人工智能在主體性上的差異導(dǎo)致二者在承擔(dān)責(zé)任上存在差異:強人工智能具有主體資格,可直接承擔(dān)侵權(quán)責(zé)任,但最終由智能系統(tǒng)的生產(chǎn)者、設(shè)計者承擔(dān);弱人工智能不具有主體資格,其責(zé)任直接由智能系統(tǒng)的生產(chǎn)者、設(shè)計者承擔(dān)。賦予強人工智能以擬制的法律人格,可以將運行過程中產(chǎn)生的相關(guān)智力成果和大量數(shù)據(jù)財產(chǎn)歸屬于人工智能,形成特有的財產(chǎn)權(quán)利體系,并以此承擔(dān)侵權(quán)責(zé)任,增強其法律責(zé)任能力。這一點在智能化、數(shù)據(jù)化的背景下具有重要的法律意義。
首先,人工智能模擬人腦運作,可以自我創(chuàng)建超出預(yù)設(shè)程序以外的智力成果,產(chǎn)生具有一定財產(chǎn)價值的知識產(chǎn)權(quán),主要包括專利權(quán)、商業(yè)秘密、商標(biāo)權(quán)、著作權(quán)等。但將其歸屬于人工智能本身應(yīng)有一定的前提條件,即應(yīng)根據(jù)智力成果對人類輸入的依賴性程度來判斷。只有當(dāng)人工智能成為“創(chuàng)造性主體”,且直接承擔(dān)了創(chuàng)造性工作,代替人類成為獨創(chuàng)性成分的主要乃至全部來源的情況下,其創(chuàng)作物才能歸屬于人工智能。否則,即便在主體論下,如其智力成果主要依賴人類輸入生成,仍不應(yīng)歸屬于人工智能。關(guān)于這些知識產(chǎn)權(quán)歸屬,筆者主張借鑒職務(wù)作品相關(guān)規(guī)則并加以擴展,將知識產(chǎn)權(quán)直接歸屬于人工智能并由所有人或使用人代位管理。
其次,人工智能運行的基礎(chǔ)是海量數(shù)據(jù)收集與處理,這正是人工智能主要功能及技術(shù)的優(yōu)勢所在。同時,其在運行過程中,還會積累、儲存甚至加工形成大量的數(shù)據(jù)。在可復(fù)制性、稀缺性、真實性和價值的不確定性基礎(chǔ)上,數(shù)據(jù)資源的基本特性基本滿足了作為財產(chǎn)權(quán)利客體的重要特性。我國《民法典》第127條確認了數(shù)據(jù)財產(chǎn)權(quán):“法律對數(shù)據(jù)、網(wǎng)絡(luò)虛擬財產(chǎn)的保護有規(guī)定的,依照其規(guī)定?!钡皵?shù)據(jù)”權(quán)利邊界、該權(quán)利與人工智能歸屬和控制權(quán)之間的關(guān)系等仍有待明確。
人工智能侵權(quán)責(zé)任制度通過將侵權(quán)責(zé)任分配與承擔(dān)的重心轉(zhuǎn)移給生產(chǎn)者,從而能給受害人以及時、充分和有效的救濟。但這繼而帶來一個不可忽視的問題,即高昂的賠償成本可能會阻礙生產(chǎn)者對人工智能的研發(fā)及制造。若對人工智能實行責(zé)任保險制度,通過一個較低額度的保費支出將責(zé)任風(fēng)險轉(zhuǎn)移給保險人承擔(dān),則可大大降低這種經(jīng)濟成本,解決現(xiàn)有民事責(zé)任承擔(dān)不足的問題。因此,責(zé)任保險制度的設(shè)計除了救濟功能外,還要考慮生產(chǎn)者的責(zé)任風(fēng)險的降低與轉(zhuǎn)移。鑒于人工智能的高風(fēng)險特征,對于生產(chǎn)者責(zé)任宜采取強制保險,而對于其他主體則可以商業(yè)保險形式予以輔助。
人工智能作為一種高科技產(chǎn)物,給人類的生產(chǎn)、生活帶來了不可預(yù)測的風(fēng)險,將人工智能納入強制責(zé)任保險范疇非常必要。近年來,我國多地對自動駕駛車輛道路測試建立了強制責(zé)任保險。但是,在具體采取哪種保險模式上存在不同觀點。
1.“雙軌制”模式
人工智能與傳統(tǒng)機器不同,它擁有相對自主權(quán)和更高的智能水平,因此所有人或使用人的法律責(zé)任與生產(chǎn)者、設(shè)計者的法律責(zé)任,在性質(zhì)及范圍上都不相同。前者屬于對第三者的侵權(quán)責(zé)任,后者則屬于產(chǎn)品責(zé)任的范疇。因此,可分別投保不同形態(tài)的責(zé)任保險,即前者投保智能機器事故責(zé)任保險,后者投保智能機器產(chǎn)品責(zé)任保險,建立“雙軌制”的保險模式。以自動駕駛為例:與自動駕駛汽車自身部件如傳感器、攝像頭、雷達、控制器等設(shè)備相關(guān)的事項,由生產(chǎn)者投保;因未盡到嚴格的檢查、維修義務(wù)或未按法律規(guī)定使用汽車等原因造成的交通事故,由汽車所有者投保。
2.“單一制”模式
隨著人工智能技術(shù)發(fā)展和應(yīng)用升級,所有人或使用人角色逐漸發(fā)生變化,不同類型的保險出現(xiàn)統(tǒng)一化趨勢。在保險制度的輔助下,自動駕駛領(lǐng)域的產(chǎn)品責(zé)任和機動車保有人(所有人)責(zé)任存在合并為制造商無過錯責(zé)任的可能,而不再考慮產(chǎn)品缺陷的認定問題。英國AEV 法案采用了“單一保險模式”(A Single Insurer Model),使得汽車保險同時涵蓋了人類駕駛員駕駛汽車的行為以及車輛自主行駛導(dǎo)致的損失。
3.區(qū)分實行“雙軌制”或“單一制”模式
責(zé)任保險模式與智能技術(shù)研發(fā)與應(yīng)用的程度密切相關(guān)?!皢我恢啤边m用于生產(chǎn)者與行為控制者同一或重疊的情形,“雙軌制”適用于生產(chǎn)者與行為控制者區(qū)分的情形。也就是說,智能機器生產(chǎn)與智能服務(wù)分離的情形,“雙軌制”具有優(yōu)勢;在智能機器生產(chǎn)與智能服務(wù)合一的情形下,“單一制”更具優(yōu)勢。筆者認為,在智能機器的控制權(quán)交由機器自身自主行使的情形下,人類操作者(即所有人或使用人)所應(yīng)承擔(dān)的責(zé)任與智能系統(tǒng)生產(chǎn)者所承擔(dān)的責(zé)任并不在一個層面上。首先,既然智能機器由智能系統(tǒng)控制,此時責(zé)任承擔(dān)者自然應(yīng)指向生產(chǎn)者、設(shè)計者,所以生產(chǎn)者、設(shè)計者的責(zé)任是第一位的,因此總體上應(yīng)取“單一制”強制保險模式。但是所有人或使用人并不能完全置身事外,在保險人已承擔(dān)賠付責(zé)任的情況下,可再根據(jù)所有人或使用人對事故的發(fā)生是否有過錯,來分析和認定其應(yīng)否承擔(dān)責(zé)任。即所有人或使用人在“單一制”保險模式下,可根據(jù)自身風(fēng)險偏好決定是由自己承擔(dān)賠償責(zé)任,還是通過自愿投保商業(yè)責(zé)任保險將風(fēng)險予以轉(zhuǎn)移。
根據(jù)“保險利益原則”,投保人應(yīng)當(dāng)是對保險標(biāo)的具有保險利益的主體。就責(zé)任保險而言,保險利益主要是投保人依法對他人承擔(dān)的賠償責(zé)任。因此,人工智能投保人對其侵權(quán)責(zé)任進行投保。目前,各國對人工智能侵權(quán)損害均主張實行強制保險,因此投保人負有特定的投保義務(wù),而對于商業(yè)責(zé)任保險,投保人則可根據(jù)自己分散和轉(zhuǎn)移責(zé)任風(fēng)險的需要決定是否投保。關(guān)于人工智能侵權(quán)損害的相關(guān)責(zé)任人對強制責(zé)任保險的投保義務(wù)的設(shè)定,以及對商業(yè)責(zé)任險的投保問題,主要存在以下情形:
1.所有人或使用人作為投保人
傳統(tǒng)的機器或者弱人工智能設(shè)備的責(zé)任保險,都以所有人或使用人為投保人。如機動車保險,無論是交通事故責(zé)任強制保險(后簡稱“交強險”),還是商業(yè)第三者責(zé)任險,都由車主進行投保。但是對智能機器來說,主張由所有人或使用人投保的,主要有兩種情形:
一是仍單獨由所有人或使用人進行投保。有學(xué)者主張對于自動駕駛汽車,仍由所有人或管理人投保交強險。其認為,從交強險的設(shè)計原理看,投保義務(wù)人早已實現(xiàn)了與責(zé)任義務(wù)人的分離。交強險上存在“共同被保險人”的法律擬制,投保義務(wù)人只是“記名被保險人”,并不能簡單地將交通事故責(zé)任主體認為是交強險的投保主體。
二是由所有人或使用人與生產(chǎn)者共同或分別進行投保。有學(xué)者主張讓制造商為每一輛智能汽車的交強險支付一部分保費,從而將制造商納入原本提供給車主/司機的汽車交通事故責(zé)任保險,成為額外的被保險人。也有學(xué)者主張分別針對所有人或使用人、生產(chǎn)制造商設(shè)計不同的責(zé)任保險,并由不同主體承擔(dān)不同的投保義務(wù)。如此,一方面避免所有人或使用人承擔(dān)過重的責(zé)任,另一方面也符合權(quán)責(zé)一致原則。其認為,在完全自動駕駛階段,人類駕駛員不需要再接管汽車,風(fēng)險主體發(fā)生轉(zhuǎn)移,交通模式也發(fā)生顛覆性變革,因此可強制汽車生產(chǎn)者與所有人分別為自動駕駛汽車投保,前者投保汽車產(chǎn)品責(zé)任保險,后者投保交通事故責(zé)任保險。
2.生產(chǎn)者、設(shè)計者作為投保人
由生產(chǎn)者(包括設(shè)計者)作為強制責(zé)任保險的投保人,也存在兩種情形:一是由生產(chǎn)者作為單獨投保人。有學(xué)者認為,自動駕駛型道路交通事故侵權(quán)責(zé)任的分擔(dān)以自動駕駛汽車的技術(shù)分級為前提,L4—L5 層級中智能系統(tǒng)完全取代了人類駕駛者,人類駕駛者無須承擔(dān)任何注意義務(wù)。此時,可以將生產(chǎn)者作為交強險單獨投保人。此種做法免除了車主投保交強險的義務(wù),基于產(chǎn)品責(zé)任引發(fā)的事故由生產(chǎn)者單獨承擔(dān)責(zé)任。二是由生產(chǎn)者、設(shè)計者與所有人或使用人作為共同投保人。前已論及,不再贅述。但如果在生產(chǎn)者之外,人工智能另有設(shè)計者,則應(yīng)由設(shè)計者對于可能存在的設(shè)計缺陷所造成的責(zé)任投保強制保險。
3.人工智能作為投保人
在人工智能取得主體資格的情況下,其作為投保人并沒有法律上的障礙,如人工智能為所有人或管理人在網(wǎng)上購物,通過自己的判斷勾選退貨運費險等,此時人工智能是適格的投保人,應(yīng)當(dāng)認可其締結(jié)保險合同的法律效力。但是,當(dāng)對人工智能實行強制責(zé)任保險時,它可能并不一定能有效實施投保行為,此時其投保行為可由所有人或使用人,或者生產(chǎn)者代為行使。對此,筆者認為,可仍由生產(chǎn)者代為投保,但將“投保義務(wù)”歸于人工智能自身。而且,在保險人履行賠償義務(wù)后向人工智能追償時,應(yīng)首先以歸屬于人工智能的財產(chǎn)權(quán)(如知識產(chǎn)權(quán)、數(shù)據(jù)財產(chǎn)權(quán)等)作為第一位承擔(dān)責(zé)任的基礎(chǔ)財產(chǎn)。
綜上,應(yīng)建立統(tǒng)一由智能系統(tǒng)承擔(dān)投保義務(wù)的強制責(zé)任險,這一義務(wù)由生產(chǎn)者承擔(dān),即便人工智能具有主體資格,因這一投保義務(wù)需要在人工智能投入實際應(yīng)用之前完成。而所有人或使用人可就自己承擔(dān)的侵權(quán)責(zé)任自愿投保商業(yè)第三者責(zé)任險,侵權(quán)責(zé)任涉及的過錯行為包括未經(jīng)授權(quán)更改軟件或未及時更新軟件,以及未盡必要的注意義務(wù)等。
人工智能強制責(zé)任保險的賠償建立在侵權(quán)人無過錯責(zé)任的基礎(chǔ)上,即只要在責(zé)任保險范圍內(nèi)的損害,保險人都有給付保險金的義務(wù),而無須被保險人證明自己是否有過錯。在強制保險之外,由侵權(quán)責(zé)任人或商業(yè)責(zé)任保險人承擔(dān)賠償責(zé)任。
1.保險責(zé)任限額的設(shè)定
責(zé)任保險的標(biāo)的是法律責(zé)任風(fēng)險,保險金額具有限額化特征,即投保人和保險人只能約定保險責(zé)任的最高限額即責(zé)任限額,而保險人給付均以合同約定的這一金額為限。強制責(zé)任保險與商業(yè)三者險有所不同的是,前者由法律法規(guī)設(shè)定統(tǒng)一的責(zé)任限額,保險人按統(tǒng)一標(biāo)準(zhǔn)收取確定金額的保費;而后者則由投保人與保險人協(xié)商確定責(zé)任限額,保險人按照最大賠償責(zé)任限額計算保費標(biāo)準(zhǔn)。就人工智能侵權(quán)責(zé)任強制保險而言,保險人理賠不足的部分,即超出責(zé)任限額之上的部分,仍由相關(guān)責(zé)任人予以賠償。
由于人工智能生產(chǎn)者是巨額利潤的主要受益者,故由其承擔(dān)第一位的投保義務(wù),如系統(tǒng)另由第三方開發(fā)設(shè)計,則由該第三方承擔(dān)系統(tǒng)相關(guān)的投保義務(wù),生產(chǎn)商投保限額相應(yīng)扣減。通過保險制度,生產(chǎn)者和設(shè)計者大大降低了自身的風(fēng)險成本和責(zé)任負擔(dān),有利于促進智能產(chǎn)業(yè)的發(fā)展。強制保險期間要覆蓋人工智能壽命,如10~15 年,一般應(yīng)在投入使用前一次性投保。法律可設(shè)定一個累計的賠償限額,高于強制保險責(zé)任限額的賠償,仍由原有侵權(quán)責(zé)任人承擔(dān),或者在相關(guān)責(zé)任人投保的情況下,由商業(yè)責(zé)任保險人承擔(dān)。
2.責(zé)任保險人給付的前提條件
關(guān)于責(zé)任保險人在何種情形下負有給付義務(wù),有兩種不同的觀點:(1)當(dāng)被保險人因致人損害行為而對第三人負有損害賠償責(zé)任時,保險人即開始負給付保險金義務(wù),即以被保險人是否對第三人負民事賠償責(zé)任為標(biāo)準(zhǔn),判斷保險人是否負保險金給付義務(wù)。(2)被保險人事實上造成第三人損害,負有損害賠償責(zé)任,而且第三人也向被保險人提出損害賠償請求,保險人開始產(chǎn)生保險金給付義務(wù)。反之,即使被保險人事實上對受害人負有損害賠償責(zé)任,只要受害人未提出損害賠償請求,保險人也沒有保險金給付義務(wù)。
筆者認為,責(zé)任保險人的給付義務(wù)產(chǎn)生于相關(guān)主體的民事責(zé)任,只要人工智能致?lián)p事故發(fā)生,相關(guān)當(dāng)事人對事故的發(fā)生負有民事責(zé)任,保險人就產(chǎn)生保險金給付義務(wù);而受害人提出賠償請求,只是行使救濟權(quán)利的具體行為,而不是實體權(quán)利產(chǎn)生的前提。因此,為了促進人工智能應(yīng)用推廣和救濟受害人權(quán)利,強制責(zé)任保險制度應(yīng)對人工智能所有人或使用人設(shè)定主動行使保險賠償請求權(quán)的義務(wù)。
3.受害人的直接請求權(quán)問題
按照合同的相對性原則,受害人是責(zé)任保險合同之外的第三人,不能根據(jù)保險合同直接向保險人提出賠償請求,只能向被保險人提出賠償請求。但是,由于人工智能強制責(zé)任保險的被保險人通常是生產(chǎn)者,而此時智能機器或設(shè)備已經(jīng)交由所有人或使用人,很難保證生產(chǎn)者能夠積極配合保險理賠行為。因此,有必要明確賦予受害人向保險人的直接請求權(quán)。
我國現(xiàn)行《保險法》并未直接規(guī)定第三人的直接請求權(quán),而是采取淡化合同相對性的方式,賦予受害人一種附條件的請求權(quán)。根據(jù)該法第65條,責(zé)任保險人根據(jù)被保險人的請求向受害人賠償保險金,只有被保險人怠于請求的,受害人才能直接向保險人提出請求。甚至在強制責(zé)任保險中,也未直接規(guī)定受害人的直接請求權(quán),如《機動車交通事故責(zé)任強制保險條例》第31條規(guī)定,保險公司可以向被保險人賠償保險金,也可以直接向受害人賠償保險金,這只是將直接賠償對象的選擇權(quán)交給了保險人而不是受害人。有學(xué)者主張,強制保險是對受害人最為有利的保護,受害人無須證明過錯,可以直接向保險人請求賠償,保險公司通常不會出現(xiàn)資力不足的問題。因此,出于人工智能強制保險的獨特性和受害人救濟的便利性考慮,應(yīng)授予受害人以保險賠償?shù)闹苯诱埱髾?quán)。
保險人在向受害人履行給付義務(wù)后,如能對過錯方行使代位求償權(quán),既可避免相關(guān)責(zé)任方對他人的不當(dāng)行為承擔(dān)責(zé)任,又有利于降低保險人的經(jīng)營成本,繼而由保險人通過降低保費支出將利益返還給投保人,同時提高生產(chǎn)者技術(shù)革新的積極性,推進人工智能技術(shù)的廣泛應(yīng)用,從而最終達成人工智能相關(guān)當(dāng)事人利益的最大化。
1.代位求償權(quán)的責(zé)任基礎(chǔ)
人工智能責(zé)任保險的代位求償制度以相應(yīng)侵權(quán)責(zé)任制度為基礎(chǔ),即保險人代位求償權(quán)要以各方主體侵權(quán)責(zé)任的分配和承擔(dān)為基礎(chǔ)。目前,已有多國針對人工智能建立了侵權(quán)責(zé)任的代位求償制度,這為保險代位求償制度提供了底層邏輯。以自動駕駛為例,車主承擔(dān)賠償責(zé)任后可再向有責(zé)任的第三方請求賠償。根據(jù)德國2017年《道路交通法第八修正案》,自動駕駛系統(tǒng)發(fā)生故障造成事故的,車主向受害人賠償后可向汽車生產(chǎn)者請求賠償。類似的,根據(jù)英國AEV法案,車主對受害人做出賠付后,可以向事故責(zé)任人請求賠償。如前所述,為了給受害人及時、充分的救濟,免除受害人承擔(dān)不適當(dāng)?shù)呐e證責(zé)任負擔(dān),人工智能侵權(quán)責(zé)任實行無過錯責(zé)任,作為進一步轉(zhuǎn)移責(zé)任風(fēng)險的保險制度,自然也應(yīng)當(dāng)按照無過錯原則進行賠付。即事故發(fā)生后,保險人按照“無過錯責(zé)任原則”先賠付受害人,之后再向相關(guān)責(zé)任人追償。
2.侵權(quán)人“過錯”對代位求償權(quán)的影響
保險人行使代位求償權(quán),是否以侵權(quán)責(zé)任人過錯為前提條件是一個存在爭議的問題。從保險法關(guān)于代位求償權(quán)的傳統(tǒng)觀點來看,第三人的主觀過錯狀態(tài)不影響保險代位權(quán),只要被保險人對第三人的損害賠償請求權(quán)成立,保險人的代位權(quán)就沒有任何理由予以否定。但為避免責(zé)任過重影響人工智能的生產(chǎn)或消費,保險人追償應(yīng)堅持“過錯責(zé)任原則”。分析機器人的過錯行為是機器人創(chuàng)制者的技術(shù)漏洞導(dǎo)致智能系統(tǒng)瑕疵而致?lián)p,抑或是智能機器管理人的不當(dāng)使用所致,以查找侵權(quán)主體構(gòu)成并分擔(dān)賠償責(zé)任。過錯責(zé)任原則既限制了保險人的追償權(quán),使保險人適當(dāng)分擔(dān)賠償責(zé)任,也避免了過錯侵權(quán)人逃脫法律責(zé)任,這也是代位求償制度的重要社會功能之一。
但保險人在追究過錯侵權(quán)責(zé)任時,無論是對于生產(chǎn)者、設(shè)計者在智能系統(tǒng)缺陷方面,還是對于所有人或使用人在擅自更改軟件或未更新軟件,或者在未盡必要注意義務(wù)方面,都難以證明其“過錯”,因此保險人追償應(yīng)在“過錯責(zé)任原則”之下追究相關(guān)責(zé)任人的過錯推定責(zé)任。如在生產(chǎn)者無法證明自身不存在過錯時,則推定其有過錯,那么被侵權(quán)人無須證明生產(chǎn)者在設(shè)計、制造、指示和產(chǎn)品監(jiān)督中未盡到注意義務(wù)。當(dāng)生產(chǎn)者或設(shè)計者以及所有人或使用人能夠證明自己不存在過錯時,則免于承擔(dān)相應(yīng)的責(zé)任。因此,在投保了強制責(zé)任保險的情況下,相關(guān)責(zé)任人無須再承擔(dān)無過錯責(zé)任。
根據(jù)我國《保險法》第60條,行使代位求償權(quán)的對象是對保險標(biāo)的造成損害、導(dǎo)致保險事故的第三人。因此,在人工智能侵權(quán)損害中,對損害發(fā)生有法律責(zé)任的當(dāng)事人,保險人有權(quán)請求其賠償。如前所述,在人工智能侵權(quán)損害方面,可能負有法律責(zé)任的主體主要包括:(1)所有人或使用人;(2)生產(chǎn)者及其智能系統(tǒng)的開發(fā)設(shè)計者;(3)人工智能自身。在人工智能侵權(quán)的情形下,可能成為求償對象的主要是生產(chǎn)者和所有人,而這二者可能正是對自身責(zé)任風(fēng)險進行投保的主體,這就引發(fā)了投保人能否成為代位求償對象的爭論。對此,有學(xué)者認為,我國法律并沒有禁止保險人對投保人開展追償。雖然投保人是保險合同的當(dāng)事人,但如果確實造成了保險標(biāo)的的損害,就可以構(gòu)成代位求償中的“第三人”。這一點對于人工智能侵權(quán)責(zé)任非常重要。在智能系統(tǒng)的操控下,人工智能所實施的行為,其法律責(zé)任的主要承擔(dān)方就是生產(chǎn)者,而生產(chǎn)者恰恰就應(yīng)當(dāng)是相應(yīng)責(zé)任保險的投保人。
除所有人或使用人、人工智能生產(chǎn)者可能成為代位求償對象外,當(dāng)智能系統(tǒng)被黑客攻擊造成對第三人損害時,保險人進行賠付后,有權(quán)對實施侵權(quán)行為的黑客進行代位追償。當(dāng)然,在這種情形下,保險人找到承擔(dān)責(zé)任的黑客,比認定生產(chǎn)者是否應(yīng)對智能系統(tǒng)缺陷負有法律責(zé)任可能要更為艱難。
保險代位求償制度是損失補償原則的派生制度,其社會功能之一,就是防止被保險人不當(dāng)?shù)美?。根?jù)保險法上的損失補償原則,被保險人不能因發(fā)生保險事故,獲得保險人的賠付而獲得額外的利益。而相應(yīng)的,保險人也不應(yīng)通過代位追償獲得額外的利益。因此,代位求償?shù)慕痤~不得超過保險人給付的保險金。如果保險人從第三人處取得的賠償金超出了其已支付的保險金,保險人應(yīng)將超出部分返還。第三人也可基于不當(dāng)?shù)美笃浞颠€。
保險人代位求償權(quán)的另一個金額限制是,相關(guān)責(zé)任人只在自身責(zé)任范圍內(nèi)向保險人給付追償款,即盡管追償對象對事故損害負有責(zé)任,保險人也可能難以追償?shù)狡淙抠r付支出。需要注意的是,人工智能在應(yīng)用過程中產(chǎn)生的知識產(chǎn)權(quán)和數(shù)據(jù)財產(chǎn),在人工智能取得法律人格的情形下應(yīng)歸屬于人工智能自身,保險人先行賠付后,可在保險金范圍內(nèi)優(yōu)先以這些財產(chǎn)利益實現(xiàn)自身追償收益,作為財產(chǎn)管理人的所有人或使用人也有協(xié)助的義務(wù)。
此外,保險人在行使代位求償權(quán)時,如果求償對象為所有人或使用人,則其應(yīng)配合保險人實現(xiàn)追償權(quán)益;如果求償對象為生產(chǎn)者,則所有人或使用人也應(yīng)提供或配合保險人獲取生產(chǎn)者有關(guān)情況或信息,以便于保險人行使代位求償權(quán)。
智能時代,應(yīng)建立適應(yīng)新的技術(shù)背景的強制責(zé)任保險制度,以彌補人工智能侵權(quán)責(zé)任分配和損害救濟的缺陷與不足,使所有人或使用人、生產(chǎn)者及設(shè)計者、保險人等各方參與人之間的利益關(guān)系建立新的平衡。構(gòu)建責(zé)任保險制度要以各方主體侵權(quán)責(zé)任的分配與承擔(dān)為基礎(chǔ),因此,首先要建立以受害人救濟為主要功能的責(zé)任體系。人工智能強制責(zé)任保險要以生產(chǎn)者為主要投保義務(wù)人,以適應(yīng)人工智能主體性特征,將保險制度的重心由人類操作者向智能機器轉(zhuǎn)移。其次,建立保險代位求償制度。保險人在理賠后可以向責(zé)任人進行追償,以減輕保險人賠付支出,提高保險人承保的積極性,進而降低生產(chǎn)者轉(zhuǎn)移風(fēng)險的經(jīng)濟成本,同時也通過壓實責(zé)任促進人工智能技術(shù)的不斷進步。在人工智能強制責(zé)任保險制度構(gòu)建過程中,應(yīng)始終將侵權(quán)責(zé)任分配貫穿侵權(quán)行為認定、責(zé)任保險安排和保險人代位求償權(quán)規(guī)則設(shè)計等關(guān)鍵環(huán)節(jié),最大限度地妥善安排和保障各方利益。