賴玉強,袁秀洋
(1.西南政法大學(xué) 民商法學(xué)院,重慶 401120;2.成都鼎元泰富資產(chǎn)管理中心,四川 成都 610042)
自1956年夏“人工智能”這一概念被提出以來,對于什么是人工智能,社會各界仍然沒有形成一個統(tǒng)一的認(rèn)識,難以作出公認(rèn)的定義,各學(xué)者都是基于自身的理解進(jìn)行界定。在這些個人理解中,筆者認(rèn)為,美國人工智能學(xué)會前執(zhí)行委員會委員羅素的見解最為合適,即人工智能是類人的行為、類人的思考、理性的思考、理性的行動。
2017年國務(wù)院發(fā)布的人工智能產(chǎn)業(yè)發(fā)展計劃和2018年10月中共中央政治局組織的關(guān)于人工智能的集體學(xué)習(xí),彰顯了黨和國家發(fā)展人工智能產(chǎn)業(yè)的決心與毅力,人工智能的發(fā)展在政策上獲得了極大的支持。但是,人工智能這個新事物的出現(xiàn)必將與既有的傳統(tǒng)社會體系發(fā)生沖突,進(jìn)而導(dǎo)致很多的社會以及法律問題出現(xiàn)。2018年10月曝光的馬蜂窩智能點評案、2018年3月19日Uber無人駕駛測試車自動駕駛軟件出現(xiàn)故障致使行人死亡、2017年的網(wǎng)絡(luò)“邪典”視頻事件等人工智能侵犯相應(yīng)權(quán)利的事件的發(fā)生,給我們敲響了警鐘。
在法律規(guī)制缺失的背景之下,如何應(yīng)對人工智能導(dǎo)致的損害,其將承擔(dān)怎樣的民事責(zé)任成了我們法律人亟待解決的難題。作為法律人,“宜未雨而綢繆,毋臨渴而掘井”。然而,目前的學(xué)界、實務(wù)界和司法界對此問題雖然有一定的關(guān)注,但關(guān)注的度與面還不夠。文章將對人工智能侵權(quán)的責(zé)任承擔(dān)困境與出路進(jìn)行一個初步的研究,探索域外立法以及司法實踐,對侵權(quán)責(zé)任和產(chǎn)品責(zé)任在人工智能領(lǐng)域的適用難題進(jìn)行剖析,提出合乎法理、情理以及時代發(fā)展潮流的解決方法,即建立人工智能責(zé)任強制保險制度,創(chuàng)立人工智能替代責(zé)任承擔(dān)規(guī)則。
人工智能侵權(quán)時,若按照傳統(tǒng)的法律思維,會想當(dāng)然的將之歸于一般侵權(quán)責(zé)任和產(chǎn)品責(zé)任,但是這卻忽略了人工智能將會對現(xiàn)有的責(zé)任體系造成怎樣的沖擊和適用難題。筆者于本部分將對一般侵權(quán)責(zé)任和產(chǎn)品責(zé)任的適用困境略作分析。
我國侵權(quán)責(zé)任法規(guī)定,一般侵權(quán)責(zé)任的構(gòu)成,應(yīng)當(dāng)具備下列條件:(1)行為的違法性;(2)實際損害的發(fā)生;(3)因果關(guān)系;(4)行為人的主觀過錯。在人工智能領(lǐng)域中,受害人需要證明以上四個責(zé)任構(gòu)成要件才能使責(zé)任主體承擔(dān)責(zé)任。對于傳統(tǒng)的侵權(quán)事件,侵權(quán)責(zé)任法的適用較少遇到基礎(chǔ)性難題。但是,在面對人工智能侵權(quán)時,一般侵權(quán)責(zé)任的適用卻變得力不從心。筆者將于下文一一論述。
1. 一般侵權(quán)責(zé)任主體適用的難題
基于傳統(tǒng)的民事法律關(guān)于民事法律關(guān)系主體與客體的規(guī)定,一般侵權(quán)責(zé)任的構(gòu)成是以行為人是獨立的法律主體為先決條件的。但在人工智能深度發(fā)展的今天,人工智能將擁有獨立思考并能獨立行為的能力,其是否具備法律人格,即人工智能能否成為法律主體,應(yīng)否具有現(xiàn)行民法規(guī)定的有關(guān)權(quán)利能力與行為能力,具備何種程度的權(quán)利與義務(wù),法律的規(guī)制卻是缺失的。這對于一般侵權(quán)責(zé)任主體的適用造成了嚴(yán)重的阻礙,即應(yīng)是由人工智能承擔(dān)責(zé)任還是由其他人承擔(dān)責(zé)任,學(xué)界對此存有爭議。在此,筆者想談?wù)剬θ斯ぶ悄芊傻匚坏目捶ǎ员惚WC該點及下文的論述完整性。
人工智能應(yīng)否具有法律地位的問題,學(xué)界對此執(zhí)辭不一。按照其性質(zhì),筆者在此做簡要的總結(jié):a.人工智能只是我們?nèi)祟惢谧陨戆l(fā)展所創(chuàng)造的工具,其存在的目的,只是為人類服務(wù),它不應(yīng)具有法律地位,這是“非法律主體說”;b.人工智能雖然能作出一定的行為,但是他是完全聽從人類指揮的,它的身份就如同古代地主家的奴隸,具備一定的行為能力,可自主行為,這是“無權(quán)利能力的法律主體說”;c.人工智能是人類的代理人,代理人類獨立實施代理行為,為法律上獨立的主體,這是“獨立法律主體說”[1]。
以上的定性,均未能對人工智能作出準(zhǔn)確的概括。我們對人工智能法律地位的思考,應(yīng)采取科學(xué)、審慎的態(tài)度。人工智能有其鮮明的特點,它具有獨立的思考能力,擁有自我深度學(xué)習(xí)能力,這是我們不能忽視的重要因素。但是從根本上來講,無論其如何發(fā)展,其仍然是人類創(chuàng)造出來的服務(wù)于自身的,其地位不可能超出人類,甚至不能達(dá)到與人類同等重要的程度。它所能至多擁有的,筆者認(rèn)為,只是有限的民事行為能力以及民事權(quán)利能力,這種能力在一定程度上可類比于未成年人,是類人?;诼?lián)結(jié)主義,是一種電子人[2]。這是由人工智能具有權(quán)利能力和行為能力、現(xiàn)有法律主體制度的規(guī)制不能及其理論可能和對人工智能的風(fēng)險規(guī)制需要決定的[3]。
若將人工智能直截了當(dāng)?shù)匾暈槠胀ǖ漠a(chǎn)品,則在其由于缺陷侵權(quán)時可直接適用產(chǎn)品責(zé)任,作為侵權(quán)人侵權(quán)工具時可以適用侵權(quán)責(zé)任,追究有關(guān)行為人的責(zé)任。但是,如上所述,這種擁有有限人格的法律主體導(dǎo)致?lián)p害的發(fā)生時,能否當(dāng)然適用《侵權(quán)責(zé)任法》關(guān)于一般侵權(quán)的法律規(guī)定呢,是由機器人承擔(dān)責(zé)任還是由第三人承擔(dān)責(zé)任?筆者以為,在學(xué)界、立法以及司法實踐對該問題達(dá)成一致意見之前,答案似乎都是模糊的。
2. 過失與因果關(guān)系證明的困難[4]
一般侵權(quán)責(zé)任的成立,還應(yīng)當(dāng)以行為人具有主觀過錯為前提,但是人工智能擁有高度智能化的選擇以及判斷能力,在很大的程度上,其是擺脫了人類的控制而自我行動的。同時,雖然人工智能所使用的算法是透明的,其應(yīng)用模型基于商業(yè)需要卻不是,人工智能具備其特有的內(nèi)部決策邏輯,這一邏輯在某種意義上甚至人工智能制造者自身都難以理解,更遑論一般公眾使用者或者案件裁判人員了。這些無法被忽略的事實使得我們在進(jìn)行案件裁判時,難以實用于解釋還原事故發(fā)生時的真實情景,造成司法歸因難題。此時,倘若將故意與過失直接歸屬于人工智能似甚為不合理;同時,使用者自身也無故意與過失,若我們違反基礎(chǔ)的公平與正義原則,讓清白的使用者白白承受這一后果,這將是司法制度的退步。這樣一來,將導(dǎo)致我國侵權(quán)論所堅持的主觀過錯要件難以得到解釋,使得一般侵權(quán)責(zé)任難以實用于確定人工智能導(dǎo)致?lián)p害的責(zé)任歸屬。
筆者認(rèn)為,當(dāng)人工智能高度智能化時,其能否具備法律主體資格以及自身的能動性、可預(yù)判性、可解釋性等因素導(dǎo)致的歸因難題,都將導(dǎo)致我們的一般侵權(quán)責(zé)任在強人工智能領(lǐng)域中難以適用。
產(chǎn)品責(zé)任,是指產(chǎn)品存在缺陷發(fā)生侵權(quán),造成他人損害,生產(chǎn)者、銷售者等應(yīng)當(dāng)承擔(dān)的侵權(quán)責(zé)任。在一般產(chǎn)品責(zé)任的適用過程中,受害人需證明侵權(quán)責(zé)任法規(guī)定的三個責(zé)任構(gòu)成要件,即證明人工智能存在缺陷,人工智能導(dǎo)致了損害以及缺陷與損害之間有因果關(guān)系。但是,同一般侵權(quán)責(zé)任,產(chǎn)品責(zé)任在人工智能領(lǐng)域適用時也面臨產(chǎn)品缺陷、過失等證明的困難,以及技術(shù)中立免責(zé)情況。筆者認(rèn)為,這給受害人尋求司法救濟增添了諸多障礙。
1. 人工智能缺陷證明的困難
在產(chǎn)品責(zé)任中,歸責(zé)原則是最嚴(yán)格的無過錯責(zé)任,但是仍以人工智能存在缺陷為前提,受害人只有證明產(chǎn)品存在缺陷,并因為缺陷招致?lián)p害,產(chǎn)品的銷售者、生產(chǎn)廠家、設(shè)計人員才應(yīng)當(dāng)承擔(dān)損害責(zé)任,而無論其有無過錯。在比較法研究中,如美國在2017年通過了自動駕駛法案,致力于人工智能在自動駕駛領(lǐng)域的民事責(zé)任承擔(dān)問題研究,明確了自動駕駛侵權(quán)的責(zé)任承擔(dān)主體。在此基礎(chǔ)上,美國的密歇根州與佛羅里達(dá)州均規(guī)定,技術(shù)人員必須有能力在必要的情況下確保能控制自動駕駛車輛,若違反上述要求,法律將要求其承擔(dān)產(chǎn)品質(zhì)量責(zé)任。其主張通過產(chǎn)品責(zé)任填補損害,彌補受害人的損失,但是,他們忽略了人工智能已經(jīng)不是簡單的可以直接定義為產(chǎn)品的物品了,且產(chǎn)品責(zé)任在面對人工智能時,仍會遇到難以克服的缺陷證明難題。
按照我國既有的法律規(guī)定,不符合國家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn)的產(chǎn)品為具有缺陷的產(chǎn)品。但在人工智能領(lǐng)域,由于法律天生的滯后性,這兩個標(biāo)準(zhǔn)都是缺位的。同時,具有自主性,依托大數(shù)據(jù)、超級計算機以及深入學(xué)習(xí)的人工智能,打破了我們的既有規(guī)則限制,使得尋求缺陷證明難于上青天,試舉一例以明之。以2018年3月美國Uber公司自動駕駛汽車測試發(fā)生交通事故導(dǎo)致行人身亡為例,倘若國家法律或者行業(yè)標(biāo)準(zhǔn)規(guī)定,自動駕駛汽車根據(jù)既有設(shè)置的數(shù)據(jù)判斷路上行走的物體為行人或者是車輛,該車輛在事故發(fā)生后檢測出存有缺陷,自不待言構(gòu)成責(zé)任承擔(dān)的要件。但是,若根據(jù)當(dāng)時的情況,汽車的所有行為都符合有關(guān)的缺陷標(biāo)準(zhǔn)呢?此時又如何證明缺陷,這不得不說是給我們提出了難題。
我們將目光轉(zhuǎn)移到域外來看,在美國法中,缺陷的判斷標(biāo)準(zhǔn)主要是風(fēng)險—效益標(biāo)準(zhǔn)以及消費者預(yù)期標(biāo)準(zhǔn)。但在人工智能領(lǐng)域,這兩個標(biāo)準(zhǔn)存在其自身的缺陷。對于前者來說,新一代的人工智能能夠自主學(xué)習(xí),并基于自身的獨立學(xué)習(xí)產(chǎn)生新的算法。證明高級智慧產(chǎn)品是否存在缺陷,需要司法裁判人員及當(dāng)事人具有極高的專業(yè)技術(shù)知識,且對于某些系統(tǒng)層面產(chǎn)生的新算法缺陷的證明是困難且受爭議的。對于后一個標(biāo)準(zhǔn),消費者的預(yù)期是難以預(yù)估的,一味保護消費者的預(yù)期,將不利于行業(yè)的健康發(fā)展,是弊大于利的。在歐盟法中,法律所規(guī)定的缺陷是指窮盡一切的可能,產(chǎn)品沒有提供人們所期待的安全性。同美國法的第二個標(biāo)準(zhǔn),人工智能產(chǎn)品的算法以及設(shè)備技術(shù)非常復(fù)雜,會妨礙人工智能的使用者的期待,導(dǎo)致消費者的期待難以預(yù)測協(xié)整,導(dǎo)致在實踐中該標(biāo)準(zhǔn)難以用于判別人工智能是否存在特定的標(biāo)準(zhǔn)[5]。
2. 技術(shù)中立免責(zé)適用導(dǎo)致的困境
從亞里士多德將技術(shù)視為一種工藝性活動,到韋伯從事實判斷與價值判斷的角度出發(fā),基于工具理性認(rèn)為技術(shù)本身是排除個人主觀意志能力、擺脫情感因素,處于價值中立立場的。該理論運用于司法實踐,演變?yōu)榧夹g(shù)中立是否免責(zé)[6]。近年來,國內(nèi)最為著名的引用技術(shù)中立原則主張免責(zé)的應(yīng)為聲名大噪的快播案。迄今為止,快播案引發(fā)的學(xué)術(shù)討論仍基本聚焦于“技術(shù)中立”可否作為該案的有效抗辯以及各種法律條文上的咬文嚼字[7]。筆者認(rèn)為,我國謂之以技術(shù)中立免責(zé)的原則指的是一種與價值中立不同的責(zé)任中立,即只要技術(shù)的使用者和設(shè)計者主觀上沒有故意與過失,他們便不對技術(shù)在實踐中的負(fù)面影響承擔(dān)責(zé)任。例如,菜刀的發(fā)明者并不因菜刀被運用于殺人而承擔(dān)相應(yīng)的刑事責(zé)任,因為其發(fā)明菜刀的初衷是提高生活的便利,而不是用于殺人[8]。在高度發(fā)達(dá)的人工智能領(lǐng)域,人工智能脫離了簡單的產(chǎn)品的范疇,但其本質(zhì)上仍然是一項技術(shù),只不過是高度發(fā)達(dá)的技術(shù)。當(dāng)損害發(fā)生時,在司法實踐中進(jìn)行責(zé)任認(rèn)定時,在能夠確認(rèn)責(zé)任承擔(dān)主體的面前,我們必將面臨有關(guān)人員提出的技術(shù)中立免責(zé)的抗辯。而技術(shù)是否中立,應(yīng)否作為免責(zé)事由,在司法實踐中操作起來確實存在困難,從而使得產(chǎn)品責(zé)任未能得到有效運用。
綜上所述,筆者認(rèn)為,在如今的技術(shù)能力之下,在人工智能廣泛參與我們的教育、法律、醫(yī)療、農(nóng)業(yè)等行業(yè)成為不可逆轉(zhuǎn)的時代潮流的情形下,必將導(dǎo)致諸多的法律問題。侵權(quán)責(zé)任在人工智能是否是侵權(quán)主體、過失責(zé)任的證明方面存在很多的問題,使得侵權(quán)責(zé)任在人工智能導(dǎo)致?lián)p害時,無法有效地運用,以維護有權(quán)主體的合法利益。當(dāng)我們求助于產(chǎn)品責(zé)任時,強人工智能在某種程度上已經(jīng)超出了產(chǎn)品的范疇,加之缺陷證明的困難和技術(shù)中立免責(zé)抗辯事由的引用,使得產(chǎn)品責(zé)任也不能很好地保證我們的合法權(quán)益。
基于公平正義原則,有損害必有責(zé)任。但是面對人類被人工智能所牽制,且這一連續(xù)性的過程對人類而言是極其隱秘的困境,人工智能似乎脫離了人類的掌控,超脫于外,此時的人類也似乎將逃離法律與道德的紅線,落入自身設(shè)計和制造的算法統(tǒng)治怪圈,使得難以在損害發(fā)生時有效地追究有關(guān)當(dāng)事人的責(zé)任。若各國在面對人工智能造成的損害時,如丈二和尚,摸不著頭腦,后果將不堪設(shè)想。因此,不管是參考國外的立法,還是自我發(fā)展,考慮上述事實,我們均應(yīng)該進(jìn)行有關(guān)的制度創(chuàng)新。
1. 法律基礎(chǔ)與成立要件
承前所述,人工智能是一種擁有有限人格的智能化主體,筆者認(rèn)為,其地位在一定程度上可類比于現(xiàn)行法律中的無民事行為能力或者限制民事行為能力人。倘若我們將其視為民法總則規(guī)定中的被監(jiān)護人,則人類與之關(guān)系類似于監(jiān)護人與被監(jiān)護人之間的關(guān)系,那么當(dāng)人工智能侵權(quán)發(fā)生時,可適用替代責(zé)任進(jìn)行追責(zé)。當(dāng)然,在討論替代責(zé)任作為人工智能侵權(quán)的責(zé)任形式之前,我們需進(jìn)行分析。
我國的侵權(quán)責(zé)任法第三十二條規(guī)定,當(dāng)無民事行為能力或者限制民事行為能力人實施侵權(quán)行為,造成他人損害時,由其監(jiān)護人承擔(dān)相應(yīng)的責(zé)任。同時,若監(jiān)護人盡到自己的監(jiān)護職責(zé)的,可以減輕其責(zé)任。在賠償問題上規(guī)定,若無民事行為能力人、限制民事行為能力人自身擁有一定的財產(chǎn),應(yīng)先以其財產(chǎn)進(jìn)行賠償,不足部分再由監(jiān)護人承擔(dān)。該法律的規(guī)定,其立法本意是為了保護行為人履行自己監(jiān)護職責(zé)的積極性以及社會公共利益。在侵權(quán)法中,監(jiān)護人替代責(zé)任的成立,需符合以下四個要件:第一,監(jiān)護人沒有實施直接的侵權(quán)行為,同時,無民事行為能力或限制民事行為能力人對第三人實施侵權(quán)行為并致人損害;第二,承擔(dān)有關(guān)侵權(quán)責(zé)任的是監(jiān)護人;第三,監(jiān)護人同實施侵權(quán)行為的被監(jiān)護人之間存在特定關(guān)系;第四,監(jiān)護人對被監(jiān)護人承擔(dān)侵權(quán)法上的控制義務(wù)。前三個條件自不多言,需要簡要敘述一下第四個條件。
參看英美法系國家以及我國民法總則、最高人民法院的司法解釋和侵權(quán)責(zé)任法的規(guī)定,監(jiān)護人其責(zé)任承擔(dān)基礎(chǔ)主要來源于“控制義務(wù)理論”[9]。我國法律所稱控制義務(wù),是一種要求監(jiān)護人實施必要的,能有效管理、監(jiān)督以及控制與自己有特定關(guān)聯(lián)的被監(jiān)護人的行為,以防止其侵害他人合法權(quán)益的義務(wù)。這種義務(wù),其性質(zhì)特殊,并非法律規(guī)定的一般意義上的義務(wù)。這種義務(wù)在監(jiān)護人與被監(jiān)護人之間的監(jiān)護關(guān)系成立伊始便基于二者之間的監(jiān)護和被監(jiān)護關(guān)系自動發(fā)生。監(jiān)護人有著這樣的義務(wù),其便需實施特定的行為,以防止被監(jiān)護人脫離自己的監(jiān)護范圍,實施違法行為,侵害他人的合法權(quán)益。假使行為人違反了該義務(wù),則法律將會對其科以處罰,使其承擔(dān)責(zé)任。這與人工智能的使用者不能基于二者之間的關(guān)系,不能使其脫離自身控制而實施違法行為乃一脈相承。
我國民法總則及侵權(quán)責(zé)任法對監(jiān)護人由于被監(jiān)護人實施的違法行為承擔(dān)替代責(zé)任的規(guī)制,主要有以下幾個方面。其一,監(jiān)護人承擔(dān)的責(zé)任是一種嚴(yán)格責(zé)任。法律要求,即使監(jiān)護人履行了自己合理的注意義務(wù),當(dāng)被監(jiān)護人實施侵權(quán)行為致人損害時,其依然要承擔(dān)相應(yīng)的責(zé)任。其二,監(jiān)護人承擔(dān)有關(guān)責(zé)任不以被監(jiān)護人存在判斷能力以及行為能力為前提條件。同時,即便被監(jiān)護人實施的是故意侵權(quán),監(jiān)護人也應(yīng)當(dāng)承擔(dān)責(zé)任,并且這種責(zé)任不是監(jiān)護人與被監(jiān)護人之間的連帶責(zé)任。最后,即便監(jiān)護人在該侵權(quán)損害中承擔(dān)的是無條件的替代責(zé)任,但是根據(jù)有關(guān)法律的規(guī)定,應(yīng)先以被監(jiān)護人自有財產(chǎn)擔(dān)責(zé),不足部分由監(jiān)護人以其所有的財產(chǎn)補足。
2. 替代責(zé)任在人工智能領(lǐng)域的適用
根據(jù)上文的簡要論述,我們可以發(fā)現(xiàn),在人工智能導(dǎo)致?lián)p害的責(zé)任承擔(dān)中,使用替代責(zé)任進(jìn)行規(guī)則是十分具有契合性的。
(1)人工智能使用者對人工智能具有控制義務(wù)。由于人工智能的存在,必將給一方主體帶來利益,否則其存在便不具有價值。這樣想來,基于社會的公平與正義,人工智能的利益受益方則有義務(wù)防止給其帶來利益的當(dāng)事方侵害第三人的合法權(quán)益。同時,在監(jiān)護人主體方面,由于人工智能是具有極強的專業(yè)性的,非專業(yè)設(shè)計無法控制其出廠后自主行為的風(fēng)險,因此我們應(yīng)當(dāng)特別強調(diào)人工智能設(shè)計者的責(zé)任。當(dāng)然,人工智能,即便是強人工智能多半都會經(jīng)銷售者之手,我們也應(yīng)將銷售者列為強人工智能的監(jiān)護人之一,這樣有助于增強人工智能流通領(lǐng)域中銷售者的注意義務(wù)以及嚴(yán)格履行自己的“控制義務(wù)”。最后,則是我們的最終使用者。強人工智能進(jìn)入社會生活領(lǐng)域之后,則處于使用者的控制之下,其將享有人工智能帶來的利益,不管是經(jīng)濟上的還是精神上的,他們作為人工智能的監(jiān)護人的合理性自不贅述[10]。
(2)人工智能的賠償與監(jiān)護關(guān)系中的賠償具有相似性。在現(xiàn)有的社會背景下,人工智能逐漸具備了自身的財產(chǎn),諸如阿聯(lián)酋的機器人索菲亞。因此,在賠償問題上,由于人工智能是電子人,具有法律地位,其擁有自身的財產(chǎn),我們應(yīng)首先以其享有的財產(chǎn)進(jìn)行賠償,財產(chǎn)不足以賠償時,再以有關(guān)監(jiān)護人的財產(chǎn)進(jìn)行賠償。這樣既能較為合理地保護有關(guān)主體的合法權(quán)益,實現(xiàn)和維持社會的公平與正義,也能促進(jìn)人工智能的“監(jiān)護人”,即利益保有者仍能積極創(chuàng)造和適用機器人,保持行業(yè)發(fā)展的積極性。
(3)其他方面。一方面,由于監(jiān)護關(guān)系中的替代責(zé)任的成立,是不以被監(jiān)護人存在行為能力以及責(zé)任能力為前提的。采取替代責(zé)任,符合人工智能自身的特點。另一方面,人工智能的監(jiān)護人承擔(dān)嚴(yán)格責(zé)任,能夠促使或者說倒逼其在享有權(quán)益的同時,積極履行自己的義務(wù),管理、控制與其存在特定關(guān)系的人工智能,使其不能脫離管控實施違法犯罪行為侵害他人的合法權(quán)益。
總的來看,筆者認(rèn)為,在人工智能領(lǐng)域?qū)嵭刑娲?zé)任,是嚴(yán)格責(zé)任,我們將避免證明侵權(quán)責(zé)任中的過失的難題;同時,技術(shù)中立免責(zé)的抗辯事由以及缺陷證明的困難都在一定的程度上得到了解決,可以說是較為合理的一種新的制度構(gòu)想,在實踐中也具有極強的可操作性。這有利于實現(xiàn)社會的公平和正義,為新經(jīng)濟的發(fā)展保駕護航,同時也可在一定程度上保護受害人和合法權(quán)利者的切身利益。
我們可以看到,機動車交通事故責(zé)任強制保險制度自實施以來取得了良好的社會效果,在事故發(fā)生時,既能有效地保護受害人的合法權(quán)益,使其損害得到有效的補償,又能減輕肇事者的經(jīng)濟負(fù)擔(dān)。人工智能領(lǐng)域?qū)е碌膿p害,在大數(shù)據(jù)市場化的今天,由單一的國家政府部門或者個人來承擔(dān)責(zé)任,顯得尤為吃力。
放眼域外,在《歐盟機器人民事法律規(guī)則》和相關(guān)“決議”中,歐盟主張重構(gòu)責(zé)任規(guī)則。法律事務(wù)委員會提出了兩個建議:建立人工智能強制保險機制和賠償基金。德國于2017年6月16日正式公布實施了號稱引領(lǐng)世界的《道路交通法》。此法修改的第一要務(wù)正如上文所述,是明確肯定了自動駕駛技術(shù)的機動車可以在道路上行駛。另一重要方面,此次修法力圖增強對受害人的保護。這種強化體現(xiàn)在強制保險賠償額度的上調(diào)、事故證據(jù)留存與駕駛?cè)肆x務(wù)調(diào)整等方面[11]。英國議會2016年提出的關(guān)于無人駕駛汽車法律責(zé)任問題的提案中,主張將機動車強制責(zé)任保險擴大到產(chǎn)品責(zé)任。我們也應(yīng)該進(jìn)行借鑒,在人工智能侵權(quán)的責(zé)任承擔(dān)中,建立人工智能強制保險制度,從而獲得有關(guān)主體共同承擔(dān)風(fēng)險的機會[12]。這樣,將十分有助于我國的人工智能高速發(fā)展,實現(xiàn)黨和國家的戰(zhàn)略發(fā)展目標(biāo)。
人工智能領(lǐng)域的強制責(zé)任保險制度,應(yīng)該區(qū)別不同種類的人工智能,設(shè)置不同的強制保險制度內(nèi)容。以自動駕駛汽車為例,參考現(xiàn)行的《道路交通安全法》以及《機動車交通事故責(zé)任強制保險條款》,可將機動車交通事故責(zé)任強制保險做如下調(diào)整以運用于人工智能自動駕駛領(lǐng)域。
1. 保留并提高財產(chǎn)損失限額額度
我國現(xiàn)有的強制保險制度對賠償限額采取的是一種二分模式,即賠償限額的計算因機動車在道路交通事故中有無責(zé)任而有所不同。從實施效果來看,保留現(xiàn)有的限額制度是十分有必要的,但是,由于經(jīng)濟的發(fā)展以及人工智能侵權(quán)事故的損失重大性,我們應(yīng)當(dāng)提高人工智能強制保險制度的財產(chǎn)損失限額,以更好地發(fā)揮人工智能強制保險制度保護受害人、分散風(fēng)險的功能。
2. 增加“交強險”投保主體[13]
作為人工智能自動駕駛領(lǐng)域的受益者,我們應(yīng)該考慮,將自動駕駛汽車的生產(chǎn)者或者消費者增設(shè)為投保主體,以此分散風(fēng)險。要求生產(chǎn)者或者銷售者每出售一臺自動駕駛汽車,都應(yīng)購買強制保險,以此提高受害人受償權(quán)的保障率。而且,我們可以看到,在量子衛(wèi)星、遙感技術(shù)、大數(shù)據(jù)等高速發(fā)展的未來,道路交通事故發(fā)生概率必然大大降低,增加“交強險”的投保主體不但不會損害保險公司和生產(chǎn)者的合法權(quán)益,阻礙其發(fā)展,反而會大幅提高保險公司營運積極性,甚至催促車企搶奪汽車保險公司的部分市場份額。
我們的這個時代,人工智能的發(fā)展已經(jīng)成為不可逆轉(zhuǎn)的大趨勢,我們面臨著是否應(yīng)當(dāng)放松人工智能領(lǐng)域的缺陷審查標(biāo)準(zhǔn)、司法實踐中的事實查明和隱私保護困境、立法落后以及民法典是否應(yīng)當(dāng)設(shè)立針對人工智能的特殊侵權(quán)責(zé)任體系等問題,其對傳統(tǒng)法律體系的沖擊,需要我們每位法律人站起來積極應(yīng)對。雖然,筆者提出的建立人工智能導(dǎo)致?lián)p害承擔(dān)替代責(zé)任的構(gòu)想可能會在一定程度上解決部分問題,但立法機關(guān)在制定民法典分則時,也應(yīng)該積極考慮人工智能領(lǐng)域的各種法律事實,并積極作出回應(yīng),使司法機關(guān)審理有關(guān)案件時能夠有法可依。再者,建立人工智能責(zé)任強制保險制度、賦予其有限人格、采取人工智能登記備案制度等措施,或能在筆者設(shè)想的人工智能替代責(zé)任之外,為人工智能侵權(quán)的責(zé)任承擔(dān)起到一定的積極作用。當(dāng)然,我們在保護有關(guān)主體的合法權(quán)益的同時,也應(yīng)該為人工智能的發(fā)展留下法律空間,實現(xiàn)經(jīng)濟與法律的和諧共生。