胡耀文
摘 要:人工智能技術(shù)的應(yīng)用與普及程度不斷擴(kuò)大,由于人工智能引發(fā)的侵權(quán)行為必然不可避免。當(dāng)人工智能基于其“自主意識(shí)”實(shí)施侵權(quán)行為,造成損害后果后,由于人工智能侵權(quán)的特殊性,適用一般侵權(quán)行為或者已經(jīng)作出規(guī)定的特殊侵權(quán)行為的相關(guān)規(guī)則恐很難妥善處理。對(duì)此,侵權(quán)法有必要將人工智能侵權(quán)規(guī)定為一類特殊侵權(quán)行為,適用特殊的歸責(zé)原則,設(shè)置特殊的侵權(quán)構(gòu)成要件,以便更好地解決人工智能侵權(quán)糾紛,回應(yīng)技術(shù)發(fā)展對(duì)于法律的挑戰(zhàn)。
關(guān)鍵詞:人工智能侵權(quán);特殊侵權(quán)行為;歸責(zé)原則;構(gòu)成要件
一、引言
人工智能在生活中的應(yīng)用越來(lái)越多。例如,2018年8月建行南京大行宮支行“小龍人”人工智能機(jī)器人開(kāi)始工作;2019年6月15日福建發(fā)布首款人工智能5G農(nóng)業(yè)機(jī)器人;2019年6月17日,在鄭州市龍子湖智慧島,全球首條在開(kāi)放道路上試運(yùn)行的5G無(wú)人駕駛公交車正式啟動(dòng)等。除上述諸多個(gè)例外,在不遠(yuǎn)將來(lái),人工智能物流機(jī)器人、人工智能護(hù)士、人工智能配藥機(jī)器人等將大量涌現(xiàn)。人工智能是科技發(fā)展的成果,會(huì)極大便利我們的生活。但是正如任何科技產(chǎn)品都存在漏洞,人工智能也不例外。當(dāng)人工智能客觀上實(shí)施了侵權(quán)行為,造成了損害后果時(shí),基于人工智能侵權(quán)的特殊性,適用一般侵權(quán)行為的有關(guān)規(guī)則或者適用侵權(quán)法中的產(chǎn)品責(zé)任、雇主責(zé)任等特殊侵權(quán)的有關(guān)規(guī)則都不能很好解決人工智能侵權(quán)問(wèn)題。因此,探究人工智能侵權(quán)的特殊性,并為其設(shè)立特殊的規(guī)則是必要且迫切的。
二、人工智能侵權(quán)的可能性與現(xiàn)實(shí)性
人工智能的概念最早由“人工智能之父”約翰·麥卡錫正式提出[1],但是關(guān)于人工智能的具體內(nèi)涵一直沒(méi)有統(tǒng)一的定義。通常認(rèn)為人工智能具有兩大特征:第一,智能性。人工智能具有智能,能夠完成需要人類智能的活動(dòng)。第二,自主性,人工智能具有深度學(xué)習(xí)能力,能夠通過(guò)傳感器和激光從所處的未知環(huán)境中獲取數(shù)據(jù)自我學(xué)習(xí)。這種學(xué)習(xí)能力使得即使是人工智能的制造者也無(wú)法預(yù)知在特定的環(huán)境中人工智能將做出何種反應(yīng)[2]。
需要明確的是,人工智能侵權(quán)是指無(wú)缺陷的人工智能產(chǎn)品侵權(quán)。如果是由于生產(chǎn)者、銷售者的原因?qū)е氯斯ぶ悄艽嬖谌毕荩蛉斯ぶ悄艿娜毕輰?dǎo)致侵權(quán)損害,則可適用產(chǎn)品責(zé)任得到妥善處理。此種侵權(quán)無(wú)必要由特殊設(shè)立的人工智能侵權(quán)進(jìn)行規(guī)制。
雖然人工智能具有高度智能性與自主性,可以獨(dú)立完成許多復(fù)雜的工作。但是人工智能畢竟是人類創(chuàng)造出來(lái)的,本身不可能是完美無(wú)缺的。人工智能在從事活動(dòng)過(guò)程中是可能引發(fā)侵權(quán)損害的,主要有兩個(gè)方面原因。第一,人工智能是人為創(chuàng)造的,人將自己的認(rèn)識(shí)注入人工智能體中,而人自身的認(rèn)識(shí)具有很大局限性,最終也就導(dǎo)致了人所創(chuàng)造的人工智能具有認(rèn)識(shí)局限性,在其認(rèn)識(shí)局限范圍內(nèi)從事活動(dòng),不可避免的會(huì)產(chǎn)生不良的結(jié)果。雖然人工智能具有自主學(xué)習(xí)的能力,但是學(xué)習(xí)畢竟是一個(gè)過(guò)程,在特定的時(shí)間段,人工智能不可能事事盡知。第二,人工智能作為人創(chuàng)作的程序,本身可能存在漏洞。當(dāng)人工智能在從事活動(dòng)觸及到人工智能的漏洞時(shí),人工智能必將無(wú)所適從,侵權(quán)損害很難避免。
人工智能侵權(quán)不僅僅具有上面所提到的可能性,而且是具有現(xiàn)實(shí)性的。例如,第一起全自動(dòng)駕駛車將人撞死的案例,一輛Uber自動(dòng)駕駛車在亞利桑那州坦貝市向北行進(jìn)時(shí),撞上49歲女子赫茲伯格(Elaine Herzberg),當(dāng)時(shí)她推著自行車穿越斑馬線,遭Uber自駕車以時(shí)速65公里的速度撞上,女子重傷后不治身亡。2007年,美國(guó)食品藥品監(jiān)督管理局收到200多份投訴,指控醫(yī)療外科手術(shù)機(jī)器人對(duì)病人造成燒傷、切割傷以及感染,其中包含89例導(dǎo)致病患死亡。這些例子表明了人工智能侵權(quán)的現(xiàn)實(shí)性。隨著未來(lái)人工智能越來(lái)越普及,人工智能侵權(quán)事件可能更加頻發(fā)。
三、人工智能侵權(quán)的特殊性
(一)人工智能是否具有獨(dú)立的法律人格
就一般侵權(quán)行為來(lái)說(shuō)實(shí)施侵權(quán)行為者造成損害,自然構(gòu)成侵權(quán)主體,應(yīng)當(dāng)承擔(dān)侵權(quán)法律責(zé)任。但是,關(guān)于人工智能是否具有獨(dú)立的法律人格,其能否作為獨(dú)立的責(zé)任主體承擔(dān)責(zé)任尚未有較統(tǒng)一的認(rèn)識(shí)。主要有兩種觀點(diǎn),包括人工智能客體說(shuō)和主體說(shuō)。人工智能客體說(shuō)主要有三種不同學(xué)說(shuō):第一種工具說(shuō)[3]、第二種軟件代理說(shuō)、第三種道德能力缺乏說(shuō)[4]。人工智能主體說(shuō)主要有四種不同觀點(diǎn):第一種代理說(shuō)、第二種電子人格說(shuō)[5]、第三種優(yōu)先人格說(shuō)[6]、第四種觀點(diǎn)是人格擬制說(shuō)[7]。
關(guān)于人工智能能否構(gòu)成法律上的主體,本文主要從兩個(gè)方面進(jìn)行分析。第一,意志能力之有無(wú)。意志能力是基于自己意思進(jìn)行行為的能力。普赫塔曾指出人之所以為法律主體,便在于其所被賦予之自治可能,換言之,在于其意志[8]。人工智能體意志能力判斷的本質(zhì)在于:決定人工智能體發(fā)揮具體功能或完成特定任務(wù)的算法能否與設(shè)計(jì)者、生產(chǎn)者等發(fā)生分離;或者說(shuō),人工智能體本身能否自主地創(chuàng)設(shè)出新的算法或擺脫既有算法的約束[9]。通過(guò)對(duì)無(wú)人駕駛汽車、“小龍人”人工智能機(jī)器人、AlphaGo圍棋機(jī)器人的觀察,本文認(rèn)為人工智能所包含的算法和程序雖然是由人類進(jìn)行編寫的,但是人工智能在事實(shí)上已經(jīng)具備了相當(dāng)程度上的獨(dú)立的意志能力。人工智能所實(shí)施的行為對(duì)于人類來(lái)說(shuō)已經(jīng)具有很大程度上的不確定性。這種不確定性可以表明人工智能具有意志能力。這種不確定性給社會(huì)大眾帶來(lái)的風(fēng)險(xiǎn)亦需要法律予以回應(yīng)。人工智能是否具有獨(dú)立法律人格需要分析的第二個(gè)方面是物質(zhì)性要件的有無(wú),換句話說(shuō)人工智能是否具有從事民事活動(dòng)、獨(dú)立承擔(dān)民事責(zé)任的必要財(cái)產(chǎn)。在分析之前需要考慮的是必要的物質(zhì)性要素是否影響人工智能作為獨(dú)立法律主體。自然人在其出生后就享有民事權(quán)利能力,具有民事主體資格,自然也就是獨(dú)立法律主體,不考慮其財(cái)產(chǎn)因素。然而,除自然人之外的作為民事主體享有獨(dú)立法律人格的組織都以具備一定財(cái)產(chǎn)為必要。那么,考慮人工智能能否作為獨(dú)立法律人格是否需要考慮其物質(zhì)性要素呢?本文認(rèn)為是必要的。自然人之所以一出生不考慮其財(cái)產(chǎn)因素就確認(rèn)其獨(dú)立民事主體地位,確認(rèn)其獨(dú)立法律人格,主要是基于人倫、人權(quán)的考慮。人工智能作為人的創(chuàng)造物自然不涉及這一方面。其次,具備一定的物質(zhì)性要素是獨(dú)立法律主體承擔(dān)民事責(zé)任的前提。換言之,自然人以外的主體在不具備物質(zhì)性因素的情況下,即使賦予其獨(dú)立法律主體資格,其也無(wú)法獨(dú)立承擔(dān)民事責(zé)任,是沒(méi)有實(shí)質(zhì)意義的。因此,人工智能是否具有獨(dú)立法律人格需要考慮其物質(zhì)性要件。那么人工智能是否具有獨(dú)立的物質(zhì)性要件呢?這個(gè)問(wèn)題是顯而易見(jiàn)的,人類創(chuàng)造人工智能的根本目的是為了讓人工智能更好地服務(wù)于我們的生活,使人類生活更加美好。人工智能在其服務(wù)過(guò)程中創(chuàng)造的財(cái)富并不屬于人工智能所有,而是歸屬于人工智能的創(chuàng)造者或管理者。因此,人工智能并不具備成為獨(dú)立法律主體的物質(zhì)性要素。
本文認(rèn)為,人工智能并不具備獨(dú)立法律人格,并不屬于法律上的主體而屬于客體。其引發(fā)的侵權(quán)責(zé)任不能由人工智能體自身承擔(dān),而應(yīng)該由因人工智能而獲益的人承擔(dān)。
(二)人工智能侵權(quán)在過(guò)錯(cuò)認(rèn)定上的特殊性
人工智能所包含的算法和程序雖然是有人類進(jìn)行編寫的,但人工智能一旦設(shè)計(jì)并生產(chǎn)出來(lái),人工智能就具備了相當(dāng)程度的獨(dú)立意志能力。前面也已經(jīng)論述,人工智能應(yīng)該作為客體看待,不能成為侵權(quán)責(zé)任的主體。此外,在人工智能不存在缺陷情況下,無(wú)法適用產(chǎn)品責(zé)任讓生產(chǎn)者、銷售者承擔(dān)責(zé)任。我們似乎也很難要求生產(chǎn)者或銷售者因過(guò)錯(cuò)或者無(wú)過(guò)錯(cuò)原因承擔(dān)人工智能侵權(quán)責(zé)任,原因在于其對(duì)于損害發(fā)生沒(méi)有原因力。因此,人工智能侵權(quán)中主要考察的是使用者主觀過(guò)錯(cuò)問(wèn)題。人工智能一般具有自己獨(dú)立意識(shí),處于完全自覺(jué)行為的狀態(tài),使用者只是將自己所欲到達(dá)的目的告訴人工智能,認(rèn)定使用者存在過(guò)錯(cuò)似乎與事實(shí)不符。在這種情況下如何認(rèn)定過(guò)錯(cuò),抑或是排除過(guò)錯(cuò)責(zé)任原則與過(guò)錯(cuò)推定原則,直接適用無(wú)過(guò)錯(cuò)責(zé)任原則或公平責(zé)任原則。這一點(diǎn)是人工智能侵權(quán)相較于一般侵權(quán)和已進(jìn)行規(guī)定的特殊侵權(quán)行為的特殊之處,值得進(jìn)行詳細(xì)探討,在人工智能侵權(quán)歸責(zé)原則的建構(gòu)部分再詳細(xì)論述。
四、人工智能侵權(quán)歸責(zé)原則的建構(gòu)
將人工智能侵權(quán)建構(gòu)為特殊侵權(quán)行為,可以更好地應(yīng)對(duì)科學(xué)技術(shù)的發(fā)展給社會(huì)生活帶來(lái)的挑戰(zhàn)。在進(jìn)行人工智能侵權(quán)構(gòu)建時(shí),我們首先需要考慮的就是為人工智能侵權(quán)確立什么樣的歸責(zé)原則。侵權(quán)法現(xiàn)在主要包含四種歸責(zé)原則:過(guò)錯(cuò)責(zé)任原則、無(wú)過(guò)錯(cuò)責(zé)任原則、過(guò)錯(cuò)推定責(zé)任原則與公平責(zé)任原則。除過(guò)錯(cuò)責(zé)任原則作為侵權(quán)法一般責(zé)任原則,其適用無(wú)須法律特別規(guī)定外,其余三種責(zé)任原則的適用均需要法律特殊進(jìn)行規(guī)定。下面就逐一分析各項(xiàng)歸責(zé)原則在人工智能侵權(quán)中是否適用,試圖探索出最適合人工智能侵權(quán)的歸責(zé)原則。
(一)過(guò)錯(cuò)責(zé)任原則
過(guò)錯(cuò)責(zé)任原則很難較好的適用于人工智能侵權(quán)。之前已經(jīng)分析了,人工智能屬于客體,并不是法律主體。當(dāng)生產(chǎn)者、銷售者的原因?qū)е庐a(chǎn)品存在缺陷,因此導(dǎo)致侵權(quán)損害發(fā)生,適用產(chǎn)品責(zé)任就能得到妥善處理。那么如果適用過(guò)錯(cuò)歸責(zé)原則,這里的過(guò)錯(cuò)必然是考察使用者主觀是否具有過(guò)錯(cuò)。至于人工智能使用者對(duì)于人工智能侵權(quán)是否存在過(guò)錯(cuò),則需要區(qū)分不同情況。假如人工智能處于非全自動(dòng)階段,人工智能機(jī)器本質(zhì)上就相當(dāng)于人類的工具,沒(méi)有絲毫獨(dú)立意識(shí),與人類之前利用的各種工具沒(méi)有絲毫差別,適用相應(yīng)的具體侵權(quán)責(zé)任即可。例如非全自動(dòng)的無(wú)人駕駛汽車導(dǎo)致事故,可以適用道路交通事故責(zé)任來(lái)處理。但是假如人工智能處于完全自動(dòng)階段,人工智能是處于具有相對(duì)獨(dú)立意識(shí)的狀態(tài)。人工智能基于其獨(dú)立的意志造成損害,此種情況能否認(rèn)定使用人具有過(guò)錯(cuò)?本文認(rèn)為不能認(rèn)為使用人對(duì)于損害的發(fā)生具有過(guò)錯(cuò)。因?yàn)槭褂萌藘H僅只是將自己想要實(shí)現(xiàn)的目的告訴給人工智能,對(duì)于人工智能實(shí)現(xiàn)目的的過(guò)程不具有任何原因力,因此對(duì)于損害結(jié)果的發(fā)生不存在過(guò)錯(cuò)。
“享有權(quán)益者自擔(dān)損害”是損害賠償法中最基本的原理。[10]按照這一原理似乎應(yīng)該由因使用人工智能而受益的人承擔(dān)責(zé)任。然而通過(guò)前面分析,人工智能使用人對(duì)于人工智能導(dǎo)致的損害本身并不存在過(guò)錯(cuò),因此,要想讓人工智能的使用人承擔(dān)責(zé)任,就不能將人工智能侵權(quán)損害的歸責(zé)原則設(shè)立為過(guò)錯(cuò)責(zé)任原則,而應(yīng)該探索適用其它歸責(zé)原則。
(二)無(wú)過(guò)錯(cuò)責(zé)任原則
對(duì)于人工智能侵權(quán)是否可以考慮適用無(wú)過(guò)錯(cuò)的歸責(zé)原則呢?本文認(rèn)為無(wú)過(guò)錯(cuò)責(zé)任原則也不適用于人工智能侵權(quán)。第一,人工智能產(chǎn)業(yè)方興未艾,正處于蓬勃發(fā)展階段,如果我們不考慮過(guò)錯(cuò),對(duì)于人工智能導(dǎo)致的侵權(quán)損害一律要求使用者承擔(dān)侵權(quán)責(zé)任,那么勢(shì)必將極大影響人工智能在社會(huì)生活中的普及運(yùn)用,對(duì)人工智能產(chǎn)業(yè)發(fā)展產(chǎn)生極大的負(fù)面影響。第二,將人工智能侵權(quán)設(shè)立為無(wú)過(guò)錯(cuò)責(zé)任原則會(huì)極大的限制人們的自由?!盁o(wú)過(guò)錯(cuò)責(zé)任的真正原因,在于權(quán)利人行使權(quán)利應(yīng)對(duì)他人負(fù)有保證不侵害的義務(wù)。此種義務(wù)為法律非明定而當(dāng)然應(yīng)有?!盵11]將人工智能侵權(quán)規(guī)定為無(wú)過(guò)錯(cuò)責(zé)任原則自然可以在很大程度上保證不侵害他人義務(wù)的履行。但是,“侵權(quán)責(zé)任法應(yīng)當(dāng)對(duì)自由與安全進(jìn)行均衡、恰當(dāng)?shù)谋Wo(hù)?!盵12]將人工智能侵權(quán)規(guī)定為無(wú)過(guò)錯(cuò)責(zé)任原則會(huì)極大限制人們的自由。第三,無(wú)過(guò)錯(cuò)責(zé)任的功能之一就在于更有效地預(yù)防損害的發(fā)生。可是即使將人工智能侵權(quán)的歸責(zé)原則規(guī)定為無(wú)過(guò)錯(cuò)責(zé)任原則也不能很好的起到預(yù)防損害發(fā)生的作用。原因在于,人工智能在完全自動(dòng)狀態(tài)下所造成的損害往往不是由使用者未盡到注意義務(wù)導(dǎo)致的。換言之,即使使用者盡到了相應(yīng)的注意義務(wù)依然是無(wú)法避免損害發(fā)生的,在此種情況下,無(wú)法發(fā)揮無(wú)過(guò)錯(cuò)責(zé)任原則有效地預(yù)防損害的發(fā)生的功能。
(三)過(guò)錯(cuò)推定責(zé)任原則
過(guò)錯(cuò)推定責(zé)任原則可以適用于人工智能侵權(quán)。在發(fā)生人工智能侵權(quán)時(shí),推定人工智能的使用者存在過(guò)錯(cuò),人工智能的使用者可以通過(guò)證明自己沒(méi)有過(guò)錯(cuò)進(jìn)行免責(zé)。一方面來(lái)說(shuō)適用過(guò)錯(cuò)推定原則可以有效避免受害人在舉證證明人工智能使用者存在過(guò)錯(cuò)方面的困難,從而給受害人更好地進(jìn)行救濟(jì),最大限度發(fā)揮侵權(quán)法彌補(bǔ)損失的功能;另一方面,適用過(guò)錯(cuò)推定責(zé)任原則亦能較好的避免由于適用無(wú)過(guò)錯(cuò)責(zé)任原則而帶來(lái)的弊端,即在適用無(wú)過(guò)錯(cuò)責(zé)任原則時(shí)對(duì)人工智能的使用者施以過(guò)重的責(zé)任,從而可能不利于人工智能這一剛剛起步的產(chǎn)業(yè)的發(fā)展。
(四)公平責(zé)任原則
公平責(zé)任并非由行為人賠償受害人損失,而只是補(bǔ)償受害人的損失,且不可能補(bǔ)償其全部損失,只是根據(jù)具體情況適當(dāng)分擔(dān)受害人損失[13]。公平責(zé)任原則體現(xiàn)了民法的公平精神。故此,本文認(rèn)為公平責(zé)任原則在人工智能侵權(quán)中亦有適用的余地,具體說(shuō)來(lái)可以作為過(guò)錯(cuò)推定責(zé)任原則之補(bǔ)充。在根據(jù)案件具體事實(shí)使用者明顯不可能存在過(guò)錯(cuò)的情況下,放棄過(guò)錯(cuò)推定原則,改采公平責(zé)任原則,即由人工智能使用者與受害人根據(jù)案件具體情況分擔(dān)損失。
但須注意的是,實(shí)務(wù)中也難免存在法院不審慎地認(rèn)定加害人是否具有過(guò)錯(cuò),僅是出于方便、人情或其他因素的考慮就向公平責(zé)任逃避。因此,在人工智能侵權(quán)領(lǐng)域,公平責(zé)任原則只能作為過(guò)錯(cuò)推定責(zé)任原則的補(bǔ)充,適用上應(yīng)從嚴(yán)把握。
五、人工智能侵權(quán)構(gòu)成要件的建構(gòu)
(一)加害行為
第一,人工智能侵權(quán)包括作為侵權(quán)和不作為侵權(quán)。人工智能的作為侵權(quán)是指人工智能通過(guò)積極的行為造成他人權(quán)益受侵害的事實(shí),因此應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任的行為。人工智能不作為侵權(quán)是指人工智能負(fù)有某種積極作為的義務(wù),當(dāng)需要其積極作為的時(shí)候,人工智能不進(jìn)行作為,從而造成他人權(quán)益受侵害的事實(shí)。人工智能的作為義務(wù)可以基于法律的規(guī)定、合同的約定、先行行為、誠(chéng)實(shí)信用原則以及安全保障義務(wù)?,F(xiàn)在負(fù)有作為義務(wù)的人工智能似乎不多,但是隨著人工智能在人們生活的逐步滲透,負(fù)有積極作為義務(wù)的人工智能會(huì)越發(fā)普遍。例如,以后可能會(huì)生產(chǎn)出專門負(fù)責(zé)救火的人工智能,這樣在救火過(guò)程中可以極大的減少救火隊(duì)員的傷亡,那么在火災(zāi)發(fā)生的時(shí)候,這種救火的人工智能機(jī)器人就負(fù)擔(dān)去救火的積極作為義務(wù)。
第二,人工智能基于其自由意志實(shí)施侵權(quán)行為。自然人依據(jù)其能否依其自由意志實(shí)施行為被劃分完全民事行為能力人、限制民事行為能力人和無(wú)民事行為能力人。人工智能也不例外,以“理性程度”作為智能機(jī)器人民事行為能力的分層標(biāo)準(zhǔn)與自然人民事行為能力制度的基本思路具有一致性,自然人的理性程度與年齡、精神狀況相關(guān),而智能機(jī)器人的認(rèn)知及辨認(rèn)能力卻來(lái)源于算法與程序。實(shí)踐中可將智能機(jī)器人依智能化程度進(jìn)行分級(jí)[14]。如果是理性程度較低的人工智能,其本身只是對(duì)于人類的工作進(jìn)行輔助,不具有較為獨(dú)立的意志,這樣的人工智能本質(zhì)上相當(dāng)于人類的工具,其導(dǎo)致的侵權(quán)行為,應(yīng)當(dāng)由利用這種人工智能的人來(lái)?yè)?dān)責(zé)。只有那些“理性程度”較高的人工智能基于獨(dú)立自由的意志實(shí)施的侵權(quán)行為,導(dǎo)致他人受到損害,這種情況下,才構(gòu)成人工智能侵權(quán)。
(二)因果關(guān)系
侵權(quán)之構(gòu)成需要具備因果關(guān)系要件,對(duì)此沒(méi)有任何爭(zhēng)議。但是關(guān)于因果關(guān)系有不同的理論,主要包括條件說(shuō)、相當(dāng)因果關(guān)系說(shuō)、法規(guī)目的說(shuō)、義務(wù)射程說(shuō)以及可預(yù)見(jiàn)說(shuō)等理論。實(shí)踐中對(duì)于因果關(guān)系的判斷更為復(fù)雜。但是,大多數(shù)學(xué)者都是贊同相當(dāng)因果關(guān)系說(shuō)的。王利明教授認(rèn)為,相當(dāng)因果關(guān)系說(shuō)的主要優(yōu)點(diǎn)在于:“其允許法官作出一種法律上因果關(guān)系的判斷,它并不要求受害人對(duì)因果關(guān)系的證明達(dá)到如同科學(xué)那樣精確的地步,即便沒(méi)有達(dá)到這種地步,也不妨礙法官根據(jù)一定的法律上的價(jià)值判斷來(lái)確定因果關(guān)系的存在,這種做法減輕了受害人因果關(guān)系方面的舉證負(fù)擔(dān),同時(shí)賦予了法官一定的自由裁量權(quán),使得法官能夠根據(jù)案件的具體情況、法律規(guī)定、經(jīng)驗(yàn)、常識(shí)等進(jìn)行調(diào)整?!盵15]梁慧星教授則提出:“毫無(wú)疑問(wèn),作為一種法律學(xué)說(shuō),相當(dāng)因果關(guān)系說(shuō)是科學(xué)的,而必然因果關(guān)系說(shuō)是不科學(xué)的。”不僅學(xué)理界,實(shí)務(wù)界也在很大程度上接受了相當(dāng)因果關(guān)系說(shuō)[16]。
那么如何判斷人工智能的侵權(quán)行為與損害之間具有相當(dāng)因果關(guān)系,人工智能侵權(quán)的相當(dāng)因果關(guān)系判斷和一般侵權(quán)具有相通性。德國(guó)弗萊堡大學(xué)教授Johnn von Kries認(rèn)為,滿足兩個(gè)條件可構(gòu)成相當(dāng)性的原因:須是損害的必要條件;須顯著增加損害發(fā)生的客觀可能性[17]。德國(guó)法院于相關(guān)判決中對(duì)相當(dāng)性的描述為:若某一事件以一種并非無(wú)足輕重的方式一般性的提高了某一結(jié)果發(fā)生的客觀可能性,該事件就是此結(jié)果的相當(dāng)條件。王澤鑒教授認(rèn)為,其相當(dāng)性判斷公式為:無(wú)此行為,雖不必生此損害,有此行為,通常即足生此損害者,是為有因果關(guān)系。無(wú)此行為,雖不必生此損害,有此行為,通常亦不生此損害者,即無(wú)因果關(guān)系[18]。據(jù)此,本文認(rèn)為,假如人工智能實(shí)施的行為顯著增加了損害發(fā)生的可能性,并且人工智能實(shí)施的行為在很大程度上是損害發(fā)生的原因力,即可認(rèn)定人工智能實(shí)施的行為與損害之間具有因果關(guān)系。當(dāng)然,這里只能提供一個(gè)抽象的思路,在實(shí)踐中因果關(guān)系判斷還是一個(gè)比較復(fù)雜的問(wèn)題,需要根據(jù)具體案情,進(jìn)行具體分析判斷。
(三)過(guò)錯(cuò)和損害
前面在歸責(zé)原則部分已經(jīng)論述了,人工智能侵權(quán)行為應(yīng)以過(guò)錯(cuò)推定原則為一般性的歸責(zé)原則。以公平責(zé)任原則作為補(bǔ)充。具體說(shuō)來(lái),當(dāng)損害是人工智能基于其獨(dú)立意志導(dǎo)致的,且產(chǎn)品不存在缺陷的情況下,可以推定使用者對(duì)于人工智能的使用存在過(guò)錯(cuò),從而讓人工智能的使用者承擔(dān)侵權(quán)責(zé)任。使用者可以通過(guò)證明自己沒(méi)有過(guò)錯(cuò)主張免責(zé)。然而在根據(jù)案件具體事實(shí),使用者明顯不可能存在過(guò)錯(cuò)的情況下,放棄過(guò)錯(cuò)推定原則,改采公平責(zé)任原則,即由人工智能使用者與受害人根據(jù)案件具體情況分擔(dān)損失。
至于人工智能所導(dǎo)致的損害和一般侵權(quán)行為所要求的損害并無(wú)二致,既包括財(cái)產(chǎn)性損害與非財(cái)產(chǎn)性損害,也包括直接損害與間接損害,還包括積極損害與消極損害。損害的證明亦有主張損害發(fā)生一方承擔(dān),在此不再論述。
六、結(jié)論
人工智能侵權(quán)有諸多不同于傳統(tǒng)侵權(quán)的特殊之處,而且在未來(lái)人工智能侵權(quán)可能越來(lái)越頻發(fā)。因此,本文認(rèn)為我們有必要在侵權(quán)責(zé)任法中將人工智能侵權(quán)規(guī)定為特殊的侵權(quán)行為。將過(guò)錯(cuò)推定責(zé)任原則作為其一般原則,將公平責(zé)任原則作為其補(bǔ)充原則。進(jìn)一步,對(duì)人工智能侵權(quán)行為的構(gòu)成要件加以規(guī)定,從而更好的解決人工智能侵權(quán)行為所引發(fā)的問(wèn)題,發(fā)揮侵權(quán)法的功能。
參考文獻(xiàn):
[1] GAIL GOTTEHRER. The impact of the artificial intelligence revolution on the law[J].Women Lawyers Journal,2018,103(2):19.
[2] 吳維錠,張瀟劍.人工智能致第三方損害的責(zé)任承擔(dān):法經(jīng)濟(jì)學(xué)的視角[J].法和經(jīng)濟(jì)學(xué),2019,(3):78.
[3] 郝鐵川.不可幻想和高估人工智能對(duì)法治的影響[N].法制日?qǐng)?bào)》,2018-1-3(10).
[4] 趙萬(wàn)一.機(jī)器人的法律主體地位辨析———兼談對(duì)機(jī)器人進(jìn)行法律規(guī)制的基本要求[J].貴州民族大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018,(3):157-158.
[5] 郭少飛.“電子人”法律主體論[J].東方法學(xué),2018,(3):38-49.
[6] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017,(5):53-55.
[7] 陳吉棟.論機(jī)器人的法律人格———基于法釋義學(xué)的討論[J].上海大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018,(3):86-87.
[8] [奧]凱爾森.純粹法理論[M].張書(shū)友譯.北京:中國(guó)法制出版社,2008,68.
[9] 彭誠(chéng)信,陳吉棟.論人工智能體法律人格的考量要素[J].當(dāng)代法學(xué),2019,(2):52-62.
[10] 程嘯.侵權(quán)責(zé)任法[M].北京:法律出版社,2015:37.
[11] 劉士國(guó).論無(wú)過(guò)錯(cuò)責(zé)任[J].法學(xué)研究,1994,(5):37-42.
[12] 張新寶.侵權(quán)責(zé)任法立法:功能定位、利益平衡與制度構(gòu)建[J].中國(guó)人民法學(xué)寫報(bào),2009,(3):2-8.
[13] 王勝明.中華人民共和國(guó)侵權(quán)責(zé)任法解讀[M].北京:中國(guó)法制出版社,2010:106.
[14] 葉明,朱靜潔.理性本位視野下智能機(jī)器人民事法律地位的認(rèn)定[J].河北法學(xué),2019,(6):10-21.
[15] 王利明.侵權(quán)責(zé)任法研究(上卷)[M].北京:中國(guó)人民大學(xué)出版社,2010:385.
[16] 梁慧星.雇主承包廠房拆除工程違章施工致雇工受傷感染死亡案評(píng)釋[J].法學(xué)研究,1989,(6):45-52.
[17] H.L.A.Hart, Tony Honore. Causation in the Law[M].2nd.ed.Oxford:Clrendon Press,1985:469.
[18] 王澤鑒.侵權(quán)行為法(第一冊(cè))[M].北京:中國(guó)政法大學(xué)出版社,2001:204.