李坤海 徐 來(lái)
(西南政法大學(xué)民商法學(xué)院,重慶401120)
人工智能的廣泛運(yùn)用勢(shì)不可擋。國(guó)際競(jìng)爭(zhēng)模式早已從本國(guó)能源、資源帶動(dòng)型到轉(zhuǎn)向創(chuàng)新驅(qū)動(dòng)型。當(dāng)前,時(shí)有關(guān)于機(jī)器人誤傷事件以及自動(dòng)駕駛汽車的事故侵權(quán)案件的報(bào)道,這就引發(fā)了人工智能對(duì)人身和財(cái)產(chǎn)威脅的重大思考。法律作為社會(huì)調(diào)整的重要手段(特別是侵權(quán)責(zé)任法)就應(yīng)該發(fā)揮它重要的功能。由于人工智能是一種通用技術(shù),“可以應(yīng)用到從農(nóng)業(yè)、制造業(yè)到法律、醫(yī)療、金融服務(wù)業(yè)的各種人類活動(dòng)場(chǎng)景之中,而它本身正處在高速發(fā)展階段,因此,制定一部總括性的‘人工智能侵權(quán)責(zé)任法’在目前這個(gè)階段時(shí)機(jī)尚不成熟”[1]。我國(guó)當(dāng)前也處于人工智能發(fā)展的初步階段,也即弱人工智能時(shí)代。人工智能的運(yùn)用大多是作為一種輔助工具用以方便生活,在侵權(quán)法律適用中也有相關(guān)條款進(jìn)行救濟(jì),人工智能侵權(quán)糾紛被廣泛使用產(chǎn)品侵權(quán)作為判決依據(jù),例如當(dāng)機(jī)器人致害時(shí),現(xiàn)行法律實(shí)踐僅將其認(rèn)定為產(chǎn)品或者權(quán)利客體而非法律主體。我國(guó)作為成文法國(guó)家,法律的滯后性顯得尤為突出。因此,針對(duì)人工智能對(duì)侵權(quán)法的沖擊作一個(gè)較為詳細(xì)的了解,有利于為完善人工智能侵權(quán)法律提供更好的建議。
探討人工智能與我國(guó)當(dāng)前侵權(quán)體系構(gòu)成之間的關(guān)系問(wèn)題,必須著眼于人工智能侵權(quán)本身具備的基本特征。人工智能從早期的簡(jiǎn)單機(jī)械操作領(lǐng)域進(jìn)入以電動(dòng)牙刷、蘋果私人助手Siri 為典型代表的生活、醫(yī)療、電子等領(lǐng)域,早已不是單純的人的行為的簡(jiǎn)單延伸。作為智能數(shù)字化的產(chǎn)品,人工智能的“意識(shí)性”特征日益明顯;作為新興的經(jīng)濟(jì)領(lǐng)域,人工智能適用范圍的“擴(kuò)大化”加劇了人工智能侵權(quán)的復(fù)雜性。從人工智能侵權(quán)自主性、不可預(yù)見(jiàn)性以及復(fù)雜性特點(diǎn)出發(fā),在宏觀視野下,理清其對(duì)侵權(quán)責(zé)任體系構(gòu)成的影響。
人工智能技術(shù)源于計(jì)算機(jī)技術(shù)的發(fā)展,計(jì)算機(jī)技術(shù)逐漸成為人類認(rèn)識(shí)自我以及探索世界的“替代品”。作為由程序支撐的計(jì)算機(jī)技術(shù),其中各種代碼本身就已經(jīng)顯示出智能組合的多樣性。加上人為的操縱,人工智能產(chǎn)品侵權(quán)效力的頻率和效果頗具自動(dòng)性。自動(dòng)駕駛汽車在國(guó)外得到普遍運(yùn)用,最開(kāi)始被認(rèn)為是減少交通擁堵、節(jié)約勞動(dòng)力的新型智能典型代表。但事實(shí)并非如此,隨著智能化汽車對(duì)交通無(wú)規(guī)律的干擾以及事故的頻繁發(fā)生,智能產(chǎn)品侵權(quán)逐漸成為其發(fā)展的阻礙。首先,程序的自由組合加劇了事故的發(fā)生。自動(dòng)駕駛汽車由燈光方向等不同程序組合,雖有事前的路段預(yù)測(cè),但是行駛路段以及信號(hào)燈的復(fù)雜性使人工智能程序自動(dòng)反應(yīng)的工作愈加繁復(fù),道路的瞬時(shí)變化以及程序組合的自由性依然防止不了兩者發(fā)生沖突。其次,人工智能并非完全由人控制。雖然人工智能在定義上打下了人工的烙印,但是人工智能有時(shí)具有“自己決定”的擬人成分。對(duì)于預(yù)先設(shè)定的規(guī)則,人工智能是可以打破的[2],特別隨著人工智能中“智力成分”不斷加強(qiáng),擁有“自我控制”的能力則會(huì)更加突出,提前規(guī)劃的路線中途轉(zhuǎn)向、程序運(yùn)轉(zhuǎn)失靈、與障礙物相撞以及難以快速反應(yīng)都是其弱點(diǎn)。智能產(chǎn)品程序自由組合性以及預(yù)先規(guī)則的打破無(wú)疑會(huì)使其自主性特點(diǎn)不斷突出?;仡櫲斯ぶ悄馨l(fā)展歷史,早期作為一種輔助零件完全由人為控制發(fā)展到今天相對(duì)獨(dú)立的操作系統(tǒng),人工依賴性不斷減弱,在面對(duì)突發(fā)事故頗具未來(lái)不確定性。“作為一種前科學(xué),人工智能的框架尚未完全?!保?]人工智能中的“智能”盡管貼近人的大腦,但于個(gè)體而言,都無(wú)法完全控制突發(fā)事件的襲擊,更何況現(xiàn)階段是作為一個(gè)擬制的“替代品”去行動(dòng)。當(dāng)前正處于世界科技新一輪上升階段,科學(xué)技術(shù)的發(fā)達(dá)程度直接關(guān)系人工智能應(yīng)用的成熟程度,并且我國(guó)科技在近些年才不斷趕上世界水平,與發(fā)達(dá)國(guó)家相比依然有較大差距,智能程序的設(shè)計(jì)漏洞和不完全合理性也客觀存在。
人工智能依托的是互聯(lián)網(wǎng)技術(shù)的高度發(fā)展,而互聯(lián)網(wǎng)技術(shù)的發(fā)展又離不開(kāi)計(jì)算機(jī)的共識(shí)計(jì)算系統(tǒng)以及程序編碼。單從計(jì)算機(jī)這一領(lǐng)域來(lái)看,人工智能技術(shù)需要專門人員掌握大量計(jì)算術(shù)語(yǔ),對(duì)于設(shè)計(jì)者而言都難以分辨某個(gè)行動(dòng)背后的邏輯,對(duì)于法律實(shí)踐的律師和法官而言更是勉為其難。對(duì)普通侵權(quán)的定義大多涉及人身和財(cái)產(chǎn)的侵害,但是對(duì)侵害的方式以及事實(shí)卻難以用抽象的概念進(jìn)行表達(dá),可見(jiàn)侵權(quán)本身即復(fù)雜多樣。而人工智能侵權(quán)更是打開(kāi)了新的領(lǐng)域。首先表現(xiàn)為侵權(quán)領(lǐng)域增多?!吨腥A人民共和國(guó)侵權(quán)責(zé)任法》在分則具體章節(jié)中列舉了主要常見(jiàn)的侵權(quán)情形,采取了列舉式的立法模式。但人工智能最先應(yīng)用的領(lǐng)域是計(jì)算機(jī)領(lǐng)域,關(guān)于計(jì)算機(jī)領(lǐng)域的侵權(quán)規(guī)定主要體現(xiàn)于《中華人民共和國(guó)侵權(quán)責(zé)任法》第三十六條①第三十六條 網(wǎng)絡(luò)用戶、網(wǎng)絡(luò)服務(wù)提供者利用網(wǎng)絡(luò)侵害他人民事權(quán)益的,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實(shí)施侵權(quán)行為的,被侵權(quán)人有權(quán)通知網(wǎng)絡(luò)服務(wù)提供者采取刪除、屏蔽、斷開(kāi)鏈接等必要措施。網(wǎng)絡(luò)服務(wù)提供者接到通知后未及時(shí)采取必要措施的,對(duì)損害的擴(kuò)大部分與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任。網(wǎng)絡(luò)服務(wù)提供者知道網(wǎng)絡(luò)用戶利用其網(wǎng)絡(luò)服務(wù)侵害他人民事權(quán)益,未采取必要措施的,與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任。,是對(duì)網(wǎng)絡(luò)用戶和網(wǎng)絡(luò)提供者的侵權(quán)規(guī)定。但是對(duì)于人工智能背景下的軟件程序設(shè)計(jì)者、軟件著作權(quán)所有者的責(zé)任承擔(dān)規(guī)定并不明確。再者,人工智能大量運(yùn)用于海洋作業(yè),彌補(bǔ)人類在海洋探索領(lǐng)域的不足。人工智能對(duì)海洋河流領(lǐng)域的侵權(quán)在將來(lái)人類活動(dòng)中也會(huì)日益顯露出來(lái),這些新的領(lǐng)域也應(yīng)有法所依。更有甚者,在人工智能大數(shù)據(jù)環(huán)境下,侵權(quán)競(jìng)合可能不再是單一的侵權(quán)類型。通過(guò)網(wǎng)絡(luò)對(duì)人格侵犯的現(xiàn)象在不久的將來(lái)應(yīng)該在司法實(shí)踐中會(huì)大量遇到,侵權(quán)領(lǐng)域的擴(kuò)大不僅造成現(xiàn)有侵權(quán)體系的解釋困難,更是助長(zhǎng)了侵權(quán)責(zé)任法漏洞的擴(kuò)大。不僅是領(lǐng)域問(wèn)題的復(fù)雜,還有事實(shí)問(wèn)題的復(fù)雜。一方面,對(duì)于事實(shí)的查明,人工智能由于具有上述第一個(gè)自動(dòng)性的特征,可能有的情況難以合理分配責(zé)任承擔(dān),特別是在強(qiáng)智能時(shí)代或者超智能時(shí)代,自動(dòng)型侵權(quán)可能更加突出。另一方面,人工智能侵權(quán)事實(shí)在舉證時(shí)可能面臨事實(shí)缺失的情形,或者受到現(xiàn)有智能技術(shù)又難以解釋的窘境。無(wú)論是領(lǐng)域還是事實(shí)層面,都體現(xiàn)了人工智能侵權(quán)的復(fù)雜性,與傳統(tǒng)的侵權(quán)領(lǐng)域相比,人工智能侵權(quán)更具有研究必要性。
有學(xué)者提出人工智能發(fā)展分為三階段:推廣普及階段、爆炸式增長(zhǎng)階段、意識(shí)智能階段[4]。這一分類標(biāo)準(zhǔn)的主要依據(jù)是人工智能適用范圍,對(duì)于研究人工智能歷史脈絡(luò)具有較大價(jià)值。但是對(duì)于研究人工智能對(duì)侵權(quán)責(zé)任構(gòu)成體系的沖擊而言,以此為標(biāo)準(zhǔn)在前述兩階段并不明顯。筆者認(rèn)為以適用度為劃分標(biāo)準(zhǔn)不足以窺探責(zé)任構(gòu)成遭受影響程度。本文主要以侵權(quán)體系要素在弱人工智能時(shí)代和強(qiáng)人工智能時(shí)代突出表現(xiàn)不同,對(duì)責(zé)任構(gòu)成進(jìn)行階段性介紹。弱人工智能時(shí)代,人工智能產(chǎn)品侵權(quán)依然是人的智力的延伸,只是對(duì)于新型智能產(chǎn)品侵權(quán)在法律選擇適用上會(huì)遇到困難。同時(shí)我國(guó)侵權(quán)責(zé)任法傳統(tǒng)的歸責(zé)原則在智能環(huán)境下過(guò)錯(cuò)的認(rèn)定會(huì)受到?jīng)_擊。強(qiáng)人工智能時(shí)代,智能化產(chǎn)品具有高度智能性,由自然人和法人構(gòu)成的法律主體體系會(huì)受到較大影響,特別是在司法實(shí)踐中,關(guān)于舉證責(zé)任的舉證分配、如何公正高效地取得證據(jù)都會(huì)對(duì)證據(jù)學(xué)產(chǎn)生新的影響。故筆者進(jìn)行階段性區(qū)分,更好地厘清不同智能時(shí)代對(duì)我國(guó)侵權(quán)責(zé)任法體系構(gòu)成的沖擊。
在人工智能發(fā)展初期階段,人工智能適用領(lǐng)域的不斷擴(kuò)大導(dǎo)致司法人員在法律適用上面臨法條競(jìng)合選擇或者無(wú)法直接適用法律,這無(wú)疑使對(duì)人工智能侵權(quán)歸類產(chǎn)生影響。此外,我國(guó)傳統(tǒng)的侵權(quán)責(zé)任過(guò)錯(cuò)歸責(zé)原則在近些年發(fā)生了一些變化:過(guò)錯(cuò)推定、公平原則的引入對(duì)于人工智能侵權(quán)問(wèn)題的歸責(zé)原則也有所啟發(fā)。在此,弱人工智能時(shí)代侵權(quán)歸類和歸責(zé)原則將是人工智能侵權(quán)的突出問(wèn)題。
1.人工智能產(chǎn)品侵權(quán)責(zé)任歸類陷入困境
人工智能更多地以物質(zhì)載體顯現(xiàn)出來(lái)。對(duì)于人工智能糾紛,我們不妨從分析常見(jiàn)的侵權(quán)類型出發(fā),進(jìn)一步厘清人工智能對(duì)侵權(quán)歸類的挑戰(zhàn)。最突出的是產(chǎn)品侵權(quán),由于直接歸類于產(chǎn)品侵權(quán),既找到了歸類解決之道,又規(guī)避了談及智能產(chǎn)品的法律人格問(wèn)題。首先,對(duì)于產(chǎn)品侵權(quán),法律規(guī)定總結(jié)為:產(chǎn)品責(zé)任是一種侵權(quán)責(zé)任,無(wú)論受害人與產(chǎn)品的生產(chǎn)者或銷售者之間是否存在買賣合同關(guān)系,都可以提起產(chǎn)品責(zé)任之訴。其次,產(chǎn)品責(zé)任屬于一種特殊的侵權(quán)責(zé)任,其適用的是無(wú)過(guò)錯(cuò)責(zé)任原則。以上表明,法律的傾向性更側(cè)重于保護(hù)消費(fèi)者。關(guān)于該法條的深入涵義很多學(xué)者已經(jīng)進(jìn)行挖掘,筆者主要探討一下人工智能產(chǎn)品侵權(quán)的適用問(wèn)題。產(chǎn)品的界定是適用該條款的基礎(chǔ),常見(jiàn)的食品醫(yī)療產(chǎn)品屬于該范圍,但是對(duì)于自動(dòng)化軍用產(chǎn)品致人損害、高度智能化的大型船只致人損害,由于軍用產(chǎn)品和準(zhǔn)不動(dòng)產(chǎn)一般不適用于產(chǎn)品責(zé)任中,因此對(duì)這些新型智能產(chǎn)品是否屬于產(chǎn)品的范圍存有疑問(wèn)[5]。對(duì)于信息是否屬于產(chǎn)品,德國(guó)通說(shuō)認(rèn)為存儲(chǔ)在數(shù)據(jù)載體(如磁盤、光盤)中的軟件屬于產(chǎn)品;但是,就那些沒(méi)有存儲(chǔ)在數(shù)據(jù)載體中的軟件,是否適用產(chǎn)品責(zé)任存在很大的爭(zhēng)議。并且,產(chǎn)品責(zé)任規(guī)定了免責(zé)事由,在新型技術(shù)發(fā)展的初期,現(xiàn)有的科技水平或產(chǎn)品未被投入市場(chǎng)流通容易成為人工智能產(chǎn)品生產(chǎn)者規(guī)避責(zé)任理由,加劇生產(chǎn)者和消費(fèi)者之間的不公平。除了產(chǎn)品侵權(quán),還有高度危險(xiǎn)物條款進(jìn)行侵權(quán)歸類處理。并且在實(shí)踐中,人工智能廣泛運(yùn)用于人類能力有限的危險(xiǎn)領(lǐng)域,與高度危險(xiǎn)物損害條款設(shè)立初衷相符合。從立法初衷和人工智能應(yīng)用價(jià)值層面來(lái)看,歸入高度危險(xiǎn)物條款也是合理的。但是高度危險(xiǎn)物本身就是一個(gè)極其抽象的概念,該條款也主要是為了規(guī)制核設(shè)施致人損害的情形[6],將這種典型化特征適用于整個(gè)人工智能侵權(quán)不僅會(huì)造成對(duì)人工智能本身性質(zhì)的誤解而且容易以偏概全。特別在人工智能發(fā)展初期,將其歸為與核設(shè)施同等性質(zhì)的高度危險(xiǎn)物范疇不盡合理,會(huì)造成對(duì)人工智能產(chǎn)品的社會(huì)誤解,造成行業(yè)發(fā)展積極性受挫,只方便了法律適用卻忽視了人工智能長(zhǎng)遠(yuǎn)發(fā)展。
有觀點(diǎn)提出階段性類型探討歸責(zé),但是人工智能發(fā)展階段分類明顯,況且在一個(gè)階段內(nèi)也有多個(gè)動(dòng)態(tài)變化形態(tài),會(huì)加重法律的負(fù)擔(dān)①賈章范在《能醫(yī)療機(jī)器人侵權(quán)歸責(zé)進(jìn)路與制度構(gòu)建》提出階段性類型化探討,適用于當(dāng)前較短時(shí)間內(nèi)智能醫(yī)療產(chǎn)品侵權(quán)責(zé)任規(guī)制,但是在整個(gè)智能時(shí)代早期無(wú)法得到完全有效適用。[7]。筆者認(rèn)為,在弱人工智能時(shí)代既然無(wú)法找到一個(gè)完全具有概括性的條款進(jìn)行侵權(quán)歸類,但是有條件選擇適用是一個(gè)不錯(cuò)的方法。對(duì)于一般人工智能產(chǎn)品,適用產(chǎn)品責(zé)任一般條款;特殊化智能領(lǐng)域適用醫(yī)療責(zé)任等特殊條款;具有高度危險(xiǎn)特征的人工智能產(chǎn)品侵權(quán)則適用高度危險(xiǎn)物致人損害條款。特別在人工智能發(fā)展初期,顛覆整個(gè)侵權(quán)責(zé)任構(gòu)成體系似乎不盡合理,運(yùn)用現(xiàn)有的責(zé)任適用條款能夠適應(yīng)當(dāng)前一般侵權(quán)事故。
2.人工智能產(chǎn)品侵權(quán)歸責(zé)原則合法不合理
歸責(zé)原則是侵權(quán)責(zé)任法進(jìn)行責(zé)任分配的理論基礎(chǔ),體現(xiàn)著民法的公平和正義價(jià)值。可以說(shuō),“歸責(zé)原則是始終體現(xiàn)當(dāng)代民法精神并代表當(dāng)代民法發(fā)展的一條主線”[8]。人工智能時(shí)代下對(duì)侵權(quán)責(zé)任歸責(zé)又有什么重要沖擊呢?過(guò)錯(cuò)原則應(yīng)該是侵權(quán)責(zé)任體系中運(yùn)用最多的原則,人工智能侵權(quán)適用過(guò)錯(cuò)歸責(zé)原則,由于人工智能發(fā)展初期依然是人類活動(dòng)的延伸,在表面上以生產(chǎn)者的主觀過(guò)錯(cuò)進(jìn)行歸責(zé)似乎合理合法。但是在具體分析中會(huì)發(fā)現(xiàn)過(guò)錯(cuò)的追究是一個(gè)艱難的過(guò)程。弱人工智能環(huán)境下,雖然智能產(chǎn)品是人類活動(dòng)的延伸,但是依然擁有擺脫人為高度控制的可能性,畢竟智能化人工屬性亦是不可改變的根本特點(diǎn)。機(jī)器人侵權(quán)是人工智能應(yīng)用至今較為典型的例子,筆者先用過(guò)錯(cuò)歸責(zé)原則進(jìn)行合理性分析。發(fā)生于公共場(chǎng)所的機(jī)器人侵權(quán),首先應(yīng)當(dāng)由機(jī)器的所有者承擔(dān)責(zé)任,再由有注意義務(wù)的場(chǎng)所提供者承擔(dān)與其過(guò)錯(cuò)相對(duì)應(yīng)的補(bǔ)充責(zé)任??伤腥水?dāng)時(shí)并不在現(xiàn)場(chǎng)控制,機(jī)器人侵權(quán)的同時(shí)也沒(méi)有所有者人為的意思表示,與其無(wú)因果關(guān)系卻要承擔(dān)責(zé)任,在筆者看來(lái)也不合理。對(duì)于場(chǎng)所管理者來(lái)說(shuō),若盡到了注意和提醒義務(wù),也很難將補(bǔ)充責(zé)任強(qiáng)加于此。有學(xué)者提出應(yīng)該由機(jī)器生產(chǎn)者承擔(dān)責(zé)任,這就涉及產(chǎn)品的無(wú)過(guò)錯(cuò)責(zé)任歸責(zé)??墒且晃蹲非螽a(chǎn)品生產(chǎn)者的無(wú)過(guò)錯(cuò)侵權(quán)責(zé)任,不僅是對(duì)生產(chǎn)者經(jīng)濟(jì)的削弱,也會(huì)嚴(yán)重打擊人工智能市場(chǎng)的主體的積極性,不利于人工智能技術(shù)的發(fā)展和新型經(jīng)濟(jì)的蓬勃,讓“無(wú)辜者”承擔(dān)責(zé)任也許并不是法律的初衷。人工智能的侵害可能源于技術(shù)缺陷,也可能源于系統(tǒng)本身程序錯(cuò)誤。由此可見(jiàn),過(guò)錯(cuò)歸責(zé)和無(wú)過(guò)錯(cuò)歸責(zé)都會(huì)受到法理的挑戰(zhàn)。由于我國(guó)傳統(tǒng)上實(shí)行過(guò)錯(cuò)侵權(quán),在特殊情況下為了照顧弱者利益,實(shí)行無(wú)過(guò)錯(cuò)原則,現(xiàn)有的規(guī)則體系無(wú)法給出合理的歸責(zé)解釋。近些年來(lái),隨著過(guò)錯(cuò)推定和公平責(zé)任原則的出現(xiàn),使社會(huì)侵權(quán)問(wèn)題得到法律上的緩解。但是過(guò)錯(cuò)推定和公平責(zé)任只適用于法律明文規(guī)定[9],人工智能侵權(quán)的法律適用即使符合以上個(gè)別條款,卻難以在整體上進(jìn)行理論協(xié)調(diào),并且在初期階段,單獨(dú)對(duì)人工智能產(chǎn)品專章進(jìn)行侵權(quán)規(guī)定,無(wú)論是在立法成本還是可行性上都阻礙重重。
弱人工智能時(shí)代,人工智能一般被視為不具有獨(dú)立的意識(shí)。但是在未來(lái)高度發(fā)展的人工智能時(shí)代,特別是機(jī)器人領(lǐng)域,人工智能的主體資格就值得審視。況且,由于其自主性和復(fù)雜性的侵權(quán)特點(diǎn),對(duì)人工智能侵權(quán)事實(shí)認(rèn)定、舉證責(zé)任的分配也將會(huì)造成較大沖擊。
1.主體資格審視
“法律人格是某一主體能否成為法律意義上‘人’的資格, 是其享有權(quán)利、履行義務(wù)的基礎(chǔ)。人格是可以擴(kuò)展于自然之外的實(shí)體, 但現(xiàn)行體系下, 人工智能是否具有法律人格并不明晰, 造成現(xiàn)實(shí)的適用困境?!保?0]關(guān)于人工智能主體資格的審視,在發(fā)展階段初期作為輔助性的智能運(yùn)用,并不必然構(gòu)成對(duì)侵權(quán)主體的沖擊。值得注意的是,在強(qiáng)人工智能時(shí)代,人工智能高度自動(dòng)性和獨(dú)立性就會(huì)引發(fā)主體之爭(zhēng)。否認(rèn)說(shuō)堅(jiān)持認(rèn)為人工智能擺脫不了人工的控制,永遠(yuǎn)是作為權(quán)利的客體存在,因此該種學(xué)說(shuō)條件下的責(zé)任承擔(dān)都由自然人主體進(jìn)行分配。根據(jù)前面的產(chǎn)品侵權(quán)分析,完全將責(zé)任歸責(zé)于生產(chǎn)者這一自然人貌似不符合公平原則,這在強(qiáng)人工智能時(shí)代會(huì)更加明顯。代理說(shuō)認(rèn)為人工智能是作為人手足的延伸,是所有者的代理人。與傳統(tǒng)的代理結(jié)構(gòu)對(duì)比,代理人的形式卻不同。一個(gè)是真實(shí)存在的自然人,一個(gè)是物化代理人;在代理權(quán)限上來(lái)說(shuō)民法上的代理存在代理合同,有明確的權(quán)限或者法律明文規(guī)定的代理權(quán)限,但人工智能代理由于具有不可預(yù)測(cè)性和自主性,代理權(quán)限并不如民法意義上有代理合同等方式那樣能夠得到很好控制。并且從傳統(tǒng)表見(jiàn)代理角度無(wú)法對(duì)人工智能對(duì)外法律作為性質(zhì)進(jìn)行界定,更不用說(shuō)能夠理清人工智能產(chǎn)品的代理來(lái)源[11]。故筆者看來(lái),該種學(xué)說(shuō)也只是為了借鑒民法意義上的代理制度將結(jié)果歸屬于被代理人以方便法律適用,但是無(wú)論從形式還是分類上,都無(wú)法將這種所有者的代理歸入代理學(xué)說(shuō)。電子人格學(xué)說(shuō)借鑒于公司法人的擬制法律形態(tài),其實(shí)關(guān)于法律主體的發(fā)展趨勢(shì),不可否認(rèn)是一個(gè)擴(kuò)張的過(guò)程,外部形態(tài)的自然人到與法人并存,內(nèi)部形態(tài)也分化為無(wú)民事行為能力、限制行為能力、完全行為能力人,由內(nèi)及外都是一種外傾趨勢(shì)[12],加入電子人概念是否正符合這種趨勢(shì)呢? 對(duì)于電子人,其是否有獨(dú)立財(cái)產(chǎn)對(duì)外承擔(dān)責(zé)任呢?這是法人作為擬制的人最重要的財(cái)產(chǎn)獨(dú)立原則。電子人的申請(qǐng)人與電子人又是何種關(guān)系呢? 是合作關(guān)系,還是控制關(guān)系?電子人的監(jiān)管又該仿照自然人還是法人呢? 電子人人格還會(huì)受到哲學(xué)倫理的沖擊,人的本質(zhì)和智慧的本質(zhì)之間的區(qū)別在哲學(xué)領(lǐng)域上已經(jīng)開(kāi)始爭(zhēng)議,電子人作為智慧的結(jié)晶是否就是人的本質(zhì)所在,可能這也是一個(gè)讓人難以接受的謬論。這些問(wèn)題在當(dāng)前都無(wú)法得到很好的回答。我們應(yīng)該采取動(dòng)態(tài)人格區(qū)分:在發(fā)展低級(jí)形態(tài),只是一種人為控制下工具的延伸,但在未來(lái),適時(shí)賦予其法律人格能更好解決法律關(guān)系問(wèn)題,這就需要更多的類似公司法人制度進(jìn)行規(guī)范支撐,超出了我們現(xiàn)有的經(jīng)濟(jì)和法律基礎(chǔ)。
2.責(zé)任承擔(dān)舉證窘境
由于人工智能侵權(quán)事實(shí)特殊性,在理清事實(shí)真相以及因果關(guān)系等多方面本就不是易事。人工智能關(guān)鍵技術(shù)掌握在設(shè)計(jì)者手中,核心技術(shù)作為商業(yè)秘密的一種,在當(dāng)前不公開(kāi)也并不違反法律。即使依托于計(jì)算機(jī)系統(tǒng)的人工智能算法可以公開(kāi),但是依據(jù)算法完成學(xué)習(xí)、分析、決策、推理的過(guò)程是難以理解與解釋的。根據(jù)傳統(tǒng)民事訴訟法,無(wú)特殊規(guī)定外,根據(jù)“誰(shuí)主張誰(shuí)舉證”的規(guī)則,應(yīng)當(dāng)由被侵權(quán)人就相關(guān)事實(shí)承擔(dān)舉證責(zé)任,對(duì)于損害醫(yī)療證明,法院可以要求醫(yī)院提供相關(guān)書證,但是對(duì)于醫(yī)院一方的過(guò)錯(cuò)舉證,則會(huì)陷入舉證困難。受害者一般都是普通公民,相對(duì)于人工智能生產(chǎn)商而言,舉證對(duì)方技術(shù)存在瑕疵是勉為其難。況且人工智能的自主性和不可預(yù)測(cè)性,對(duì)對(duì)方過(guò)錯(cuò)的舉證就變得難上加難。由大數(shù)據(jù)計(jì)算機(jī)系統(tǒng)支持的人工智能,不斷進(jìn)行數(shù)據(jù)重整、規(guī)則重整,對(duì)于后續(xù)的紀(jì)錄顯示和保存也造成了嚴(yán)重困難,無(wú)法有效地還原當(dāng)時(shí)客觀的侵權(quán)過(guò)程,更不用說(shuō)需要被害者承擔(dān)敗訴的后果,這明顯就與民事糾紛所倡導(dǎo)的公平正義原則相違背,傳統(tǒng)的舉證規(guī)則運(yùn)用于人工智能會(huì)面臨事實(shí)不清的困境。
面對(duì)人工智能,不僅是舉證責(zé)任分配存在不公,具體事實(shí)的舉證也會(huì)“束手無(wú)策”。首先是關(guān)于懲罰性賠償?shù)呐e證,我國(guó)對(duì)懲罰性賠償?shù)囊?guī)定主要在欺騙消費(fèi)者相關(guān)法條中,對(duì)于存在主觀故意的,消費(fèi)者可以通過(guò)舉證證明以懲罰性的方式更好地維護(hù)自己的利益。對(duì)于人工智能產(chǎn)品,我們這里討論的主要是作為強(qiáng)智能環(huán)境下的人工智能產(chǎn)品,比如手機(jī)自動(dòng)點(diǎn)餐服務(wù),由于任意組合的手機(jī)智能軟件以及美圖等修飾,很容易出現(xiàn)圖片和現(xiàn)實(shí)的差距。此時(shí),商家在主觀上也無(wú)欺騙故意,大多是由于程序、數(shù)據(jù)出現(xiàn)錯(cuò)誤導(dǎo)致的結(jié)果[13]。還有精神損害賠償問(wèn)題,如網(wǎng)絡(luò)侵犯隱私權(quán)可能會(huì)存在這樣一種情形:隱私事實(shí)保存于電腦,因程序問(wèn)題而自動(dòng)公布于眾,造成受害者嚴(yán)重的精神損害,向誰(shuí)追償精神損害賠償就會(huì)受到爭(zhēng)議,是軟件的提供者還是網(wǎng)絡(luò)的提供者,各自都會(huì)有自己的抗辯事由??梢?jiàn),舉證問(wèn)題對(duì)于人工智能來(lái)說(shuō)是急需解決的事情,如何在高度自主化環(huán)境下尋求一個(gè)客觀的事實(shí)對(duì)于侵權(quán)責(zé)任法的事實(shí)認(rèn)定是一種挑戰(zhàn)。
法律的可預(yù)見(jiàn)性要求法律制度的完善是主動(dòng)的而不是被動(dòng)的。我們不應(yīng)等待問(wèn)題出現(xiàn), 這將對(duì)人工智能領(lǐng)域的創(chuàng)新造成阻礙。侵權(quán)責(zé)任構(gòu)成主要包括主體、侵權(quán)歸責(zé)原則、侵權(quán)行為事實(shí)、侵權(quán)結(jié)果以及因果關(guān)系。上述提及的主要是人工智能對(duì)主體、原則、事實(shí)與結(jié)果查明以及侵權(quán)適用造成較大的沖擊。人工智能主體地位對(duì)侵權(quán)責(zé)任體系的影響是具有根本性的,會(huì)造成侵權(quán)本質(zhì)的變化。并且我國(guó)對(duì)人工智能法律人格的理論與實(shí)踐也不夠,故主要對(duì)歸責(zé)原則以及行為事實(shí)與結(jié)果的查明提供建議:區(qū)別對(duì)待歸責(zé)解決人工智能生產(chǎn)運(yùn)用過(guò)程中的主體多樣;黑箱子信息記錄解決舉證事實(shí)查明;商業(yè)保險(xiǎn)與智能基金解決新科技初期損害事實(shí)頻發(fā)的風(fēng)險(xiǎn)規(guī)避;事前登記與事后監(jiān)管解決行政適當(dāng)干預(yù)保障其穩(wěn)定發(fā)展。
由于人工智能產(chǎn)品大多是在智能環(huán)境下進(jìn)行工作,人為的直接操作越來(lái)越少也是經(jīng)濟(jì)去中心化的表現(xiàn)。但是當(dāng)前理論認(rèn)為,人工智能依然是人類行動(dòng)物化載體,也并沒(méi)有突破超越人的認(rèn)知范圍,可以進(jìn)行人的歸責(zé)。人工智能區(qū)別對(duì)待原則即對(duì)各流程主體進(jìn)行責(zé)任區(qū)分,主張采用階段式方法對(duì)人工智能侵權(quán)進(jìn)行法律規(guī)制,即在設(shè)計(jì)、生產(chǎn)、運(yùn)輸、銷售、使用等不同動(dòng)態(tài)環(huán)節(jié)來(lái)規(guī)制責(zé)任[14]。該觀點(diǎn)主要看到了人工智能產(chǎn)品整個(gè)流程的進(jìn)展過(guò)程,但是單純以哪一個(gè)環(huán)節(jié)出錯(cuò)而進(jìn)行責(zé)任規(guī)制,只是法律問(wèn)題的表象,并且實(shí)踐中多環(huán)節(jié)過(guò)錯(cuò)極其常見(jiàn),依然需要對(duì)各環(huán)節(jié)事實(shí)進(jìn)行排查,加大了司法查明的難度。該觀點(diǎn)的階段性主體傾向筆者是同意的,但是生產(chǎn)者、銷售者、使用者之間的責(zé)任是存在差別的。我國(guó)現(xiàn)行法律規(guī)定,生產(chǎn)者和銷售者都承擔(dān)無(wú)過(guò)錯(cuò)的嚴(yán)格責(zé)任,這對(duì)銷售者特別是小型銷售者其實(shí)是不公平的,無(wú)疑加劇了其經(jīng)濟(jì)負(fù)擔(dān)。雖然立法目的是保障消費(fèi)者權(quán)利,但是在人工智能發(fā)展初期,應(yīng)該對(duì)智能產(chǎn)品有所特殊對(duì)待。故銷售者承擔(dān)的應(yīng)為過(guò)錯(cuò)責(zé)任,因?yàn)槠渖婕暗闹饕欠傻馁I賣合同訂立,與生產(chǎn)者侵權(quán)關(guān)系相比密切度一般,過(guò)錯(cuò)責(zé)任對(duì)銷售者舉證責(zé)任也是有利的。對(duì)于生產(chǎn)者初步承擔(dān)嚴(yán)格責(zé)任是法律應(yīng)有之義,但是也不能將范圍任意擴(kuò)大,依然要符合產(chǎn)品缺陷這一前提,而如何證明產(chǎn)品缺陷也是接下來(lái)需要論述的內(nèi)容。生產(chǎn)者與銷售者的區(qū)別對(duì)待對(duì)于人工智能早期發(fā)展具有重要作用。
黑箱技術(shù)①黑箱技術(shù)源于國(guó)際航空行蹤技術(shù),用于對(duì)智能情況下技術(shù)痕跡的記錄,具有還原客觀性的重要功能。走進(jìn)人們視野應(yīng)該是馬航事件,將黑箱子記錄信息應(yīng)用于人工智能不失為一種巧妙的借鑒。人工智能由于自身自主性和不可預(yù)測(cè)性太強(qiáng),對(duì)事實(shí)真?zhèn)蔚牟槊鞔嬖诤芏嗳毕?。黑箱子不僅可以記錄人工智能的操作過(guò)程,而且其內(nèi)部的信息記錄可以幫助查明出錯(cuò)的環(huán)節(jié),從而更好地進(jìn)行責(zé)任分配。但黑箱子的裝置應(yīng)該與人工智能同時(shí)投入使用,并且裝置的裝配責(zé)任應(yīng)該由生產(chǎn)者進(jìn)行承擔(dān)。我國(guó)在環(huán)境保護(hù)法領(lǐng)域?qū)Νh(huán)保設(shè)施的投入使用也采取與施工同步戰(zhàn)略,對(duì)事前裝置,相關(guān)法律法規(guī)應(yīng)該給予強(qiáng)制性規(guī)定??墒菍?duì)于記錄事實(shí)的提供與舉證證明責(zé)任的分配可能會(huì)存在矛盾。受害者一般為過(guò)錯(cuò)責(zé)任的證明主體,但是對(duì)于人工智能關(guān)鍵信息可能由于自己技術(shù)知識(shí)的缺乏或者生產(chǎn)者出于利益考量而不予提供?;诖?,可以借鑒民事訴訟的訴訟舉證規(guī)則。由受害者提出侵權(quán)事實(shí)證明,而生產(chǎn)者應(yīng)當(dāng)提供黑箱子記錄事實(shí),如不提供或者有采取毀壞的事實(shí),則在法律上推定其承擔(dān)過(guò)錯(cuò)責(zé)任不利后果,這也促進(jìn)了生產(chǎn)者加快黑箱子記錄的使用進(jìn)度。此外,黑箱子一般會(huì)涉及人工智能核心技術(shù)的透明度問(wèn)題。對(duì)于存在商業(yè)秘密的黑箱子記錄儀,舉證事實(shí)經(jīng)過(guò)司法機(jī)關(guān)的審批,應(yīng)該秘密進(jìn)行。黑箱子信息記錄與信息隱私保護(hù)有關(guān),國(guó)外在自動(dòng)駕駛中運(yùn)用的記錄儀,對(duì)乘車人的身份信息以及路線計(jì)劃都進(jìn)行了隱私保護(hù),因此在查明事實(shí)的基礎(chǔ)上也應(yīng)該注重個(gè)人信息保護(hù)。關(guān)于人工智能黑箱子證據(jù)的舉證,由于我國(guó)采取的是公開(kāi)審判,對(duì)于雙方在侵權(quán)案件中的舉證程序,可以在堅(jiān)持公開(kāi)基本原則之下采取變通的方式,如由合適的當(dāng)事人在場(chǎng)共同進(jìn)行質(zhì)證、單獨(dú)質(zhì)證。
對(duì)于新型智能產(chǎn)品,有關(guān)部門在初期就應(yīng)該采取嚴(yán)格的管控措施[15]。事前監(jiān)管主要指人工智能產(chǎn)品投入正式使用這一階段。我國(guó)公司采取公司登記制度,行政許可也采取許可登記的前置程序,不僅是對(duì)行政管理的便利,也是出于對(duì)市場(chǎng)秩序的安排。事前監(jiān)管可以采取登記制度,公司登記即對(duì)法人進(jìn)行法律上的承認(rèn),雖然近些年來(lái)對(duì)公司登記事項(xiàng)相關(guān)內(nèi)容有所放開(kāi),但不可否認(rèn)的是,在公司發(fā)展初期,通過(guò)相關(guān)的登記制度為公司在市場(chǎng)中的主體地位打下了堅(jiān)實(shí)的基礎(chǔ)。人工智能在早期發(fā)展階段特別是新型人工智能大量爆發(fā)的階段,離不開(kāi)法律的監(jiān)管,人工智能未來(lái)發(fā)展勢(shì)頭雖然勢(shì)不可擋,但是人工智能依然有其自身的缺陷。登記準(zhǔn)入制度首先確保為市場(chǎng)輸入合法的人工智能資源,行政前置的篩選雖然看似程序復(fù)雜,但是初期階段的“謹(jǐn)慎”是人工智能市場(chǎng)秩序和諧的重要保證。由于人工智能主體資格存在較大爭(zhēng)議,在現(xiàn)階段采取由所有者登記制度,登記內(nèi)容主要為人工智能技術(shù)特征以及適用范圍,若要推動(dòng)人工智能發(fā)展到高智能時(shí)代,賦予其獨(dú)立人格不妨是一個(gè)較好的選擇。與公司獨(dú)立財(cái)產(chǎn)制度相區(qū)別,由于人工智能本身可能涉及知識(shí)產(chǎn)權(quán)價(jià)值,價(jià)值即本身,賦予其主體資格并不意味著責(zé)任承擔(dān)就不可落實(shí)。而最后也可以借用勞動(dòng)者與用人單位條款進(jìn)行歸責(zé),不過(guò)又要分清職務(wù)行為和非職務(wù)行為。事后監(jiān)管主要指的是類似于食品藥品侵權(quán)事件的追回制度,人工智能不可避免會(huì)發(fā)生侵權(quán)糾紛,但事后追回依然可以彌補(bǔ)損失[16],這就要求相關(guān)主管機(jī)關(guān)對(duì)其管制或設(shè)置專門的人工智能機(jī)構(gòu)。我國(guó)在刑事、民法領(lǐng)域的懲罰制度較多采用的是事后追懲制度,一方面是出于對(duì)市場(chǎng)自由的保護(hù),另一方面也為了顧及違法者對(duì)市場(chǎng)規(guī)則的違法代價(jià)。事前與事后監(jiān)管是行政對(duì)市場(chǎng)的適當(dāng)干預(yù),雖然市場(chǎng)經(jīng)濟(jì)主張由市場(chǎng)配置,我國(guó)當(dāng)前行政領(lǐng)域也在大力提倡簡(jiǎn)政放權(quán),但是在人工智能發(fā)展初期,適當(dāng)監(jiān)管具有較大的優(yōu)勢(shì):一來(lái)保障了人工智能準(zhǔn)入制度,增加了公眾對(duì)人工智能的信任度;二來(lái)也是區(qū)分責(zé)任的重要標(biāo)準(zhǔn),符合審批制度的侵權(quán)與不符合審批制度的侵權(quán)應(yīng)該區(qū)別對(duì)待,鼓勵(lì)設(shè)計(jì)者以及所有者加強(qiáng)自身責(zé)任管制。
人工智能侵權(quán)問(wèn)題會(huì)隨著領(lǐng)域適用范圍的不斷擴(kuò)大逐漸突出。我國(guó)在倡導(dǎo)市場(chǎng)自我治理的同時(shí),也逐步形成了政府適當(dāng)干預(yù)經(jīng)濟(jì)發(fā)展治理模式的共識(shí)。我國(guó)行政權(quán)力呈中央與地方多層級(jí)分布形式,為人工智能管理委員會(huì)提供了地域適應(yīng)基礎(chǔ)。在經(jīng)濟(jì)較發(fā)達(dá)的地區(qū)不妨設(shè)立人工智能管理委員會(huì),對(duì)人工智能業(yè)務(wù)的開(kāi)展進(jìn)行監(jiān)管。我國(guó)傳統(tǒng)的體制結(jié)構(gòu)傾向于將人工智能歸入單獨(dú)的政府部門或其他行政機(jī)構(gòu)進(jìn)行管理,但是人工智能侵權(quán)往往具有自主性和復(fù)雜性特點(diǎn),對(duì)機(jī)構(gòu)人員的業(yè)務(wù)水平要求較高。基于此,通過(guò)加強(qiáng)人工智能專門人才的建設(shè),為專門委員會(huì)奠定人才儲(chǔ)備基礎(chǔ)也是應(yīng)有之義。與事前登記和事后懲罰措施相比,專門委員會(huì)的設(shè)立側(cè)重于對(duì)職能部門的結(jié)構(gòu)調(diào)整,后者側(cè)重于加強(qiáng)監(jiān)管力度。對(duì)人工智能本身發(fā)展而言,在初期階段就引入政府治理的監(jiān)管方式顯得更為合理。行業(yè)協(xié)會(huì)等非政府治理的方式在監(jiān)管執(zhí)行力以及財(cái)政支持力度等方面都不及政府治理的效果。當(dāng)然,這并不意味著就否定行業(yè)協(xié)會(huì)等組織的參與。相反地,政府在設(shè)立人工智能專門委員會(huì)進(jìn)行監(jiān)管的同時(shí),應(yīng)該集中各種社會(huì)力量,共同促進(jìn)人工智能的健康、可持續(xù)發(fā)展。
也有學(xué)者認(rèn)為人工智能管理委員會(huì)的建立不具有可行性。他們認(rèn)為在弱智能時(shí)代啟用專門管理委員監(jiān)管會(huì)是對(duì)政府資源的浪費(fèi)。但是筆者認(rèn)為加強(qiáng)行政監(jiān)管不僅不會(huì)多余,更是對(duì)政府機(jī)構(gòu)設(shè)置的優(yōu)化調(diào)整。我國(guó)當(dāng)前的侵權(quán)體系雖然遭受沖擊,但是在當(dāng)前階段并沒(méi)有較大影響。筆者認(rèn)為,人工智能發(fā)展趨勢(shì)不可逆轉(zhuǎn),法律上的未雨綢繆是為人工智能發(fā)展奠定基礎(chǔ)的制度保障。不僅如此,侵權(quán)問(wèn)題是民眾對(duì)人工智能發(fā)展的擔(dān)憂所在,設(shè)立行政專門管理職能部門進(jìn)行指導(dǎo)與監(jiān)管也是對(duì)民眾的利益保護(hù)。
侵權(quán)責(zé)任法的目的除了法律上的歸責(zé)外,更重要的是損害填平。因此,賠償制度的建立對(duì)人工智能的發(fā)展有利。特別對(duì)于小微企業(yè)、新型企業(yè)而言,人工智能侵權(quán)損害賠償之后可能面臨日常經(jīng)營(yíng)難以維持。為了促進(jìn)人工智能帶動(dòng)經(jīng)濟(jì)的發(fā)展,協(xié)調(diào)自身與侵權(quán)之間的矛盾,歐盟在《機(jī)器人民事法律規(guī)則》①《機(jī)器人民事法律規(guī)則》:2016年1月12日,歐洲議會(huì)法律事務(wù)委員會(huì)就來(lái)自歐洲社會(huì)黨/社會(huì)民主黨黨團(tuán)的M ady D elvaux 議員所提出的《關(guān)于建請(qǐng)歐盟委員會(huì)修改有關(guān)機(jī)器人的民法規(guī)則的報(bào)告草案》進(jìn)行了表決,會(huì)后形成決議。引入的保險(xiǎn)以及基金制度是規(guī)避風(fēng)險(xiǎn)的很好選擇。商業(yè)保險(xiǎn)的引入降低了小企業(yè)以及新型企業(yè)投資的風(fēng)險(xiǎn),特別對(duì)于侵權(quán)后,由于司法判決需要經(jīng)過(guò)審判程序,對(duì)受害者可能救急不及時(shí),但保險(xiǎn)承擔(dān)者最終都保險(xiǎn)責(zé)任[17],可以采取先行支付制度,對(duì)受害者進(jìn)行先行救濟(jì)。商業(yè)保險(xiǎn)一般為自愿行為,筆者建議采取強(qiáng)制保險(xiǎn)的方式對(duì)其進(jìn)行規(guī)制。我國(guó)當(dāng)前對(duì)人工智能產(chǎn)品的商業(yè)保險(xiǎn)依然是依附于傳統(tǒng)的財(cái)產(chǎn)保險(xiǎn)進(jìn)行投保與理賠,為了進(jìn)一步促進(jìn)人工智能產(chǎn)業(yè)規(guī)模的推廣及提供安全保障,保險(xiǎn)公司不妨設(shè)立專門的針對(duì)人工智能產(chǎn)品的商業(yè)保險(xiǎn),不僅有利于保險(xiǎn)公司業(yè)務(wù)的增長(zhǎng),也是對(duì)創(chuàng)業(yè)者的財(cái)產(chǎn)保障。除此之外,由于商業(yè)保險(xiǎn)需要人工智能所有者具備較高自主性及配合度,在社會(huì)覆蓋率以及普及率上存有欠缺,而專門的人工智能基金專項(xiàng)計(jì)劃也可以建立起來(lái)。智能基金不僅依靠行業(yè)協(xié)會(huì)的共同努力,也需要政府的不斷推進(jìn)。除了采取專門歸類管理或者單類管理外,該基金會(huì)需要接受社會(huì)管制,實(shí)現(xiàn)信息的透明化監(jiān)督。人工智能大多運(yùn)用于高科技領(lǐng)域,侵權(quán)損害一般影響較大。智能商業(yè)保險(xiǎn)與智能基金是風(fēng)險(xiǎn)規(guī)避的合適方法,同時(shí)也加強(qiáng)了對(duì)受害人的保護(hù)。
出于對(duì)人工智能促進(jìn)經(jīng)濟(jì)的考慮,應(yīng)該在法律保障層面為其奠定上層建筑基礎(chǔ)。同時(shí)出于對(duì)受害人的保護(hù),法律應(yīng)該使無(wú)辜者得到損害賠償。這兩者又經(jīng)常出現(xiàn)于一個(gè)侵權(quán)事故中,當(dāng)兩者發(fā)生價(jià)值取向的沖突時(shí),正確的做法應(yīng)該是引入價(jià)值平衡理論。人工智能侵權(quán)問(wèn)題依然適用責(zé)任免責(zé)事由。在當(dāng)前階段,人工智能尚不具備獨(dú)立的意識(shí),我們尚且引入已有的現(xiàn)行法規(guī)對(duì)其進(jìn)行免責(zé)事由的規(guī)定。人工智能廣泛應(yīng)用的依然是產(chǎn)品條款,與其物質(zhì)載體屬性息息相關(guān)。人工智能作為一項(xiàng)新興技術(shù),引用產(chǎn)品的免責(zé)事由主要發(fā)生于未將產(chǎn)品投入流通領(lǐng)域。人工智能技術(shù)從研發(fā)到投入市場(chǎng)需要反復(fù)進(jìn)行性能測(cè)試,但是侵犯商業(yè)秘密行為屢見(jiàn)不鮮,生產(chǎn)者或者經(jīng)營(yíng)者未將產(chǎn)品投入流通領(lǐng)域發(fā)生的侵權(quán)行為若進(jìn)行歸責(zé),無(wú)疑是對(duì)人工智能積極性的極大挫傷。此外,投入流通時(shí),若引起損害的缺陷尚不存在,或者投入流通時(shí)的科學(xué)技術(shù)尚未發(fā)現(xiàn)缺陷的存在也會(huì)構(gòu)成免責(zé)事由[18]。我國(guó)人工智能發(fā)展戰(zhàn)略剛剛興起,依然處于弱人工智能時(shí)代,技術(shù)的現(xiàn)實(shí)困境不可避免。就智能汽車為例,雖然智能汽車的目標(biāo)是實(shí)現(xiàn)完全自動(dòng)化,但在我國(guó)依然處于試行階段,具體而言即無(wú)自主階段以及輔助階段。隨著有條件自動(dòng)駕駛、高度自動(dòng)駕駛階段的深入,賦予人工智能免責(zé)事由是促進(jìn)人工智能當(dāng)前發(fā)展的應(yīng)有之義。對(duì)于受害方,除了引進(jìn)賠償保障的智能基金和商業(yè)保險(xiǎn)外,特別在侵權(quán)舉證方面,法院在必要的時(shí)候可以行使職權(quán)進(jìn)行調(diào)查取證,以避免司法實(shí)踐中出現(xiàn)大量普通公民證據(jù)意識(shí)薄弱從而導(dǎo)致自己程序上的敗訴結(jié)果。因此,人工智能侵權(quán)責(zé)任認(rèn)定,既要考慮到人工智能生產(chǎn)者層面的免責(zé)事由又要顧及受害者在侵權(quán)事實(shí)舉證方面的弱勢(shì)地位。
作為最近熱點(diǎn)話題,人工智能已經(jīng)涉及各個(gè)領(lǐng)域,對(duì)法律的滲透也是多方位的。民法典的制定、公司法治理結(jié)構(gòu)都會(huì)不斷調(diào)整,人工智能對(duì)侵權(quán)責(zé)任法的構(gòu)建將會(huì)是全方位的,不僅僅是侵權(quán)責(zé)任體系的基礎(chǔ)構(gòu)建,包括侵權(quán)責(zé)任的具體認(rèn)定手段,在很長(zhǎng)一段時(shí)間內(nèi)都離不開(kāi)人工智能的作用。由于無(wú)法在短時(shí)間內(nèi)制定全球范圍統(tǒng)一的法律規(guī)則,目前主要是集中于發(fā)達(dá)國(guó)家對(duì)運(yùn)用較廣的自動(dòng)駕駛以及機(jī)器人的研究,參考資料也是圍繞一些指導(dǎo)性案例,關(guān)于人工智能在強(qiáng)人工智能時(shí)代(甚至發(fā)展為超人工智能時(shí)代),將會(huì)對(duì)侵權(quán)責(zé)任法產(chǎn)生更大的沖擊,會(huì)有更多的法律問(wèn)題顯現(xiàn)出來(lái),將來(lái)更需要進(jìn)一步的研究。