徐清清
摘要:人工智能時代下出現(xiàn)的智能機器人,現(xiàn)有法律對其的規(guī)范調(diào)整存在空缺與不足。能產(chǎn)生獨立意識自我進行意思表示的智能機器人尚未被創(chuàng)造,故目前沒有客觀需要來確立其法律主體地位;智能機器人行為侵權時,從所有人的“雇主責任”與產(chǎn)品責任來平衡分配;應承認智能機器人對其自主學習創(chuàng)作的作品的知識產(chǎn)權。最后,在應對智能機器人對傳統(tǒng)法律挑戰(zhàn)時,應堅持人類利益優(yōu)先、公共利益優(yōu)先、共生等基本原則。
關鍵詞:智能機器人;法律主體地位;侵權責任
中圖分類號:D9文獻標識碼:A文章編號:1004-1494(2020)01-0113-05
一、引言
在科技高速發(fā)展的時代背景下,我們每時每刻都能在各個地方感受到人工智能帶來的便利,但是與此同時,我們也應警惕人工智能帶來的危機。以智能機器人為代表,科技智能時代的發(fā)展可以使機器人脫離人類的意志自主行動,也就是說人類即使是程序員也不知道其下一步會做什么,就像一個有自我意識自我認知的人,這使得機器人倫理規(guī)范變得極其重要,例如是否應該給智能機器人獨立的法律主體地位,智能機器人實施的侵權行為如何認定,甚至智能機器人自我創(chuàng)作的作品是否應該得到保護等問題已經(jīng)表明智能科技的革命正在沖擊著當下的法律規(guī)則和社會倫理,甚至顛覆人類原有的法律認知。
因此,對于奔涌而來的科技革命對傳統(tǒng)法律秩序的挑戰(zhàn),我們應面向未來時代解決沖突,實現(xiàn)法律與時代的良好互動。本文將從智能機器人的法律主體地位、智能機器人致人損害以及智能機器人創(chuàng)作作品的知識產(chǎn)權等角度探討智能機器人對傳統(tǒng)法律的挑戰(zhàn)。
二、智能機器人的法律主體地位
人類在初期創(chuàng)造人工智能的目的是為了服務人類,但隨著人工智能隊伍的不斷壯大,智能機器人已經(jīng)完全可以脫離人類控制自我行動,智能機器人的自主行為必然會涉及行為的對錯,即涉及社會倫理性、道德性。因而我們不得不對其采取規(guī)范性措施來壓制人工智能高度發(fā)展所帶來的消極影響。智能機器人是否存在法律人格,將直接影響智能機器人應否有獨立的法律地位以及在法律層面對智能機器人的規(guī)范方式。學術上對于智能機器人法律主體地位的問題有著激烈的討論,總體而言有客體說與主體說??腕w說否認智能機器人的主體地位,其代表觀點有“工具說”“電子代理說”等。主體說承認智能機器人的主體地位,代表觀點有“電子人格說”“擬制主體說”等。
(一)工具說
人類創(chuàng)造的智能機器人,作為工具服務人類。其最根本最本質的目的是服務人類、工具說認為人類控制智能機器人,給予智能機器人法律主體地位毫無必要。該觀點把智能機器人當做服務人類的工具,否認了其獨立人格。
(二)電子代理說
電子代理人是指不需要人的審查或操作,而能用于獨立地發(fā)出、回應電子記錄,以及部分或全部的履行合同的計算機程序、電子的或其他自動化手段[1]。電子代理人與民法上的代理人存在本質上的區(qū)別。民法上的代理人是一個獨立的法律主體,擁有獨立的人格和財產(chǎn);而電子代理人究其本質只是合同雙方當事人訂立合同的手段或者已設立的程序,追溯其本質,是使交易更加快捷的工具,是手段上的進步,它不能夠承擔民事責任。
(三)電子人格說
《歐盟機器人民事法律草案》給予智能機器人一定的法律地位,將它們歸類為“電子人”,并且享有一定的權利與義務。
(四)擬制主體說
智能機器人擬制主體說,與德國法學家薩維尼主張的法人擬制說具有一致性,都是通過法律將原本不符合條件的主體擬制為民事主體,從而享有權利,承擔義務。該主張認為法律是解決人與人之間的問題,無論智能機器人怎么脫離人的控制,始終與人類存在本質差異。民事主體有且只有自然人可以成為民事主體,但可以借鑒法人擬制說,通過法律將智能機器人擬制為民事主體。
除此之外當前還有有限人格說、權利與責任一體說、控制說等等。筆者認為要把握智能機器人的法律人格,必須先從機器人與人的關系入手。
要探尋智能機器人與人之間的關系,我們不妨先思考一下工具、機器以及機器人三者之間的關系。三者都是人造之物,都是非生命體,且為人服務。筆者認為三者的區(qū)別有:扳手、剪刀等工具在機能上不如汽車等機器,也可以說機器是一種更自動化的工具。在機器的基礎上有了人的影子,成為機器人。機器人繼續(xù)發(fā)展能夠自我學習產(chǎn)生獨立意志進行自主行為,成為智能機器人。工廠流水線上生產(chǎn),裝配等任務由機器人而非工人完成時,這些自動機器取代了工人,但機器終究不是人,機器人從事的行為與人的勞動存在本質上的區(qū)別。機器人的行為雖同樣是物質資料的生產(chǎn),但究其根本只是程序編碼設計下模仿人的身體動作。人們一方面希望機器人解放自己的雙手,無報酬地為人創(chuàng)造資本,另一方面又擔憂其發(fā)展脫離控制,最終被自己創(chuàng)造的東西淘汰。隨著人工智能的發(fā)展,智能機器人不僅可以在外表上神似人,還能有理解思考等人特有的能力,甚至能擁有情感,脫離人的控制變得獨立。我們不得不思考智能機器人與人之間的界限。劉憲權教授認為智能機器人與人的關系不應是平等的,兩者的關系是隨著歷史發(fā)展和科技的進步而不斷變化著的,其具體表現(xiàn)取決于智能機器人自身的倫理地位[2]。吳漢東教授在智能機器人法律主體地位問題上認為法律主體須有權利能力,包括自然人和法律擬制的法人。同時指出法律擬制的法人是自然人的集合體,與擁有“人類智慧”的智能機器人依舊存在本質的差別,否認了機器人擬制主體說。王利明教授認為,智能機器人是人類創(chuàng)造出來的,雖可能代替人類從事相關活動,但本質是受其自身算法而決定,尚不具備人類所具有的自主思考的意識和能力,且智能機器人尚不能獨立享有權利、承擔義務,故目前人工智能機器人還不能也沒必要成為法律主體[3]。筆者認為,現(xiàn)階段我們?nèi)蕴幱谌跞斯ぶ悄軙r代,目前機器人還未真正達到智能時期,并沒有獨立意識,不能真正脫離人的控制。因此,在此基礎上過早賦予其法律主體地位,還為之過早,在沒有客觀基礎的情況下制定的法律規(guī)范也必定沒有實際可操作性。
三、智能機器人致人損害的責任分配
人工智能領域的快速發(fā)展,認為機器人或者計算機只是人設計編程創(chuàng)造的工具的固有觀點,甚至已經(jīng)成為一種偏見。1989年,前蘇聯(lián)國際象棋冠軍尼古拉·古德科夫和機器人對弈,古德科夫連勝三局,“惱羞成怒”的機器人突然向金屬棋盤釋放強大電流將這名國際象棋大師擊斃。不可置疑,在外觀表現(xiàn)上智能機器人能夠實施侵權行為甚至刑法上的犯罪,但是誰來承擔侵權責任,又如何承擔,法律上仍然沒有相應的規(guī)則進行規(guī)制,只能將其當做產(chǎn)品,以產(chǎn)品責任、侵權責任等進行規(guī)制。例如2016年聯(lián)合國科教文組織通過的關于機器人倫理的草案,將智能機器人視為科技產(chǎn)品,因技術等產(chǎn)品缺陷造成的損害,適用產(chǎn)品責任的相關制度進行調(diào)整。智能機器人造成的損害總體上可以分成四類:侵權人惡意篡改或控制系統(tǒng)導致?lián)p害;系統(tǒng)自身存在瑕疵導致?lián)p害;人為操作不當導致?lián)p害;智能機器人獨立行為進行侵權。
(一)侵權人惡意篡改或控制系統(tǒng)導致?lián)p害
即使智能機器人有再強的自主能力,但是在被人控制下實施的損害行為,比如黑客入侵篡改編碼數(shù)據(jù),使其改變了原先設計的程序,做出的異常行為造成損害。此種情況下智能機器人扮演了侵權人行為的工具,而非主體。
(二)系統(tǒng)自身存在瑕疵導致?lián)p害
人工智能作為新興事物具有一定的不確定性,人在設計制造并且部署了智能機器人,因內(nèi)部本身的系統(tǒng)存在瑕疵導致的損害,筆者認為可以參照產(chǎn)品責任追究生產(chǎn)者、銷售者的責任。
(三)人為操作不當導致?lián)p害
人為操作不當導致的損害,首先應排除智能機器人是侵權主體。筆者認為由于智能機器人的行為存在一定的不確定性,人為操作不當導致的損害,不能完全免除生產(chǎn)者或銷售者的責任,應視情況承擔相應比例的責任。首先,生產(chǎn)者有義務在說明書上標明智能機器人的使用方法及注意事項;其次,將人為操作的不當性程度視為責任分配的考慮因素之一,原因在于人為活動是主觀下的實踐,具有不確定性,生產(chǎn)者在生產(chǎn)過程就應該考慮到各種不當操作并做好預防及應對措施。
(四)智能機器人獨立行為進行侵權
當未來人工智能創(chuàng)造出能夠產(chǎn)生獨立意志,脫離人的控制的智能機器人實施侵權行為時,責任由誰承擔,如何分配法律責任上,既有的責任規(guī)則已經(jīng)不能夠游刃有余地分配法律責任。智能機器人是完全獨立自主行為,沒有人為干預或者控制。因此,智能機器人的侵權構成要件只需加害行為、損害事實與因果關系,不需要過錯,這里的過錯非人為過錯,指智能機器人的過錯,人為過錯自然適用現(xiàn)有法律的歸責原則,本文不做探究。被侵權人只需證明損害存在的事實,以及損害的發(fā)生與智能機器人有因果關系即可。智能機器人雖能獨立實行侵權行為,但是不能夠承擔侵權責任,自然人、法人或者非法人組織才是侵權責任的最終承擔者[4]。
1.智能機器人所有者的雇主責任
智能機器人獨立意志下的加害行為、因果關系、損害后果都脫離所有者的意志,因此所有者在主觀上不存在過錯,不適用過錯責任原則?;谄渑c所有者特殊關系在對外承擔法律責任時擬制為雇傭關系,適用雇主責任更為合適。比如出租車公司使用自動駕駛汽車接送乘客,公司必須對自動駕駛汽車的行為負責[5]。以如今市場上最受關注的自動駕駛汽車為例。自動駕駛汽車依靠人工智能、視覺計算、雷達、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動的操作下、自動安全地操作機動車輛①。自動駕駛分為六個級別:無自動化(L0)、駕駛支援(L1)、部分自動化(L2)、有條件自動化(L3)、高度自動化(L4)、完全自動化(L5)。L0為完全人工駕駛,L1、L2、L3駕駛員需要隨時能夠接管車輛,以應對自動駕駛汽車不能應對的情況[6]。目前自動駕駛汽車已經(jīng)可以達到L4的水平,完全自動駕駛,駕駛員可有可無。對于自動駕駛汽車,很多人都懷疑其安全性,但事實上,自動駕駛汽車相比人類駕駛有較少的交通事故。自動駕駛汽車具有360度視角,克服了人類的視線障礙,且其反應能力迅速得多。同時又避免了因分心駕駛、疲勞駕駛、醉酒駕駛等人為因素造成的交通事故。盡管自動駕駛汽車在技術上證明其安全性,但事故和意外是不可能完全避免的。對于L3及以下的自動駕駛汽車發(fā)生的事故,依舊可以按照既有的責任規(guī)則分配法律責任,因為在這種情況下,人類依舊承擔著駕駛員的身份,人工智能只是起到輔助作用。但是在L4及以上的自動駕駛汽車中,即使坐在駕駛員位置上的人也已經(jīng)不再是司機的身份,更像是一個乘客,如果依舊要求其時刻準備應對路面情況,缺乏合理性,且給予了人更大的心理壓力與責任負擔,也不利于自動駕駛汽車的發(fā)展。以下所指自動駕駛汽車均為L4以上的自動駕駛汽車。在Arnold訴Reuther案中,橫穿馬路的Arnold作為受損害者,起訴駕駛自動駕駛汽車的Reuther沒有采取措施避免事故發(fā)生。法院認為人無法擁有像智能機器人一樣迅速作出反應。自動駕駛汽車發(fā)生的交通事故,要求一個普通人在極短時間內(nèi)做出反應過于苛責。但是雖過錯不能追究于人,但基于自動駕駛汽車與所有者之間擬制的雇傭關系,并不能因此完全免責。在我國,受雇人在履行職務期間,沒有過錯造成損害,由雇主承擔責任;受雇人有過錯,則與雇主承擔連帶賠償責任。但自動駕駛汽車等智能機器人不能承擔侵權責任,實際上是由雇主即所有者承擔的責任?!霸诼男新殑掌陂g”雇主責任的歸責原則中必不可少的條件,在智能機器人是否處于履行職務期間,筆者認為對于智能機器人的所有權人,“履行職務期間”是貫穿始終的。當自動駕駛汽車等智能機器人在流通時符合標準,不存在缺陷的情況下將事故責任歸咎于設計者或生產(chǎn)者會在責任分配上讓設計者或生產(chǎn)者負擔過多的責任。因此在自動駕駛汽車等智能機器人不存在產(chǎn)品缺陷時,對于損害的賠償,由所有者承擔,應并綜合考慮受損害者的過錯,公平分配兩者之間的法律責任。
2.智能機器人的產(chǎn)品責任
即使智能機器人能夠自我學習產(chǎn)生獨立意志,但最初設計的程序編碼等依舊會對其行為產(chǎn)生影響。生產(chǎn)者必須保證流通的智能機器人符合標準。根據(jù)上文所說,產(chǎn)品責任只有當自動駕駛汽車等智能機器人存在產(chǎn)品缺陷時才會產(chǎn)生,當有缺陷的智能機器人造成他人損害時,以擬制的雇傭關系為基礎的使用者在賠償損失時,有權向生產(chǎn)者或者銷售者進行追償。
產(chǎn)品缺陷作為產(chǎn)品責任的核心構成要件,但是由于智能機器人的設計程序等對絕大多數(shù)人來說是陌生的,即使由設計者、生產(chǎn)者承擔舉證責任證明產(chǎn)品不存在缺陷,普通人也很難理解其運作方式。因此,一般認為侵權行為中智能機器人存在過錯,就應推定產(chǎn)品有缺陷,除非有相反事實證據(jù)證明。
四、智能機器人的知識產(chǎn)權認定及侵權
人類曾一度認為只有具有情感的人類能夠創(chuàng)作、欣賞文學、藝術,但人工智能正不斷顛覆人們的認知。在文學藝術方面也有了智能機器人的影子,這顯然是對現(xiàn)有知識產(chǎn)權法既有規(guī)范的沖擊。微軟開發(fā)的“小冰”就是一個典型代表,“小冰”創(chuàng)作的詩集《陽光失了玻璃窗》,完全由“小冰”自主創(chuàng)作,沒有任何人為參與,那么該詩集的知識產(chǎn)權歸誰所有呢。在日本,由智能機器人創(chuàng)作的作品,不僅可以與人類作品競爭評獎,還可以在市面上進行銷售。法律設立知識產(chǎn)權的目的在于保護自然人的智力成果,激勵人們積極創(chuàng)作發(fā)明。這同樣適用智能機器人,如果不積極保護智能機器人創(chuàng)作的智力成果,同樣會打擊其創(chuàng)作的積極性。不可否定,智能機器人就是人類創(chuàng)造發(fā)明的成果,但是它創(chuàng)作的成果又該如何認定呢,是歸智能機器人所有呢還是智能機器人主人所有。筆者認為雖然在還未賦予智能機器人法律主體地位,但是在基于客觀事實以及客觀需要的情況下②,一方面應承認其知識產(chǎn)權所有人的地位;另一方面,智能機器人能夠創(chuàng)作是因為其能基于海量信息深度學習的結果,程序員只需設立好編碼程序,大量輸入知識和信息,因此,并不能排除智能機器人復制抄襲他人作品的可能性。這里就會出現(xiàn)智能機器人侵犯他人知識產(chǎn)權的情況,具體責任應由誰承擔,也值得進一步探討。
五、應對智能機器人的挑戰(zhàn)
現(xiàn)如今正處于弱人工智能向高人工智能時代的過渡期,人工智能的高度發(fā)展會對現(xiàn)有倫理規(guī)范與法律秩序帶來前所未有的沖擊與挑戰(zhàn),面向未來,做到法律與時代的良性互動,我們應堅持基本以下原則。
第一,人類優(yōu)先原則。我們發(fā)展人工智能,發(fā)明智能機器人的根本目的,始終是更好地服務人類,不管智能機器人如何擁有獨立意志,甚至擁有人的感情,它始終是沒有生命,由編碼設計而成的機器。因此,在我們不斷向高人工智能發(fā)展時,應確立正確的價值目標導向。
第二,公共利益優(yōu)先原則[7]。科技在發(fā)展過程中,也會帶來諸多弊端,并非所有的科學技術都會造福人類,如克隆人技術等等。同樣在人工智能發(fā)展中,我們在積極利用智能機器人的同時,應把握基本的倫理原則、道德原則。正如恩格爾所說:“我們不要過分陶醉于我們對自然的勝利。對于每一次這樣的勝利,自然界都報復了我們。每一次勝利,在第一步都確實取得了我們預期的結果,但是在第二步和第三步卻有了完全不同的、出乎我們預料的影響,常常把第一次結果又取消了?!盵8]
第三,共生原則?!叭祟惪梢越虣C器,機器也可以教人類,這種平衡是必須的。兩者之間的關系不是對抗性的而是可以共生的”[9]就像霍金所說:“人工智能的真正風險不是它的惡意,而是它的能力。一個超智能的人工智能在完成目標方面非常出色,如果這些目標與我們的目標不一致,我們就會陷入困境”[10]正確處理人工智能與人類之間的關系,在秉持公平正義的理念下,人工智能與人類方能和諧共處,共同發(fā)展。
結語