• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人機(jī)倫理的私法表述

      2020-05-14 04:04:36
      科技與法律 2020年1期
      關(guān)鍵詞:倫理規(guī)則機(jī)器人

      徐 文

      (西南科技大學(xué)法學(xué)院,四川綿陽621010)

      一、問題的提出

      我國對于機(jī)器人的需求正從彈性需求邁向剛性需求。在過去幾十年間,中國經(jīng)濟(jì)發(fā)展依靠大量的資本、資源、勞動力投入,取得了輝煌成就,但隨著人口紅利的逐漸消失,勞動力成本開始急劇上漲,“機(jī)器換人”的需求愈顯迫切①據(jù)國際機(jī)器人聯(lián)合會統(tǒng)計,2017年在全球工業(yè)機(jī)器人市場中,中國、韓國、日本、美國、德國五個國家已成為主要國家,共同占據(jù)74%的市場份額。其中,中國占據(jù)30%的市場份額。[1]:一方面,第一產(chǎn)業(yè)與第二產(chǎn)業(yè)的生產(chǎn)方式開始向高端化、機(jī)械化、智能化、精細(xì)化轉(zhuǎn)變,無人工廠和無人農(nóng)場充斥著機(jī)器人的身影;另一方面,醫(yī)療康復(fù)、助老助殘、救災(zāi)救援、公共安全、企業(yè)管理、家庭服務(wù)、教育娛樂等領(lǐng)域也逐漸呈現(xiàn)出對機(jī)器人的青睞與依賴。習(xí)近平總書記在中國共產(chǎn)黨第十九次全國代表大會報告中強(qiáng)調(diào),中國特色社會主義已經(jīng)進(jìn)入新時代,我國社會主要矛盾已經(jīng)轉(zhuǎn)化成人民日益增長的美好生活需要和不平衡不充分的發(fā)展之間的矛盾。為了回應(yīng)社會發(fā)展的需求和人民提高生活水平的需要,國務(wù)院、各部委陸續(xù)發(fā)布了一系列推進(jìn)機(jī)器人產(chǎn)業(yè)發(fā)展的文件②例如在2016年國務(wù)院發(fā)布的《中華人民共和國國民經(jīng)濟(jì)和社會發(fā)展第十三個五年規(guī)劃綱要》中,明確提到要大力發(fā)展工業(yè)機(jī)器人、服務(wù)機(jī)器人、手術(shù)機(jī)器人和軍用機(jī)器人;在2015年國務(wù)院發(fā)布的《中國制造2025》中,明確提到要圍繞汽車、機(jī)械、電子、危險品制造、醫(yī)療健康、家庭服務(wù)、教育娛樂等領(lǐng)域?qū)C(jī)器人的需求,促進(jìn)機(jī)器人的標(biāo)準(zhǔn)化、模塊化發(fā)展;在2017年工業(yè)和信息化部發(fā)布的文件《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020)》中,明確提到要在老年陪護(hù)、康復(fù)助殘、兒童教育、消防救援等領(lǐng)域著力研發(fā)機(jī)器人;在2016年工業(yè)和信息化部、發(fā)展改革委、財政部聯(lián)合印發(fā)的文件《機(jī)器人產(chǎn)業(yè)發(fā)展規(guī)劃(2016-2020)》中,明確提到要推進(jìn)機(jī)器人的專業(yè)化、服務(wù)化、系列化、個人化、商品化。此外,北京、天津、河北、廣東、廣州、深圳、佛山、東莞、浙江、昆山、上海、青島、山東、長沙、武漢、洛陽、江西、黑龍江、遼寧、沈陽、撫順、重慶等省市也于2014年至2017年間陸續(xù)出臺了推進(jìn)機(jī)器人產(chǎn)業(yè)發(fā)展的地方性文件。。但是,興盛與危機(jī)并存。繁榮發(fā)展背后,機(jī)器人的出現(xiàn)對人類生活所造成的影響是否可控、可預(yù)測?機(jī)器人的廣泛使用是否會對公序良俗和傳統(tǒng)倫理文化造成沖擊?我們是否應(yīng)當(dāng)通過機(jī)器人倫理規(guī)則的設(shè)計以保護(hù)人類在使用機(jī)器人過程中的尊嚴(yán)、隱私與自由?民法典是否應(yīng)賦予機(jī)器人民事主體地位?若否,機(jī)器人致人損害的責(zé)任又應(yīng)由誰承擔(dān)?本文希望通過對《歐洲機(jī)器人民法規(guī)則》的研究與借鑒,討論機(jī)器人的定義、評估機(jī)器人發(fā)展對人類社會的影響、提出保護(hù)人類免受傷害的機(jī)器人倫理規(guī)則、論證機(jī)器人致人損害民事責(zé)任的承擔(dān),為我國民法典編撰提供有益思路。

      《歐洲機(jī)器人民法規(guī)則》(European Civil Law Rules in Robotic)是歐盟法律事務(wù)委員會從民法視角對未來機(jī)器人所涉的倫理問題和法律問題所作的研究,所回應(yīng)的是未來十年至十五年間社會治理中可能因機(jī)器人使用而出現(xiàn)的問題③因為就機(jī)器人和人工智能技術(shù)發(fā)展的迅猛程度來看,法律很容易體現(xiàn)出滯后性。不論是法律制度的更新還是倫理守則的制定都不僅應(yīng)當(dāng)考慮到其對機(jī)器人和人工智能的適用性,還應(yīng)當(dāng)考慮到學(xué)科間交叉發(fā)展(比如納米技術(shù)、生物技術(shù)、信息科技、認(rèn)知科學(xué)的交叉發(fā)展)所可能帶來的挑戰(zhàn),因此在更新法律制度和設(shè)計倫理守則時,不僅應(yīng)具有預(yù)見性,還應(yīng)根據(jù)科技發(fā)展的節(jié)奏和領(lǐng)域不斷檢視其適用性,而十年至十五年則是較為合理的預(yù)測期間。韓國在《智能機(jī)器人發(fā)展與推廣促進(jìn)法案》第5條中也持有類似觀點(diǎn),認(rèn)為國家與地方政府應(yīng)當(dāng)每五年重新制定基本計劃,對機(jī)器人產(chǎn)業(yè)發(fā)展中長期戰(zhàn)略和機(jī)器人倫理審查規(guī)則等作出調(diào)整,以更好的適應(yīng)社會需求、增進(jìn)人類福祉。。在展開下文之前,需要說明四個問題:第一,本文引述了《歐洲機(jī)器人民法規(guī)則》的內(nèi)容,但不是對其簡單翻譯,而是結(jié)合民法理論對其所提出觀點(diǎn)之剖析;第二,本文從民法的視角對機(jī)器人定義、機(jī)器人倫理、機(jī)器人的替代責(zé)任進(jìn)行探討,機(jī)器人的制造規(guī)范、技術(shù)指標(biāo)、刑事責(zé)任、合同責(zé)任等不在本文討論范圍之內(nèi);第三,就機(jī)器人倫理規(guī)則的構(gòu)建而言,絕不是單一學(xué)科能夠解決的問題,需要從多學(xué)科的視角考察,包括但不限于:機(jī)器人科技、計算機(jī)科學(xué)、人工智能、哲學(xué)、倫理學(xué)、法學(xué)等學(xué)科[2],本文僅從民法視角進(jìn)行分析論證;第四,本文雖是以《歐洲機(jī)器人民法規(guī)則》為主要參考,卻并未局限于該資料,而是在綜合歐盟于2017年發(fā)布的《機(jī)器人民法規(guī)則》(Civil Law Rules on Robotics)、中國國家標(biāo)準(zhǔn)化委員會于2017年發(fā)布的《中國機(jī)器人標(biāo)準(zhǔn)化白皮書》、韓國于2008年所發(fā)布的《智能機(jī)器人發(fā)展與推廣促進(jìn)法案》(Intelligent Robots Development and Distribution Promotion Act)以及歐盟于2006年所發(fā)布的《機(jī)器人倫理路線圖》(EURON Roboethics Road?map)等資料基礎(chǔ)上的全面研究。

      二、已知與未知:人類眼中的機(jī)器人

      在展開論述之前,須澄清機(jī)器人的定義。它不僅體現(xiàn)著人類對機(jī)器人及人工智能產(chǎn)品之識別,還決定著“機(jī)器人”術(shù)語的影響力以及在未來所具有的生命力。在對機(jī)器人進(jìn)行定義時,我們需要明確:機(jī)器人與機(jī)器、人類的區(qū)別是什么?自動機(jī)器人與智能機(jī)器人的區(qū)別是什么?在研究機(jī)器人的影響力時,我們需要探討:人類社會是否歡迎機(jī)器人的出現(xiàn)?人類是否恐懼機(jī)器人的發(fā)展?

      (一)機(jī)器人的定義:基于已知的推斷

      當(dāng)前各國學(xué)者尚未對機(jī)器人的定義達(dá)成共識[3],這并不影響我們從民法的視角對機(jī)器人的定義進(jìn)行探討:一方面,機(jī)器人的定義必須足夠具體,能夠?qū)C(jī)器人與人類相區(qū)分,否則將引起民事主體制度的混亂;另一方面,機(jī)器人的定義必須足夠抽象,能夠涵蓋已出現(xiàn)的、將出現(xiàn)的機(jī)器人類別,否則將引起民事責(zé)任制度的混亂。因此,我們需要從機(jī)器人與機(jī)器、人類的區(qū)別中析出其基礎(chǔ)概念,再從機(jī)器人內(nèi)部的分類中描繪不同機(jī)器人的個性,并從個性中提取共性。

      1.人、機(jī)器與機(jī)器人

      第一,機(jī)器人與人類的相同之處在于相似的物理外表與可匹敵的工作能力。不同之處則不勝枚舉:前者是依靠制造技術(shù)誕生的非生物,后者是通過有性繁殖誕生的生物;前者依靠傳感器感知環(huán)境,后者依靠感官感受世界;前者受目標(biāo)驅(qū)動,能夠根據(jù)環(huán)境變化與用戶需求模擬不同情緒,后者受欲望驅(qū)動,有情感需求和感知痛苦的能力[4]。第二,機(jī)器人與機(jī)器的相同之處在于本質(zhì)上都是機(jī)械裝置。前者雖在外延上為后者所囊括,但二者在功能上依舊有諸多不同:前者有類似于人的物理外表,具有一定程度的自動化功能,可以在無人監(jiān)管的情況下獨(dú)立完成既定任務(wù);后者是操作平臺,需要依賴用戶指令或外部控制才能完成任務(wù)[5]。例如,在明知前方有人的情況下,挖掘機(jī)器人會自動暫停作業(yè),但機(jī)器卻不會停止前進(jìn)。綜上,機(jī)器人兼具機(jī)器的特征與人的特征,其中:是否是生物、能否繁殖、如何感知環(huán)境是區(qū)別人類與機(jī)器人的關(guān)鍵;是否在整體上或部分上具有類似于人的物理外表、是否依賴外部指令完成與環(huán)境的交互是區(qū)分機(jī)器人與機(jī)器的關(guān)鍵[6]。

      2.自動機(jī)器人與智能機(jī)器人

      自動機(jī)器人(autonomous robot)是“能夠從環(huán)境中獲取信息,并在無人干預(yù)的情況下根據(jù)既定程序完成操作的機(jī)器人”④見國際標(biāo)準(zhǔn)化組織于2012年發(fā)布的EN ISO 8373技術(shù)標(biāo)準(zhǔn)詞匯表2.9-2.13.,包括:工業(yè)機(jī)器人、服務(wù)機(jī)器人(不包括在生產(chǎn)、檢查、打包、集裝等行業(yè)的機(jī)器人)、個人助理機(jī)器人(例如管家機(jī)器人、移動助理機(jī)器人、寵物鍛煉機(jī)器人)、職業(yè)機(jī)器人(例如環(huán)衛(wèi)機(jī)器人,物流機(jī)器人,滅火機(jī)器人,復(fù)原機(jī)器人以及手術(shù)機(jī)器人)、移動機(jī)器人(在控制器干預(yù)和非干預(yù)情況下自主移動)⑤控制器是指以控制機(jī)器人抓取物體或移動物體為目的的裝置,由操作者通過編寫程序或輸入邏輯指令進(jìn)行控制(不包括末端執(zhí)行器)。關(guān)于控制器的定義,參見國際標(biāo)準(zhǔn)化組織于2012年發(fā)布的EN ISO 8373技術(shù)標(biāo)準(zhǔn)詞匯表2.1.。而智能機(jī)器人(smart robot)則是能夠通過感知周圍環(huán)境并且(或者)與外界交流而執(zhí)行任務(wù)并調(diào)整行為的機(jī)器人,比如能夠準(zhǔn)確拾起并擺放物件的工業(yè)機(jī)器人、能夠避免碰撞周圍物體的移動機(jī)器人、能夠在崎嶇不平的路面上行走的雙足機(jī)器人等[5]。智能機(jī)器人與自動機(jī)器人的不同之處在于前者不再是生產(chǎn)線上的固定型產(chǎn)品,而是具有判斷能力和適應(yīng)能力的、能夠根據(jù)周圍環(huán)境變化調(diào)整任務(wù)動作的調(diào)整型產(chǎn)品。由此顯見,自動機(jī)器人與智能機(jī)器人的根本差異在于:是否有調(diào)適能力。其一,之所以采用“調(diào)適能力”而未采用“自治能力”的表述,是因為機(jī)器人的“自治”只是在無人干預(yù)的情況下基于對即時環(huán)境的感知和判斷完成既定任務(wù)的技能⑥參見國際標(biāo)準(zhǔn)化組織于2012年發(fā)布的EN ISO 8373技術(shù)標(biāo)準(zhǔn)詞匯表2.2.。該“自治”是技術(shù)性自治、而非自發(fā)性自治[6]:不僅是否具有“自治能力”取決于設(shè)計者是否置入了令其可以根據(jù)環(huán)境進(jìn)行主動調(diào)適的代碼;而且“自治”的程度取決于設(shè)計者所置入的相關(guān)代碼的復(fù)雜程度[7]。其二,之所以采用“調(diào)適能力”而未采用“意識能力”的表述,一則因為“意識”的來源難以確定,它究竟是機(jī)器人自發(fā)產(chǎn)生的?是科學(xué)家設(shè)計的衍生物?還是用戶指令的結(jié)果?二則因為如果承認(rèn)機(jī)器人“有意識”,人類就必須如同尊重人權(quán)一樣尊重機(jī)器人的基本權(quán)利,并設(shè)計相應(yīng)的制度以保障其享有基本權(quán)利,這顯然與人類社會當(dāng)前所持的人類中心主義價值觀相違背。雖然有學(xué)者認(rèn)為可以用“阿西莫夫定律”對機(jī)器人的意識加以約束⑦“阿西莫夫定律”是作家埃塞克·阿西莫夫在其文學(xué)作品《我,機(jī)器人》中所創(chuàng)造的機(jī)器人法則,其目的是約束機(jī)器人、保護(hù)人類,由四條規(guī)則構(gòu)成:第一,機(jī)器人不得傷害人類,或因不作為而使人類受到傷害;第二,除非違背第一定律,機(jī)器人必須服從人類的命令;第三,除非違背第一及第二定律,機(jī)器人必須保護(hù)自己;第零,機(jī)器人不得傷害人類整體,或因不作為而使人類整體受到傷害。參見Issac Assimov.I,Robot[M].New York:Rebound by Sagebrush,1991:50.,但該定律在用語上既不符合法律語言所特有的精確性,也不符合機(jī)器語言的可操作性、無法轉(zhuǎn)換成機(jī)器代碼置入程序[8]。例如,如何界定機(jī)器人對人類的“傷害”?如何界定機(jī)器人的“不作為”?

      綜合上述分析,可以得出如下結(jié)論:機(jī)器人是具有類似于人的物理外表和調(diào)適能力的,在無外界干預(yù)下能夠通過傳感器完成環(huán)境交互、獨(dú)立判斷、決策執(zhí)行的機(jī)械裝置。

      (二)機(jī)器人的影響:基于未知的恐懼

      從二十世紀(jì)中葉開始,機(jī)器人產(chǎn)業(yè)嶄露頭角[9]。從制造領(lǐng)域的機(jī)器人到工業(yè)領(lǐng)域的機(jī)器人、從軍用機(jī)器人到民用機(jī)器人、從商業(yè)機(jī)器人到生活機(jī)器人,機(jī)器人的類別不斷豐富、技能不斷拓展。不論是在娛樂領(lǐng)域、養(yǎng)護(hù)領(lǐng)域,是在搜救領(lǐng)域、家庭領(lǐng)域,還是在教育領(lǐng)域、文化領(lǐng)域,人類似乎已經(jīng)很難離開來自機(jī)器人“無微不至”的幫助[12]。但是,在享受機(jī)器人所帶來便利的同時,人類卻似乎并未打算如同接納法人一樣將機(jī)器人接納為社會主體,甚至表現(xiàn)出了對機(jī)器人的恐懼[10]。究其原因:一則源于歷史,恐懼機(jī)器人將“鳩占鵲巢”的取代人類;二則源于文化,恐懼機(jī)器人將“反客為主”地控制人類。

      1.來自歷史的恐懼:機(jī)器人將取代人類

      雖然機(jī)器人產(chǎn)業(yè)有力地促進(jìn)了歐洲經(jīng)濟(jì)的發(fā)展[7],但西方社會對于“機(jī)器人將取代人類”的論斷依然有著根深蒂固的恐懼[11]。追根溯源,不難發(fā)現(xiàn)西方社會對機(jī)器人的恐懼非形成于一夕之間。十九世紀(jì)初期,隨著工業(yè)革命的發(fā)生,大量機(jī)器被制造出來用于取代人力,無數(shù)手工業(yè)者因此失業(yè)。英國的“織布工內(nèi)德·盧德怒砸織布機(jī)”成為手工業(yè)者抵觸機(jī)械化大生產(chǎn)的標(biāo)志事件。為了禁止更多“盧德分子”的出現(xiàn),保護(hù)企業(yè)財產(chǎn)、防止社會動亂,英國于1812年出臺了《工業(yè)破壞限制法案》(Frame-Breaking Act)與《惡意破壞法案》(Malicious Damage Act of 1812),明確將破壞機(jī)器的行為定為嚴(yán)重罪行??梢?,從“盧德運(yùn)動”開始,西方社會就已形成了“機(jī)器廣泛使用將導(dǎo)致人類失業(yè)”的思維習(xí)慣,因此不難理解當(dāng)機(jī)器人開始被廣泛使用時,他們對機(jī)器人的抵觸和恐懼。誠然,如果機(jī)器人產(chǎn)業(yè)的發(fā)展不受規(guī)制,受影響的將不只是技術(shù)含量低的從業(yè)人員,技術(shù)含量高的從業(yè)人員(如教師、程序員)也將面臨失業(yè)。如果國家不對機(jī)器人產(chǎn)業(yè)發(fā)展的方向進(jìn)行引導(dǎo)和規(guī)范,不對機(jī)器人功能的研發(fā)進(jìn)行限制和約束,二十一世紀(jì)的人類很有可能會成為“垮掉的一代”[7]。

      2.來自文化的恐懼:機(jī)器人將毀滅人類

      在希伯來魔像傳說的影響下,西方社會對機(jī)器人充滿恐懼,擔(dān)憂人類會有被其控制的一天[12]。2007年,美國科學(xué)家比爾·喬伊曾發(fā)表“智能機(jī)器人將會使人類瀕臨滅絕”的言論,并呼吁科學(xué)家停止研發(fā)智能機(jī)器人,并稱一旦智能機(jī)器人升級換代,人類對其的監(jiān)管便可能出現(xiàn)滯后或根本無力監(jiān)管[13];在2014年至2015年短短兩年時間內(nèi),比爾·蓋茨、史蒂芬·霍金、利隆·馬斯克就相繼發(fā)表了“人工智能可能毀滅人類”的言論[14]。在文學(xué)作品和社會輿論的警示下,公眾對已廣泛運(yùn)用于社會各領(lǐng)域的機(jī)器人的恐懼逐漸彌漫開來:恐懼機(jī)器人會完全取代人類勞動力、恐懼機(jī)器人的技術(shù)能力不具有穩(wěn)定性、恐懼服務(wù)機(jī)器人會使人類形成技術(shù)依賴、恐懼生活機(jī)器人會侵害人類隱私、恐懼機(jī)器人的自主學(xué)習(xí)能力會導(dǎo)致其行為的不可預(yù)測、恐懼機(jī)器人致人損害后責(zé)任無人承擔(dān)、恐懼戶外機(jī)器人會造成環(huán)境資源被過度開發(fā)、恐懼機(jī)器人的存在會擾亂生物圈、恐懼醫(yī)療護(hù)理機(jī)器人會危及人類健康與安全、恐懼軍事機(jī)器人無法應(yīng)對敵方突發(fā)復(fù)雜情況、恐懼人機(jī)混合作戰(zhàn)中人類會出現(xiàn)心理疾病、恐懼教育娛樂機(jī)器人會逐漸消泯人類創(chuàng)造力等[2]。因此,就在公眾易于把機(jī)器人與人類毀滅聯(lián)系起來時,如果他們意識到政府正不遺余力地大力發(fā)展機(jī)器人產(chǎn)業(yè),便可能會出現(xiàn)大面積恐慌,更可能會出現(xiàn)公眾自愿以犧牲生活便捷為代價要求科研人員停止研發(fā)機(jī)器人的情形。如若如此,科學(xué)研究將停滯,經(jīng)濟(jì)發(fā)展的原有節(jié)奏會被擾亂,“智能”一詞也將永遠(yuǎn)存在于文學(xué)作品中。為了緩釋人們對于機(jī)器人的恐懼,也許通過設(shè)置監(jiān)管機(jī)構(gòu),從技術(shù)研發(fā)、生產(chǎn)流通、消費(fèi)使用等環(huán)節(jié)進(jìn)行規(guī)范效果更佳,更能在科學(xué)技術(shù)發(fā)展和社會秩序穩(wěn)定之間實現(xiàn)平衡。有趣的是,與西方社會公眾對機(jī)器人“需要又恐懼”的矛盾心理相比,東方社會公眾似乎更平和包容。大多數(shù)人未將機(jī)器人視為危險的存在物,反而認(rèn)為機(jī)器人是人類的朋友。例如,在二戰(zhàn)后,“鐵臂阿童木”成為日本家喻戶曉的卡通形象,作為仿生人的阿童木能辨善惡、保護(hù)人類,它正面陽光的人設(shè)為日本社會建立起來機(jī)器人的正面形象[7]。可見,民族文化的差異會影響不同國家對機(jī)器人的態(tài)度及立法。

      三、約束與平衡:機(jī)器人倫理規(guī)則的構(gòu)建

      人類與機(jī)器人共存是未來社會發(fā)展之趨勢,人機(jī)共存將在倫理層面產(chǎn)生諸多問題。部分公眾已經(jīng)開始呼吁政府叫?;驀?yán)格控制機(jī)器人相關(guān)研究的發(fā)展,并提出了“機(jī)器人能夠分辨善惡嗎?”、“機(jī)器人會做壞事或者會被用于恐怖活動嗎?”、“機(jī)器人會對人類生存構(gòu)成威脅嗎?”等疑問[2]。如何設(shè)計一個框架式的倫理規(guī)則,涵蓋機(jī)器人的設(shè)計、制造、流通、使用等過程,對于促進(jìn)科技發(fā)展與保護(hù)人類福祉至關(guān)重要。

      (一)何為機(jī)器人倫理規(guī)則?

      根據(jù)《牛津哲學(xué)字典》,倫理學(xué)是指對人類行為進(jìn)行評價的哲學(xué)分支[15]。倫理與道德的關(guān)系十分微妙:一方面,二者在詞根上都來源于“習(xí)慣”,倫理(ethic)來源于希臘文中的習(xí)慣(ethos),道德(morality)來源于拉丁文中的習(xí)慣(mos/moris);另一方面,二者側(cè)重點(diǎn)不同,倫理側(cè)重于約束個人與他人、個人與社會的關(guān)系,道德則側(cè)重于約束個人自身的行為。換言之,倫理更注重調(diào)整具有公共性質(zhì)的社會關(guān)系,而道德更側(cè)重于約束具有私人性質(zhì)的社會關(guān)系。因此,雖然在不同的宗教信仰、民族文化下,各國可能無法在道德準(zhǔn)則上達(dá)成一致,但不同文化、地域、政體的國家可以在倫理規(guī)則上達(dá)成共識并相互借鑒[2]。

      機(jī)器人倫理(roboethics)的概念最早由科學(xué)家Gianmarco Veruggio在2002年主持歐洲機(jī)器人研究網(wǎng)絡(luò)論壇時提出[16]。他認(rèn)為機(jī)器人倫理規(guī)則是在設(shè)計、生產(chǎn)、使用機(jī)器人過程中人類應(yīng)當(dāng)遵守的倫理規(guī)則,該規(guī)則雖然是為約束機(jī)器人的行為而設(shè),但作用對象卻應(yīng)當(dāng)是人類,包括機(jī)器人的設(shè)計者、生產(chǎn)者和使用者[17]⑧機(jī)器人倫理不同于機(jī)器倫理,后者是讓機(jī)器人自己遵守倫理規(guī)則。時至今日,機(jī)器倫理依然處于理論層面,因為即便是智能機(jī)器人也無法保證能夠做出符合道德的決定。例如,韓國在《智能機(jī)器人發(fā)展與推廣促進(jìn)法案》第18條中便明確了機(jī)器人倫理憲章的作用對象是機(jī)器人的開發(fā)者、生產(chǎn)者、使用者。。其后,機(jī)器人倫理的概念開始被廣泛運(yùn)用于各官方出版物和行業(yè)規(guī)范:2014年,第一屆“機(jī)器人的倫理、社會、人道主義和生態(tài)”機(jī)器人倫理國際論壇上(First International Symposium on Roboethics),主辦方正式采用了機(jī)器人倫理的概念[2];2006年,第一張機(jī)器人倫理路線圖發(fā)布,不僅對未來機(jī)器人設(shè)計、生產(chǎn)、使用過程中可能出現(xiàn)的倫理風(fēng)險進(jìn)行了評估,也對機(jī)器人倫理規(guī)則的構(gòu)建提出了導(dǎo)向性原則,即尊重人類尊嚴(yán)原則、保護(hù)人權(quán)原則、平等原則、公平原則、公正原則、尊重文化多樣性原則、不歧視原則、不污名化原則、個人責(zé)任原則、知情同意原則、尊重隱私原則、保密原則、團(tuán)結(jié)合作原則、社會責(zé)任原則、利益共享原則、尊重生物圈原則[2];2014年歐洲機(jī)器人法聯(lián)盟發(fā)布了世界上第一份《機(jī)器人規(guī)范指引》(The Guideline on Regulating Robotics),對無人駕駛機(jī)器人、手術(shù)機(jī)器人、假體機(jī)器人、護(hù)理機(jī)器人運(yùn)用過程中的倫理問題進(jìn)行了分析。

      (二)機(jī)器人倫理規(guī)則框架的構(gòu)建

      在討論具體規(guī)則之前,需要明確相關(guān)術(shù)語的定義。所謂機(jī)器人的設(shè)計者,是指包括算法設(shè)計、程序設(shè)計等在內(nèi)的參與機(jī)器人設(shè)計的人;所謂機(jī)器人的使用者,是指購入機(jī)器人自用或用于便利、服務(wù)他人的人;所謂機(jī)器人的服務(wù)對象,是指直接受惠于機(jī)器人技能的人,例如病人、殘疾人、兒童、老年人等;所謂機(jī)器人的監(jiān)管者,是指對機(jī)器人科技以及機(jī)器人產(chǎn)業(yè)發(fā)展進(jìn)行監(jiān)督管理的機(jī)構(gòu)。以下將從規(guī)則內(nèi)容、約束對象、主要涉及的機(jī)器人類型三方面論述九條主要機(jī)器人倫理規(guī)則。其中,規(guī)則一、規(guī)則二基于人權(quán)保護(hù)價值構(gòu)建;規(guī)則三至規(guī)則五基于自由價值構(gòu)建;規(guī)則六、規(guī)則七基于安全價值構(gòu)建;規(guī)則八、規(guī)則九基于平等與發(fā)展價值構(gòu)建。

      規(guī)則一:機(jī)器人不得傷害人類。該規(guī)則基于人權(quán)保護(hù)價值提出,約束對象是機(jī)器人的設(shè)計者和使用者。該規(guī)則為機(jī)器人倫理規(guī)則的基石。因為根據(jù)《歐盟基本權(quán)利憲章》第3條第1款和《歐洲人權(quán)公約》第2條第1款、第3條,人類尊嚴(yán)是人權(quán)的基礎(chǔ),神圣不可侵犯、應(yīng)受尊重與保護(hù)。例如,當(dāng)技術(shù)人員操作醫(yī)療護(hù)理機(jī)器人時,若因為設(shè)計者在程序設(shè)定上的過錯或使用者疏于對機(jī)器人進(jìn)行保養(yǎng)而致病人損害,則構(gòu)成了對該規(guī)則的違反[7]。

      表1 機(jī)器人主要倫理規(guī)則框架簡表

      規(guī)則二:人類可拒絕機(jī)器人服務(wù)。該規(guī)則基于人權(quán)保護(hù)價值提出,約束對象是機(jī)器人的設(shè)計者和使用者,其實質(zhì)是對規(guī)則一的延伸。例如,當(dāng)機(jī)器人為老年人或殘疾人服務(wù)的時候,人類可以拒絕受其照料。這一規(guī)則中包含兩個子規(guī)則:其一,當(dāng)機(jī)器人提供服務(wù)時,無須以產(chǎn)生具體損害事實為必要,只要人類覺得不適,可立刻拒絕被服務(wù);其二,在機(jī)器人開展服務(wù)工作之前,應(yīng)當(dāng)首先取得服務(wù)對象的明確同意[6]。

      規(guī)則三:人類在機(jī)器人面前有人身自由。該規(guī)則基于自由價值提出,約束對象是機(jī)器人的設(shè)計者,其實質(zhì)是對價值位階的排序,即當(dāng)保障自由與保護(hù)健康安全相沖突的時候,應(yīng)優(yōu)先保證人類自由。例如,安保機(jī)器人可能會對小偷的人身自由進(jìn)行限制、可能會對試圖離家出走的孩童的人身自由進(jìn)行限制、可能會對想要喝酒的病人的人身自由進(jìn)行限制。即便在前述情況下,機(jī)器人也應(yīng)當(dāng)尊重人類的人身自由、服從人類指令,除非該指令有可能損害其自身或第三人的人身、財產(chǎn)安全。如果人類的指令確有傷害其自身的可能,機(jī)器人應(yīng)根據(jù)所服務(wù)對象的智力水平、意識程度、理解能力明確預(yù)警;如果人類發(fā)出的指令可能損害第三人、社會公共安全,設(shè)計者則應(yīng)賦予機(jī)器人否決權(quán),以避免被人類用作武器[7]。

      規(guī)則四:機(jī)器人不得控制人類。該規(guī)則基于自由價值提出,約束對象是機(jī)器人的設(shè)計者。例如,為了使人類更容易接受陪護(hù)機(jī)器人或家政機(jī)器人,設(shè)計者會有意識的令機(jī)器人具有“情緒”,使之能夠模仿人類的面部表情,進(jìn)行互動,甚至?xí)噩F(xiàn)已逝親友的面容、聲音。而這樣的互動可能會使老年人、殘疾人、病人、兒童等弱勢群體產(chǎn)生幻覺,誤以為與其交流互動的是人類,從而在決策上形成依賴,最終被機(jī)器人控制[7]。因此,設(shè)計者應(yīng)當(dāng)避免在機(jī)器人中置入情緒模塊,避免使人類產(chǎn)生依賴機(jī)器人的可能。

      規(guī)則五:機(jī)器人不得長時間與人類獨(dú)處。該規(guī)則基于自由價值提出,約束對象是機(jī)器人的設(shè)計者。例如,當(dāng)人們發(fā)現(xiàn)一次性購置醫(yī)療護(hù)理機(jī)器人、陪護(hù)機(jī)器人、教育機(jī)器人的費(fèi)用遠(yuǎn)遠(yuǎn)少于連續(xù)支付人類護(hù)工、支付學(xué)校教育的費(fèi)用后,會產(chǎn)生寧愿在家安度晚年或在家自學(xué)的趨勢。該趨勢可能會使人類與機(jī)器人的交流成為常態(tài),而使人類與人類的交流成為例外,從而產(chǎn)生主動或被動阻隔人類社會聯(lián)系的效果。因此,設(shè)計者應(yīng)當(dāng)遵循如下原則:當(dāng)人類與機(jī)器人的完全獨(dú)處超過固定時限時,應(yīng)令機(jī)器人暫停工作,以避免人類完全放棄社交,罹患心理疾病[7]。

      規(guī)則六:機(jī)器人不得侵害人類隱私。該規(guī)則基于安全價值提出,約束對象是機(jī)器人的設(shè)計者和使用者。例如,生活助手機(jī)器人、辦公助手機(jī)器人、安保機(jī)器人、醫(yī)療護(hù)理機(jī)器人、家庭陪伴機(jī)器人基于其工作任務(wù)的特性,有機(jī)會接觸到大量與隱私相關(guān)的數(shù)據(jù)與信息。在此情形中,不僅機(jī)器人服務(wù)對象的隱私可能會遭到窺探、竊取、傳播,而且該服務(wù)對象親友的隱私也有可能會遭到侵害。因此,對人類隱私的保護(hù)不僅要考慮到對隱私的保護(hù)程度,對侵害隱私的懲罰程度,還要考慮到隱私權(quán)主體同意隱私暴露的程度(該“同意”應(yīng)當(dāng)直接來自于機(jī)器人服務(wù)對象本身,而不是機(jī)器人的使用者,否則很有可能出現(xiàn)第三方利用機(jī)器人獲取他人隱私的行為)[7]。

      規(guī)則七:機(jī)器人不得擅自處理人類數(shù)據(jù)。該規(guī)則基于安全價值提出,約束對象是機(jī)器人的設(shè)計者和使用者。例如自動駕駛汽車、無人機(jī)、私人助理機(jī)器人以及安保機(jī)器人會基于其傳感器進(jìn)行數(shù)據(jù)處理和數(shù)據(jù)交流,而這種交流是難以察覺或追蹤的。因此,機(jī)器人不得擅自處理人類數(shù)據(jù)的規(guī)則必須從機(jī)器人的設(shè)計階段就開始遵守,并且機(jī)器人對數(shù)據(jù)的收集、分析、處理、交換、傳播必須直接得到服務(wù)對象的同意(此處的“數(shù)據(jù)同意”與規(guī)則六中的“隱私同意”原理類似,不再贅述)[7]。

      規(guī)則八:人類有使用機(jī)器人的平等權(quán)利。該規(guī)則基于平等價值提出,約束對象是監(jiān)管者。監(jiān)管者應(yīng)在社會保障、稅收等方面建立配套制度,以保證科技的福利平等惠及每一個人。在這一點(diǎn)上可參考韓國《智能機(jī)器人發(fā)展與推廣促進(jìn)法案》,其中規(guī)定國家有責(zé)任開發(fā)、推廣機(jī)器人,并有義務(wù)向公眾介紹使用機(jī)器人應(yīng)遵守的法律規(guī)范、公共政策、倫理規(guī)則[7]。

      規(guī)則九:限制人類提高機(jī)器人科技。該規(guī)則基于發(fā)展價值提出,約束對象是監(jiān)管者。監(jiān)管者主要應(yīng)從如下三方面進(jìn)行限制:其一,從設(shè)計目的上進(jìn)行限制,應(yīng)規(guī)定機(jī)器人科技的發(fā)展只能著眼于彌補(bǔ)人類工作能力上的缺陷或不足,而不能試圖讓機(jī)器人取代人類⑨例如在醫(yī)療機(jī)器人的設(shè)計中,應(yīng)秉持的原則是:令醫(yī)生可以在機(jī)器人的幫助下更準(zhǔn)確的診斷疾病,更有效的實施手術(shù),以達(dá)到減少失誤和風(fēng)險的可能;而不是試圖讓機(jī)器人取代醫(yī)生在診療活動中的角色和作用。,例如,應(yīng)限制后人類主義科學(xué)家對人類和機(jī)器人混合體(電子人cyborg)的研發(fā)[8];其二,從機(jī)器人的自治程度上進(jìn)行限制,確保人類隨時對機(jī)器人享有絕對控制權(quán),并規(guī)定機(jī)器人應(yīng)當(dāng)配備“黑匣子”,以記錄其決策過程(決策時間、決策原因、決策邏輯、決策執(zhí)行)[8];其三,從機(jī)器人的情緒設(shè)計上進(jìn)行限制,確保機(jī)器人不會與人類(尤其是兒童、老年人、殘疾人等弱勢群體)產(chǎn)生情感聯(lián)系[8]。

      四、責(zé)任主體與責(zé)任承擔(dān):機(jī)器人致人損害的民事責(zé)任

      機(jī)器人在給社會發(fā)展、人類生活帶來便利的同時,也可能對人類的人身、財產(chǎn)安全造成損害:物流機(jī)器人在運(yùn)送貨物過程中可能發(fā)生交通事故,造成物品毀損;陪護(hù)機(jī)器人在看管孩童的過程中可能發(fā)生疏忽,造成孩童的傷亡;個人助手機(jī)器人在處理數(shù)據(jù)的過程中可能發(fā)生數(shù)據(jù)泄露,侵害人類隱私;工業(yè)機(jī)器人在生產(chǎn)過程中可能發(fā)生流程錯誤,造成產(chǎn)品缺陷從而致人傷殘;手術(shù)機(jī)器人在工作過程中可能發(fā)生意外,損害人類的身體健康和生命安全;建筑機(jī)器人在修建過程中可能發(fā)生堆放錯誤,造成物件倒塌致人損害;寫作機(jī)器人在創(chuàng)作過程中可能發(fā)生抄襲,侵犯他人著作權(quán)……類似情況中,機(jī)器人是否應(yīng)當(dāng)承擔(dān)民事責(zé)任?如何承擔(dān)民事責(zé)任?

      (一)機(jī)器人的法律地位

      在討論機(jī)器人致人損害民事責(zé)任承擔(dān)之前,需要明確機(jī)器人的法律地位。它是否可以類推適用法人制度、被賦予法律人格?人格一詞衍生于拉丁文中的“面具”[18],法律人格是指享有權(quán)利、承擔(dān)義務(wù)的主體[19]。從身為人類的奴隸、女性不具有法律人格到作為擬制人的法人被賦予法律人格,民事主體制度經(jīng)歷了從“人可非人”到“非人可人”的演變。與自然人、法人不同,如果因為需要規(guī)范機(jī)器人的行為、為機(jī)器人行為的法律后果找到責(zé)任主體就賦予機(jī)器人法律人格,將造成現(xiàn)行法律體系之紊亂。第一,法律確實可以強(qiáng)令某物成為法律主體,使其承擔(dān)對他人的義務(wù)并享有自己的合法權(quán)利。但這一切都建立在“法律對某物的行為有約束機(jī)制,某物能夠基于對自己行為后果的預(yù)測趨利避害”的基礎(chǔ)之上[20]。機(jī)器人雖有類似于人的物理外表,也能夠通過傳感器感知環(huán)境、獨(dú)立思考、做出決策,但其實質(zhì)是機(jī)械裝置,法律對其行為無約束機(jī)制,機(jī)器人也無法對其行為后果進(jìn)行預(yù)測。第二,法人之所以獲得法律人格,實則是立法者為了從實體法上保護(hù)其身后人類的利益(股東、債權(quán)人、利益相關(guān)者),并從程序法上為其身后的人類維護(hù)權(quán)益提供便利[19]。該情況不能類推適用于機(jī)器人,雖然機(jī)器人也廣泛參與經(jīng)濟(jì)生活,但其身后并無人類利益。如果如部分學(xué)者所提議,賦予機(jī)器人法律人格,再令自然人作為其代理人,這顯然和賦予機(jī)器人法律人格的初衷相違背[7]。實際上,如果只是要解決機(jī)器人行為致人損害法律責(zé)任的問題,完全可以借助保險制度或賠償基金來解決,無須上升到賦予法律人格的地步[7]。第三,正如離開財產(chǎn)談所有權(quán)無意義一般,離開法律關(guān)系討論法律人格亦無意義[19]。賦予機(jī)器人法律人格將對整個法律體系造成連鎖反應(yīng)。就權(quán)利層面而言,我們應(yīng)認(rèn)可機(jī)器人的什么權(quán)利?生命權(quán)?健康權(quán)?與人類平等的權(quán)利?退休的權(quán)利?工業(yè)機(jī)器人是否有權(quán)拒絕在危險環(huán)境中工作以避免受傷?農(nóng)業(yè)機(jī)器人是否有權(quán)請假休息?護(hù)理機(jī)器人是否有權(quán)請求薪金?如果答案是肯定的,我們購置機(jī)器人的目的何在[7]?此外,賦予機(jī)器人法律人格將會模糊人類與機(jī)器人的界限、模糊人與非人的界限,加深人類對于科技的恐懼[7]。因此,在當(dāng)前社會狀態(tài)下,即便賦予機(jī)器人法律人格,也無異于一紙空文,無實際意義。

      (二)機(jī)器人致人損害的責(zé)任主體

      在確定機(jī)器人不應(yīng)被賦予法律人格后,需要解決的問題便是:在發(fā)生機(jī)器人致人損害的情形中,侵權(quán)責(zé)任應(yīng)當(dāng)由誰承擔(dān)?隨著科技的迅猛發(fā)展,機(jī)器人已經(jīng)從只能協(xié)助人類完成任務(wù)演進(jìn)為可以替代人類完成任務(wù),已經(jīng)從只能協(xié)助人類執(zhí)行決策演進(jìn)為可以替代人類獨(dú)立決策。所謂機(jī)器人的獨(dú)立決策能力,即機(jī)器人在不受外部控制或影響下所具有的做出決定并將該決定付諸實踐的能力。該決策能力的強(qiáng)弱取決于人類在設(shè)計機(jī)器人時所設(shè)定的機(jī)器人與周圍環(huán)境的交流能力的強(qiáng)弱。機(jī)器人的決策能力越高,生產(chǎn)者、使用者、所有者對其的控制力就越低。因此,當(dāng)機(jī)器人致人損害的時候,便會產(chǎn)生“該侵害行為所造成的損害究竟應(yīng)當(dāng)由誰來承擔(dān)的責(zé)任”的問題[8]。

      首先需要明確的是:“機(jī)器人的責(zé)任”(robots’lia?bility)的表述是不規(guī)范的,因為該術(shù)語暗含的邏輯是機(jī)器人已經(jīng)是一個可以承擔(dān)責(zé)任的主體了。規(guī)范的表述應(yīng)當(dāng)是“對機(jī)器人的替代責(zé)任”(vicarious liabili?ty for robots)[7]。其次,在分析機(jī)器人致人損害責(zé)任時,應(yīng)當(dāng)盡量利用現(xiàn)有的民事責(zé)任體系進(jìn)行認(rèn)定。自動機(jī)器人致人損害的民事責(zé)任問題較為簡單,可以適用產(chǎn)品責(zé)任予以解決:包括生產(chǎn)者沒有向消費(fèi)者履行告知義務(wù);生產(chǎn)者沒有向消費(fèi)者履行提醒義務(wù)(提醒機(jī)器人使用過程中所可能產(chǎn)生的危險);機(jī)器人的安全系統(tǒng)存在可能致人損害的缺陷等情形。但是智能機(jī)器人致人損害的民事責(zé)任問題則較為復(fù)雜,因為其所具有的自主學(xué)習(xí)能力直接影響到對損害發(fā)生原因的認(rèn)定(例如,在機(jī)器人有自主學(xué)習(xí)能力的情況下,需要證明該損害的發(fā)生究竟是生產(chǎn)者的過錯還是用戶的過錯)。對于此問題,學(xué)者們提出了一些觀點(diǎn):有學(xué)者認(rèn)為應(yīng)當(dāng)認(rèn)可機(jī)器人的法律人格,令其對自己的行為獨(dú)立承擔(dān)責(zé)任[21];有學(xué)者認(rèn)為應(yīng)當(dāng)適用嚴(yán)格責(zé)任,只要用戶能夠證明損害已經(jīng)發(fā)生并且在機(jī)器人的行為和損害發(fā)生之間有因果關(guān)系,則應(yīng)令機(jī)器人承擔(dān)民事責(zé)任[21];有學(xué)者認(rèn)為可根據(jù)機(jī)器人的自主學(xué)習(xí)能力強(qiáng)弱和獲取知識的來源進(jìn)行認(rèn)定,即機(jī)器人的自主學(xué)習(xí)能力越強(qiáng),其他當(dāng)事人的責(zé)任就越輕,機(jī)器人受到的教育時間越長,其“老師”的責(zé)任就越重[21]。但以上提議的實質(zhì)均是在傳統(tǒng)侵權(quán)責(zé)任體系之外的新架構(gòu)。暫且不論諸上提議在邏輯上是否能與傳統(tǒng)侵權(quán)責(zé)任體系形成銜接,就如上新架構(gòu)本身而言,在司法實踐中也存在適用問題:例如當(dāng)損害發(fā)生時,案涉當(dāng)事人可能會根據(jù)自己的情況主張適用對自己最有利的歸責(zé)原則;又如法官在審理案件時不得不承擔(dān)較重的分析責(zé)任(對每一個案件中機(jī)器人的類別歸屬進(jìn)行判斷,對每一個判斷尋求專家意見)。這無疑會增加司法成本、浪費(fèi)司法資源、拖慢訴訟進(jìn)程。因此,應(yīng)當(dāng)盡量在現(xiàn)行法律框架內(nèi)利用替代責(zé)任解決機(jī)器人致人損害民事責(zé)任承擔(dān)的問題。

      1.路徑一:根據(jù)算法類型認(rèn)定責(zé)任主體

      表2 機(jī)器人致人損害替代責(zé)任分析

      根據(jù)表2,簡要分析如下:

      情形一:如果機(jī)器人屬于算法開放型,即用戶在購入機(jī)器人后可自行編寫算法并寫入機(jī)器人,則應(yīng)當(dāng)適用一般侵權(quán)責(zé)任的歸責(zé)原則,令致人損害的算法寫入者(機(jī)器人生產(chǎn)者或修改算法的用戶)承擔(dān)民事責(zé)任(對自己造成損害的時候,自負(fù)其責(zé);對他人造成損害的時候,承擔(dān)替代責(zé)任)。在認(rèn)定算法寫入者身份時,可根據(jù)機(jī)器人代碼的修改記錄予以辨明。

      情形二:如果機(jī)器人屬于算法開放型,用戶是在租用他人機(jī)器人的過程中產(chǎn)生損害,若其不能證明自己在使用機(jī)器人過程中未修改算法,則須自行承擔(dān)損害;若其能夠證明自己未修改算法,則宜令其出租人承擔(dān)責(zé)任。鑒于機(jī)器人技能儲備的累積性,機(jī)器人與周圍環(huán)境的交互的微弱預(yù)見性和難以追蹤性,在未修改代碼的情況下,很難確定在一系列承租人中究竟是哪一個當(dāng)事人發(fā)出的指令或傳授的技能致人損害,此時若令某個承租人獨(dú)立承擔(dān)責(zé)任或者令多個承租人承擔(dān)連帶責(zé)任顯然有違公平原則,令出租人承擔(dān)民事責(zé)任既可敦促其謹(jǐn)慎選擇承租人,也方便被侵害人維權(quán)[7]。

      情形三:如果機(jī)器人屬于算法封閉型,用戶若在使用機(jī)器人過程中遭受損害,則鑒于機(jī)器人內(nèi)置算法的不可修改性,應(yīng)當(dāng)在此處適用產(chǎn)品責(zé)任,令機(jī)器人的生產(chǎn)者與銷售者承擔(dān)連帶責(zé)任。但在此類情況中還需根據(jù)被侵害人類型分情況討論:如被侵害人是用戶,則發(fā)生合同責(zé)任與侵權(quán)責(zé)任的競合;如被侵害人是第三人,則應(yīng)當(dāng)適用侵權(quán)責(zé)任。

      情形四:如果機(jī)器人屬于算法封閉型,用戶是在使用他人機(jī)器人過程中遭受損害,此處應(yīng)分情況討論:若該用戶是消費(fèi)者,應(yīng)適用產(chǎn)品責(zé)任,令機(jī)器人的生產(chǎn)者與銷售者承擔(dān)連帶責(zé)任;若該用戶是勞動者(機(jī)器人產(chǎn)業(yè)工作人員),則應(yīng)適用勞動法,令其雇主承擔(dān)責(zé)任。

      2.路徑二:根據(jù)損害類型認(rèn)定責(zé)任主體

      表3 機(jī)器人致人損害類型分析

      根據(jù)表3,簡要分析如下:

      情形一:因意外事故造成的損害。一方面,機(jī)器人在使用的過程中,可能會對其所有者的人身、財產(chǎn)造成損害(例如自動駕駛過程中造成的車輛損壞或人員傷亡),另一方面,機(jī)器人在使用過程中,可能會對他人的人身、財產(chǎn)造成損害(例如快遞機(jī)器人在搬運(yùn)物品時丟失他人包裹等情況)。在性質(zhì)上,此類損害是不可預(yù)見也不可避免的,可被視為正常工作中不可避免的意外損害,因此,在責(zé)任主體的分配上,根據(jù)過錯責(zé)任原則,宜將機(jī)器人的所有者或管理者認(rèn)定為責(zé)任主體,畢竟風(fēng)險與收益同在。

      情形二:因機(jī)器人智能決策造成的損害。此類損害的發(fā)生主要源于算法價值排序,因為在損害可能發(fā)生時,機(jī)器人會根據(jù)算法價值做出決策。例如,手術(shù)機(jī)器人的算法價值排序首位是手術(shù)的成功率(機(jī)器人會在必要時為提高手術(shù)成功率而忽略可能對病人造成的副作用);又如,自動駕駛機(jī)器人的算法價值排序首位是最短時間抵達(dá)目的地(機(jī)器人會在必要時忽視交通規(guī)則以提高通行效率)。因此,在責(zé)任主體的分配上,根據(jù)過錯責(zé)任原則,宜將機(jī)器人的生產(chǎn)者認(rèn)定為責(zé)任主體。

      情形三:因機(jī)器人設(shè)計缺陷造成的損害。此類損害的發(fā)生主要源于產(chǎn)品的設(shè)計缺陷。根據(jù)媒體報道,曾經(jīng)發(fā)生機(jī)器人越過生產(chǎn)區(qū)進(jìn)入辦公區(qū),將辦公人員當(dāng)成產(chǎn)品予以組裝的事件[22],也發(fā)生過自動駕駛機(jī)器人未對突發(fā)情況作出反映,導(dǎo)致行人死亡事件[23]。在此類情況下,宜適用產(chǎn)品責(zé)任,令機(jī)器人的生產(chǎn)者與銷售者承擔(dān)連帶責(zé)任。

      情形四:因用戶不當(dāng)使用行為造成的損害。此類損害的發(fā)生主要源于機(jī)器人的深度學(xué)習(xí)能力。例如,2016年微軟設(shè)計出了一款聊天機(jī)器人Tay。在短短投入使用10余小時后,因用戶故意對Tay發(fā)送不當(dāng)言論而使Tay出口成臟、損及他人名譽(yù)[24]。在此類情形中,宜適用過錯責(zé)任原則,令具體的使用者承擔(dān)責(zé)任。

      情形五:因機(jī)器人讀取能力的有限性而造成的損害。此類損害的發(fā)生主要源于算法的不明確或不準(zhǔn)確。例如,當(dāng)算法告知機(jī)器人在自動駕駛過程中不能跨越雙實線且未提供除外條件時,可能會出現(xiàn)如下情況:有小孩突然跑出,只有跨越雙實線做臨時躲避駕駛才能避免小孩傷亡,機(jī)器人仍執(zhí)行不能跨越雙實線指令,導(dǎo)致小孩傷亡。在此類情形中,宜適用過錯責(zé)任,令生產(chǎn)者承擔(dān)民事責(zé)任。

      (三)機(jī)器人致人損害責(zé)任的承擔(dān)方式

      民事責(zé)任制度之所以有效,是利用了人們的認(rèn)知理性和規(guī)避風(fēng)險的天性。例如,當(dāng)某人被責(zé)令承擔(dān)賠償責(zé)任之后,他便不會再為類似行為以避免再次承擔(dān)賠償?shù)暮蠊5?,目前的?zé)任形式明顯難以對機(jī)器人的行為形成有效約束或威懾:即便責(zé)任主體的明確能夠及時地在機(jī)器人的生產(chǎn)者、銷售者、所有人、使用人之間分配民事責(zé)任的承擔(dān),也無法從根本上遏制機(jī)器人致人損害的行為[25];即便往上推一層,讓算法設(shè)計者在機(jī)器人出廠時植入勿傷害人類的代碼,也難以保障我們能夠?qū)崿F(xiàn)自己所想。原因之一:算法的僵硬性有時會使機(jī)器人的行為超出人類的預(yù)期[26]。比如,當(dāng)算法設(shè)計者為了使機(jī)器人不傷害人類,對機(jī)器人植入以下代碼:如果一個運(yùn)動的存在物有一個頭部且直立行走,它是人類(when_it_has_a_head AND walk_up?right=human_beings)。但如果某人因為先天殘疾或后天事故而無法直立行走,此時機(jī)器人可能會出現(xiàn)誤判,從而做出對人類的傷害行為,算法的僵硬性由此可見一斑;原因之二:機(jī)器人在做出決策時所依據(jù)的算法大部分是以經(jīng)濟(jì)效益為先,少有以法律后果為先。對于機(jī)器人而言,每種損害都有“價格”,即便能夠通過算法來明確損害,機(jī)器人依然會在經(jīng)濟(jì)學(xué)原理的驅(qū)動下做出“最優(yōu)選擇”。因此,除非機(jī)器人生產(chǎn)者將常用法律條款翻譯成代碼植入算法,否則機(jī)器人致人損害的行為難以避免。因此,在對機(jī)器人致人損害行為的遏制上,難以依靠事前的預(yù)測,而要依靠事后的有效救濟(jì),即,如何結(jié)合機(jī)器人的特點(diǎn)靈活運(yùn)用既有的民事責(zé)任承擔(dān)方式來真正實現(xiàn)對未來機(jī)器人致人損害行為的預(yù)防。

      根據(jù)《中華人民共和國侵權(quán)責(zé)任法》第15條,侵權(quán)責(zé)任的承擔(dān)方式有停止侵害、排除妨礙、消除危險、返還財產(chǎn)、恢復(fù)原狀、賠償損失、消除影響、恢復(fù)名譽(yù)、賠禮道歉。根據(jù)責(zé)任承擔(dān)方式的特點(diǎn),可大致將以上方式分為三類:其一,以預(yù)防未來可能發(fā)生的損害或停止正在進(jìn)行的侵害為目標(biāo)的禁止類,所含責(zé)任形式有停止侵害、排除妨礙、消除危險;其二,以剝奪所獲得非法利益為目標(biāo)的剝奪類,所含責(zé)任形式有返還財產(chǎn)、恢復(fù)原狀、賠償損失;其三,以撫慰受侵害人精神創(chuàng)傷的撫慰類,所含形式有消除影響、恢復(fù)名譽(yù)、賠禮道歉。其中,剝奪類與撫慰類是可以通過前文所確定的承擔(dān)替代責(zé)任的民事主體就能夠?qū)崿F(xiàn)的,而禁止類卻難以僅通過人類行為,而只能依靠對機(jī)器人植入含法律屬性的禁止性代碼來實現(xiàn)的。

      禁止性代碼在遏制機(jī)器人致人損害行為的發(fā)生上具有可行性。它不僅在效果上等同于法律的禁止性條款,而且對于機(jī)器人而言兼具可讀性與執(zhí)行性。在計算機(jī)語言中,禁止性規(guī)定的可用代碼是IF THEN語句。例如,機(jī)器人生產(chǎn)者可植入“如果遇見紅燈,就不要通行,否則系統(tǒng)自動關(guān)閉”的IF THEN語句。

      if light is red:

      then stop driving

      else:

      shut down

      end if

      如此一來,機(jī)器人不僅會因為禁令的內(nèi)容遵循該規(guī)定,還會因為避免自身系統(tǒng)被關(guān)閉而遵循交通法規(guī)。而之所以要讓禁止性代碼的植入成為責(zé)任主體承擔(dān)“停止侵害、排除妨礙、消除危險”的內(nèi)容,是因為若無法律規(guī)定,算法設(shè)計者不會在自愿的情況下將此類句式大量的嵌入整套算法中。原因有二:其一,不經(jīng)濟(jì)。算法設(shè)計者更加希望的是機(jī)器人在遇到紅燈的時候能夠通過概率計算來做出最優(yōu)選擇,即,當(dāng)其判斷此時穿過紅燈不會撞到行人或車輛,并且能夠快速完成駕駛?cè)蝿?wù)的時候,就穿過紅燈;其二,不自主。算法設(shè)計者可能會認(rèn)為禁止性代碼的植入會影響智能機(jī)器人的深度學(xué)習(xí)能力以及交互能力[25]。

      結(jié)語

      法律具有“應(yīng)激性”[27]。當(dāng)科技發(fā)展到一定階段時,當(dāng)每家每戶都使用機(jī)器人時,當(dāng)每一個社會成員都有與機(jī)器人共事、交流、合作、生活,甚至共赴愛河的可能時,當(dāng)機(jī)器人在能力上與壽命上可能遠(yuǎn)遠(yuǎn)超過人類時,當(dāng)機(jī)器人的出現(xiàn)對社會生活所造成的沖擊是無法以任何已知高科技為參照物進(jìn)行預(yù)測時,我們應(yīng)當(dāng)意識到社會即將面臨變革,而倫理秩序與法律制度也面臨挑戰(zhàn)。從倫理層面觀察,隨著機(jī)器人與人類交流的逐漸深入,人類在人身自由、隱私數(shù)據(jù)、情感交流、社會交往等方面將可能失去主動性,或受到限制、或受到侵害、或形成依賴[4],而如果有一個框架性的倫理規(guī)則能夠覆蓋機(jī)器人的設(shè)計、生產(chǎn)、使用階段,約束機(jī)器人的設(shè)計者、使用者、監(jiān)管者,我們至少能夠保證技術(shù)革新始終是為了人類福祉[8],至少能保障人類不會在使用機(jī)器人的過程中受到身體與精神上的傷害。從法律層面觀察,機(jī)器人在人類社會的廣泛使用將面臨對其法律地位、行為能力、責(zé)任承擔(dān)的界定,部分法律制度可按兵不動,視具體案情進(jìn)行微調(diào),但部分法律制度卻已顯示出極大的不適應(yīng)性、亟待更新,例如侵權(quán)責(zé)任制度。因此,各國是否能通過倫理規(guī)則平衡機(jī)器人發(fā)展與人類文明之間的關(guān)系,是否能對機(jī)器人的法律地位達(dá)成共識,是否能對機(jī)器人的行為進(jìn)行約束,是回應(yīng)機(jī)器人科技發(fā)展對全球治理提出的倫理與法律挑戰(zhàn)中必須直面的問題?!八街?,可以攻玉”,但“他山之石”不能“徹底攻玉”。在借鑒《歐洲機(jī)器人民法規(guī)則》等他國經(jīng)驗的基礎(chǔ)上,我國還應(yīng)當(dāng)根據(jù)社會經(jīng)濟(jì)發(fā)展的節(jié)奏、科技文化發(fā)展的階段,以及傳統(tǒng)民族文化的底蘊(yùn),構(gòu)建適于我國國情的《機(jī)器人倫理規(guī)則》,更應(yīng)當(dāng)在民法典分則的編撰中考慮到機(jī)器人致人損害責(zé)任的承擔(dān),以減少司法實踐中的不確定性、正視并回應(yīng)新時代提出的挑戰(zhàn)。

      猜你喜歡
      倫理規(guī)則機(jī)器人
      《心之死》的趣味與倫理焦慮
      撐竿跳規(guī)則的制定
      數(shù)獨(dú)的規(guī)則和演變
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      讓規(guī)則不規(guī)則
      Coco薇(2017年11期)2018-01-03 20:59:57
      TPP反腐敗規(guī)則對我國的啟示
      機(jī)器人來幫你
      認(rèn)識機(jī)器人
      機(jī)器人來啦
      認(rèn)識機(jī)器人
      繁昌县| 开平市| 滨海县| 高平市| 七台河市| 贺兰县| 军事| 连平县| 噶尔县| 恩平市| 柳林县| 南宫市| 商都县| 枣阳市| 台州市| 榆树市| 通海县| 大姚县| 太保市| 安远县| 蚌埠市| 平顶山市| 西峡县| 阳泉市| 太原市| 龙门县| 洛川县| 贞丰县| 揭东县| 竹山县| 营口市| 姚安县| 百色市| 咸宁市| 兖州市| 滦平县| 应城市| 葫芦岛市| 毕节市| 扶绥县| 江口县|