• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      賦予人工智能民事主體資格肯定論

      2023-03-07 22:52:05王瑞玲
      關(guān)鍵詞:民事權(quán)利主體

      王瑞玲,周 月

      (湖南工業(yè)大學 法學院,湖南省包裝標準與法規(guī)重點研究基地,湖南 株洲 412007)

      以替代人從事智力性活動為目的的人工智能,是人以自身為模板的創(chuàng)造物,天然具有“近人”“類人”的特點。人工智能“與人無限接近”的發(fā)展態(tài)勢,使得人工智能作為法律主體的必要性與可行性問題在法學界引起持續(xù)討論。取代分析式人工智能,生成式人工智能已經(jīng)被較大范圍運用于創(chuàng)作。2022年,美國人工智能研究公司OpenAI研發(fā)的ChatGPT,不但對使用者提出的一些專業(yè)問題對答如流,還能在使用者參與下,完成小說創(chuàng)作等復(fù)雜任務(wù)。2023年3月,OpenAI公司又進一步發(fā)布多模態(tài)大模型GPT-4,作為ChatGPT的升級版,GPT-4不僅能夠支撐文字、圖片、視頻多種模態(tài),而且比ChatGPT更加接近人類的智力水平。通過測試,它在一次試驗的律師執(zhí)業(yè)考試中已經(jīng)能夠打敗90%的參試人員[1]。生成式人工智能技術(shù)正在以“加速度”進入數(shù)字社會,逐漸深度參與社會運行,強人工智能時代即將到來,人工智能法律地位定位也將成為數(shù)字時代法治面臨的結(jié)構(gòu)性難題[2]。

      一、人工智能法律客體定位的局限性

      人工智能的民事客體定位,使得人工智能創(chuàng)作物因沒有創(chuàng)作主體,無法被認定為作品而不能受到法律保護。因此,對于人工智能創(chuàng)作物,是否應(yīng)當受到法律保護,如何使其受法律保護,是困擾司法實務(wù)界的一個典型的涉及人工智能法律地位爭議的問題。實踐中,“菲林訴百度案”和“騰訊訴盈訊案”的判決提供了兩種截然不同的觀點。

      (一)意見相左的兩份判決

      “菲林訴百度案”(見北京互聯(lián)網(wǎng)法院(2018)京0491民初239號判決書及北京知識產(chǎn)權(quán)法院(2019)京73民終2030號判決書,以下簡稱“菲林案”)中,原告菲林律師事務(wù)所(以下簡稱“菲林”)使用威科先行法律信息庫的軟件,自動生成了一篇圖文并茂的“影視娛樂行業(yè)司法大數(shù)據(jù)分析報告”,菲林將這份分析報告發(fā)布在其微信公眾號。此后菲林發(fā)現(xiàn),被告北京百度網(wǎng)訊科技有限公司(以下簡稱“百度”)經(jīng)營的百家號平臺上也發(fā)布了該報告,菲林將百度起訴至法院,認為被告侵害了其著作權(quán)。法院審理認為,創(chuàng)作作品的民事主體為著作權(quán)的享有者。著作權(quán)的產(chǎn)生,必須存在兩個條件,一是要具備“獨創(chuàng)性”,二是需由“民事主體創(chuàng)作”。該分析報告雖然是針對相關(guān)數(shù)據(jù)的選擇、判斷、分析,具有一定的“獨創(chuàng)性”,但這份報告并非由原告創(chuàng)作,原告僅在前期輸入幾個關(guān)鍵詞,并沒有對分析報告的形成作出過“實質(zhì)性智力貢獻”。應(yīng)當認為,這份報告是由原告使用的人工智能創(chuàng)作。也正是因為文字報告并非民事主體創(chuàng)作完成,捆綁于作品之上的著作權(quán)缺乏“棲息”的民事主體,這份報告無法被認定為作品,因為它無法滿足作品應(yīng)由“民事主體創(chuàng)作完成”這一必要條件。此外,該判決也否定了將此類權(quán)利歸屬于人工智能的研發(fā)者或者所有者的觀點。

      “騰訊訴盈訊案”(見廣東省深圳市南山區(qū)人民法院(2019)粵0305民初14010號判決書,以下簡稱“騰訊案”)中,法院卻認定人工智能生成物屬于單位作品。該案也是我國首例認定人工智能生成物構(gòu)成作品的案件。原告深圳市騰訊計算機系統(tǒng)有限公司(以下簡稱“騰訊”)將使用Dreamwriter智能寫作機器人完成的《午評:滬指小幅上漲0.11%報2671.93點通信運營、石油開采等板塊領(lǐng)漲》文章,發(fā)布在騰訊證券網(wǎng)站上,此后被告上海盈訊科技有限公司(以下簡稱“盈訊”)未經(jīng)原告允許,在其運營的“網(wǎng)貸之家”網(wǎng)站刊登該文章,原告騰訊發(fā)現(xiàn)后向法院提起訴訟。法院認為,Dreamwiter不具備自我意識,Dreamwriter智能寫作機器人運行下生成的文章,凝結(jié)了研發(fā)團隊的創(chuàng)作意圖。因此涉案文章是在原告主持下,由包含編輯團隊、產(chǎn)品團隊、技術(shù)開發(fā)團隊在內(nèi)的主創(chuàng)團隊運用Dreamwriter軟件完成的,內(nèi)容體現(xiàn)出對當日上午相關(guān)股市信息、數(shù)據(jù)的選擇、分析、判斷,具有一定獨創(chuàng)性。涉案文章末尾標注了“本文由騰訊機器人Dreamwriter自動撰寫”,應(yīng)當認定該文章是在原告主持下的法人作品。可見,這份判決與“菲林案”判決不同,并未區(qū)分文章是否以人工智能方式完成,而將文章的創(chuàng)作智力貢獻歸結(jié)于機器人Dreamwriter研發(fā)者的程序編程,因而認定原告是創(chuàng)作主體,也就承認了該文章的作品屬性。

      (二)法律客體定位難以周全

      同為人工智能創(chuàng)作物,兩份判決均認可創(chuàng)作物符合作品“獨創(chuàng)性”特征。依照“菲林案”法院的判決邏輯,創(chuàng)作物“獨創(chuàng)性”的“實質(zhì)性貢獻”如果由民事主體作出,就可以認定為作品,賦予該主體著作權(quán);如果無法歸屬于民事主體,就不能認定為作品。換言之,民事主體的存在與否直接決定了創(chuàng)作物的性質(zhì)與著作權(quán)的有無。法教義學上,民事權(quán)利專屬于民事主體享有,人工智能不是民事主體,故人工智能無法享有著作權(quán)。價值取向上,著作權(quán)立法通過認定具有獨創(chuàng)性創(chuàng)作物為作品,賦予創(chuàng)作人著作權(quán)以達到激勵創(chuàng)新的目的,但人工智能不存在意識,縱使將之作為民事主體,也無法實現(xiàn)著作權(quán)立法的激勵目的,因而菲林案的審判邏輯似乎完整。然而,如果不承認人工智能創(chuàng)作物為作品,社會上大量存在著無權(quán)利主體創(chuàng)作物,會反向鼓勵抄襲,顯然無益于當下創(chuàng)新發(fā)展理念的貫徹實施,這顯然有違著作權(quán)立法激勵創(chuàng)新的宗旨。

      “騰訊案”中機器人的研發(fā)者、所有者、使用者同為騰訊公司,對于主創(chuàng)團隊包含的編輯團隊、產(chǎn)品團隊、技術(shù)開發(fā)團隊使用機器人形成文章的智力貢獻,法院并沒有在各環(huán)節(jié)中進行過多區(qū)分,而是含糊其詞否定人工智能的智力性貢獻,直接將該文章界定為法人作品,將著作權(quán)歸屬于騰訊公司。顯然,在法院看來,文章是作品,應(yīng)當通過賦予著作權(quán)進行保護。但是,法院完全否定機器人對文章形成存在實質(zhì)性智力貢獻,也明顯不符合客觀事實。盡管主創(chuàng)團隊將創(chuàng)作意圖輸入人工智能中才得以形成文章,但至少在人工智能的智力因素參與下,會極大程度減輕主創(chuàng)團隊的創(chuàng)作壓力。

      另外,該案特殊之處在于,機器人研發(fā)團隊、制造團隊與使用機器人的編輯團隊為同一主體,因而將其做一體評價也無可厚非,但人工智能研發(fā)者、所有者、使用者分別為不同主體時,如在“菲林案”的案情下,則不宜不加區(qū)分地將人工智能創(chuàng)作物著作權(quán)歸屬于其研發(fā)者或者所有者。因為一旦如此,就意味著研發(fā)者或者所有者可以一勞永逸地享有人工智能創(chuàng)作物的著作權(quán),這將嚴重背離著作權(quán)授予的“額頭出汗原理”。因此,“騰訊案”的著作權(quán)歸屬于人工智能研發(fā)者的裁判思路隱藏著巨大風險,它僅在研發(fā)者、所有者、使用者為同一主體的情況下,能勉強化解糾紛,但這絕不是解決人工智能創(chuàng)作物著作權(quán)歸屬問題之有效路徑。

      兩個案例反映出現(xiàn)有法律體系下人工智能創(chuàng)作物作為法律客體的局限性:人工智能創(chuàng)作物,雖然具有獨創(chuàng)性,但要么因無權(quán)利主體,不被評價為作品,處于法律的灰色地帶,不受法律保護;要么將人工智能創(chuàng)作物著作權(quán)牽強歸屬于特定民事主體,以達到保護人工智能創(chuàng)作物的目的。

      (三)民事主體資格賦予的現(xiàn)實需要

      當下人工智能不僅運用于創(chuàng)作,也不同程度運用于自動駕駛領(lǐng)域、診療領(lǐng)域,人工智能的法律客體定位同樣對以“過錯”為主軸建立起來的侵權(quán)責任法律體系形成了挑戰(zhàn)。其一,在無人駕駛汽車、人工智能診療機器人基于智能超出了人類控制的范圍,產(chǎn)生致人損害后果,法官囿于復(fù)雜的技術(shù)問題,往往無法判斷損害發(fā)生的具體原因。其二,在無法辨別過錯的情況下,若將損害一概歸責于人工智能研發(fā)者、生產(chǎn)者,適用既有的產(chǎn)品責任,則會嚴重挫傷研發(fā)者、生產(chǎn)者的積極性,制約科技創(chuàng)新。其三,若適用危險責任,無論由人工智能的所有者抑或使用者承擔,不僅與支撐危險責任的“報償理論”相左,同樣也有礙于科技創(chuàng)新的推廣運用。理論上,正是由于人工智能的“自動學習和主動工作”在某種程度上超出了人類控制和支配范圍,因而其造成的損害無法合理歸責于某一主體。

      筆者認為,賦予人工智能民事主體資格,可以一舉解決人工智能運用帶來的系列問題:賦予對獨創(chuàng)性作品作出實質(zhì)貢獻的人工智能著作權(quán),能夠減少抄襲,激勵創(chuàng)新;由失控的人工智能自身承擔民事責任,避免責任蔓延至人工智能研發(fā)制造者,可以減輕科技創(chuàng)新負擔。

      二、人工智能主體地位建構(gòu)障礙

      對于賦予人工智能民事主體資格這一觀點,目前并未為民法學界普遍接受。傳統(tǒng)民法體系下,主體和客體被嚴格區(qū)分,凡是人以外的沒有精神和意志的物,都是權(quán)利的客體。人與物、主體與客體之間存在著不可跨越的鴻溝[3]。對于賦予人工智能民事主體資格,不少學者認為:理論上,人工智能非生命體,不具備理性和意志,不能獨立進行價值選擇和判斷,不具備作為主體的客觀條件[4];制度上,一方面現(xiàn)有法律體系缺乏賦予某一物品以主體地位的相關(guān)制度基礎(chǔ),另一方面現(xiàn)有制度仍然足以應(yīng)對生成式人工智能所產(chǎn)生的法律問題,因而勿須大費周折地賦予人工智能民事法律主體資格[5]87。因而,我們應(yīng)剖析反對人工智能主體地位觀點的核心理由,揭示其片面性,以為人工智能民事主體地位的建構(gòu)掃清理論和制度障礙。

      (一)理論障礙:人物二分

      近代西方民事主體制度的建立根源于康德哲學。康德繼承并發(fā)揚了迪卡爾“我思故我在”觀點,認為“思維”是世界的本原,人具有思維,所以人才是主導(dǎo)世界的主體,而不是被動的受制于自然法??档峦ㄟ^對“我思”的探索,構(gòu)建了“以人為本,人是目的”的哲學理論。他將“理性”“自我意識”“自由”三個核心概念貫穿于其中。人之所以是“本”“目的”,在于人有理性,其能夠通過先天所稟賦的認知機能,對后天的經(jīng)驗質(zhì)料進行抽象思維,能動性地形成知識,判斷行為所能夠產(chǎn)生的后果。理性的存在與否,是人與物的最大區(qū)別。相對于人以外的其他事物,人具有絕對價值,其他事物僅具有相對價值,永遠只能是手段而非目的。因而人不再受制于其他法則,是支配自然的自由主體。在人與大自然的關(guān)系上,人能夠為自然立法。同樣,在人與社會的關(guān)系上,人就是自由自律的倫理主體,具有為自己立法的能力。

      康德之后,費希特、黑格爾、費爾巴哈、馬克思等人進一步發(fā)揚了“人是目的”的思想。費爾巴哈批判了康德主觀唯心主義哲學,認為思維不是唯一本源,人是自然世界的一部分,在具有靈魂的同時,人也是血肉之軀,因此人具有思維和存在的雙重屬性,真正的主體不僅僅是思維,而是完整的人。因而,主體和客體處于以人為基礎(chǔ)的統(tǒng)一之中。

      與康德、費爾巴哈等唯心論者不同,馬克思從一般唯物主義意義上指出,“主體是人,客體是自然”。人的意識,“從現(xiàn)實的、有生命的個人本身出發(fā),把意識看成是他們的意識”?,F(xiàn)實中的人不是孤立的存在,也不是與世隔絕的、離群索居的人,而是處于一定社會條件下可以通過經(jīng)驗予以觀察的人[6]。馬克思主義原理是我國法律體系建立的哲學基礎(chǔ),馬克思關(guān)于人的主體地位理論,是我國法律人格設(shè)立的理論依據(jù)。

      法律是維護社會秩序的工具,以確保“人作為主體”這一絕對價值的實現(xiàn)。自然人基于理性、自我意識而為法律主體,這已經(jīng)成為世界各國的共識,也是人類文明發(fā)展的必然產(chǎn)物。人工智能盡管存在自我學習能力以及一定程度上的自我判斷能力、自我行動能力,但與自然人不能等同,無法成為當然的民事法律主體。首先,人工智能不具有獨立意識。人工智能中的“智能”,底層邏輯就是算法。人工智能獨立進行“思考”的能力首先來自開發(fā)人員的程序編寫[7],它并未自主地存在意識。因此,人工智能的智能更像是對人類智慧的一種演繹。其次,人工智能不具備理解法律的理性,人工智能也無法參照法律規(guī)定實施相應(yīng)行為,人工智能所實施的行為只是基于數(shù)據(jù)演算,而非人類所具有的從經(jīng)驗中獲得的主觀理性,無法理解并考量行為的意義與決策的代價[8]。再次,人工智能缺乏欲望。英國法學家邊沁指出,作為法律的人必須是欲望的人,欲望的人才能夠負擔利益[9]。當此類欲求被法律承認時,形成了法律上的權(quán)利,與之相對的不利益,則形成了法律上的義務(wù),法律便是通過對人的快樂和痛苦的分配以實現(xiàn)社會秩序的操控。自然人因而成為權(quán)利的享有者和義務(wù)的負擔者。而人工智能是在無情感和欲望的基礎(chǔ)上實施特定的行為,它對權(quán)利是沒有訴求的,不會因為自身利益受到損害而采取措施,或者因為侵犯他人利益而主動承擔起相應(yīng)的責任[10]。

      (二)制度障礙:民事主體制度的“人類中心主義”

      倘若賦予人工智能法律主體地位,就需要法律技術(shù)上的創(chuàng)新,但是,這種創(chuàng)新可能會造成現(xiàn)有法律主體制度的邏輯混亂。從本體而言,法律主體是法律規(guī)定的權(quán)利和義務(wù)的一體承受者,倫理人天然是主觀權(quán)利的爭取者、法秩序的遵守者?,F(xiàn)代法律主體制度是以“人類”為中心構(gòu)建的,縱觀各國民法,皆以“人”為開端。無論法國三編制體例、德國五編制體例,還是我國七編制體例,“人”都是法典的邏輯起點。作為人造物的人工智能,如果加入主體行列,就必然會動搖這種根基,造成不可估量的后果,法律的基本原則、法律主體的邏輯框架都將受到破壞[11]127。

      揆諸史實,倫理人與法律人從來都不是對等的,展現(xiàn)的是從“人可非人”到“人為人”再到“非人可人”的法律人格不斷擴張的畫卷。法人制度的出現(xiàn),組織體法律主體地位的確立,似乎可以為人工智能民事主體資格之賦予構(gòu)想找到類比的對象。然而,多數(shù)學者認為,由于組織體本身仍然是以自然人存在為前提,組織體背后仍是適用自然人的理性而實施行為,并最終承受利益與不利益。因而,法人等組織體與自然人兩者內(nèi)部存在著實質(zhì)關(guān)聯(lián),他們共處于人類的范疇,法人等組織體遁入民事主體制度,也并未脫離“人類中心主義”這一主線。而人工智能的“制造原料”雖然包含了人類的程序設(shè)計和算法,但在制造成功后,便完全脫離了制造者,形成了自我學習和自我行動的獨立體,人工智能是人在改造客觀世界過程中實踐的產(chǎn)物,無論如何,它都不屬于人類?!胺芍黧w地位背后是人的厚重底蘊,也是法律主體制度的一脈淵源?!盵11]127概言之,缺乏有血有肉,有欲望、道德和理性交織的倫理人參與作為底線,人工智能難以進入法律主體的位列。

      就權(quán)利而言,沒有欲望的人工智能,即便法律強行將權(quán)利賦予其上,在他人侵犯其權(quán)益時,它沒有知覺,或者即便是在他人侵權(quán)時,它能夠基于算法而有所觸動,它也沒有能力積極主動地去維護權(quán)益,現(xiàn)有程序法也不存在人工智能自主訴訟的配套制度及設(shè)施,得不到救濟的權(quán)利就無法認定為法律權(quán)利。

      就義務(wù)與責任而言,分析式人工智能或許能夠按照設(shè)計與制作者的預(yù)期,在算法軌道上,完成其時代使命;但是生成式人工智能已經(jīng)出現(xiàn)并且代際更迭加速,可以預(yù)見,人工智能即將“脫軌”,它更多情況下超越了人的智慧,不為人所控制,侵害其他民事主體、致人損害的情況不可避免,因而也要求其具備相當?shù)呢熑文芰?。但是,如前所述,人工智能如果無法維護其權(quán)益,自然就無法積累自身財產(chǎn),也就沒有獨立對外承擔法律責任的基礎(chǔ)?,F(xiàn)有制度框架下,賦予人工智能主體資格的構(gòu)想難以實現(xiàn)。

      強行去建立一個配套人工智能的財產(chǎn)制度,是不經(jīng)濟也是無效用的做法。反對論的多數(shù)學者認為,在法律客體的范疇內(nèi)去規(guī)制生成式人工智能,其權(quán)利可以根據(jù)利益形成的貢獻分屬于生成式人工智能的制造者、設(shè)計者、使用者、所有者,而其損害賠償責任的承擔,同樣可以根據(jù)損害的原因力,適用產(chǎn)品責任、危險責任、替代責任等固有的責任,在制造者、設(shè)計者、所有者、使用者或者第三人之間進行考量,由有關(guān)責任人來承擔,也是責任最終得以落地的唯一路徑[5]87。

      三、主體地位建構(gòu)的障礙破除

      筆者認為,人工智能民事主體資格否定論理由經(jīng)不起推敲。賦予人工智能法律主體資格,絕非天方夜譚。早在2017年,在沙特阿拉伯舉行的未來投資計劃會議上,沙特阿拉伯直接賦予存在60多種面部表情、能與人直接交流的社交女性機器人“索菲亞”公民身份,直接承認機器人的法律主體地位。歐盟議會在《就機器人民事法律規(guī)則向歐盟委員會提出立法建議》中,認為應(yīng)當為機器人創(chuàng)設(shè)特殊的法律地位,并首創(chuàng)“電子人”概念,以應(yīng)對侵權(quán)等損害責任問題。緊隨其后,俄羅斯的《格里申法案》同樣肯定了運用“機器人-代理人”的關(guān)系來調(diào)整人機關(guān)系的制度嘗試。因而,我們應(yīng)當從根本上理解法律主體“是一種經(jīng)濟生活的客觀現(xiàn)實與法律技術(shù)運用相結(jié)合的產(chǎn)物”[12];面對人工智能對既有立法形成挑戰(zhàn)的現(xiàn)狀,我們應(yīng)當打破固有民事法律主體“人類中心主義”的認知。

      (一)理論障礙的祛除:“人”的二元區(qū)分

      與傳統(tǒng)機器相比,人工智能最顯著的特點是自主性,一旦被啟用或者運行,它可以通過自我學習,不受人類控制而自主行為?;诖?,不少學者認為其具有“類人”的一面,于是努力從人工智能也是一種“新型硅基生命形態(tài)”、具有與人類似的“具有道德能力”“理性”等方面,證成賦予人工智能民事主體地位存在合理性的觀點[13]。然而,毋庸置疑,如前所述,人工智能是人類的創(chuàng)造物,其智能的產(chǎn)生首先來自于人類設(shè)計者、制造者事先編排的數(shù)據(jù)代碼,它所表現(xiàn)出來的自主行為,是在強大數(shù)據(jù)支撐下、根據(jù)算法進一步展開深度學習而形成的。這些智能的呈現(xiàn),本身就是設(shè)計者、制造者的預(yù)設(shè),本質(zhì)是人類通過機械語言與算法予以落實的產(chǎn)物。因而,人工智能的一系列行動并非人工智能基于理性而作出的自主行為。在“以人為目的”“人具有絕對價值”的哲學命題下,人與物二分,只有具有自覺能動性的倫理人才能作為主體和絕對目的,客觀存在的自然界、作為人造物的人工智能,無論多么接近人類的外形、接近人類的智力,它也只能是客體,處于從屬地位。

      相對于哲學上的“人”而言,法律是維護社會秩序的工具,在“以人為目的”的價值指引下發(fā)揮著調(diào)整特定社會關(guān)系的功能。在我國,民事法律主體制度必然也為圍繞著特定法律目的而構(gòu)建。法律規(guī)定自然人為民事主體,本身就在于這樣的規(guī)范能夠更好地實現(xiàn)其服務(wù)于人的價值[14]。因此,法律上的“自然人”同樣也是規(guī)范建構(gòu)的產(chǎn)物。法律上的“人”,在法律上的資格和能力是法秩序本身所賦予的,是被法律權(quán)利與義務(wù)化了的人格,如果沒有法律上的權(quán)利義務(wù)歸屬,便無所謂法律人或者法律人格。法律人或者法律人格為法秩序而存在,法律人是超越了人的自然存在而上升為法律的一種權(quán)利義務(wù)實體,本質(zhì)上就是權(quán)利義務(wù)的承受者。

      在此意義上,法律上的“人”與自然意義上的生物人,與哲學意義上的倫理人,沒有太多的關(guān)聯(lián),法律上的“人”,純粹來源于法律將其定義為“人”?!懊恳环N法律制度都要規(guī)定何種個人、團體或者實體被作為法律上的人”[15],使他們成為權(quán)利和義務(wù)的集合。換言之,在法律上,人是指這樣的單位和實體,他們在特定法律制度中具有法律上的人格,是法律關(guān)系的主體或者法律權(quán)利的享有者,他們有權(quán)行使法律賦予他們的權(quán)利,并受法律義務(wù)和責任的約束。

      拉德布魯赫更加直白地指出,法律上的“人”,就是指法律擬制、塑造的“人”?!皵M制”,并不是指將一個非人的動物、實體假定為人,而是指法律人的成立首先是源于法律的抽象建構(gòu)。在此意義上,法律上的任何主體,都可以稱為“法人”,以此區(qū)別于生物人、倫理人[16]。實證法學派的代表人物彼得·萊爾歇同樣將法律擬制概念外延進行了擴展,他指出,“法律是國家主權(quán)者意志的象征,立法者可以將任何虛擬的事物放進法律擬制內(nèi)”[17]。也就是說,只要立法者愿意,都有能力將除了法律本身之外的任何虛擬事物變成法律。因此,從廣義上理解,法律上的“人”,也是規(guī)范的構(gòu)造物,人工智能即便與生物人、倫理人沒有任何共性,也不妨礙它成為法律上的主體。其實,當下法律人格已經(jīng)擴張至理性人之外,以理性為核心的、過于注重意志、意識等主觀要素的傳統(tǒng)主體哲學基礎(chǔ)被動搖,以理性意志為標準的藩籬也已經(jīng)被跨越。法律主體客觀化趨向,為人工智能民事主體地位建構(gòu)掃除了理論障礙,技術(shù)發(fā)展的實用主義立場便可為人工智能民事主體地位的建構(gòu)支起理論空間。

      “任何權(quán)利主體,只要人們將其稱為權(quán)利主體時,立即成為法律上的人。”[18]基于此,學界無論是通過與倫理人的對比,說明人工智能與倫理人一樣存在獨立意識,能夠獨立承擔責任,進而肯定其應(yīng)當被賦予主體地位的做法,還是通過論證人工智能類人而非人,否定其主體地位的做法,都是徒勞的,都無法從根本上解釋人工智能與法律主體地位之間的關(guān)聯(lián)。

      法律作為人類社會主要的行為控制方式和社會控制手段,是服務(wù)于人這一主體的,理應(yīng)承載著人類的價值目標、價值理想、價值追求,因此,立法者應(yīng)當通過立法活動或者立法行為實現(xiàn)價值賦能。滿足主體的需求,實現(xiàn)特定的社會功能,是制度設(shè)置的方向。在人工智能之法律地位選擇上,應(yīng)以現(xiàn)實的正向社會功能為主體資格確立與否的圭臬[19]130。馬克思深刻地指出:“不是人為法律而存在,而是法律為人而存在?!比斯ぶ悄艿膽?yīng)用解決了人力難以操作精密化行為的難題,使各行業(yè)領(lǐng)域的生產(chǎn)力得到了大幅提升,創(chuàng)造了重大的社會經(jīng)濟價值。人類社會發(fā)展應(yīng)是法律改進的先導(dǎo),在人工智能法律主客體選擇上,應(yīng)當堅持實用主義立場,以最大限度保障技術(shù)發(fā)展。因此,是否賦予人工智能民事主體地位,取決于法律制度的設(shè)置是否符合社會發(fā)展的基本動態(tài),對技術(shù)的發(fā)展能否起到推動作用。相反,與人工智能是否為生物人,及其與倫理人、理性人存在多大差距,并沒有任何關(guān)聯(lián)。法律上的自然人主體只是以倫理人的要求設(shè)計的產(chǎn)物,其最終服務(wù)于倫理人本身的目的和需要。相對于倫理人而言,法律上的自然人與人工智能同為工具,他們同樣都指向了“為人服務(wù)”的方向。

      既然賦予人工智能主體地位,能夠在“黑箱”狀態(tài)下更為有效率、更為合理地解決人工智能生成物的著作權(quán)權(quán)利歸屬問題,更為有效率、更為合理地分配人工智能所造成的侵權(quán)責任問題,就應(yīng)當賦予其民事主體資格,這便是承認人工智能民事主體地位不可動搖的正當性。

      (二)制度障礙的化解:獨立性標準建構(gòu)

      在理論上,賦予人工智能民事主體資格,并不存在障礙,其可以成為一種區(qū)別于自然人的“非理性”的民事主體。在實證法上,民事主體必須具有獨立性,能夠以自己的名義享有權(quán)利、履行義務(wù)并承擔責任。因而,賦予人工智能以民事主體資格,需要通過相應(yīng)的制度供給,使其獨立于背后的民事主體。

      民事權(quán)利的受領(lǐng)資格,通過抽象的“權(quán)利能力”這個概念來表達?!皺?quán)利能力”概念來源于《德國民法典》,是對法典中“自然人”和“法人”權(quán)利受領(lǐng)資格的抽象?!兜聡穹ǖ洹分贫ㄖ畷r,正處于自由資本主義向壟斷資本主義過渡時期,企業(yè)團體在當時的經(jīng)濟活動中非?;钴S,他們推進經(jīng)濟發(fā)展的作用不容忽視,在這樣的社會經(jīng)濟背景下,立法者逐漸動搖了個人本位的思想,產(chǎn)生社會連帶的觀念,最終在法律上承認法人的主體地位。為了承認法人的主體地位,使法律上的“人”與自然人相區(qū)別,注重邏輯思維、強調(diào)法典美感的德國立法者使用“權(quán)利能力”這一抽象概念,作為法律中民事主體資格的象征,以適應(yīng)德國民法以法律關(guān)系為軸心建立的體系。權(quán)利能力概念,為近代民法主體從自然人向非自然人擴充提供了通道。因此,在論證人工智能的法律地位時,有學者提出,權(quán)利能力是認定法律主體的形式要件,認為并不是現(xiàn)實生活中的任何物體都是法律上的人,一個物體若成為法律主體的存在,應(yīng)當具備權(quán)利能力的形式要件,這既是成為主體的法律確認要求,也是現(xiàn)代法律制度的應(yīng)有之義[19]129。顯然,這是一種倒果為因的認識。拉倫茨深刻地指出,法典中的“人”乃是形式意義上的“人”的概念,人的概念的形式化,可使法律制度將人的概念適用于一些形成物[20]。法律并不以自身規(guī)定為基礎(chǔ),相反,它以社會需求為基礎(chǔ)。使用“權(quán)利能力”表征民事主體資格,是為了擴充一些立法者認為適應(yīng)社會需求的“形成物”為法律主體。無論是既有制度中的民事主體,還是未來的民事主體,其權(quán)利能力均來源于法律的賦予。任何物體,只要是立法者認為需要賦予主體地位予以保護的對象,它就擁有權(quán)利能力,它就有資格承受法律上的利益。因而,在人工智能主體抑或客體的法律地位認定上,取決于代表人民意愿的立法者的決定而非科學發(fā)現(xiàn)。2017 年3 月,新西蘭旺格努伊河成為了世界上第一條具有法定權(quán)利的河流,印度也給予恒河和亞穆納河相關(guān)權(quán)利,使其具有一定主體資格,這些新近出現(xiàn)的立法例充分表明,如果一個物品能夠切實地發(fā)揮自身的實效,引起社會領(lǐng)域的重大變革,則可以基于實用主義的立場進行賦權(quán)。

      權(quán)利的賦予是一種純獲益,通常情況下也允許主體對其放棄,因而對于任何主體而言,權(quán)利的賦予均不存在無法具體落實的狀況。比照現(xiàn)有的民法體系,人工智能作為權(quán)利主體,可以根據(jù)人工智能的類型,享有與其特點相關(guān)的特定的人身權(quán)、財產(chǎn)權(quán)。人身權(quán)通常指人工智能自身具有不受破壞、銷毀的權(quán)利;財產(chǎn)權(quán)則指人工智能對自身被利用而換取之對價,或者對經(jīng)由其他途徑獲取的財產(chǎn)進行支配的權(quán)利。

      人工智能的義務(wù),也應(yīng)與其他主體一致,存在著積極義務(wù)與消極義務(wù)。積極義務(wù)通常指合同義務(wù)上的積極作為,如在其他民事主體有償使用人工智能的場合,人工智能應(yīng)當按照其所展示的功能完成任務(wù),若非如此,則相對人有權(quán)利要求承擔違約責任。如某自然人使用自動駕駛汽車,在支付了相應(yīng)費用后,自動駕駛汽車卻無法到達使用者所預(yù)定的目的地,則自然人可以要求自動駕駛汽車返還支付的使用費并承擔由此造成的其他損失。消極義務(wù)則指遵守法秩序、尊重他人的權(quán)利、不實施侵權(quán)行為等義務(wù)。違反消極義務(wù)造成損害,則應(yīng)當承擔侵權(quán)責任。

      責任的承擔以財產(chǎn)存在為前提,既然賦予人工智能以權(quán)利,就打通了其獲取利益的通道。如前所述,生成式人工智能的財產(chǎn)可以來源于被使用的對價,部分可能來源于知識產(chǎn)權(quán)所衍生的利益等,未來也不排除人工智能利用自己的財產(chǎn)出資成為公司股東,獲得股權(quán)營利分紅的可能。2014年5月,英國公司Aging Analytics UK研發(fā)了人工智能工具VITAL,并將該人工智能授權(quán)于香港風投公司Deep Knowledge Ventures使用,風投公司將VITAL列為公司的投資委員,使得VITAL在公司管理中同公司其他員工一樣享有了投資權(quán)利,參與公司投資業(yè)務(wù)并從中獲得收益[21]。

      理論上,人工智能具備獲得財產(chǎn)的能力,具備獨立承擔責任的可能,但也正如前述,生成式人工智能缺乏自然人的理性,沒有欲望,也就不會自動自覺地去維護自己的權(quán)利,擴充自己的財產(chǎn),進而可能影響其責任能力。這一連鎖反應(yīng),也是反對賦予生成式人工智能主體地位最為核心的理由。實際上,無論民事主體為何,利益和不利益的最終落腳點都必然是背后的自然人。在現(xiàn)有制度下,法人或非法人組織作為民事主體,也都是自然人基于特定目的而設(shè)立的,為了完成其目的,法人或者非法人組織的行為只能由自然人代為實施,其權(quán)利只能由自然人代為表達,這種代理機制的設(shè)置,絲毫不影響法人與非法人組織在社會運行中的功能。

      人工智能在智慧上可以媲美人類,但它終究不是人類,正如其他民事主體一般,它是法律的主體,但是它是人類改造世界、達成特定目的的一種特殊工具,是人類的客體。只不過,若法律賦予人工智能非理性民事主體地位,它對外可以獨立的身份參與社會交往,獨立承擔責任,簡化人工智能所引發(fā)的復(fù)雜法律關(guān)系,避免責任泛濫,進而鼓勵科技創(chuàng)新。對此,有反對觀點提出,“即使法律明確規(guī)定只有在人工智能侵權(quán)行為通過現(xiàn)有設(shè)計的改進無法避免或者與管理過錯無關(guān)的情況下,才由人工智能承擔侵權(quán)責任,仍然不能避免人工智能設(shè)計者和管理者對于避免相關(guān)侵權(quán)行為的注意義務(wù)的降低”,因為法官或者第三方專家也很難辨別設(shè)計者和管理者提供的沒有設(shè)計和管理過錯的相關(guān)證據(jù)的真?zhèn)?。一旦降低了人工智能設(shè)計者和管理者的注意義務(wù),所謂的科技創(chuàng)新將凌駕于人的生命財產(chǎn)安全之上[5]86。這種論斷看似有力,但是實質(zhì)上陷入了循環(huán)論證,回到了問題原點。如果連第三方專家都無法辨別設(shè)計者或者管理者的過錯,則應(yīng)當認為設(shè)計者或者管理者沒有過錯,勿需承擔責任。賦予人工智能主體地位,避免在無正當歸責事由下強行將責任不合理分配于人工智能研發(fā)者或管理者,方能在公平分配責任的同時達到鼓勵創(chuàng)新的社會效果。對內(nèi),對于人工智能的權(quán)利,則同樣可以引入代理制度,由自然人代為表達和行使。至于如何防止自然人與人工智能財產(chǎn)或者責任混同的問題,仍可以適用“刺破面紗”的原理,交由司法機關(guān)予以審查。

      損害責任的承擔以財產(chǎn)為基礎(chǔ),如果在人工智能形成的初期,還沒有來得及形成財產(chǎn),又或者在人工智能運行中屢屢“闖禍”,入不敷出,將如何承擔法律責任?反對人工智能作為民事主體的學者提出,對比人工智能,那些擁有充足財力的生成式人工智能設(shè)計者和管理者,通常情況下是財力相當雄厚的大型高科技企業(yè)集團,“具有較為充足的財產(chǎn),由其承擔人工智能侵權(quán)行為的賠償責任”,似乎也“能夠更好地實現(xiàn)侵權(quán)責任法對受害人進行充分補償?shù)哪康摹盵5]86-87。因此,賦予人工智能民事主體地位,補足其財產(chǎn),增強其責任能力,是制度構(gòu)建中的重點,強制保險或是可以選擇的路徑。配套制度可以規(guī)定,人工智能在其投入使用時,必須附帶第三人強制保險,由其實際管理者為其購買保險,通過保險,分散科技帶來的風險。相較于人工智能給社會帶來的效益,由社會整體承擔該風險,不可謂不合理。另外,人工智能是社會生產(chǎn)力整體躍升的驅(qū)動力量,與國家發(fā)展戰(zhàn)略同行,政府層面應(yīng)當加大投入力度,設(shè)立人工智能賠償基金庫[22],該基金庫可由政府撥款、制造商繳納相應(yīng)費用、社會捐助等途徑充實,用于續(xù)交保費和補充保險未能覆蓋的范圍。

      中國特色社會主義法學只有秉持“以人民為中心”這一馬克思主義法學最鮮明的品格,著力解決“為了誰”的問題,及“為誰立法”這一根本性、原則性問題,才能構(gòu)建具有特色和優(yōu)勢的法學體系。人工智能是人類改造世界的工具,自始至終都是為人的全面發(fā)展服務(wù)的。賦予人工智能民事主體地位,設(shè)計一種綜合化的主體制度,是分配人工智能風險,推動人工智能技術(shù)發(fā)展、產(chǎn)業(yè)應(yīng)用的有效路徑。

      猜你喜歡
      民事權(quán)利主體
      論自然人破產(chǎn)法的適用主體
      南大法學(2021年3期)2021-08-13 09:22:32
      民事推定適用的邏輯及其展開
      論民事共同訴訟的識別進路
      法律方法(2021年4期)2021-03-16 05:35:18
      我們的權(quán)利
      論不存在做錯事的權(quán)利
      法大研究生(2018年2期)2018-09-23 02:19:50
      加強民事調(diào)解 維護社會穩(wěn)定
      紅土地(2016年6期)2017-01-15 13:45:54
      關(guān)于遺產(chǎn)保護主體的思考
      權(quán)利套裝
      Coco薇(2015年12期)2015-12-10 02:43:39
      民事保全:價值回歸與平等保護
      論多元主體的生成
      涟水县| 准格尔旗| 松江区| 北流市| 德庆县| 德江县| 额济纳旗| 嘉善县| 巴楚县| 黄骅市| 马龙县| 京山县| 丹江口市| 兴山县| 台东市| 平定县| 旺苍县| 来安县| 额尔古纳市| 光山县| 南阳市| 武汉市| 永州市| 黔东| 赤城县| 和林格尔县| 盐源县| 商城县| 邹平县| 辽阳市| 城固县| 汨罗市| 深圳市| 濮阳县| 临城县| 江山市| 安丘市| 平武县| 临清市| 芦溪县| 东源县|