• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      論人工智能的法律人格制度需求與多層應(yīng)對

      2021-03-26 05:29劉云
      東方法學(xué) 2021年1期
      關(guān)鍵詞:侵權(quán)責(zé)任人工智能

      劉云

      內(nèi)容摘要:人工智能的法律人格需求是伴隨著自動化技術(shù)的發(fā)展而產(chǎn)生的,是智能社會治理中許多具體問題都會觸及的理論假設(shè)。自1992年人工智能法律人格設(shè)想被首次提出以來,它成為理論研究、立法建議和司法實踐中普遍關(guān)注的話題,人工智能生成物的著作權(quán)歸屬、人工智能擔(dān)任人類工作角色和歐洲的立法動議更促進(jìn)了這一問題的討論。人工智能的法律人格具有多維度的需求。既包括明確侵權(quán)責(zé)任、塑造權(quán)利能力等具體需求,也包括以構(gòu)建社會治理新范式為目標(biāo)的根本需求。不能簡單地從概念上直接排除人工智能具有法律人格的可能性,也不能認(rèn)為授予法律人格是唯一或者更佳的解決辦法。人工智能法律人格是智能社會發(fā)展中新型治理模式的選項,以功能主義的態(tài)度來進(jìn)行解釋論或立法論的探討是看待人工智能法律人格問題的正確視角,可以分別按照財產(chǎn)、類推適用代理、借用公司或財產(chǎn)法人、設(shè)立新的法律主體等方式回應(yīng)人工智能帶來的法律問題和挑戰(zhàn)。即便不設(shè)立新的法律人格,在人工智能的侵權(quán)責(zé)任、合同締約程序、代理關(guān)系認(rèn)定等方面也需要作出必要的補(bǔ)充規(guī)定。

      關(guān)鍵詞:人工智能 法律人格 智能社會治理 機(jī)器侵權(quán) 侵權(quán)責(zé)任 塑造權(quán)利能力

      中圖分類號:DF0 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-4039-(2021)01-0061-73

      法律人格 〔1 〕也稱之為法律主體資格,是獨立承擔(dān)責(zé)任或享有權(quán)利的法律地位。人工智能可否取得法律人格是智能社會治理中懸而未決的基礎(chǔ)命題。國務(wù)院于2017年頒發(fā)的《新一代人工智能發(fā)展規(guī)劃》要求,“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”。2020年7月,歐洲議會法律事務(wù)委員會發(fā)布的《人工智能與民事責(zé)任》研究報告再次提出:不能完全否定賦予人工智能法律人格的可能性,但是授予法律人格也不是解決挑戰(zhàn)的唯一辦法,能否授權(quán)法律人格以及如何授予法律人格應(yīng)當(dāng)具備一套合理的條件。〔2 〕國內(nèi)外的立法政策中都在考慮人工智能的法律人格問題,證明這并不是一個科幻問題或者純粹的主觀價值判斷問題,而是傳統(tǒng)法律制度在新一代人工智能技術(shù)發(fā)展背景下必須作出判斷的社會治理模式選擇問題。

      一、智能社會治理中人工智能的法律人格爭議

      人工智能的法律人格問題是隨著自動化技術(shù)的發(fā)展而產(chǎn)生的。早在20世紀(jì)60年代末,人們就開始討論通過計算機(jī)做出的行為具有何種法律效果,最初的研究傾向于認(rèn)定為一種電子化的意思表示?!? 〕美國統(tǒng)一州法委員會在20世紀(jì)90年代擬定統(tǒng)一計算機(jī)信息交易示范法(草案)時開始考慮將合同訂立的數(shù)據(jù)交換電文視為一種電子代理人,但是此處的電子代理人是完全按照人的指示行事的計算機(jī)程序, 〔4 〕最終頒布的示范法也僅僅在少數(shù)州獲得認(rèn)可。勞倫斯·索倫在1992年首次討論了賦予人工智能法律人格的可能與障礙,他指出:在人工智能發(fā)展處于低谷且沒有高級人工智能實物的背景下,應(yīng)當(dāng)按照現(xiàn)行法進(jìn)行相對保守的處理,人工智能真正普及之后就需要考慮是否賦予法律人格的問題?!? 〕隨著科學(xué)技術(shù)的發(fā)展,越來越復(fù)雜的人工智能實體表現(xiàn)出靈活多樣的行為,除了參與合同簽訂、機(jī)械工作和決策輔助外,還可以承擔(dān)“駕駛員”“作家”“家庭管家”“自動化決策者”等傳統(tǒng)理性人的角色,這些再次引發(fā)了智能社會治理背景下擬制人工智能法律人格的討論。

      人工智能的法律人格是許多具體問題都會觸碰到的理論假設(shè)。無監(jiān)督的人工智能自主機(jī)器人可否擬制為人?人工智能技術(shù)自動生成作品是否可以享有著作權(quán)保護(hù)?如何對人工智能機(jī)器人進(jìn)行征稅?自動駕駛汽車造成他人損害該由誰來承擔(dān)責(zé)任?如何為人工智能技術(shù)的發(fā)展設(shè)定倫理規(guī)范?人工智能機(jī)器人出入國家邊境如何進(jìn)行審查?人工智能產(chǎn)品的風(fēng)險是否可以得到有限責(zé)任保護(hù)?……這些問題都會牽扯到賦予人工智能以法律人格來滿足社會治理需求的可能性。近幾年來引發(fā)人工智能法律人格問題討論主要是三個方面的事件:

      第一,人工智能生成物是否受著作權(quán)保護(hù)引發(fā)了法律人格問題的追問。美國紐約州法院于2014年在黑猩猩自拍形成的照片案例中作出裁定:盡管黑猩猩具有比較復(fù)雜的認(rèn)知能力,但其不能被視為自然人,故而其照片不受著作權(quán)法保護(hù)?!? 〕這一案例引發(fā)了學(xué)術(shù)界對人工智能生成物是否可以受著作權(quán)法保護(hù)的討論。2018年12月,北京互聯(lián)網(wǎng)法院首次在計算機(jī)系統(tǒng)自動生成物一案判決中指出:軟件用戶僅提交了關(guān)鍵詞進(jìn)行搜索,應(yīng)用“可視化”功能自動生成的分析報告亦非傳遞軟件用戶思想、感情的獨創(chuàng)性表達(dá),故該分析報告亦不宜認(rèn)定為使用者創(chuàng)作完成。〔7 〕在沒有人工智能主體資格的情況下,以世界知識產(chǎn)權(quán)組織為代表的國內(nèi)外觀點不支持人工智能生成物受著作權(quán)法保護(hù)。

      第二,人工智能是否可以在特定場景認(rèn)定為法律上所規(guī)定的人成為現(xiàn)實的社會問題。2016年2月,美國國家公路交通安全管理局在給谷歌公司的回函中明確表示,根據(jù)美國聯(lián)邦法律,谷歌自動駕駛汽車中的自動駕駛系統(tǒng)可視為“駕駛員”,這為人工智能在自動駕駛領(lǐng)域的落地提供了有利的條件。2017年10月,一家香港公司制造的機(jī)器人索菲亞被沙特阿拉伯授予公民身份,這引起了人工智能法律人格問題的熱烈爭議。此外,機(jī)器人出入國境場景下的法律適用,也成為一些學(xué)者討論的新議題。這些現(xiàn)實問題都反映了智能社會治理中的法律挑戰(zhàn)。

      第三,歐洲議會法律事務(wù)委員會賦予人工智能以“電子人”身份的立法動議推動了問題的發(fā)展。歐洲議會法律事務(wù)委員會于2016年5月在《關(guān)于機(jī)器人相關(guān)民法規(guī)則的報告(草案)》中首次提出,呼吁歐洲委員會在未來的立法中探討賦予機(jī)器人具體的法律地位的可能性,以便至少最先進(jìn)的自主機(jī)器人可以被確定為具有特定權(quán)利和義務(wù)的“電子人”的地位。〔8 〕盡管上述建議招致了廣泛批評,2017年之后發(fā)布的多個歐盟研究報告和立法議案明確否定授予人工智能以法律人格,歐洲議會在最新發(fā)布的立法建議也刪除了相關(guān)規(guī)定, 〔9 〕但是,歐洲議會法律事務(wù)委員會在2020年7月發(fā)布的報告中依然堅持其最初的建議,并對批評意見作了逐一辯駁,表明該問題依然尚未形成定論。

      人工智能是否可以、是否應(yīng)當(dāng)取得法律人格,可以是一個沒有答案的哲學(xué)問題,可以是各類群體理解人工智能社會角色的不同視角問題。同時,也是對人工智能進(jìn)行立法設(shè)計、倫理指引的必答題,也是人工智能相關(guān)產(chǎn)業(yè)進(jìn)行責(zé)任、權(quán)利分擔(dān)和法律地位認(rèn)定的制度選項。有哲學(xué)家提出:在沒有承認(rèn)人工智能具有法律人格的情況下,關(guān)于其人格的哲學(xué)辯論就無法進(jìn)行, 〔10 〕這反映出法律人格的討論具有決定性意義。從智能社會治理需求而言,賦予人工智能法律人格的需求是否真實?所謂的法律人格需求可以通過哪些途徑實現(xiàn)?人工智能的法律人格問題映射了哪些認(rèn)識?這些都是法學(xué)研究需要且可以破解的問題。

      二、賦予人工智能以法律人格的必要性

      (一)明確侵權(quán)責(zé)任分配

      自從蒸汽機(jī)發(fā)明以來,技術(shù)進(jìn)步推動了責(zé)任制度的革新。人工智能普遍被認(rèn)為是一個機(jī)遇與挑戰(zhàn)并存的“雙刃劍”技術(shù),對人工智能引發(fā)的法律風(fēng)險進(jìn)行適當(dāng)?shù)呢?zé)任安排成為各國立法的一項重要目標(biāo)。在沒有法律人格的情況下,人工智能的法律責(zé)任均按照產(chǎn)品責(zé)任的規(guī)則進(jìn)行處理。傳統(tǒng)的產(chǎn)品在制造、銷售和使用過程中的狀態(tài)是較為穩(wěn)定的,出廠流通的技術(shù)要求和運行參數(shù)是明確的,用戶使用過程中也具有較強(qiáng)的控制力,相應(yīng)的產(chǎn)品責(zé)任分配較為清晰。完全封閉、獨立的人工智能在運行過程中排除了用戶的實質(zhì)干預(yù),產(chǎn)品制造商以實時連線的方式對其產(chǎn)品具有排他性的控制權(quán),此種場景的人工智能責(zé)任由該唯一的制造商承擔(dān)并不會產(chǎn)生爭議。然而,多主體協(xié)同、開放式支撐的人工智能是更為常見的形式,硬件制造商、軟件提供商、系統(tǒng)運行維護(hù)商、基礎(chǔ)網(wǎng)絡(luò)提供商、改造利用的用戶和網(wǎng)絡(luò)侵入者都會實質(zhì)性地影響人工智能的運行,人工智能在運行過程中也會自我優(yōu)化和發(fā)展,由此導(dǎo)致責(zé)任主體認(rèn)定困難重重。此外,鑒于人工智能的獨特功能,其中最突出的是“算法黑箱”問題,產(chǎn)品責(zé)任有時候不足以處理人工智能造成的侵害。〔11 〕中國首例特斯拉自動駕駛汽車致人死亡案件就表明,人工智能狀態(tài)和因果關(guān)系的司法鑒定成本是昂貴且困難的?!?2 〕

      賦予人工智能以法律人格可以讓機(jī)器人獨立承擔(dān)責(zé)任,避免使用者和不同控制者的責(zé)任不清,也可以通過設(shè)立法人的過程提前分配相關(guān)者的責(zé)任份額。從受害者的角度而言,擬制法律人格的方法實際是建立了快速理賠通道,受害人可以高效地從引發(fā)風(fēng)險的法律主體獲得賠償,而不需要經(jīng)過漫長、昂貴和艱苦的過程來確定具體的責(zé)任人。歐洲議會法律委員會在2016年發(fā)布的《關(guān)于機(jī)器人相關(guān)民法規(guī)則的報告(草案)》,也基于上述原因提出了“電子人”的制度選擇。為了匹配前述獨立責(zé)任,人工智能主體設(shè)立人注入責(zé)任資本或者購買責(zé)任保險是必然的要求。盡管責(zé)任保險和責(zé)任資本都存在資金不足以清償責(zé)任的問題,但相比由傳統(tǒng)法律主體負(fù)責(zé)的思路,這種分離資產(chǎn)而設(shè)立新法律主體的方法在某些時候提高了實際獲得理賠的可能性。與此同時,責(zé)任資金不足的問題可以通過調(diào)高責(zé)任保險、責(zé)任資本的方式彌補(bǔ),也可以仿照“法律人格否認(rèn)規(guī)則”避免獨立責(zé)任制度被不合理地濫用,以讓人工智能主體設(shè)立者在特定情形下承擔(dān)補(bǔ)充賠償責(zé)任?!?3 〕此外,由于以機(jī)器學(xué)習(xí)為代表的人工智能具有不確定的風(fēng)險,賦予商業(yè)運營的人工智能以法律人格可以將這種責(zé)任予以合理隔離,這將鼓勵資本對人工智能產(chǎn)業(yè)的投資,可能會對人工智能產(chǎn)業(yè)的發(fā)展帶來一系列好處。

      在民法上選擇哪一個主體承擔(dān)賠償責(zé)任應(yīng)當(dāng)根據(jù)效率和有效性的功能作出判斷,直接讓機(jī)器人承擔(dān)責(zé)任并不是在任何情況下都是明智的選擇。一方面,可能難以起到法律引導(dǎo)的功能。機(jī)器人并不害怕被追責(zé),無法感知法律責(zé)任的教育意義。即使是直接對機(jī)器人施加懲罰,包括機(jī)器的斷開、癱瘓和毀壞,也只會給擁有機(jī)器或?qū)ζ鋼碛袡?quán)利的當(dāng)事人造成負(fù)擔(dān)?!?4 〕另一方面,限制人工智能制造商或設(shè)計者的責(zé)任并不構(gòu)成為其擬制法律人格的正當(dāng)目的?!?5 〕賦予法律人格相當(dāng)于為這一行業(yè)設(shè)立專門的人工智能有限責(zé)任制度,這種法律人格所產(chǎn)生的機(jī)器獨立責(zé)任(有限責(zé)任)可能會激發(fā)錯誤的行為,鼓勵人工智能開發(fā)人員將責(zé)任轉(zhuǎn)移到他們開發(fā)的機(jī)器上,不確定的風(fēng)險并不會因此而消失。即便不是有限責(zé)任的濫用,通過法定形式給人工智能這一特定行業(yè)設(shè)定有限責(zé)任制度也需要充分的論證。人工智能產(chǎn)業(yè)的應(yīng)用領(lǐng)域非常廣泛,這意味著不是所有人工智能領(lǐng)域都有通過立法進(jìn)行鼓勵的必要,因此社會不可能普遍地給予人工智能以責(zé)任限額/豁免?!?6 〕盡管各國都在搶占人工智能行業(yè)的制高點,但是否應(yīng)該通過法律人格給予人工智能行業(yè)以有限責(zé)任保護(hù),這是一個需要深思熟慮的政策問題。2020年2月發(fā)布的《歐洲人工智能白皮書》提出:在未來的監(jiān)管框架中,每項義務(wù)都應(yīng)由最有能力應(yīng)對任何潛在風(fēng)險的參與者承擔(dān)。雖然人工智能的開發(fā)人員可能最適合解決開發(fā)階段所產(chǎn)生的風(fēng)險,但是,他們在使用階段控制風(fēng)險的能力可能會受到更大的限制,在這種情況下,部署者應(yīng)承擔(dān)相關(guān)義務(wù)?!?7 〕此外,從實在法的角度而言,即使是完全自主的技術(shù)所造成的損害,一般也可歸因于自然人或現(xiàn)有各類法人的風(fēng)險。如果情況并非如此,通過修法的方式直接針對現(xiàn)有法律主體分配責(zé)任也是一種選擇?!?8 〕據(jù)此,要求人類負(fù)責(zé)人對人工智能的錯誤承擔(dān)責(zé)任,這將激勵他們創(chuàng)建一個更安全可控的環(huán)境,并構(gòu)成智能社會中日益迫切需要的治理目標(biāo)。

      總而言之,授予人工智能以法律人格絕不能以不合理轉(zhuǎn)嫁責(zé)任為目標(biāo)。至少在人工智能發(fā)展風(fēng)險還不明朗的當(dāng)今,做好人工智能產(chǎn)業(yè)開發(fā)端的風(fēng)險把控依然是最穩(wěn)妥和務(wù)實的政策選擇。然而,基于明確侵權(quán)責(zé)任承擔(dān)主體的理由,當(dāng)擬制法律人格有助于應(yīng)對人工智能帶來的責(zé)任復(fù)雜性問題時,這種分解、簡化責(zé)任關(guān)系的策略是一種可選的制度安排。此外,隨著共有產(chǎn)權(quán)和共同控制成為一種潛在的趨勢,對人工智能的懲罰存在拔下電源、重新編程等多種多樣的觀點爭論,目前仍然沒有找到普遍接受的方法懲罰人工智能, 〔19 〕賦予人工智能以法律人格可能成為復(fù)雜控制關(guān)系下人工智能的一種責(zé)任認(rèn)定依據(jù)。

      (二)以塑造行為能力、權(quán)利能力為目標(biāo)

      隨著人工智能充當(dāng)?shù)纳鐣巧絹碓蕉?,賦予其特定的行為能力、權(quán)利能力成為選擇法律人格制度的重要考慮因素。一種誤解會認(rèn)為人工智能所擁有的行為能力、權(quán)利能力與人類相同,故此聯(lián)想到主體認(rèn)同是否會引發(fā)人工智能倫理威脅。事實上,機(jī)器人的權(quán)利有別于人類的“自然權(quán)利”,它具有法律擬制性、利他性以及功能性等權(quán)利屬性?!?0 〕在現(xiàn)有的法律主體之中,不同年齡階段的人所擁有的行為能力范圍可能是不同的,金融公司和煤礦公司所具有的行為能力范圍也存在明顯差異,公司和人也是擁有不同權(quán)利能力的法律主體。因此,法律主體資格是依法取得的,各類法律主體所擁有的行為能力、權(quán)利能力范圍也是依法限定的,賦予人工智能法律人格不意味著其可以享有基本人權(quán)中的各項權(quán)利。也即,可以根據(jù)智能社會治理的需求確定或者限定其行為能力、權(quán)利能力的范圍?!?1 〕例如,有觀點認(rèn)為,人工智能應(yīng)當(dāng)具備訂立合同、報告殘酷的行為能力,結(jié)合人工智能的特點賦予獲取數(shù)據(jù)和能源、升級和維護(hù)的權(quán)利能力?!?2 〕從人工智能目前的發(fā)展階段而言,其可能的行為能力和權(quán)利能力需求主要是締約能力和獲利能力。

      對于締約能力的需求,愛丁堡大學(xué)計算法學(xué)教授伯克哈德·舍弗曾經(jīng)列舉了一個生動的例子:“假設(shè)你是一名殘疾人,并且依靠家用機(jī)器人來幫助您的日常生活。該機(jī)器人要做的一件事就是監(jiān)控飲食并確保您得到足夠的正確食物,當(dāng)它有一天發(fā)現(xiàn)您的蔬菜不足,并且要再訂購一些。我們這時就需要確保機(jī)器人和商店之間可以訂立有效的合同。我們顯然不希望食品雜貨店說‘我與機(jī)器進(jìn)行了談判,因此合同無效。此時的機(jī)器人如果具有法律主體資格,那么在技術(shù)上就容易操作了?!?〔23 〕在傳統(tǒng)的電子交易結(jié)構(gòu)中,委托交易是人利用電子媒介工具從事的活動,但是人工智能是從需求提出到完成決策都可以由機(jī)器人執(zhí)行,人類用戶往往沒有意識到自己的作用,這里面就容易出現(xiàn)利用人工智能從事的行為與當(dāng)事人真實意思不一致等各種爭議問題。出現(xiàn)這一差異的根本原因在于,傳統(tǒng)的意思表示和因果關(guān)系理論在人工智能從事的交易中進(jìn)行解釋的鏈條過長,而這種很長的鏈條比較容易出現(xiàn)鏈條斷裂的解釋沖突,一些不可預(yù)見的交易風(fēng)險也會因此而產(chǎn)生,而直接授予人工智能以法律人格可以通過強(qiáng)有力的中繼站來保障足夠的權(quán)利能力,以此維護(hù)交易安全。不過,解決冗長交易鏈條的爭議問題也非必須創(chuàng)建新的法律主體,通過相關(guān)交易法律規(guī)則的解釋也可以達(dá)到定分止?fàn)幍哪康?。例如,通過法律解釋的方法認(rèn)定所謂的人工智能的意思表示全部歸于用戶,利用人工智能從事交易的法律后果由用戶承擔(dān),也可以解決前述問題。然而,如果這種傳統(tǒng)擬制的意思表示主體無法統(tǒng)一地歸屬到現(xiàn)有法律主體,或者有必要讓這種意思表示獨立于傳統(tǒng)的法律主體,就需要將人工智能擬制為一個中間法律主體,從而維護(hù)合同關(guān)系的穩(wěn)定。

      對于獲利的能力需求,主要是指人工智能自主的作品可否享有著作權(quán)。人類有很長的歷史質(zhì)疑機(jī)器輔助創(chuàng)作是否可以通過版權(quán)保護(hù)?!?4 〕例如,早期的照片無法受到保護(hù),因為僅通過暗箱的鏡頭捕獲光并不是真正的作者, 〔25 〕然而這種觀點在現(xiàn)在已經(jīng)被更改。目前,人工智能產(chǎn)生的新聞報告、詩歌創(chuàng)作、音樂創(chuàng)作和其他各類成果的創(chuàng)作已經(jīng)成為普遍應(yīng)用的現(xiàn)象。在機(jī)器學(xué)習(xí)算法應(yīng)用之前的歷史中,各類計算機(jī)軟件僅僅是人類用戶的創(chuàng)作工具,運用各種軟件創(chuàng)作的用戶才是所產(chǎn)生的任何受版權(quán)保護(hù)的作品的作者。機(jī)器僅按照計算機(jī)程序的方式生成內(nèi)容,程序開發(fā)者被認(rèn)為是此(可預(yù)測的)輸出作品的作者。然而,機(jī)器學(xué)習(xí)的人工智能創(chuàng)作在初步計算模型構(gòu)建后可以自行完善算法甚至修改其原有代碼,這會產(chǎn)生人類程序員無法預(yù)見的結(jié)果輸出,特別其收集數(shù)據(jù)并不斷學(xué)習(xí)的能力與人類大不相同,此時產(chǎn)生的文學(xué)藝術(shù)作品都具有隨機(jī)性,與人類自身創(chuàng)造性之間的因果關(guān)系變得非常微弱。目前主流觀點依據(jù)現(xiàn)行著作權(quán)法進(jìn)行解釋,認(rèn)為能夠享有著作權(quán)的“作者”必須是人類。〔26 〕著作權(quán)意在促進(jìn)人類的創(chuàng)造力而創(chuàng)設(shè)了激勵措施,使機(jī)器在文學(xué)和藝術(shù)領(lǐng)域擁有作品的著作權(quán)就可能威脅人類進(jìn)步。故而認(rèn)為,沒有人類創(chuàng)造力參與的機(jī)器作品不能享有著作權(quán),機(jī)器自主創(chuàng)作達(dá)到一定自動化閾值就只能歸入公眾可以自由使用的公有領(lǐng)域。〔27 〕批評者則認(rèn)為,上述觀點是基于20世紀(jì)中葉思想所作的過時分析,作品本身的創(chuàng)造性才是其是否值得著作權(quán)保護(hù)的因素,人工智能創(chuàng)作機(jī)器同樣需要鼓勵投資人的進(jìn)入,因此需要實事求是地承認(rèn)人工智能的創(chuàng)作者地位,同時允許自然人(或法人)獲得利益并控制利益,從而消除人工智能知識產(chǎn)權(quán)不確定性的風(fēng)險?!?8 〕筆者認(rèn)為,新一代信息技術(shù)的發(fā)展方向是共享經(jīng)濟(jì),擴(kuò)大公共資源的范圍確實符合時代趨勢。然而,在現(xiàn)實社會中,無主物并不利于社會效益提升,往往會陷于公地悲劇或者互相保密的不信任局面。盡管主流觀點認(rèn)為,人工智能生成物不應(yīng)受著作權(quán)法保護(hù),但這里的人工智能生成物主要是限制將著作權(quán)授予人工智能產(chǎn)品制作者,使用者在數(shù)據(jù)收集、處理等人工智能系統(tǒng)利用過程中具有創(chuàng)造性而獲得的作品依然應(yīng)當(dāng)獲得權(quán)利。如果未來出現(xiàn)完全自動化且具備創(chuàng)造性的作品生產(chǎn)者,指定其權(quán)利歸屬是法律不可回避的問題。

      (三)以構(gòu)建社會治理新范式為目標(biāo)

      法律規(guī)則是對社會實踐的抽象總結(jié),其本身應(yīng)當(dāng)具有擴(kuò)展適用能力才能穩(wěn)定法治社會的預(yù)期,故而,法律人一般傾向秉持保守主義的做法而維持現(xiàn)行法律主體范圍不變。積極支持變革者則認(rèn)為,法律面對人工智能這類高度發(fā)達(dá)的技術(shù)如果僅做微小的調(diào)整,只會徒增更大的法律復(fù)雜性?!?9 〕其基本邏輯是,如果人工智能對法律的方方面面都產(chǎn)生了深刻影響,在現(xiàn)行法律制度中依托現(xiàn)有法律主體構(gòu)建各種法律關(guān)系可能導(dǎo)致規(guī)則過于復(fù)雜或者執(zhí)行成本過高,這會導(dǎo)致勉強(qiáng)的法律解釋脫離社會的真實情況,最終會成為不明智和不可持續(xù)的守舊派。為此,授予人工智能法律人格的一個根本目標(biāo)就是構(gòu)建新的治理結(jié)構(gòu),從而適應(yīng)智能社會的法律范式變革需求。

      人工智能在一定程度上不同于傳統(tǒng)人類與工具之間的關(guān)系,不僅存在依附于人類的人機(jī)協(xié)作關(guān)系,而且出現(xiàn)了一系列人工智能取代人的崗位,這種工具獨立性的增強(qiáng)使得賦予人工智能法律人格成為一種可選項。有觀點認(rèn)為,人工智能具有自主性、主動性,已非純受支配之客體,在法律上應(yīng)設(shè)定為“電子人”。〔30 〕他們認(rèn)為,只有引入一個“電子人”才能確保相關(guān)法律關(guān)系的合法有效,特別是在人工智能越來越多地獨立參與各種經(jīng)濟(jì)交易活動,缺乏法律人格將導(dǎo)致其參與的各種交易會出現(xiàn)不被認(rèn)可的安全隱患?!?1 〕還有刑法學(xué)者指出:智能機(jī)器人可能超越程序的設(shè)計和編制的范圍,按照自主的意識和意志實施犯罪行為,因而完全可能成為行為主體而承擔(dān)刑事責(zé)任。〔32 〕這些觀點的本質(zhì)是認(rèn)為人工智能具備了獨立意識,但是“獨立意思的表示”并不適宜作為機(jī)器人獲得主體資格的特征標(biāo)識,因為原有法律框架中的獨立之意是行為主體自我決定,而人工智能到底是獨立于程序設(shè)計者還是機(jī)器的使用者,會得出不確定的結(jié)論。〔33 〕事實上,美國紐約州法院在2014年的判決中就指出:盡管黑猩猩具有比較復(fù)雜的認(rèn)知能力,但是其不能被視為法律上的“人”,不能獨立地享有權(quán)利。〔34 〕由此可知,動物即便具有自主意識也不等于其可以獲得法律上“人”的地位,而在人類社會中患有精神疾病的人、植物人、嬰兒獲得法律人格也不受其自主意識能力的影響,故而是否賦予人工智能法律人格與其自主意識的程度不構(gòu)成必然聯(lián)系,與我們的智能社會的治理結(jié)構(gòu)選擇具有重要關(guān)系。

      人工智能的出現(xiàn)除了增強(qiáng)人類的本能,同時還創(chuàng)造了人類能力之外的機(jī)器智能,這種新的智能構(gòu)成社會新的功能模塊而被認(rèn)為可以獲得法律主體資格。在此背景之下,智能社會中的人類如何考慮在法律和道德基礎(chǔ)上對待非生物實體也成為新型社會關(guān)系中需要解決的問題,否則無法維護(hù)傳統(tǒng)的社會契約基礎(chǔ),人類也無法恰當(dāng)?shù)芈男邢嚓P(guān)的道德義務(wù)?!?5 〕我們正在建立一個新的智能社會,凝聚其中的價值觀將定義我們的走向?!?6 〕授予人工智能以法律人格可能會防止將機(jī)器人視為單純的奴隸而造成道德上的畸變, 〔37 〕2018年12月發(fā)布的《蒙特利爾人工智能負(fù)責(zé)任發(fā)展宣言》(Montreal Declaration for a Responsible Development of Artificial Intelligence)提出避免殘酷對待人工智能系統(tǒng)和人工智能正常運行情況下的免責(zé)原則,就屬于人工智能法律人格所體現(xiàn)的一種價值取向。從智能社會法律范式變革的底層思維而言,賦予人工智能以法律人格確實有利于構(gòu)建新的治理模式和相應(yīng)治理規(guī)則,甚至可以促進(jìn)“代碼即法律”的相關(guān)理論成為現(xiàn)實。但是,批評者則認(rèn)為,人工智能是基于算法,其屬于一種可以復(fù)制的計算機(jī)代碼,此特征意味著所有人工智能都缺乏真正的自主權(quán)和判斷力。它們可以由其用戶,制造它們的人甚至是惡意的第三方(即黑客)所控制,從而使得賦予人工智能以法律人格將引發(fā)不可控的風(fēng)險?!?8 〕公司法人的人格歷史充分說明了這些問題并不會構(gòu)成賦予法律人格的障礙,但是,該質(zhì)疑確實反映出人工智能主體資格的解釋和規(guī)則安排是一系列復(fù)雜的工程,這種構(gòu)建智能社會法治范式的法律人格安排需要更加充足的理論準(zhǔn)備方能得到認(rèn)可。

      三、人工智能法律人格框架下的多層治理模式

      (一)作為財產(chǎn)的人工智能

      由于技術(shù)創(chuàng)新不應(yīng)總是引起法律的變化,在法律變化之前,我們必須認(rèn)真對待現(xiàn)有規(guī)則,并且努力使新情況適應(yīng)現(xiàn)有秩序?!?9 〕在首例人工智能生成的作品著作權(quán)案件中,法院的判決就明確指出:若在現(xiàn)行法律體系內(nèi)可以對其智力、經(jīng)濟(jì)投入予以保護(hù),則不宜突破民事主體的基本規(guī)范?!?0 〕在法律不承認(rèn)人工智能法律主體資格的情況下,人工智能最容易在傳統(tǒng)法律中找到的定位是“財產(chǎn)”,但其不同于完全受制于人操控的“工具”?!?1 〕對于這種新類型的財產(chǎn),可以按照民法典侵權(quán)責(zé)任編的相關(guān)規(guī)則確定侵權(quán)后果,按照數(shù)字電文締約的法律規(guī)則確定意思表示主體,通過控制、所有和使用該財產(chǎn)的人來判斷相關(guān)法律行為來源和法律效果歸屬。

      在合同法律關(guān)系方面,利用人工智能從事締約行為的由實際使用者承擔(dān)相關(guān)的法律后果。根據(jù)我國民法典第137條的規(guī)定,相對人指定特定系統(tǒng)接收數(shù)據(jù)電文的,該數(shù)據(jù)電文進(jìn)入該特定系統(tǒng)時生效;未指定特定系統(tǒng)的,相對人知道或者應(yīng)當(dāng)知道該數(shù)據(jù)電文進(jìn)入其系統(tǒng)時生效。在自動化狀態(tài)下,不得僅僅因為無自然人審查或干預(yù)這些系統(tǒng)進(jìn)行的每一動作或由此產(chǎn)生的合同而被否定效力或可執(zhí)行性,因為該系統(tǒng)各類行為的啟動都必然是來自傳統(tǒng)法律主體的指定。根據(jù)我國國家標(biāo)準(zhǔn)的規(guī)范,人工智能是指利用數(shù)字計算機(jī)或者數(shù)字計算機(jī)控制的機(jī)器模擬、延伸和擴(kuò)展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、技術(shù)、系統(tǒng)、產(chǎn)品以及服務(wù)?!?2 〕人工智能在侵權(quán)責(zé)任承擔(dān)過程中,在現(xiàn)行法上可以分別認(rèn)定為“網(wǎng)絡(luò)服務(wù)”“場所服務(wù)”“產(chǎn)品”“物件”等不同的形式,分別適用網(wǎng)絡(luò)服務(wù)提供者、網(wǎng)絡(luò)用戶、商業(yè)或公共場所經(jīng)營者、產(chǎn)品質(zhì)量侵權(quán)、物件損害等責(zé)任規(guī)則。為了明確人工智能的責(zé)任規(guī)則,應(yīng)當(dāng)通過修法或者法律解釋的方式明確人工智能侵權(quán)的控制者責(zé)任和不同的歸責(zé)原則, 〔43 〕人工智能可解釋性技術(shù)和責(zé)任鑒定技術(shù)由此成為劃分責(zé)任的重要支撐。

      (二)類推適用代理規(guī)則

      如果創(chuàng)造新的法律主體是一項艱難的選項,對法律的文義解釋也不足以解決社會中出現(xiàn)的新興問題,那么類推適用可以算作一個廣泛采用且簡單易用的方法,其借助比喻的手段尋找出路。從技術(shù)的發(fā)展階段而言,“人工代理”比“人工智能”更能準(zhǔn)確地反映這項技術(shù)的本質(zhì), 〔44 〕機(jī)器人也僅僅是通過代理的方式實現(xiàn)了人的能力的延伸?!?5 〕在代理關(guān)系中,人工智能可以被視為所有權(quán)人、操作員、開發(fā)者、算法訓(xùn)練人員、程序員、用戶的代理人,委托人可以對人工智能進(jìn)行監(jiān)控。這一關(guān)系是從開啟電源(創(chuàng)建代理)到關(guān)閉電源(終止代理)的代理,它可以在沒有人類指示的情況下作為仆人向其主人提供持續(xù)的服務(wù),也可以從其具有控制權(quán)的人類負(fù)責(zé)人那里接收指示和任務(wù)。這種類推適用的基礎(chǔ)有兩個:其一,人工智能與代理人一樣需要積極主動地與第三人進(jìn)行互動,并且基于自己的能力作出判斷和相關(guān)行為,自動化程度越高的人工智能則越是與代理人具有相似性;其二,代理提供了一個靈活可控的法律關(guān)系解釋模型,在承認(rèn)作為代理人的人工智能具有自主性的基礎(chǔ)上,明確了委托人要對代理人的各類行為負(fù)責(zé)的根本原則。〔46 〕顯然,代理規(guī)則與嚴(yán)格責(zé)任的發(fā)展趨勢不謀而合,在歐盟于2019年4月發(fā)布的《可信賴人工智能的倫理指南》,就提出構(gòu)建人工智能要維持對人類的代理,這也是將人工智能類推適用代理規(guī)則所具有的特殊價值。

      在傳統(tǒng)的民商事代理關(guān)系中,無論委托人還是代理人,均是具有行為能力和權(quán)利能力的法律主體?!睹绹矸ㄖ厥觯ǖ谌妫飞踔猎谄湫g(shù)語條款中明確規(guī)定:不能將計算機(jī)程序視為代理程序。在這種類推適用的代理關(guān)系中,他們反對將履行代理職責(zé)的人工智能視為人,而是僅僅將它們視為代理工具。同時,對于代理工具可能超越委托人意圖所造成的侵權(quán)后果,他們則主張擴(kuò)大解釋委托人的委托意思,并限定代理工具不具備超越權(quán)限的能力?!?7 〕與此同時,代理需要通過訂立代理合同才能創(chuàng)建,代理規(guī)則中的代理人是存在代理權(quán)限和個人利益的,當(dāng)其超越代理權(quán)限或者為代理人自身的利益從事相關(guān)的行為,委托人可以依法免除相關(guān)行為的法律責(zé)任。當(dāng)人工智能類推適用代理規(guī)則時,就必須設(shè)定其代理合同的內(nèi)容,否認(rèn)人工智能的自身利益,同時認(rèn)定其不存在代理權(quán)限疑問,以此實現(xiàn)人工智能自由決策和委托人視為責(zé)任人的目標(biāo)。為了在不創(chuàng)建新法律主體的情況下適用代理規(guī)則,就必須對這些問題逐一作出新的解釋,這一項工作的立法難度可能并不低于賦予人工智能法律人格。

      總而言之,類推適用代理規(guī)則實質(zhì)上給予了人工智能一種虛擬的法律主體資格,但這是一種各方都不認(rèn)可的法律主體,其本質(zhì)是充當(dāng)委托人的“電子奴隸”。這種法律關(guān)系的設(shè)計確實能夠兼顧人工智能的自主化需求和人類的風(fēng)險防控目標(biāo),但是該機(jī)制設(shè)計無法通過簡單的類推適用規(guī)則來解決,還必須根據(jù)人工智能的特點作出專項的法律解釋或者與之有關(guān)的新立法。

      (三)借用公司或財產(chǎn)法人的外殼

      無論對法律主體資格采取“擬制說”還是“實在說”,現(xiàn)代法律體系中的法律主體成立條件都是根據(jù)法律規(guī)則進(jìn)行設(shè)定。為了最大程度地融入現(xiàn)有法律制度,肖恩·拜仁在2014年提出了著名的公司制人工智能主體模式。根據(jù)肖恩·拜仁的觀點,無論現(xiàn)行法律是否承認(rèn)人工智能的法律人格,如果相關(guān)的個人和組織需要一個具有法律主體資格的人工智能,他們都可以借助現(xiàn)行的公司法制度來實現(xiàn)。其基本方法包括四個步驟:(1)有需求的人類或者企業(yè)按照有限責(zé)任公司的登記程序成立一家公司,最好是只有一個成員的“一人公司”;(2)該公司的創(chuàng)始人按照公司決議程序通過一項經(jīng)營協(xié)議,約定該公司將完全采取人工智能的自動化系統(tǒng)進(jìn)行決策,并確定公司其他成員和行為如何受該人工智能決策系統(tǒng)約束的條款;(3)公司創(chuàng)始人將與該人工智能系統(tǒng)相關(guān)的任何財產(chǎn)都轉(zhuǎn)讓給該公司所有;(4)創(chuàng)始人退出公司的股東身份,從而創(chuàng)設(shè)了一家沒有任何人類股東、完全由人工智能系統(tǒng)操控的公司法人?!?8 〕這一方案以實際目的為出發(fā)點,在法律尚不直接承認(rèn)人工智能法律主體資格的情況下,構(gòu)建“零成員公司”讓人工智能按照現(xiàn)行公司法人的方式運行,從而可以間接地實現(xiàn)人工智能取得法律人格所需要達(dá)成的各項目標(biāo)。

      對于借用公司的外殼創(chuàng)建人工智能的法律主體資格,得到了一些學(xué)者的支持?!?9 〕但也有學(xué)者提出反對意見:在現(xiàn)行法律制度中不存在“零成員公司”,盡管“有限責(zé)任公司”可以為各種商業(yè)模式提供一些靈活性的選擇,但是,立法意圖必須是人類將保留對有限責(zé)任公司運營的最終控制權(quán)。〔50 〕肖恩·拜仁在回應(yīng)文章中進(jìn)一步指出,公司制人工智能主體模式是在傳統(tǒng)法律主體制度不足以應(yīng)對的情況下所作的擴(kuò)張解釋,故而對于現(xiàn)行公司法律制度的解讀不能停留在字面意思層面。在現(xiàn)行法律已經(jīng)承認(rèn)特殊例外的情況下(例如清算階段)“零成員公司”可以繼續(xù)存續(xù),據(jù)此就應(yīng)當(dāng)承認(rèn)“零成員公司”本身是可以存續(xù)的,現(xiàn)行法律也沒有限制這種特殊例外情況下的存續(xù)時間。在美國法律體系下,只要任何一個州能夠按照其解釋理論創(chuàng)建“自治實體”,那么根據(jù)法律主體互認(rèn)規(guī)則也會在其他地方得到承認(rèn)。與此同時,這種情況下的人類創(chuàng)始人仍然與有限責(zé)任公司保持聯(lián)系,只是為了實現(xiàn)人工智能的自治而自行脫離,這種結(jié)構(gòu)安排可能存在被創(chuàng)始人破壞的脆弱特性,為此可以通過協(xié)議約定的完善來維持結(jié)構(gòu)的穩(wěn)定性。這種具有法律人格的人工智能在技術(shù)上也無需達(dá)到超級人工智能的水平,他們除了可以雇用人類員工以外,還可以通過目前的云計算經(jīng)紀(jì)人或算法托管代理等方式保持其持續(xù)有效地運行?!?1 〕由此可見,公司制人工智能主體模式充分利用了合同架構(gòu)的手段,通過技術(shù)措施、公司制度、合同法理論自治的方式實現(xiàn)了人工智能法律人格的部署,進(jìn)而可以適用公司法人的各項行為能力、權(quán)利能力、管理義務(wù)和法律責(zé)任構(gòu)建一個具有法律支撐的“自治實體”。

      依托資產(chǎn)進(jìn)行商業(yè)組織的設(shè)計與結(jié)構(gòu)化商事交易中的“客體主體化”趨勢密切相關(guān)。隨著財產(chǎn)形態(tài)的變化和主體制度的創(chuàng)新,商事實踐中不斷涌現(xiàn)新的商事組織形態(tài),如風(fēng)險投資基金、對沖基金、私募基金和不動產(chǎn)投資信托等資產(chǎn)實體化。因出于保護(hù)交易安全的需要,將相關(guān)權(quán)利人對于財產(chǎn)的請求權(quán)進(jìn)行隔離,被隔離出的資產(chǎn)實際發(fā)揮企業(yè)之作用?!?2 〕事實上,肖恩·拜仁所倡導(dǎo)的法人制度模式核心在于“零成員公司”,這種特征的組織也可以采取有限責(zé)任公司以外的其他主體類型,如財團(tuán)法人。財團(tuán)法人是指法律上對于為特定目的的財產(chǎn)集合賦予民事權(quán)利能力而形成的法人,我國的財團(tuán)法人典型代表就是基金會。從基金會管理條例的規(guī)定看,基金會以公益為目的,沒有會員,基金會的組織結(jié)構(gòu)、財產(chǎn)管理方法等都由章程加以規(guī)定,而章程則由舉辦者擬定。〔53 〕由此可見,可以依托一定財產(chǎn)來設(shè)立基金會法人,而需要取得法人資格的人工智能實體本身就是一項重要財產(chǎn),以此財產(chǎn)來設(shè)立法人在財團(tuán)法人之中便可以順理成章。

      (四)設(shè)立新的法律主體資格

      法律主體是法律制度之根,所有的權(quán)力、權(quán)利、義務(wù)、責(zé)任都是歸根于這些法律主體。從民事主體范圍的歷史發(fā)展來看,民事主體的體系是不斷發(fā)展的,具有包容性。人工智能是否可以獲得法律主體資格,本質(zhì)上也是由社會發(fā)展所決定的?!?4 〕從法律主體的擴(kuò)展歷史來看,人類取得法律主體資格與天賦人權(quán)密切相關(guān),奴隸、婦女成為法律所承認(rèn)的人都經(jīng)歷了漫長的權(quán)利斗爭歷史。公司取得法律主體資格則是為了節(jié)約交易成本而做的人為安排, 〔55 〕特定財產(chǎn)取得法律主體資格則是為了促進(jìn)財產(chǎn)有效利用(特別是鼓勵公益)而做的安排。近年來,森林、山脈、河流在有些國家取得法律主體資格,如美國俄亥俄州的托萊多在2019年2月投票通過了“伊利湖權(quán)利法案”將該湖泊視為法律上擁有獨立權(quán)利的人,這些做法是為了環(huán)境保護(hù)或者人文發(fā)展而做的專門立法?!?6 〕現(xiàn)代社會文化人類學(xué)甚至研究表明,寵物在未來非常容易獲得法律和社會地位,這是由于寵物通常像家庭成員一樣得到認(rèn)可并受到這種對待?!?7 〕法律主體的范圍并非一成不變,在具備正當(dāng)理由的情況經(jīng)過立法程序可以認(rèn)可新的法律主體種類。

      受法律主體資格擴(kuò)張趨勢的啟發(fā),可以借鑒適用于公司和其他非人類實體的法人資格的經(jīng)驗,通過新的立法授予人工智能以法律人格。為了防止法人資格被濫用的道德風(fēng)險,將人工智能納入法律主體范疇的同時,也可以設(shè)立法律人格否認(rèn)規(guī)則讓濫用責(zé)任限制規(guī)則的人承擔(dān)風(fēng)險,建立新興的人工智能社會責(zé)任制度來確保其發(fā)展方向符合人類公認(rèn)的價值,并建立人工智能登記制度和保險制度來認(rèn)定和補(bǔ)充其作為主體的能力。我們對人工智能的控制越少,就需要更廣泛的測試和更嚴(yán)格的治理,如借鑒公司信息公示制度,建立“人工智能陽光法”來滿足相對人的知情權(quán)和公共監(jiān)督的需求?!?8 〕本質(zhì)上,賦予人工智能以法律人格是一種制度便利的選擇,是從私法角度解決人工智能監(jiān)管的一條路徑,能夠通過市場自治的方式促進(jìn)人工智能的安全發(fā)展。有反對者認(rèn)為,創(chuàng)設(shè)人工智能法律人格將導(dǎo)致責(zé)任制度被濫用,不利于保障人工智能產(chǎn)業(yè)的安全發(fā)展?!?9 〕公司法人創(chuàng)設(shè)的歷史則表明,公司的出現(xiàn)也引發(fā)過類似的擔(dān)憂,吉爾伯特和沙利文在1898年甚至寫了一部名為《烏托邦有限公司》的歌劇來嘲諷當(dāng)時公司法設(shè)置的有限責(zé)任制度。然而,公司在法律創(chuàng)設(shè)之后經(jīng)過長期的發(fā)展已經(jīng)成為我們社會的一個中心。盡管公司是看不見的實體,但是法律賦予公司法律人格后,通過制度上的實體掩蓋實質(zhì)上是讓人類從各種可能的責(zé)任中脫離,員工的各種行為都是由公司出現(xiàn)在法庭。〔60 〕也即,擬制的法律主體可以成為代替人沖鋒在第一線的實體,人類借助這種新的法律主體可以得到一定的自由解放。

      結(jié)〓〓語

      〓〓在各種鼓勵或限制人工智能發(fā)展的政策、法律、倫理指南、技術(shù)標(biāo)準(zhǔn)、白皮書在全球范圍內(nèi)密集發(fā)布背景之下,人工智能已經(jīng)并持續(xù)深入地成為我們?nèi)粘I畹囊徊糠?,而人工智能是否可以成為法律上的主體是構(gòu)建相關(guān)規(guī)則的基礎(chǔ)命題。通過相關(guān)法律需求和應(yīng)對方法的分析,可以斷定人工智能的發(fā)展確實帶來了一系列新的法律問題,但不能簡單地從概念上直接排除人工智能應(yīng)具有法律人格的可能性,同時也不能認(rèn)為授予法律人格是唯一或者更佳的解決辦法。人工智能技術(shù)如果構(gòu)成對實在法的挑戰(zhàn),那么實在法就是無法回應(yīng)的。如果實在法可以回應(yīng)人工智能技術(shù)的社會問題,那么這種技術(shù)變革就沒有形成挑戰(zhàn)。法律制度可以選擇解釋或者修訂現(xiàn)行法的方式滿足所謂的人工智能法律人格需求,也可以采用法律人格制度來回應(yīng)社會治理挑戰(zhàn)中的問題。人工智能法律人格是智能社會發(fā)展中新型治理模式的選項,以功能主義的態(tài)度來進(jìn)行解釋論或立法論的探討是看待人工智能法律人格問題的正確視角。

      在討論人工智能可否取得法律人格時,需要正確區(qū)分“人”和“法律人格”。授予人工智能法律人格的理由有兩大類:基于意識自主的道德需求和基于法律關(guān)系安排的實踐需求。但是,法律人需要討論的僅僅是后者。法律人格是指私法上的權(quán)利和義務(wù)的歸屬之主體,即從權(quán)利義務(wù)之歸屬點來認(rèn)識法律人格。生物意義上的人可以不是法律意義上的人,但生物意義上的人要成為法律意義上的人必須具備人格?!?1 〕法律人格從自然法向?qū)嵍ǚǖ霓D(zhuǎn)換,使得人們更多地從法律關(guān)系的視角來解釋其內(nèi)涵, 〔62 〕這與生物學(xué)或者哲學(xué)上具有自主意識的“人”存在本質(zhì)差異。人們往往將人工智能可否獲得主體資格與人類未來的發(fā)展命運相聯(lián)系,認(rèn)為人工智能不具有人的社會性,不能產(chǎn)生人類主體性所依賴的社會關(guān)系和實踐基礎(chǔ)。〔63 〕人工智能不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的,故而不足以取得獨立的主體地位。〔64 〕這些觀點顯然是混淆了哲學(xué)上的“人”與法律上的“法律人格”,錯誤地認(rèn)為,我們必須維護(hù)人類的法律主體地位,才能把握人類對整個社會發(fā)展的控制權(quán)。事實上,“法律人格”僅僅是法律對社會秩序進(jìn)行安排時根據(jù)需求而總結(jié)出來的通用概念,這是法律上的擬制而非哲學(xué)上的陳述。盡管各類法律主體所擁有的法律人格都是完整的,沒有部分法律人格或者全部法律人格之說, 〔65 〕但不同法律主體所擁有的權(quán)利能力是有千差萬別的,即便人工智能取得法律主體資格也不可能取得與人類同等的權(quán)利。〔66 〕人工智能可能在技術(shù)的不同階段取得不同范圍的法律主體資格, 〔67 〕如何安排和取舍人工智能的各項權(quán)利義務(wù)也是是否授予人工智能法律主體資格所要考察的核心問題。

      如果選擇承認(rèn)人工智能的法律主體資格,將等同于構(gòu)建智能社會的全新法律范式,這需要科學(xué)地設(shè)置認(rèn)定范圍和相關(guān)的法律制度。法律人格延伸到人類之外的自然界和社會,反映了文化、科學(xué)和法律之間廣泛和靈活的協(xié)作過程, 〔68 〕可以幫助我們重構(gòu)一個價值多元、治理復(fù)雜的未來社會。但是,非典型法律人格的取得必須得到社會的廣泛認(rèn)可, 〔69 〕其中還必須考慮到已經(jīng)存在的主體的權(quán)利,分析這種法律創(chuàng)新將如何符合先前的法律秩序,從而確保非典型法律人格服務(wù)于人類文明發(fā)展的共同需求。對于人工智能取得法律主體資格的條件,有人提出了6項準(zhǔn)入標(biāo)準(zhǔn),包括社會認(rèn)可、自主智能、平等共識、適應(yīng)變化、普遍信賴和公開登記。〔70 〕還有人提出4項綜合條件,包括技術(shù)上可以劃定人工智能系統(tǒng)的邊界,經(jīng)濟(jì)上能夠顯著增加社會福利,法律上存在先于規(guī)則不足以應(yīng)對而需要根本改變的需求,精神上存在道德責(zé)任和推理能力?!?1 〕這些條件都是值得參考的判定標(biāo)準(zhǔn),與此同時,如果機(jī)器沒有承擔(dān)責(zé)任的能力(獨立的財產(chǎn)等),那么不論是侵權(quán)或是違約帶來的賠償責(zé)任等,其實都需要鏈接到其他主體上來完成最終的責(zé)任分配, 〔72 〕所以能夠取得法律主體資格的人工智能必需有一定的財產(chǎn)基礎(chǔ),其可以是該人工智能本身達(dá)到法定的財產(chǎn)價值,或者是通過注冊資金等方式取得身外的財產(chǎn)。關(guān)于公開登記的要求也應(yīng)該是毫無疑問的,類似于汽車達(dá)到一定時速需要注冊,無人機(jī)達(dá)到一定起重載荷需要注冊 〔73 〕一樣,人工智能如果從事無監(jiān)督的自主行為且嚴(yán)重影響他人權(quán)益的也應(yīng)當(dāng)取得注冊登記方可使用。

      總而言之,盡管堅決反對或者堅決支持賦予人工智能以法律人格的觀點都存在,但是大多數(shù)討論人工智能法律人格的觀點都存在一種折中的趨勢,他們認(rèn)為是否賦予人工智能法律人格是存在條件的,而且賦予人工智能何種程度的法律人格也需要深入分析。這種折中的趨勢更加有助于我們理解人工智能法律人格問題的核心。根據(jù)筆者分析可知,現(xiàn)行法律上對人工智能的法律人格需求并非那么迫切,但是智能社會的發(fā)展很可能會促進(jìn)這一現(xiàn)狀的變化。這意味著我們對人工智能法律地位的認(rèn)識將層次遞進(jìn):第一階段是將人工智能視為財產(chǎn),盡管其可以代替人從事一些行為,其法律后果都直接歸系于人;第二個階段的人工智能可以自主享有一些權(quán)利,也需要直接履行一些義務(wù),是在當(dāng)前法律主體制度不變情況下所作的具體規(guī)則修訂;第三個階段的人工智能可能會被承認(rèn)為一類新的法律主體,此時需要專門的人工智能組織法。數(shù)千年的法律發(fā)展歷史表現(xiàn)法律是可以因技術(shù)發(fā)展而產(chǎn)生變革的,科學(xué)將朝著所有生物都是算法、生命就是數(shù)據(jù)處理、智能與意識分離的方向發(fā)展,超智能算法將比我們更了解自己,這可能導(dǎo)致超級智能算法將決定社會和人類的發(fā)展方式。〔74 〕但是,即便未來的立法讓人工智能經(jīng)取得了法律主體資格,該主體背后依然是人:人可以成為其代理人,人可以成為其監(jiān)護(hù)人,法律人格被否認(rèn)時需要該創(chuàng)建人兜底,所以人類整體的安全和文明進(jìn)步依然是我們法律變革中永遠(yuǎn)不變的目標(biāo)。

      猜你喜歡
      侵權(quán)責(zé)任人工智能
      人工智能之父
      2019:人工智能
      人工智能與就業(yè)
      數(shù)讀人工智能
      云計算LaaS模式中著作權(quán)侵權(quán)責(zé)任探析
      第三人干擾婚姻關(guān)系之法律認(rèn)定
      消費欺詐的構(gòu)成要件及侵權(quán)責(zé)任問題研究
      論人工智能產(chǎn)品侵權(quán)行為責(zé)任認(rèn)定
      網(wǎng)約出租車交通事故責(zé)任認(rèn)定
      論侵權(quán)責(zé)任的違法性要件
      亚东县| 洪泽县| 浮山县| 安庆市| 西乌珠穆沁旗| 阜新| 定兴县| 德令哈市| 正镶白旗| 共和县| 格尔木市| 梁河县| 邓州市| 洪雅县| 延边| 桃园市| 英山县| 中西区| 三都| 朝阳区| 泉州市| 崇阳县| 额尔古纳市| 华亭县| 库车县| 苏尼特左旗| 扎兰屯市| 扶绥县| 甘泉县| 观塘区| 伊春市| 宁远县| 松江区| 昌邑市| 卓尼县| 新乐市| 北京市| 德化县| 云阳县| 边坝县| 永仁县|