沈 紅,趙 凱
人工智能(Artificial Intelligence)的廣泛應(yīng)用可以極大地解放、提高社會(huì)生產(chǎn)力,使得人類進(jìn)入一個(gè)全新的發(fā)展階段——智能時(shí)代。以弱人工智能為代表的應(yīng)用型人工智能已走進(jìn)日常生活,和人們形成緊密的依賴關(guān)系,隨著強(qiáng)人工智能、超人工智能等通用型人工智能的研發(fā),人工智能將獲得何種法律人格地位會(huì)是一個(gè)無法避免的話題。本文將從通用型人工智能法律人格的實(shí)踐現(xiàn)狀、建構(gòu)邏輯、法律人格確立可行性三個(gè)方面進(jìn)行探究,并對通用型人工智能法律人格的實(shí)踐提出一些思考。
人工智能可劃分為應(yīng)用型人工智能和通用型人工智能兩類。弱人工智能是應(yīng)用型人工智能的代表,其基于機(jī)器學(xué)習(xí)等智能化技術(shù),通過模仿人類的思維模式應(yīng)用于某一特定領(lǐng)域。通用型人工智能基于腦科學(xué)技術(shù)的發(fā)展,目標(biāo)是培育人工智能使其具備等同或超過人類思維的能力,由強(qiáng)人工智能和超人工智能兩個(gè)發(fā)展階段組成。國際學(xué)界普遍認(rèn)為強(qiáng)人工智能階段將在2050 年左右實(shí)現(xiàn),不過,就目前而言超人工智能仍停留于理論探索階段,強(qiáng)人工智能是通用型人工智能最接近的實(shí)現(xiàn)形式。人工智能是知識科學(xué)的再造,是一場知識創(chuàng)造知識的革命,在不可知論建構(gòu)的知識體系中,知識的邊界未知,為人工智能的發(fā)展留下潛在機(jī)遇,在國際科技競爭中,通用型人工智能的研究將伴隨著國家戰(zhàn)略不斷推進(jìn)。
由中國科學(xué)技術(shù)發(fā)展戰(zhàn)略研究院、科技部新一代人工智能發(fā)展研究中心等十余家機(jī)構(gòu)編寫的《中國新一代人工智能發(fā)展報(bào)告2020》[1]顯示,2019 年,美國、德國、日本、韓國、俄羅斯等國家均強(qiáng)化人工智能發(fā)展戰(zhàn)略迭代,16 個(gè)國家新發(fā)布了國家人工智能發(fā)展戰(zhàn)略或計(jì)劃,另外至少還有18 個(gè)國家正在籌備制定人工智能發(fā)展計(jì)劃。2017 年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》[2](以下簡稱《規(guī)劃》)中提及要“加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。”《規(guī)劃》中明確人工智能的未來發(fā)展期望和具體的實(shí)施措施,體現(xiàn)深度人機(jī)互動(dòng)的發(fā)展理念,同時(shí),提出建設(shè)人工智能未來法律主體地位的設(shè)想?!吨泄仓醒腙P(guān)于制定國民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和二〇三五年遠(yuǎn)景目標(biāo)的建議》[3]指出“要瞄準(zhǔn)人工智能、集成電路、生命健康、腦科學(xué)等前沿領(lǐng)域,實(shí)施一批具有前瞻性、戰(zhàn)略性的國家重大科技項(xiàng)目”。在國家政策大力扶持的語境下,可以預(yù)見的是,人工智能技術(shù)要想獲得深度發(fā)展,需要賦予其明確的法律人格地位。
法律人格,也稱法律地位,是法律規(guī)定的法律主體所擁有權(quán)利和承擔(dān)義務(wù)的現(xiàn)實(shí)狀態(tài),核心是權(quán)利能力、義務(wù)能力和責(zé)任能力。法律人格的性質(zhì)不同,其承擔(dān)的權(quán)利義務(wù)形態(tài)也不同,主要由主客二元說來區(qū)分。法律人格有兩種取得方式,一種是積極取得,法律主體通過一定的法律行為而取得;另一種則是消極取得,在法律規(guī)范生效的區(qū)間內(nèi)自動(dòng)取得權(quán)利義務(wù)。前者適用于非自然人的擬制法律人格取得,后者則適用于自然人通過擁有生命來獲得,但是,兩者作為法律意義上的“人”的概念是相統(tǒng)一的,即法律意義上的人既可以是有生命的,也可以是沒有生命的。
關(guān)于人工智能法律人格的學(xué)說,主要集中于將人工智能視為主體的目的論(代理說)、視為客體的義務(wù)論(手段論)和有限度地承認(rèn)主體地位的折中論[4]。目的論認(rèn)為人工智能具有自由意志、能夠享受權(quán)利、以金錢的方式提供救濟(jì),具備非人類擬制法人的資格。義務(wù)論則認(rèn)為人工智能不具備感性因子,自由意志是算法運(yùn)行的結(jié)果,實(shí)質(zhì)上在模擬人類思維過程。固有的“以人類為中心”的價(jià)值觀崩塌[5],人工智能存在取代人類的風(fēng)險(xiǎn),同時(shí)由于其承擔(dān)責(zé)任的能力有限,且局限于以財(cái)產(chǎn)為中心,會(huì)導(dǎo)致權(quán)利與義務(wù)不對等,人工智能所接受的人身懲罰無法比擬于人類,甚至輕于人類,使得人類處于一種相對劣勢地位。上述關(guān)于人工智能主體地位的學(xué)術(shù)爭鳴,實(shí)質(zhì)上是圍繞通用型人工智能的法律人格的目的性、合理性、價(jià)值性三個(gè)關(guān)鍵點(diǎn)展開的。換言之,只要完成這三個(gè)焦點(diǎn)的剖析與建構(gòu),就能夠?qū)νㄓ眯腿斯ぶ悄芊扇烁竦慕鉀Q起到推動(dòng)性的作用。
從法律的歷史性來說,法律人格是建立在社會(huì)發(fā)展基礎(chǔ)上,各個(gè)階段國家權(quán)力選擇的結(jié)果,同時(shí),法律人格的確立是廣義的公共行政的選擇,是行政相對人的確認(rèn),因此,可以從行政法角度來探討通用型人工智能法律人格設(shè)立目的的符合性。行政法律關(guān)系中行政主體和相對人之間是一種監(jiān)督與命令的縱向關(guān)系,在復(fù)雜多變的客觀環(huán)境中,相對人需要對行政權(quán)力的裁量性有所容忍,但同時(shí)需要行政主體遵循比例原則來施政。立法具有的滯后性特征,為行政行為預(yù)留一定的裁量空間,行政法中的比例原則偏向于實(shí)用主義,與當(dāng)前通用型人工智能主體地位的設(shè)立有交叉區(qū)域。
適當(dāng)性判斷要求通用型人工智能的主體地位不能同設(shè)立目的相悖。給予其主體地位,實(shí)質(zhì)上是有前提條件的,需要強(qiáng)人工智能技術(shù)的實(shí)現(xiàn),與之相關(guān)的是技術(shù)突破對原有法律邊界帶來的極大沖擊,通用型人工智能已經(jīng)在事實(shí)上具備法律意義上“人”的資格。法律主體地位的不確定實(shí)質(zhì)上并不符合社會(huì)事實(shí),并且將阻礙通用型人工智能的深入發(fā)展,這明顯與人工智能發(fā)展的總體趨勢呈負(fù)相關(guān)。必要性判斷要求人工智能主體地位的確立是對人民利益的侵害程度是最低的,即“最小侵害原則”。侵害程度的高低,需要有所比較,鑒于主體地位論證過于復(fù)雜,就通過反證的方法來論證??腕w論的觀點(diǎn)將通用型人工智能附屬于生產(chǎn)者、所有者和使用者,并就其損害承擔(dān)無過錯(cuò)原則或過錯(cuò)推定原則的連帶責(zé)任,這不僅與通用型人工智能具備主體資格的事實(shí)狀態(tài)不符,還通過擴(kuò)大責(zé)任主體的方式加重生產(chǎn)者、所有者和使用者的負(fù)擔(dān)。相較而言,給予通用型人工智能主體地位,將極大降低責(zé)任負(fù)擔(dān)、縮小責(zé)任主體范圍,使得整個(gè)社會(huì)的資源配置更加高效。狹義比例原則是適當(dāng)性和必要性關(guān)于衡量性的比較,要求干涉手段造成的損害要低于達(dá)成目標(biāo)所獲得的利益。主體地位確立,實(shí)際上將賦予通用型人工智能在機(jī)器倫理基礎(chǔ)上的權(quán)利義務(wù)資格。反之,如果選擇確立客體地位,將技術(shù)的擴(kuò)展空間限制于一域,不利于未來發(fā)展。通用型人工智能的技術(shù)性將極大解放社會(huì)生產(chǎn)力,人類承擔(dān)的工作類型由低級機(jī)械向高級智能轉(zhuǎn)移,社會(huì)發(fā)展進(jìn)入新的階段。不過,通用型人工智能的出現(xiàn)本身就是對人類傳統(tǒng)思維的挑戰(zhàn),正如法人地位的確立那樣,是艱辛曲折的需要經(jīng)過長期的批判歷程的。
學(xué)術(shù)界對于通用型人工智能法律人格的否定,是對機(jī)器人智能與人類源生性意識的關(guān)系所作出的價(jià)值判斷差異,質(zhì)疑機(jī)器理性與人類的法律理性是否具有交匯點(diǎn)?;貞?yīng)質(zhì)疑所要解決的問題,需要對人類的法律理性進(jìn)行探索[6],以求得通用型人工智能法律人格的合理性基礎(chǔ)。法律意義上的“人”是以意識決定論和表達(dá)決定論相互證明的假設(shè)為前提的[7]。意識決定論認(rèn)為意識與意志具有緊密的聯(lián)系,個(gè)人只承認(rèn)自己是擁有意識的,但對于他人是否有意識卻無法證真,也無法證偽。表達(dá)決定論是以意識的外觀為基礎(chǔ)確定的公理,既然無法解答自己與他人是否具有相同的意識這個(gè)問題,那么不如表達(dá)形成表達(dá)能力和意識能力等同的假設(shè),通過這種方式高效率地構(gòu)建具有共同價(jià)值觀的法律秩序。圖靈測試(Turing test)成為判斷機(jī)器是否具有人工智能的參照,本質(zhì)上是運(yùn)用意識與表達(dá)相互證明的假設(shè),提出智能是思想與人同質(zhì)的體現(xiàn)這樣的意識外觀性判斷標(biāo)準(zhǔn)[8]。對于法律意義上“人”的概念的認(rèn)同,人類建立起一套較為完善的法律法規(guī)體系,實(shí)現(xiàn)社會(huì)秩序的塑造。機(jī)能主義心理學(xué)則從另一個(gè)角度闡釋人工智能意識的合理性。源于進(jìn)化論的機(jī)能主義意識觀主張心理是有機(jī)體適應(yīng)環(huán)境的活動(dòng)過程或機(jī)能,強(qiáng)調(diào)意識是一個(gè)連續(xù)的整體,不能將意識分析為那些感性的元素。對此,吳偉士提出行為機(jī)制理論[9],有機(jī)體接受來自環(huán)境中的刺激,在既有經(jīng)驗(yàn)作用下,又對環(huán)境作出相應(yīng)的反應(yīng)。機(jī)能主義心理學(xué)對人工智能程序運(yùn)行中產(chǎn)生的意識因素予以解讀,事實(shí)上認(rèn)同人工智能的意識產(chǎn)生模式,認(rèn)為人工智能的意識產(chǎn)生與自然人意識屬性的同質(zhì)性。
不過,一些精神哲學(xué)理論未認(rèn)同上述假設(shè),并且對圖靈測試所依賴的這種假設(shè)進(jìn)行批判?!艾F(xiàn)象學(xué)之父”胡塞爾指出,先驗(yàn)自我是意識和意向結(jié)構(gòu)的最深核心,也是推動(dòng)心理活動(dòng)和引發(fā)知識結(jié)構(gòu)的總根源。這就是說意向?qū)ο笫墙⒃诩冎饔^性的基礎(chǔ)上,意識活動(dòng)也并不是一種經(jīng)驗(yàn)活動(dòng),而是經(jīng)過還原后的“純粹意識”。約翰·塞爾認(rèn)為語言和心靈交匯于意向性繼而實(shí)現(xiàn)與世界的交流,意向性是某種心理狀態(tài)的特征,在意向性的基礎(chǔ)上,心理狀態(tài)能夠反映世界中的客體和事物狀態(tài),并通過意向活動(dòng)的方式完成意識各層面內(nèi)容的統(tǒng)一[10]。意識是基于意向狀態(tài)所發(fā)生的感性能動(dòng)反映,最終通過語言的方式外化,意向性是其核心,語言只是表現(xiàn)。在“中文屋”(Chinese room)的思想實(shí)驗(yàn)中,實(shí)驗(yàn)對象雖無法真正理解接收到的信息,但借助于特定工具,形成一種直覺假象,塞爾由此提出“程序是純粹按照句法規(guī)則限定的,精神是擁有精神的內(nèi)容”[11]。其實(shí),這是對圖靈測試的一種逆向思維實(shí)驗(yàn),但兩者都是不完全的,兩個(gè)測試的理論前提是人工智能遇到更多、更新的問題存在無窮性;類比于人類本身,馬克思主義理論認(rèn)為客觀世界具有復(fù)雜性,使得規(guī)律、真理的暴露需要一個(gè)過程,人的主觀能動(dòng)性構(gòu)成這一過程的催化劑,具備自主思維能力的通用型人工智能亦是如此。兩個(gè)實(shí)驗(yàn)是基于現(xiàn)有知識能力的探索,尚未脫離當(dāng)前應(yīng)用型人工智能的運(yùn)行模式是機(jī)械模仿人類思維、進(jìn)行意識活動(dòng)的觀點(diǎn)。伴隨新一代人工智能的革新,特別是通用型人工智能新思維模式的建立,上述實(shí)驗(yàn)推論成為無法證真、也無法證偽的正確與否的效力待定命題。通用型人工智能將超越應(yīng)用型人工機(jī)器以深度學(xué)習(xí)來模仿人類思維的過程實(shí)現(xiàn)溝通的層級,其智能與意識具有一定同源性,顯然不能用是否具有意識來否定獨(dú)立的電子人格。
法的價(jià)值是法律的靈魂,正義作為法的價(jià)值的組成部分,兩者之間相互交融。法律是正義的載體,基于正義基礎(chǔ)上的合法性則是法律調(diào)整人類社會(huì)關(guān)系秩序的實(shí)踐。正義集中體現(xiàn)自然法的內(nèi)涵,但同樣也是實(shí)在法所追求的價(jià)值目標(biāo)。人類社會(huì)道德秩序的建立是價(jià)值觀、道德、法律三者共同作用的結(jié)果,三者的關(guān)系體現(xiàn)為價(jià)值觀引領(lǐng)道德和法律,而道德則是高于法律的理想化標(biāo)準(zhǔn)。不過,當(dāng)?shù)赖戮邆湔x價(jià)值時(shí),才是其上升為一般社會(huì)規(guī)范甚至是法律的前提。反對賦予通用型人工智能主體法律人格的群體,是出于對人類處于弱勢后被取代的擔(dān)憂,人機(jī)平等的法律人格意味著自然人的物化和人類的貶值;當(dāng)人類實(shí)質(zhì)上處于主宰萬物的地位后,形成優(yōu)勢地位的偏見,無法正確接受任何對于自身地位的挑戰(zhàn)。畢竟,通用型人工智能將面臨突破人類社會(huì)的道德邊界的問題,其在擁有高于人類思維能力的超人工智能后如何選擇道德模式將不可避免地沖擊法律的正義價(jià)值。
即使人工智能發(fā)展到更高的層次,但其技術(shù)屬性的特征并不會(huì)隨之消失;與人類相比,人工智能特殊的意識形成,不是由源生而實(shí)現(xiàn)。同時(shí),在人類社會(huì)已有固定的倫理道德秩序前提下,人工智能的倫理道德秩序的實(shí)現(xiàn),法的正義價(jià)值應(yīng)該從規(guī)范倫理學(xué)的角度探索。規(guī)范倫理學(xué)是人類社會(huì)化的發(fā)生依據(jù),本身所蘊(yùn)含的動(dòng)態(tài)特性使得其不僅能塑造道德個(gè)體,也能夠以較低的成本實(shí)現(xiàn)道德共治。功利主義認(rèn)為行為的道德性取決于行為的結(jié)果,這個(gè)結(jié)果是最大化效用的,要求人工智能對目標(biāo)有所評估[12]。人工智能在道德倫理的建構(gòu)中,將行為方式的選擇進(jìn)行設(shè)定,以符合人類的行為結(jié)果。行為方式作為外在表現(xiàn),實(shí)質(zhì)上是對內(nèi)在期望、目標(biāo)的執(zhí)行,需要對評估進(jìn)行嚴(yán)格限定,人工智能道德應(yīng)以功利主義為基礎(chǔ),排除情境功利主義的極端追求,內(nèi)化普遍功利主義和規(guī)則功利主義。義務(wù)論強(qiáng)調(diào)行為的道德是依據(jù)道德原則和正當(dāng)性而產(chǎn)生的,行為結(jié)果并不是參考標(biāo)準(zhǔn)。羅斯的義務(wù)論以直覺主義為核心,道德原則的設(shè)定來源于直覺,其應(yīng)用則是直覺作用的結(jié)果[13]。不過,主觀的義務(wù)論的理論前提不存在普遍原則,過于理想化的設(shè)定與現(xiàn)實(shí)存在較大差距??档碌牧x務(wù)論認(rèn)為道德并不是建基在欲望之上,而是在理性意志之上。其中,意志的主觀原則是格律,一般化的格律是上升為道德至高原則的基礎(chǔ),人工智能在擁有思想的能力后,在紛繁復(fù)雜的客觀環(huán)境下,通過道德原則的約束亦可建立秩序。
功利主義以評估方式建構(gòu)道德,在實(shí)踐中操作難度極大,人類自身都無法避免意識缺陷的誤判,人工智能同樣存在此種風(fēng)險(xiǎn),倫理道德秩序建構(gòu)要以低風(fēng)險(xiǎn)、小損害為核心。遵循規(guī)則是較易實(shí)現(xiàn)的設(shè)定,以規(guī)則作為公理,在邏輯推理的模式下,可以快速實(shí)現(xiàn)擴(kuò)充,能夠適應(yīng)更廣泛的情境。義務(wù)論把道德歸于普遍規(guī)則,大大降低人工智能的道德風(fēng)險(xiǎn),且能夠較好地與人類社會(huì)原有觀念契合,推理模式的成長性特征使其具備更強(qiáng)的操作性。在此基礎(chǔ)上,可以推知人工智能倫理道德秩序建構(gòu)的一般標(biāo)準(zhǔn),即低風(fēng)險(xiǎn)、重成長、重實(shí)踐,無論選擇何種理論作為構(gòu)建倫理道德秩序的參照,都應(yīng)該使人工智能的倫理道德秩序成為來源于人類道德規(guī)則的發(fā)展。
通用型人工智能法律主體地位的法學(xué)爭鳴,實(shí)質(zhì)上是對人工智能發(fā)展技術(shù)不確定性的擔(dān)憂,集中體現(xiàn)于道德倫理秩序的維護(hù)和法律責(zé)任的承擔(dān)。因此,通用型人工智能法律人格的建構(gòu)應(yīng)該基于法理學(xué)、倫理學(xué)和經(jīng)濟(jì)學(xué),通過法律擬制技術(shù)來實(shí)現(xiàn)。
適用何種歸責(zé)原則和歸因原則是被侵權(quán)人維權(quán)的依據(jù),同時(shí)也是侵權(quán)人的責(zé)任承擔(dān)依據(jù)。當(dāng)前法學(xué)界的主流觀點(diǎn)是賦予人工智能有限的主體地位[14],人工智能造成的損害通過直接代理人或所有人來代為承擔(dān)的方式實(shí)現(xiàn)歸責(zé),采納無過錯(cuò)原則進(jìn)行歸責(zé)。對于通用型人工智能來說,這樣的歸責(zé)原則過于擴(kuò)大化,其實(shí)質(zhì)上作為法律主體卻未擁有承擔(dān)相應(yīng)責(zé)任的能力,反而由其利害關(guān)系人來承擔(dān)連帶責(zé)任。雖然在法律形式上損失的填補(bǔ)方式得以具體化,但并沒有真正體現(xiàn)通用型人工智能的法律主體地位,造成實(shí)質(zhì)上非正義的結(jié)果?!睹穹ǖ洹非謾?quán)責(zé)任編的歸責(zé)原則適用過錯(cuò)原則和無過錯(cuò)原則,還有一部分的公平責(zé)任和危險(xiǎn)責(zé)任。過錯(cuò)原則歸責(zé)的依據(jù)是行為人的過錯(cuò)或者推定過錯(cuò),由于通用型人工智能已經(jīng)具備人類的思維能力,并擁有一定的判斷力,那么也應(yīng)具備承擔(dān)過錯(cuò)的理由。無過錯(cuò)原則是適用法律規(guī)定特定事由來歸責(zé),是一種預(yù)先設(shè)定,但仍需被侵權(quán)人承擔(dān)侵害行為和結(jié)果存在因果關(guān)系的證明責(zé)任。由于是法定事由,無過錯(cuò)原則的適用只需由立法直接規(guī)定即可,不需要證明這種歸責(zé)原則是否屬于通用型人工智能的歸責(zé)范疇,需重點(diǎn)討論的是因果關(guān)系的確立。對兩種歸責(zé)原則以外的意外情形所適用的公平責(zé)任、危險(xiǎn)責(zé)任,責(zé)任承擔(dān)的方式是以財(cái)產(chǎn)為核心的補(bǔ)償,可在通用型人工智能的財(cái)產(chǎn)制度確立后解決,下文有相應(yīng)分析,在此不做贅述。在現(xiàn)有的歸責(zé)原則體系下,通用型人工智能已能夠適用,但仍可根據(jù)社會(huì)發(fā)展的客觀形式進(jìn)行相應(yīng)調(diào)整。
通用型人工智能自主性、不可預(yù)測性、感知適應(yīng)性等特征導(dǎo)致歸責(zé)適用的依據(jù)多樣化,同時(shí)也導(dǎo)致因果關(guān)系的難以確定。因果關(guān)系和歸責(zé)原則是侵權(quán)責(zé)任的前置條件,兩者共同歸結(jié)于損害賠償?shù)慕Y(jié)果?,F(xiàn)有的因果關(guān)系適用原則采的是“相關(guān)關(guān)系說”,其他在學(xué)理上分類還有“原因說”“條件說”“法規(guī)目的說”等。較為通用的“相關(guān)關(guān)系說”認(rèn)為偶發(fā)性的條件與事件結(jié)果不具備因果關(guān)系,只有在普遍情況下都適用時(shí),因果關(guān)系才能證立。民法視角下的因果關(guān)系證明推行“誰主張誰舉證”的原則,通用型人工智能由于其是高技術(shù)、高智能結(jié)晶,在發(fā)生侵權(quán)糾紛時(shí),被害人可能因?yàn)椴痪邆湎鄳?yīng)的專業(yè)知識能力和經(jīng)濟(jì)能力致使舉證困難。如果法律全面采用無過錯(cuò)原則的方式歸責(zé),又會(huì)使得懲罰范圍過大,與民法的平等原則、公平原則相悖。針對通用型人工智能高技術(shù)性、高統(tǒng)一性的特點(diǎn),關(guān)于證明程度這個(gè)問題,應(yīng)該在一定條件下接受統(tǒng)計(jì)學(xué)調(diào)查等證明方法,使得被侵害人從單純地證明因果關(guān)系之存在轉(zhuǎn)化為證明因果關(guān)系的發(fā)生的概率性問題。
解決意識和倫理的相關(guān)問題后,通用型人工智能擁有成為法律主體的認(rèn)識論前提,其已在事實(shí)上具備享有民事權(quán)利的條件,但是由于權(quán)利與義務(wù)的一致性的要求,立法上必須解決通用型人工智能的責(zé)任承擔(dān)問題,以使兩者相符合。對于以上觀點(diǎn),筆者認(rèn)為可以在侵權(quán)損害賠償?shù)姆ɡ砘A(chǔ)上進(jìn)行責(zé)任能力構(gòu)建?!睹穹ǖ洹非謾?quán)責(zé)任編是調(diào)整被侵權(quán)人與侵權(quán)人之間以損害賠償為核心的權(quán)利義務(wù)關(guān)系的法律規(guī)范。侵權(quán)行為通過賠償?shù)姆绞綄?shí)現(xiàn)損害的填補(bǔ),為此,通用型人工智能必須以具備相應(yīng)的財(cái)產(chǎn)能力為基礎(chǔ)。財(cái)產(chǎn)的核心是價(jià)值,馬克思主義認(rèn)為“價(jià)值是凝結(jié)在商品中無差別的人類勞動(dòng)”[15],當(dāng)賦予通用型人工智能法律主體地位時(shí),也相當(dāng)于承認(rèn)其民事行為能力,其具備參與財(cái)富創(chuàng)造的活動(dòng)資格。主體資格意味著參與價(jià)值創(chuàng)造和擁有對財(cái)產(chǎn)占有、使用、收益、處分的權(quán)利,通用型人工智能能夠以自己的財(cái)產(chǎn)承擔(dān)損害賠償責(zé)任。不過,經(jīng)濟(jì)的交易屬性、風(fēng)險(xiǎn)屬性使得財(cái)富均等擁有還停留于理想狀態(tài),但勞動(dòng)創(chuàng)造價(jià)值的本質(zhì)卻未改變。針對人工智能的損害賠償問題應(yīng)該分類,在設(shè)定相應(yīng)的保險(xiǎn)后,有賠付能力的人工智能可以自己的財(cái)產(chǎn)賠付;對無固定賠付能力的人工智能,可以憑借人工智能的“勞動(dòng)”所創(chuàng)造價(jià)值折現(xiàn)進(jìn)行相應(yīng)的賠償。
法律人格的擬制同自然人人格的擬制具有一定相似性,通用型人工智能可以借鑒信息化的方式完成具有唯一性的身份特征識別。關(guān)于擬制人格,我國《民法典》規(guī)定“法人應(yīng)當(dāng)有自己的名稱、住所、財(cái)產(chǎn)或者經(jīng)費(fèi)”,這是通過名稱、通訊地址、責(zé)任能力物質(zhì)基礎(chǔ)來完成身份特征唯一性識別。與之相對應(yīng)的《居民身份證法》規(guī)定“公民身份號碼是每個(gè)公民唯一的、終身不變的身份代碼,由公安機(jī)關(guān)按照公民身份號碼國家標(biāo)準(zhǔn)編制”,這是將自然人信息數(shù)據(jù)化的表現(xiàn)。人類社會(huì)的互聯(lián)網(wǎng)時(shí)代,其實(shí)是數(shù)字的時(shí)代,人類的身份信息、財(cái)富以數(shù)字的形式記載于各種服務(wù)器終端。
關(guān)于法律意義上“人”的一種的法律擬制(類自然人的主體地位)的理論,康德的義務(wù)論中關(guān)于“人”的哲學(xué)定義認(rèn)為,“所有‘理性’的存在都是‘人’。”理性是哲學(xué)人格的核心,存在是以理性的方式存在,而并不要求必須以人類的形式存在?;仡櫡傻陌l(fā)展歷史,法律主體的范圍經(jīng)歷“人可非人—人人可人—非人可人”的變遷[16],在法律主體的二元結(jié)構(gòu)下,非自然人的法律人格獲得依賴于法律擬制的實(shí)現(xiàn)。此外,從法律選擇的角度來說,法律與政治的關(guān)系呈現(xiàn)出一種依附的狀態(tài),法律主體的選擇既是法律選擇的結(jié)果,也是政治選擇的結(jié)果。擬制本質(zhì)上是一種技術(shù),法律意義上的“人”并非一定要求是自然人,通用型人工智能在具備相應(yīng)要件后,通過以擬制的方式成為法律主體是可以預(yù)見的。
確立通用型人工智能的法律主體地位是人工智能未來發(fā)展戰(zhàn)略的組成部分,法律人格的擬制奠定了電子人格法律主體的基礎(chǔ)??萍几锩鞘澜绨l(fā)展的重要驅(qū)動(dòng)力,其本質(zhì)是為人類社會(huì)服務(wù),不能完全脫離實(shí)際,要與現(xiàn)有的法律體系、價(jià)值觀念、道德共識相適應(yīng)。通用型人工智能具備成為擬制主體的理性,但仍然是一種區(qū)別于自然人、法人、非法人組織的特殊法律主體,如果將其納入法治的體系中,應(yīng)該從人的視角審視,在權(quán)利義務(wù)一致性的語境下平衡通用型人工智能現(xiàn)實(shí)和未來之間的沖突。