韓旭至
近年來,隨著人工智能產(chǎn)業(yè)第三次浪潮的到來,許多學(xué)者將人工智能法律主體地位問題作為“人工智能時代的新挑戰(zhàn)”進(jìn)行研究。事實上,自1956年達(dá)特茅斯會議上人工智能的概念被提出以來,西方學(xué)界即開展了人工智能與法律的相關(guān)研究。1985年佛雷塔斯更是明確提出能否為“具有自我意識且能作出道德選擇的機器人”構(gòu)建“機器人人格”的問題[注]Freitas Jr. Robert A., The Legal Rights of Robots, Student Lawyer, vol.13, no.1, 1985, pp.54-56.。1992年索羅姆關(guān)于人工智能法律主體的經(jīng)典論文更是指出,人工智能可作為目的受限的受托人[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。自此以后,人工智能法律主體理論得到蓬勃發(fā)展。目前主要形成以 “智能代理人”“強人工智能人”“電子人”為代表的多種理論。這些理論主張主要依托于“法律人格擴展論”“人工智能發(fā)展論”“有限人格論”三類論據(jù),試圖在法律人格理論發(fā)展、社會客觀現(xiàn)實需要與制度設(shè)計可行性三個層面分別證成人工智能的法律主體。
目前已有不少學(xué)者對人工智能法律主體提出批判,并形成了“工具說”“電子奴隸說”“比照動物說”等多種學(xué)說。也有學(xué)者認(rèn)為,人工智能是特殊物,具有“最高物格”[注]楊立新:《人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責(zé)任》,《求是學(xué)刊》2018年第4期。,或曖昧不明地認(rèn)為人工智能既不是人也不是物[注]易繼明:《人工智能創(chuàng)作物是作品嗎?》,《法律科學(xué)》2017年第5期。。然而這些主張和批判并沒有針對人工智能主體論的三類論據(jù)進(jìn)行反駁,有時甚至陷入循環(huán)論證,如認(rèn)為人工智能不是法律主體的原因在于其沒有“健全的人體和人腦”[注]楊立新:《用現(xiàn)行民法規(guī)則解決人工智能法律調(diào)整問題的嘗試》,《中州學(xué)刊》2018年第7期。。人工智能主體之爭的雙方實際自說自話,陷入自身定義的漩渦之中。本文將通過對人格的一般理論與人工智能的技術(shù)事實進(jìn)行分析,針對人工智能主體論的三大論點進(jìn)行批判。
人格是法律主體的基礎(chǔ),并與權(quán)利主體相對應(yīng)。星野英一即將法律人格、法律主體、權(quán)利能力三個概念進(jìn)行互相替換解釋[注][日]星野英一:《私法中的人——以民法財產(chǎn)法為中心》,王闖譯、梁慧星編:《民商法論叢(第8卷)》,北京:法律出版社,1998年,第154頁。??v觀法律人格制度的發(fā)展史,法律人格的范疇確在不斷變化發(fā)展:一方面得益于自然法的理性與平等觀念,自然人成為了法律主體;另一方面又得益于實在法中權(quán)利能力的抽象性與制度性,特定組織成為了法人。立足于這一歷史事實,“法律人格擴展論”認(rèn)為,法律人格具有開放性與抽象性,人工智能人格“可依跡而循”[注]劉憲權(quán):《人工智能時代機器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期。。事實上,“法律人格擴展論”對法律人格的制度史與制度內(nèi)涵均存在誤解,法律人格總是以人為中心,非人的人工智能難以構(gòu)成法律主體。
羅馬法上的人格已與生物人相區(qū)別,是法律技術(shù)的產(chǎn)物。其通過性別、國籍、血緣、財產(chǎn)等因素,在生物人之間構(gòu)建出不平等的法律人格。長期以來,奴隸、婦女、印第安人、黑人的人格并沒得到承認(rèn)。直至1804年《法國民法典》,法律人格才涵蓋所有自然人。19世紀(jì)末制定的《德國民法典》受薩維尼法律關(guān)系理論的影響,進(jìn)一步抽象出權(quán)利能力、行為能力的概念,成功建立了現(xiàn)代法律人格制度。從自然人人格實現(xiàn)的這一歷史可見,法律人格的概念確在變化,自然人主體也確實在擴張,但卻推不出“法律人格擴展論”的結(jié)論。抽象的自然人仍是“始于出生,終于死亡”的“凡胎肉體”。在人工智能尚未能顛覆自然人概念之時,人工智能就不可能是自然人主體。
1.自然人的抽象仍落于具體的人
“法律人格不應(yīng)該被理解為一種揭示生命意義的形而上實踐”[注]Ngaire Naffine, Review Essay: Liberating the Legal Person, Canadian journal of law and society, vol.26, no.1, 2011, pp.193-203.,然而這一“法教義的擬制”仍無法離開現(xiàn)實的人。一方面,在分析實證主義法學(xué)中,凱爾森雖明確反對以自然人界定法律上的人,但其實際上承認(rèn)法律上的人是抽象的自然人在權(quán)利義務(wù)規(guī)范中“人格化了的統(tǒng)一體”[注][奧]凱爾森:《法與國家的一般理論》,沈宗靈譯,北京:中國大百科全書出版社,1996年,第106~107 頁。。另一方面,在功利主義法學(xué)理論中,邊沁所說的人亦非理性人或抽象人,而是日常生活中的平常人。
誠如星野英一所指,法律中的人也是具體的人,尤其是“弱而愚”的人[注][日]星野英一:《私法中的人——以民法財產(chǎn)法為中心》,王闖譯、梁慧星編:《民商法論叢(第8卷)》,第175~194頁。。也有學(xué)者運用“總體財產(chǎn)”的概念主張“無財產(chǎn)即無人格”,試圖“將人格與人的基本物質(zhì)生活條件相聯(lián)接”以呼喚對弱者權(quán)利的關(guān)注[注] 尹田:《再論“無財產(chǎn)即無人格”》,《法學(xué)》2005年第2期。。由此可見,雖然“人是法律規(guī)則的人格化行為的結(jié)果”[注][德]拉德布魯赫:《法哲學(xué)》,王樸譯,北京:法律出版社,2013年,第149頁。,但法律規(guī)則并沒有取消對自然人的關(guān)切。杜茲納雖指出嬰兒的“第二次生命是由法律給的”,但亦無法否認(rèn)“嬰兒的第一次生命是母親給的”[注][英]科斯塔斯·杜茲納:《人權(quán)的終結(jié)》,郭春發(fā)譯,南京:江蘇人民出版社,2002年,第249頁。。在“自然人—人格—主體”的邏輯結(jié)構(gòu)中,法律主體的最終依托仍是自然人。從意志與法律行為出發(fā)的現(xiàn)代法律人格理論,不但沒有消滅人與物的界限,更是確立了主客體二分的法律結(jié)構(gòu)。
2.自然人的內(nèi)涵外延無法涵蓋人工智能
“人是什么”是哲學(xué)的終極問題之一?,F(xiàn)代科技的發(fā)展使自然人的概念受到一定的挑戰(zhàn),人工智能能否稱為人亦成了疑問。從人的法律定義與生物技術(shù)發(fā)展兩方面看,人的概念均無法涵蓋人工智能。
一方面,自然人“始于出生,終于死亡”。有可能發(fā)展為人的胚胎、胎兒以及曾經(jīng)作為人存在的死者都不具法律人格,只能通過法律特別規(guī)定進(jìn)行保護(hù)。冷冰冰的算法與程序?qū)嶋y以有實現(xiàn)人格的可能性。另一方面,生物醫(yī)學(xué)技術(shù)的發(fā)展客觀上挑戰(zhàn)了人的概念。自然人成了“人造與自然的混合體”。有學(xué)者根據(jù)盧曼社會功能分化的理論認(rèn)為,人工智能革命將導(dǎo)致法律人格的繼續(xù)演化[注]余盛峰:《從老鼠審判到人工智能之法》,《讀書》2017年第7期。。無法否認(rèn),人工智能與生物技術(shù)結(jié)合將對自然人的概念形成挑戰(zhàn),如克隆人、換頭者、基因編輯人、加裝智能假肢者等均可能存在法律人格問題。然而,在生物人中運用人工智能技術(shù)仍是以生物人為基礎(chǔ)的。這些人工智能與生物人的結(jié)合體可能具有法律人格的原因恰在于其生物人的特性,而使人格受到質(zhì)疑的因素又正是其人工特性??梢?,人的概念絕無法涵蓋脫離生物人的人工智能。“碳基生命”的法律實難以構(gòu)造出“硅基生命”的主體。
通過權(quán)利能力,生物人實現(xiàn)了向法律人的轉(zhuǎn)型,法律人格的范疇擴大到自然人個體之外。通過權(quán)利能力的賦予,法人已實現(xiàn)財產(chǎn)與實體的獨立化。如拉倫茨所言,“法人本身的基本特征是它自身作為一個法律實體與其作為法律實體的成員或者職能機關(guān)的個人相分離”[注][德]拉倫茨:《德國民法通論》,王曉曄等譯,北京:法律出版社,2013年,第180頁。。據(jù)此,“法律人格擴展論”主張,法人已與倫理性的人相剝離,成了立法者的一種決斷,在必要之時立法者可為人工智能創(chuàng)設(shè)法律主體[注]許中緣:《論智能機器人的工具性人格》,《法學(xué)評論》2018年第5期。。確如托依布納所指,法律是“一個自創(chuàng)生系統(tǒng)”,本質(zhì)上是“開放的系統(tǒng)”,但同時“法律是一個再生產(chǎn)它自己的基本法律行為的網(wǎng)絡(luò)”[注][德]托依布納:《法律:一個自創(chuàng)生系統(tǒng)》,張騏譯,北京:北京大學(xué)出版社,2004年,第8頁。。法律主體的革新亦無法天馬行空,需遵循基本的法律邏輯。一方面法人雖有抽象化的面向,但其離不開人的組織和執(zhí)行機關(guān);另一方面法人確有其實用主義的內(nèi)核,但仍無法撼動法人構(gòu)造的人類中心主義。
1.法人離不開背后的人
從歷史上看,法人即源于人的集合。羅馬法上的家族便是法人的最初雛形,家長即是家族的代表。盡管現(xiàn)代法人制度顯示出高度抽象化的面向,但其亦未否定法人背后的人?,F(xiàn)代的法人人格仍是一種“團(tuán)體人格”,法人背后的人與法人意志的表達(dá)、責(zé)任的追究、利益的享有都密不可分。從具體制度來看,我國《民法總則》規(guī)定了營利法人、非營利法人和特別法人。無論是哪種法人都是人的組織,以自然人作為法定代表人。在財產(chǎn)混同時,還以“撕破公司面紗”制度追溯到法人背后的控制人。在法人犯罪時,也存在“雙罰制”,能追究直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員的責(zé)任。即便是德國法上為財產(chǎn)獨立化和用途限定設(shè)立的財團(tuán)法人也離不開管理者——人?!兜聡穹ǖ洹返?5條即規(guī)定了財團(tuán)的組織由捐助行為確定。此外,《德國民法典》還規(guī)定,財團(tuán)法人由不危害公共利益的捐助行為設(shè)立,財團(tuán)消滅后財產(chǎn)歸財團(tuán)組織所規(guī)定的人。
就人工智能而言,人工智能財產(chǎn)無法真正從所有人中獨立,并且其財產(chǎn)亦非通過特定目的捐助產(chǎn)生的或由于特定目的設(shè)立的。最重要的是,人工智能一方面缺乏作為組織成員的人,另一方面其背后承擔(dān)責(zé)任的人也不甚明了,實難以成為法人。若回到人工智能設(shè)計者、生產(chǎn)者、所有人、管理人的角度探討人工智能背后的人,實際上已經(jīng)否定其主體地位的可能。
2.“非人主體”未能否定人類依托
必須承認(rèn)除法人外,歷史上確實存在諸多“非人主體”。格雷就認(rèn)為法律主體類型包括“正常生物人、非正常生物人、超自然人、動物、無生命物、法人”六種[注][美]約翰·齊普曼·格雷:《法律主體》,龍衛(wèi)球譯,《清華法學(xué)》2002年第1期。。其中動物更是常出現(xiàn)在法律舞臺之上。據(jù)統(tǒng)計,從9世紀(jì)到19世紀(jì),西歐有超過200起有記錄的審判動物案件。從驢馬牛羊到蛇鼠蠅蟻均上過被告席,甚至被判處監(jiān)禁、流放、處決[注]Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht: Springer, 2013, p.36.。凡此種種均無法撼動法律人格中的人類中心主義。
上述“非人主體”主要是實用主義的功能性產(chǎn)物。雖然現(xiàn)代法人制度也有其實用主義的面向,但卻是制度性而非功能性的。必須承認(rèn)法人具有便利交易、限制責(zé)任等實用主義的功能,法人人格也是商品經(jīng)濟的產(chǎn)物,其“在于經(jīng)濟上的合理性而非哲學(xué)上的合理性”[注]李永軍:《民法上的人及其理性基礎(chǔ)》,《法學(xué)研究》2005年第5期。。然而,法人絕不等于一時的便利構(gòu)造,具有權(quán)利能力是其本質(zhì)屬性。而“非人主體”常常是在具體情形中的具體擬制,更類似于訴訟資格而非法律人格,其權(quán)利或責(zé)任往往仍落于具體的人。如海事賠償中對船舶的訴訟只是一種形式,其責(zé)任最終還將落于船舶所有人或光船承租人。同時,許多所謂的“非人主體”事實上就是法人。寺廟和教會在當(dāng)代就是財團(tuán)法人。我國許多公園、山川、河流也是機關(guān)法人。這并非說物直接成為了法人,而是形成了對物的管理主體。當(dāng)然,對人工智能也可成立管理機構(gòu)進(jìn)行管理,但也只能是相關(guān)管理機構(gòu)是法律主體。
此外,雖然動物權(quán)利的論點常被用以佐證人工智能主體的可行性,但實際上動物并非法律主體。動物保護(hù)歸根結(jié)底關(guān)注的還是人類。1990年《德國民法典》雖然增加了第90條a款規(guī)定“動物不是物”,但實際上只是將動物作為受特別保護(hù)的特殊物[注][德]梅迪庫斯:《德國民法總論》,邵建東譯,北京:法律出版社,2013年,第877~878頁。。在對動物的犯罪中動物也不是受害人,只能由人類組織行使受害人的權(quán)利。此外,雖然美國法上有給動物開具人身保護(hù)令的奇特案例,但實際上亦未承認(rèn)動物的主體資格。2015年美國曼哈頓高等法院對大猩猩開出人身保護(hù)令的同時亦明確指出,法院并未承認(rèn)大猩猩是人[注]Matter of Nonhuman Rights Project, Inc. v. Stanley, 2015 N.Y. Misc. LEXIS 2816.。2014年紐約州最高法院審理的類似案件中,法院更是直接拒絕了相關(guān)人身保護(hù)令請求,并同時指出大猩猩保護(hù)屬于動物福利立法問題[注]People ex rel. Nonhuman Rights Project, Inc. v. Lavery, 2014 NY Slip Op 08531.。同時,雖然美國法上可將動物作為信托受益對象,實際上其亦未承認(rèn)動物的主體地位,僅旨在回應(yīng)動物所有人處分財產(chǎn)的愿望。由此可見,動物在現(xiàn)代法律體系中并無主體地位。就動物保護(hù)而言,其核心乃立足于傷害動物有悖于公眾感情。因此,試圖通過“非人主體”論證人工智能主體可能性的思路是錯誤且荒謬的。
意識、意志、理性三者密不可分,并內(nèi)化于法律主體之中。意志被認(rèn)為是“實踐理性”的體現(xiàn),而意識又被認(rèn)為是理性的前提[注]李海星:《主體自由:康德道德法則的價值底蘊》,《社會科學(xué)家》2009年第8期。。法律主體更被認(rèn)為是具有“意志—主體—理性”的抽象結(jié)構(gòu)[注]李永軍:《民法上的人及其理性基礎(chǔ)》,《法學(xué)研究》2005年第5期。。也就是說,以意志承認(rèn)人的理性能力,又以理性考察主體的可歸責(zé)性。因此,人工智能可能有自主意識、自由意志、理性思維等命題一直是論證人工智能法律主體的核心?!叭斯ぶ悄馨l(fā)展論”主張,人工智能基于復(fù)雜的算法可能超出程序的設(shè)計實現(xiàn)自主活動,可推斷人工智能是具有一定的思維能力與認(rèn)知能力的[注]劉憲權(quán):《人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任》,《東方法學(xué)》2018年第1期。;在未來還可能實現(xiàn)在所有領(lǐng)域具有通用智能的強人工智能[注]劉憲權(quán)、房慧穎:《涉人工智能犯罪的前瞻性刑法思考》,《安徽大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第1期。,甚至是全面超越人類的超人工智能[注]馬治國、田小楚:《論人工智能體刑法適用之可能性》,《華中科技大學(xué)學(xué)報(社會科學(xué)版)》2018年第2期。。然而,“人工智能發(fā)展論”對人工智能這個概念究竟所指何物,實則缺乏清晰認(rèn)識,既有將人工智能等同于現(xiàn)代科技產(chǎn)品的,也有用科幻文藝作品中的場景想象人工智能的。通過對人工智能的考察即可發(fā)現(xiàn),現(xiàn)階段人工智能雖有一定的自主性,但遠(yuǎn)未實現(xiàn)通用的智能,更談不上形成自主意識。人類意志在本質(zhì)上是機器所無法模擬的。對人工智能的展望與設(shè)想并不能等同于現(xiàn)實存在的沖擊與挑戰(zhàn),法律主體制度無法亦不應(yīng)回應(yīng)“人工智能發(fā)展論”不切實際的幻想。
人工智能概念的提出者麥卡錫認(rèn)為,人工智能是“關(guān)于智能計算機程序的科學(xué)”[注]John McCarthy, What is Artificial Intelligence?,http://www-formal.stanford.edu/jmc/whatisai/,最后訪問日期: 2018-12-12。。羅素和諾維格進(jìn)一步指出,人工智能實質(zhì)上是“一種現(xiàn)代的方法”,具有像人一樣思考、像人一樣行動、合理地思考、合理地行動四個維度[注][美]羅素、[美]諾維格:《人工智能:一種現(xiàn)代的方法》,第3版,殷建平等譯,北京:清華大學(xué)出版社,2013年,第3頁。。從這個意義來看,人工智能的目標(biāo)的確是獲得人類的思維和行動能力。必須承認(rèn),目前人工智能在技術(shù)方法上已實現(xiàn)許多重大突破。人工智能科學(xué)已掌握了包括專家系統(tǒng)、貝葉斯網(wǎng)絡(luò)、馬爾科夫模型、神經(jīng)網(wǎng)絡(luò)模型、遺傳算法、遞歸搜索、組合方法等多種工具,機器亦具有了深度學(xué)習(xí)、語音識別、自然語言處理、圖像識別等多項功能。這些功能通過搜索引擎、定向推送、信息過濾、機器翻譯等具體應(yīng)用進(jìn)入了人們的日常生活。具有連通性、自主性、智能性的智能機器人亦開始逐步普及。無人駕駛汽車、無人機、手術(shù)機器人、陪伴機器人、機器假肢等亦進(jìn)入了社會公眾的視野。然而,人工智能的技術(shù)目標(biāo)始終并未實現(xiàn),目前尚未出現(xiàn)一種可取代人類的通用智能。所有已實現(xiàn)的人工智能應(yīng)用都只是一種輔助性的智能工具。在現(xiàn)階段談?wù)撊斯ぶ悄艿摹捌纥c”,認(rèn)為人工智能有意志、意識、理性甚至靈魂都是荒謬的,更無法以此出發(fā)論證其主體地位。
1.人工智能的技術(shù)局限性
當(dāng)前的人工智能并不那么“聰明”,有時甚至被戲謔為“人工智障”。如2018年寧波市花費數(shù)百萬建設(shè)的闖紅燈自動抓拍系統(tǒng)就鬧出了將公交車上的廣告識別為“董明珠闖紅燈”的笑話。號稱人工智能的掃地機更常常是繞屋子十圈后完美避開地上垃圾。在一些時候,人工智能又表現(xiàn)為“有多少人工就有多少智能”。2018年科大訊飛被爆出雇用真人同聲傳譯修正智能同傳,此后其竟聲稱是“人機耦合”的模式。在人工智能炙手可熱的今日,人工智能的智能更需要一些“冷思考”。
從技術(shù)層面來看,人類輕而易舉能做的事情對現(xiàn)階段的人工智能都是極大的挑戰(zhàn)。如人能輕易地從嘈雜的環(huán)境中分辨出特定人的聲音,而谷歌最先進(jìn)的人工智能最近才初步解決了這一難題。人能從千萬人中識別出特定臉龐,但人臉識別系統(tǒng)卻不時出錯。AlphaGo的確戰(zhàn)勝了李世石,但AlphaGo消耗了440千瓦能量,而人類大腦只會消耗大約20瓦能量。并且AlphaGo的功能是單任務(wù)的,在下圍棋外實無法完成其他任務(wù)[注][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機器人領(lǐng)域的64個大問題》,任莉、張建宇譯,北京:人民郵電出版社,2017年,第30頁。。確實,波士頓動力的機器人能奔跑、跳躍、翻滾,但任何一種野獸的運動能力都可能超過這一制造精密的機器人。
2.自主性不等于自主意識
雖然人工智能并無想象中完美,但其自主性的能力還是常常使人驚嘆。與傳統(tǒng)計算機不同,人工智能可以通過機器學(xué)習(xí)而在不同的環(huán)境下產(chǎn)生不一樣的表現(xiàn)。通過自主學(xué)習(xí),人工智能有時還能實現(xiàn)創(chuàng)新。AlphaGo Zero在三天之內(nèi)便通過“左右互搏”的方式自學(xué)成才,打敗了前任AlphaGo。微軟人工智能程序“小冰”還出版了一些詩集。時至今日,計算機科學(xué)家對人工智能如何從數(shù)據(jù)中產(chǎn)生新知識的過程仍不甚明了。人工智能的計算過程實際上存在黑箱。然而,人工智能黑箱問題并不能簡單等同于人工智能具有自主意識。黑箱問題的根源并非人工智能用了人看不到的方式“思考”,而是當(dāng)前人工智能采取了神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等算法而導(dǎo)致數(shù)據(jù)極其復(fù)雜。當(dāng)前,人工智能科學(xué)亦致力于提高數(shù)據(jù)的可解釋度。
人們?nèi)菀讓⒊绦虻淖灾餍越忉尀樽灾饕庾R的原因在于,人工智能自主意識的想象深深植根于人們對人工智能的期許之中。不少學(xué)者已經(jīng)發(fā)現(xiàn),人工智能的話語體系充滿著擬人化的修辭。索羅姆即敏銳地發(fā)現(xiàn),“智能”“學(xué)習(xí)”“自主”等話語常被用于描述人工智能及其實施方法,“語言”“記憶”“指令”“讀”“寫”等詞匯又被用于描述計算機程序[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。心理學(xué)實驗表明,通過擬人化的想象,人類容易將“把人格化的屬性賦予他們所認(rèn)為的有生命的東西”[注][美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京:北京大學(xué)出版社,2017年,第40頁。。當(dāng)前人工智能自主意識的推論便是這么一種想象。
對法律主體而言,在自主意識的基礎(chǔ)上,更重要的是意志和理性。與人工智能不同,人是自然的造物,雖然人類的自由意志亦無法擺脫自然秩序的約束,但人仍能進(jìn)行有選擇、有目的的認(rèn)識活動。正是在這個意義上人具有意志。人工智能與人類的最根本區(qū)別即在于人造性?;谌嗽斓氖聦崳瑱C器仿真不僅受自然規(guī)律約束還受算法編程控制,其自主性仍與人類意志和理性存在諸多區(qū)別。
1.意志并非邏輯運算
人工智能的判斷是邏輯運算的結(jié)果,而人類的意志則表現(xiàn)為非邏輯化的選擇。人類明辨是非曲折、具有喜怒哀樂、經(jīng)歷生老病死,其選擇并不是簡單的計算。如邊沁所言,人活在快樂和痛苦的主宰之下[注][英]邊沁:《道德與立法原理導(dǎo)論》,時殷弘譯,北京: 商務(wù)印書館,2000年,第57頁。。人的七情六欲不僅僅是形式邏輯,更是內(nèi)分泌系統(tǒng)影響的化學(xué)信息和千萬年來進(jìn)化的結(jié)果。因此有學(xué)者根據(jù)拉康的欲望主體理論指出人工智能無法成為法律主體[注]龍文懋:《人工智能法律主體地位的法哲學(xué)思考》,《法律科學(xué)》2018年第5期。。
或許僅憑人工智能不是欲望主體而否定其法律主體地位顯得突兀,但人工智能“無欲無求”至少能說明其不可能具有自由意志。法哲學(xué)上的經(jīng)典命題都是基于人的欲求?;舨妓乖凇白匀粻顟B(tài)”下即假設(shè)了“人類貪婪”[注][英]霍布斯:《論公民》, 應(yīng)星、馮克利譯, 貴陽:貴州人民出版社,2003年,第4~5頁。。龐德在“文明社會”中假設(shè)了“善意行為”[注][美]羅斯科·龐德:《通過法律的社會控制》,沈宗靈、董世忠譯,北京:商務(wù)印書館,1984年,第60~61頁。。杜茲納更是將人權(quán)視為“欲望的公開化或法律化”[注][英]科斯塔斯·杜茲納:《“人權(quán)的終結(jié)”六論》,江興景譯,《法學(xué)家》2009年第2期。。人的欲求使其關(guān)注自身的利益以及人類整體的福利。正是基于人的欲求,人才充滿想象力并對未來充滿期許。而目前的人工智能雖然能模擬一些情感,但沒有人生計劃,不知生命的意義。因此,在人工智能實施營救時,其很可能無法理解泰坦尼克號沉沒時婦女、兒童、老人先走的意義,而采用純粹功利主義的邏輯,優(yōu)先選擇生存概率大的一方。事實上,人工智能的這些抉擇仍依賴于算法的設(shè)計。人類編寫的代碼確保了人類對機器的最終控制。由此,當(dāng)前自動駕駛系統(tǒng)設(shè)計中最為困難的問題之一亦是各類“電車難題”的變種。
2.理性不同于智能決策
作為法律主體關(guān)鍵的理性,是人獨一無二的特質(zhì)。康德通過其“三大批判”表明,理性的人是認(rèn)識、道德與審美的主體??档碌闹摂唷叭耸悄康摹奔幢砻鳎俗鳛椤坝欣硇缘纳`”本身就是目的,不能僅成為“供別人使用的手段”[注][德]康德:《法的形而上學(xué)原理——權(quán)利的科學(xué)》,沈叔平譯,北京:商務(wù)印書館,1991年,第48頁。。黑格爾亦指出,人因理性而具有目的[注][德]黑格爾: 《歷史哲學(xué)》,王時造譯,上海:上海書店出版社,1999年,第73頁。,通過理性人能對自身不斷審視,“在有限性中知道自己是某種無限的、普遍的、自由的東西”[注][德]黑格爾:《法哲學(xué)原理》,范揚、張企泰譯,北京:商務(wù)印書館,1982年,第45~46頁。。而人對目的的追求,便形成了人類的歷史。相比而言,人工智能既無自我意識也無自省能力,難以構(gòu)成杜茲納所言的“自主自律”主體[注][英]科斯塔斯·杜茲納:《人權(quán)的終結(jié)》,郭春發(fā)譯,第3頁。。其數(shù)據(jù)能被任意刪除、添加、隱藏,無法形成對于自我過去、現(xiàn)在與未來的清晰認(rèn)知,也沒有“反求諸己”的能力,更無法具有本身目的。
有學(xué)者將人工智能定義為“行動理性”[注]許中緣:《論智能機器人的工具性人格》,《法學(xué)評論》2018年第5期。,實際上是混淆了智能與理性的關(guān)系。人工智能或許具有智能,但不具理性。弗洛姆即指出,“與智力相反,理性是人類通過思考把握世界的能力,智力是人類通過思考改造世界的能力。理性是人類獲得真理的工具,智力是人類有效改造世界的工具;前者是人性中至關(guān)重要的,后者屬于人類的動物性”[注]Erich Fromm, The Sane Society, Journal of Political Economy, vol. 26, no. 6, 2001, pp.26-30.。人工智能不具理性絕非基于“不是人類”的循環(huán)論證,而是基于其與多因素綜合作用形成的人類思維方式存在本質(zhì)區(qū)別。正是基于這種特殊的思維方式,人類具有辯證思維能力。而人工智能則無法跳出規(guī)則系統(tǒng)進(jìn)行批判性的反思。因此,人工智能無法明辨是非。如2016年微軟開發(fā)的人工智能Tay一天之內(nèi)就學(xué)會了發(fā)表粗俗和歧視性的言論。
3.意志和理性是人類的專屬
人在生物分類上自稱為智人,智慧是人類的基本屬性。斯加魯菲即指出,智能和愚蠢是人的屬性而非機器的屬性,“談?wù)摍C器的智能,就像在談?wù)撊说娜~子”[注][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機器人領(lǐng)域的64個大問題》,任莉、張建宇譯,第108頁。。人的意志和理性絕不僅僅是算法,“其產(chǎn)生于理性、情感、抽象分析、經(jīng)驗、記憶、教育、無意識動機、生物化學(xué)等復(fù)雜的相互作用”[注]Mindaugas Naucius, Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity, Teises Apzvalga Law Review, vol. 17, no.1, 2018, pp.113-132.。當(dāng)然,“人工智能發(fā)展論”也可如重新定義法律人格一樣重新定義意志和理性,但這種討論是毫無意義的。意志和理性在本質(zhì)上是用于定義人類的。
雖然有學(xué)者認(rèn)為,法律區(qū)分權(quán)利能力與行為能力,并未否認(rèn)缺乏理性和意志的人類具有人格,以意志和理性為理由區(qū)別對待人工智能可能是“物種歧視”[注]F. Patrick Hubbard, Do Androids Dream: Personhood and Intelligent Artifacts, Temple Law Review, vol. 83, no.2, 2011, pp.405-474.。事實上,缺乏理性的精神病人和未成年人都有實現(xiàn)理性的可能性。從所有人類都是目的而非手段的角度而言,對“弱而愚”的人進(jìn)行保護(hù)也是人類文明的體現(xiàn)。申言之,意志和理性尚為人類的專屬,人工智能并沒有像一些學(xué)者所推測的“通過深度學(xué)習(xí)產(chǎn)生自主意識和意志”,更不因此具有權(quán)利能力和行為能力。
“人工智能發(fā)展論”的一個關(guān)鍵論點即,未來人工智能可能得到極大提升。索羅姆認(rèn)為,“未來的生命與現(xiàn)在的情形非常不一樣”[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。“奇點論”者庫茲韋爾預(yù)計,人工智能會沿著“摩爾定律”實現(xiàn)持續(xù)增長,2045年計算機將超越人類[注][美]庫茲韋爾:《奇點臨近》,李慶誠、董振華、田源譯,北京:機械工業(yè)出版社,2011年,第1頁。。由計算機科學(xué)上強人工智能這一目標(biāo)展開,“強人工智能人”理論主張未來具有自主意識和意志的通用機應(yīng)成為法律主體[注]劉憲權(quán)、胡荷佳:《論人工智能時代智能機器人的刑事責(zé)任能力》,《法學(xué)》2018年第1期。。然而,至少在法學(xué)意義上“未來已來”是一個偽命題。強人工智能的未來只是一種計算機科學(xué)上的假設(shè)。甚至眾多科學(xué)家對“奇點論”提出了質(zhì)疑。在人工智能尚未“為權(quán)利而斗爭”的當(dāng)下,法律需保持應(yīng)有的謙抑。
1.人工智能權(quán)利訴求尚未提出
法學(xué)理論研究無法以浪漫的科幻小說為依據(jù)。目前,人工智能從未主張也無法主張權(quán)利。計算機科學(xué)家多明戈對符號學(xué)派、聯(lián)結(jié)學(xué)派、進(jìn)化學(xué)派、貝葉斯學(xué)等人工智能技術(shù)方案進(jìn)行考察后指出,再強大的計算機也是人類意志的延伸,擁有“終極算法”的強人工智能出現(xiàn)的概念為零[注][美]佩德羅·多明戈:《終極算法:機器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,北京:中信出版集團(tuán)股份有限公司,第361頁。。雖然目前某些機器人以某種形式被“登記”,攜帶其出行時可能需要另行購票,但是本質(zhì)上這種登記與動產(chǎn)登記并無區(qū)別,為其購票亦如同攜帶大件行李而購票。2017年沙特阿拉伯賦予機器人索菲亞“國籍”與2010年日本富山縣登記機器人帕羅“戶籍”,顯然同屬于宣傳手段。無論是索菲亞還是帕羅,都無法獲得獨立財產(chǎn),也無須納稅,既沒有主張自己的權(quán)利,也沒有主張他們具有權(quán)利。此外,某些與機器人申請結(jié)婚、舉辦婚禮的“奇聞”更純屬鬧劇與炒作。
值得注意的,2016年歐盟法律事務(wù)委員會《機器人民事法律規(guī)則》、2017年俄羅斯“格里申法案”以及2018年韓國《機器人法案》等立法建議均曾呼吁人工智能主體地位。然而,到目前為止并無任何一個國家接受了類似建議。即便是這些建議本身,最終仍以人作為目前的責(zé)任承擔(dān)主體。如《機器人民事法律規(guī)則》建議目前應(yīng)由制造商、經(jīng)營者、所有人或用戶對機器人致害承擔(dān)嚴(yán)格責(zé)任并建立機器人責(zé)任保險制度;“格里申法案”試圖通過動物致害責(zé)任與高度危險責(zé)任以解決人工智能致害問題;《機器人法案》中機器人致害責(zé)任亦為特殊的產(chǎn)品責(zé)任。同時,這些立法建議的主要價值亦不在于人工智能主體的呼吁,而在于人工智能監(jiān)督管理、倫理規(guī)范、安全保障、用戶權(quán)益、行業(yè)自治等多方面內(nèi)容。
2.“未來法治”需以現(xiàn)實為依據(jù)
未來法治并不等于為未來立法。法治應(yīng)是對現(xiàn)實問題的回應(yīng),而非對科幻故事的附和。具體而言,人工智能主體的立法主張可以分別從新型權(quán)利生產(chǎn)與法律變革的角度予以研判。
從新型權(quán)利的生產(chǎn)機制來看,新型權(quán)利“是一個發(fā)現(xiàn)的過程,而非一個創(chuàng)造的過程”[注]參見陳彥晶《發(fā)現(xiàn)還是創(chuàng)造:新型權(quán)利的表達(dá)邏輯》,《蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2017年第5期。。人工智能的新型權(quán)利亦需在法律原則與法律精神下生成,切不可無中生有。一方面,無論“利益說”還是“意志說”,權(quán)利理論均無法否認(rèn)主體意志的重要性。權(quán)利的本質(zhì)是一種“合理的期望”[注][美]羅斯科·龐德:《通過法律的社會控制》,沈宗靈、董世忠譯,第42頁。。如前所述人工智能不具自由意志,并未提出權(quán)利要求,缺乏新型權(quán)利的主觀要素。另一方面,新型權(quán)利更不能忽視其社會基礎(chǔ)。馬克思即指出,“法律應(yīng)該以社會為基礎(chǔ)”[注][德]馬克思、[德]恩格斯《馬克思恩格斯全集(第6 卷)》,北京:人民出版社,1961年,第291~292頁。。哈貝馬斯更是直接將權(quán)利視為“一種關(guān)系、一種社會慣例”[注][德]哈貝馬斯:《在事實與規(guī)范之間:關(guān)于法律和民主法治國的商談理論》,童世駿譯,北京:生活·讀書·新知三聯(lián)書店,2014年,第111頁。。新型權(quán)利生成即社會關(guān)系中形成的權(quán)利訴求逐漸產(chǎn)生社會正效應(yīng)并獲得公共理性認(rèn)可的過程[注]參見姚建宗、方芳《新興權(quán)利研究的幾個問題》,《蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2015年第3期。。只有當(dāng)人工智能有能力與人進(jìn)行有意義的交流、參與人類共同生活、形成新型的社會關(guān)系且獲得社會公共理性支持時,人工智能的主體主張才具有實現(xiàn)的可能性。
從法律變革的角度來看,法律變革必須堅持法治的目標(biāo),依據(jù)法律原則、規(guī)則,運用法律方法“持法達(dá)變”[注]陳金釗:《法律如何調(diào)整變化的社會》,《清華法學(xué)》2018年第6期。。面對人工智能的沖擊,法律的滯后性確實有所顯現(xiàn)。然而,其并不體現(xiàn)在主體層面上,而更多是一種“法律客體革命”,如大數(shù)據(jù)、個人信息等作為權(quán)利客體的問題。目前,人工智能時代并未“自生自發(fā)”地產(chǎn)生人工智能主體問題,法律更無須對主體問題進(jìn)行回應(yīng)。若無故將人工智能列為主體,既顛覆既有的法理邏輯亦難以為社會一般大眾所接受,嚴(yán)重背離情理法相結(jié)合的修法原則。
此外,人工智能的未來不可預(yù)測,強人工智能的幻想亦有可能是泡沫。20世紀(jì)80年代的人工智能產(chǎn)業(yè)泡沫中,便有數(shù)不清的企業(yè)由于無法兌現(xiàn)夸大其詞的承諾而倒閉。人工智能是否有意識、意志和理性,其是否能提出權(quán)利主張,這些都不是一個法律理論問題,而是一個客觀的事實判斷。如同我們無法討論為外星人立法一般,基于幻想而提出的法律理論并沒有任何意義,法律亦無須為科幻“預(yù)留空間”。
凱爾森指出,法律主體即“權(quán)利與義務(wù)的持有者”[注][奧]凱爾森:《法與國家的一般理論》,沈宗靈譯,第105頁。,具有主體地位必有權(quán)利能力。又如梅迪庫斯所言,權(quán)利能力乃“成為權(quán)利和義務(wù)載體的能力”[注][德]梅迪庫斯:《德國民法總論》,邵建東譯,第781頁。。人工智能法律主體實際上即主張賦予人工智能權(quán)利能力以重構(gòu)權(quán)利義務(wù)關(guān)系。然而,即便是被人工智能主體論者推崇的“有限人格論”與“電子人”理論亦無法解決具體制度設(shè)計中的矛盾。實際上,將人工智能作為責(zé)任承擔(dān)主體,對受害人保護(hù)而言并無益處,實際上更可能成為開脫責(zé)任的借口。
一切法律以人為本,法治的目標(biāo)始終是人類中心主義的。人工智能主體與人類中心主義存在天然的矛盾。不加限制地賦予人工智能以主體地位顯然將貶低人格尊嚴(yán)的價值?!坝邢奕烁裾摗奔粗鲝埾拗迫斯ぶ悄艿臋?quán)利能力與責(zé)任能力以回應(yīng)人類中心主義的質(zhì)疑[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。面向人工智能主體的具體制度設(shè)計,“電子人”理論又提出將人工智能作為法人予以登記注冊[注]Steffen Wettig, Eberhard Zehendner, A Legal Analysis of Human and Electronic Agents, Artificial Intelligence and Law, vol. 12, no. 1, 2004, pp.111-135.。通過對這些制度進(jìn)行考察可知,人工智能法律主體構(gòu)建的設(shè)想粗糙且矛盾,其既無法平衡人工智能與人格平等、人格獨立的關(guān)系,亦未能解決注冊所產(chǎn)生的具體問題。
1.“有限人格論”推導(dǎo)出人格否定
基于人類中心主義的立場,在談?wù)撊斯ぶ悄苤黧w地位時,學(xué)者們都極力避免談?wù)撊祟悓θ斯ぶ悄艿牧x務(wù),而是采取“有限人格”的論證方式探討限制人工智能的權(quán)利[注]許中緣:《論智能機器人的工具性人格》,《法學(xué)評論》2018年第5期。。然而,享有權(quán)利正是“擁有賦予他人對應(yīng)義務(wù)的充分理由”[注][美]威爾曼:《真正的權(quán)利》,瀏作翔等譯,北京:商務(wù)印書館,2015年,第17頁。,忽視或否定人對人工智能的義務(wù),實際上就是否認(rèn)人工智能的權(quán)利并否定人工智能主體地位。
首先,人工智能主體在民事關(guān)系中無處安放。民法調(diào)整的是平等主體之間的關(guān)系。若承認(rèn)人工智能的主體地位,在民事活動中人工智能與人就只能是平等的主體。人工智能與人的交易就是平等主體之間的交易。人工智能將可以起訴人類違約,也可以要求人類對其進(jìn)行損害賠償,甚至可能享有一定人格權(quán)請求權(quán)。“有限人格論”的主張者卻從未向讀者表明人工智能與人在民事活動上的平等性,其反而認(rèn)為“法律面前人人平等”并不適用于人工智能,并強調(diào)在人工智能與人類利益沖突時,應(yīng)以人類利益優(yōu)先。在民法這慈母之眼里,并不可能存在天然劣等低級的民事主體。預(yù)設(shè)的身份不對等便不可能達(dá)成意思自治下的合意。對此,有學(xué)者也提出了人工智能主體不享有民事權(quán)利的論斷[注]劉憲權(quán):《人工智能時代機器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期。。實際上這一論斷至少已經(jīng)否認(rèn)了人工智能的民事主體地位。
其次,人工智能難以取得獨立的訴訟地位與完全的行為能力。我們無法想象制度設(shè)計將允許人工智能起訴人類。因此“有限人格論”又試圖通過讓自然人代理人工智能起訴。如“格里申法案”即建議由人工智能的所有權(quán)人作為人工智能的法定代理人。詭異的是,就連不具法律主體地位的非法人組織都享有訴權(quán),而聲稱具有“高智商”的人工智能主體卻更像缺乏民事行為能力的人,只能由他人代為起訴。歸根結(jié)底,即便是人工智能主體論者亦無法放棄人類對機器的控制,其希望設(shè)置保證人類最終控制權(quán)的“紅按鈕規(guī)則”。然而這一限制與主體地位的構(gòu)建存在矛盾。既然人類掌握了人工智能的最終控制權(quán),那么機器的自主行為便可認(rèn)為是人類放任的結(jié)果,可視為人類意思表示的延伸,此時人工智能主體便沒有構(gòu)建的必要。
再次,人工智能權(quán)利限制方案與主體主張相矛盾。實際上法人便不享有自然人的全部權(quán)利,如拉倫茨所言,“法人的權(quán)利能力是不充分的”[注][德]拉倫茨:《德國民法通論》,王曉曄等譯,第57、181頁。。“有限人格論”即認(rèn)為人工智能無憲法政治權(quán)利、無身份權(quán)且無人格權(quán)[注]許中緣:《論智能機器人的工具性人格》,《法學(xué)評論》2018年第5期。。然而,法人在某些情形下是可能享有憲法權(quán)利與人格權(quán)的。如美國法院認(rèn)可憲法修正案中的平等保護(hù)和正當(dāng)程序條款以及言論自由條款適用于法人。人工智能有限權(quán)利的范圍是否與法人一致,又是基于何種理由不具這些權(quán)利,“有限人格論”并沒能作出回答。更為重要的是,人工智能不是簡單的機械而是與人類更加接近,這恰是人工智能主體論者的重要理由,此時又以人工智能不是自然人為由不愿承認(rèn)其諸多權(quán)利,邏輯上顯得并不連貫。此外,更有學(xué)者認(rèn)為,人工智能主體的財產(chǎn)權(quán)亦受限制,應(yīng)“類似于羅馬法上的特有產(chǎn)制度”[注]張建文:《格里申法案的貢獻(xiàn)與局限——俄羅斯首部機器人法草案述評》,《華東政法大學(xué)學(xué)報》2018年第2期。。特有產(chǎn)制度是家父制下無獨立人格地位的家子掌握財產(chǎn)的特殊制度。這一主張實際上亦否定了人工智能的主體資格。
最后,人工智能無法獨立承擔(dān)責(zé)任。法人責(zé)任的有限性原意是將法人責(zé)任原則上限于法人自身承擔(dān),但“有限人格論”卻破天荒地將責(zé)任有限性解釋為人工智能承擔(dān)責(zé)任能力的有限[注]許中緣:《論智能機器人的工具性人格》,《法學(xué)評論》2018年第5期。。甚至有學(xué)者主張“刺破公司面紗”的例外規(guī)則可在人工智能主體中變?yōu)椤按唐迫斯ぶ悄苊婕喸瓌t”[注]袁曾:《人工智能有限法律人格審視》,《東方法學(xué)》2017年第5期。。在他們看來,獨立人格與獨立承擔(dān)責(zé)任沒有必然關(guān)系。其常借助雇主責(zé)任來論證人工智能控制者責(zé)任承擔(dān)的合理性[注][美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,第182頁。,同時提倡人工智能保險制度[注]許中緣:《論智能機器人的工具性人格》,《法學(xué)評論》2018年第5期。。然而,這些主張恰恰說明了無須構(gòu)建人工智能法律主體。原則上“刺破人工智能面紗”,實際上就是主張人工智能不具獨立主體地位。根據(jù)“奧克姆剃刀原則”,“如無必要,勿增實體”。若人工智能保險制度得以建立,無法賠付的部分由人工智能背后的自然人或法人承擔(dān),那么人工智能主體更沒有確立的必要。
2.“電子人”注冊無法有效構(gòu)建
“電子人”理論主張通過注冊限制人工智能的主體資格,這種注冊亦被稱為“圖靈注冊”[注]Samir Chopra, Laurence F. White, A Legal Theory for Autonomous Artificial Agents, Michigan: The University of Michigan Press, 2011, p.182.?!稒C器人民事法律規(guī)則》《機器人法案》“格里申法案”等立法建議均采納了該種理論,主張通過注冊賦予人工智能法律主體地位。其中,“格里申法案”對人工智能主體的注冊作了較為詳細(xì)的描述。然而這種設(shè)想依然十分粗糙,存在許多無法操作的難題。
首先,人工智能注冊對象無法確定。人工智能有軟件和硬件的區(qū)別,一個硬件下可同時運行多個人工智能軟件,同一個人工智能軟件也可輕易實現(xiàn)自我復(fù)制,有時甚至可能被病毒控制。此外,人工智能也可能與人高度融合,目前常見的情形是“人機交互”,在人工智能生物增強的語境下更是“人機合一”。從人工智能這個大概念中分離出可以注冊的獨立人工智能系統(tǒng)是極其艱難的。若一個獨立的系統(tǒng)在注冊后失去獨立性將對主體地位有何影響,注冊制度亦未能回答。
其次,人工智能注冊的內(nèi)容不甚明晰。以法人注冊為例,除名稱外,其還必須有組織機構(gòu)、住所和財產(chǎn)。人工智能注冊有無背后的“股東”,有無財產(chǎn)要求,如何確定住所均不甚明了。更為重要的是,所有法人成立又要求有一定目的,但在缺乏意志和理性的情況下,人工智能實際上無法形成自身目的。
再次,人工智能自身無法申請注冊。“格里申法案”認(rèn)為,機器人注冊應(yīng)由人類所有權(quán)人自愿登記,且在所有權(quán)人聲明機器人獨立地位后對第三人生效。在實際效果上,所有權(quán)人獨立聲明的要求不僅使得注冊的法律效力成疑,亦使得人工智能的注冊更像是所有權(quán)人實施物的拋棄行為。所有權(quán)人不承擔(dān)聲明后的責(zé)任的原因不在于人工智能具有主體地位,而在于其已經(jīng)拋棄了物權(quán),同時失去了對物的控制。
最后,人工智能注冊審查的不可能。若注冊意味著放棄對人工智能的實質(zhì)審查,所有人便可將任何設(shè)備注冊為法律主體,從而形成荒誕的結(jié)果。若實施實質(zhì)審查,所謂“圖靈注冊”難免需借助“圖靈測試”進(jìn)行。然而,即便圖靈自身也從未主張“圖靈測試”是關(guān)于意識、意志或理性的測試,其測試的只是“機器行為的智能化水平”[注][美]羅素、[美]諾維格:《人工智能:一種現(xiàn)代的方法》,第3版,殷建平等譯,第852頁。。希爾勒通過著名的“中文屋”思想實驗亦表明“圖靈測試”無法判斷機器的意識。其將計算機比喻成在封閉房間中不懂中文的人,當(dāng)他拿到中文指令后通過查閱翻譯的方式對問題進(jìn)行回答,屋外的人將誤以為其懂得中文[注][美]庫茲韋爾:《奇點臨近》,李慶誠、董振華、田源譯,第275頁。。由此可見,由于人工智能意識無法通過技術(shù)手段證明,“圖靈注冊”審查實際上將無法開展。
人工智能主體論者的主要目的實為通過賦予人工智能主體地位以解決人工智能致害的責(zé)任難題。由于人工智能具自主性,可能做出無法預(yù)計的行為,設(shè)計者、生產(chǎn)者、所有人、管理人擔(dān)心可能承擔(dān)過大的責(zé)任風(fēng)險,構(gòu)建人工智能主體即可把人從責(zé)任枷鎖中解脫出來。然而,直接將人工智能作為責(zé)任承擔(dān)主體只考慮到了規(guī)避責(zé)任,卻完全忽視了權(quán)利保障的要求。從實際效果出發(fā),人工智能主體既不當(dāng)轉(zhuǎn)移了責(zé)任風(fēng)險,亦無法實現(xiàn)法律的作用,最終必有害于人的權(quán)利保障。
1.無法實現(xiàn)風(fēng)險的合理分配
正確的風(fēng)險分析方法,應(yīng)考慮的是人的權(quán)利保護(hù)與人工智能對權(quán)利造成的風(fēng)險,并根據(jù)這些風(fēng)險與現(xiàn)行法的關(guān)系,衡量權(quán)利保護(hù)的成本而作出取舍。從風(fēng)險控制的角度而言,絕不可將人工智能致害歸為“技術(shù)創(chuàng)新附帶的、需整個社會分擔(dān)的必要風(fēng)險”[注]郭少飛:《“電子人”法律主體論》,《東方法學(xué)》2018年第3期。。任何技術(shù)創(chuàng)新都伴有技術(shù)風(fēng)險,但同時也帶來極其可觀的收益。甚至在人工智能致害中,生產(chǎn)者亦可獲附帶數(shù)據(jù)收益——通過收集事故數(shù)據(jù),生產(chǎn)者得以進(jìn)一步完善人工智能。一方面讓企業(yè)享受其收益,另一方面又讓社會分擔(dān)其風(fēng)險,這是毫無道理的。法律與政策可通過知識產(chǎn)權(quán)與稅收的手段鼓勵技術(shù)創(chuàng)新,但不可改變市場經(jīng)濟盈虧自負(fù)、風(fēng)險自擔(dān)的原則。此外,產(chǎn)品責(zé)任并未讓企業(yè)對人工智能承擔(dān)過重風(fēng)險。有生產(chǎn)商表示,由于自動駕駛汽車能顯著降低交通事故死亡人數(shù),所以不應(yīng)在零星的無法預(yù)料的人工智能系統(tǒng)問題中被訴[注][美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,第190頁。。此即典型的推脫責(zé)任論調(diào)。降低死亡人數(shù)僅僅指減少人為操作失誤造成的死亡人數(shù),而機械故障的產(chǎn)品缺陷率才是影響其被訴風(fēng)險的關(guān)鍵。如采用自動駕駛系統(tǒng)后產(chǎn)品缺陷率顯著降低,實際上其賠付風(fēng)險亦降低;如產(chǎn)品缺陷率增高,則說明其人工智能系統(tǒng)存在嚴(yán)重問題。人工智能企業(yè)實際上主張的是,采取了人工智能技術(shù)后即應(yīng)免除其原應(yīng)承擔(dān)的責(zé)任。這一主張是毫無理由的。
從責(zé)任承擔(dān)的角度而言,與生硬構(gòu)建的人工智能主體相比,人工智能企業(yè)顯然具有更強的賠付能力。在現(xiàn)已出現(xiàn)的多起自動駕駛系統(tǒng)導(dǎo)致的事故中,生產(chǎn)者都順利地對受害人進(jìn)行了賠付,并繼續(xù)進(jìn)行相關(guān)產(chǎn)品的研發(fā)。為吸引消費者購買相關(guān)產(chǎn)品,生產(chǎn)者雖然曾抱怨賠付風(fēng)險,但依然作出了賠償承諾。如谷歌、沃爾沃、戴勒姆均表明對其生產(chǎn)的自動駕駛汽車承擔(dān)全部責(zé)任。在此背景下,若試圖通過人工智能主體構(gòu)建免除責(zé)任,最終將導(dǎo)致責(zé)任的推諉。目前人工智能程序故障致害與無法控制的自主侵害行為實難以區(qū)分,而且人工智能致害更多時候是人與人工智能共同作用的結(jié)果。在2018年末,“達(dá)芬奇”手術(shù)機器人發(fā)生了在心臟手術(shù)時故障導(dǎo)致患者死亡的事故。隨后即被證明醫(yī)生對機器人的操作失誤實為事故發(fā)生的主要原因。此前該手術(shù)機器人亦發(fā)生了多起事故,醫(yī)療人員常將責(zé)任推卸給人工智能機器人,而機器人生產(chǎn)者又以各種理由主張產(chǎn)品責(zé)任不成立,從而導(dǎo)致受害者索賠困難。若再以實用主義的方式將主體構(gòu)建作為責(zé)任分離的手段,必將導(dǎo)致生產(chǎn)者、使用者將一切責(zé)任歸咎于人工智能本身。
2.無法實現(xiàn)法律的作用
人工智能主體的構(gòu)建將直接導(dǎo)致法律的多項功能在人工智能面前擱淺。首先,人工智能無法理解法律規(guī)則,其行為更是受算法決定,法律無法指引人工智能的行為。其次,法律亦難以對人工智能施加強制。人工智能本身不具懲罰的敏感性。又由于人工智能主體意味著與人類控制者相分離,由此不具有實現(xiàn)法人“雙罰制”的可能。人工智能不具人類心理,將人工智能的死刑定義為銷毀、刪除,徒刑定義為限制活動,都將是難以奏效的。再次,對人工智能施加懲罰或給予表彰對人工智能和人類均無教育意義。雖然有學(xué)者主張通過編程的方式使人工智能具有獎懲的敏感性[注]Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht: Springer, 2013, p.161.,但由于人工智能本身不具人類意志,其對算法的響應(yīng)也無法視為法律的作用。最后,懲罰人工智能主體并無法起到慰藉受害方的作用。以人工智能致人死亡為例,單純刪除、銷毀人工智能是無法使受害方心理實現(xiàn)平衡的。
從法律人格理論層面、人工智能技術(shù)層面、人工智能法律主體制度設(shè)想層面三方面分別對“法律人格擴展論”“人工智能發(fā)展論”“有限人格論”進(jìn)行批判后可知,人工智能只是物,絕不可升格為法律主體。其不存在自主意識、自由意志與人類理性,不可能是自然人也不可能是法人。生硬設(shè)計的人工智能法律主體制度更存在內(nèi)在矛盾且有害于權(quán)利保障。目前,“人工智能成為了人”的擔(dān)心尚為時過早,法學(xué)研究者更應(yīng)關(guān)心人工智能對法律客體、法律關(guān)系、法律秩序的沖擊,研究代碼規(guī)制中尚未解決的問題,而非基于科幻的想象探討未來人工智能的主體地位。