○ 張 力, 陳 鵬
(西南政法大學 民商法學院, 重慶 401120)
科技發(fā)展使人類進入智能時代。從技術形式上看,人工智能(Artificial Intelligence,簡稱AI)是使計算機能夠進行類似人類行為模式的學習和決策的算法。〔1〕目下,人工智能技術正加快向交通通訊、醫(yī)療保健、商貿(mào)物流等人類各行各業(yè)滲透,〔2〕成為世界主要國家推動產(chǎn)業(yè)升級與技術革命的抓手。人工智能對人類社會治理體系,尤其是對法制體系構(gòu)成的主要沖擊在于兩方面:其一,如任何初創(chuàng)期的新興技術形式一樣,人工智能對人類既有生產(chǎn)生活體系構(gòu)成的未知技術風險需要相應的新制度新機制予以預防、評估與處理;〔3〕其二,也是往往被認為更為根本、超越既往所有創(chuàng)新技術形式的,即作為人工智能有形載體的“智能機器人”獲得社會“主體資格”的可能性與必要性問題。人格化理解的“機器人”概念本身正是人工智能“主體化”訴求的形象化代名詞。智能機器人被賦予“人格”將直接沖擊傳統(tǒng)“人類中心主義”前提下的所有人類道德與法制體系,及其所構(gòu)造的“主體—客體”調(diào)整格局,引起人類法制文明的重構(gòu),從而也引發(fā)了法學界的極大研究熱情,并占去大量學術版面?!?〕
事實上,機器人的“人格”并非一個新鮮話題。在阿西莫夫創(chuàng)作的機器人科幻小說《我,機器人》中,“Robot”就被設定為與人類具有相同或相似智力、情感的人格化角色。其中,第二章“環(huán)舞”中首次提出后來舉世聞名的“阿西莫夫三原則”,由此將Robot納入到文明世界的人類規(guī)則體系中,作為法律關系的主體對待?!?〕阿西莫夫開創(chuàng)的科幻世界,也成為后來所有類似科幻作品的范本,并被無數(shù)科幻迷奉為思維邏輯的圭臬。西語“Robot”一詞在中譯本中被率先擬人化表述為“機器‘人’”,更令人工智能在后來中文世界里擁有了更為強烈的“主體化”解釋路徑指向。而今日科學技術推動人工智能工作進一步“自動化”“自主性”,似乎更是使其與人類的相似性從科幻走向了“現(xiàn)實”。AlphaGo在圍棋大賽中戰(zhàn)勝人類頂級棋手,微軟“小冰”創(chuàng)作的“優(yōu)美詩集”正式出版發(fā)行,“長相甜美”“對答如流”的“索菲婭”被沙特政府給予“公民身份”等事件似乎都在說明,智能機器人獲得人格是水到渠成、迫在眉睫的客觀趨勢與事實,人類法制對之僅能夠順勢而為地承認或追認?!?〕不少學者甚至立法者皆“順勢而為”,〔7〕迎接“人工智能時代”的到來與“人類中心主義”的黃昏。因之,在理論界有:智能機器人應被比照適用歷史上組織體獲得法人地位的人格擬制技術,〔8〕先承認其具有享有部分權(quán)利義務并承擔有限法律后果的“有限法律人格”、〔9〕具有部分刑事責任能力的擬制人格〔10〕或“次等法律人格”;〔11〕在立法動議方面則有美國《統(tǒng)一電子交易法》賦予電子交易系統(tǒng)以“電子代理人”、〔12〕歐洲議會的“機器人法”立法建議報告所提出賦予機器“工人”以“電子人”身份的建議,〔13〕以及最新俄羅斯“格里申法案”對弱人工智能套用“法人”擬制原理、賦予有限權(quán)利能力而成為“準主體”,〔14〕等等。繼而,隨著“弱人工智能”向“強人工智能”的科技飛躍,令智能機器人承擔法律后果的能力及法人格從有限到完全,出現(xiàn)“電子人權(quán)”,〔15〕甚至是相對人類的“位格加等”,〔16〕完成“機器人也是人”的“革命”。〔17〕最終是赫拉利在其《未來簡史》中預言的:人工智能將取得統(tǒng)治地位,大部分人類活動被人工智能取代,僅有少數(shù)創(chuàng)造算法、為人工智能編寫核心程序、通過人工智能驅(qū)動社會運轉(zhuǎn)的,由智人進化而來的“神人”可“獨善其身”?!?8〕
真實而嚴肅的法學問題探討,應首先確定問題本身的真實性與嚴肅性。關于人工智能能否獲得主體資格問題本身的真實性,首先取決于對主體證明條件的思考立場的清晰辨別。即到底是基于法學上關于自然人人格或法人擬制人格證成路徑的綜合分析立場,還是智能機器人相關科學中工具“自動化”實現(xiàn)路徑的簡單投射,亦或僅僅是沉迷于人工智能與人的片段與表象相似性的樸素科幻立場。在筆者看來,今日不少科技界及法律界關于人工智能“主體性”之立論所缺乏的正是嚴格的關于社會規(guī)范中“人”的證明立場,難以稱之為嚴肅的法學探討。當然它們更不可能是真正的科學研究,而要么是披著法學外衣,就智能機器人與人的“長相”“行為方式”等片段表象相似性比附的科幻文學作品(或曰“科幻法學”作品),要么是飽含泛靈論宗教情節(jié)的拜機器神教的科技化表達,甚或是某些人希望通過賦予機器人人格以染指“上帝造人”“無上榮耀”的“造物主”情結(jié)使然,等等。
對于當下智能機器人取得“人格”“問題”的討論熱潮急需進行方向與立場的澄清:應以法學及相關人文社會科學中人學與主體理論的本來面目為基本思考立場,分析與智能機器人相關科學中自動化技術的關聯(lián)性和區(qū)分點,同時要警惕與戒除似是而非、指鹿為馬式的“科幻法學”立場。
“主體”作為人類社會關系支點,是各類人文社會科學的元概念,也是法律據(jù)以實現(xiàn)調(diào)整功能的技術基礎。迄今為止,所有的主體論證都是以人(即人類)為轉(zhuǎn)軸展開。人類的“主體”地位,是所有文明時代所有人文與社會科學以及法律規(guī)范設計的基本前提與公理性假設?!?9〕自啟蒙運動以來,人類的宗教文明不乏從上帝(或神)賦予人類“智慧”而“造人”的角度論證人的主體性及與動物的序格差異,“自然人是上帝創(chuàng)造的唯一的既作為被造物又同時作為其他造物之王的特殊造物”;〔20〕自然法學從人之為主體與萬物之為客體的序格恒定的角度證明人之為主體資格的正當性;心理學、神經(jīng)內(nèi)科學等自然科學從人的高級思維活動的角度證明人類精神世界的主體能力;哲學、社會學等從人類理性、信仰與追求等角度論證人的目的性(主體性);法律則逐步普遍地賦予所有人以平等與完全的主體資格(權(quán)利能力),等等。但在唯物史觀看來,上述任何一項證明都不足以構(gòu)成對人之主體地位正當性公理的周延表達,只不過是關于這一公理整體的某種角度的闡釋線索。它們共同指向并匯聚為關于人類主體資格正當性的歷史性闡釋:人類的主體能力不是任何刻意的、建構(gòu)唯理主義下的更高理性創(chuàng)造的;人類主體地位的正當性,也不基于個別偉人、超人、優(yōu)選的代表性“優(yōu)秀”而證明的,而是由全部人類進化史上,全部人類與自然世界以及與自身不懈斗爭,不斷進取,對自然界取得日益強大的實踐與改造能力,通過文明發(fā)展的歷史事實自證的。唯物史觀試圖將其極簡地概括為:“勞動創(chuàng)造人”〔21〕、“人是歷史的產(chǎn)物”〔22〕、“人是全部人類活動和全部人類關系的本質(zhì)、基礎”?!?3〕
誠然,人的主體性并非在任何時代都普惠與平等適用于每個人。歷史上“人可非人”(奴隸)的不平等情景一度存在,并為當時的實證法所認可。但這并非某種具有歷史正當性的公理或自然秩序使然。在后人看來,“人可非人”的實證法設定本身就是對“人人為人”的自然法則的違背,是“惡法”。〔24〕為扭轉(zhuǎn)實證法上部分人之為“客體”的悲慘命運,曾發(fā)生漫長而艱苦的“為權(quán)利而斗爭”。這些斗爭把人人之應為“主體人”的普遍應然性與自然法則轉(zhuǎn)化為日益普惠的實際成果,而并非創(chuàng)造了人之為人、人生而平等的正當性。這種為改變自身命運的人類斗爭史的存在本身,更加證明了人的主體地位乃是通過人類自身的主動爭取,而非他者的賜予,而被證明其客觀性與正當性的。
智能機器人“主體資格”論證路徑無法憑空創(chuàng)立,只能基于對既有人類主體性證成原理不同程度的摹寫發(fā)展而成。這是因為,在主體概念系圍繞人類為轉(zhuǎn)軸形成的既成歷史事實路徑面前(主體資格也因此往往被明示為“人格”),憑空開創(chuàng)論證路徑將導致其論證對象究竟是否是與人類主體地位具有同質(zhì)性與可比性的“主體”,變得不可知,進而使圍繞人類主體地位建構(gòu)而展開的法律人格、權(quán)利義務及責任等體系的功能相關法律上制度體系,能否適用于這一“主體”也變得不可知。
智能機器人無法照搬自然人人格獲得正當性的證成路徑:在客觀存在上,“硅基”的人工智能與“碳基”的人類,在生產(chǎn)演化過程方面不可比。相比人類百萬年的自然進化史,確切科學技術上(而非科幻作品中)的人工智能開發(fā)不過寥寥數(shù)十年。在如此短暫的歷史中,并無關于智能機器人在“自主實踐”中改造自然而取得歷史功績與文明成果、為改變自身命運而進行主動斗爭的任何證據(jù)。因此不存在歷史自證的智能機器人獲得主體地位的應然性與自然法公理,可以被人類的實證法逐步承認的事實基礎。至于智能機器人可以比照人類奴隸命運改變史而逐步取得并拓展其人格的推論,〔25〕同樣無法成立:不僅因為智能機器人缺乏奴隸們?yōu)闄?quán)利而斗爭的血淚史,更關鍵的區(qū)別是,奴隸所改變的命運是通過斗爭使自然法上其本來擁有的人格落實到實證法上,而智能機器人所欲獲得的“人格”無論從各方面看都是無中生有。
那么,智能機器人“人格”的證明路徑只能退而求其次,轉(zhuǎn)向某種簡單與速成模式:比照同樣不具有先驗正當性與自主發(fā)展史的第二類主體——法人,甚或“第三類主體”——動物。借助使“非人可人”的人格擬制(fictions)技術,通過人類實證法的外部賦權(quán)快速獲得主體資格。首先,參照法人擬制說,將智能機器人的某些主體能力方面擬制為人?!?6〕好比組織體具有集約化的意思能力,在財產(chǎn)獲得與責任承擔方面可以比照自然人而獲得權(quán)利能力,智能機器人也因日益發(fā)展的與人類之間的“交流溝通”能力、對環(huán)境與任務的“自主認知與判斷能力”等方面,與人類這些能力方面的近似性,而被認為可獲得相應的,哪怕是“有限的人格”?!?7〕其次,參照近年賦予某些具有高度靈性,與人類具有長期溝通與伙伴關系的動物以“主體資格”?!?8〕不難發(fā)現(xiàn),AlphaGo屢次“戰(zhàn)勝”人類圍棋高手,被認為具有近似乃至“超越”人類的競技棋類方面的“學習、運算、邏輯思維與理性推演能力”;〔29〕微軟“小冰”之類以“創(chuàng)作作品”的“豐富的量、優(yōu)秀的質(zhì),贏得了公眾極高的評價”,證明其創(chuàng)作作品、創(chuàng)作過程已與人無異;〔30〕而“長相甜美”“對答如流”的人形機器人“索菲婭”,正因其“出色”的“溝通能力”,而證明其被沙特政府給予“公民身份”的正當性。
無論智能機器人“出色”地實現(xiàn)了人類相關主體能力表現(xiàn)的哪種模擬甚至“超越”,上述對人類主體資格正當性的擬制思路都不可能成立。組織體之所以能夠通過擬制人類而成為法人,其根本原因是組織體本身是自然人的目的性集合,或目的性財產(chǎn)的集合。即便財團法人,也是為實現(xiàn)人類捐贈目的而成立的成員隱現(xiàn)型組織體。正是作為組織體成員的自然人的前提性存在,賦予了組織體被擬制為主體的歷史的正當性。法人擬制說正是對自然人本質(zhì)的順從與實現(xiàn),其作為一種技術手段的目的亦旨在服務于自然人。法人的行為能力就是自然人行為能力的群體化,其從本質(zhì)上與自然人并無二致。但智能機器人既不來源于,也不服務于人類個體結(jié)社自由(社團)或目的性捐贈自由(財團),缺乏組織體的事實基礎,故也就沒有擬制技術適用的價值前提——為人類服務,不符合“擬制說”基本適用要求。依此類推,智能機器人同樣無法比照“動物不是物”的主體化路徑而擬制出“人格”。雖然1991年《德國民法典》第90a條對“物”之內(nèi)部“動物不是物”的裂變性處理,使得學界對“主客關系”的討論出現(xiàn)不同維度的爭議——“打破既有主客二分結(jié)構(gòu)”和“客體內(nèi)部進行消化”兩種模式?!?1〕但從《德國民法典》第90a條的體系結(jié)構(gòu)與設計來看,將“動物與物”的并列化處理以及同一條文的安排與除外性適用更加說明了動物無法逃脫物之一般性命運,至于將動物別于一般物的制度設計則是人類通過尊重動物生命之舉以映證和反映自身情感與本體價值?!皠游锊皇俏铩钡目腕w發(fā)展史所得出的法律推理不適用于智能機器人?!皠游锊皇俏铩钡姆ǖ湔J知是人類基于代際利益平衡的一種思考,〔32〕一定意義上夾雜了人類對于其他碳基生命體的共情性尊重。顯然,“硅基”的智能機器人不存在自然所賦予的“生命體”特質(zhì),對《德國民法典》第90a條的準用顯屬不當。
進一步說,智能機器人“人格”論者用于與人類比較的,并非人類所擁有整體性與廣延性的主體能力本身,而是當下某種具體目的性行為的表象——這常常是某類數(shù)據(jù)的存儲力、某種運算的精確力、某種工作的持久力,〔33〕等等。必須透過現(xiàn)象看本質(zhì),即透過人工智能“優(yōu)秀”的“片段能力”,分析這些現(xiàn)象在人工智能科學上的來源,澄清智能機器人所謂“主體”行為現(xiàn)象背后的技術根源,與人類主體行為所依賴的主體能力之間的本質(zhì)區(qū)別。〔34〕
作為人類主體性基本構(gòu)成的“思維”能力具有廣延性及本體的尚未可知性。即人類思維并非由思維活動本身創(chuàng)造,毋寧說人類的語言、邏輯、情感等,都不過是作為理解與分析過程的人類思維本身所不達的思維形成原理的外在表現(xiàn)形式。人類可以享有思維,卻并不創(chuàng)造思維。作為人類思維高級表達方式之一的語言,僅僅是人類思維運行結(jié)果與現(xiàn)象中“可言傳”的一部分(此外還有不可言傳潛意識表達等多種方式)。人類語言本身并不能反映人類思維的全貌,更不能創(chuàng)造思維的本源與本體。
智能機器人人機交互背后潛藏的是人工智能本體強大的機械運算能力,而一系列超速運算除來自科技發(fā)展所產(chǎn)生的固件支撐外——納米技術、半導體技術(硅或鍺)等,更為關鍵的就是構(gòu)成人工智能“思維”基礎條件的計算機語言。但計算機語言并不是由先驗的人工智能既有的主體性自然衍生的思維形式,而純粹是由人類根據(jù)其預設之工具自動化工作目的而選取生活語言之適合片段,重新編輯改造而來。人類開發(fā)的計算機語言,經(jīng)歷了從機器語言向匯編語言、高級語言發(fā)展的過程。其中,機器語言是指由二進制代碼所表述的,可被計算機直接識別和運行的機器指令集合?!?5〕但是,二進制模式下所有程序的編寫必須全部以“0”“1”組合來實現(xiàn),此使得編程耗時大、錯誤率高且不易被一般化識別。〔36〕之后,使用助記符代替二進制碼所編寫的程序性語言逐漸出現(xiàn)——匯編語言產(chǎn)生?!?7〕但匯編語言所使用助記符編寫的程序機器仍無法直接識別,最終在計算機內(nèi)部還需轉(zhuǎn)化為機器語言(即二進制碼)。同時,匯編語言編寫程序時亦需對計算機硬件結(jié)構(gòu)與工作原理十分嫻熟,且匯編語言中單一指令僅針對操作過程中的細微動作,此使得匯編源程序過于復雜、冗長。〔38〕故,計算機科學經(jīng)過不斷發(fā)展,探索出了與人類自然語言表現(xiàn)現(xiàn)象部分相似的,并可為計算機間接接受和執(zhí)行的語言,即高級語言。高級語言又分為過程性編程語言、非過程性編程語言和面向性編程語言?!?9〕目前,計算機領域中的語言仍然處于動態(tài)化發(fā)展之中,諸多高級語言亦在不斷產(chǎn)生,如Python、Lisp、Prolog等等。
時下,可服務于人工智能的高級語言很多,如Python、C/C++、Java、Prolog、Lisp等被認為是最為適宜進行人工智能開發(fā)的編程語言,〔40〕但面臨兩方面限制:一是,諸多高級語言在同一對象上不可兼容使用。亦如Python語言雖可為人工智能提供強有力的計算能力支撐,但在操作系統(tǒng)的編寫上則只能使用C語言;手機相關App應用程序的編寫上則只能使用Objective-C(對于iPhone)和Java(對于Android);3D游戲程序編碼,較好的選擇則是C或C++語言。二是,無論是匯編語言還是高級語言均非機器可直接識別語言。諸多高級語言的使用雖然可幫助人工智能實現(xiàn)快速計算和機器學習等,〔41〕但最終CPU在處理上僅識別的仍是機器語言——“0”“1”。因此,無論高級語言形態(tài)如何發(fā)生變化,最終向機器語言的轉(zhuǎn)化是其不可繞行的障礙。
人工智能依賴的機器語言的技術特征,還決定了所謂人工智能的“思維”(運算)過程與人類思維過程的實質(zhì)性差異。以較為常用的C語言作為范本并以兩組程序說明此過程(如下圖1)。如對1—100以內(nèi)的自然數(shù)進行求和時,人工智能必須在一定的工作表環(huán)境下進行,通過編程人員假設性輸入(int)一個起始運算點“i”,將求和最終結(jié)果設定為“sum”,當(for)i=1,且小于等于100時,每按此程序運行一次,i所代表的數(shù)值則增加一次,最終結(jié)果值(sum)通過i在1—100以內(nèi)的循環(huán)次數(shù)(i++)來解決,直至輸出(printf)結(jié)果值。同樣,當需要判斷一個數(shù)(m)是否為素數(shù)時,程序人員仍得假設性輸入m,i,k作為輔助,同時將素數(shù)概念通過i=2,且m與i之比不可恒等于0(以防機器陷入死循環(huán)之中)及i每循環(huán)一次實現(xiàn)加1的過程進行轉(zhuǎn)化,若存在滿足的數(shù)則輸出,否則不輸出?!?2〕人類大腦處理相同問題(如1—100的自然數(shù)之和)時,一般存在三種路徑:一是通過先期的知識占有強識計算結(jié)果,待使用時直接調(diào)取結(jié)果;二是通過輔助工具(計算器、紙張、筆等)計算出結(jié)果;三是利用自身數(shù)理思維能力心算得出結(jié)果,如高斯方程。相比之下,人類大腦機制在思考和處理對象元素時,首先不僅在自身語言系統(tǒng)上不存在內(nèi)在性沖突,且針對同一對象可多方位、同步使用多種手段進行處理。相反,機器環(huán)境下需先保證程序的順暢,若選擇C語言程序后再通過每一次循環(huán)方可保證結(jié)果的出現(xiàn)——且此種思維過程是一種單向線性結(jié)構(gòu)。其次處理問題過程中不存在從對象元素向基本元素的轉(zhuǎn)換。如數(shù)字“3”在機器語言二進制模式下并非人腦系統(tǒng)中的“3”或“3”(個、只、條、輛……),其僅僅是以“00000011”數(shù)碼所代表的電平存在,對存在于數(shù)中的關聯(lián)、組合或情感聯(lián)系等機器均無法識別與感知。
圖1 C語言模式下計算機的運行
綜上,基于人類語言系統(tǒng)技術化剪裁改造而成的計算機語言必然不能擺脫連人類自身都無法擺脫的,語言與思維之間的關系限制:如果人類自己都只能是通過語言享用人的思維能力,而不能用語言創(chuàng)造自身思維能力,那么對人工智能植入的由人類語言剪裁改造而來的計算機語言,就只能是人類借助新數(shù)字媒介享用自身思維能力的成果表現(xiàn)形式,而無法是人類通過語言移植在自我以外創(chuàng)建出不同于人類的“主體”的造人過程。同時,所有計算機語言都必須解歸到“0、1”代碼進行基礎運行的“硅基”技術前提,徹底限定了“算法”萬變不離其宗的對人類思維模擬能力的極限:它只能是編程者刻意所能達的,對人類思維可以言表的部分中適合通過“0、1”二進制換算的更小部分的表達,它不可能是編程者刻意所不能達的、碳基的人類大腦思維中那更為深邃的不可言表部分的表達,〔43〕無法模擬人類思維的廣延性,永遠無法感知人類思維活動所反映的宇宙萬物、自然人文與豐富社會生活的全貌,永遠無法再現(xiàn)人類思維的本質(zhì)。與人工智能的硅基物質(zhì)基礎相匹配的二進制運算方法基礎決定了,主體性不可能靠人為的人工智能的技術增量堆積而來,道理猶如長度的量變不可能積累為重量的質(zhì)變。被論者們常常強調(diào)的未來“必然”到來的“機器覺醒”“爆發(fā)”“奇點”“必然”實現(xiàn)的與人類的廣延性意識高度相似的“強人工智能”的預言,〔44〕甚不如歷史上那些最終變?yōu)楝F(xiàn)實的,凡爾納式科幻的務實性,而只能是幻想、神話,或是某種新宗教情結(jié)的執(zhí)念?!?5〕在今日科技界看來,所謂“強人工智能”尚無任何取得實際突破的確切證據(jù),“實現(xiàn)”更是遙遙無期。雖然正因為“強人工智能”的可能性太過神秘而讓人欲罷不能,廣為街談巷議的話題也無可厚非,但它實不能作為科學與法學上關于人工智能人格化有建設性討論的任何意義上的論據(jù)。
關于智能機器人可從客觀環(huán)境選取素材,并根據(jù)已經(jīng)設定的內(nèi)部系統(tǒng)通過算法做出決定→表明存在“自我感知能力”→具備事實上的“主體能力”→賦予類人“主體資格”,〔46〕這樣的智能機器人取得“人格”的推導謬誤主要有二:
其一,混淆了自動化科學中的工具“自動化決策”(AMD)與人類主體性之間的本質(zhì)區(qū)別。人工智能支持下工具“自動化”技術(在不少科技工作者口中這被直接轉(zhuǎn)述為機器人的“人格”“主體”),并不能代換為社會規(guī)范中智能機器人的“主體性”?,F(xiàn)代自動化科技從來都是以提高技術工具服務于人之預設目標的運行高效性為己任,而從不曾以創(chuàng)造與人類目的與設計無關的,社會規(guī)范意義上機器“人格”為自覺追求,甚至其“不能總體概括出什么樣的計算機程序可以被稱之為人工智能”?!?7〕創(chuàng)建與檢驗工具自動化運行能力的方法與標準,并不能用作社會主體的創(chuàng)造與檢驗。為達到人類日益復雜的工作要求,現(xiàn)代數(shù)學、神經(jīng)學、信息理論、認知學等相關科技將人工智能設計成在數(shù)據(jù)儲量、運算能力、反應速度與耐力、模糊推演等“工具能力”現(xiàn)象等方面,超過基于一般生命規(guī)律而產(chǎn)生的個體自然人法人的相關工具能力方面,乃至形成所謂模擬人類,甚至超越人類的“自動化”與“學習”能力,本身就是人類為其預設完成更復雜工作任務的題中之意,不值驚訝。環(huán)境的不可完全預知性和為適應環(huán)境的持續(xù)學習,本身就是人類主體性賴以形成的正常環(huán)境條件,以及主體性的重要內(nèi)容。所謂的人工智能高度自動化決策,乃至自我學習與再創(chuàng)作過程,并不超出人類最初通過計算機語言編寫與預置程序(即算法)的概括與模糊預測范圍,仍不過是人類就人工智能對其可能面對各種可能、未知情況時的可能對策組合形成機制與原理的預先安排。這當然包括所謂人工智能對人類之前未曾精確預測復雜具體情況的便宜行使,通過“學習”,“自主性”與“創(chuàng)新性”的形成“決策”的機制與原理,以及那些“意想不到”情況與知識的隨機應對與學習機制。所謂人工智能的自動化與自主學習能力,仍不過是人類主體能力中強大的學習與環(huán)境適應能力,通過人類所創(chuàng)造與控制的先進技術(算法)的工具載體與表達方式。智能機器人再多的知識儲備仍不過來自人類知識模塊中的部分托付。因此,人工智能支持下工具“自動化”技術并不能自動代換為智能機器人的“主體性”。反之,智能機器人的人格化追求,也不能對推動人工智能技術的良性發(fā)展產(chǎn)生任何建設性的影響?!暗绞恰冗M’的法律和技術越是經(jīng)過無數(shù)層人為設計之遞進后遠離自然的人造人,自然的人的因素很容易在層層遞進中消失”。〔48〕人工智能在具體工作場合“自主學習與決策”現(xiàn)象,對其背后與上游無數(shù)人類主體的浩繁艱苦的編程與硬件開發(fā)工作意義的混淆、遮蔽、抹殺乃至喧賓奪主,正是上述人類因素逐步消失的異化的過程的典型表現(xiàn)。對如此顛倒事實,否定人類主體性實踐成果的謬論,必須進行堅決的價值否定。
其二,混淆了人之主體能力的本質(zhì)與為人所創(chuàng)造工具的工作能力表象之間的區(qū)別。馬克思說,“人的根本就是人本身”。〔49〕人類是靠自身全部進化史上的全部實踐努力,通過積累不僅包括制造與運用工具的能力,更包括團結(jié)協(xié)作的群體性實踐“類能力”的廣泛能力體系,而非僅僅依靠某特定行動者的某種具體實踐能力的片段——這如智商、審美、體力等方面超越動物界,當然更不靠某些人長相甜美、下贏過幾盤圍棋——而獲得主體地位的。那智能機器人也就不可能通過在類似實踐能力片段方面“戰(zhàn)勝”人類,乃至未來在任何人格人類具體職業(yè)崗位上“替代”人類(當然更不能靠“長”得像人),而被證明擁有主體資格。易言之,AlphaGo屢次“戰(zhàn)勝”人類棋手的現(xiàn)象,無法證明其與人類棋手相互交手過程中運用方法,與人類邏輯思維具有本源上的相似性,無法將這種戰(zhàn)勝,與獵豹在奔跑速度方面戰(zhàn)勝人類短跑冠軍、袋鼠在彈跳能力方面超越人類跳高冠軍、起重機輕易超越人類舉重冠軍的極限等這樣的“戰(zhàn)勝”現(xiàn)象區(qū)分開來,自然也就不能通過這種現(xiàn)象證明任何智能機器人與人類在主體性本質(zhì)方面的可比性。AlphaGo在圍棋大戰(zhàn)中之所以能夠“擊敗”人類,僅僅源于對人類前期輸入系統(tǒng)中的預置編程(棋譜)的強大電子運算能力。事實上并不存在所謂“人機大戰(zhàn)”,即并非智能機器人“戰(zhàn)勝”了人類棋手,而是借助由人為開發(fā)的棋譜記錄、演算的人工智能特別工具的人類科學家,戰(zhàn)勝了無此技術的人類棋手,故仍不過是人與人的斗智。微軟“小冰”的所謂創(chuàng)作“現(xiàn)象”,無法證明其與人類創(chuàng)作過程所基于的思想與情感爆發(fā)的主體能力本質(zhì)具有可比性,其“創(chuàng)作”與“創(chuàng)作物”無法與人類飼養(yǎng)的母牛生產(chǎn)小?!版芟ⅰ薄漠a(chǎn)生過程,或某些“大自然的鬼斧神工”區(qū)別開來。它要么因不存在所謂“作者獨特的個性”,不能認定為作品而無著作權(quán)賦予問題,〔50〕要么考慮為人類所創(chuàng)造算法運用的概括性結(jié)果的一部分,而并入算法本身所在權(quán)利體系。至于人形機器人“索菲婭”的“自主學習”的“對答如流”,更不超出現(xiàn)代計算機語言預置編程技術支持下“預設問題”“答案數(shù)據(jù)庫建構(gòu)與檢索”這樣的“高級復讀機”范疇。實則是編程者與預設提問者之間的“交流表演”,與人類“自主溝通”現(xiàn)象背后依賴的復雜理智與情感融貫能力實有天壤之別,而賦予其所謂“公民身份”實為出自商業(yè)目的的指鹿為馬,有“虛假宣傳”之嫌?!?1〕
迄今,幾乎所有關于智能機器人“人格”證成的研究成果,都不曾真正證明人工智能與人類主體性具有可比性的事實基礎。這又倒逼其為了“自圓其說”,倒果為因的循環(huán)論證,或以現(xiàn)象比較替代本質(zhì)比較、以科幻推理填充自身論證不足,又或?qū)⑷祟愔行闹髁x無端貶斥為“人類沙文主義”,將對動物的人道主義與當代環(huán)境保護理念簡單套用到機器之上。這些都使其論說退化為“泛靈論”與神話或反智的“科幻法學”。要強調(diào)的是,所謂“強人工智能”完全不能為其理論提供支撐:包括實證法在內(nèi)的任何人類現(xiàn)實規(guī)則,皆只能針對現(xiàn)實世界已經(jīng)發(fā)生或按客觀規(guī)律而在未來必然發(fā)生之事實,而不能是那些從未發(fā)生而只是依據(jù)推測而可能發(fā)生之事展開,即不能對“烏托邦”立法。在有全人類公認的確鑿證據(jù)證明,所謂“強人工智能”進化出足以與人類主體性本質(zhì)可相提并論的理性能力以前(在筆者的證明標準中這永遠不可能實現(xiàn)),任何對智能機器人賦予“公民身份”“電子人格”的學術理論、官方?jīng)Q定或者立法動議,都因缺乏人工智能“主體能力”的事實基礎與歷史正當性,而可能構(gòu)成對寶貴科研與立法資源的浪費,形成名不副實、捕風捉影的空頭之論。新興科技立法中一直秉承“最小化原則”,以期盡可能不改變傳統(tǒng)法制而達到調(diào)整目的?!?2〕曾廣受矚目的歐洲議會“機器人法”立法建議報告,在最為關鍵的如何落實其“電子人格”所帶來的機器人民事獨立財產(chǎn)能力、行為與責任能力方面,沒有提出任何建設性方案。機器人無論以何種方式“承擔責任”,最終責任承擔者都是人。這使“電子人”的“‘法律人格’顯得多余和不必要,經(jīng)不住‘奧康姆剃刀’(如無必要,勿增實體)的檢驗”?!?3〕而俄羅斯“格里申法案”雖然提到賦予機器人以“財產(chǎn)權(quán)利能力與責任能力”,但卻沒有任何具體落實機制,而是將所謂機器人人格的落實留待未來解決。在當下仍主張實現(xiàn)法律后果向人工智能控制者進行一般傳遞的,本身無財產(chǎn)與責任能力的“電子代理人(或電子奴隸)”制度,以及將機器人作為“高度危險來源物”而使其控制人承擔嚴格責任的更為嚴格的責任傳遞機制。〔54〕從實證法效果上看,格里申法案與歐洲議會“機器人法”建議沒有區(qū)別,其所謂“機器人”的法律人格不過是就損害向人工智能技術與產(chǎn)品的實質(zhì)開發(fā)、銷售、使用等多環(huán)節(jié)人類主體的責任傳遞機制的“代名詞”,顯得多余卻易引人誤解,同樣經(jīng)不住“奧康姆剃刀”的檢驗。故倒不如實事求是以其特殊客體性為切入點展開研究與立法。
機器人人格理論基本構(gòu)造及其正當性不能基于想象與愿景建立。導致智能機器人“主體性”謬誤的根源是,忽視了百萬年漫長人類演化史所證成的“人類中心主義”序格。智能機器人演化史尚如此短暫,以至論者從中無法發(fā)掘出任何可對應人類為贏得萬物靈長之地位而付出艱苦努力的“機器人奮斗史”素材(這樣的“素材”只存在于科幻作品以及有強烈科幻情節(jié)的“學術”討論中),〔55〕也就無法創(chuàng)立其可資替代前者公理地位的,智能機器人“自己的”“主體資格”正當性的公理,及相應的主客體序格。對智能機器人法律屬性問題的根本回答,必須回到尊重、遵循文明時代“人學”全方位闡釋的“主體—客體”序格的底限性路徑下。這里的“人學”,是關于人之主體地位及其與外界關系的全部人文與社會科學相關部分的總和,主要包括法學、哲學等。
古羅馬的自然法及其學問,是人類最早系統(tǒng)考察并規(guī)則化表達人與外部世界關系暨“主—客體”序格的古代規(guī)范體系及其解釋論。古羅馬法學家指出,自然法是自然界交給一切動物的法律。因為這種法律不是人類所特有,而是一切動物都具有的,不問是天空、地上或海里的動物?!?6〕自然法從來都不是從唯理主義中演繹出來的東西,不是不證自明的充滿了規(guī)范性法典的東西,更不是通過邏輯推導出來以適合于每一具體歷史情勢的詳盡規(guī)則。自然法并不像實證法那樣因時代差異而呈現(xiàn)出多元性,它只是在極少數(shù)情況下與正義、與人的自然本性相一致,其余情形則存在于一般法原理之后?!?7〕至于自然法的約束性則時常以秩序形式出現(xiàn)并悄然作用于萬事萬物,最終卻僅表現(xiàn)為一種平淡的結(jié)果。但是,這種秩序或結(jié)果背后潛藏的卻是自然法格序中的“服從規(guī)則”,〔58〕意即自然界一切存在物必須服從自然格序,上至“神”和“天使”,下至人與野獸,萬事萬物皆為服從,無一例外?!?9〕即使作為人類自身也當服從“自然”,否則構(gòu)成對“服從”邏輯的示范性違反,此點在亞里士多德“自然的”和“約定的”關系那里早已論及,〔60〕此亦成為后世《羅馬法大全》的法律理論骨干。〔61〕從自然法所構(gòu)筑理論框架來看,要求人及世界上的一切必須服從自然所劃定的格序。倘若工具違反“服從規(guī)則”,顛覆的將不僅是自然法的基本邏輯,如西塞羅所說:“倘若違背永恒法,哪怕其逃避了對他行為作出的其他相應的懲罰,也將受到最嚴厲的懲罰”?!?2〕反觀自然法格序中的“服從規(guī)則”,無論從神啟自然法時代到人之理性所認知自然法時代,抑或到后期新自然法時代,都始終被人類自覺或不自覺地遵守著且未曾發(fā)生實質(zhì)變化。乃至因科技革命在近代以來形成的人類科幻情結(jié),也可根據(jù)其是否遵循了“服從原則”而檢驗其可科學性與可實現(xiàn)性:只有符合主客體序格的科學幻想才有望通過科技手段變?yōu)楝F(xiàn)實;反之,則只能墮為純粹的空想或教義,甚至被利用為欺人之談。
時下,智能機器人發(fā)展過程中亦應堅守“服從規(guī)則”,對此需注意三方面:第一,“服從規(guī)則”的前提性約束使智能機器人無法與主體平權(quán)。自然法及理念對人類與各種生物的格序早有安排——任何具體的人都不是“造物主”,人類作為萬物靈長的主體地位,并非由哪一個或一批人扮演“造物主”而賦權(quán)得來,而是人類從適應自然到利用與改造自然進化史上付出艱苦努力與巨大代價而爭取得來,是人類歷史的產(chǎn)物。同樣作為歷史產(chǎn)物的還有:世界上所產(chǎn)生的一切東西都是創(chuàng)造出來都是給人用的;〔63〕人類支配工具的自然理性無從改變,而任何人為的,對此種格序及整個社會性的擾亂或違背,都應被理解為是禁止的,〔64〕且亦是不正義的。正義的起點是永恒法,如果將正義的基點建立在公眾的決議、國王的敕令和法官的判決之上,那么無疑可通過投票或者法官造法以正義形式實現(xiàn)搶劫、強奸與賣淫等?!?5〕那么,即使“索菲婭”被“約定法”賦予資格,不僅不可能實現(xiàn)其字面效力,也因違背關于主—客體序格的永恒法而被判為非正義。第二,“能力屬于主體”的前提使得客體無法擁有能力?!?6〕洛克在論及“能力”時指出能力是實體屬性的,而非本身的屬性。如果問及自由是否自由時與問及財富是否是富的那則不值一問,〔67〕且此種意義上的能力探討并無意義,其僅僅是對自然表象之闡述。因之,即使智能機器人具有強大的行動能力,且外觀上也與人保持了高度相似,但此種能力只有之于主體人才有實際意義。第三,智能機器人唯有被定格為客體才能說服歷史。如前所述,人類在這一漫長進化史上取得日益巨大的創(chuàng)造物積累與升級,乃至最近年代開發(fā)出的人工智能本身,都是以人類創(chuàng)造并支配客體的實踐形式,在不斷反證圍繞人類中心的主—客體序格的正當性與恒定性。退一萬步講,智能機器人若要獲得“主體地位”,同樣不能由外界(人類)賜予,而只能自主與歷史性的爭取。在沒有任何證據(jù)證明,作為人類創(chuàng)造物的智能機器人經(jīng)過與人類進化史相當?shù)淖杂X、自立的進化、斗爭與爭取歷程的情況下,若僅由當代部分人,基于所創(chuàng)造工具的片段功能現(xiàn)象與人類行為模式的相似性而賦予其“人格”,則是部分人對服從原則的粗暴違反,無法說服歷史、說服全人類。
自然法學上“主—客”格序的討論在人類進一步文明時代,通過自然哲學而進入哲學的系統(tǒng)討論范疇,獲得在正當性證明力方面的進一步提升。哲學中關于“主體”“客體”兩者的概念界定及結(jié)構(gòu)設置是對人類社會結(jié)構(gòu)最微觀、最本質(zhì)的界定?,F(xiàn)代任何學科中的主體和客體概念均是哲學概念涵及和結(jié)構(gòu)設置進行擴展或縮小的結(jié)果。不同哲學流派對“主體”有不同的解讀。在中世紀基督教哲學那里,上帝是一切社會存在的原動力,故上帝是世界的主體。康德認為世界的主體是人之思維,外在一切不過是人之思維表象。黑格爾認為世界——包括自然界及人——都是主體絕對理性外化之產(chǎn)物。馬克思則認為主體是人,人始終是主體,〔68〕且具備兩方面特性:一是,人是自然存在的物,對于自然所賦予的——自然力、生命力等——作為天賦、才能和欲望存在于人身之上。二是,人雖作為肉體的、感性的、對象性的存在,但需自己之外的對象來表現(xiàn)和確證自己?!?9〕在馬克思看來,人的主體性是因人可通過對立存在來感知和確證自我而確立,故人自身亦是受動的、對象性的存在。作為實踐結(jié)構(gòu)另一極的客體就是“自然”,〔70〕即存在于主體之外的一切事物和現(xiàn)象,具有對象性、客觀性與系統(tǒng)性三個特質(zhì)?!?1〕關于對象性與客觀性,馬克思指出,在理解自然界作為對象性存在時不可割裂其與主體之間的關系,否則對于主體來說也是“無”。因為,只要有對象存在于我之外,只要我不是獨自存在著,那么我就是和在我之外存在的對象不同的他物、另一個現(xiàn)實。但是,對這第三者的對象來說,我是和它不同的另一個現(xiàn)實,也就是說,我是它的對象?!?2〕可見,馬克思認為作為類我(人類就是一種類存在物)與我互為對象,而不同于類我與我的存在物則是我與類我的對象,并不斷反映著我與類我。在此過程中,類我與我可受動存在,而不同于類我與我的存在物則只能是客觀性存在,且無法感知本體,這亦形成了其與主體之間的實質(zhì)性區(qū)別。而所謂系統(tǒng)性,則指客體樣態(tài)本身的復雜性,并反作用于主體發(fā)展中,其存在自我客體、自然客體、社會客體與精神客體四個層次,并處于有機聯(lián)系的發(fā)展中?!?3〕
就智能機器人與哲學中的主、客體間關系來看,智能機器人是以別于我與類我的存在物形式而客觀存在著,自身屬于自然客體之有效組成部分,其與哲學范式中客體的構(gòu)成性要素——對象性、客觀性與系統(tǒng)性——達致了契合。但對哲學中主體的兩個構(gòu)成要素卻無法滿足:一是物質(zhì)性。智能機器人本體形態(tài)限于純物質(zhì)形態(tài),其不僅對主體方向上所考究的自然力無處安放,而且也無法模仿與“擁有”人類主體意識的相關要素——意識的廣延性、同一性以及非邏輯性,〔74〕并且與人具體的情感、語境等也不能相等同?!?5〕二是意識確證性。物質(zhì)性在主客體客觀性存在上并無差異,但在通過對象性存在以感知自我維度上,物質(zhì)與主體之間的差異是明顯的。人工智能基于算法或曰計算機高級語言雖可達致與人類“交流”,但在此過程中計算機語言即使在模式匹配與回溯過程中也無法形成與確證自我及類我,更無法進行智力的升華與情感的揣摩?!?6〕
自然法與哲學中關于圍繞人類中心的“主—客”格序必須通過實證法的規(guī)定,才能轉(zhuǎn)化為現(xiàn)實的社會秩序。社會生活千姿百態(tài),法律對豐富多樣的生活元素無法逐一窮盡。面對大量可塑造的生活事實時,實證法只有通過將與生活事實相聯(lián)系的要素從整體中分離出來,并結(jié)合法技術概念所凝練的標準,來創(chuàng)設具體的法權(quán)結(jié)構(gòu)以達致對生活事實的一般化、程式化規(guī)制?!?7〕正是抽象化的法權(quán)結(jié)構(gòu)的創(chuàng)設才使市民社會圖景從生活走向了一般性法律制度,并為后續(xù)行為評價提供了結(jié)構(gòu)面向上的可能。抽象法律凝練后所形成的法權(quán)結(jié)構(gòu)中的“主體”的標準是:權(quán)利享有者與義務承擔者,不僅有感知能力、言語能力,還有訴求能力。〔78〕“客體”的標準則是主體行為意志所作用的對象,但存多樣性——物、行為、智力成果、人格利益等,并表現(xiàn)出客觀性、可控性與有用性三個特質(zhì)?!?9〕法律體系中客體的“客觀性”“可控性”與“有用性”的特質(zhì)都是從主體角度進行的闡發(fā),且均為形式性表征。除卻上述表征外,在法權(quán)結(jié)構(gòu)形成過程中“客體”自身還蘊含著三個實質(zhì)性特征:一是服從性。在法權(quán)結(jié)構(gòu)創(chuàng)設中立法者對人與物的相關要素從剝離、抽象到整合時已將人與物之間的服從關系也悄然地夾雜其中,進而形成法律框架中“主體—客體”的一般化模型。因此,有學者在界定民事法律關系中的主客體之概念時直接以“支配和被支配”進行表述,不無道理?!?0〕二是原欲目標性。從心理學角度而言客體是原欲驅(qū)動的目標,〔81〕即主體以客體作為實現(xiàn)內(nèi)心動機的目標,進而達致自己所需實現(xiàn)的目的。在動機與目的之間客體起到連接作用,并反證著法權(quán)結(jié)構(gòu)中客體與主體間的基本位階關系。三是對象性??腕w形式特征中的“客觀性”也有對象性的涵義,只是此處所言及的客體對象性是指法權(quán)模型中的客體不僅作為權(quán)利對象而存在,更是作為量化主體權(quán)利可行使廣度的標尺而存在,且正是此種廣度意義上的對象性也反映了主體在社會關系中的活動空間范圍?!?2〕
法律視角下社會關系需轉(zhuǎn)化為法權(quán)結(jié)構(gòu)中的對應性存在方可實現(xiàn)法律規(guī)制,而法權(quán)結(jié)構(gòu)中的主體——作為權(quán)利義務的歸屬與享有者——是法律技術設計的目的,客體則被作為手段而設計。那么,對當下生活事實中的智能機器人也理應轉(zhuǎn)化為法權(quán)模型中的相關要素——主體或客體——進行規(guī)制。就智能機器人的法律屬性來看,首先,其被設計的原欲目標是為人之主體利益最大化,是為服從于人之發(fā)展而存在,且為可支配。〔83〕其次,正是此種效用性、服從性與可支配性,決定了智能機器人在法權(quán)結(jié)構(gòu)上處于客體位格。再次,人工智能當下所具備的強大計算能力、精確性等充分證成了自身作為工具的基本特性,也反映了人類對客觀世界的可改變程度。于此,智能機器人的實質(zhì)性狀態(tài)徹底地與客體概念構(gòu)成相符合。相反,人工智能對主體所擁有的感知能力、確證能力、言語能力及訴求能力是不存在的。最后,作為人類科技前沿性成果的人工智能的效用本身,亦處于探索與揭示過程中。其中危險與危害因素必須通過不斷地“格物致知”而被把握與克服。只有將智能機器人定格為法律關系中的客體,才能為人類完全、充分與可持續(xù)地洞悉與控制人工智能科技開發(fā)活動的全部,為預防、干預與控制其中的潛在風險提供法律依據(jù)與技術。由此,法律不僅能始終有效而全面規(guī)制被技術改變以后的社會中的人,更有效規(guī)制與影響那些機器背后利用技術改變社會的人的行為層面?!?4〕反之,智能機器人在法律上“主體化”,雖并無將智能機器人真正主體化的實效,卻有將人工智能技術風險、“算法黑洞”之類,〔85〕遁入法律主體技術上排他力庇護之下。使人工智能名正言順地成為法律不便介入的“黑箱”與“商業(yè)秘密“,使人類的必要技術干預反倒因涉嫌對“主體”的干涉與侵權(quán)而為法律阻卻的實效。〔86〕其實質(zhì)是,利用技術改變?nèi)祟惿鐣牟糠秩?,借助智能機器人“主體化”之偽裝而逃脫全人類及其有效法律規(guī)制,而嚴重放大了人工智能“物”的風險——但這仍不過是以智能機器人為客體的人與人的關系,而非什么人與“機器人”之間的主體關系。
人工智能基于自身屬性限制使其不可能、不應當獲得人格。對Robort 之漢譯“機器人”望文生義的人格化意蘊附加實屬辭不達意,〔87〕而只能將其作為客體即“人工智能物”,被限定在法權(quán)模型之中。目下,我國頒行的《民法總則》所設置的法律主體結(jié)構(gòu)中雖排除了智能機器人作為主體之可能性,但面對時代發(fā)展所帶來的機遇與挑戰(zhàn)及社會各界和學界的多方爭議時,對《民法總則》應進行系統(tǒng)性解釋以囊括新型事物。同時,民法典各分編應在總則確立的價值基點之上對人工智能進行回應以釋解社會各方疑慮。
從法權(quán)模型抽象、設定及體系構(gòu)造來看,人工智能應歸屬于民事法律關系客體之中。然,我國從《民法通則》時代至當下《民法總則》時代對私權(quán)客體卻未進行統(tǒng)一法典構(gòu)造,且學界亦存諸多爭議?!?8〕當然,本文無意解決是否需建構(gòu)統(tǒng)一的民事法律關系客體之學界爭議。尚且尊重法典無統(tǒng)一規(guī)定私權(quán)客體之事實,那么對智能機器人從本質(zhì)上應歸屬于法典供給客體中的何種類型,學界則不僅有智能機器人是屬于產(chǎn)品,還是有體物,抑或是數(shù)據(jù)或算法之疑問,〔89〕亦有人工智能目前當屬工具之定性?!?0〕就學者提出的疑問來看,大致可歸納為兩組:產(chǎn)品與有體物屬同一位階、數(shù)據(jù)與算法基本屬同一范疇。在此邏輯上,結(jié)合人工智能實際存在場域及法典設計來看,定性有二:一是,若人工智能為有體性,則屬于物。就學者所質(zhì)疑的人工智能屬于物還是產(chǎn)品,從概念構(gòu)成要件而言無實質(zhì)差異,只是從不同部門法域提出的同質(zhì)性比較——所謂產(chǎn)品是指經(jīng)過人類勞動力加工而形成的用于人類消費和使用的物品?!?1〕所謂物,是指除人之身體外,凡能為人力所支配,獨立滿足人類社會生活需要的有體物及自然力?!?2〕當然概念位階上物的概念位階高于產(chǎn)品,產(chǎn)品概念低于物。故,無論是從物權(quán)法角度,還是債權(quán)法,抑或侵權(quán)法、繼承法和婚姻家庭法等,人工智能不僅可為所有權(quán)之標的,亦可為債權(quán)之標的物,更可為侵權(quán)法、繼承法及婚姻家庭法等其他法律制度所規(guī)制之對象。二是,從人工智能的內(nèi)部信息組合過程來看,符合智力成果的特性。就數(shù)據(jù)與算法而言,則須先對數(shù)據(jù)本身進行界定,如單純談及編寫人工智能的程序背后單一子數(shù)據(jù)或曰源代碼,則并無任何實際意義,亦不符合著作權(quán)法第5條第3項之基本規(guī)定?!?3〕若談及的是人工智能作為諸多數(shù)據(jù)的集合意義上的“數(shù)據(jù)”時,此時的數(shù)據(jù)是一系列算法之集合——如前文所述及的C語言程序。因此,數(shù)據(jù)的概念應當大于算法,但此時無論是數(shù)據(jù),抑或算法本身均有人類智力成果的嵌入,當歸屬于知識產(chǎn)權(quán)法范疇,并以版權(quán)法進行保護?!?4〕簡言之,人工智能是為完成高度自動化工作目的的軟、硬件的集合體,可以是有體物與無體物的組合形態(tài)?!?5〕這與人類發(fā)展進程中所生產(chǎn)出的一般計算機的法律屬性在本質(zhì)上并無二致。對某臺電腦(某物)進行物權(quán)、債權(quán)等制度保護時,并不排除相關知識產(chǎn)權(quán)制度、經(jīng)濟法制度及刑法等制度的多元路徑保護。
民法視域下人工智能的有體性使其當歸屬于物,社會學角度下當屬改變客觀世界的工具,除卻上述《民法總則》對人工智能的微觀化定性與保護外,在直面此種歷史性的產(chǎn)物(或工具)時民法典總則還須從其所處法權(quán)結(jié)構(gòu)中的功能入手并進行宏觀意義上的理念引導和規(guī)制。隨著人工智能迅速發(fā)展,諸多行業(yè)的勞動力必然存在被替代的趨勢,〔96〕民法——當然此問題亦非民法單獨之任務——應當保持足夠理性(至少對人工智能物的流通上應給予一定限制),即變相地促使民事主體參與社會勞動生活而不至于使其喪失人之基本生存意義、本體意義和主體意義,具體因由有三:一是,勞動使主客體形成序列分化。馬克思哲學論述中多次提及勞動是財富的源泉,可以創(chuàng)造價值。洛克也指出只要使任何東西脫離自然所提供的和那個東西所處的狀態(tài),他就已經(jīng)滲進他的勞動,在這上面參(摻)加他自己所有的某些東西,因而使它成為他的財產(chǎn)?!?7〕因此,在財富或價值的創(chuàng)造過程中,向自然狀態(tài)的東西滲入勞動時,“勞動”本身的功效使人與客體之間形成了基本的結(jié)構(gòu)差,導致了“主體—客體”社會結(jié)構(gòu)得以形成。二是,勞動是彰顯主體人格的手段。勞動除將主體與客體形成序列性分化后,其實質(zhì)性意義還在于彰顯人之所以為人的社會價值。如果一個人不自己勞動,他就是靠別人勞動生活,而且也是靠別人的勞動獲得自己的文化,那么最終將成為擁有物質(zhì)條件所有者的奴隸?!?8〕同時,若所有人都袖手旁觀、不事勞動,哪里還會再有物品與任何事物的豐富呢。因為收獲不再是他工作的動因,每個人都希望他人的辛勤成就自己的懶惰。〔99〕于此而言,勞動不僅僅是形式,更是人之所以為人的人格證成手段,更是法律調(diào)整財產(chǎn)向財產(chǎn)權(quán)轉(zhuǎn)變時的邏輯起點。三是,勞動被替代將對主體及財產(chǎn)權(quán)形成解構(gòu)。雖然人類發(fā)明的人工智能可越來越多涵蓋更多生活,但并沒有改變一個事實,即發(fā)明家的才智本身正在變得更像機器的智能,由此它必須使自己適應愈益明確規(guī)定的任務。每個人都變得更加孤寂了,因為機器雖能計算和干活,卻不能得到靈感,也不能同別的機器融為一體。于是,盡管人們有能動性,卻變得越來越被動;雖然人們支配自然,但他們對社會和他們自己卻變得越來越無能為力了?!?00〕然而,此種無能為力的背后正是對于勞動本體意義的破壞,當智能機器人大量替代人類勞動使人類的基本勞動權(quán)被剝奪后,不僅將導致人類從客觀世界獲取物質(zhì)所有權(quán)的正當性泉源被截斷,而且也將消解主客體架構(gòu)的穩(wěn)定性,屆時的圖景則正如葛德文所言:“一個人過多地擁有他人被剝奪的東西,這是涌現(xiàn)犯罪的泉源?!薄?01〕
民法典分則正在有序制定中,在確定總則將人工智能界定為物的解釋論路徑下,法典——物權(quán)、合同、侵權(quán)、婚姻家庭和繼承——各分編應以此為基點進行相關制度建構(gòu)和規(guī)則創(chuàng)設,此不僅符合我國民法典立法過程中潘德克頓立法技術流的基本要求,而且也是對法典自身理性的當然恪守。然而,人工智能所謂的新穎性對整個民法典分編形成有效沖擊和有效質(zhì)疑的則是物權(quán)領域與債權(quán)領域(主要體現(xiàn)在侵權(quán)領域),故有必要對此兩大私法板塊中涉及人工智能的相關問題予以說明。
物權(quán)領域中,人工智能作為一種基本的物之形態(tài),對其進行物權(quán)法規(guī)制是實現(xiàn)《物權(quán)法》基本效能——確定物之歸屬與利用——之需要,對此應注意兩點:其一,人工智能不能突破學理上和法律上物的分類序列。物的分類最早可溯及至古羅馬法時代,其中第一位階“可有物”與“不可有物”的分類理念影響個人財產(chǎn)權(quán)的形成?!?02〕第二位階“有體物”與“無體物”分類的,為物接受《物權(quán)法》調(diào)整提供了邏輯支撐。第三位階“原物”與“孳息”、“動產(chǎn)”與“不動產(chǎn)”、“流通物”“限制流通物”與“禁止流通物”等分類為物的利用提供了可能性。羅馬法此些對物的分類理念直接影響了后世諸國法典的基本構(gòu)造,我國現(xiàn)行私法也多有繼受。就人工智能自身物之形態(tài)而言與一般電子產(chǎn)品相比并無二致,故不能突破相關物的分類序列結(jié)構(gòu)。舉例來說,人工智能應根據(jù)其在公共安全方面的影響程度,而被歸入可有物或不可有物、流通物或限制流通物的不同調(diào)整模式下;人工智能生成物,即人工智能“創(chuàng)作作品”等,應作為人工智能(原物)的孳息,由法律根據(jù)具體情況決定其歸屬原物權(quán)利人,或作為無權(quán)利公共物。其二,對人工智能適用他物權(quán)規(guī)則時無須進行特殊性調(diào)整。人工智能本身并不是《物權(quán)法》規(guī)制的重點(相反其已經(jīng)淪為知識產(chǎn)權(quán)法所保護的范疇之中),只有其所搭載的物質(zhì)形態(tài)、實體狀況、可否移動等才是法律上“動產(chǎn)”與“不動產(chǎn)”所關心的實質(zhì)。因之,對人工智能涉及用益物權(quán)與擔保物權(quán)適用之時,相關規(guī)則無需因其所謂的新穎性而為特殊調(diào)整。
債權(quán)領域中,人工智能一般涉及流通意義上作為標的物而存在時的合同之債和因侵權(quán)造成他人利益侵害時的侵權(quán)之債兩方面問題。就一般合同之債而言,由于人工智能本身物之屬性,使其只能成為合同交易標的物,其對合同成立、生效、履行及其他相關規(guī)則并未造成有效沖擊,此不贅述。然而,域外有學者指出某些情形下人工智能——如投資銀行所使用的自動交易系統(tǒng)——可分析市場情勢、根據(jù)市場信息決策并直接簽訂合同,且此種情形下一方當事人不知道其人工智能代理人所訂立的特定合同條款,這將存在解釋論上的困境?!?03〕其實,此時人工智能所為的所謂“市場交易行為”本質(zhì)是合同一方當事人使用工具之初為人工智能輸入自己理性可預估范圍內(nèi)的參數(shù)后,由計算機根據(jù)隨機程序、隨機參數(shù)所選擇的結(jié)果而已,對此種情形一方合同當事人并非不知情。相反,所簽訂合同完全在其可預知的理性范圍之內(nèi)。并且,所謂的人工智能自主簽訂合同行為并非其自主意識爆發(fā)而直接作為“代理人”代替合同當事人簽訂合同,此種行為就是工具對于對象的有效反應,故也不能適用代理和委托等規(guī)則。人工智能在債權(quán)領域中另一面向性問題則是以自動駕駛汽車為典型所產(chǎn)生的侵權(quán)問題,〔104〕具體應注意四點:首先,可明確的是在處理人工智能(自動駕駛汽車)所涉侵權(quán)時所有關涉主體資格類的——亦如勞務派遣、職務侵權(quán)、雇主責任、監(jiān)護責任等等——侵權(quán)處理機制均不能適用,否則違反人工智能作為物的基本邏輯定性,相關理由此不贅述。其次,處理自動駕駛汽車侵權(quán)目前較為合理的處理路徑則是“產(chǎn)品責任”模式。有學者指出由于自動駕駛汽車在運行過程中對環(huán)境存在自主預測性,但并不能窮盡所有場景,故因預測失誤而導致侵權(quán)時讓生產(chǎn)者承擔產(chǎn)品責任并不合理?!?05〕但是,自動駕駛汽車的自主性正是基于前期程序編寫過程中對于程序的開放性設計所引起的,且這種開放性也是完全可被生產(chǎn)商控制的,這也正是產(chǎn)品責任歸責的合理基礎。不可否認以自動駕駛汽車為代表的人工智能雖為人類及全社會帶來諸多便宜,但是不能為尋求科技發(fā)展而置整個人類于風險之中。即使2016年美國出臺的頗具代表性的《聯(lián)邦自動駕駛車輛政策》也是以人類整體安全為利益導向,〔106〕并非學者所言及的生產(chǎn)者承擔責任不合理。當然,對因自動駕駛車輛的自我環(huán)境預估過程中所造成的侵權(quán)自主性評估問題,域外相關政策中早已指出可建設相關監(jiān)管機構(gòu)或評估機構(gòu)以資保證生產(chǎn)商的生產(chǎn)積極性不被挫傷,可資借鑒?!?07〕再次,人工智能的侵權(quán)責任還可能涉及“物件損害責任”。人工智能的形態(tài)使其完全可能因自身器件的脫落、墜落等引發(fā)致害,對此《侵權(quán)責任法》中的物件損害責任規(guī)則具備當然適用性。最后,應在人工智能物的定性下保持開放性立法模式。隨著自動駕駛汽車為典型的人工智能領域的持續(xù)發(fā)展,其完全可能與現(xiàn)行侵權(quán)法某些規(guī)則之間出現(xiàn)張力,故應適度保持法典開放性以維持法典預測性。
所謂啟蒙運動對“人的發(fā)現(xiàn)”,其實是近代的人類代表,對自然法則上先存的全部人類的主體性的重申與落實。連人類自身的主體性都并非經(jīng)過某代某群人類代表的賦予而形成,那又有誰有資格代表人類,賦予外在于人類的人工智能的“主體資格”?當前,人工智能“主體資格”立論普遍缺乏共識性道德與法律機制(人格理論)支撐,〔108〕最終陷入“子非魚,安知魚之樂”的唯我主義、神秘主義偏執(zhí),甚或是宗教與神話情結(jié)中。但這種偏執(zhí),或是宗教與神話情結(jié)本身亦是人類之所以為人的各種意涵中可有之意,無可厚非,代代傳承。真正令人擔憂的并不是智能機器人那名不副實,充其量導致立論陷入喪失學術性與現(xiàn)實性的無謂、無用之境的“人格化”本身,而是在最關社會正義的法律視野中討論人工智能時,本應不言而喻的“人類中心主義”居然輕易成了可議、可棄之項。智能機器人“人格化”幌子下,很可能是對本來就技術壁壘森嚴的,人工智能相關從業(yè)者、運用者的開發(fā)與使用行為中的風險與黑暗面的法律規(guī)制范圍、能力的實質(zhì)性限縮。使其對人工智能“物”的開發(fā)與利用行為,遁入所謂機器人“人格自由與獨立”而為所欲為——這也許才是某些機器人人格化鼓吹者的隱衷。近代以來的科技發(fā)展史證明,人不應當允許自己的自我意識被技術左右,他應當像任何導致主體性喪失的支配關系一樣去反抗對技術的依賴”?!?09〕反抗對技術的依賴其實就是要防止對技術的開發(fā)與提供者的依賴與放縱。從更為古老的人類文明史上看,人類在取得與使用財產(chǎn)(物)之時,財產(chǎn)也已將人類進行了歸類,并且輕易地就實現(xiàn)了將人類當作客體一樣驅(qū)使。這正如我們在工業(yè)革命以來資本驅(qū)使勞動者的人再異化中見到的。在所謂財產(chǎn)驅(qū)使人類的表象下潛伏的,不過是擁有財產(chǎn)的強者通過其優(yōu)勢財產(chǎn)權(quán)中介而將其人的支配力作用于無產(chǎn)者之上,所謂資本對勞動者的驅(qū)使,不過是資本家對無產(chǎn)階級的驅(qū)使,是部分人借助物的中介而將他人擬制為“物”的異化過程。這破壞了自然法則中“人類中心主義”對全人類的普惠性與平等性,造成日后激烈的階層分化與斗爭。今日,若賦予人工智能以“主體資格”,將使部分人對另一部分人的物化趨勢空前激烈。這在赫拉利的《未來簡史》不是已有“預言”嗎:人工智能的“統(tǒng)治”,實則是極少數(shù)創(chuàng)造算法、為人工智能編寫核心程序、通過人工智能驅(qū)動社會運轉(zhuǎn)的“神人”,對更大多數(shù)“算法無產(chǎn)者”的“算法獨裁”。這正是極少數(shù)傲慢偏執(zhí)而缺乏人性關懷者所追求的,部分人為奴為馬的奴隸制史的復辟,而決不是什么“泛愛”的新世界。當下,既要關注霍金所提及的智能機器人被賦予主體資格之后對人類所帶來的諸多基于機器技術性風險之論斷,更要關注人工智能的“人格化”追求掩蓋下,人類自身價值理念、社會倫理道德解體危機——屆時,人類所自恃的、區(qū)別于動物的高尚價值情操將不復存在,人類歷經(jīng)千百萬年努力從食物鏈低端進化至今時的平等與普惠的主體地位也將拱手送“人”——這從表面看是“機器人”,實則是操作人工智能之新型“玩偶”的“神人”。法律決不能以任何借口,為可將大多數(shù)人重新降格為奴的“赫拉利式追求”提供任何機會,應牢牢將人工智能限定在客體與物格上。
將人工智能定格為物格(或人格)與所謂人工智能產(chǎn)業(yè)發(fā)展之間不存在阻礙(或推動)的必然聯(lián)系。在確定將人工智能鎖定于法律關系客體的前提下,針對人工智能迅速發(fā)展而替代大量勞動力的態(tài)勢,民法典應進行合理限制以防大規(guī)模的流通造成對財產(chǎn)權(quán)勞動基點的解構(gòu)。我國民法分則各編設定時則應保持法典的穩(wěn)定性,無需就人工智能所謂的“新穎性”做特別的規(guī)則調(diào)整。如此方可保證人工智能物之屬性一以貫之地服務于人類群體。對此,黨十九大報告也指出發(fā)展“互聯(lián)網(wǎng)+”全面為全人類謀取利益,故人工智能應被徹底地限制在客體范疇下以滿足人類利益最大化。其間,做到善用與愛惜智能機器人財“物”,就足以表達人類對人工智能的全部“關愛”了。
注釋:
〔1〕〔48〕〔53〕〔86〕〔109〕鄭戈:《算法的法律與法律的算法》,《中國法律評論》2018年第2期。
〔2〕Kevin Drum,“Tech World:Welcome to the Digital Revolution”,Foreign Affairs,43 (2018),pp.45-47.
〔3〕Leon E.Wein,“Responsibility of Intelligent Artifacts:Toward an Automation Jurisprudence”,Harvard Journal of Law & Technology,Fall,Vol.6,1992,p.103.
〔4〕截至2018年9月,以“人工智能+法律”為關鍵詞搜索,僅CNKI可檢索到的核心期刊文章有170多余篇,而法學類CSSCI期刊共計發(fā)表58篇,占比34%,近乎占所有核心期刊發(fā)表該主題文章的三分之一多,其明顯高于其他選題方向。
〔5〕阿西莫夫三原則是:第一定律——機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律——機器人應服從人的一切命令,但不得違反第一定律;第三定律——機器人應保護自身的安全,但不得違反第一、第二定律。〔美〕艾·阿西莫夫:《我,機器人》,國強等譯,北京:科學普及出版社,1981年,第46頁。
〔6〕鄭志峰:《人工智能法律前沿問題探討——機器人是“人”嗎?》,http://mp.weixin.qq.com/s/VM71EcQ89G40RsV9xmijKg。
〔7〕〔10〕劉憲權(quán):《人工智能時代機器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期。
〔8〕楊清望、張磊:《論人工智能次等法律人格》,《中國法理學會2017年年會論文集》。
〔9〕袁曾:《人工智能有限法律人格審視》,《東方法學》2017年第5期。
〔11〕〔16〕張紹欣:《從法律人類學角度論智能機器人與人類的關系》,《中國法理學會2017年年會論文集》。
〔12〕“電子代理人”一詞最早出現(xiàn)在美國法學會與美國統(tǒng)一州法全國委員會擬訂的《統(tǒng)一計算機信息教育法》。1998年美國統(tǒng)一州法全國委員會通過的《統(tǒng)一電子交易法》第2條將電子代理人定義為:非經(jīng)人的行為或?qū)徍耍炕虿糠知毩l(fā)起行為或應對電子記錄或履行的計算機程序、電子手段或其他自動化手段。
〔13〕歐洲議會2016年提出“機器人法”立法建議報告,其第50(F)項建議:“從長遠來看要創(chuàng)設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人的法律地位,有責任彌補自己所造成的任何損害,并且可能彌補自己所造成的任何損失,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格”。
〔14〕〔54〕張建文:《格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評價》,《華東政法大學學報》2018年第2期。
〔15〕〔25〕〔85〕高奇琦、張鵬:《論人工智能對未來法律的多方位挑戰(zhàn)》,《華中科技大學學報(社會科學版)》2018年第1期。
〔17〕〔美〕John Frenk Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,臺北:臺灣元照出版社,2018年,第5頁。
〔18〕〔29〕〔以〕尤瓦爾·赫拉利:《未來簡史》,林俊宏譯,北京:中信出版社,2017年,第280-283、280-290頁。
〔19〕John Finnis,Natural Law and Natural Rights,Oxforo University Press,2011,pp.3-4.
〔20〕胡長兵:《法律主體考略——以近代以來法律人像為中心》,《東方法學》2015年第5期。
〔21〕〔98〕《馬克思恩格斯選集》(第3卷),北京:人民出版社,2012年,第988-994頁。
〔22〕〔德〕卡爾·雅斯貝爾斯:《當代的精神處境》,黃藿譯,北京:生活·讀書·新知三聯(lián)書店,1992年,第26頁。
〔23〕《馬克思恩格斯全集》(第46卷上),北京:人民出版社,1979年,第31頁。
〔24〕〔意〕彼得羅·彭梵得:《羅馬法教科書》,黃風譯,北京:中國政法大學出版社,2005年,第11頁。
〔26〕〔德〕霍斯特·艾丹米勒(著),李飛、敦小匣(譯):《機器人的崛起與人類的法律》,《法治現(xiàn)代化研究》2017年第4期。
〔27〕有學者認為人工智能可如公司一樣以自己名義持有資產(chǎn),股東為自然人,營利和監(jiān)管均由自然人來進行,其正如可歸屬于“集體”邏輯下的公司法人一樣享有財產(chǎn)權(quán)而成為物權(quán)主體。See David Marc Rothenberg,“Can Siri 10.0 Buy Your Home:The Legal and Policy Based Implications of ArtificialIntelligent Robots Owning Real Property”,Washington Journal of Law,Technology & Arts,Vol.11,Issue 5 (Spring 2016),p.439.
〔28〕劉文燕、劉濱:《生態(tài)法學的基本結(jié)構(gòu)》,《現(xiàn)代法學》1998年第6期。
〔30〕李偉民:《人工智能智力成果在著作權(quán)法的正確定性——與王遷教授商榷》,《東方法學》2018年第3期。
〔31〕楊立新、朱呈義:《動物法律人格之否定——兼論動物之法律“物格”》,《法學研究》2004年第5期。
〔32〕陳本寒、周平:《動物法律地位之探討——兼析我國民事立法對動物的應有定位》,《中國法學》2002年第6期。
〔33〕然而,即使這種所謂的超級能力也并不值得宣揚。在一個多世紀前,法國數(shù)學家艾米爾·博萊爾就曾提出只要有足夠的時間,猴子在打字機上隨機敲擊鍵盤,也能復制出莎士比亞的全集。他的假說后來被命名為“無限猴子定理”(Infinite Monkey Theorem),結(jié)果證明,比博萊爾想象的更有預見性。盡管靈長類動物學家還沒有組建起一支龐大的猴子打字隊伍,但工程師們已經(jīng)成功地將數(shù)十億個晶體管組裝成能夠進行蠻力計算的架構(gòu),其規(guī)模在一個世紀前是無法想象的。See Ben Hattenbach,Joshua Glucoft,“Patents in An Era of Infinite Monkeys and Artificial Intelligence”,19 Stan.Tech.L.Rev.32 (2015),p.33.
〔34〕Sean Semmler,Zeeve Rose,“Artificial Intelligence:Application Today and Implications Tomorrow”,16 Duke L.& Tech.Rev.85 (2017-2018),p.86.
〔35〕二進制是計算技術中廣泛采用的一種數(shù)制,二進制數(shù)據(jù)是用0和1兩個數(shù)碼來表示的數(shù)。它的基數(shù)為2,進位規(guī)則是“逢二進一。在二進制所組成的一系列指令后,計算機通過將其轉(zhuǎn)變?yōu)橐涣懈叩碗娖健谩伴_”來表示1,“關”來表示0,以使計算機的電子器件受到驅(qū)動,進而完成運算。
〔36〕在二進制之下所有信息均以0、1的形式存在,如數(shù)字“9”=00001001,但此種編譯很容易出錯。
〔37〕所謂助記符,就是人們用與代碼指令實際含義相近的英文縮寫詞、字母和數(shù)字等符號來取代指令代碼,以此通過助記符實現(xiàn)程序的編寫。參見陶春:《計算機語言的發(fā)展》,《中共中央黨校學報》2005年第2期。
〔38〕凌藝春、黃飛:《匯編程序移植性的研究與實踐》,《制造業(yè)自動化》2011年第5期。
〔39〕所謂過程性編程語言是指編寫的程序有一個起點和一個終點,程序從起點到終點執(zhí)行的流程是直線型的,即計算機從起點開始執(zhí)行寫好的指令序列,直到終點。比如C語言就是過程性語言。所謂非過程性語言是指只需程序員具體說明問題的規(guī)則并定義一些條件即可。即你只用說做什么,具體怎么做不用你去描述,語言自身內(nèi)置了方法把這些規(guī)則解釋為一些解決問題的步驟。面向?qū)ο笳Z言是建立在用對象編程的方法基礎之上的。而對象就是程序中使用的“實體”或“事物”,例如計算機按鈕、屏幕上的一種長方形圖標、菜單、對話框等都是對象。即電腦用戶可以通過對象實現(xiàn)操作,在面向?qū)ο蟪绦蛟O計中只需考慮如何創(chuàng)建對象以及創(chuàng)建什么樣的對象即可,而具體的后臺程序編制交由計算機處理。參見陶春:《計算機語言的發(fā)展》,《中共中央黨校學報》2005年第2期。
〔40〕《最適合人工智能開發(fā)的5種編程語言》,http://tech.it168.com/a2017/0406/3114/000003114332.shtml。
〔41〕目前,多有人指出機器學習就是“生成算法的算法”,指在機器學習中學習算法創(chuàng)建規(guī)則,而非程序員。但是,此種“學習”與人類認知意義具有價值選擇的學習并不能等同。而且,即使算法創(chuàng)建算法還是依賴于其先期的高級匯編程序,簡言之就是程序的疊加,而這與人類的學習具有質(zhì)的差異。
〔42〕當然,此種C語言編寫的程序本身是高級語言中的面向性語言,即用戶可通過固件輸入直接完成,但最終所編寫的此些程序仍然要通過計算機預先所內(nèi)置的“編譯器”轉(zhuǎn)化為“0”“1”的機器二進制語言以供CPU識別和執(zhí)行。
〔43〕即使任何基于計算機程序規(guī)則所建立的算法下的機器自主學習永遠無法擺脫這一邏輯前提。最終是機器學習(感知能力)缺乏對與錯、是與非的價值判斷,而是直接一攬子地學習。Andrew Arruda,“An Ethical Obligation to Use Artificial Intelligence:An Examination of the Use of Artificial Intelligence in Law and the Model Rules of Professional Responsibility”,American Journal of Trial Advocacy,Vol.40,Issue 3 (Spring 2017),pp.452-453.
〔44〕陳吉棟:《論機器人的法律人格——基于法釋義學的討論》,《上海大學學報(社會科學版)》2018年第3期。
〔45〕事實上,機器人教等是對傳統(tǒng)拜物教的一種科技語言之表達。Kif Leswing Nov,“Ex-Google executive Anthony Levandowski is founding a church where people worship an artificial intelligence god”,https://www.businessinsider.com/anthony-levandowski-way-of-the-future-church-where-people-worship-ai-god-2017-11.
〔46〕Madeleine de Cock Buning,“Autonomous Intelligent Systems as Creative Agents under the EU Framework for Intellectual Property”,European Journal of Risk Regulation,Vol.7,Issue 2 (2016),p.312.
〔47〕Matthew U.Scherer,“Regulating artificial intelligence systems:risks,challenges,competencies,and strategies”,Harvard Journal of law & Technology,29.2016,pp.361-362.
〔49〕《馬克思恩格斯選集》(第1卷),北京:人民出版社,1955年,第9頁。
〔50〕王遷:《論人工智能生成的內(nèi)容在著作權(quán)法中的定性》,《法律科學》2017年第5期。
〔51〕“索菲婭”由我國香港公司開發(fā),其首次面世是在展會上。沙特政府“授予公民”的主要目的是為沙特的人工智能開發(fā)做宣傳。See Mindaugas Naucius,“Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity”,Teises Apzvalga L.Rev,113 (2018),p118.
〔52〕孫占利:《智能機器人法律人格問題論析》,《東方法學》2018年第3期。
〔55〕清華大學教授曾以《全世界機器人聯(lián)合起來》的“駭人”之題進行講座。
〔56〕〔古羅馬〕查士丁尼:《法學總論》,張企泰譯,北京:商務印書館,2013年,第6頁。
〔57〕〔德〕海因里希·羅門:《自然法的觀念史和哲學》,姚中秋譯,上海:三聯(lián)書店,2007年,第195-196頁。
〔58〕〔59〕〔65〕〔99〕〔愛爾蘭〕約翰·莫里斯·凱利:《西方法律思想簡史》,王笑紅譯,北京:法律出版社,2010年,第122、122、52、168頁。
〔60〕亞里士多德事實上指出了自然公正和實在法規(guī)定意義上的公正的理論區(qū)分,談到政治法(如治理公民的規(guī)則),一種是自然的,另外一種是約定的,自然規(guī)則在任何地方都具有相同效力,它的存在不依賴于人們的贊同或者反對;而約定的規(guī)則,它最初是以何種方式確立的并不重要,一旦確立后,這個問題就無關緊要了。參見〔愛爾蘭〕約翰·莫里斯·凱利:《西方法律思想簡史》,王笑紅譯,北京:法律出版社,2010年,第18頁。
〔61〕〔英〕登特列夫:《自然法:法律哲學導論》,李日章、梁捷、王利譯,北京:新星出版社,2008年,第21頁。
〔62〕〔古羅馬〕西塞羅:《國家篇 法律篇》,沈叔平、蘇力譯,北京:商務印書館,2002年,第159頁。
〔63〕〔古羅馬〕西塞羅:《論老年 論友誼 論責任》,徐奕春譯,北京:商務印書館,1998年,第99頁。
〔64〕See Samuel Pufendorf,On the Duty of Man and Citizen According to Natural Law,Cambridge University Press,1991,pp.35-36.
〔66〕〔67〕〔英〕洛克:《人類理解論》(上冊),關文運譯,北京:商務印書館,1959年,第212、212頁。
〔68〕〔71〕〔73〕韓玉敏、韓莉:《關于主體、客體及其關系的辨析》,《河北師范大學學報(社會科學版)》1996年第3期。
〔69〕〔72〕《馬克思恩格斯全集》(第42卷),北京:人民出版社,1960年,第167-169頁。
〔70〕《馬克思恩格斯全集》(第2卷),北京:人民出版社,1960年,第3頁。
〔74〕高良、朱亞宗:《關于人工智能的形而上學批判》,《湖南社會科學》2017年第3期。
〔75〕鄭祥福:《人工智能的四大哲學問題》,《科學技術與辯證法》2005年第5期。
〔76〕〔90〕劉云生:《人工智能的民法定位》,http://mp.weixin.qq.com/s/KbbD-iLqUV9oRM_jqrjjdw。
〔77〕〔德〕卡爾·拉倫茨:《法學方法論》,陳愛娥譯,北京:商務印書館,2004年,第318-319頁。
〔78〕張文顯主編:《法理學》(第三版),北京:高等教育出版社、北京大學出版社,2007年,第161頁。
〔79〕〔日〕近江幸治:《民法講義Ⅰ》,渠濤等譯,北京:北京大學出版社,2015年,第139頁。
〔80〕李錫鶴:《民法原理論稿》,北京:法律出版社,2012年,第12頁。
〔81〕〔美〕謝爾登·卡什丹:《客體關系心理治療:理論、實務與案例》,魯小華等譯,北京:中國水利水電出版社,2006年,第2頁。
〔82〕Judith Burnett,Syd Jeffers and Graham Thomas,New Social Connections Sociology’s Subjects and Objects,Palgrave Macmillan,2010,p.17.
〔83〕目前,學界對于人工智能與人類之間的關系研究均是從其可為人類——表現(xiàn)在與司法機關的關系時——提供便利角度進行論述的,此點完全可以證明人工智能本體所存在的意義。參見張妮、楊遂全、蒲亦非:《國外人工智能與法律研究進展述評》,《法律方法》2014年第2期。
〔84〕吳習彧:《論人工智能的法律主體資格》,《浙江社會科學》2018年第6期。
〔87〕嚴格地說,“機器人”的翻譯看似傳神,實則謬誤。在英文、俄羅斯等西文中,原詞并無任何“人”的詞根與類似含義影射,反倒是在原語境中被不斷提及的自動化工具的客體定位表達。
〔88〕高健:《試論民事法律關系的抽象客體》,《政法論叢》2003年第2期。
〔89〕當然,張建文教授還提出人工智能是否為類人尊嚴的智慧存在者的觀點,但經(jīng)全文論述人工智能只能作為客體,故此處僅將其做客體討論,不做主體贅述。參見張建文在第八十六期毓秀湖畔讀書會的發(fā)言,http://russian.swupl.edu.cn/yxhpdsk/236089.htm。
〔91〕李昌麒:《經(jīng)濟法學》(第二版),北京:法律出版社,2008年,第363-364頁。
〔92〕學界對物的概念表述及范圍界定存在些許差異,但對物存在于人體之外、滿足社會需要、可被支配、有體性四要素是一致的。王澤鑒:《民法總則》,北京:北京大學出版社,2009年,第167-168頁。
〔93〕《著作權(quán)法》第五條:本法不適用于:(一)法律、法規(guī),國家機關的決議、決定、命令和其他具有立法、行政、司法性質(zhì)的文件,及其官方正式譯文;(二)時事新聞;(三)歷法、通用數(shù)表、通用表格和公式。
〔94〕Bohumir Stedron,“Law or Artificial Intelligence—New Trends in the Data Protection”,Masaryk University Journal of Law and Technology,Vol.1,Issue 1 (Summer 2007),p.213.
〔95〕朱程斌、李龍:《人工智能作為法律擬制物無法擁有生物人的專屬性》,《上海交通大學學報(哲學社會科學版)》2018年第6期。
〔96〕當然,目前勞動力被人工智能大量替代這一現(xiàn)象背后至少存在兩方面原因值得關注:一方面是互聯(lián)網(wǎng)(人工智能)的效益性?;ヂ?lián)網(wǎng)本身所帶來的效益不言而喻,尤其對于勞動力密集型產(chǎn)業(yè)中的中低端勞動完全可以形成有效替代,且卓有成效。另一方面,網(wǎng)絡便宜性下人類自身種群中小比例群體的自我退出。近年來網(wǎng)絡帶給人類便宜之時,小比例群體長期處于網(wǎng)絡生活而脫離基本的社會勞動環(huán)節(jié),促使人工智能得以發(fā)展以彌補各行業(yè)的勞動供給。
〔97〕〔英〕洛克:《政府論》(下篇),葉啟芳、瞿菊農(nóng)譯,北京:商務印書館,1964年,第18頁。
〔98〕《馬克思恩格斯選集》(第3卷),北京:人民出版社,1995年,第298-300頁。
〔100〕〔德〕馬克斯·霍克海默:《人的概念》,載上海社會科學院哲學研究所外國哲學研究室編:《法蘭克福學派論著選輯》(上卷),北京:商務印書館,1998年,第175-176頁。
〔101〕〔英〕葛德文:《論財產(chǎn)》,何清新譯,北京:商務印書館,2013年,第52頁。
〔102〕周枏:《羅馬法原論》(上冊),北京:商務印書館,1994年,第299-303頁。
〔103〕Samir Chopra,Laurence White,“Artificial Agents and the Contracting Problem:A Solution via an Agency Analysis”,University of Illinois Journal of Law,Technology & Policy,Vol.2009,Issue 2 (Fall 2009),pp.363-366.
〔104〕Kyle Colonna,“Autonomous Cars and Tort Liability”,Case Western Reserve Journal of Law,Technology & the Internet,Vol.4,Issue 1 (Fall 2012),p.82.
〔105〕司曉、曹建峰:《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,《法律科學(西北政法大學學報)》2017年第5期。
〔106〕〔107〕U.S.Department of Transportation:“Federal Automated Vehicles Policy”,https://www.transportation.gov/AV/federal-automated-vehicles-policy-september-2016.
〔108〕Lawrence B.Solum,“Legal Personhood for Artificial Intelligences”,North Carolina Law View,1992,p.1286.