□文/王 歡
(西南石油大學(xué) 四川·成都)
[提要] 如今,人工智能已參與至交易的各個環(huán)節(jié),經(jīng)營活動取決于人工智能的運用已趨于現(xiàn)實,為破解責任縫隙,賦予其法律人格已成為時代必然。目前,各國普遍認為人工智能實施輔助性商事行為的模式,伴隨著弱人工智能向強人工智能的轉(zhuǎn)變,人工智能具有被賦予新型法人人格的拓展空間。有鑒于此,從商主體資格的視角對其進行探討,并以公司制人工智能模式為其實現(xiàn)路徑甚為必要。
人工智能的概念可肇始于1956 的達特茅斯會議,但由于算法等方面的限制,對人工智能的研究未能突破“有多少人工便有多少智能的”的桎梏。隨著算法黑箱以及深度學(xué)習等技術(shù)的突破,引發(fā)了一系列問題,諸如人工智能技術(shù)自動生成作品是否可以享有著作權(quán)保護?如何對人工智能機器人進行征稅?而諸多問題得以解決之關(guān)鍵在于界定人工智能是否享有法律人格,若享有,享有何種法律人格?
法律人格是私法中最基本的問題,法律人格的擁有意味著法律主體地位得以確認,從而成為權(quán)利的享有者與義務(wù)的承擔者,意味著“生物人”向“法律人”的轉(zhuǎn)變。就人工智能而言,1992年,Lawrence B.Solum 提出賦予人工智能以法律人格的觀點,此后該觀點成為學(xué)術(shù)研究、立法建議和司法實踐中普遍關(guān)注的話題。近年來,賦予人工智能以法律主體地位更是成為了發(fā)展的趨勢,如歐盟議會法制委員會于2017 年2 月16 日通過了“賦予機器人電子人”以法律地位的議案;2017 年10 月26 日,沙特阿拉伯給世界上第一個人工智能機器人“索菲亞”頒發(fā)公民身份;2017 年11 月4 日,日本東京都澀谷區(qū)宣布名為“澀谷mirai”的人工智能(定為7 歲男孩)可進行特殊居民登記。
借助我國政策的東風,特別是2017 年出臺的《新一代人工智能發(fā)展規(guī)劃》要求厘定人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任,激發(fā)了法學(xué)界對于人工智能時代的“法學(xué)思考”,對其法律人格也不再囿于民法、刑法、知識產(chǎn)權(quán)等領(lǐng)域,而是伴隨著市場競爭科技化、法人類型細分化的推動,人工智能被賦予新型法人人格的拓展空間并嘗試從公司法解釋論的路徑實現(xiàn)人工智能的法律人格。因此,商事人格的拓展空間是探討人工智能法律主體地位的核心。
人工智能是否應(yīng)當被賦予法律人格以及應(yīng)賦予何種法律人格并非是一個科幻問題或主觀假設(shè),而是在深度學(xué)習背景下必須加以考量的話題。目前,就人工智能的法律人格的支持觀點主要為:權(quán)利主體說、擬制主體、法律人格說、代理人說以及電子人格說;反對的觀點主要為工具說、道德能力缺乏說等。然而,上述無論是肯定人工智能的法人主體資格抑或是持有否定觀點,上述爭論均是置于同一前提之下的,即是否有必要賦予其法律人格,因此有必要首先對其必要性進行詮釋。
(一)責任分配視域下授予其法律主體資格的必要性。技術(shù)變革推動人工智能迅速得以發(fā)展,按照人工智能的發(fā)展進程,可將其劃分為三個發(fā)展階段。第一階段為人類控制性,即直接或者間接由人類加以控制,其具有自主性缺乏的特點。第二階段為輔助自主型,該階段主要體現(xiàn)為人工智能具有一定的自主性,其在多數(shù)場合可自行加以運行,但在特殊場合仍需由人類加以控制。第三階段為自主型,該類型下又可細分部分自主型和全面自主型,前者是指在特定領(lǐng)域,人工智能可獨立于人類控制,實現(xiàn)獨立運行,若超出該領(lǐng)域,則不具有自主性;后者是一種強人工智能,其具有與人類相同的自由,其自主性不再受制于特定領(lǐng)域,可自主從事社會活動。
法律人格尚未確認之前,對因人工智能造成的責任承擔是按照產(chǎn)品責任規(guī)則原則加以處置,該種方法應(yīng)對初級階段的人工智能尚屬有效,但對于中級階段的人工智能而言卻難以發(fā)揮作用,更逞論強人工智能。具言之,傳統(tǒng)產(chǎn)品在制造、使用過程中的狀態(tài)是比較穩(wěn)定的,人工智能在運行過程中是封閉的,因而在制作過程中制造商以實時連線的方式對其具有排他性的控制權(quán),可排除其他主體的干預(yù),因而將人工智能的責任直接歸于該主體較為合理,但是強人工智能下,多主體協(xié)同,開放式支撐是其顯著特征,與前者封閉式人工智能的運行不同,強人工智能的運行易受到諸如硬件制造商、軟件制造商、網(wǎng)絡(luò)服務(wù)商等多種因素的影響,特別是在存在“算法黑箱”的情形下,無法判斷何種關(guān)系需要法律對其進行調(diào)整,無法判斷其原因,導(dǎo)致難以認定責任主體,產(chǎn)品責任便難以發(fā)揮作用。若承認人工智能的法律人格,便可由其直接承擔責任,從而避免各主體之間的責任推諉,受害人也可快速得到相應(yīng)的補償。
然而,上述論述從理論層面探究賦予人工智能法律主體資格的必要性,僅僅能用于證明人工智能“可能”具有必要性,VITAL 的出現(xiàn),則從實踐意義上解釋了賦予人工智能以法律人格的必要性。2014 年為克服人性在投資決策時作出非理性判斷,英國公司Aging Analytics 啟動VITAL 并授權(quán)香港的風投公司將此人工智能用作該公司投資委員,借此,一方面可以避免因人性而作出非理性判斷,另一方面人工智能可依托于大數(shù)據(jù),通過算法的應(yīng)用,擴展投資決策的考量范圍作出正確判斷。事實上,VITAL 投資的Silico Medicine 項目與Pathway Pharmaceuticals 項目均證明其投資的正確性。值得注意的是,VITAL并非一般意義上的投資輔助工具,而是與投資委員會其他委員具有平等地位,然而香港地區(qū)的《公司法》并不承認“非人”董事,由此VITAL 雖然享有與其他董事平等的權(quán)利,但卻身份不明,此時若VITAL 投資失敗,責任難以清晰認定,若賦予其法律人格,則可以合乎法律邏輯的方式進行責任認定。
(二)商主體的特殊性視域下授予其商事主體資格的必要性。與普通人工智能只需在民法維度上對其加以考量不同,本文討論的對象為強人工智能,因此應(yīng)擴展其考量范圍,以尋找最優(yōu)解。經(jīng)上文論述可知,人工智能具備法律人格具有應(yīng)然性,但人工智能的法律人格應(yīng)該賦予其商主體資格則是時代所必須,其原因在于較民事主體而言,商事主體具有獨特之處并很難被民事主體所吸納。具言之商主體從產(chǎn)生之初就因其實施營業(yè)行為的特殊性而作為社會的特殊階層受到不同程度的差別對待。商主體在經(jīng)濟實力、組織能力、專業(yè)素質(zhì)等方面較普通民事主體而言有極大差別,若將人工智能視為民事主體,機械適用民法的意思自治及平等原則,則會導(dǎo)致實質(zhì)上的不公平。因而,法律課以商主體更多的注意義務(wù)與嚴格責任,如格式條款的不利解釋。
(一)合目的性視域下的可行性分析。法律主體和法律規(guī)范體系不是自然物而是“人造物”,是法律擬制的產(chǎn)物。該擬制并非狹義的擬制,而是對主體身份、模糊不清的事實等的厘定。首先,自然科學(xué)意義上的人與法律意義上的人之間并非等同,民法上的法人、自然人等概念均是民法為調(diào)整各主體之間的社會關(guān)系進行的擬制,即所有的法律人格均具有擬制性。而擬制的出發(fā)點不在于與人類的相似性,而在于人類需要,若賦予主體以法律人格可促進人類社會向良善發(fā)展,則該擬制行為具有其合理性。因此,就人工智能而言,是否可以賦予其法律人格,其核心不在于人工智能與人之間是否具有同質(zhì)性或者具有多大程度上的同質(zhì)性,而在于擬制的目的,看是否有助于調(diào)整人工智能產(chǎn)生的法律關(guān)系或有助于進行其產(chǎn)生的權(quán)利義務(wù)關(guān)系的配置。只要賦予人工智能能夠符合:其一賦予本身具有正當性;其二賦予的結(jié)果具有良善性,即可表明擬制行為符合特定的目的,進而表明擬制行為具有可行性。
(二)商主體構(gòu)成要件下的可行性分析。法律選擇法律主體的標準存在不同,法律并未對生物人(自然人)添加特別限制,其可直接成為法律主體,但是對于生物人之外的主體,只有在借助法定條件的基礎(chǔ)上方可將其擬制為法律主體。而法定條件的背后便隱藏著法律所意欲實現(xiàn)的特定目的,因此人工智能并非生物人,其需借助法定條件方可被擬制為法律主體,即人工智能只有在符合商主體的構(gòu)成要件時,才具有法律人格。就我國而言,我國并沒有針對普遍意義上的商主體的特定立法,在民商合一的特定背景下,《民法典》第76 條營利條件、第77 條登記條件、第79~82 條組織條件等并非是提取公因式的立法構(gòu)造,而是《公司法》相關(guān)規(guī)定的“挪用”,其并沒有擺脫《公司法》固有思維的桎梏,并未意識到公司這一具有高度強制性的商主體與其他商主體之間的顯著差異。因而,直接比照《民法典》的相應(yīng)條件對人工智能加以判定不盡合理。
關(guān)于商主體的構(gòu)成要件,我國學(xué)者普遍認為應(yīng)當具有登記要件、營業(yè)要件、名義要件。
其一,就登記要件而言,登記是幾乎所有的商主體成立的必要條件,但是商事登記的效力應(yīng)更多的在于確認主商事主體資格,而非創(chuàng)設(shè)商事主體資格,否則有違市場經(jīng)濟營業(yè)自由的初衷,正如公司資本制度改革,降低準入門檻并沒有導(dǎo)致“皮包公司”大量出現(xiàn),相反改善了原資本制度下抽逃出資的惡疾。就人工智能而言,其商事主體資格的取得只需進行登記確認即可,而非進行嚴格審查,因此應(yīng)認為人工智能符合該標準。
其二,就營業(yè)要件而言,其意指持續(xù)從事某種活動并以此為業(yè),據(jù)此可將其視為行為條件與職業(yè)條件的結(jié)合。但實踐中,隨著交易活動的不斷創(chuàng)新,傳統(tǒng)職業(yè)之間的界限已經(jīng)被打破,各職業(yè)間的界限日益模糊,因而可對該條件忽略不計,但是行為條件在商法從商人主義轉(zhuǎn)向商行為主義的背景下以及商事外觀原則的指引下,顯得尤為重要,只有從事特定商行為才能被賦予商主體地位,相反即使并非是商主體,也可因?qū)嵤┠撤N特定商行為而被賦予商主體地位。
在當下,人工智能尚未發(fā)展至強人工智能的階段下,人工智能已參與到合同評估、法律數(shù)據(jù)調(diào)查等商事活動中,其在合同上的應(yīng)用范圍也已經(jīng)擴張到起草、訴訟和咨詢等所有領(lǐng)域。隨著強人工智能時代的到來,人工智能的自主性進一步加強,并通過深度學(xué)習具有超過人類的水平,從而代替人類進行幾乎所有的交易行為,因此人工智能的營業(yè)能力主要取決于其數(shù)據(jù)的數(shù)量與質(zhì)量以及分析學(xué)習能力,只要人工智能具有相應(yīng)的技術(shù)條件與程序,便可認為其具備行為能力。
其三,所謂名義條件是以自己的名義獨立實施商行為,此即為與商事輔助人的區(qū)別,也是第三人識別商主體,也是接受政府監(jiān)管與征稅的前提。伴隨著人工智能自主性的提高,其在具備了法律人格之后,即可以自己的名義獨立實施商行為。
在肯定賦予人工智能以法律人格的前提下,其實現(xiàn)路徑問題再次引發(fā)學(xué)界的爭論與質(zhì)疑,對此筆者認為,可在我國對于公司的相關(guān)規(guī)定中,尋找人工智能的解釋空間。由于本文討論的主體是強人工智能,自主性是其顯著特征,為保證其獨立自主性,公司應(yīng)當僅保留人工智能主體,其余主體應(yīng)退出,但是我國《公司法》規(guī)定公司至少有一名股東,《合伙企業(yè)法》規(guī)定全部合伙人退出,合伙企業(yè)解散,因此就目前現(xiàn)行規(guī)定而言,仍無法承載人工智能的法律主體地位。
對此,美國的LLC 為避免上述弊端,為人工智能的法律主體地位提供了新的路徑,可為我國提供相應(yīng)的借鑒。具言之,美國《統(tǒng)一有限責任公司法》規(guī)定即使全體成員退出,在90 天內(nèi)公司仍可以繼續(xù)存在。更有甚者,有些州將該期限進一步延長,如根據(jù)紐約州《有限責任公司法》第701 條(a)(4)款該存續(xù)期限被延長至180 天,因此在該期限延長的情形下,無成員LLC便可承載人工智能的法律人格。就此,貝恩教授提出根據(jù)LLC的運營合同規(guī)定,無成員的公司也可以存續(xù),甚至可以委托人工智能運營。即雖然LLC的內(nèi)部管理模式分為成員管理和經(jīng)理管理但二者均受運營合同的約束,《統(tǒng)一有限責任公司法》規(guī)定LLC可僅僅依據(jù)經(jīng)營協(xié)定進行治理,這意味著在設(shè)立之初,若將LLC的經(jīng)營準則轉(zhuǎn)換為相應(yīng)的算法、程式記載于運營合同之中,在無成員的情形下,LLC仍可由人工智能進行運轉(zhuǎn),在此情形下LLC即成為人工智能法律人格的承載體。除美國之外,日本和韓國規(guī)定成員離席,LLC不能繼續(xù)存續(xù),但是對于諸如開發(fā)源之類的公司,允許其以人工智能為唯一成員的LLC。
關(guān)于是否可以將LLC作為人工智能的載體,學(xué)術(shù)界尚未達成一致意見:持有反對意見的學(xué)者認為,現(xiàn)行的法律制度并不承認“零成員公司”“有限責任公司”的立法意圖是保證人類對于該公司的最終控制,人工智能主導(dǎo)下的“零成員公司”超出了其立法意圖。支持的學(xué)者,如肖恩·拜仁在2014提出了公司制人工智能主體模式,認為人工智能的主體模式可以借助公司制度得以實現(xiàn),并進一步提出了該方案得以實施的四個步驟。同時,對上述反對學(xué)者的意見進行反駁,其認為解釋公司法不能囿于字面意思,現(xiàn)行法律已承認諸如清算階段等的特殊情形,因此應(yīng)當承認“零成員”公司的存續(xù)性。
目前正值《公司法》改革之際,對于是否引進LLC的爭議頗大,對于我國是否應(yīng)當構(gòu)建公司制人工智能主體模式,筆者認為公司制人工智能主體模式是在傳統(tǒng)法律制度不足以應(yīng)對的時代變遷情形下作出的擴張解釋,其以合同架構(gòu)為依托,通過技術(shù)、公司制度從而實現(xiàn)對人工智能法律人格的構(gòu)建。就目前而言,對于是否進行企業(yè)組織形式的變更尚未達成一致觀點,若急于將LLC引進并加以全面推廣,難免出現(xiàn)水土不服的狀況,因而可選擇性構(gòu)建LLC,待相關(guān)基礎(chǔ)成熟后再考慮是否全面引進LLC。具言之,應(yīng)區(qū)分有無成員,LLC引進的首要目的在于構(gòu)建人工智能的主體地位的載體而非構(gòu)建新型的組織模式。若公司存有成員,人工智能仍需受制于成員的控制,難以獨立自主發(fā)揮作用,該種情形下,只需按照正常的商事規(guī)則對其進行調(diào)整即可。在無成員的情形下,LLC制度的構(gòu)建才能實現(xiàn)其意欲實現(xiàn)的目的,即為人工智能的法律人格提供載體。同時,無成員又可分為初始無成員以及有成員轉(zhuǎn)換為無成員兩種模式。對于前者而言,因自成立便無成員,因此可直接適用LLC的相關(guān)準則,但對于后者而言,應(yīng)避免成員將此作為逃避債務(wù)的手段,因此應(yīng)當規(guī)定轉(zhuǎn)換后適用LLC的相關(guān)規(guī)則,但是對于轉(zhuǎn)換前發(fā)生的債務(wù)等,轉(zhuǎn)換前的成員仍應(yīng)承擔相應(yīng)的責任。
誠如上文所述,人工智能導(dǎo)致的責任分配難題是賦予人工智能以法律主體地位的必要考量因素,公司制人工智能模式下,人工智能是否可以獨立擔責,對此有學(xué)者認為人工智能體既無能力也無財產(chǎn)予以賠償,因而不具有履責能力,若由人工智能體進行賠償,則可能導(dǎo)致各主體間出現(xiàn)“責任甩鍋”的逃避行為。
筆者認為,人工智能具有履責能力,并能通過多種方式履行其職責,具言之,人工智能可依托儲備金、保險金、人格否認等制度構(gòu)建完整的履責體系。首先,人工智能可購買責任保險,憑借其產(chǎn)生的利潤支付保費,從而實現(xiàn)風險的分擔;其次,選擇以何種主體承擔責任是按照效率和有效性之間進行判斷的,并非在任何情形下均只由人工智能承擔責任,正如《日本公司法》第597條、《韓國民法》第681條所言,母公司以支持人工智能運行的方式獲得報酬與利益分配,承擔有限責任,但若其選擇的業(yè)務(wù)執(zhí)行成員在履責時有惡意或者重大過失的情形,母公司仍應(yīng)對其承擔責任,就此而言,當人工智能背后的主體在一般情形下承擔有限責任,但是當其實施不當行為后即應(yīng)參照適用人格否認理論,要求其承擔無限責任。
綜上,在實踐中,人工智能對人類進行語言或者人身攻擊的案件頻發(fā),諸如1989年機器人在圍棋比賽敗北后電死冠軍,又諸如2016年Tay在公眾場合發(fā)表了性別歧視、種族歧視等言論,此時責任分配成為爭論的焦點,但由于人工智能尤其是算法黑箱的存在導(dǎo)致其具有極強的不可預(yù)見性和不可解釋性,并進一步導(dǎo)致了“責任縫隙”,即不承認人工智能作為主體的情況下,無法依據(jù)傳統(tǒng)的普通歸責規(guī)則進行責任劃分與問責確定。因此,賦予人工智能以法律人格具有了極強的必要性。其次,一方面相較于民法而言,商法具有更強的時代適應(yīng)性,因而賦予其商主體資格更為適宜;另一方面因其符合商主體構(gòu)成要件,賦予其商主體資格具有合理性。再次,就人工智能的商主體資格如何實現(xiàn)的問題,新主體說或擬制說均具有其弊病,通過選擇性引進LLC構(gòu)建公司制人工智能主體模式或是最佳選擇,最后賦予人工智能以法律人格之后,其可通過責任保險、法人人格否認等制度獨立承擔相應(yīng)的責任,同時采用雙罰制,以期保證其處罰效果。