• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      從主體資格到權責配置:人工智能法學研究視角的轉換

      2020-02-10 20:43:30余德厚
      江西社會科學 2020年6期
      關鍵詞:人格機器人人工智能

      ■余德厚

      人工智能的興起對既有法律制度及法律體系帶來了多重沖擊與挑戰(zhàn),人工智能法律人格也相應成為法學研究的熱點。人工智能雖類人,卻不具備人之社會屬性,賦予人工智能法律人格與人文主義精神不符,亦缺乏實際操作意義。研究人工智能的法律應對措施,應避免投入過多精力于法律人格授予等空洞化議題,而應當在保持謙抑克制立場的同時,著力分析人工智能的權責配置,明確人工智能作為“物”的情況下,權利與責任的歸屬問題。此外,為了降低人工智能責任對其生產制造者的不利影響,還應從宏觀戰(zhàn)略視角出發(fā),研究人工智能產業(yè)、行業(yè)的法律激勵機制。

      一、問題的提出

      近年來,人工智能已然成為理論界與實務界熱門的話題。2017年7月,國務院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,針對人工智能提出了三步走的戰(zhàn)略目標。在法律政策層面,其第一步即到2020年要實現“部分領域的人工智能倫理規(guī)范和政策法規(guī)初步建立”的制度供給目標。人工智能作為一種新的技術范式,雖然目前處于“猶抱琵琶半遮面”的朦朧狀態(tài),但它給法學、法治帶來的挑戰(zhàn)與影響幾乎是全方位的。因此,法學理論界圍繞人工智能對既有法學理論、法律制度體系的挑戰(zhàn)[1](P129-133),從人工智能的法律人格、法律責任、風險防控以及司法應對等視角進行了積極的學術回應,產出了系列高質量研究成果。①

      在上述研究視角中,人工智能的法律人格具有定性之使命,其界定能夠厘清人工智能在整個法律框架內的坐標定位,以錨定人工智能政策法律體系研究與建設的出發(fā)點和解釋論基礎,因此有學者主張,人工智能研究“首當其沖的是其法律人格問題”[2](P10)。相應地,在當前法學界有關人工智能的研究成果中,對人工智能法律人格的探討相對而言較為集中。[3](P53)然而,在當前發(fā)展階段,賦予人工智能法律人格在倫理與規(guī)范層面均存在多重解釋性障礙。此外,《新一代人工智能發(fā)展規(guī)劃》亦要求“開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息、安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”,其中,人工智能的法律責任問題處于首位,而未如現有理論研究那樣將法律人格作為首要問題。因此,人工智能的法學研究首先要著力解決的便是人工智能的技術與法律風險防控機制以及人工智能產業(yè)、行業(yè)發(fā)展的制度激勵機制這樣的實踐性命題,而非將法學研究視角過多地投擲在討論與辯駁人工智能是否應當獲得法律人格以及具備怎樣的人格屬性這樣的話題上。甚至從某種程度而言,人工智能的法律人格屬于一種“偽命題”。筆者撰寫本文便旨在通過對人工智能法律人格理據以及其法律人格的實質影響的批判,提出轉換人工智能研究視角的建議,即將人工智能的法學研究視角從法律人格轉向權責配置。

      二、人工智能人格化的學說及其理據

      針對人工智能的法律人格問題,當前法學理論界的主流觀點認為,民法中的人格自古羅馬法延續(xù)至今始終呈現出的是一種擴張式的變遷衍化態(tài)勢,突破人類中心主義思維局限,承認人工智能的法律人格,乃是民法人格理論發(fā)展的勢之所趨。[4](P101)具體而言,有關人工智能法律人格之學說雖分門別類,但可大致歸納為下述幾種,并各有其理據。

      (一)有限人格說及其理據

      該說認為,人工智能已經具有一定程度的自主意識和行為能力,有資格作為法律主體享有權利并承擔義務與責任,然而囿于技術條件限制,當前的人工智能之獨立責任能力有限,故它的法律人格是有限人格,而非健全型人格。[5](P50)此外,理論界的“擬制(次等)法律人格說”[6](P94)“位格加等說”[7](P57)以及“人格類比說”[2](P12)與有限人格說殊途同歸,并無實質性差別。

      該說之理據在于:第一,法律人格其第一要義在于獨立的意思形成能力與表示能力。古羅馬時期,“奴隸不具有人格屬性,為權利之標的”[8](P32);亞里士多德亦認為婦女與奴隸乃沒有靈魂之物,雖可參與民事活動,卻不能稱之為法律中的人(person)[8](P32);該種觀念的認知出發(fā)點在于法律中的人應當具有獨立的意志和認知能力,奴隸和婦女是附屬性的,雖具有獨立思考的能力,卻不能自主決定自己的意志與行為,故不能成為法律上的人。在今天,新技術的不斷更新迭代已經使人工智能在意思形成與表示能力上越來越逼近甚至超越人類。如微軟公司開發(fā)的機器人“小冰”已經可以自主進行詩歌創(chuàng)造、醫(yī)療機器人“達芬奇”甚至可以在無人干預的情況下縫合葡萄皮等??梢灶A見,隨著技術的不斷進步,人工智能將越來越獨立于它的發(fā)明創(chuàng)造者,而像人類一樣具有獨立思考和行動的能力,因此應賦予其法律人格。第二,法律人格是人工智能享有權利和承擔責任的載體。比如在人工智能創(chuàng)作領域,具有自主學習能力的機器人創(chuàng)作的小說、詩歌已經在智識上超出了發(fā)明者的思維控制范圍,在理論上也就不能將這些小說、詩歌的著作權歸屬于機器人的發(fā)明者,此時若不承認人工智能的法律人格,則機器人的著作權就可能成為無主之權。法律責任方面亦是如此,如無人駕駛汽車致人損害時,與其在生產商、經銷商以及乘客之間找尋責任人,不如直接將無人駕駛汽車作為責任主體②,追責程序或許更為便捷可行。第三,鑒于目前人工智能法律制度體系尚嚴重闕如,暫不宜直接賦予其完全獨立的法律人格,暫時可借助侵權責任法、產品質量法等法律制度填補人工智能的法律制度漏洞。但在特定情境下,若不存在解釋性障礙,應賦予人工智能以有限的法律人格。

      (二)人格擬制說及其理據

      持該觀點的學者認為,囿于當前人工智能尚屬于“弱人工智能階段”,對于人工智能的法律人格尚不宜以成文法的形式予以明確規(guī)定,而適宜“以實定法解釋論為基礎,在堅持人工智能為客體的原則下,運用擬制的法律技術,將特定情形下的人工智能認定為法律主體,從而為應對、引領未來人工智能的發(fā)展,奠定法律主體基礎”[9](P78)。

      該說的主要理據如下:第一,人工智能與現代民法中的法人多有相通之處,從法人人格的發(fā)展歷程來看,其經歷了“否認說”“擬制說”以及“實在說”三個階段,這本身也說明主體人格的發(fā)展是一個漸進式的歷史命題。就當前人工智能的技術水平而言,其大致處于“否認說”與“實在說”之間,因此可借用法人人格的“擬制說”適用于人工智能法律人格之認定。第二,人格擬制說確保了人工智能法律制度體系的價值開放性。該說認為,如果對人工智能持“工具論”的立場,完全將其作為客體來看待,則法律的引領與回應價值得不到彰顯與體現。例如,對于機器人致人損害的侵權責任承擔問題,若采取“工具論”立場,則法官須以產品質量法規(guī)則或者類推適用動物致人損害侵權責任規(guī)則予以裁判。如果采人格擬制說之立場,則法官可類推適用雇主替代責任原理,雖然直觀效果上看并無太大差別,但后一裁判路徑無疑為人工智能法律人格“入法”進行了解釋論鋪墊,彰顯了既有制度體系的開放性價值。第三,從域外立法動態(tài)看,“歐盟和愛沙尼亞、韓國等正在討論賦予智能機器人擬制法律人格的動議,無論結果如何,‘擬制論’已經提上了人類的議事日程”[2](P17)。域外有關人工智能的立法動態(tài),值得我們關注。

      (三)特別人格說及其理據

      特別人格說,并非是一種具體的學說觀點,而是筆者對幾個觀點所做的總結與提煉。其中包含:第一,電子人格說。如2016年歐盟委員會法律事務委員會提起了一份動議,在該動議中,法律委員會主張將人工智能的身份界定為“電子人”。電子人格說的主要理據在于,人工智能學習能力、自主能力隨著科技進步將會不斷超出發(fā)明人的可預見性范圍,以至于人工智能的侵權行為對其發(fā)明者而言也是難以預見、難以避免和克服的。在此種發(fā)展演變趨勢下,傳統(tǒng)的產品質量法、侵權責任法均難以奏效,故必須承認人工智能的電子人格,以對其進行統(tǒng)一管控。[10](PXIV)第二,電子代理人。如美國的《統(tǒng)一電子交易法》、法國的《統(tǒng)一商法典》將具備獨立的運算、存儲、交易以及發(fā)起其他行為的電子或者自動化工具、手段統(tǒng)稱為“電子代理人”。需要特別說明的是,人工智能的電子代理人一說,其理論初衷并非在于賦予人工智能設備以法律人格,而是肇始于認定侵權責任的解釋論需求,即代理人所實施的行為可歸諸于其本人,故由電子設備所引發(fā)的侵權責任可歸之于電子設備的所有者、運營者或者使用者。

      三、人工智能法律人格之質疑

      學界對人工智能法律人格提出了多種學說,極大豐富了社會公眾對人工智能屬性的認知。但其忽視了一個至關重要的問題,即“法律人格”的界定并不只是法律問題,還是倫理學、社會學問題,法律的外衣并不能理所當然地對各種事物冠以“人格權”,即使法律擬制能夠設定缺乏倫理依據的“人格權”,也還需要對是否有必要賦予人工智能人格權利進行充分的論證。

      (一)人工智能并不具備法律人格應有的社會屬性

      在民法原理中,人(自然人)是“能夠說話與思維,并以此區(qū)別于動物的生命有機體”[11](P368)。受康德倫理學人格主義的影響,在傳統(tǒng)民法理論中,長期只承認自然人的法律人格,不承認法人團體之人格。直到《德國民法典》制定時,受日耳曼民族團體主義精神基因的影響,其首次承認了法人的法律人格。[12](P140-142)像自然人須有意思形成能力與表達能力一樣,法人也須借助股東會、董事會形成和表達自己獨立的意思。行文至此,似乎可以得出以下結論:有獨立的意思形成與表達能力,甚或再加一條有獨立的責任能力,即可擁有法律人格。如此一來,高智商、具有獨立思維和行動能力的機器人似乎當然地應當獲得法律人格。

      然而,這一思路忽略了最根本的一點:人的本質是一切社會關系的總和,法律是一種社會規(guī)范,因此,法律人格的第一屬性是其社會屬性。那么,我們應當怎樣理解法律人格的社會屬性呢?筆者認為,法律人格的社會屬性體現為具有法律人格的主體必須而且應當對社會行為規(guī)范(包含法律規(guī)范與道德規(guī)范)具有一般的把握與認知能力。這一能力的關鍵之處不在于法律主體可以做什么,而在于知悉不能夠做什么。比如自然人,無論從事何種職業(yè)、具備何種技能和特長,都必須對整套社會規(guī)范有一般性的認知能力,知道哪些行為屬于違法、違反道德之行為,不可為之。再比如,公司在通常情況下具有法人主體資格,但是當公司從事違法活動、濫用公司法人格時,其法人格即應當被刺破。

      反觀人工智能,盡管隨著技術的進步,機器人等人工智能體可能在某些方面已經具備遠遠超過人類甚至領域內專家的超能力,但是它的認知與能力往往僅僅局限于某一領域甚至某一個小的環(huán)節(jié)上,并不能夠像人一樣從事社會交往活動、建立社會關系,并在社會關系中自如地把控自己的行為。[13](P12)處在社會關系中的法律主體,無論其從事何種職業(yè),也不管其是自然人還是作為組織體的法人,他或者它的社會角色都是復雜而多重的。以自然人為例,除了職業(yè)性社會關系外,他還需要面對家庭關系、夫妻關系、男女關系以及社會公共生活關系等復雜的社會關系,這些復雜的社會關系均遠非人工智能所能理解與掌握的。如有學者將人類的認知分為神經、心理、語言、思維、文化五個層級,并分別在五個層級上將人工智能與人類進行逐一對比后發(fā)現,人工智能僅能在較低層次的認知維度上模仿甚至超越人類,而在思維和文化等高層級的認知層面,人工智能的認知能力遠遠遜于人類。[14](P145-153)其中的思維與文化認知,其主要內容多是社會性的,也正是人工智能難以具備或者永遠都無法具備的認知能力。

      此外,法律人格的社會屬性中非常重要的一項內容是道德感和羞恥心,法律和道德之所以能夠對人類奏效,其中一大心因性因素就在于人類擁有道德感和羞恥心,人工智能是“沒有道德能力的非人類,故不應當享有法律人格”[4](P102)。正如有學者所言:“AI只是執(zhí)行人類指令而并不考慮社會意義、社會責任和社會后果,它沒有人類的生命和身體,脫離了主體的社會環(huán)境和文化背景,也就不能形成主體真正的實踐活動和社會屬性?!保?5](P54)

      (二)賦予人工智能法律人格與人文主義精神不符

      在支持賦予人工智能法律人格的學者中,有一種觀點認為,反對論者的觀點落入了“人類中心主義”或者“人類沙文主義”的思維泥沼,人工智能不是一種工具性的存在,它有自己的情感和感知能力,它的權利應當被人類尊重,應該享有法律主體資格。這一觀點看似飽含深情,實則為無稽之談。

      第一,人類借助科技手段創(chuàng)造出智識高超的人工智能,其目的是服務于人類自身而非給自己制造一個同類。這一點認知應當是人工智能技術發(fā)展的目的與底線。脫離這一認知,發(fā)展人工智能不僅不符合人文主義精神,而且最重要的是,會將人工智能引向十分危險的境地。如有學者所說的:“工具化的定位意味著一個完全‘獨立’的機器人,不僅可能會引發(fā)人類的不安,甚至會被人類社會所‘厭惡’。人類的確愿意用計算機的算法來修正自己的決策過程,但絕不會放棄控制權?!保?6](P62)

      第二,部分觀點認為,在環(huán)境資源保護領域,已經突破了“人類中心主義”的觀念局限,這對于人工智能的法律主體性認知具有借鑒意義。筆者認為,環(huán)境資源與人工智能在主體性這一方面并不具有太多的可相互借鑒之處。一方面,環(huán)境與資源問題涉及整個地球生態(tài)系統(tǒng)的平衡與穩(wěn)定,不僅涉及當代人之福祉,還關涉整個人類的可持續(xù)發(fā)展以及其他生物體的繁衍生息。進而言之,人類對自然、資源以及整個地球的生態(tài)系統(tǒng)應當懷有敬畏之心,這一敬畏之心本質上排斥“人類中心主義”的思維定式。人工智能則不然,人工智能是人類創(chuàng)造之物,人類對它的功能定位至少在目前仍舊是工具性的,人工智能與人類關系的最佳狀態(tài)是人類可以控制它為人類所用,如果不能控制它,最好的方式是消滅它,而不能像敬畏自然生態(tài)一樣敬畏它。另一方面,即使在環(huán)境資源領域,也并非在真正意義上摒棄“人類中心主義”,而是在意識到人類自身的局限性之后,致力于謀求與自然和諧相處,本質上還是為了人類的長遠和可持續(xù)發(fā)展。換言之,人工智能并不能夠從環(huán)境資源領域獲得對其法律主體資格的理論或者倫理支撐。

      第三,如果真的突破“人類中心主義”,賦予人工智能以法律人格,那是否意味著植物、動物等生命體也應當被人類當作主體來對待?如果是,將會引發(fā)一系列的倫理解釋困境。有學者以“美國軍事領域普遍使用的拆彈機器人與士兵建立了深厚的感情,士兵們甚至愿意犧牲自己的生命以保護機器人的安全”[17](P39)為例來解釋人工智能與人類的關系具有親情特點,因此得出人工智能應當具有主體資格的見解。筆者認為,該種邏輯實在令人啼笑皆非。一方面,這個例子說明的是人對于物的感情而非物對于人的感情,因為人對物有感情,所以物也具有人的屬性,這個推理存在嚴重的邏輯硬傷;另一方面,人對于物的情感古已有之,且并不局限于機器人,人對陪伴自己的寵物、使用多年的物品均會產生感情,難道均要賦予其主體資格?

      (三)賦予人工智能法律人格缺乏可操作性

      法律是一門實用的藝術,我們在創(chuàng)設任何法律概念的時候,要考慮的不僅僅是一系列飽含深情的價值命題,更要考慮它的操作性意義,人工智能法律資格問題亦復如此。[18](P177)賦予人工智能以法律人格,我們發(fā)現在多個方面缺乏操作性意義。若承認人工智能的法律人格,接下來面臨的一個問題是,人工智能的法律人格標準如何設計,即人工智能達到怎樣的智識標準才能獲得主體資格?這是一個操作難度極大甚至可以說根本不具備可操作性的任務。

      首先,人工智能有強弱之分,在人工智能研究的初期,便已經形成了AI(artificial intelligence)和IA(intelligent assistant)之分[19](P224),如今人工智能更是在算法、物化形態(tài)、適用領域等方面形成極大的差異,其可以是機器人的物質形態(tài),也可以僅僅是一個智能軟件系統(tǒng)等。③物質形態(tài)不同、適用領域不同,要建立一個統(tǒng)一的人格標準,其難度可以想象。目前部分人工智能具備深度學習能力,能通過其裝備的神經網絡之間的不同鏈接,形成類似于人腦神經細胞之間的溝通,因此可以在既有算法與程序的基礎上,自主形成新的思維,作出超出人類預定和控制范圍內的行為。如已被授予公民資格的索菲亞、無人駕駛汽車等,皆具有深度學習能力。但目前仍有絕大多數人工智能不具有深度學習能力,如掃地機器人、大數據等。對于兩類差異較大的人工智能授予其法律人格不僅存在標準差異,還存在法律資源利用效率問題。授予具備深度學習能力的人工智能以法律人格,其目的在于解決其責任主體問題,而無深度學習能力的人工智能并不存在責任主體認定的困難,作為客體便足以解決其責任問題,因此賦予其法律人格無疑會造成法律資源浪費。

      其次,人工智能享有法律人格并不能夠獨立承擔民事責任。在人工智能法律人格的理據中,有學者主張擬制說,即認為人工智能如同企業(yè)一樣,可以被擬制為“人”。然而,企業(yè)被擬制為人是以企業(yè)具有獨立的財產、能夠獨立承擔民事責任為前提,而人工智能即使享有主體資格也不具有獨立承擔責任的財產和能力,其責任無疑仍舊是其制造者或者所有者承擔。雖然有學者提出建立人工智能基金或者類似于公司注冊資本的保證金,但人工智能不像企業(yè),具有創(chuàng)造財富的能力,人工智能的保證金或基金并不能為其“股東”提供收益,也不具有保值增值的能力。設想公司不能為股東創(chuàng)造財富,卻具有極大的經營風險,使股東繳納的注冊資本隨時處于支付賠償金的威脅之下,則股東必然不會出資設立公司。所以通過設立基金或者注冊資本的形式,為人工智能提供獨立財產并不具有實際意義。

      四、人工智能法學研究應保持謙抑性

      近年來,法學研究普遍呈現出較強的熱點追逐跟風效應,但凡出現社會熱點問題,頃刻即會產出大量學術論文圍獵之,人工智能問題亦是如此。[20](P119)從當前的研究趨勢來看,人工智能法律問題已然成為法學研究領域的第一大主流熱點題域。以熱點為導向的學術研究,其一大積弊即是為了凸顯熱點問題的學術價值,研究者會傾向性地對新事物進行夸大、粉飾,這一積弊在人工智能法律問題研究領域表現得亦非常突出。其實,任何一項技術的進步、更新迭代都是一個漸進式過程,人工智能也好,智能機器人也罷,嚴格意義上說均非新鮮事物。在當前的法學研究中,部分研究者選擇性地遺漏人工智能發(fā)展的漸進式特點,片面地渲染、拔高人工智能對于法律所帶來的挑戰(zhàn),似乎人工智能已然足以對現有法律體系構成革命性影響與沖擊。如有學者提出:“人工智能的迅猛發(fā)展不僅僅是一個科學技術領域的新現象,它正在迅速改變人類社會的經濟形態(tài)、社會交往模式和政治—法律結構。起源于農業(yè)社會(無論是古羅馬還是亨利二世時代的英國)的‘現代’法律體系,能否成功應對人工智能所帶來的新的風險和不確定性,能否在人工智能時代繼續(xù)維持秩序與變革、守護與創(chuàng)新、價值與事實之間的動態(tài)平衡,是今天的法律人所必須面對的緊迫問題?!保?1](P78)筆者認為,法律以及法學研究對待人工智能尤其是人工智能法律人格應當保持適當的謙抑性。

      (一)賦予人工智能法律人格缺乏必要性和緊迫性

      根據目前我國人工智能技術的發(fā)展水平,我國當前人工智能需要解決的問題并非其人格問題,并且即使將來人工智能的技術水準突飛猛進也并非一定要借助人格賦予的方式才得以應對其風險與問題。法律人格的一個價值功用在于,它可以通過把法律責任或者獎勵導向特定主體的形式,確保法律的激勵與約束功能得以落到實處。但依據我國《侵權責任法》規(guī)定的幾種侵權責任承擔方式,如停止侵害、排除妨害、消除危險、恢復原狀、賠禮道歉等,人工智能皆無法完成。在刑事責任中,如某個自然人實施了盜竊行為,最終被處以相應的刑罰,通過刑罰的執(zhí)行可以對他以及其他潛在的群體起到警示與教育作用。人工智能則不然,以1978年發(fā)生在日本一所工廠內的機器人殺人事件為例,在機器人殺人后,如果我們視其擁有獨立的法律人格而對其施加刑罰手段,那接下來的悖論是法律去懲罰一個機器人的意義在哪里呢?法律的警示、教育乃至激勵功能在這個機器人身上怎樣得以彰顯呢?所以人工智能責任的承擔只能以賠償損失的形式進行,對此責任我國可以借鑒《法國民法典》的規(guī)定,對物件致害時,由物之所有人或對物進行占有、使用、控制的人承擔替代責任。此外,對于人工智能創(chuàng)作成果,或者對于一臺可以創(chuàng)作詩歌、小說的機器人而言,法律對機器人進行獎勵或者保護它的著作權有何實質性意義呢?④說到底,法律應當獎勵與保護的是機器人的發(fā)明者而非機器人本身。

      (二)法律人格并非確定人工智能責任的前提

      目前我國對人工智能的研究存在一定的誤區(qū),即認為人工智能責任的確定需以其主體身份、法律人格為前提,但在主體責任之外,產品責任、替代責任等在人工智能法律責任中皆存在適用的空間。因此,學術界不應對人工智能法律人格的作用過于夸大,對其研究必須保持法律的謙抑性。人工智能具有極強的技術驅動性與技術規(guī)律性,是“知識革命中最具代表性和影響力的時代技術”[1](P30)。這意味著它是立法者、裁判者以及理論研究者并不熟稔的“地方性知識”。對不熟知的事物保持謙抑克制是制度參與者所應秉持的正確立場,以免因為知識性局限而挫傷其創(chuàng)新性因子或者催生出技術泡沫與制度風險。對此,將人工智能視為物之范疇,權利之客體,更符合人工智能在當下發(fā)展的需求,也更能避免人工智能對人類倫理造成不可避免的損害。且根據我國當前民事責任的分類,對人工智能責任以產品責任追究,便足以解決人工智能問題,對人工智能通過自主學習能力獲得的技能,引發(fā)的責任問題,則可以通過保險等形式予以分擔。

      五、人工智能法學研究視角的轉換路徑

      通過筆者以上的分析可見,人工智能法律人格具有一定的“偽命題”色彩,或者說以目前對人工智能的理解,對其法律人格的研究時機尚不成熟。在當下賦予人工智能以法律人格,并無合理依據,且會無端增加操作難度。以法律人格授予的方式回應人工智能其實是法律資源的錯配和誤用。面對當前人工智能異軍突起,相關法律法規(guī)未能提供有效指導的背景,我國更需要解決的是在人工智能作為“客體”的法律現實背景下,權責的配置以及責任的承擔問題。

      (一)人工智能權責配置的前提——風險識別

      盡管在表面上看,人工智能對法律的挑戰(zhàn)與影響是多維度甚至是整體性的,但抽絲剝繭之后,其實均可歸之于一點,即它在一定程度上對法律制度體系內既有的風險與權責配置機制造成了沖擊。如無人駕駛汽車的出現,對既有的道路交通安全法、產品責任法、保險法以及刑法中的相關法律責任配置結構造成了較大的沖擊,最起碼酒駕、醉駕在無人駕駛時代極有可能不再被視為違法行為。又如機器人創(chuàng)作者的出現,給既有的著作權配置與激勵體系出了難題,對于機器人創(chuàng)造的作品,其著作權到底應歸屬于機器人還是機器人的發(fā)明者,既有著作權法對此始料未及。這類問題才是人工智能法律問題之核心,也是當前亟待法律予以回應的真問題。對此,筆者認為應重點從下述幾個方面著力:

      第一,深度剖析與識別人工智能的技術結構與技術風險。人工智能之核心在于它改變了傳統(tǒng)的技術結構,并可能因此而引發(fā)新類型的技術風險。如對于傳統(tǒng)汽車而言,它的技術結構是雙維結構,一是汽車本身的技術構造,二是駕駛者的駕駛技術和駕駛時的精神狀態(tài),同時,傳統(tǒng)汽車的技術風險也源于這兩大技術結構。無人駕駛技術出現后,導致汽車的技術結構由雙維結構變?yōu)閱尉S結構,相應的技術風險也隨之而發(fā)生變異。法律對人工智能予以回應的第一步也是最基礎性的工作就是要剖析與識別人工智能的新技術結構及其可能引發(fā)的新技術風險。

      第二,以人工智能的技術結構和技術風險為依托重置相關權責配置結構,以促進創(chuàng)新并化解風險。以智能機器人創(chuàng)作的作品為例,既有法律制度應深挖這種作品的技術結構、技術風險以及法權結構,采用成本收益分析方法,設計出社會成本最低、社會效益與經濟效益最高的權責分配結構。

      第三,構建以技術和法律為主導的風險監(jiān)控體系。人工智能風險與傳統(tǒng)風險所不同的是,它具有共生性特點,即“技術風險與制度風險共生”[1](P130),這一特點決定了該種風險的監(jiān)控難度更大、更為復雜。以金融領域為例,以智能投顧為代表的人工智能技術的應用、以區(qū)塊鏈為基礎的數字貨幣金融等[22](P18-22),給金融安全、信息安全均帶來不同程度的新挑戰(zhàn)[23](P222-225)。這意味著人工智能風險監(jiān)控體系,已經大大超出了單純的權責配置結構,還應當包含事前的準入監(jiān)管體系、事中的風險把控體系和事后的風險懲戒與化解機制。

      (二)人工智能權責配置的內容——回歸人工智能“物”之屬性

      目前人工智能權責劃分的研究較多,但一觸及人工智能自身享有權利、承擔責任,便難以繞開人工智能法律人格的探討。人工智能法律人格至今未有定論,以目前的人工智能進程及研究情況觀之,尚不具備確定其法律人格的條件。如此背景下,唯有跳出法律人格的限制,研究人工智能作為客體,其權利與責任的歸屬問題,才能更好地服務于人工智能的發(fā)展。

      人工智能的權利,除學界常探討的人格權外,關注度最高的便是人工智能作品的版權問題。人工智能從人類創(chuàng)作的輔助工具,已經逐漸發(fā)展成為依靠深度學習能力,獨立創(chuàng)作的主體,如人工智能“小冰”創(chuàng)作的詩篇已經足以超過普通讀者。但對人工智能創(chuàng)作的作品是否具有可版權性,以及應當由誰享有其版權,學術界皆存在爭議。其中爭議的內容雖為版權,但爭議的核心卻受到人格權的限制。在人工智能作品的版權認定中,諸多學者陷入了一種無限循環(huán)的困境,即依照目前著作權法的規(guī)定,版權的主體必然是人,而人工智能目前不屬于人,因此其作品不產生著作權。[24](P150)但筆者認為,對人工智能著作權的認定應當擺脫人工智能人格權利的限制,不考慮人工智能是否屬于“人”,而僅通過其作品的產生過程、創(chuàng)造的思維活動等來判斷人工智能創(chuàng)作物是否具有可版權性,并最終界定其歸屬。

      人工智能的責任相對權利則更為復雜,其不僅涉及民事責任,還涉及刑事責任,在民事責任中,又存在侵權責任、產品責任等劃分。在民事責任領域,無人駕駛汽車責任的研究具有典型意義。對此美國部分州已經明確無人駕駛汽車責任主體,如美國佛羅里達州確立了無人駕駛汽車生產者、改造者之間分擔責任,歐盟在人工智能的立法建議中提出“有必要確立智能機器人的特殊地位,至少應當確保技術系統(tǒng)最復雜的智能機器人擁有‘電子人’的獨立地位”[25](P108)。

      從目前對人工智能責任研究的進程發(fā)現,越來越多的學者主張人工智能承擔主體責任,因此才會如德國一樣,迫切要解決人工智能的法律人格問題,以賦予其主體地位。但將人工智能視為客體,其侵權行為給受害人造成的損失是否就無法彌補?顯然不是。具有深度學習能力的人工智能產品與我們日常生活中飼養(yǎng)的“寵物”有一定的相似性,其行為都會受到所有者(人工智能還會受到制造者的影響)的控制,但又都會作出一定的自發(fā)行為。法律并未因此賦予寵物主體資格,而是將其視為物,對其造成的侵權行為,也由其飼養(yǎng)人承擔責任。所以人工智能的責任并非只有賦予其主體資格才能實現,將其作為物,并適用產品責任、類似于法國的物之替代責任等,皆可實現人工智能損害賠償。對此,筆者建議我國采取佛羅里達州的做法,確立責任分擔原則,由人工智能制造者、所有者共同分擔其責任,為避免事故發(fā)生后經濟賠償糾紛,提高損害賠償的效率,可以通過人工智能保險的形式,由保險公司承擔損害賠償責任。

      (三)人工智能權責配置的補充——人工智能法律激勵機制探索

      人工智能風險與責任的研究,必然會增加人工智能生產者、經營者的成本,降低其積極性,因此為了保證人工智能的順利發(fā)展,我國學術界在人工智能權責分配之外,還應格外重視對人工智能激勵機制的探索,以將其作為人工智能權責配置的補充。在全球競爭愈演愈烈的互聯網時代,人工智能已經成為全球競逐的新領域,能否在人工智能領域先人一步,將決定一國在下一輪全球競爭中能否占據優(yōu)勢地位。因此,法律應對人工智能不能局限于制度調整的微觀視角,還應站在國家戰(zhàn)略高度,從頂層設計層面盡快構建人工智能的法律激勵機制。

      具體而言,可從下述三個維度著力:第一,加強對人工智能的財稅政策支持。如對于人工智能產業(yè)采取低稅、免稅的稅負政策,減輕人工智能企業(yè)的稅負壓力;在政府采購方面,合理限度內賦予人工智能產品優(yōu)先權。第二,強化人工智能的知識產權保護。我國既有法律體系在知識產權保護上處于相對薄弱的發(fā)展水平,雖然降低了企業(yè)的模仿學習成本,但也成為知識創(chuàng)新、科技創(chuàng)新之掣肘。人工智能本質上是知識的創(chuàng)新與再造,知識產權法也是離人工智能最近的法律制度體系。從法律激勵視角看,既有的知識產權法律制度體系,應從人工智能知識產權確權、人工智能知識產權侵權糾紛應對、人工智能反壟斷豁免以及以新型商業(yè)模式為表征的人工智能商業(yè)秘密保護等方面著力,構建人工智能的知識產權保護與激勵機制。第三,對以人工智能為代表的創(chuàng)新型公司在融資與治理問題上給予適當的制度傾斜。如對于人工智能類企業(yè)上市融資開設綠色通道;允許人工智能類公司采取更為寬容的現代公司治理模式(如允許其采用雙層股權結構)等。不過需要強調的是,人工智能法律激勵機制之構建,須持理性可持續(xù)之立場,以避免激勵過度引發(fā)虛假創(chuàng)新、創(chuàng)新泡沫等異化情形。

      六、結論

      人工智能并非橫空出世的新事物,盡管它對既有法律制度體系會造成一定程度上的沖擊,但遠未達到顛覆性沖擊的地步。法律應當重視人工智能可能帶來的種種新的變化和風險,但不能過分地拔高人工智能的法律地位。對于人工智能的法律地位,究竟賦予其法律人格,還是將其視為客體的物,需要法律與技術的充分準備。尤其在目前,法律人格是整個法律制度體系的核心性“元要素”,人格授予是極富神圣性和儀式感的終極操作,不可輕易為之。對待人工智能,我們應當做的是在厘清其風險與功能價值的基礎之上,盡可能在既有的理論與制度資源內尋求回應之道,而非動輒訴諸法律人格這樣的核心性命題。人工智能雖相對復雜,但尚未足以撼動民事主體的分類,我國法律人格理論發(fā)展至今,除自然人、法人外,尚未形成第三類主體,因此人工智能是否足以成為第三類法律人格,尚需人工智能的發(fā)展予以驗證。只要通過其他法律途徑能夠解決人工智能責任問題時,便不需考慮將其作為主體追究其法律責任。

      注釋:

      ①其中《東方法學》雜志專設“智慧法治”欄目,刊發(fā)人工智能領域作品。

      ②該說認為,可以通過給每輛車設定一定比例的類似于公司注冊資本的保證金,用以承擔侵權損害賠償責任。

      ③如數字貨幣領域的區(qū)塊鏈技術,就是一套技術軟件系統(tǒng),而非像機器人那樣的有形之物。

      ④相反觀點參見劉強、徐芃《人工智能主體資格及創(chuàng)作物權利歸屬研究——以法律擬制為視角》(《武陵學刊》2018年第2期)。

      猜你喜歡
      人格機器人人工智能
      共產黨人的人格力量
      遠去的平凡背影,光輝的偉大人格
      學生天地(2020年15期)2020-08-25 09:21:38
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      IT經理世界(2018年20期)2018-10-24 02:38:24
      數讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      論君子人格的養(yǎng)成
      學習月刊(2016年20期)2016-07-11 02:00:14
      機器人來幫你
      認識機器人
      機器人來啦
      富阳市| 西畴县| 临泉县| 和政县| 繁昌县| 色达县| 保德县| 三明市| 泸定县| 昭平县| 称多县| 北京市| 特克斯县| 梁平县| 百色市| 石台县| 东乡| 沂南县| 缙云县| 江永县| 大城县| 扶余县| 大连市| 贺兰县| 沅江市| 砀山县| 隆德县| 司法| 南溪县| 安平县| 遂昌县| 鄂托克前旗| 武宁县| 江口县| 安新县| 南漳县| 施秉县| 得荣县| 通城县| 清涧县| 乌鲁木齐市|