董 芮
本文中的人工智能是實(shí)體層面上的人工智能,是指能不依賴于人的思維與決策而替代協(xié)助人執(zhí)行相應(yīng)使命的機(jī)器。我所討論的人工智能都是實(shí)體,如果提及技術(shù)或者系統(tǒng)將直接表達(dá)成人工智能技術(shù)或者人工智能系統(tǒng)。
人工智能凝聚著人類智慧成果,并通過(guò)編程實(shí)現(xiàn)。人工智能的人工是指事先經(jīng)過(guò)人的編程與設(shè)計(jì)而使得人工智能具有人期望實(shí)現(xiàn)的能替代人處理問(wèn)題的功能,即人工智能不存在先天性。
人工智能擁有人類大腦中的部分功能。人工智能的智能內(nèi)涵,在于它具有部分人類大腦智慧功能。當(dāng)前,人工智能具備人腦中的識(shí)別、記憶、分析、決策、總結(jié)等基本功能。
人工智能最重要、最明顯的特點(diǎn)就是代替性、輔助性,即協(xié)助或替代人解決并處理一部分問(wèn)題。由于人工智能是通過(guò)人類的編程設(shè)計(jì)進(jìn)而產(chǎn)生某部分人腦功能,因此人工智能不可能完全取代人類。就像其他科學(xué)技術(shù),都是由人類為讓人類生活更方便、更快捷而發(fā)明和創(chuàng)造的。
從目前來(lái)看,人工智能的總體發(fā)展程度處于弱人工智能的這個(gè)階段,按照人工智能總體智能水平的發(fā)展程度可以將其分為三個(gè)階段。
第一階段、弱人工智能:實(shí)質(zhì)上是一種服務(wù)于人的手段,它不具備獨(dú)立思考能力,它必須在人的協(xié)助下,由人進(jìn)行編程,設(shè)計(jì)和創(chuàng)作,才能完成相關(guān)工作。
第二階段、強(qiáng)人工智能:指能從各方面與人相比,這時(shí)能實(shí)現(xiàn)人腦活動(dòng)標(biāo)準(zhǔn)化甚至更高水平。它在行為方面具有獨(dú)立自主性,能隨不同的環(huán)境與情境而做出不同改變,不需要人的干預(yù)而能獨(dú)立地知覺(jué)、思考與行為。但這并不等于徹底離開(kāi)了人,它仍然要根據(jù)設(shè)計(jì)者進(jìn)行設(shè)計(jì)和創(chuàng)作。
第三階段、超人工智能:這意味著人工智能在各方面超過(guò)了人類的智能水平。既能獨(dú)立自主又能與人徹底分離的機(jī)器人制造。
是否賦予人工智能法律主體資格是探討人工智能規(guī)范治理問(wèn)題的邏輯出發(fā)點(diǎn),從而成為學(xué)界探討的重點(diǎn)。當(dāng)前法學(xué)界主要有三種意見(jiàn),一是應(yīng)賦予法律主體資格的肯定說(shuō),二是不宜賦予法律主體資格的否定說(shuō),三是折中說(shuō)。
法律擬制說(shuō)認(rèn)為民事主體隨時(shí)代發(fā)展而呈現(xiàn)擴(kuò)張之勢(shì),因此人工智能可以對(duì)標(biāo)法人,通過(guò)法律擬制的方式取得主體資格,但是意志的形成與表達(dá)仍然是自然人的行為,如同法人仍然是法人代表的行為一樣。而股東與公司間是建立在投資關(guān)系上的,公司則完全聽(tīng)從股東的話,而且公司擁有獨(dú)立的資產(chǎn),能自行獨(dú)立地承擔(dān)起人的責(zé)任,在特殊情況下能戳破公司面紗地由其身后的自然人來(lái)承擔(dān)。但是人工智能并沒(méi)有自己?jiǎn)为?dú)的資產(chǎn),也不可能責(zé)任自負(fù),同時(shí)人工智能又具有較強(qiáng)的自主性,它沒(méi)有完全被自然人所控制,類似于企業(yè)刺破面紗的做法在此也是不成立。
電子人格說(shuō)的觀點(diǎn)首先在歐盟這一國(guó)際組織中被提出來(lái),同時(shí)也公開(kāi)認(rèn)可人工智能具有法律主體的地位。其目的在于給機(jī)器人創(chuàng)造出一個(gè)既區(qū)別于傳統(tǒng)法律主體又區(qū)別于既有法律客體——電子人這一新范疇。但人工智能伴隨著技術(shù)的發(fā)展而演進(jìn),其強(qiáng)大的感知與能力可以讓其輕松處理各類問(wèn)題,而一旦被發(fā)動(dòng)就不再受外界支配的獨(dú)立自主能力也會(huì)讓其行為表現(xiàn)得雖智能卻不可預(yù)知。這一性質(zhì)會(huì)極大地增強(qiáng)它失控的危險(xiǎn),而這一事件使人類負(fù)有相應(yīng)責(zé)任明顯失之于公平和正義,同時(shí)又妨礙了科學(xué)技術(shù)的發(fā)展。
代理說(shuō)把人工智能看作代理人,就相當(dāng)于認(rèn)可了人工智能的民事法律地位。代理分委托代理與法定代理兩種,人工智能若為委托代理,人工智能產(chǎn)生的后果應(yīng)由被代理人承擔(dān),除非被代理人在自己有過(guò)錯(cuò)時(shí)能夠要求自己承擔(dān)賠償責(zé)任。但如何證明自己主觀上存在過(guò)錯(cuò),并使自己承擔(dān)何種責(zé)任,還無(wú)法解釋。法定代理以親緣關(guān)系為基礎(chǔ),當(dāng)前人工智能和自然人不具有這種關(guān)系,因此二者之間無(wú)法實(shí)現(xiàn)法定代理。
有限人格說(shuō)是目前支持度最高的理論之一,該學(xué)說(shuō)主張?jiān)诜智迦斯ぶ悄芊N類的同時(shí)進(jìn)一步確定對(duì)應(yīng)的主體資格問(wèn)題。該學(xué)說(shuō)認(rèn)為應(yīng)該具體問(wèn)題具體分析,將強(qiáng)人工智能賦予主體資格(納入自然人范疇),弱人工智能仍處于客體位置。
否定說(shuō)認(rèn)為人工智能雖具有一定程度上的智慧,但并沒(méi)有人之感情與理智,由人支配的人工智能暫時(shí)還不足以獲得民事主體資格。
工具說(shuō)考慮到人工智能體沒(méi)有法律主體地位和法律人格,而是將其視為一種工具,以人類的利益為出發(fā)點(diǎn)來(lái)進(jìn)行開(kāi)發(fā)和使用。工具論者尤其強(qiáng)調(diào)人工智能的工具屬性——機(jī)械性并堅(jiān)決維護(hù)法律體系中人的中心地位??萍疾贿^(guò)是人改造社會(huì)的工具,人才是目的。在這一領(lǐng)域中,無(wú)論技術(shù)將達(dá)到何種程度,機(jī)器的工具屬性注定了其始終只能是人的工具,無(wú)法和人享有平等的法律地位。
電子奴隸說(shuō)認(rèn)為人工智能也沒(méi)有人所特有的感情和肉體特征,它只會(huì)像電子奴隸那樣為人服務(wù)。
目前的研究囿于既有法律、技術(shù)水平和大眾心理承受能力等方面的限制,肯定說(shuō)所倡導(dǎo)賦予人工智能以獨(dú)立身份的原因并不充分,特別是缺乏針對(duì)特定類型法律的分析,很難提出實(shí)質(zhì)性的有力依據(jù),故而否定說(shuō)占了上風(fēng)。
所謂人工智能中的意識(shí),只是人借助技術(shù)手段給予的結(jié)果,而沒(méi)有真正意義上的自覺(jué)與思考。所以強(qiáng)人工智能不能因高度類人化賦予法律主體資格來(lái)打破傳統(tǒng)民法中權(quán)利主體與權(quán)利客體區(qū)分的理論。
與之形成鮮明對(duì)比的是,弱、中度人工智能操作需要人來(lái)操控,不具備自主學(xué)習(xí)能力。學(xué)界對(duì)認(rèn)定其為物與權(quán)利客體之定性并無(wú)爭(zhēng)議。
因此,我們需要探討的問(wèn)題時(shí),強(qiáng)人工智能是否具有法律屬性,即是否應(yīng)該被視為人或事,是否具備法律人格。我認(rèn)為,強(qiáng)人工智能作為人造物和權(quán)利客體,不應(yīng)該獲得法律主體資格。
本人認(rèn)為強(qiáng)人工智能作為人造物和權(quán)利客體不應(yīng)獲得法律主體資格。具體原因如下:
在立法技術(shù)及立法效果層面上,人工智能與自然人相比沒(méi)有獨(dú)立思考的能力,對(duì)自己的行為欠缺后果意識(shí)。與人相比,其沒(méi)有獨(dú)立的財(cái)產(chǎn),無(wú)法及時(shí)有效地對(duì)利益受損方主體進(jìn)行清償。即便是通過(guò)一定方式對(duì)人工智能財(cái)產(chǎn)進(jìn)行分配來(lái)解決人工智能財(cái)產(chǎn)不能獨(dú)立承擔(dān)責(zé)任這一難題,但是說(shuō)到底,人工智能財(cái)產(chǎn)背后的終極投資者仍然是人,給予人工智能財(cái)產(chǎn)以法律主體的身份,并沒(méi)有實(shí)質(zhì)性的意義。
賦予人工智能產(chǎn)品以法律主體地位并無(wú)助于人工智能創(chuàng)作物的歸屬問(wèn)題。版權(quán)保護(hù)實(shí)際上并不在于作品是否具有某種用途或高度審美價(jià)值,而在于作者是否具備個(gè)性化元素。這一個(gè)性化元素是人格所蘊(yùn)含的一定性格的表現(xiàn),正是這一性格成了他取得版權(quán)的必要條件,才使他的創(chuàng)作成果能夠在著作權(quán)法上稱之為作品。
人工智能所產(chǎn)生的內(nèi)容都是經(jīng)過(guò)規(guī)則、算法或反復(fù)論證演繹的產(chǎn)物,沒(méi)有與反映人類獨(dú)創(chuàng)性及任何個(gè)性化特點(diǎn),不可以認(rèn)定為一部著作。說(shuō)到底,知識(shí)產(chǎn)權(quán)法所保護(hù)的只是人類智力成果,人工智能不可能與人類畫(huà)上等號(hào),從而也就不可能得到知識(shí)產(chǎn)權(quán)法所保護(hù)。版權(quán)制度從一開(kāi)始就對(duì)人們賦予了版權(quán)。機(jī)器擁有知識(shí)產(chǎn)權(quán)是無(wú)意義的,機(jī)器創(chuàng)新不需要依賴外界環(huán)境的刺激,當(dāng)然不需要保護(hù)。與把人工智能當(dāng)作合作作品獨(dú)立作者相比,把它所帶來(lái)的貢獻(xiàn)算為有能力償付侵權(quán)人真實(shí)損失,因此受害人并不能真正獲得補(bǔ)償和彌補(bǔ)。與此同時(shí),授予人工智能創(chuàng)作物主體資格自身并無(wú)實(shí)際意義。工作所產(chǎn)生的獲益以及工作可能導(dǎo)致的侵權(quán)糾紛,這些法律后果都不能為人工智能技術(shù)所承擔(dān),也不能為機(jī)器所承擔(dān),仍然只能為機(jī)器使用者或所有人享有權(quán)利或承擔(dān)義務(wù)。
盡管人工智能已展現(xiàn)出了非常優(yōu)秀的工作能力,但根據(jù)當(dāng)前人工智能領(lǐng)域的技術(shù)發(fā)展水平來(lái)看,人工智能仍然不能與人類劃等號(hào),如強(qiáng)大的人工智能即使擁有發(fā)達(dá)的大腦,也不可能像人那樣思維而不具備情感能力。他寫(xiě)的文藝作品盡管文采性很強(qiáng),但是無(wú)法表達(dá)出像人類那樣對(duì)同一事物表達(dá)出的感情,人工智能也不存在悲歡離合之類的感情,做出的行為亦沒(méi)有反映出某種獨(dú)立的意識(shí)和符合民法意思表示的要求,沒(méi)有認(rèn)識(shí)能力去理解自己行為的結(jié)果,僅是冰冷的機(jī)器。意思能力和決策機(jī)制標(biāo)準(zhǔn)是評(píng)判民事主體適格與否的實(shí)質(zhì)性標(biāo)準(zhǔn)。
另外,民事主體做出某種民事行為會(huì)從心理上產(chǎn)生某種動(dòng)機(jī)予以推動(dòng),人工智能所做出的行為則不是。人進(jìn)行某種行為會(huì)產(chǎn)生心理價(jià)值評(píng)價(jià),多數(shù)會(huì)產(chǎn)生利我傾向。而且人工智能沒(méi)有什么情感上的需求,也不需要談?wù)搶?duì)某物的價(jià)值評(píng)估。人的行為常常帶有某種隨機(jī)因素,人們做某種行為也常以感情為基礎(chǔ),這種感情受到錯(cuò)綜復(fù)雜的外在環(huán)境及豐富的內(nèi)在心理變化的影響,也許,一個(gè)極細(xì)微因素的改變,便能使人類做出迥然不同的表現(xiàn)。而且這些條件對(duì)人工智能而言都是沒(méi)有的,其行為僅受數(shù)據(jù)算法影響,不受心理波動(dòng)、情感變化等因素影響。
人工智能的法律主體資格定會(huì)影響社會(huì)關(guān)系的穩(wěn)定。其一,人工智能若能成為民事主體,將催生出等同于人類法律地位的新物種,社會(huì)生產(chǎn)生活、資源分配等模式也將由此發(fā)生劇烈變化,造成人類無(wú)法預(yù)知的后果。從而使得人類在面對(duì)這個(gè)新物種時(shí)難以事先進(jìn)行風(fēng)險(xiǎn)防范,使得社會(huì)關(guān)系穩(wěn)定和諧的狀態(tài)將面臨極大的未知風(fēng)險(xiǎn)。
其二,給予人工智能獨(dú)立的主體資格必然導(dǎo)致其所有權(quán)人成為特權(quán)群體,導(dǎo)致該群體成為人上人。一般能夠擁有較強(qiáng)人工智能的群體都處于財(cái)富水平極高的精英階層,賦予人工智能主體資格會(huì)進(jìn)一步加劇社會(huì)中人與人之間的隔閡、傳統(tǒng)社會(huì)秩序受到?jīng)_擊,致使擁有強(qiáng)人工智能的群體與其他群體發(fā)生劇烈利益沖突。
其三是人工智能作為獨(dú)立責(zé)任主體獲得法人資格極易引發(fā)道德風(fēng)險(xiǎn)。人工智能不具有理性認(rèn)識(shí)事物的可能性,實(shí)際控制人會(huì)在人工智能的幫助下侵害他人合法權(quán)利,其獨(dú)立責(zé)任主體會(huì)成為實(shí)際控制人避免侵權(quán)責(zé)任承擔(dān)的避風(fēng)港。
賦予人工智能主體資格可能會(huì)帶來(lái)很多好處。這將確保人工智能受到法律保護(hù)。這意味著,如果人工智能被惡意利用或受到傷害,相關(guān)的法律機(jī)構(gòu)可以干預(yù)并保護(hù)其權(quán)益。然而,賦予人工智能主體資格也可能會(huì)帶來(lái)一些問(wèn)題。首先,這可能會(huì)導(dǎo)致一些道德和倫理問(wèn)題。例如,如果一個(gè)人工智能被賦予了主體資格,那么它是否有權(quán)利擁有自己的意識(shí)和自由意志?其次,賦予人工智能主體資格也可能會(huì)導(dǎo)致法律上的困難。例如,如果一個(gè)人工智能造成了傷害或損失,那么責(zé)任應(yīng)該由誰(shuí)承擔(dān)?
因此,賦予人工智能主體資格是一個(gè)需要慎重考慮的問(wèn)題。我們需要權(quán)衡其帶來(lái)的好處和問(wèn)題,并制定出相應(yīng)的法律和倫理標(biāo)準(zhǔn)來(lái)指導(dǎo)其發(fā)展和應(yīng)用。只有這樣,我們才能確保人工智能的發(fā)展符合人類的利益并得到良好的應(yīng)用。