○ 陶林
(南京醫(yī)科大學(xué) 馬克思主義學(xué)院,江蘇 南京 211166)
人工智能被廣泛認(rèn)為是第四次工業(yè)革命的代表技術(shù)之一,人工智能及其引起的巨大社會影響引起法學(xué)界學(xué)者們的關(guān)注。如何應(yīng)對人工智能的法律風(fēng)險?人工智能對于傳統(tǒng)的中國法律體系帶來哪些挑戰(zhàn)?如何完善人工智能的法律規(guī)制?這是近六年(2015—2020年)來國內(nèi)法學(xué)界關(guān)注的熱點。本文嘗試對近六年來國內(nèi)人工智能法律規(guī)制的研究進(jìn)行評述,以促進(jìn)這一熱點問題研究的深入。
人工智能是“研究人類智能行為規(guī)律(比如學(xué)習(xí)、計算、推理、思考、規(guī)劃等),構(gòu)造具有一定智慧能力的人工系統(tǒng)”[1]。現(xiàn)階段,人工智能在專業(yè)領(lǐng)域應(yīng)用成效顯著,比如無人駕駛、智能翻譯、智能診療、智慧判決等。根據(jù)筆者在知網(wǎng)的檢索,截止到2021年4月27日,篇名含有“人工智能和法律”的論文共有447篇,其中CSSCI來源期刊論文76篇。國內(nèi)最早研究人工智能法律問題的論文是張保生在2001年發(fā)表于《法學(xué)評論》的《人工智能法律系統(tǒng)的法理學(xué)思考》。相關(guān)年度的論文發(fā)表篇數(shù)情況為:2021年11篇、2020年118篇、2019年159篇、2018年128篇、2017年27篇、2016年3篇、2015年0篇、2014年1篇。他引次數(shù)排前10的論文見表1。從總的研究趨勢來看,國內(nèi)關(guān)于人工智能法律規(guī)制的研究處于增長階段。
表1 他引次數(shù)排名前10的人工智能法律規(guī)制研究論文
盡管目前發(fā)表的相關(guān)論文有400多篇,但其中有一些論文屬于重復(fù)發(fā)表,且論文質(zhì)量參差不齊。因此本文以近六年來CSSCI來源期刊發(fā)表的論文作為重要依據(jù),對人工智能法律規(guī)制的研究進(jìn)行述評。根據(jù)檢索到的CSSCI來源期刊論文可以看出,近六年來國內(nèi)關(guān)于人工智能法律規(guī)制的研究主要圍繞七大問題。當(dāng)然部分論文還涉及其他問題,如嘗試從法律和倫理結(jié)合視角探索人工智能的各種社會風(fēng)險等,限于篇幅,此文中不再詳述①關(guān)于人工智能的社會風(fēng)險的研究,參見陶林:《近年來國內(nèi)關(guān)于人工智能社會風(fēng)險的研究綜述》(《云夢學(xué)刊》,2021年第1期)。。
多數(shù)學(xué)者認(rèn)為,“人工智能的發(fā)展將對法律及其行業(yè)生態(tài)產(chǎn)生巨大影響”[2]。因此面對人工智能的法律風(fēng)險,法律規(guī)制應(yīng)該如何應(yīng)對,成為法理學(xué)界關(guān)注的重點問題。學(xué)者們主要從法理學(xué)的宏觀視角審視人工智能的法律風(fēng)險。對于人工智能的法律規(guī)制可以分為兩種:一是對于人工智能的規(guī)制,二是對于使用人工智能的利益相關(guān)者,包括設(shè)計者、生產(chǎn)者、使用者、維修者的規(guī)制。規(guī)制原則包括目的正當(dāng)原則、人類善良情感原則、公眾知情原則或者透明原則、政府管控原則、分類管控原則、全程管控原則、預(yù)防原則以及國際合作原則[3]。在規(guī)制原則的基礎(chǔ)上,推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和全面依法治國的深度融合,樹立數(shù)據(jù)思維,運用互聯(lián)網(wǎng)技術(shù)和信息化手段來推動人工智能的科學(xué)立法[4]。人工智能的廣泛運用以及人工智能立法的轉(zhuǎn)型,將會重構(gòu)公眾認(rèn)知法律的模式,重構(gòu)法律規(guī)則本身的形態(tài),進(jìn)而重構(gòu)法律的價值導(dǎo)向[5]。人工智能時代對法律的根本性挑戰(zhàn),在于法律功能獨特性的喪失,法律不學(xué)習(xí)被機器學(xué)習(xí)取代,法律被代碼/算法取代[6]。也有學(xué)者對于目前法學(xué)界對于人工智能法學(xué)研究明顯違反人類智力常識的反智化現(xiàn)象進(jìn)行了嚴(yán)肅的批判。主張法學(xué)研究應(yīng)該避免盲目跟風(fēng),走出對人工智能體的崇拜,回歸學(xué)術(shù)研究的理性軌道。一些著名學(xué)者認(rèn)為,人工智能對于傳統(tǒng)法治帶來重大變革和影響,推動了數(shù)字時代的法治范式轉(zhuǎn)型。
關(guān)于人工智能是否需要專門立法,學(xué)者們主要有兩種觀點。
一種是維持現(xiàn)有立法不變。認(rèn)為現(xiàn)有民法完全可以應(yīng)對人工智能的法律風(fēng)險,不需要新法,不必改變民法的基本理念和基本規(guī)則[7]??蓪⑷斯ぶ悄苕i定于《民法總則》客體的前提下,對其合理限制,且在民法典各分編制定中,對客體意義上的人工智能亦無需作特殊規(guī)則改變[8]。
一種是另外設(shè)立新法。一方面,面對人工智能的高速發(fā)展及其帶來的諸多社會問題,需盡快建立以全流程監(jiān)管為主體的、多層次的人工智能監(jiān)管體系,圍繞人工智能對民事主體、侵權(quán)責(zé)任、著作權(quán)、刑法等帶來的挑戰(zhàn)展開研究[9],以應(yīng)對人工智能與現(xiàn)有法律制度形成的沖突以及帶來的挑戰(zhàn)[10]。如由人工智能產(chǎn)品導(dǎo)致的侵權(quán)行為和刑事風(fēng)險需根據(jù)相關(guān)法律明確責(zé)任,可以考慮增設(shè)相關(guān)罪名來予以應(yīng)對[11];明確人工智能運行中個人信息數(shù)據(jù)安全立法的基本原則,明確人工智能運行中個人信息數(shù)據(jù)權(quán),確保權(quán)利的法律化,參考相關(guān)國家做法適時制定《個人信息安全法》[12];對人工智能開發(fā)企業(yè)的社會責(zé)任進(jìn)行規(guī)則[13]。另一方面,在立法層面,應(yīng)在注重立法前瞻性的基礎(chǔ)上構(gòu)建科學(xué)的人工智能犯罪規(guī)范體系[14]。采取軟法方式,而不是簡單地提高硬法的懲戒力度[15]。在塑造風(fēng)險社會的法律理念,建立多元互動的風(fēng)險規(guī)制體系,促進(jìn)人工智能的健康發(fā)展[16]的同時,也要重視人工智能對現(xiàn)代法律制度體系的影響,這種影響可能至少包括法律主體制度、客體制度、權(quán)利體系等,要防止人工智能濫用給人類帶來的風(fēng)險[17]。
人工智能的著作權(quán)是否應(yīng)該得到承認(rèn)和保護(hù)是學(xué)術(shù)界爭論的熱點問題之一。目前主要存在三種觀點:一是應(yīng)該保護(hù),二是不應(yīng)該保護(hù),三是有限保護(hù)。觀點分歧產(chǎn)生的根本原因在于人工智能創(chuàng)作的作品是否具有創(chuàng)造性。
第一,應(yīng)該保護(hù)。由于人工智能具有超強的學(xué)習(xí)能力,“它所創(chuàng)作出來的智力成果與人的作品之間并沒有區(qū)別,因此仍然應(yīng)當(dāng)以著作權(quán)的方式來加以保護(hù)”[18]。學(xué)者們或從人工智能創(chuàng)作作品的獨創(chuàng)性角度,或從賦予人工智能創(chuàng)作作品屬性的優(yōu)勢出發(fā),或從著作權(quán)保護(hù)客體的沿革入手,論證人工智能創(chuàng)作的作品應(yīng)當(dāng)受法律獨立保護(hù)(代表性的學(xué)者有李宗輝、尹鵬、馬治國等)。人工智能在未來有可能生成富于思想性或形式更為靈活的報道,這類報道應(yīng)當(dāng)受到法律保護(hù)[19]。且人工智能生成內(nèi)容本質(zhì)上仍然是人類利用技術(shù)設(shè)備創(chuàng)作完成的作品,需要在著作權(quán)法體系下實現(xiàn)對其法律保護(hù)[20]。人工智能在知識創(chuàng)作領(lǐng)域的應(yīng)用已不可逆轉(zhuǎn),域外的人工智能創(chuàng)作作品法律保護(hù)路徑有利于解決我國理論界對人工智能創(chuàng)作作品能否獨立受法律保護(hù)存在爭議的現(xiàn)實[21]。有必要通過引入人工智能作為技術(shù)“發(fā)明人”的制度設(shè)計、創(chuàng)立人工智能生成技術(shù)方案的可專利性標(biāo)準(zhǔn)、構(gòu)建人工智能生成專利技術(shù)的權(quán)責(zé)分配規(guī)則、設(shè)置風(fēng)險防范機制等法律對策,實現(xiàn)專利法對人工智能生成技術(shù)方案的有效規(guī)制[22]。
第二,不應(yīng)該保護(hù)。人工智能創(chuàng)作的作品由于無法體現(xiàn)創(chuàng)作者的個性,不能被視為真正的作品,無法以著作權(quán)的方式來加以保護(hù)[23]。確定人工智能作品權(quán)利歸屬的前提是明確該類作品的權(quán)利客體屬性,人工智能創(chuàng)作的作品應(yīng)屬于著作權(quán)客體,而非鄰接權(quán)客體。人工智能不具有法律人格,因此其本身不能成為人工智能創(chuàng)作作品的權(quán)利主體。也就是說,人工智能創(chuàng)作的作品,本質(zhì)上還是人操作人工智能完成的,人工智能不具備法律人格,因此人工智能創(chuàng)作作品的著作權(quán)可以歸屬于使用者或者創(chuàng)造者。
第三,有限保護(hù)。這一觀點主張對人工智能創(chuàng)作的作品區(qū)分對待,將人工智能創(chuàng)作作品是否具有獨創(chuàng)性與當(dāng)下法律應(yīng)否保護(hù)相區(qū)分。人工智能創(chuàng)作的作品雖然具有獨創(chuàng)性,但是為了維護(hù)當(dāng)下法律的體系性,現(xiàn)不宜對其進(jìn)行獨立保護(hù)[24]。而以未來將出現(xiàn)具有獨立思維能力的強人工智能為前提,研究強人工智能發(fā)明創(chuàng)造的專利性,似過于超前[25]??梢詳M定人工智能生成內(nèi)容為“作品”,并設(shè)置所有權(quán),該所有權(quán)根據(jù)不同的階段可能屬于程序設(shè)計者、人工智能使用者或者投資者。人工智能“作品”不需要標(biāo)注,閱讀使用者需遵循著作權(quán)法[26]。
人工智能是否具有法律人格,也是學(xué)術(shù)界爭論的焦點之一。因為這一問題的界定,不僅涉及人工智能使用者、生產(chǎn)者、設(shè)計者三者之間的權(quán)利、義務(wù)、責(zé)任的關(guān)系,還涉及人工智能可能導(dǎo)致的社會風(fēng)險和傷害的責(zé)任追究。目前學(xué)術(shù)界主要有肯定說、否定說、折中說三種觀點。
第一,肯定說。人工智能概念是通過“位格加等”把機器人提升到自然人的法律位格,法律主體學(xué)說之現(xiàn)代性立場有其限度,從法律主體概念回歸法律位格概念,是人工智能時代法理思想變革的重要契機[27]。國外電子人格說的提出,“為機器人創(chuàng)設(shè)一個特殊的法律地位”①2017年2月16日,歐盟議會以396票贊成、123票反對、85票棄權(quán),通過《歐盟機器人民事法律規(guī)則》,有關(guān)機器人電子人格的內(nèi)容規(guī)定在第59條(F)款中。。從人工智能的現(xiàn)狀看,人工智能已開始具有獨立影響他人權(quán)利義務(wù)的能力,考慮認(rèn)可人工智能的法律人格已具有一定的現(xiàn)實意義[28]。同時,賦予人工智能擬制法律人格是界定人工智能產(chǎn)物的財產(chǎn)權(quán)利歸屬和人工智能侵權(quán)責(zé)任的必要前提??蛇\用立法技術(shù)賦予人工智能獨立的法律人格,建立人工智能登記備案制,完善人工智能的法律責(zé)任制度[29]。人工智能時代的法律責(zé)任理論應(yīng)當(dāng)有所修正和更新,智能機器人應(yīng)成為適格的法律責(zé)任主體[30]。
第二,否定說。在人工智能不是人,而是物,其“不具有法律人格”[31]認(rèn)知前提下,將人工智能產(chǎn)品認(rèn)定為會自動學(xué)習(xí)和主動工作的工具[32],因此,為了解釋人工智能的行為效力而主張賦予其法律主體資格是沒有必要的[33]。賦予人工智能法律主體地位既不可能也不可欲,它無法,也不應(yīng)當(dāng)承擔(dān)獨立責(zé)任[34]。也就是說,在弱人工智能階段,人工智能無法獨立承擔(dān)法律責(zé)任,應(yīng)該是由制造者、使用者承擔(dān)相關(guān)法律責(zé)任。而鑒于人工智能的智能性和自主性,可以將高度智能化的人工智能作為客體中的特殊物,予以特殊的法律規(guī)制[35]。
第三,折中說。按照通常的標(biāo)準(zhǔn),人工智能“在被給定目標(biāo)的基礎(chǔ)上運用智力能力來追求這個目標(biāo)的實現(xiàn),屬于弱人工智能;如果……人工智能還具備自己設(shè)定目標(biāo)的能力,那么這就是強人工智能”[36]。在弱人工智能、強人工智能和超級人工智能分類的基礎(chǔ)上,“人工智能是不是人”的問題,存在著不同的答案??砂凑杖斯ぶ悄艿陌l(fā)展階段分類對其進(jìn)行不同的界定,否認(rèn)弱人工智能的法律主體地位,有限肯定強人工智能的法律主體地位,認(rèn)同超級人工智能具有法律主體資格[37]。因此,基于法律規(guī)范的困境和人工智能的特殊性,以人工智能不同場域下的智能化或非智能化的狀態(tài)、以人或物的身份對人工智能進(jìn)行分別的“特殊性”法律約束。即使人工智能具有法律人格,其也并不具有承擔(dān)完全責(zé)任的能力與地位,因此其所獲得的人格屬于有限法律人格[38]。人工智能主體性和自然人主體性存在差異,需要法律對應(yīng)做出特殊安排[39]。適用于智能社會法律人格判定的標(biāo)準(zhǔn)體系應(yīng)在算法化的基礎(chǔ)上獨立于任何物種的具體特質(zhì)而存在,同時具有本土性、銜接性、可行性、包容性四特征[40]。目前來看,人工智能具備法律人格有其合理性,但“尚待時日。”[41]
由于人工智能對數(shù)據(jù)的非法采集和過度分析,人工智能運用到新聞寫作中存在算法偏見、算法不透明、涉及隱私的數(shù)據(jù)保護(hù)缺位等風(fēng)險,人工智能的新聞風(fēng)險可以從法規(guī)建設(shè)、傳媒應(yīng)具備的責(zé)任意識和完善技術(shù)規(guī)避風(fēng)險等方面進(jìn)行完善[42]。需加強人工智能環(huán)境下隱私權(quán)法律保護(hù)的研究,對一般信息和敏感信息進(jìn)行區(qū)分性法律保護(hù),加強對傳播權(quán)力的規(guī)制以及保障用戶隱私權(quán)利[43]。借助人工智能所具有的自動化生產(chǎn)和分發(fā)、受眾的數(shù)字化、點擊即獲利、監(jiān)測及算法、新聞生產(chǎn)鏈的延伸、即時傳播等技術(shù)優(yōu)勢,各種新聞生產(chǎn)主體和利益主體之間能夠?qū)崿F(xiàn)有效的共謀,人工智能運用到新聞寫作會生產(chǎn)出極具誘惑性的假新聞[44]。加強人工智能的新聞倫理風(fēng)險法律規(guī)制極其必要。
人工智能的司法運用遇到兩個挑戰(zhàn):一是人工智能能否克服傳統(tǒng)司法裁判模式的缺陷,二是人工智能對傳統(tǒng)科技風(fēng)險化解機制的挑戰(zhàn)[45]。人工智能司法應(yīng)用的前提是法律知識圖譜的構(gòu)建以及裁判規(guī)則的類型化與要素化[46]。人工智能法律系統(tǒng)的研發(fā)目標(biāo)旨在制造機器人法官,但其應(yīng)用的界限卻是不能獨立擔(dān)任法官,需要在立法限制的同時,實施“人-機系統(tǒng)”解決方案,以解決人工智能運用司法遇到的悖論[47]。同時,人工智能的數(shù)據(jù)挖掘技術(shù)、可視化技術(shù)和自動化分析具有巨大的優(yōu)勢,可促進(jìn)司法輿情監(jiān)測常態(tài)化、預(yù)警決策的精準(zhǔn)化[48]。但是司法大數(shù)據(jù)與人工智能的技術(shù)特征使得司法改革的成效具有不確定性,司法大數(shù)據(jù)和人工智能可能誘發(fā)司法固有屬性被消解、法官主體地位被削弱、司法改革目標(biāo)被替代和司法改革結(jié)果失控等風(fēng)險[49]。因此,應(yīng)該堅持法官的主體地位,“擺脫對于人工智能的技術(shù)依賴”[50]?!啊l(fā)揮人在司法裁判過程中的主觀能動性,防止過度依賴人工智能輔助系統(tǒng),從而保障司法裁判結(jié)果的公平公正”[51]。
人工智能雖然還不成熟,但是已經(jīng)在社會各個領(lǐng)域開始使用。其中在醫(yī)藥行業(yè)的使用涉及人工智能臨床使用的社會風(fēng)險以及法律責(zé)任問題。如社會風(fēng)險如何規(guī)避?醫(yī)藥責(zé)任是人工智能獨立承擔(dān),還是由使用的醫(yī)護(hù)人員承擔(dān),是故意還是過失,抑或是技術(shù)操作失誤?人工智能使用中患者的相關(guān)數(shù)據(jù)隱私權(quán)如何保護(hù)?等等。學(xué)者們對上述問題進(jìn)行了初步探討[52]。劉建利認(rèn)為,“我國應(yīng)當(dāng)在明確醫(yī)療AI法律地位的基礎(chǔ)上,通過加強解釋和完善立法,建立醫(yī)療AI的技術(shù)準(zhǔn)入標(biāo)準(zhǔn),完善醫(yī)療損害的法律歸責(zé)制度,平衡好醫(yī)患關(guān)系中的利益相關(guān)者的利益與責(zé)任。在數(shù)據(jù)保護(hù)上,出臺專門的醫(yī)療信息保護(hù)法?!盵53]。郭曉斐認(rèn)為,“要從明確法律主體、劃分法律責(zé)任、保護(hù)數(shù)據(jù)與隱私權(quán)、建立社會規(guī)范和倫理準(zhǔn)則等方面對醫(yī)療人工智能進(jìn)行法律規(guī)制和倫理引導(dǎo)”[54]。目前看,醫(yī)藥行業(yè)對人工智能的使用將越來越普遍,需要高度重視,加強人工智能的醫(yī)藥法律規(guī)制,重視患者的隱私權(quán)保護(hù),同時合理界定相關(guān)的醫(yī)藥臨床類人工智能的法律責(zé)任,造福公眾健康。
綜上所述,我們可以看出近六年來國內(nèi)法學(xué)界對于人工智能的法律規(guī)制研究成就主要包括:第一,研究領(lǐng)域不斷拓展。學(xué)者們對人工智能的法律風(fēng)險和規(guī)制的探討基本涉及人工智能已經(jīng)運用的各個領(lǐng)域,研究具有鮮明的針對性。第二,研究方法的多學(xué)科運用初現(xiàn)端倪。學(xué)術(shù)界對于人工智能可能遇到的法律風(fēng)險進(jìn)行了分類研究,總體上呈現(xiàn)多學(xué)科關(guān)注和研究的趨勢。第三,涌現(xiàn)出一批代表性的成果,且呈現(xiàn)不斷增長的趨勢。
科學(xué)技術(shù)是一把雙刃劍,人工智能的迅猛發(fā)展給現(xiàn)有的法律體系帶來嚴(yán)峻挑戰(zhàn),引發(fā)諸多爭論,甚至有學(xué)者認(rèn)為其導(dǎo)致“法律的死亡”[6]危機。未來人工智能的法律規(guī)制研究需要進(jìn)一步深化??梢試L試從以下方面突破:
現(xiàn)有研究成果跟蹤研究不足。主要表現(xiàn)在兩個方面:一是對國外相關(guān)的人工智能法律規(guī)制文獻(xiàn)和研究成果關(guān)注不夠。根據(jù)筆者檢索到的論文,專門探討國外人工智能法律規(guī)制的文章僅有1篇。實際上人工智能的法律規(guī)制問題不僅是國內(nèi)學(xué)界關(guān)注的熱點,也是國際學(xué)術(shù)界關(guān)注的熱點。我們需要重視對于國外相關(guān)人工智能法律規(guī)制論文、著作的翻譯和引入,重視國際學(xué)術(shù)交流和對話。二是人工智能在各個領(lǐng)域運用中存在的法律風(fēng)險研究相對不足。目前的研究,對人工智能在金融、醫(yī)療、自動駕駛、智能家居、新聞寫作、司法等領(lǐng)域運用的風(fēng)險及法律規(guī)制問題關(guān)注較多,但是其他運用領(lǐng)域的風(fēng)險及法律規(guī)制問題研究成果相對較少。人工智能的發(fā)展運用具有廣泛的前景,加強動態(tài)的跟蹤研究是十分必要的。
國內(nèi)人工智能相關(guān)論文,大部分是跟蹤國外前沿的推介、綜述類論文,現(xiàn)有的成果宏觀分析多,個案研究和實證研究不足,而法律規(guī)制應(yīng)該結(jié)合具體的案例開展。從法律社會學(xué)的視角看,人工智能法律規(guī)制不僅是法理學(xué)的問題,還涉及民法和刑法等。因此人工智能法律規(guī)制不僅僅是純法理學(xué)的研究,還涉及科技哲學(xué)、社會學(xué)的研究問題域。從未來發(fā)展趨勢看,需重視和加強人工智能的代表性應(yīng)用領(lǐng)域的典型案例收集,從而充分了解人工智能運用在某一領(lǐng)域具體遇到的法律風(fēng)險,以及對于這些法律風(fēng)險現(xiàn)有法律規(guī)制存在的不足和缺陷,從而提出具體的改善措施。
按照人工智能發(fā)展的不同階段,進(jìn)行分級研究,同時注重不同發(fā)展階段的法律聯(lián)系。從弱人工智能到強人工智能再到超級人工智能,應(yīng)該經(jīng)過不同的歷史階段,相應(yīng)的法律規(guī)制需根據(jù)人工智能的不同發(fā)展階段作出相應(yīng)調(diào)整。從立法角度看,人工智能的發(fā)展是動態(tài)的、分級的,因此作為調(diào)整社會秩序規(guī)范的法律應(yīng)該與時俱進(jìn),不斷完善。對于人工智能的發(fā)展,應(yīng)該分級。《中國人工智能標(biāo)準(zhǔn)白皮書(2018版)》指出,評價人工智能的智能等級是困難和具有挑戰(zhàn)性的工作,但可以通過標(biāo)準(zhǔn)化工作逐步解決該問題[55]?,F(xiàn)有的人工智能處于弱人工智能階段,因此現(xiàn)階段我們應(yīng)以現(xiàn)有法律規(guī)制來定義人工智能的法律人格,將其理解為物更加適合。至于未來的強人工智能階段,甚至進(jìn)化和發(fā)展成為超級人工智能階段,可以承認(rèn)人工智能的法律人格。抽象的爭論人工智能是否具有法律人格是沒有意義的,法律人格的認(rèn)定不是立法者隨意認(rèn)定的一種主觀想象,而是立法者基于一定的社會價值觀、社會共識、社會生產(chǎn)力發(fā)展作為基礎(chǔ)的一種社會規(guī)范的反思、判斷。法律應(yīng)該是動態(tài)的發(fā)展,不是僵化的教條?!胺蛇€必須服從進(jìn)步所提出的正當(dāng)要求,在運動與靜止、保守與創(chuàng)新、僵化與變化無常這些彼此矛盾的力量之間謀求某種和諧?!盵56]重視人工智能的動態(tài)研究和分類研究,從動態(tài)的發(fā)展的角度規(guī)制人工智能的法律風(fēng)險是我們的理性選擇。
人工智能法律規(guī)制是一個全球化的問題,涉及不同國家的法律習(xí)慣、法律制度和法律文化。因此中國在研究制定相關(guān)的人工智能法律規(guī)制時,需要有全球視野和國際眼光。一方面借鑒國外先進(jìn)的法律經(jīng)驗和做法,另一方面則是需要實事求是,從本國的國情和法律制度出發(fā),制定適合國情的人工智能法律制度,促進(jìn)社會和諧穩(wěn)定,增進(jìn)人類福祉。這其中要避免出現(xiàn)兩種錯誤傾向:一種是盲目跟風(fēng)忽視中國的國情、歷史文化傳統(tǒng)以及法律制度,一味照搬照抄西方的立法模式和經(jīng)驗;另外一種是一味強調(diào)中國法律制度的特殊性和中國特色,排斥國外的立法經(jīng)驗和做法。
目前從法理學(xué)意義上研究人工智能法律規(guī)制的論文主要涉及兩大問題:一是人工智能的法律人格問題,二是人工智能的各種法律風(fēng)險和應(yīng)對。人工智能法律規(guī)制的法理學(xué)研究有待加強。比如人工智能的法律人格問題。人工智能是否具備法律人格,是一個爭論較大的法理學(xué)問題:人工智能究竟是物,還是具備民事行為能力和自主意識的法人?從法律人格的主體看,法律人格的主體是具體的、歷史的、發(fā)展的,“經(jīng)歷了人可非人—人人可人—非人可人不斷擴(kuò)展的歷史變遷”[57]。關(guān)于人工智能的法律人格的爭論是法理學(xué)的元問題,對這一問題的爭論和定性,決定了人工智能的法律風(fēng)險規(guī)則和相關(guān)法律的重大變革,因此人工智能的法律人格問題解決了,其他的爭論也會得到相應(yīng)的推進(jìn)。人工智能的法律人格問題研究還將繼續(xù),就中國目前的研究來看,中國法學(xué)界基本傾向于否認(rèn)人工智能的法律人格,但是這種情況在未來是否會發(fā)生改變,需要我們繼續(xù)長期關(guān)注研究。
人工智能的法律問題屬于前沿的交叉學(xué)科問題,需要多個學(xué)科的關(guān)注。國外的人工智能法學(xué)研究分為人工智能問題的法學(xué)研究、法(律)學(xué)的人工智能研究。國內(nèi)學(xué)界也有少部分學(xué)者具有“法學(xué)+計算機”雙學(xué)科背景,但國內(nèi)學(xué)者總體對法(律)學(xué)的人工智能研究缺課太多,這需要學(xué)界有能力者更加注重此問題的相關(guān)研究或者跨學(xué)科合作研究??梢酝ㄟ^相關(guān)重大課題申報組織、相關(guān)重點高校的人工智能研究院等平臺,加強不同學(xué)科學(xué)者之間的相互合作和交流,尤其是跨省的學(xué)者交流,破除學(xué)科的門戶之見,以開放包容的心態(tài)重視交叉學(xué)科的深入研究。
本文通過系統(tǒng)的文獻(xiàn)梳理,對于中國學(xué)界近六年來人工智能法律規(guī)制研究的七大主要問題進(jìn)行了述評,并對未來研究進(jìn)行了展望。人工智能研究將成為一門顯學(xué),其關(guān)系到全人類的福祉,需要我們高度關(guān)注,并加強學(xué)科交叉研究,加強人工智能法律規(guī)制研究,以及時有效地防范人工智能的各種社會風(fēng)險。