王超逸 朱偉嘉 湯瑾熠
(湖南警察學(xué)院,湖南長(zhǎng)沙 410138)
2022 年4 月13 日,中國(guó)信息通信研究院正式發(fā)布《人工智能白皮書(shū)(2022 年)》,白皮書(shū)立足國(guó)際化大環(huán)境,準(zhǔn)確剖析了我國(guó)人工智能當(dāng)前的產(chǎn)業(yè)現(xiàn)狀,前瞻性地預(yù)測(cè)了我國(guó)人工智能的未來(lái)發(fā)展趨勢(shì)。自1954 年圖靈測(cè)試開(kāi)始,人工智能技術(shù)出現(xiàn)了一次又一次的革新浪潮。相比60 多年前,AI 經(jīng)歷了多個(gè)階段的發(fā)展,其應(yīng)用范圍也越來(lái)越廣。從醫(yī)療領(lǐng)域輔助醫(yī)生診斷和治療疾病,到金融領(lǐng)域幫助交易者進(jìn)行風(fēng)險(xiǎn)評(píng)估和投資決策,再到5G 通信技術(shù)的普及和智慧家居的流行,人工智能在開(kāi)發(fā)和應(yīng)用中取得了巨大突破,為人類生產(chǎn)生活水平的提高注入了強(qiáng)勁動(dòng)力。但它在便利人類生活的同時(shí),相關(guān)的社會(huì)法律問(wèn)題也日益凸顯。
2018 年,一輛 Uber 自動(dòng)駕駛汽車在進(jìn)行道路測(cè)試時(shí),將一名推自行車穿過(guò)馬路的女子撞死。該案例成為全球首例自動(dòng)駕駛汽車撞死行人的事故[1]。2019 年12 月24日,原告深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司訴被告上海盈某科技有限公司侵害著作權(quán)及不正當(dāng)競(jìng)爭(zhēng)糾紛,法院認(rèn)定人工智能生成物構(gòu)成著作權(quán)法上的作品。2020 年5 月,北京知識(shí)產(chǎn)權(quán)法院受理的北京菲林律師事務(wù)所與北京百度網(wǎng)訊科技有限公司著作權(quán)權(quán)屬、侵權(quán)糾紛二審一案中,法院以生成涉案文章的主體為AI 軟件而非自然人為由,判定涉案文章不構(gòu)成作品[2]。前后案件判決的沖突引起了群眾廣泛的討論,如何定義人工智能的法律主體性質(zhì)成了一個(gè)嶄新的議題。
以上種種現(xiàn)象,因?yàn)樵诰唧w實(shí)踐中缺乏法律評(píng)價(jià)的明確指引,已經(jīng)嚴(yán)重威脅了傳統(tǒng)的法律制度,特別是法律主體制度。因此,必須重新審視當(dāng)前人工智能的法律地位,從立法到社會(huì)層面對(duì)其進(jìn)行合理規(guī)制,探索賦予人工智能法律人格的可行性。
比照國(guó)內(nèi)外現(xiàn)有研究發(fā)現(xiàn),目前學(xué)界對(duì)于人工智能法律人格的理論研究主要分為“主體說(shuō)”和“客體說(shuō)”,經(jīng)總結(jié)歸納,可作如下評(píng)析。
2.1.1 代理人說(shuō)
電子代理人是指不需要人的審查或操作,通過(guò)自然語(yǔ)言處理、圖像識(shí)別、機(jī)器學(xué)習(xí)等技術(shù)與人類進(jìn)行互動(dòng),并根據(jù)人類的需求和指令執(zhí)行任務(wù)。2017 年2 月16 日,歐盟議會(huì)以多數(shù)贊成票通過(guò)了《歐盟機(jī)器人民事責(zé)任法律規(guī)則》,決議對(duì)于民事責(zé)任首次提出了“非人代理人”概念。該概念認(rèn)為人工智能是一種帶有目的性的程序智能體,這樣的認(rèn)定在某些方面可以被視為承認(rèn)人工智能一定程度上具備法律人格。另外,根據(jù)傳統(tǒng)民法理論,將人工智能適度地?cái)U(kuò)大解釋為人類的代理人,代表人類實(shí)施民事法律行為,實(shí)際上承認(rèn)了人工智能具有成為民事主體的可能性。
2.1.2 電子人格說(shuō)
2022 年,歐洲議會(huì)決議通過(guò)的《歐洲機(jī)器人技術(shù)民事法律規(guī)則》,該規(guī)則為高度智能自動(dòng)化的機(jī)器人創(chuàng)設(shè)了以“電子人”為內(nèi)容的法律地位。電子人格在許多領(lǐng)域都有廣泛的應(yīng)用,例如智能客服、智能語(yǔ)音助手、虛擬形象等。這些電子人格通常通過(guò)自然語(yǔ)言處理、語(yǔ)音識(shí)別等技術(shù)與人進(jìn)行互動(dòng),以達(dá)到實(shí)現(xiàn)人機(jī)對(duì)話、智能問(wèn)答、情感交流等目的。此前,由中國(guó)香港的漢森機(jī)器人技術(shù)公司開(kāi)發(fā)的類人機(jī)器人索菲亞,于沙特阿拉伯被授予公民身份。隨著人工智能技術(shù)的不斷發(fā)展,電子人格的表現(xiàn)和功能也越來(lái)越多樣化和智能化,可以為人們帶來(lái)更加便利和舒適的人機(jī)互動(dòng)體驗(yàn)。
2.1.3 有限人格說(shuō)
有限人格說(shuō)認(rèn)為,人工智能實(shí)質(zhì)上可以被視為一種“虛擬法人”,可以享有一些基本的法律權(quán)利和義務(wù),例如簽訂合同、擁有財(cái)產(chǎn)、參與民事訴訟等。但同時(shí),它們的行為也應(yīng)受到某些限制,例如不得侵犯人類的基本權(quán)利和利益、不得違反法律規(guī)定等。有限人格說(shuō)嘗試調(diào)整法律框架下人類和人工智能的矛盾關(guān)系,僅賦予其有限的法律人格,而非創(chuàng)造出一個(gè)具有現(xiàn)實(shí)等價(jià)性的法律主體地位。該學(xué)說(shuō)符合現(xiàn)階段以人為中心的發(fā)展思想,通過(guò)賦予機(jī)器人一定的法律主體資格,對(duì)人工智能的權(quán)力進(jìn)行合理限制,有利于降低人工智能可能帶來(lái)的危險(xiǎn),更好地使科技進(jìn)步服務(wù)于人民。
2.2.1 控制說(shuō)
控制說(shuō)認(rèn)為,雖然人工智能在技術(shù)上可以執(zhí)行某些任務(wù),但其行為和決策仍受到人類制定的規(guī)則和指令的限制。具體來(lái)說(shuō),人工智能實(shí)體應(yīng)該由人類進(jìn)行監(jiān)管和控制,以確保其行為符合道德和法律規(guī)范。人類應(yīng)該完善人工智能相應(yīng)的規(guī)章制度,以指導(dǎo)人工智能的行為和決策,并在必要時(shí)對(duì)其進(jìn)行調(diào)整。同時(shí),當(dāng)人工智能實(shí)體的行為導(dǎo)致?lián)p害時(shí),人類應(yīng)對(duì)其行為負(fù)責(zé),并對(duì)其行為承擔(dān)相應(yīng)的法律責(zé)任。雖然現(xiàn)階段的機(jī)器人缺乏人之心性,但就此否定人工智能法律人格的主體地位過(guò)于片面,深度學(xué)習(xí)、樹(shù)搜索等技術(shù)的迅猛發(fā)展,使強(qiáng)人工智能時(shí)代的到來(lái)勢(shì)不可擋。
2.2.2 工具說(shuō)
工具說(shuō)認(rèn)為,人工智能可以利用其高效、準(zhǔn)確的計(jì)算和分析能力,協(xié)助人類完成諸如判例分析、文書(shū)撰寫(xiě)等法律工作。具體來(lái)說(shuō),人工智能可以通過(guò)學(xué)習(xí)和分析大量的法律案例和法規(guī),提供針對(duì)特定問(wèn)題的分析和建議。例如,當(dāng)律師需要對(duì)訴訟案件進(jìn)行分析時(shí),人工智能可以通過(guò)對(duì)既有案例的學(xué)習(xí)和分析,提供科學(xué)、全面的法律分析意見(jiàn)。這一理論在法學(xué)實(shí)務(wù)領(lǐng)域得到了廣泛的應(yīng)用,人工智能可以為律師、法官、公證員等法律從業(yè)人員提供有效的輔助工具,提高法律決策的效率和準(zhǔn)確性。但是,人工智能法律工具說(shuō)也存在一些問(wèn)題和挑戰(zhàn),例如如何保證人工智能的客觀性和中立性、如何避免人工智能在處理敏感信息時(shí)引發(fā)的隱私和安全問(wèn)題。
2.2.3 法律地位說(shuō)
法律地位說(shuō),指在人工智能的發(fā)展和應(yīng)用過(guò)程中,權(quán)利和責(zé)任應(yīng)該同等重要,二者相互關(guān)聯(lián)。具體來(lái)說(shuō),人工智能作為一種智能實(shí)體,應(yīng)該被賦予某些權(quán)利,例如保護(hù)其知識(shí)產(chǎn)權(quán)、隱私權(quán)等。同時(shí),在人工智能系統(tǒng)的應(yīng)用過(guò)程中,其應(yīng)用者應(yīng)對(duì)其造成的后果負(fù)責(zé),并承擔(dān)相應(yīng)的法律責(zé)任。人工智能在擁有部分權(quán)利的前提下,也應(yīng)承擔(dān)相應(yīng)的責(zé)任。法律地位說(shuō)表明,現(xiàn)階段需要加強(qiáng)人工智能的法律規(guī)范,建立完善的法律法規(guī)體系,強(qiáng)化對(duì)人工智能系統(tǒng)的監(jiān)管和管理,明確人工智能的權(quán)利和責(zé)任,確保其發(fā)展和應(yīng)用符合道德和法律規(guī)范,從而最大限度地保障公眾的利益和安全。
確立人工智能法律人格是實(shí)現(xiàn)保障法的基本價(jià)值和社會(huì)規(guī)范作用的前提。首先,從目的論的角度分析,秩序無(wú)疑是法所追求的價(jià)值。秩序在某種程度上反映了特定社會(huì)時(shí)期的價(jià)值觀念,是不同社會(huì)模式的共同的規(guī)范要求。在人工智能時(shí)代,立法者通過(guò)賦予人工智能法律地位從而促進(jìn)建立新的社會(huì)規(guī)范體系,將有助于豐富秩序價(jià)值的時(shí)代內(nèi)涵。其次,賦予人工智能法律人格地位體現(xiàn)了正義價(jià)值的時(shí)代追求。一方面,法律人格的確定會(huì)推動(dòng)完善分配正義。正義價(jià)值所體現(xiàn)的分配正義是權(quán)力的實(shí)質(zhì)公平,而確立人工智能法律主體地位可以促進(jìn)人工智能權(quán)利義務(wù)關(guān)系的平等、保障權(quán)力救濟(jì)的有效性。另一方面,有利于實(shí)現(xiàn)正義價(jià)值對(duì)于社會(huì)公共利益合理配置的保障作用,明確人工智能侵權(quán)責(zé)任主體,實(shí)現(xiàn)侵權(quán)法律責(zé)任的合理劃分。另外,到2035 年,人工智能預(yù)計(jì)將推動(dòng)我國(guó)勞動(dòng)生產(chǎn)率提高20%以上,確定人工智能法律主體地位,有助于在具體生產(chǎn)生活中優(yōu)化資源配置,促進(jìn)社會(huì)財(cái)富增加,更好地實(shí)現(xiàn)法的效率價(jià)值。
根據(jù)貝克“風(fēng)險(xiǎn)社會(huì)”理論,新的生活條件會(huì)反過(guò)來(lái)超過(guò)社會(huì)安全概念的底線,社會(huì)更加容易陷入失序的危險(xiǎn)[3]。人工智能的出現(xiàn)將會(huì)徹底促進(jìn)人類生產(chǎn)生活方式的變革,將人類從單一、重復(fù)、危險(xiǎn)的勞動(dòng)活動(dòng)中解放出來(lái),引發(fā)部分行業(yè)的失業(yè)危機(jī),刺激其他新型職業(yè)的萌芽,最終人類實(shí)現(xiàn)自由的程度得以上升。巨大的社會(huì)變革意味著法律上不穩(wěn)定因素的增加。然而,在應(yīng)用過(guò)程中,必然會(huì)引發(fā)對(duì)傳統(tǒng)道德和價(jià)值觀的沖擊。例如,“虛擬女友”人工智能的出現(xiàn),不但沖擊了現(xiàn)有的人際交往社會(huì)規(guī)范,而且影響了人類對(duì)于傳統(tǒng)道德倫理規(guī)范的認(rèn)識(shí),進(jìn)而引發(fā)新的社會(huì)法律風(fēng)險(xiǎn)。因此,人工智能行為邊界與道德邊界的模糊導(dǎo)致的法律風(fēng)險(xiǎn)問(wèn)題具有現(xiàn)實(shí)緊迫性,需要賦予人工智能法律人格,將人工智能納入統(tǒng)一的法律和倫理規(guī)范體系中進(jìn)行規(guī)制,并制定符合社會(huì)發(fā)展需要的人工智能法規(guī)來(lái)解決其帶來(lái)的一系列法律風(fēng)險(xiǎn)和社會(huì)倫理問(wèn)題。
根據(jù)人工智能創(chuàng)作行為中人類的參與程度,即人工智能對(duì)人類的依賴程度,可以將人工智能生成物大致類型劃分為人機(jī)合作創(chuàng)作類生成物和人工智能獨(dú)立創(chuàng)作類生成物。從解釋論的角度分析,人機(jī)合作創(chuàng)作類的生成物屬于知識(shí)產(chǎn)權(quán)法保護(hù)的客體范圍且具有可版權(quán)性。因此,人機(jī)合作類的生成物可以受到現(xiàn)行著作權(quán)法的保護(hù),而人工智能獨(dú)立創(chuàng)作類的生成物不滿足構(gòu)成作品的要件。所以,在現(xiàn)行著作權(quán)法的框架下如何評(píng)價(jià)人工智能獨(dú)立創(chuàng)作的生成物具有較強(qiáng)現(xiàn)實(shí)意義和需求,而確定人工智能法律主體地位無(wú)疑是解決該問(wèn)題的有效途徑之一。從立法論的角度分析,可以基于激勵(lì)創(chuàng)新、產(chǎn)業(yè)可持續(xù)發(fā)展的目的考慮人工智能獨(dú)立創(chuàng)作的作品受到著作權(quán)法保護(hù)的必要性,同時(shí)應(yīng)確保相關(guān)人員有獲得技術(shù)與投資正反饋的機(jī)會(huì)。因此,為了順應(yīng)當(dāng)下人工智能產(chǎn)業(yè)的發(fā)展趨勢(shì),可以通過(guò)確定人工智能的法律人格打破立法技術(shù)的壁壘,從而有效解決人工智能生成物的著作權(quán)法保護(hù)問(wèn)題。
學(xué)者卡多佐曾指出,“某些法律概念的研究之所以有它現(xiàn)在的形式,這幾乎完全歸功于歷史,除了將它視為歷史的產(chǎn)物外,我們便無(wú)法理解它們[4]?!鄙鐣?huì)歷史的發(fā)展推動(dòng)法律規(guī)范的進(jìn)步,而當(dāng)新的法律主體出現(xiàn)時(shí),同樣需要思考現(xiàn)有的法律規(guī)范的局限性?,F(xiàn)有法律應(yīng)對(duì)新的問(wèn)題無(wú)外乎兩種解決辦法,一是通過(guò)立法的方式解決新的問(wèn)題;二是擴(kuò)大解釋既有制度,從而適應(yīng)新的規(guī)范對(duì)象。而縱觀世界范圍內(nèi)各國(guó)對(duì)人工智能主體立法的研究,之所以呈現(xiàn)放緩的態(tài)勢(shì),是因?yàn)榫嚯x下一次人工智能技術(shù)的跨越突破還有較遠(yuǎn)的距離,因此依托現(xiàn)有法律制度通過(guò)法律解釋為人工智能的發(fā)展開(kāi)辟合法化空間或許為更可行的方案。從節(jié)約立法成本和保障法律體系規(guī)范統(tǒng)一的角度出發(fā),立法者可以通過(guò)立法或司法解釋將人工智能納入類似于法人制度的范疇,根據(jù)人工智能智能化程度的差異細(xì)化不同的責(zé)任標(biāo)準(zhǔn),從而適應(yīng)人工智能和社會(huì)經(jīng)濟(jì)發(fā)展的需要。面對(duì)人工智能生成物著作權(quán)歸屬這一法律問(wèn)題的挑戰(zhàn),可借助有限人格說(shuō)的權(quán)利理論,與人工智能的使用者、參與者和設(shè)計(jì)者一起共享經(jīng)濟(jì)利益的分配。
4.2.1 人工智能財(cái)產(chǎn)權(quán)的賦予
從法律主體資格的角度考慮,人工智能享有主體資格的實(shí)質(zhì)條件,除了擁有獨(dú)立的意志外,還需要相應(yīng)的民事責(zé)任能力,獨(dú)立的財(cái)產(chǎn)是其承擔(dān)法律責(zé)任的基礎(chǔ)。人工智能能否承擔(dān)責(zé)任,關(guān)鍵在于確認(rèn)人工智能是否能擁有獨(dú)立的財(cái)產(chǎn)可供執(zhí)行。因此,人工智能的財(cái)產(chǎn)如何取得、由誰(shuí)賦予和支配是首要問(wèn)題。第一,可以建立人工智能責(zé)任賠償制度,采取注入責(zé)任資本或購(gòu)買責(zé)任保險(xiǎn)相結(jié)合的方式,以形成獨(dú)立的資金池,便于支付賠償金。人工智能可以按照所實(shí)施行為風(fēng)險(xiǎn)類型的不同,劃分不同的賠償標(biāo)準(zhǔn)。第二,可以考慮建立人工智能雇員薪資制度或者稅收制度,由相關(guān)主體對(duì)參與勞動(dòng)的人工智能支付報(bào)酬或繳納稅金,并將此報(bào)酬或稅金統(tǒng)一轉(zhuǎn)付到相應(yīng)的人工智能薪資稅收資金池[5]。以自動(dòng)駕駛汽車為例,在法律關(guān)系上人工智能的自動(dòng)駕駛汽車與運(yùn)輸經(jīng)營(yíng)者由人與物的支配關(guān)系轉(zhuǎn)化為承攬關(guān)系或者雇傭關(guān)系,人工智能可通過(guò)賺取承攬收益擁有自身財(cái)產(chǎn)。
4.2.2 人工智能權(quán)利的范圍和保留
強(qiáng)人工智能具備成為法律主體的可能,但就人工智能發(fā)展的初衷而言,為人類服務(wù)是其根本目的,為了避免發(fā)生道德和倫理災(zāi)難,其權(quán)利行使的范圍也應(yīng)限制在一定的限度內(nèi)。強(qiáng)人工智能的權(quán)利很難通過(guò)列舉式的方式規(guī)定,所以采取法律保留不失為一種巧妙的制度設(shè)計(jì)。一是政治權(quán)利的保留,對(duì)政治權(quán)力的適用范圍進(jìn)行限定,以避免人工智能可能帶來(lái)的政治危機(jī)。二是緊急避險(xiǎn)權(quán)的法律保留,在人身權(quán)益受到侵犯的危急時(shí)刻,優(yōu)先保障人類的健康安全。三是自我復(fù)制的法律保留,人工智能機(jī)器人應(yīng)按照設(shè)計(jì)的目的和工作程序進(jìn)行活動(dòng),以防止產(chǎn)生人類不可控的危險(xiǎn)。在對(duì)人工智能權(quán)利進(jìn)行研究的過(guò)程中,既要考慮經(jīng)濟(jì)社會(huì)發(fā)展的需要,認(rèn)可人工智能的法律權(quán)利,同時(shí)也要立足于人類長(zhǎng)遠(yuǎn)發(fā)展的高度,認(rèn)識(shí)到權(quán)利擴(kuò)張的可能,預(yù)防可能發(fā)生的風(fēng)險(xiǎn)。賦予權(quán)利與限制權(quán)利本身并不沖突,這不僅有利于構(gòu)建完善的人工智能的制度設(shè)計(jì),也有利于為其長(zhǎng)遠(yuǎn)的發(fā)展奠定穩(wěn)固基石。
在人工智能的發(fā)展過(guò)程中,面對(duì)算法決策的歧視、數(shù)據(jù)的隱私保護(hù)、算法不良競(jìng)爭(zhēng)與濫用等短期問(wèn)題,還有引發(fā)失業(yè)潮、著作權(quán)認(rèn)定困難,甚至導(dǎo)致社會(huì)結(jié)構(gòu)不穩(wěn)定等長(zhǎng)遠(yuǎn)問(wèn)題,應(yīng)予以足夠的重視?!缎乱淮斯ぶ悄軅惱硪?guī)范》提出了包含增進(jìn)人類福祉、保護(hù)隱私安全、提升倫理素養(yǎng)等6 項(xiàng)基本倫理要求,其中特別將倫理規(guī)范提升到了新的戰(zhàn)略高度。因此,在人工智能發(fā)展的全過(guò)程中應(yīng)貫徹倫理道德規(guī)范,強(qiáng)調(diào)技術(shù)發(fā)展與社會(huì)進(jìn)步的深度融合,強(qiáng)調(diào)責(zé)任意識(shí)和規(guī)范意識(shí)。
4.3.1 強(qiáng)化人工智能研發(fā)規(guī)范
從倫理規(guī)范的角度,首先應(yīng)強(qiáng)調(diào)人工智能技術(shù)開(kāi)發(fā)生產(chǎn)人員的道德倫理素養(yǎng),考察研發(fā)的合法性與目的正當(dāng)性。愛(ài)因斯坦認(rèn)為,“在我們這個(gè)時(shí)代,科學(xué)家和工程師擔(dān)負(fù)著特別沉重的道義責(zé)任,因?yàn)榘l(fā)展大規(guī)模破壞性的戰(zhàn)爭(zhēng)手段有賴于他們的工作和活動(dòng)[6]?!币虼耍瑧?yīng)對(duì)人工智能研發(fā)相關(guān)活動(dòng)的主體加強(qiáng)約束,提高人工智能開(kāi)源性研究的倫理要求,主動(dòng)將人工智能倫理道德融入技術(shù)研發(fā)各環(huán)節(jié),開(kāi)展審查管理,嚴(yán)格警惕可能存在的違背倫理道德的人工智能研發(fā)。立法者應(yīng)突出責(zé)任原則的重要地位,處理好技術(shù)創(chuàng)造者與技術(shù)本身之間的責(zé)任關(guān)系。一是在算法的開(kāi)發(fā)、實(shí)現(xiàn)、應(yīng)用的全過(guò)程,提升人工智能的透明性、可解釋性、可預(yù)測(cè)性、可驗(yàn)證性[7]。二是建立全面的責(zé)任制度,實(shí)現(xiàn)權(quán)責(zé)明晰。例如在人工智能的應(yīng)用過(guò)程中保留相關(guān)的數(shù)據(jù)算法、運(yùn)算模型的準(zhǔn)確數(shù)據(jù)信息,以便在歸責(zé)過(guò)程中能夠查明相關(guān)的證據(jù),幫助進(jìn)行事實(shí)認(rèn)定。
4.3.2 注重人工智能供應(yīng)規(guī)范
在數(shù)據(jù)和算法為核心的智能時(shí)代,人們對(duì)隱私、私欲數(shù)據(jù)的保護(hù)尤為重視,前有“大數(shù)據(jù)殺熟”,后有智能決策的算法歧視,個(gè)體信息從私密走向公開(kāi),信息共享、智能互聯(lián)和隱私保護(hù)之間可能出現(xiàn)失衡。人工智能的供應(yīng),不僅要兼顧智慧生活產(chǎn)品的互聯(lián)互通,更要保障用戶的使用權(quán)益?!鞍⑽髀羼R人工智能原則”也將保護(hù)隱私作為其倡導(dǎo)的原則之一,應(yīng)堅(jiān)持個(gè)性化產(chǎn)品與尊重用戶的個(gè)人隱私相結(jié)合,允許人工智能產(chǎn)品的使用者訪問(wèn)他們自己的個(gè)人數(shù)據(jù),明確算法可能使用到的各種信息,做好公共信息和隱私信息使用的范圍界定,以便用戶對(duì)個(gè)人數(shù)據(jù)的使用有著良好的預(yù)知。
人工智能法律地位界定不清一直是各界共同關(guān)注的問(wèn)題。針對(duì)人工智能法律人格賦予的矛盾糾紛,歸納評(píng)價(jià)了當(dāng)前國(guó)內(nèi)外主流的學(xué)術(shù)觀點(diǎn)。在學(xué)理性研究的基礎(chǔ)上,做出必要性和可行性分析,從價(jià)值實(shí)現(xiàn)的需要、風(fēng)險(xiǎn)管控機(jī)制的健全到著作權(quán)歸屬的認(rèn)定等方面,多維度論述了確立人工智能法律主體地位的意義。從立法層面著手,進(jìn)行人格賦予的構(gòu)想,注重防范應(yīng)用過(guò)程中的風(fēng)險(xiǎn),致力于通過(guò)運(yùn)行維護(hù)等一系列措施規(guī)范人工智能的技術(shù)應(yīng)用。未來(lái),應(yīng)積極順應(yīng)人工智能時(shí)代的新發(fā)展,用行之有效的方法應(yīng)對(duì)人工智能因法律地位不明而引發(fā)的各種沖突,促進(jìn)人工智能與人類共同進(jìn)步,做到以“智”促發(fā)展,惠及全人類。