潘 志 玉
(山東政法學(xué)院 民商法學(xué)院,濟(jì)南 250014)
在新一代信息技術(shù)革命浪潮的推動(dòng)下,人工智能應(yīng)用越來越廣泛,尤其在以大數(shù)據(jù)和深度神經(jīng)網(wǎng)絡(luò)為代表的前沿領(lǐng)域取得了重大創(chuàng)新與突破。人工智能實(shí)際就是創(chuàng)造開發(fā)出能夠最大程度模擬甚或超出人類大腦智力的一套原理、技術(shù)、方法及應(yīng)用系統(tǒng),其最終目標(biāo)是讓智能機(jī)器進(jìn)行各種類人化操作[1]。當(dāng)前,人工智能已成為新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量。特別值得一提的是,作為年度熱詞的“元宇宙”開始走上了社會(huì)產(chǎn)業(yè)發(fā)展舞臺(tái),(1)“元宇宙”實(shí)際就是人們借助VR技術(shù)如身臨其境一般進(jìn)入虛擬的數(shù)字世界,簡(jiǎn)言之,即是3D版的網(wǎng)絡(luò)世界。2022年1月12日騰訊新聞聯(lián)合復(fù)旦大學(xué)新聞學(xué)院傳播系發(fā)布的《2021元宇宙年度報(bào)告》預(yù)測(cè),在未來幾年,元宇宙的核心維度將越來越強(qiáng),包括算力、響應(yīng)力、逼真性、沉浸性、互動(dòng)性、 用戶自主性、數(shù)字財(cái)產(chǎn)保護(hù)、數(shù)字貨幣支付等,在制造業(yè)、城市規(guī)劃、零售業(yè)、教育、醫(yī)療、娛樂和社交等方面的應(yīng)用也將越來越多。在元宇宙的世界里,人工智能也將出演重要角色,為元宇宙賦予智能的“大腦”以及創(chuàng)新的內(nèi)容。在人工智能快速應(yīng)用、快速發(fā)展的同時(shí),它也給我們帶來了諸多的風(fēng)險(xiǎn)和挑戰(zhàn),有必要從倫理哲學(xué)角度深入認(rèn)識(shí)人工智能的法律人格,從而推進(jìn)人工智能治理的法治化進(jìn)程。
近年來,伴隨人工智能的廣泛應(yīng)用,學(xué)界開始重視并持續(xù)審視人工智能技術(shù)與人的關(guān)系,對(duì)人工智能進(jìn)行倫理反思。這一反思首先要探討的就是人機(jī)關(guān)系的定位問題,即人機(jī)關(guān)系屬于一種平等的人際關(guān)系,還是人類主宰機(jī)器的主客體關(guān)系?根據(jù)馬克思主義物質(zhì)和意識(shí)的辯證關(guān)系理論,人工智能在本質(zhì)上是由人類創(chuàng)造的,是人們?cè)谡J(rèn)識(shí)和改造世界過程中通過實(shí)踐活動(dòng)所創(chuàng)造的一種工具。人工智能的生成原理是模仿人的思維及人腦的作用進(jìn)而設(shè)計(jì)相應(yīng)的算法運(yùn)作,人工智能仍然是人的意識(shí)的反映,是人腦的智慧創(chuàng)造的結(jié)果。人類創(chuàng)造智能產(chǎn)品的目的是使其更好地為人類服務(wù),而一旦人工智能產(chǎn)品通過高端科技形成類人化意識(shí),存在控制人類或加害于人類的現(xiàn)實(shí)可能性時(shí),人機(jī)關(guān)系就可能產(chǎn)生倒置錯(cuò)位[2]。因此,在人工智能的發(fā)展和應(yīng)用過程中,人工智能產(chǎn)品只應(yīng)該作為服務(wù)于人類的客體而存在,人機(jī)關(guān)系應(yīng)當(dāng)是目的與手段、利用和被利用的關(guān)系,唯有如此,才能推動(dòng)人工智能的研發(fā)運(yùn)行于正確的軌道,才能保證人的道德主體地位。從法律的角度來看待人機(jī)關(guān)系的定位問題,首先要厘清的就是人工智能的法律人格問題。
所謂法律人格,是指由國(guó)家法律所認(rèn)可的一種享受權(quán)利、承擔(dān)義務(wù)的資格,具體分為自然人主體人格和法律擬制主體人格。隨著人工智能技術(shù)的進(jìn)步和變革,其自身的功能及應(yīng)用在現(xiàn)實(shí)生活中與許多法律問題相互交織,因此,規(guī)范人工智能的法律人格具有重要意義。對(duì)于是否承認(rèn)人工智能享有法律主體資格,目前學(xué)界主要存在否定說、代理說、電子人格說、有限人格說、新主體說等多種界定,其中否認(rèn)說為主流觀點(diǎn)。否認(rèn)說認(rèn)為,具備法律上的人格或者成為擬制法律人,需同時(shí)具備生理學(xué)、心理學(xué)和社會(huì)學(xué)等要素。人工智能產(chǎn)品(如智能機(jī)器人)盡管有一定的意思能力,甚至能夠擔(dān)當(dāng)一定的職業(yè)任務(wù),但其仍然屬于物的范疇,不能成為民事主體,其能擁有的僅僅是經(jīng)由人類制造的無限靠近自然人意思能力或水平的民事法律地位。如果人工智能產(chǎn)品給社會(huì)帶來安全隱患或風(fēng)險(xiǎn),再或者給他人的人身或財(cái)產(chǎn)造成實(shí)際損害,應(yīng)當(dāng)適用民法上的產(chǎn)品責(zé)任規(guī)范[3]。
然而,對(duì)于人工智能究竟能發(fā)展到何種程度,是否永遠(yuǎn)不能擁有法律人格,現(xiàn)下定論還為時(shí)尚早。根據(jù)人工智能的發(fā)展,大體可以將其劃分為弱人工智能、強(qiáng)人工智能和超人工智能三個(gè)階段。目前的人工智能的發(fā)展尚處于弱人工智能階段,也即這些智能機(jī)器沒有自主意思,不會(huì)真正地推理和解決問題,其能夠從事的工作領(lǐng)域依然很有限。而強(qiáng)人工智能機(jī)器不僅是一種工具,還具有知覺、思維或自我意識(shí),有真正推理和解決問題的能力,其智慧程度相當(dāng)于人類大腦,可以基本完成人類的全部工作。(2)強(qiáng)人工智能階段機(jī)器的智力已經(jīng)與人類相當(dāng),但科學(xué)家還沒有真正掌握這種技術(shù)。而美國(guó)谷歌公司開發(fā)的人工智能程序“阿爾法圍棋”已經(jīng)邁出了堅(jiān)實(shí)的一步?,F(xiàn)在還有一種智能的數(shù)據(jù)分析平臺(tái),可以根據(jù)輸入的信息給出投資建議。超人工智能則在綜合智慧力、聰明度、算法、認(rèn)知、創(chuàng)意、思維、通識(shí)、社交等幾乎所有領(lǐng)域都能趕超人類大腦的智能階段。(3)超人工智能將打破人腦受到的維度限制,其所觀察和思考的內(nèi)容,人腦已經(jīng)無法理解,人工智能將形成一個(gè)全新的社會(huì)。我們應(yīng)該根據(jù)人工智能發(fā)展的不同階段,對(duì)人工智能的法律人格作出不同的認(rèn)定。在弱人工智能時(shí)期,人工智能產(chǎn)品猶如民法上的“物”,與其所有權(quán)人具有一定的依附關(guān)系,此時(shí)無需相關(guān)法律來判定它的人格地位。而在強(qiáng)人工智能甚至超人工智能階段,就需要對(duì)人工智能的法律人格給予重新審視和考量,因?yàn)榉穸ㄕf無法完全解決無人駕駛、智能醫(yī)療等領(lǐng)域引發(fā)的侵權(quán)問題。(4)無人機(jī)駕駛、人工智能醫(yī)療事故等侵權(quán)案件涉及的責(zé)任主體較為復(fù)雜,不能把事故產(chǎn)生后的責(zé)任完全推給生產(chǎn)者或者設(shè)計(jì)者,單靠產(chǎn)品責(zé)任規(guī)范力有不逮。另外,人工智能之所以不被認(rèn)為具有獨(dú)立法律人格地位,還因?yàn)槠湟馑急硎灸芰κ芟蕖5?,從我?guó)民法典的最新立法精神來看,母體懷孕期間的胎兒可以享有一定的民事權(quán)利、具有一定的民事權(quán)利能力,那么,由此可以看出,試圖通過無意思表示能力來限制人工智能的法律主體資格也不具有完全的說服力。
所以,承認(rèn)人工智能的法律人格,在強(qiáng)人工智能和超人工智能時(shí)代具有重要意義??梢灶A(yù)見,隨著人工智能技術(shù)的不斷進(jìn)步,人們對(duì)于人工智能在法律體系中的主體資格會(huì)有認(rèn)知上的轉(zhuǎn)變,即由從法律關(guān)系的客體到法律關(guān)系的主體的轉(zhuǎn)變。雖然當(dāng)前人工智能還處于弱人工智能階段,但是十分有必要未雨綢繆探討超強(qiáng)人工智能的法律人格問題。以下四種學(xué)說雖然還很不完善,但對(duì)于解決未來人工智能的法律人格問題具有一定的借鑒價(jià)值。
該學(xué)說認(rèn)為,伴隨發(fā)展,人工智能將來會(huì)具有一定的獨(dú)立意識(shí)和思考能力,能夠獨(dú)立進(jìn)入法律關(guān)系之中作為新的主體而存在,故可以將人工智能作為一種新的主體賦予其法律人格。法人和非法人組織也是隨著立法的進(jìn)步與完善在自然人之后逐漸成為法律關(guān)系的擬制主體的。而且人工智能的發(fā)展目的是為人類服務(wù),所以認(rèn)可人工智能的法律人格地位不僅可以保障既存民事主體的合法權(quán)益,也可防止出現(xiàn)因人工智能的民事法律地位不明而給既存民事主體帶來?yè)p失的情況[4]。當(dāng)然,該學(xué)說也注意到,法人、非法人組織仍然是由人組成的,通過內(nèi)部的決議機(jī)構(gòu)形成決策意見進(jìn)而對(duì)外部作出意思表示,本質(zhì)上還是人的組織,體現(xiàn)的是人的意志;而人工智能作為一種物出現(xiàn),作為法律關(guān)系主體得到確立,既是對(duì)立法技術(shù)提出更高的要求,也是對(duì)立法成本的提高。
該學(xué)說主張,人工智能應(yīng)被認(rèn)定為其所有人或使用人的代理人,按照代理法律關(guān)系處理相關(guān)爭(zhēng)議,即人工智能產(chǎn)品對(duì)外實(shí)施的侵害“行為”,最終由其被代理人承擔(dān)所有法律后果。該學(xué)說也具有一定的局限性,因?yàn)榇淼倪m用前提是代理人必須具有完全民事行為能力,且無法適用于事實(shí)行為,那么對(duì)于人工智能自身運(yùn)行中所產(chǎn)生的對(duì)外致害如何擔(dān)責(zé),又是難以自圓其說的。
該學(xué)說主張賦予人工智能以一定的“電子人”身份人格,可以在相應(yīng)的領(lǐng)域內(nèi)參與一定的法律關(guān)系。該學(xué)說主要針對(duì)的是解決由人工智能產(chǎn)生的損害賠償問題?!稓W洲機(jī)器人民事法律規(guī)則》旨在通過賦予人工智能以民事主體資格,以便對(duì)其產(chǎn)生的損害賠償?shù)葐栴}進(jìn)行歸責(zé)。應(yīng)當(dāng)說,“在對(duì)人工智能進(jìn)行科學(xué)分類后,對(duì)強(qiáng)人工智能賦予法律主體地位具有一定科學(xué)性,但需要在實(shí)際操作中施加一定限制;同樣,在分析了智能機(jī)器人的認(rèn)知與行為理性后,也有必要在刑事責(zé)任層面確認(rèn)其主體地位與法律人格?!盵5]適用該學(xué)說似乎也有一個(gè)預(yù)想前提,即未來的人工智能應(yīng)當(dāng)具有獨(dú)立財(cái)產(chǎn),否則損害賠償仍然無法實(shí)現(xiàn)。
該學(xué)說考慮到人工智能無論智能到何種程度,本質(zhì)上畢竟不同于人,其與自然人主體在意識(shí)、思維、行動(dòng)、情感、認(rèn)知等方面存在質(zhì)的區(qū)別,故只是附條件且有限地承認(rèn)其法律人格,承認(rèn)人工智能有限的法律主體地位。該學(xué)說嘗試借鑒法人和非法人組織的法律擬制規(guī)則,并結(jié)合登記備案制度來健全人工智能體的責(zé)任體制[6]。
人工智能的快速發(fā)展和應(yīng)用將不可避免地給社會(huì)帶來更多的倫理風(fēng)險(xiǎn)和挑戰(zhàn),(5)人工智能倫理風(fēng)險(xiǎn)源于技術(shù)—人—社會(huì)—自然之間的復(fù)雜交互,主要包括技術(shù)倫理風(fēng)險(xiǎn)、社會(huì)倫理風(fēng)險(xiǎn)和人類生存?zhèn)惱盹L(fēng)險(xiǎn)等,另包含技術(shù)內(nèi)生型倫理風(fēng)險(xiǎn)和技術(shù)應(yīng)用型倫理風(fēng)險(xiǎn)兩大生成路徑。這些挑戰(zhàn)和風(fēng)險(xiǎn)應(yīng)該引起我們的警醒和重視。人類對(duì)人工智能所秉持的倫理原則和價(jià)值觀將直接影響其發(fā)展路徑和方向,也決定著構(gòu)建何種人機(jī)關(guān)系。如果我們能對(duì)人工智能技術(shù)加以科學(xué)利用、合理管控,并始終堅(jiān)持維護(hù)人類命運(yùn)共同體利益的最高倫理規(guī)范,人們就可以充分享受人工智能技術(shù)帶來的便利和利益,人類生活將變得更加舒適美好。
人與人工智能的關(guān)系及人類的主體地位,是人工智能發(fā)展過程要探討的首要問題。從目前的發(fā)展來看,人工智能只是我們創(chuàng)造出來的產(chǎn)品,處于弱人工智能階段,仍然是民法上的“物”的范疇,人類對(duì)于其享有物權(quán)或者說是知識(shí)產(chǎn)權(quán)。但是,放眼不遠(yuǎn)的未來,人工智能很可能具有類似人類的思維活動(dòng)以及情感體系,能通過自己的內(nèi)部程序表達(dá)出自己的“意志”,通過自己的“意思表示”與人類或者與其他人工智能進(jìn)行交流。這樣一來,就會(huì)脫離當(dāng)下與人的從屬關(guān)系,成為新的法律主體。那么,它們的發(fā)明能力、創(chuàng)造能力是否會(huì)超過我們?當(dāng)它們具有思維活動(dòng)和意思表達(dá)能力后,是否可以具有與人類一樣的法律主體資格?在法律上,它們的地位與我們是否處于同樣的位置?我們是否會(huì)被人工智能統(tǒng)治,主體地位遭到破壞呢?除此之外,人權(quán)是我們能夠獲得保障、主張權(quán)益的最基本權(quán)利。如果人工智能同樣享有婚姻、人格、名譽(yù)等權(quán)利,乃至與人組成家庭,這些都將是對(duì)人性倫理的巨大挑戰(zhàn)。(6)2017 年 10 月 26 日,一臺(tái)名叫 Sophia(索菲亞)的機(jī)器人被沙特阿拉伯授予國(guó)籍,自此索菲亞成為世界歷史上第一個(gè)具有公民身份的機(jī)器人。
技術(shù)進(jìn)步應(yīng)始終以人為中心,當(dāng)技術(shù)出錯(cuò)時(shí),一些關(guān)于倫理設(shè)計(jì)和政策的前瞻性思考可以幫助引導(dǎo)技術(shù)發(fā)展,從而使我們?nèi)祟惷馐芷浜?。在具體設(shè)計(jì)人為人工智能提前設(shè)置相應(yīng)程序時(shí),將會(huì)面對(duì)價(jià)值選擇與利益權(quán)衡的困難??v使我們賦予人工智能以正義、平等、效率、秩序等價(jià)值理念,執(zhí)行的效果也可能不盡如人意。比如,當(dāng)人工智能汽車行駛過程中遇到行人闖紅燈,它是遵循“交通信號(hào)燈”運(yùn)行規(guī)則還是停車避讓以保護(hù)行人的安全?再或者遇到“緊急避險(xiǎn)”情況,人工智能汽車無論如何都會(huì)撞上行人時(shí),它是否會(huì)選擇撞向少數(shù)人一邊?為實(shí)現(xiàn)正義、平等、效率、秩序等價(jià)值理念,人們一般會(huì)根據(jù)實(shí)際情況將原則性和靈活性相結(jié)合,進(jìn)而在行動(dòng)上作出一定的取舍,而且這要求遇到問題的人必須具有一定的思想高度才能實(shí)現(xiàn)這些價(jià)值觀的“最大公約數(shù)”。反觀人工智能,需要我們將這些價(jià)值的含義轉(zhuǎn)換成算法植入其系統(tǒng)內(nèi)部作為作出判斷的依據(jù),甚至算法在原有的道德規(guī)范嵌入基礎(chǔ)上,還要不斷學(xué)習(xí)新的道德規(guī)范,通過持續(xù)增強(qiáng)其道德能力水平,才能讓其在風(fēng)險(xiǎn)來臨之際作出更為合理的道德選擇[7]??傊屓斯ぶ悄茉陉P(guān)鍵時(shí)刻作出在道德價(jià)值判斷與倫理規(guī)范上的權(quán)衡和取舍,將是人工智能應(yīng)用中不可回避的倫理風(fēng)險(xiǎn)和挑戰(zhàn)。
人工智能技術(shù)的廣泛應(yīng)用離不開海量大數(shù)據(jù)的采集與精準(zhǔn)的算法設(shè)計(jì)。所以,人工智能技術(shù)一旦被濫用,也必將造成可怕的后果。隨著數(shù)字化技術(shù)的迅猛發(fā)展和進(jìn)步,算法推薦技術(shù)正將人們帶入個(gè)性化、定制化、智能化更強(qiáng)的信息傳播時(shí)代。在這個(gè)新的時(shí)代,我們每個(gè)人的喜好以及購(gòu)物、上網(wǎng)習(xí)慣都會(huì)被大數(shù)據(jù)精確地發(fā)現(xiàn)。據(jù)《中國(guó)大安全感知報(bào)告(2021)》顯示,有七成受訪者認(rèn)為算法能獲取自己的喜好、興趣,從而“算計(jì)”自己,近五成受訪者表示在算法束縛下想要逃離網(wǎng)絡(luò)、遠(yuǎn)離手機(jī)卻又很難。日常生活中,人們對(duì)于在線支付、圖像采集、生物識(shí)別、衛(wèi)星導(dǎo)航以及社交軟件等的運(yùn)用已經(jīng)習(xí)以為常,但商家、政府、網(wǎng)絡(luò)平臺(tái)等采集的這些數(shù)據(jù)是否能夠被合理利用、是否得到充分保護(hù),還沒有形成透明的機(jī)制,還沒有完善的程序和規(guī)制措施。因此,隱私及個(gè)人信息泄露仍然是人工智能技術(shù)發(fā)展應(yīng)用中亟待解決的關(guān)鍵問題。除此之外,人工智能若被濫用于非法集資、非法經(jīng)營(yíng)、竊取情報(bào)、泄露國(guó)家秘密等違法犯罪方面,也將會(huì)給個(gè)人合法權(quán)益以及國(guó)家利益、社會(huì)公共利益帶來重大損害。
近年來,伴隨著網(wǎng)絡(luò)技術(shù)的更新?lián)Q代,責(zé)任倫理逐漸步入學(xué)界視野、走入時(shí)代舞臺(tái)?!靶碌牡赖滤季S是責(zé)任倫理精神中最深層次的東西,責(zé)任倫理所具有的他者思維、復(fù)雜思維和境遇思維等特點(diǎn),使其能夠突破傳統(tǒng)道德思維的局限,有可能解決當(dāng)代人類社會(huì)所面臨的道德難題。”[8]人工智能應(yīng)用離不開算法,而算法設(shè)計(jì)也很可能會(huì)被濫用而引發(fā)糾紛,甚至在某些領(lǐng)域出現(xiàn)人類不能預(yù)見又不能克服的安全風(fēng)險(xiǎn)和隱患。那么,到底哪些主體應(yīng)該為這些不確定性的安全事故買單,是人工智能體本身還是研發(fā)者、設(shè)計(jì)者或應(yīng)用者,其所引發(fā)的責(zé)任歸屬問題一直困擾著人類,一時(shí)還沒有得到解決。(7)依據(jù)群體劃分,一方面是算法設(shè)計(jì)者、使用者應(yīng)當(dāng)擔(dān)負(fù)的重要責(zé)任,另一方面是人工智能體應(yīng)承擔(dān)的責(zé)任;依據(jù)主要環(huán)節(jié)劃分,責(zé)任歸屬則體現(xiàn)在人工智能設(shè)計(jì)階段的倫理責(zé)任嵌入和人工智能體的倫理責(zé)任監(jiān)管,即所謂的“前端嵌入”與“后端規(guī)約”。例如,無人駕駛汽車應(yīng)用后,誰應(yīng)為汽車事故負(fù)責(zé)?人工智能代替醫(yī)生進(jìn)行醫(yī)學(xué)診斷時(shí),如果出現(xiàn)診斷失誤,誰應(yīng)為這些醫(yī)療事故承擔(dān)責(zé)任?如果這些責(zé)任事先沒有明確劃分,那么當(dāng)人工智能在應(yīng)用中出現(xiàn)事故時(shí),就會(huì)出現(xiàn)責(zé)任主體缺失問題,研發(fā)者、設(shè)計(jì)者或應(yīng)用者各方相互推卸責(zé)任,不利于人工智能的進(jìn)一步應(yīng)用和社會(huì)的穩(wěn)定。安全責(zé)任主體多元復(fù)雜以及主體責(zé)任的缺失或不明,是新一代信息技術(shù)倫理困境的總源頭。盡管國(guó)家已經(jīng)制定了一些有關(guān)人工智能應(yīng)用的規(guī)范,但仍然缺少完備的、體系化的必要執(zhí)行機(jī)制。
人工智能的迅猛發(fā)展對(duì)于勞動(dòng)者具有多方面的威脅和挑戰(zhàn)。其一,人工智能具有對(duì)于簡(jiǎn)單、機(jī)械工作的高頻率重復(fù)特性,能夠在短時(shí)間內(nèi)完成人力所不及的生產(chǎn)數(shù)量,而且能夠忍受更為艱苦的工作條件和生活環(huán)境。與人力勞動(dòng)力相比,人工智能體具有低成本、高效率、普適性的優(yōu)勢(shì)。在市場(chǎng)經(jīng)濟(jì)高速發(fā)展的今日,用人單位為了獲取更多的利益,更青睞于選擇人工智能這一新興的“勞動(dòng)力”。由此,便出現(xiàn)人工智能取代普通勞動(dòng)力的情況,特別是一些從事簡(jiǎn)單生產(chǎn)勞動(dòng)的底層勞動(dòng)者將喪失勞動(dòng)機(jī)會(huì),從而引發(fā)嚴(yán)重的社會(huì)保障壓力,進(jìn)一步拉大貧富差距,影響社會(huì)和諧穩(wěn)定[9]。其二,人工智能作為一種技術(shù)、一種高級(jí)資源,在市場(chǎng)競(jìng)爭(zhēng)中,掌握了人工智能便是占據(jù)了資源的優(yōu)勢(shì),從而容易形成“馬太效應(yīng)”,即優(yōu)勢(shì)企業(yè)公司可以利用自身掌握的算法來識(shí)別、打擊弱勢(shì)企業(yè)進(jìn)而形成行業(yè)壟斷,造成強(qiáng)勢(shì)企業(yè)更強(qiáng)、弱勢(shì)企業(yè)更弱的局面[10]。由此,弱勢(shì)企業(yè)被強(qiáng)勢(shì)企業(yè)兼并,強(qiáng)勢(shì)企業(yè)取得壟斷地位,小企業(yè)的生存發(fā)展空間減少,勞動(dòng)者的就業(yè)機(jī)會(huì)也會(huì)大大減少,對(duì)社會(huì)保障也形成挑戰(zhàn)。其三,根據(jù)人工智能的“擬人性”,如若人工智能獲得相應(yīng)的法律人格,那么在人工智能參與勞動(dòng)就業(yè)時(shí),對(duì)其是否應(yīng)該堅(jiān)持民法的主體平等、意思自治原則,受到與自然人勞動(dòng)相同的保護(hù)呢?這也是人工智能快速發(fā)展應(yīng)該面對(duì)的問題。
人工智能技術(shù)具有突飛猛進(jìn)的發(fā)展和變革態(tài)勢(shì),將對(duì)我們所處社會(huì)的政治、經(jīng)濟(jì)、文化、教育等各個(gè)方面都帶來不可預(yù)估的影響。為了確保人類的主體地位,科技絕不能凌駕于倫理之上,面對(duì)在人工智能發(fā)展過程中產(chǎn)生的倫理風(fēng)險(xiǎn)和挑戰(zhàn),必須以法治思維和方式最大限度地加以管控,通過立法對(duì)人工智能技術(shù)發(fā)展的邊界作出限定,確保人工智能的安全、可控、健康發(fā)展。
新興的智慧社會(huì)催生了 “第四代人權(quán)”——“數(shù)字人權(quán)”,(8)數(shù)字人權(quán)是2020年7月全國(guó)科學(xué)技術(shù)名詞審定委員會(huì)批準(zhǔn)發(fā)布的大數(shù)據(jù)新詞,但實(shí)際上在2019年6月張文顯教授于“知識(shí)產(chǎn)權(quán)與相關(guān)權(quán)利的法理”學(xué)術(shù)研討會(huì)上即首次提出“數(shù)字人權(quán)”概念,引發(fā)學(xué)界熱議。也有學(xué)者認(rèn)為,“數(shù)字人權(quán)”既缺乏憲法的規(guī)范基礎(chǔ),也不符合“人的尊嚴(yán)”標(biāo)準(zhǔn)和“最低限度基礎(chǔ)性”標(biāo)準(zhǔn),無法被證立為憲法未列舉基本權(quán)利。其本質(zhì)是在數(shù)字經(jīng)濟(jì)和智慧社會(huì)發(fā)展中作為人而應(yīng)該享有的權(quán)利[11]。隨著互聯(lián)網(wǎng)、即時(shí)通訊、線上課堂、在線支付、云計(jì)算、智能機(jī)器人等成為人們?nèi)粘I畹闹匾M成部分,社會(huì)大眾對(duì)數(shù)字網(wǎng)絡(luò)形成慣性依賴。如果把人們對(duì)人工智能產(chǎn)品的利用作為其享受生活便利和舒適的一項(xiàng)權(quán)利看待,在此背景下普及數(shù)字人權(quán)理念就成為一種必然。為適應(yīng)新興數(shù)字時(shí)代的客觀發(fā)展要求,必須推動(dòng)從傳統(tǒng)物質(zhì)世界人權(quán)觀到新興數(shù)字世界人權(quán)觀的提級(jí)轉(zhuǎn)變。要發(fā)展數(shù)字人權(quán),首先在基本價(jià)值理念上要堅(jiān)持科技以人為本,貫徹以人民為中心的發(fā)展理念,人工智能技術(shù)的應(yīng)用不能背離人性,不能傷及人類尊嚴(yán)。其次,在制度上,要求我們的政府以及參與人工智能研發(fā)、設(shè)計(jì)的主體必須堅(jiān)持社會(huì)主義核心價(jià)值觀,切實(shí)承擔(dān)起尊重和保障人權(quán)的責(zé)任和義務(wù),讓科技遵循人文主義,符合倫理規(guī)范,并積極向廣大群眾普及法律知識(shí)、科學(xué)知識(shí)、智能技術(shù)的使用方法等內(nèi)容,不斷提高人民群眾的數(shù)字化應(yīng)用水平,從而填補(bǔ)、彌合社會(huì)公眾特別是弱勢(shì)群體面對(duì)高科技智能產(chǎn)品的“數(shù)字鴻溝”,真正讓人工智能技術(shù)始終掌握在人民手中并造福于民。
一些惡意軟件運(yùn)用算法偏差、算法黑箱、算法壟斷等進(jìn)行“大數(shù)據(jù)殺熟”“用戶畫像”和“算法推薦”,引發(fā)了公眾對(duì)算法推薦技術(shù)倫理風(fēng)險(xiǎn)問題的恐慌和憂慮。對(duì)于這一涉及個(gè)人信息自動(dòng)化決策的熱點(diǎn)問題,《個(gè)人信息保護(hù)法》給予了明確回應(yīng),即規(guī)定個(gè)人信息處理者應(yīng)當(dāng)確保決策的公開透明和結(jié)果的公平、公正,不得對(duì)個(gè)人在交易條件上實(shí)行不合理的歧視性差別待遇。2022年3月1日起生效施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,更是對(duì)于算法推薦服務(wù)作出了全面細(xì)致的規(guī)范,著重強(qiáng)化對(duì)算法相關(guān)數(shù)據(jù)、模型等進(jìn)行評(píng)估審查,細(xì)化用戶知情權(quán)、退出個(gè)性化推薦等權(quán)利內(nèi)容,明確了算法推薦服務(wù)提供者的信息服務(wù)規(guī)范和算法治理體系,合理構(gòu)建了網(wǎng)絡(luò)平臺(tái)問責(zé)機(jī)制,實(shí)行事前事中事后全流程、全鏈條政府監(jiān)管。然而,畢竟該管理規(guī)定在形式上屬于部門規(guī)章,強(qiáng)制效力較低,內(nèi)容上條文數(shù)量不多,還有繼續(xù)完善的空間。比如在責(zé)任主體方面,該管理規(guī)定只限定了算法推薦服務(wù)提供者這一單個(gè)主體,而對(duì)于算法推薦技術(shù)運(yùn)行、管理時(shí)的其他參與主體以及政府監(jiān)管部門的責(zé)任承擔(dān)卻有疏漏。另外,算法推薦也會(huì)參考流量收益、用戶喜好、用戶人群量等方面進(jìn)行計(jì)算與運(yùn)行,對(duì)于具體的算法推薦的“濫用”“排除限制競(jìng)爭(zhēng)”等方面,還需要拿出可以量化的具體標(biāo)準(zhǔn)來進(jìn)行規(guī)制??傊?,要實(shí)現(xiàn)對(duì)算法倫理審查和治理的制度化、標(biāo)準(zhǔn)化、規(guī)范化、法治化,要建立健全人工智能倫理安全風(fēng)險(xiǎn)評(píng)估、算法審計(jì)及認(rèn)證、大數(shù)據(jù)缺陷檢測(cè)、人工智能技術(shù)監(jiān)管、備案管理等配套制度體系[12],促成全社會(huì)形成“法網(wǎng)大于互聯(lián)網(wǎng)”“國(guó)法高于算法”“算法不能算計(jì)”的集體共識(shí)和行動(dòng),真正形成政府監(jiān)管、企業(yè)履責(zé)、行業(yè)自律、網(wǎng)民維權(quán)、社會(huì)監(jiān)督的多元共治體系。(9)2022年2月28日,中國(guó)互聯(lián)網(wǎng)協(xié)會(huì)法工委副秘書長(zhǎng)胡鋼在接受《新民晚報(bào)》記者采訪時(shí)表示:“我們要行正算、懲濫算、倡公算、促同算、致上善。算法歧視、大數(shù)據(jù)殺熟、誘導(dǎo)沉迷等算法濫用因踐踏權(quán)利、壓榨利益而成為普通網(wǎng)眾的心頭之恨,而‘算法邪惡’甚至成為扭曲真相、撕裂社會(huì)、禍亂宇內(nèi)的罪惡之源,必須嚴(yán)懲不貸?!?/p>
如前文所述,在人工智能技術(shù)應(yīng)用過程中不可避免地存在海量個(gè)人信息的收集、存儲(chǔ)、使用、加工、傳輸、提供、公開、刪除等現(xiàn)象,生物識(shí)別技術(shù)實(shí)施過程中也將采集大量公民的個(gè)人圖像、身份識(shí)別等敏感信息甚或隱私信息。這些信息一旦被泄露或者非法使用,很容易導(dǎo)致公民的人格尊嚴(yán)受到侵害或者人身、財(cái)產(chǎn)安全受到危害。(10)《個(gè)人信息保護(hù)法》第28條規(guī)定,敏感個(gè)人信息包括生物識(shí)別、宗教信仰、特定身份、醫(yī)療健康、金融賬戶、行蹤軌跡等信息,以及不滿十四周歲未成年人的個(gè)人信息。從法律規(guī)制方面看,隨著《網(wǎng)絡(luò)安全法》《民法典》《個(gè)人信息保護(hù)法》以及《數(shù)據(jù)安全法》的陸續(xù)出臺(tái),基本實(shí)現(xiàn)了對(duì)公民個(gè)人信息權(quán)和隱私權(quán)的保護(hù),也填補(bǔ)了人工智能技術(shù)應(yīng)用對(duì)個(gè)人信息權(quán)侵害的立法空白,一定程度上為個(gè)人信息保護(hù)提供了較為安全可信的客觀預(yù)期。然而不可否認(rèn),立法具有一定的滯后性,現(xiàn)有立法步伐永遠(yuǎn)跟不上人工智能技術(shù)跨越式發(fā)展的腳步,隨著人工智能技術(shù)的不斷推陳出新,現(xiàn)有立法必然要不斷修補(bǔ)完善。當(dāng)前我國(guó)互聯(lián)網(wǎng)領(lǐng)域?qū)iT立法較多,相關(guān)規(guī)定較為零散,還沒有形成體系,尤其對(duì)各類技術(shù)主體的法律責(zé)任的規(guī)定,基本都是重事后懲處、輕事前預(yù)防。未來立法應(yīng)在阻卻人工智能對(duì)個(gè)人信息權(quán)侵害上適度引入侵權(quán)懲罰性賠償和保護(hù)獎(jiǎng)勵(lì)制度,建立健全統(tǒng)一的多元化侵權(quán)責(zé)任體系。
從倫理學(xué)角度來看,道德與法律同屬于上層建筑,它們所體現(xiàn)的價(jià)值目標(biāo)是一致的,又都是實(shí)現(xiàn)社會(huì)倫理精神的重要手段或工具。道德是內(nèi)心的法律,更是法律的最高追求;法律是成文的道德,也是最低限度的道德;法律以道德為基石,道德以法律為保障。因此,在信息技術(shù)迅猛發(fā)展以及全面依法治國(guó)的時(shí)代背景下,建立完備的人工智能法律制度刻不容緩。2018 年1月,中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(2018 版)》,針對(duì)人工智能倫理提出了人類利益和責(zé)任兩大基本原則;2019年6 月,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,進(jìn)一步明確了為確保人工智能安全可靠可控,共建人類命運(yùn)共同體,人工智能發(fā)展相關(guān)各方應(yīng)遵循的八項(xiàng)原則;(11)八項(xiàng)原則包括和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理。同年9月25日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)又發(fā)布了《新一代人工智能倫理規(guī)范》,旨在使倫理道德規(guī)范融入人工智能研發(fā)、管理、供應(yīng)、使用等環(huán)節(jié)的全生命周期,并充分考慮當(dāng)前社會(huì)各界有關(guān)隱私、偏見、歧視、公平等倫理關(guān)切,對(duì)從事人工智能相關(guān)活動(dòng)的各方主體提出了六項(xiàng)基本倫理要求和四方面特定倫理規(guī)范。從這一系列規(guī)范文件的出臺(tái)可以看出,國(guó)家非常重視倫理入法,正努力通過倫理規(guī)范來引導(dǎo)人工智能技術(shù)穩(wěn)步健康發(fā)展。當(dāng)然,這離人工智能法治化目標(biāo)還相差甚遠(yuǎn),因?yàn)檫@些文件層級(jí)較低,至多算是行業(yè)內(nèi)的自律性規(guī)范,沒有強(qiáng)制約束力。建議國(guó)家立法機(jī)構(gòu)組織人工智能技術(shù)、倫理、法律等相關(guān)方面專家學(xué)者盡早啟動(dòng)人工智能治理的專項(xiàng)立法工作。立法源于實(shí)踐,又要指導(dǎo)實(shí)踐。鑒于“法不溯及既往”原則,事前的行為不能用事后制定出來的法律進(jìn)行調(diào)整和規(guī)制,這容易讓那些違背人工智能技術(shù)安全應(yīng)用標(biāo)準(zhǔn)的不法分子鉆法律空子,進(jìn)而進(jìn)一步增大危害性。相比于發(fā)現(xiàn)問題之后的“亡羊補(bǔ)牢”,問題產(chǎn)生之前的“未雨綢繆”應(yīng)該受到重視。我國(guó)應(yīng)該盡快開展對(duì)人工智能應(yīng)用的立法,明文規(guī)定人工智能技術(shù)研究和應(yīng)用的領(lǐng)域、應(yīng)當(dāng)遵循的倫理原則,明確規(guī)范人工智能技術(shù)的倫理要求、安全標(biāo)準(zhǔn)、監(jiān)管機(jī)制,界定人工智能研究開發(fā)、設(shè)計(jì)、制造、生產(chǎn)、銷售、使用、管理等各方參與主體的權(quán)利、義務(wù)以及侵權(quán)責(zé)任的歸責(zé)原則、責(zé)任主體、責(zé)任承擔(dān)方式等。正像Uber無人駕駛汽車導(dǎo)致?lián)p害一案,立法設(shè)計(jì)要按照人工智能的有限人格進(jìn)行責(zé)任承擔(dān)與追責(zé),同時(shí)也要根據(jù)具體情況追究其設(shè)計(jì)、開發(fā)、制造、使用等環(huán)節(jié)的人類主體責(zé)任,避免某單一主體的責(zé)任風(fēng)險(xiǎn)成本過高[13]??傊?,要增強(qiáng)立法前瞻性,著重加強(qiáng)無人駕駛、智慧傳媒、智慧醫(yī)療、智能教育、智能家居、智慧風(fēng)控等人工智能領(lǐng)域的立法,逐步建立起一整套規(guī)范人工智能應(yīng)用的法律體系。