李立豐 王俊松
2015 年,德國(guó)大眾汽車公司員工在調(diào)試機(jī)器人時(shí),被機(jī)器人摔至金屬板慘遭碾壓身亡,這就是震驚當(dāng)時(shí)的“機(jī)器人殺人事件”。無(wú)獨(dú)有偶,Google 在測(cè)試其無(wú)人駕駛技術(shù)時(shí),因?qū)Ш焦收弦l(fā)交通事故,所幸無(wú)人傷亡。類似的高度智能化應(yīng)用情形還有,Alpha Go 擊敗韓國(guó)圍棋手李世石、國(guó)際象棋棋王卡斯帕羅夫和計(jì)算機(jī)之間的“深藍(lán)”對(duì)決等。人工智能技術(shù)的飛速發(fā)展以及高度智能的場(chǎng)景化應(yīng)用模式的建立引發(fā)了一系列關(guān)于人工智能主體性地位的思考,涉及的學(xué)科有哲學(xué)、法學(xué)等。比如,在人工智能主體性這一問(wèn)題上,刑法學(xué)界有學(xué)者主張,鑒于人工智能技術(shù)如此突飛猛進(jìn),人類勢(shì)必要進(jìn)入到一個(gè)強(qiáng)人工智能時(shí)代,在這個(gè)時(shí)代,機(jī)器人將會(huì)產(chǎn)生獨(dú)立的思考能力、意識(shí)以及控制能力,因此學(xué)者建議將其規(guī)定為刑法上的主體。①參見(jiàn)劉憲權(quán)、朱彥:《人工智能時(shí)代對(duì)傳統(tǒng)刑法理論的挑戰(zhàn)》,載《上海政法學(xué)院學(xué)報(bào)(法治論叢)》2018 年第2 期。也有學(xué)者認(rèn)為,人工智能機(jī)器人就是人類社會(huì)生產(chǎn)的一種輔助工具,并不具備人的要素和屬性,因此,刑法大可不必將人工智能體視為責(zé)任主體。②參見(jiàn)時(shí)方:《人工智能刑事主體地位之否定》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2018 年第6 期。上述分歧體現(xiàn)出人工智能時(shí)代的到來(lái)已經(jīng)在法律規(guī)范層面上帶來(lái)了爭(zhēng)議,尤其是刑法規(guī)范是否應(yīng)當(dāng)對(duì)這一現(xiàn)象做出反應(yīng)。因此,本文擬從人工智能的技術(shù)本質(zhì)入手,進(jìn)而對(duì)人工智能進(jìn)入刑法體系產(chǎn)生的障礙做出分析,并進(jìn)一步指出這種以人工智能技術(shù)為張貼對(duì)象的風(fēng)險(xiǎn)社會(huì)理論的虛偽性,最終以人工智能的技術(shù)本質(zhì)為刑法定位的落腳點(diǎn)。
人工智能時(shí)代的到來(lái)符合技術(shù)發(fā)展的客觀規(guī)律,先進(jìn)科學(xué)技術(shù)的進(jìn)步與應(yīng)用必然會(huì)在社會(huì)層面引起廣泛的關(guān)注和探討,而且,社會(huì)層面的波動(dòng)也會(huì)引發(fā)法律規(guī)范層面上的聯(lián)動(dòng)反應(yīng)。不過(guò),人工智能技術(shù)有無(wú)在刑法規(guī)范層面探討的必要性,這要取決于對(duì)人工智能本質(zhì)的探討。刑法應(yīng)從實(shí)質(zhì)上了解人工智能背后的運(yùn)作原理,在事實(shí)層面明確人工智能的運(yùn)行本質(zhì),而后再進(jìn)入到刑法規(guī)范的話語(yǔ)體系中進(jìn)行探討,唯有此才可以全面刺破人工智能時(shí)代的面紗。
從宏觀的人工智能技術(shù)定位來(lái)看,人工智能總體上即是以科學(xué)技術(shù)為體現(xiàn)的一門(mén)技術(shù)學(xué)科。人工智能(Artificial Intelligence,簡(jiǎn)稱AI)是計(jì)算機(jī)學(xué)科的一個(gè)分支,其與空間技術(shù)和能源技術(shù)并稱為20 世紀(jì)70 年代以來(lái)的世界三大尖端技術(shù),從字面意思來(lái)看Artificial Intelligence 指的是智能的人工制品,而且,P.Winston 早在1978 年就對(duì)人工智能做出了如下評(píng)價(jià):人工智能本質(zhì)上是為了幫助人們變得更加智能的一項(xiàng)技術(shù),其不僅是局限在使計(jì)算機(jī)模擬智能的研究上。③參見(jiàn)朱福喜:《人工智能(第三版)》,清華大學(xué)出版社2017 年版,第2 頁(yè)。除此之外,也有學(xué)者指出人工智能其實(shí)就是一門(mén)技術(shù)科學(xué),其主要是用來(lái)模擬、延伸以及擴(kuò)展人類智能,因此,人工智能本質(zhì)上是計(jì)算機(jī)科學(xué)的一個(gè)分支,即其屬于計(jì)算機(jī)技術(shù)的前沿領(lǐng)域。④參見(jiàn)劉海濱:《人工智能及其演化》,科學(xué)出版社2016 年版,第1 頁(yè)。并且,人工智能作為一門(mén)跨技術(shù)領(lǐng)域眾多的學(xué)科,其研究都是結(jié)合具體領(lǐng)域,諸如問(wèn)題求解、自然語(yǔ)言處理、人工神經(jīng)網(wǎng)絡(luò)、遺傳算法、專家系統(tǒng)、知識(shí)工程、人工生命、深度學(xué)習(xí)以及智能控制等。⑤同上注,第5-8 頁(yè)。這些領(lǐng)域綜合起來(lái)所設(shè)計(jì)出的智能系統(tǒng)便是AI 系統(tǒng)。這些系統(tǒng)都是高度智能化的系統(tǒng),當(dāng)它們組合到一起的時(shí)候,這種計(jì)算機(jī)程序就體現(xiàn)出了一定的“智能化”。這些系統(tǒng)主要包括問(wèn)題求解系統(tǒng)、自然語(yǔ)言理解和處理系統(tǒng)等大概12 種系統(tǒng)。⑥同前注③,第7-12 頁(yè)。A.Barr 和E.Feigenbum 指出人工智能作為一門(mén)學(xué)科,它屬于計(jì)算機(jī)科學(xué)的組成部分,它的主要任務(wù)就是設(shè)計(jì)智能化的系統(tǒng),而這一系統(tǒng)要與人類的行為相似;Elain Rich 認(rèn)為人工智能就是讓計(jì)算機(jī)去模擬人類大腦活動(dòng),用它解決一些只有專家才能夠處理的問(wèn)題,這些活動(dòng)主要包括推理、設(shè)計(jì)以及規(guī)劃等;Michael R.Genesereth 和Nils J.Nilsson 認(rèn)為人工智能首先是一門(mén)科學(xué),而這門(mén)科學(xué)的主要任務(wù)就是建立關(guān)于自然智能實(shí)體行為的理論和指導(dǎo)創(chuàng)造具有智能行為的人工制品。⑦同前注③,第2 頁(yè)。
從微觀的人工智能技術(shù)的具體運(yùn)行來(lái)看,人工智能的本質(zhì)就是借助算法、智能系統(tǒng)運(yùn)行的一套完整的技術(shù)程序。人工智能的運(yùn)行邏輯是建立在算法之上,算法撐起了人工智能的技術(shù)框架。⑧參見(jiàn)張鋌:《人工智能嵌入社會(huì)治理的邏輯、風(fēng)險(xiǎn)與政策應(yīng)對(duì)》,載《浙江社會(huì)科學(xué)》2022 年第2 期。人工智能的本質(zhì)是在自然語(yǔ)言基礎(chǔ)之上、以數(shù)據(jù)為對(duì)象將算法與數(shù)據(jù)相互結(jié)合應(yīng)用,并且這一過(guò)程并不是簡(jiǎn)單的模擬人腦。⑨參見(jiàn)劉穎:《論算法與法律行為的關(guān)系:制度影響與法律回應(yīng)》,載《重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,網(wǎng)絡(luò)首發(fā)論文,https://kns.cnki.net/kcms/detail/50.1023.C.20211203.0951.002.html。人工智能之所以能夠逼真地模擬人類行為,這與它的運(yùn)作系統(tǒng)密不可分,而判斷一項(xiàng)AI 技術(shù)成功的標(biāo)準(zhǔn),關(guān)鍵是看其能否通過(guò)“圖靈測(cè)試”⑩在圖靈測(cè)試中,一般需要兩個(gè)人對(duì)機(jī)器進(jìn)行測(cè)試,一人扮演提問(wèn)者,剩余一人和機(jī)器一樣作為被提問(wèn)者。提問(wèn)者只知道接受提問(wèn)的是A 或者B,但至于哪一個(gè)為機(jī)器人,則不知曉。如果提問(wèn)者不能區(qū)分對(duì)方是人還是機(jī)器,那就可以判定這臺(tái)機(jī)器達(dá)到了人類的智能水平。同前注③,第7 頁(yè)。。人工智能作為一門(mén)科學(xué),其自身的特征也是獨(dú)一無(wú)二的。以利用推理為例,AI 程序系統(tǒng)立足于模擬人類思維的一般規(guī)律進(jìn)而使用知識(shí),即這一推理實(shí)際上是模擬人類推理形式而來(lái)。再如,Alpha Go 之所以能夠戰(zhàn)勝世界圍棋選手,最大的優(yōu)勢(shì)在于其能夠進(jìn)行不斷的自我學(xué)習(xí)。這種自我學(xué)習(xí)是一種系統(tǒng)上的自我學(xué)習(xí),其主要是將圍棋巨大無(wú)比的搜索空間壓縮到可控的范圍之內(nèi),Alpha Go 自身配備的系統(tǒng)非常周密,加上Google 強(qiáng)大的硬件支撐和云計(jì)算資源,結(jié)合CPU&GPU進(jìn)而不斷增強(qiáng)自己的學(xué)習(xí)水平和博弈能力。?同前注③,第66 頁(yè)。這背后體現(xiàn)的是Alpha Go 自身深度學(xué)習(xí)的能力,這其中依賴于一般的博弈算法,比如極大極小搜索算法、α-β 剪枝算法等。由此可見(jiàn),無(wú)論是人工智能的設(shè)計(jì)程序抑或是人工智能的運(yùn)作原理,其都主要是強(qiáng)調(diào)模擬人類工作、學(xué)習(xí)等方面,即人工智能的最大特征在于高度擬人化、模擬人類。
人工智能技術(shù)應(yīng)用產(chǎn)生的風(fēng)險(xiǎn)確實(shí)也引起了人們擔(dān)憂。比如,斯蒂芬·霍金曾指出忽略人工智能的危險(xiǎn)或是“歷史上最致命的錯(cuò)誤”。?參見(jiàn)[美]托斯(Kalman Toth):《人工智能時(shí)代》,趙俐譯,人民郵電出版社2017 年版,第65 頁(yè)。實(shí)際上,擔(dān)憂者并不在少數(shù)。比爾·蓋茨以及牛津大學(xué)的哲學(xué)教授也曾主張人工智能威脅論,然而,人工智能專家對(duì)人工智能威脅論持反對(duì)態(tài)度,倫敦大學(xué)的金史密斯學(xué)院認(rèn)知計(jì)算機(jī)系教授馬克·畢紹針對(duì)斯蒂芬·霍金的擔(dān)憂做出了評(píng)價(jià),他認(rèn)為霍金的這種擔(dān)憂完全是錯(cuò)誤的。?同前注③,第80-83 頁(yè)。在刑法學(xué)界,有學(xué)者就以Alpha Go 戰(zhàn)勝世界圍棋冠軍為例,主張人工智能時(shí)代下的機(jī)器人已經(jīng)具備了自主學(xué)習(xí)的能力,而且其擁有自主意識(shí)和意志力,進(jìn)而主張人工智能機(jī)器人實(shí)施的行為可以被評(píng)價(jià)為刑法意義上的行為。?參見(jiàn)劉憲權(quán)、房慧穎:《涉人工智能犯罪的前瞻性刑法思考》,載《安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019 年第1 期。
綜上所述,人工智能在事實(shí)層面上無(wú)論是從宏觀視角還是微觀視角,都能夠得出人工智能本質(zhì)上是以算法、程序?yàn)楹诵牡目茖W(xué)技術(shù)。從事實(shí)層面上看人工智能機(jī)器人具備獨(dú)立意識(shí)、意志力等觀點(diǎn)是無(wú)法成立的,技術(shù)本質(zhì)決定了這種高度智能的人工智能體只可以作為人類先進(jìn)的輔助工具,以人工智能技術(shù)為程序基礎(chǔ)的相關(guān)生成品應(yīng)做產(chǎn)品之理解。
文章前述章節(jié)明確了人工智能的技術(shù)本質(zhì),刑法還應(yīng)當(dāng)立足于規(guī)范自身,在刑法體系內(nèi)部檢討人工智能進(jìn)入刑法理論后的障礙。本部分主要是檢討人工智能進(jìn)入刑法體系中產(chǎn)生的障礙。人工智能有關(guān)問(wèn)題無(wú)論是從法規(guī)范主體的可解釋性上,還是從刑法體系內(nèi)關(guān)鍵要素如罪過(guò)形態(tài)以及刑罰論的檢討上,都無(wú)法得到刑事規(guī)范肯定性的答復(fù)。
人工智能進(jìn)入到刑法領(lǐng)域內(nèi)的首要問(wèn)題是,人工智能主體是否具備刑法規(guī)范主體的可解釋性。這是因?yàn)?,主體行為的可解釋性是責(zé)任承擔(dān)的基本前提,而且,權(quán)利的可實(shí)踐性正是以其具備可解釋性為關(guān)鍵前提。?參見(jiàn)劉艷紅:《人工智能的可解釋性與AI 的法律責(zé)任問(wèn)題研究》,載《法制與社會(huì)發(fā)展》2022 年第1 期。因此,人工智能擬作為法律規(guī)范上的主體必須要經(jīng)過(guò)主體理論的檢驗(yàn)。畢竟,法律是由人類創(chuàng)造的社會(huì)產(chǎn)物,目的是為了調(diào)整人與人之間的社會(huì)關(guān)系。法律規(guī)范關(guān)注的首要問(wèn)題便是主體問(wèn)題,否則無(wú)從談及后續(xù)的法律關(guān)系以及法律責(zé)任問(wèn)題。?參見(jiàn)孫占利:《智能機(jī)器人法律人格問(wèn)題論析》,載《東方法學(xué)》2018 年第3 期。
當(dāng)下,學(xué)界對(duì)于人工智能主體在刑法規(guī)范上的定位產(chǎn)生了爭(zhēng)議??隙ㄈ斯ぶ悄苤黧w地位的觀點(diǎn)如,人工智能時(shí)代下智能機(jī)器人因?yàn)榫哂辛吮嬲J(rèn)能力和控制能力,因此可以作為刑事責(zé)任主體。?參見(jiàn)劉憲權(quán):《人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)》,載《法商研究》2018 年第1 期。還有學(xué)者從法人的角度出發(fā),主張通過(guò)類比法人制度來(lái)賦予智能機(jī)器人權(quán)利主體資格,其認(rèn)為通過(guò)這種“法律擬制”可以為立法者提供解決智能機(jī)器人權(quán)利來(lái)源的問(wèn)題。?參見(jiàn)張玉潔:《論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制》,載《東方法學(xué)》2017 年第6 期。否定人工智能主體地位的觀點(diǎn)認(rèn)為,行為主體意指在刑法上實(shí)施犯罪行為的主體,其通常來(lái)說(shuō)指的是自然人,刑法構(gòu)成要件要素中所規(guī)定的主體指的也是自然人,而且其所描述的行為主要也是指由自然人實(shí)施的行為。?參見(jiàn)張明楷:《刑法學(xué)》,法律出版社2021 年版,第170-171 頁(yè)。哲學(xué)層面上所指的刑法主體必須具備實(shí)踐性和社會(huì)性的本質(zhì)特征,實(shí)踐性要求主體能夠進(jìn)行有意識(shí)的活動(dòng),社會(huì)性要求主體能夠與特定的社會(huì)關(guān)系進(jìn)行互動(dòng)。?參見(jiàn)王利賓:《弱人工智能的刑事責(zé)任問(wèn)題研究》,載《湖南社會(huì)科學(xué)》2019 年第4 期。即便是人工智能技術(shù)在無(wú)人駕駛領(lǐng)域的應(yīng)用有著優(yōu)越的表現(xiàn),但在德國(guó)修訂的《道路交通法》中,也未予承認(rèn)人工智能的主體地位,由此可見(jiàn),立法者并不認(rèn)為可以將這一主體納入到立法藍(lán)圖中,畢竟不論是自然行為論、目的行為論還是社會(huì)行為論都主張行為的發(fā)起者應(yīng)當(dāng)是自然人。21參見(jiàn)江溯:《人工智能作為刑事責(zé)任主體:基于刑法哲學(xué)的證立》,載《法制與社會(huì)發(fā)展》2021 年第3 期。
在本文看來(lái),人工智能法律規(guī)范的主體地位是不成立的,理由如下:其一,刑法必須正視人作為規(guī)范主體的獨(dú)立性與專門(mén)性,人工智能主體性的觀點(diǎn)忽視了人作為規(guī)范的終極目的性。我國(guó)法律規(guī)范體系中,憲法及刑法都在其規(guī)定中明確指出立法宗旨是為了服務(wù)人類自身,人類是法律規(guī)范意義上獨(dú)一無(wú)二的主體。人工智能也不具備獲得道德主體地位的資格,22參見(jiàn)張今杰:《人工智能體的道德主體地位問(wèn)題探討》,載《求索》2022 年第1 期。這當(dāng)然會(huì)影響到它的規(guī)范主體地位。當(dāng)下,就法律主體的概念而言,德國(guó)法哲學(xué)家拉德布魯赫曾做出以下定義,其主要是指能夠被特定時(shí)代實(shí)定法當(dāng)作是目的本身而予以尊重的事物。23參見(jiàn)駱正言:《從自由意志談人工智能的法律主體資格》,載《湖南社會(huì)科學(xué)》2020 年第2 期。換言之,法律主體在特定時(shí)代下永遠(yuǎn)是目的而不是手段?;诖耍从^當(dāng)下肯定人工智能主體性的理論,可以發(fā)現(xiàn)這一系列觀點(diǎn)背后的主要目的是為了服務(wù)人類自身,即該觀點(diǎn)認(rèn)為將人工智能視為法律規(guī)范的主體更加便于在立法上進(jìn)行管理,這就意味著人工智能主體性理論始終都被視為手段而非目的。
其二,人工智能不具備法律主體要求的辨認(rèn)能力和控制能力。無(wú)論是強(qiáng)人工智能還是弱人工智能,其所謂的能夠“自主學(xué)習(xí)”“獨(dú)立思考”等實(shí)際上都依賴于設(shè)計(jì)者所設(shè)計(jì)的基礎(chǔ)程序,這種“辨認(rèn)能力”和“控制能力”也不過(guò)是計(jì)算機(jī)算法運(yùn)行的體現(xiàn),與人的意志體現(xiàn)并不相同。刑法規(guī)范根本無(wú)法期待人工智能機(jī)器人能夠?qū)崿F(xiàn)獨(dú)立自動(dòng)的思考。24See Gabriel Hallevy.Liability for Crimes Involving Artificial Intelligence Systems.Springer International Publishing,2015:2.畢竟,從犯罪成立的基礎(chǔ)要求來(lái)看,犯罪永遠(yuǎn)都是人的行為,與人的意志無(wú)關(guān)的事件永遠(yuǎn)無(wú)法實(shí)現(xiàn)犯罪構(gòu)成,行為都是受制于人的思想且無(wú)關(guān)于機(jī)械或生理活動(dòng)。25參見(jiàn)[德]費(fèi)蘭茨·馮·李斯特:《德國(guó)刑法教科書(shū)》,徐久生譯,法律出版社2006 年版,第167-177 頁(yè)。即便是強(qiáng)人工智能高度模擬了人類行為,諸如對(duì)人類常識(shí)、直覺(jué)等特殊的感知能力的模擬,人工智能也難以實(shí)現(xiàn)自由意志。26參見(jiàn)葉良芳:《人工智能是適格的刑事責(zé)任主體嗎?》,載《環(huán)球法律評(píng)論》2019 年第4 期。由此可見(jiàn),人工智能技術(shù)無(wú)論發(fā)展到哪一階段,其都是技術(shù)創(chuàng)新與進(jìn)步的體現(xiàn),其“意志”不過(guò)是人類意志的體現(xiàn),人工智能始終無(wú)法與“自由意志”產(chǎn)生必然聯(lián)系。
其三,理論中以法人獲得主體資格的法理來(lái)類比演繹人工智能主體性的觀點(diǎn)是無(wú)法成立的。這一主張忽視了法人集合體人合性的本質(zhì)特征,法人與人工智能體的根本區(qū)別在于法人的行為總是通過(guò)自然人來(lái)“完成”27同前注②。。單位犯罪一般是由單位的決策機(jī)構(gòu)按照單位規(guī)定的決策程序做出決定,然后交由直接責(zé)任人實(shí)施。并且,單位這一主體在刑法的前置法如民法、經(jīng)濟(jì)行政法都得到了確認(rèn),相比之下人工智能的主體性則未予確認(rèn)。28參見(jiàn)劉仁文、曹波:《人工智能體的刑事風(fēng)險(xiǎn)及其歸責(zé)》,載《江西社會(huì)科學(xué)》2021 年第8 期。單位犯罪具體行為的實(shí)施還是要依靠自然人來(lái)完成,單位脫離了自然人也就不復(fù)存在,單位的意志也是全體成員意志的集合。29同前注?,第176-177 頁(yè)。此外,對(duì)于法人本身能否成為刑事責(zé)任主體當(dāng)下也并未形成統(tǒng)一意見(jiàn),在德國(guó)刑法中就不承認(rèn)法人和經(jīng)濟(jì)企業(yè)的刑事責(zé)任。30參見(jiàn)[德]烏爾斯·金德霍伊澤爾:《刑法總論教科書(shū)》,蔡桂生譯,北京大學(xué)出版社2015 年版,第9 頁(yè)。
罪過(guò)形態(tài)作為完整的犯罪體系中不可缺少的因素,也是人工智能進(jìn)入刑法理論體系繞不開(kāi)的話題。有學(xué)者主張?jiān)趶?qiáng)人工智能時(shí)代下,機(jī)器人已經(jīng)具備了認(rèn)知能力。31參見(jiàn)劉憲權(quán):《人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任》,載《東方法學(xué)》2018 年第1 期。并且,學(xué)者還主張智能機(jī)器人與自然人有很多共同之處,由自然人實(shí)施的絕大多數(shù)犯罪行為智能機(jī)器人也可以實(shí)施,例如詐騙罪等。32參見(jiàn)劉憲權(quán):《人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制》,載《比較法研究》2018 年第4 期。需要注意的是,刑法規(guī)范注重對(duì)行為人故意或者過(guò)失這種罪過(guò)形態(tài)的判斷,故意和過(guò)失的認(rèn)定在刑法體系中的位置不言自明。而且,刑法強(qiáng)調(diào)對(duì)故意和過(guò)失的判斷,不能僅停留在對(duì)事實(shí)的認(rèn)定上,還包括對(duì)法律規(guī)范的認(rèn)識(shí)和感知。33參見(jiàn)皮勇:《人工智能刑事法治的基本問(wèn)題》,載《比較法研究》2018 年第5 期。換言之,刑法不能只要求行為主體對(duì)記述的構(gòu)成要件要素具備認(rèn)識(shí),還應(yīng)具備規(guī)范意義上的認(rèn)識(shí),并且,這種認(rèn)識(shí)應(yīng)當(dāng)是對(duì)行為性質(zhì)、后果以及作用的認(rèn)識(shí)。
在本文看來(lái),人工智能并不具備刑法意義上的罪過(guò)形態(tài),原因如下:其一,人工智能體不具備故意或者過(guò)失這一罪過(guò)形態(tài)。無(wú)論是從事實(shí)層面還是規(guī)范層面,人工智能始終無(wú)法產(chǎn)生故意或者過(guò)失的罪過(guò)形態(tài),無(wú)法通過(guò)其自身能力理解法律法規(guī)所規(guī)定的意義。也無(wú)法期待人工智能與刑法分則中規(guī)定的目的犯產(chǎn)生碰撞,比如詐騙罪要求“以非法占有為目的”等,因?yàn)樘囟康漠a(chǎn)生的前提是主體必須具有自由意志,而且主體能夠認(rèn)識(shí)到其行為的社會(huì)評(píng)價(jià)以及規(guī)范評(píng)價(jià),而人工智能顯然不具備這一點(diǎn)。此外,立足于自主性的發(fā)展邏輯來(lái)看,人工智能難以生成較強(qiáng)的自由意志,更不用說(shuō)能具備實(shí)質(zhì)的自我意識(shí)。34參見(jiàn)程承坪:《論人工智能的自主性》,載《上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2022 年第1 期。其二,故意或者過(guò)失罪過(guò)形態(tài)的證明也成為人工智能作為刑事規(guī)范主體的障礙。刑法將人工智能機(jī)器人作為法律主體的觀點(diǎn)在證據(jù)法上也存在障礙,即在罪責(zé)層面上對(duì)故意和過(guò)失的證明成為一大難點(diǎn)。刑法無(wú)法期待僅通過(guò)人工智能體的行為證明其具備犯罪意圖,這也難以達(dá)到排除合理懷疑的程度,即刑法無(wú)法判斷這是否是因?yàn)槿斯ぶ悄荏w內(nèi)部程序運(yùn)行出錯(cuò)導(dǎo)致。故意、過(guò)失這種心素的記載對(duì)評(píng)價(jià)行為具有重要的意義,如果缺乏這種心素的描述行為就失去了表達(dá)的含義,失去了主觀要素的支撐,僅靠單純的“裸”行為要素似乎難以起到“篩選”犯罪的作用。35參見(jiàn)楊春然:《論故意在三階層犯罪論體系中的位置》,載《中外法學(xué)》2011 年第4 期。反觀智能機(jī)器人所實(shí)施的行為,正是不具備心素內(nèi)容的“裸”行為,這種無(wú)意識(shí)的行為并不具備被刑法評(píng)價(jià)的資格。
人工智能除了前述理論上的障礙以外,其在刑罰論中也不具備進(jìn)入到當(dāng)下刑罰體系的資格,這主要體現(xiàn)在人工智能受刑能力的缺失以及針對(duì)人工智能增設(shè)新罪名以及新配套措施上的障礙。
1.人工智能不具備受刑能力
人工智能進(jìn)入到刑罰體系中,無(wú)法期待對(duì)人工智能的處罰能產(chǎn)生刑罰上的意義。刑罰作為聯(lián)結(jié)行為與行為人的橋梁,其有著將行為產(chǎn)生的責(zé)任過(guò)渡到具體行為人身上的功能。刑罰是國(guó)家針對(duì)侵犯法益的犯罪行為而予以懲罰的一項(xiàng)嚴(yán)厲措施,其一般建立在剝奪性、限制性等痛苦基礎(chǔ)之上。本文認(rèn)為,人工智能不具備受刑資格,主要體現(xiàn)在以下幾點(diǎn):
第一,人工智能不具備受刑能力。受刑能力的關(guān)鍵是受刑者能夠感知到其行為帶來(lái)的規(guī)范意義上的否定性評(píng)價(jià),并由此承擔(dān)精神或者身體上的痛苦。通過(guò)受刑對(duì)象對(duì)刑罰感知的回應(yīng),以此可以證明規(guī)范實(shí)施的有效性。受刑者只有借助這種由刑罰實(shí)施產(chǎn)生的羞恥感或者痛苦,才能體現(xiàn)刑罰的功能和作用,受刑者或潛在的犯罪人才會(huì)理性掌控自己的行為,國(guó)家和社會(huì)才得以正常運(yùn)轉(zhuǎn)。人工智能實(shí)則并不存在情感,也不具有道德判斷和認(rèn)知,且欠缺感知刑罰痛苦的能力,故導(dǎo)致刑罰必要性的缺失。36同前注26。持相同觀點(diǎn)的還有張鐳:《人工智能體可罰性辯疑》,載《南京社會(huì)科學(xué)》2018 年第11 期。因此,人工智能體不具備感知痛苦的能力決定了對(duì)其實(shí)施刑罰的無(wú)意義和不切實(shí)際性。37同前注24。畢竟,無(wú)法期待一臺(tái)冰冷的機(jī)器能夠感受到痛苦或者羞恥,即便是其未來(lái)會(huì)產(chǎn)生痛覺(jué)或者羞恥感,這也是建立在人類為其編寫(xiě)的程序基礎(chǔ)上。實(shí)際上,人類創(chuàng)造的機(jī)器人應(yīng)由人類自身為機(jī)器人的“不法”行為買(mǎi)單。38See Jacob Turner,Robot Rule:Regulating Artificial Intelligence.UK:Palgrave Macmillan,2019:119.當(dāng)然,法人組織也不具備感知受刑能力,但我國(guó)刑法對(duì)法人犯罪規(guī)定了相應(yīng)的處罰措施。這是因?yàn)?,法人具備人合性的組織特征,法人組織感知受刑的能力都可以內(nèi)化到內(nèi)部成員。
第二,人工智能體具備受刑能力的觀點(diǎn)在當(dāng)下規(guī)范邏輯上出現(xiàn)了障礙。按照部分學(xué)者主張應(yīng)承認(rèn)人工智能具有受刑能力的邏輯,進(jìn)而也應(yīng)當(dāng)承認(rèn)賦予智能機(jī)器人基本的權(quán)利。有學(xué)者從權(quán)利歷史演進(jìn)的角度主張應(yīng)遵循動(dòng)物獲得權(quán)利的軌跡,認(rèn)為智能機(jī)器人也應(yīng)當(dāng)被賦予權(quán)利,同時(shí),指出權(quán)利主體不應(yīng)是一成不變的。39同前注?。但在本文看來(lái),法律規(guī)范賦予人工智能體權(quán)利這一做法并不現(xiàn)實(shí),理由如下:其一,人工智能體無(wú)論是從技術(shù)還是從道德上來(lái)看,其在賦權(quán)過(guò)程中都存在障礙。40參見(jiàn)甘紹平:《機(jī)器人怎么可能擁有權(quán)利》,載《倫理學(xué)研究》2017 年第3 期。人工智能體最初是以工具身份亮相,這就決定了其最終也只得以工具來(lái)定位。法律規(guī)范無(wú)法期待人類與人工智能體或者人工智能體自身之間能夠達(dá)成社會(huì)契約,因?yàn)檫@種社會(huì)生活的游戲規(guī)則只有人與人之間才具備制定與遵守的資格和能力。其二,刑法規(guī)范若賦予人工智能體權(quán)利,則這一權(quán)利的根據(jù)來(lái)源不明確。我國(guó)憲法強(qiáng)調(diào)保護(hù)人權(quán),若在刑法中承認(rèn)機(jī)器人享有權(quán)利,但憲法條文中并未就此做出明確指示,這就造成了刑法與憲法相沖突的尷尬困境。其三,法律規(guī)范若賦予人工智能體權(quán)利,則這一權(quán)利的行使面臨一定的困難。例如,法律規(guī)范倘若賦予人工智能體生育權(quán)、財(cái)產(chǎn)權(quán)等基本權(quán)利,接下來(lái)所要考慮的是如何保障這一權(quán)利的行使。此外,人工智能體是否在滿足基本條件之后享有選舉權(quán)與被選舉權(quán)等,這都會(huì)為法律和社會(huì)帶來(lái)不小的挑戰(zhàn)。其四,理論界主張類比動(dòng)物獲得權(quán)利的軌跡來(lái)啟示對(duì)人工智能體賦權(quán)的工作并不可行?,F(xiàn)有的法律條文對(duì)野生動(dòng)物只是做出了保護(hù)性的指示,并未明確提及要賦予野生動(dòng)物權(quán)利。倘若賦予動(dòng)物最基本的諸如生命權(quán)等權(quán)利,那么,人類傷害或屠宰家禽剝奪生命的行為便屬于侵權(quán)行為抑或是犯罪行為,因此,動(dòng)物作為權(quán)利主體并不可行,人工智能體同理亦是如此。
第三,刑法懲罰人工智能不符合刑罰的功能和目的。刑罰作為對(duì)犯罪人權(quán)利和利益的一種剝奪和限制手段,在滿足了刑法規(guī)范目的的同時(shí),對(duì)國(guó)家和社會(huì)來(lái)說(shuō)都具有相當(dāng)大的副作用。41同前注?,第667-669 頁(yè)。刑法之所以主張對(duì)自然人科處刑罰,是因?yàn)閷?duì)于自然人犯罪刑罰能夠發(fā)揮一般預(yù)防和特殊預(yù)防的功能,最終達(dá)到減少犯罪的效果。從一般預(yù)防功能考察,針對(duì)人工智能實(shí)施刑罰處罰是否能夠起到威懾潛在犯罪的效果,答案顯然是否定的。刑法根本無(wú)法期待潛在的人工智能會(huì)因此產(chǎn)生敬畏法律的意識(shí)。從這一點(diǎn)來(lái)看,人工智能的一般預(yù)防效果無(wú)法與規(guī)范的有效性產(chǎn)生聯(lián)動(dòng)。同理,從特殊預(yù)防的角度來(lái)看,對(duì)人工智能科處刑罰也不具備規(guī)范上的意義。而且,對(duì)人工智能實(shí)施刑罰措施悖離了社會(huì)大眾對(duì)常識(shí)常理常情的認(rèn)知,實(shí)在無(wú)法想象機(jī)器會(huì)“在意”對(duì)自己的“不法行為”實(shí)施的“刑罰”。因此,刑法對(duì)智能機(jī)器人實(shí)施刑罰并不具備任何意義。42參見(jiàn)劉艷紅:《人工智能法學(xué)研究的反智化批判》,載《東方法學(xué)》2019 年第5 期。
2.增設(shè)罪名及配套刑罰措施的障礙
目前,刑法學(xué)界有觀點(diǎn)認(rèn)為,強(qiáng)人工智能時(shí)代刑法應(yīng)增設(shè)人工智能相關(guān)犯罪以及配套的刑罰措施,以實(shí)現(xiàn)刑法對(duì)人工智能犯罪的規(guī)制。例如,有學(xué)者主張應(yīng)當(dāng)圍繞著人工智能構(gòu)建新的刑罰體系。43參見(jiàn)劉憲權(quán):《涉人工智能犯罪刑法規(guī)制的路徑》,載《現(xiàn)代法學(xué)》2019 年第1 期。還有學(xué)者主張?jiān)鲈O(shè)濫用人工智能罪和人工智能事故罪,該學(xué)者主張?jiān)谂涮椎男塘P措施上增設(shè)刪除數(shù)據(jù)、修改程序。44參見(jiàn)王燕玲:《人工智能時(shí)代的刑法問(wèn)題與應(yīng)對(duì)思路》,載《政治與法律》2019 年第1 期。另外,還有學(xué)者主張將人工智能有關(guān)犯罪擴(kuò)充至刑法分則體系中,即在分則第六章專章增設(shè)“妨害人工智能發(fā)展罪”以及增設(shè)有關(guān)“擾亂人工智能活動(dòng)罪”“非法提供人工智能技術(shù)罪”以及“非法利用人工智能罪”等。45參見(jiàn)李振林:《人工智能時(shí)代的刑事立法藍(lán)圖》,載《人民法院報(bào)》2021 年2 月11 日,第6 版。不難看出,上述主張?jiān)鲈O(shè)人工智能相關(guān)犯罪觀點(diǎn)背后體現(xiàn)的正是以人類利益為中心的人類利益優(yōu)先論,即上述罪名從表述來(lái)看都是將人工智能作為一種工具或者是技術(shù)資源等,人工智能在上述擬增設(shè)的罪名中并非是主體。不過(guò)應(yīng)當(dāng)注意的是,即便刑法主張人類利益優(yōu)先,也大可不必以擴(kuò)充刑法體系的方式維護(hù)人類利益,而且這一做法并不見(jiàn)得是最佳手段,因?yàn)樾塘P圈的擴(kuò)張意味著人類自由空間的壓縮,這樣看來(lái)反而會(huì)削減人類的利益,并且還會(huì)阻礙科學(xué)技術(shù)的進(jìn)步。本文對(duì)增設(shè)有關(guān)罪名及配套刑罰措施的主張持否定態(tài)度,理由如下:
其一,新罪名的增設(shè)與當(dāng)下既有的刑法規(guī)范相沖突。濫用人工智能罪、非法利用人工智能罪等罪名的增設(shè)不過(guò)是把人工智能當(dāng)作是輔助人類的一種工具罷了。之所以要增設(shè)新罪,是因?yàn)檫@種觀點(diǎn)認(rèn)為濫用、非法利用人工智能的社會(huì)危害性要高于傳統(tǒng)的犯罪行為,而后動(dòng)輒就以新增罪名予以規(guī)制。然而,這一做法未免過(guò)于激進(jìn),對(duì)其把控不當(dāng)?shù)脑挊O有可能阻礙科學(xué)技術(shù)的進(jìn)步。以核事故、生化武器為例,人類濫用核能以及生化武器等所造成的社會(huì)危害性并不低于濫用、非法利用人工智能的行為,然而刑法并未對(duì)濫用核能等行為單獨(dú)進(jìn)行規(guī)定。事實(shí)上,上述增設(shè)相關(guān)罪名的目的無(wú)非是強(qiáng)調(diào)對(duì)公共安全的保護(hù),因?yàn)檫@種觀點(diǎn)認(rèn)為人工智能潛在的社會(huì)危害性較大,而且其危害的對(duì)象也不特定,既有的刑法規(guī)范無(wú)法對(duì)其進(jìn)行規(guī)制,因此刑法應(yīng)當(dāng)將這一主體單獨(dú)進(jìn)行立法。然而,這一現(xiàn)象在既有的刑法體系內(nèi),通過(guò)現(xiàn)有的刑法解釋方法完全可以“以危險(xiǎn)方法危害公共安全罪”來(lái)消解上述問(wèn)題。同理,反觀增設(shè)人工智能事故罪背后的法理,不過(guò)是為了提醒研發(fā)者和使用者應(yīng)當(dāng)盡到注意義務(wù),而現(xiàn)有的刑法體系早已對(duì)注意義務(wù)作出了規(guī)定,比如:重大責(zé)任事故罪等。因此,刑法沒(méi)有必要超出現(xiàn)有的體系增設(shè)新的罪名或者是擴(kuò)充刑罰體系。
其二,新增的“刑罰措施”并不屬于刑法意義上的措施。既有的刑罰措施在當(dāng)下都是建立在以人為主體的前提下,刑法中的處罰措施都是根據(jù)人的主體性特征所構(gòu)建,這也符合刑罰處罰措施的應(yīng)然狀態(tài),因此,刑法無(wú)法期待針對(duì)人工智能再構(gòu)建一套新的刑罰體系。再者,刑罰措施應(yīng)當(dāng)是刑法所獨(dú)有的,并且由國(guó)家壟斷其實(shí)施的權(quán)利,例如監(jiān)禁刑、死刑等。反觀新增的修改程序、刪除數(shù)據(jù)等措施,并不是專屬于刑法的處罰措施,這些措施實(shí)施的權(quán)利并未由國(guó)家壟斷,一般的技術(shù)員、研發(fā)者在發(fā)現(xiàn)人工智能出現(xiàn)問(wèn)題時(shí)亦可實(shí)施上述措施,這一做法似乎將執(zhí)行刑罰的權(quán)利下放到了技術(shù)人員手中,顯然不具備合理性。
除了上述爭(zhēng)議之外,刑法增設(shè)相關(guān)罪名以及配套措施的爭(zhēng)議還引起了學(xué)界劃分人工智能刑事責(zé)任能力的探討。畢竟,刑罰的執(zhí)行也受行為主體刑事責(zé)任能力的影響。對(duì)此,學(xué)界有觀點(diǎn)指出,刑法應(yīng)以人工智能體智能化程度的高低作為劃分刑事責(zé)任能力的根據(jù),即智能化程度較低的對(duì)應(yīng)刑法中完全無(wú)刑事責(zé)任階段,智能化程度較高的則對(duì)應(yīng)相對(duì)有刑事責(zé)任階段,智能化程度很高的則對(duì)應(yīng)的是完全有刑事責(zé)任階段,對(duì)于“間接性系統(tǒng)異常中病毒”的情形應(yīng)當(dāng)類比間接性精神病人的處理原則,進(jìn)而主張這種情形下的人工智能體實(shí)施的不法行為不承擔(dān)刑事責(zé)任能力。46參見(jiàn)馬治國(guó)、田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018 年第2 期。這一主張形式上貌似合理,但從實(shí)質(zhì)上來(lái)看這一觀點(diǎn)存在明顯的漏洞,即其主張的將技術(shù)評(píng)價(jià)標(biāo)準(zhǔn)引入到刑法規(guī)范中不存在正當(dāng)性的依據(jù),畢竟技術(shù)規(guī)范與刑事責(zé)任認(rèn)定標(biāo)準(zhǔn)的出身不同,也即兩者的制定主體與制定程序都有著很大的差別。比如,刑法在對(duì)未成年人刑事責(zé)任年齡的劃分上,一貫以未成年人利益最佳原則為根據(jù),考慮因素既有未成年的雙面角色,也有長(zhǎng)遠(yuǎn)利益發(fā)展的追求。47參見(jiàn)滿濤《:未成年人利益最佳與刑事責(zé)任年齡的降低——兼評(píng)〈刑法修正案(十一)〉第一條》,載《河北法學(xué)》2021年第7期。但是,反觀人工智能刑事責(zé)任年齡的劃分,其對(duì)無(wú)刑事責(zé)任年齡或者相對(duì)負(fù)刑事責(zé)任年齡階段的劃分并未提供可靠依據(jù),僅是技術(shù)標(biāo)準(zhǔn)和智能程度高低在支撐著人工智能刑事責(zé)任能力的劃分。人工智能間接性中病毒或者系統(tǒng)異常的情形類比為間接性精神病人的觀點(diǎn)更是站不住腳,因?yàn)槿斯ぶ悄芩^的“發(fā)病”原理與精神病人并不相同,而且這一主張忽視了人工智能可被及時(shí)修復(fù)的情況。上述觀點(diǎn)提出的方案似乎較為隨意,且破壞了刑法的嚴(yán)肅性。
綜上所述,刑法拋開(kāi)對(duì)人工智能在技術(shù)層面的考量后,僅從刑法理論視角出發(fā)也能夠得出,人工智能法律規(guī)范的主體性理論無(wú)法在刑法體系內(nèi)找到合適的落腳點(diǎn)。因此,文章前兩部分的討論基本上終結(jié)了人工智能以獨(dú)立身份進(jìn)入到刑法體系內(nèi)的計(jì)劃。
人工智能屬于風(fēng)險(xiǎn)社會(huì)有關(guān)理論的典型張貼對(duì)象,因此,刑法對(duì)人工智能的探討必然要聯(lián)系到風(fēng)險(xiǎn)社會(huì)理論。刑法驗(yàn)證人工智能問(wèn)題真?zhèn)涡缘念~外方案便是從作為源頭的風(fēng)險(xiǎn)社會(huì)理論入手,從根本上檢驗(yàn)風(fēng)險(xiǎn)社會(huì)理論的問(wèn)題,這也是刑法解決人工智能問(wèn)題最透徹的辦法。基于此,本部分首先明確人工智能與風(fēng)險(xiǎn)社會(huì)的種屬關(guān)系,而后從刑法的基本原則入手對(duì)風(fēng)險(xiǎn)社會(huì)相關(guān)理論(包括由此產(chǎn)生的風(fēng)險(xiǎn)刑法理論,以下簡(jiǎn)稱“風(fēng)險(xiǎn)社會(huì)相關(guān)理論”)進(jìn)行檢驗(yàn),最終得出風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法通過(guò)法益保護(hù)原則和最后手段原則檢驗(yàn)的結(jié)論。
應(yīng)當(dāng)承認(rèn)的是人工智能時(shí)代的到來(lái)確實(shí)為社會(huì)發(fā)展帶來(lái)了諸多潛在的風(fēng)險(xiǎn),而這也正是風(fēng)險(xiǎn)社會(huì)理論一貫主張的由技術(shù)發(fā)展帶來(lái)的風(fēng)險(xiǎn),由此意味著人類已逐漸進(jìn)入風(fēng)險(xiǎn)社會(huì)。對(duì)此,學(xué)界有觀點(diǎn)做出了肯定性回應(yīng),例如,吳漢東教授主張應(yīng)當(dāng)在風(fēng)險(xiǎn)社會(huì)理論的范疇中研究人工智能相關(guān)問(wèn)題。48參見(jiàn)吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,載《社會(huì)科學(xué)文摘》2017 年第12 期。而且,就風(fēng)險(xiǎn)社會(huì)的發(fā)展來(lái)講,德國(guó)社會(huì)學(xué)家貝克曾指出,由現(xiàn)代科技造成的深刻變革致使世界正在從工業(yè)社會(huì)逐漸走向風(fēng)險(xiǎn)社會(huì),而風(fēng)險(xiǎn)社會(huì)關(guān)注的重點(diǎn)就是技術(shù)進(jìn)步所帶來(lái)的風(fēng)險(xiǎn),即技術(shù)進(jìn)步導(dǎo)致的社會(huì)轉(zhuǎn)型并由此埋下的許多潛在風(fēng)險(xiǎn),但其并不僅僅局限于技術(shù)風(fēng)險(xiǎn)。49參見(jiàn)勞東燕:《風(fēng)險(xiǎn)刑法理論的反思》,載《社會(huì)科學(xué)文摘》2020 年第1 期。不過(guò),刑法正視風(fēng)險(xiǎn)社會(huì)的到來(lái)并不意味著必然會(huì)導(dǎo)致風(fēng)險(xiǎn)刑法的抬頭。否則,這種由風(fēng)險(xiǎn)社會(huì)引發(fā)的諸如對(duì)“泛人工智能化”的相關(guān)探討極易制造學(xué)術(shù)泡沫。50同前注。
事實(shí)上,風(fēng)險(xiǎn)社會(huì)理論中的風(fēng)險(xiǎn)在當(dāng)下出現(xiàn)了關(guān)注對(duì)象泛化的現(xiàn)象,甚至還滋生出了風(fēng)險(xiǎn)刑法理論。風(fēng)險(xiǎn)社會(huì)中的風(fēng)險(xiǎn)主要是建立在技術(shù)發(fā)展的基礎(chǔ)之上,并且主要是以技術(shù)發(fā)展帶來(lái)的不確定性風(fēng)險(xiǎn)。然而,當(dāng)下學(xué)界有學(xué)者認(rèn)為諸如政治風(fēng)險(xiǎn)、制度風(fēng)險(xiǎn)等也應(yīng)當(dāng)納入到風(fēng)險(xiǎn)的口袋。51參見(jiàn)勞東燕:《公共政策與風(fēng)險(xiǎn)社會(huì)的刑法》,載《中國(guó)社會(huì)科學(xué)》2007 年第3 期。但是,該主張忽視了貝克口中的風(fēng)險(xiǎn)社會(huì)理論的誕生背景,即政治、制度風(fēng)險(xiǎn)無(wú)法與技術(shù)風(fēng)險(xiǎn)作出同類解釋,前后兩者之間無(wú)法產(chǎn)生必然聯(lián)系。其實(shí),不管風(fēng)險(xiǎn)社會(huì)理論所關(guān)注的具體對(duì)象為何,從抽象的視角來(lái)看,該理論將關(guān)注點(diǎn)集中在了“風(fēng)險(xiǎn)”對(duì)象身上。同時(shí),風(fēng)險(xiǎn)社會(huì)理論在“風(fēng)險(xiǎn)”對(duì)象的發(fā)酵中還演繹出了風(fēng)險(xiǎn)刑法理論。風(fēng)險(xiǎn)刑法理論認(rèn)為傳統(tǒng)刑法已無(wú)法高效應(yīng)對(duì)風(fēng)險(xiǎn)社會(huì)所帶來(lái)的各種風(fēng)險(xiǎn),故學(xué)界有學(xué)者對(duì)傳統(tǒng)刑法保護(hù)的滯后性表現(xiàn)出了不滿。52參見(jiàn)陳京春:《抽象危險(xiǎn)犯的概念詮釋與風(fēng)險(xiǎn)防控》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2014 年第3 期。因此,風(fēng)險(xiǎn)刑法理論受風(fēng)險(xiǎn)社會(huì)理論的啟發(fā)便應(yīng)運(yùn)而生。于是,風(fēng)險(xiǎn)社會(huì)理論形成了以人工智能為表征,以風(fēng)險(xiǎn)刑法理論為規(guī)范分支的較為豐富的結(jié)構(gòu)體系。
風(fēng)險(xiǎn)社會(huì)相關(guān)理論能否在刑法教義學(xué)體系內(nèi)站住腳,關(guān)鍵在于其能否通過(guò)刑法“入罪質(zhì)檢員”法益保護(hù)原則的檢驗(yàn)。刑法應(yīng)當(dāng)以保護(hù)法益為目的,將行為對(duì)法益造成的損害作為違法性的根據(jù),缺少了法益保護(hù)原則的支撐,刑法體系就會(huì)被抽空。然而,當(dāng)下風(fēng)險(xiǎn)社會(huì)理論在法益保護(hù)原則的檢討下出現(xiàn)了以下困難:第一,風(fēng)險(xiǎn)社會(huì)中的風(fēng)險(xiǎn)無(wú)法上升為刑法意欲保護(hù)的法益。風(fēng)險(xiǎn)社會(huì)中所指的風(fēng)險(xiǎn)是科學(xué)技術(shù)發(fā)展給社會(huì)帶來(lái)的風(fēng)險(xiǎn),是傳統(tǒng)的一般意義上的社會(huì)風(fēng)險(xiǎn),與刑法中關(guān)注的對(duì)象完全不同。53參見(jiàn)陳興良:《風(fēng)險(xiǎn)刑法理論的法教義學(xué)批判》,載《中外法學(xué)》2014 年第1 期。刑法所關(guān)注的對(duì)象都是“危險(xiǎn)”而非“風(fēng)險(xiǎn)”,這兩者之間的對(duì)比顯然前者要比后者在程度上更為緊迫,后者實(shí)際上是中性詞,前者則是貶義詞,而刑法更關(guān)注貶義屬性的“危險(xiǎn)”。除此之外,刑法中都是針對(duì)帶有危險(xiǎn)性行為的犯罪,如危險(xiǎn)駕駛罪、以危險(xiǎn)方法危害公共安全罪等。風(fēng)險(xiǎn)這一概念更傾向于在社會(huì)層面加以理解,比如投資風(fēng)險(xiǎn)、股市風(fēng)險(xiǎn)、技術(shù)風(fēng)險(xiǎn)等。
第二,風(fēng)險(xiǎn)社會(huì)相關(guān)理論悖離了法益損害實(shí)害化的訴求。風(fēng)險(xiǎn)刑法相關(guān)理論呈現(xiàn)出法益保護(hù)早期化的趨勢(shì)。54參見(jiàn)呂英杰:《風(fēng)險(xiǎn)刑法下的法益保護(hù)》,載《吉林大學(xué)社會(huì)科學(xué)學(xué)報(bào)》2013 年第4 期。根據(jù)這一主張,刑法不再過(guò)多的關(guān)注行為對(duì)法益的侵害是否發(fā)生了具體的結(jié)果,而是轉(zhuǎn)向了以預(yù)防為主的模式,以法益是否遭到潛在的風(fēng)險(xiǎn)威脅為標(biāo)準(zhǔn)判斷行為是否入罪。這使得關(guān)注風(fēng)險(xiǎn)刑法的學(xué)者逐漸走向否定法益功能的泥沼中。55參見(jiàn)張明楷:《“風(fēng)險(xiǎn)社會(huì)”若干刑法理論問(wèn)題反思》,載《中國(guó)檢察官》2012 年第1 期。風(fēng)險(xiǎn)刑法理論認(rèn)為刑法還應(yīng)當(dāng)對(duì)未來(lái)可能出現(xiàn)的風(fēng)險(xiǎn)行為進(jìn)行規(guī)制。但是,法益保護(hù)原則要求刑法規(guī)制的是對(duì)法益造成損害的行為,這一普適性的刑事立法觀在當(dāng)下扮演著愈來(lái)愈重要的角色。在這個(gè)問(wèn)題上,羅克辛教授一貫持否定態(tài)度,其主張刑法若是要對(duì)風(fēng)險(xiǎn)做出評(píng)價(jià),不得脫離法益這一概念以及有關(guān)法治國(guó)的歸責(zé)原則。56參見(jiàn)[德]克勞斯·羅克辛:《德國(guó)刑法學(xué)總論(第1 卷)》,王世洲譯,法律出版社2005 年版,第19 頁(yè)。刑法脫離了實(shí)在化法益的指導(dǎo),其在規(guī)制行為入罪方面將會(huì)變得十分危險(xiǎn),甚至是大幅度萎縮公民的行為。因此,風(fēng)險(xiǎn)社會(huì)下刑法是否有必要過(guò)早介入,實(shí)際上是存在疑問(wèn)的,否則這種做法很容易稀釋法益保護(hù)原則。57參見(jiàn)[日]松原芳博:《刑法總論重要問(wèn)題》,王昭武譯,中國(guó)政法大學(xué)出版社2014 年版,第17 頁(yè)。
第三,風(fēng)險(xiǎn)社會(huì)相關(guān)理論類比抽象危險(xiǎn)犯法理的做法并不可靠。風(fēng)險(xiǎn)刑法理論經(jīng)常借抽象危險(xiǎn)犯為例進(jìn)行論證,指出抽象危險(xiǎn)犯并未引起法益損害的實(shí)害結(jié)果但卻被規(guī)定為犯罪。因此,風(fēng)險(xiǎn)刑法理論主張以此為根據(jù)作為其在刑法教義學(xué)中的延伸。但是,在本文看來(lái),刑法增設(shè)抽象危險(xiǎn)犯的法理與風(fēng)險(xiǎn)社會(huì)相關(guān)理論并不相同,原因有:其一,從文義解釋來(lái)看兩者關(guān)注的對(duì)象存在質(zhì)的差異。抽象危險(xiǎn)犯關(guān)注的是刑法中的“危險(xiǎn)”,而風(fēng)險(xiǎn)相關(guān)理論關(guān)注的是“社會(huì)風(fēng)險(xiǎn)”,后者無(wú)論如何也不具備被評(píng)價(jià)為法益的資格。其二,兩組概念產(chǎn)生的背景時(shí)間大相徑庭,這就決定了兩者并非是同種概念。抽象危險(xiǎn)犯概念的提出早于風(fēng)險(xiǎn)社會(huì)相關(guān)理念,抽象危險(xiǎn)犯的概念最早可以追溯到19 世紀(jì)的《德國(guó)刑法典》《法國(guó)刑法典》,而風(fēng)險(xiǎn)刑法理論是伴隨著后工業(yè)社會(huì)所興起的概念,兩者并不同根同源。其三,抽象危險(xiǎn)犯有著實(shí)在的法益實(shí)害結(jié)果訴求,風(fēng)險(xiǎn)社會(huì)則不具備法益保護(hù)的訴求。即便是抽象危險(xiǎn)犯的認(rèn)定也應(yīng)當(dāng)注重對(duì)法益侵害結(jié)果的考察,即其無(wú)論如何也不可脫離與法益實(shí)害結(jié)果的關(guān)聯(lián)。58參見(jiàn)黎宏:《論抽象危險(xiǎn)犯危險(xiǎn)判斷的經(jīng)驗(yàn)法則之構(gòu)建與適用——以抽象危險(xiǎn)犯立法模式與傳統(tǒng)法益侵害說(shuō)的平衡和協(xié)調(diào)為目標(biāo)》,載《政治與法律》2013 年第8 期。因此,抽象危險(xiǎn)犯在刑法體系中一貫堅(jiān)持以保護(hù)實(shí)在化的法益為原則,將法益保護(hù)最終落實(shí)到對(duì)法益實(shí)害化損害的考察中,這也就決定了其與風(fēng)險(xiǎn)社會(huì)相關(guān)理論完全不同。
最后,風(fēng)險(xiǎn)社會(huì)相關(guān)理論甚至試圖在法益內(nèi)涵的擴(kuò)充上有所作為,即持風(fēng)險(xiǎn)刑法論的學(xué)者主張為適應(yīng)社會(huì)發(fā)展,刑法法益的內(nèi)涵應(yīng)當(dāng)被及時(shí)更新擴(kuò)充。這種觀點(diǎn)認(rèn)為法益的概念應(yīng)當(dāng)被擴(kuò)充至以制度保護(hù)和對(duì)制度的信賴保護(hù)為基礎(chǔ)的“普遍法益”上,主要包括公共安全、經(jīng)濟(jì)制度等。59同前注。本文持否定態(tài)度,原因是,刑法之所以設(shè)置法益這一概念,是為了保護(hù)人類生活所必不可少的基本命財(cái)。60參見(jiàn)張明楷:《法益初論》,中國(guó)政法大學(xué)出版社2000 年版,第153-155 頁(yè)。法益這一概念的創(chuàng)設(shè)最終要服務(wù)于人本身,盡管我國(guó)刑法分則中也體現(xiàn)了對(duì)國(guó)家安全、公共安全法益的保護(hù),但從實(shí)質(zhì)上來(lái)看,分則中的這一系列法益最終都能夠還原為個(gè)人法益。對(duì)此,學(xué)界有觀點(diǎn)指出諸如這種集體法益如果不能夠被還原為個(gè)人法益,刑法也就失去了保護(hù)的必要性。61參見(jiàn)姜濤:《社會(huì)風(fēng)險(xiǎn)的刑法調(diào)控及其模式改造》,載《社會(huì)科學(xué)文摘》2019 年第9 期?;诖?,反觀風(fēng)險(xiǎn)社會(huì)相關(guān)理論所主張“普遍法益”,實(shí)質(zhì)上就將法益保護(hù)原則空洞化了,即其無(wú)法還原到以人為本的個(gè)人法益中。
風(fēng)險(xiǎn)社會(huì)相關(guān)理論在最后手段原則的檢討中也出現(xiàn)了問(wèn)題。刑法若要規(guī)制風(fēng)險(xiǎn)社會(huì)下的風(fēng)險(xiǎn),至少還要經(jīng)受住最后手段原則的檢驗(yàn)。風(fēng)險(xiǎn)社會(huì)相關(guān)理論的主張?jiān)趹?yīng)對(duì)風(fēng)險(xiǎn)時(shí)直接越過(guò)了最后手段原則的訴求,即直接主張以刑法規(guī)制風(fēng)險(xiǎn)社會(huì)中的風(fēng)險(xiǎn)。例如,有學(xué)者主張為應(yīng)對(duì)人工智能技術(shù)的飛速進(jìn)步,考慮到技術(shù)進(jìn)步會(huì)給法益帶來(lái)的一系列可能的損害,認(rèn)為刑法應(yīng)當(dāng)進(jìn)行前瞻性的立法。62同前注?。顯然,該主張并未在最后手段原則層面加以論證,即便這種由后工業(yè)社會(huì)帶來(lái)的風(fēng)險(xiǎn)已經(jīng)達(dá)到了由法規(guī)范調(diào)整的地步,是否必然意味著刑法應(yīng)當(dāng)規(guī)制這種情形尚且存疑,畢竟刑法是保護(hù)社會(huì)的最后一道防線。
在本文看來(lái),刑法恪守最后手段的原則結(jié)果是,風(fēng)險(xiǎn)社會(huì)相關(guān)理論的主張不具備刑法保護(hù)的必要性。刑法立足于最后手段原則的微觀與宏觀視角來(lái)審視風(fēng)險(xiǎn)社會(huì)相關(guān)理論,該理論不成立的表現(xiàn)如下:
從微觀角度來(lái)看,風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法通過(guò)該原則內(nèi)部子原則的檢討。最后手段原則項(xiàng)下包含三個(gè)子原則:適當(dāng)性原則、必要性原則和權(quán)衡性原則,適當(dāng)性原則強(qiáng)調(diào)的是刑法要保護(hù)的必須是值得保護(hù)的法益,并且法益保護(hù)和手段之間要具備一定的關(guān)聯(lián)性;必要性原則主張刑法手段的實(shí)施必須能夠滿足特定的立法目的;權(quán)衡性原則關(guān)注的是刑罰實(shí)施的負(fù)擔(dān)與收益要處于平衡位置。63參見(jiàn)楊春然:《論法教義學(xué)視角下的最后手段原則的規(guī)范構(gòu)成及適用——兼論憲法對(duì)犯罪論體系的選擇》,載《中國(guó)刑事法雜志》2017 年第5 期。風(fēng)險(xiǎn)社會(huì)相關(guān)理論是否有必要由刑法進(jìn)行規(guī)制,至少還應(yīng)當(dāng)考慮到最后手段原則內(nèi)部具體的訴求。最后手段原則項(xiàng)下的三項(xiàng)子原則對(duì)風(fēng)險(xiǎn)社會(huì)相關(guān)理論的檢討如下:第一,風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法通過(guò)適當(dāng)性子原則的檢討。適當(dāng)性原則的要求與法益保護(hù)原則的訴求存在很大程度上的重合,并且前述已經(jīng)對(duì)風(fēng)險(xiǎn)社會(huì)相關(guān)理論進(jìn)行了法益保護(hù)原則上的檢討,故在此不再多做贅述。第二,風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法通過(guò)必要性子原則的檢討。刑法對(duì)風(fēng)險(xiǎn)的保護(hù)并不能滿足刑法中某一特定的目的,包括最主要的保護(hù)法益目的,因此其不滿足必要性原則的訴求。第三,風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法通過(guò)權(quán)衡性子原則的檢討。該項(xiàng)子原則要求刑法應(yīng)當(dāng)考慮到風(fēng)險(xiǎn)的普遍性與保護(hù)手段之間的負(fù)擔(dān)?,F(xiàn)代社會(huì)無(wú)不充斥著各種風(fēng)險(xiǎn),例如:核電站的建設(shè)也存在核泄漏的風(fēng)險(xiǎn),但刑法若僅僅因?yàn)榇嬖陲L(fēng)險(xiǎn)而去規(guī)制,這一規(guī)制手段所造成的負(fù)擔(dān)勢(shì)必會(huì)成為社會(huì)發(fā)展的羈絆。因此,風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法通過(guò)最后手段原則內(nèi)部子原則的檢驗(yàn),難以獲得正當(dāng)性的證立根據(jù)。
從宏觀角度來(lái)看,風(fēng)險(xiǎn)社會(huì)相關(guān)理論也無(wú)法獲得最后手段原則的支持。最后手段原則注重刑法與其他部門(mén)法的互動(dòng),刑法自身應(yīng)當(dāng)考慮到其手段的嚴(yán)厲性、破壞性等,因此,某一行為能夠被其他部門(mén)法手段規(guī)制時(shí),刑法就沒(méi)有必要作出規(guī)定。除非行為已經(jīng)達(dá)到其他部門(mén)法無(wú)法規(guī)制的地步,此時(shí)刑法手段才能夠被采取。然而,風(fēng)險(xiǎn)社會(huì)相關(guān)理論的主張中并未發(fā)現(xiàn)“風(fēng)險(xiǎn)行政法”“風(fēng)險(xiǎn)民法”的提倡,而是直接上升到“風(fēng)險(xiǎn)刑法”地步,由此可以看出,“風(fēng)險(xiǎn)刑法”顯然是越過(guò)刑法的最后手段原則做出的提議。而且,刑法的前置法規(guī)范中也并未提及針對(duì)風(fēng)險(xiǎn)社會(huì)的規(guī)制問(wèn)題,也即風(fēng)險(xiǎn)社會(huì)相關(guān)理論尚未進(jìn)入到民法規(guī)范、行政規(guī)范的視野中。最后手段原則主張刑法的生命在于對(duì)法條的解釋,而不是一味地就可能出現(xiàn)的情況去進(jìn)行立法。當(dāng)下社會(huì)公眾的刑事立法價(jià)值觀也一貫否定對(duì)人工智能進(jìn)行超前立法,不僅僅是考慮到未來(lái)社會(huì)發(fā)展的趨勢(shì)和特點(diǎn),還要提防超前立法所導(dǎo)致的誤判風(fēng)險(xiǎn)。64參見(jiàn)姚萬(wàn)勤:《對(duì)通過(guò)新增罪名應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的質(zhì)疑》,載《當(dāng)代法學(xué)》2019 年第3 期。
綜上所述,在本文看來(lái)當(dāng)下人工智能所造成的風(fēng)險(xiǎn)仍在可控范圍之內(nèi),故刑法大可不必針對(duì)不確定的風(fēng)險(xiǎn)進(jìn)行立法。主張風(fēng)險(xiǎn)刑法的學(xué)者大都以風(fēng)險(xiǎn)的視角先入為主,忽視了刑法風(fēng)險(xiǎn)語(yǔ)境下風(fēng)險(xiǎn)本身的正統(tǒng)地位,將風(fēng)險(xiǎn)刑法與刑法風(fēng)險(xiǎn)本末倒置,其本身就是一個(gè)偽命題。因此,風(fēng)險(xiǎn)社會(huì)相關(guān)理論無(wú)法在刑法教義學(xué)體系內(nèi)安身立命。
人工智能確實(shí)作為一種新的社會(huì)現(xiàn)象呈現(xiàn)出來(lái)并引起了學(xué)界的關(guān)注和探討,因此,這就需要立足于整個(gè)法規(guī)范體系為其尋找安身立命場(chǎng)所。當(dāng)然,這并非意味著該現(xiàn)象在既有的刑法體系中不存在解決方案。刑法最終落腳點(diǎn)應(yīng)為人工智能時(shí)代下刑法定位問(wèn)題的探討,即刑法如何在既有法律規(guī)范體系內(nèi)消解當(dāng)下“人工智能熱”現(xiàn)象。事實(shí)上,刑法在厘清了人工智能的技術(shù)本質(zhì)后,人工智能在刑法上的定位已經(jīng)清晰明了。該部分在前述章節(jié)論證基礎(chǔ)之上,首先對(duì)強(qiáng)弱人工智能在法律規(guī)范上的分類提出質(zhì)疑,而后對(duì)人工智能的風(fēng)險(xiǎn)來(lái)源進(jìn)行分類,最終立足于既有的法規(guī)范體系從內(nèi)部以及外部風(fēng)險(xiǎn)出發(fā)對(duì)刑法的定位做出探討。
目前,社會(huì)層面上出現(xiàn)了強(qiáng)人工智能與弱人工智能的相對(duì)性分類,并且這一分類迅速蔓延到刑法規(guī)范中,引起了刑法學(xué)者們的爭(zhēng)議。人工智能劃分為弱人工智能和強(qiáng)人工智能(包括超強(qiáng)人工智能)雖然在技術(shù)層面具備一定合理性,畢竟,科學(xué)技術(shù)在傳統(tǒng)意義上確實(shí)存在技術(shù)落后與先進(jìn)的區(qū)分,比如臺(tái)式電腦與便攜式平板電腦就是技術(shù)先進(jìn)與否的典征。但是,這一分類具體到刑法規(guī)范層面上來(lái)講是否具備合理性,有待考究。目前學(xué)界越來(lái)越多的學(xué)者主張采取這一劃分方法,其考慮到的正是人工智能時(shí)刻處于進(jìn)步、發(fā)展的狀態(tài),這種進(jìn)步是建立在技術(shù)發(fā)展與應(yīng)用基礎(chǔ)之上,故由弱人工智能可以進(jìn)步到強(qiáng)人工智能時(shí)代。并且,學(xué)界在此基礎(chǔ)上展開(kāi)了對(duì)強(qiáng)人工智能具備“意識(shí)”、能夠成為法律主體等問(wèn)題的論證。不過(guò),反對(duì)的聲音也一直存在,即也有聲音對(duì)于強(qiáng)弱人工智能的分類方式產(chǎn)生疑問(wèn),并指出從人類自身出發(fā)應(yīng)當(dāng)否定強(qiáng)人工智能的存在。65參見(jiàn)郭研、沙濤:《人工智能刑事責(zé)任能力之否定》,載《學(xué)術(shù)交流》2022 年第1 期。比如,有學(xué)者提出,即便是人工智能技術(shù)進(jìn)化到“人工智能黑客”階段,即在該階段中“人工智能黑客”已經(jīng)能夠獨(dú)立地形成一套完整的運(yùn)作系統(tǒng),從算法開(kāi)始到學(xué)習(xí)、思考并最終能夠自主行動(dòng),這種情形中其還是無(wú)法擺脫工具的屬性,此時(shí)的責(zé)任承擔(dān)主體依然是這一程序背后的設(shè)計(jì)者、管理者等。66參見(jiàn)侯東德、張可法:《“人工智能黑客”的法律規(guī)制》,載《重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,網(wǎng)絡(luò)首發(fā)論文,http://kns.cnki.net/kcms/detail/50.1023.c.20220222.0825.002.html。
本文認(rèn)為,強(qiáng)弱人工智能的分類方法僅在技術(shù)層面存有意義,這一分類方法不能進(jìn)入刑法規(guī)范。理由如下,刑法應(yīng)當(dāng)注意到技術(shù)進(jìn)步并未改變機(jī)器的本質(zhì)屬性。這就好比手機(jī)的發(fā)展歷程一樣,由最初的座機(jī)發(fā)展到今天的智能機(jī),高度智能手機(jī)可以實(shí)現(xiàn)自助預(yù)約做飯、進(jìn)行對(duì)話等高度模擬人類行為的活動(dòng),但即便是在高度智能的情況下,這一變化也并不值得引起刑法的關(guān)注。人工智能技術(shù)發(fā)展蘊(yùn)含的道理也是一樣的,難以說(shuō)明其由弱到強(qiáng)的變化就實(shí)現(xiàn)了刑法規(guī)制從無(wú)到有的飛躍。即便是人工智能高度智能化并通過(guò)了“圖靈測(cè)試”,這也只能說(shuō)明其在功能意義上與人類主體相同,絕不意味著人工智能可以作為像人類一樣的主體。67參見(jiàn)王汝坤:《論廣義進(jìn)化論視閾下的人工智能倫理問(wèn)題》,載《上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2022 年第1 期。再者,從哲學(xué)的角度看“強(qiáng)”“弱”的劃分本身就是根據(jù)人的價(jià)值標(biāo)準(zhǔn)來(lái)判斷的。如同對(duì)人類進(jìn)行“低級(jí)”和“高級(jí)”劃分一樣,這一劃分顯然是以人類為中心做出的價(jià)值判斷。68參見(jiàn)李建會(huì):《生物學(xué)中事實(shí)與價(jià)值的纏結(jié):以進(jìn)化是否是進(jìn)步為例》,載《科學(xué)技術(shù)哲學(xué)研究》2019 年第6 期。這一將價(jià)值判斷的觀念要素代入到刑法規(guī)范記載中的做法,違背了罪行法定原則中成文化、明確性的要求。倘若將強(qiáng)弱劃分應(yīng)用到規(guī)范層面,至少還應(yīng)當(dāng)說(shuō)明為何人工智能由弱到強(qiáng)是一個(gè)“意識(shí)”從無(wú)到有的變化過(guò)程,強(qiáng)人工智能相較于弱人工智能成為法律主體的根據(jù)為何,而且,弱人工智能是否意味著必然不具備成為法律主體的資格等,這都存在疑問(wèn)。因此,強(qiáng)弱人工智能的分類欲想進(jìn)入刑法規(guī)范的工作十分艱難,甚至可以說(shuō)這項(xiàng)工作永遠(yuǎn)不會(huì)成為現(xiàn)實(shí)。
綜上來(lái)看,刑法規(guī)范不承認(rèn)強(qiáng)人工智能與弱人工智能的劃分方法,而且這一劃分方法并不會(huì)影響到人工智能在刑法規(guī)范上的定位。因此,刑法規(guī)范中的人工智能概念應(yīng)當(dāng)舍棄這一分類方法,即將刑法中關(guān)于強(qiáng)弱人工智能問(wèn)題的探討統(tǒng)一到人工智能問(wèn)題的探討。
人工智能是由人類制作而成的產(chǎn)品。事實(shí)上,人工智能在部分階段屬于一種智能設(shè)備。69參見(jiàn)劉小璇、張虎:《論人工智能的侵權(quán)責(zé)任》,載《南京社會(huì)科學(xué)》2018 年第9 期。并且,早在2016 年聯(lián)合國(guó)科教文組織就通過(guò)了《關(guān)于機(jī)器人倫理的初步草案報(bào)告》,在該份報(bào)告中明確指出人工智能將作為科技產(chǎn)品。因此,眼下處理人工智能相關(guān)法律問(wèn)題的關(guān)鍵在于明確其“產(chǎn)品”或者“工具”的本質(zhì)屬性。70參見(jiàn)高銘暄、王紅:《互聯(lián)網(wǎng)+人工智能全新時(shí)代的刑事風(fēng)險(xiǎn)與犯罪類型化分析》,載《暨南學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018 年第9 期。人工智能在刑法上法律定位的探討應(yīng)建立在其產(chǎn)品本質(zhì)屬性的前提下。
人工智能的產(chǎn)品屬性決定了對(duì)其風(fēng)險(xiǎn)來(lái)源的劃分。本文認(rèn)為,人工智能造成的風(fēng)險(xiǎn)可以分為兩類:一是人工智能產(chǎn)品本身產(chǎn)生的風(fēng)險(xiǎn),可稱之為內(nèi)部風(fēng)險(xiǎn),這體現(xiàn)了其產(chǎn)品性的特征。二是因人類主體利用人工智能產(chǎn)品所產(chǎn)生的風(fēng)險(xiǎn),可稱之為外部風(fēng)險(xiǎn),這體現(xiàn)了其工具性的特征。人工智能的內(nèi)部風(fēng)險(xiǎn)主要來(lái)源于產(chǎn)品技術(shù)本身。此時(shí),人工智能作為產(chǎn)品具備完全意義上的獨(dú)立性,即不受人類的控制與利用,擺脫了人工智能工具性的屬性。這一內(nèi)部風(fēng)險(xiǎn)從產(chǎn)品生產(chǎn)設(shè)計(jì)完成時(shí)就已經(jīng)潛在化了,此時(shí)內(nèi)部風(fēng)險(xiǎn)的演變?cè)缫衙撾x了人類主體的干涉,其一般情況下通過(guò)刑法的前置法規(guī)范如民法規(guī)范中的產(chǎn)品責(zé)任就能夠解決。除非這一內(nèi)部風(fēng)險(xiǎn)的演變是人為的故意操縱,比如說(shuō)故意設(shè)計(jì)錯(cuò)誤程序、故意在生產(chǎn)制造過(guò)程中摻雜摻假、設(shè)計(jì)危險(xiǎn)程序,此時(shí)這種情形就會(huì)涉及到刑事規(guī)范的適用(具體后文詳述)。人工智能的外部風(fēng)險(xiǎn)主要是指人工智能作為工具由人類主體利用產(chǎn)生的風(fēng)險(xiǎn),此時(shí)人工智能更多地是作為工具出現(xiàn)在大眾視野,由此構(gòu)成了人工智能外部風(fēng)險(xiǎn)的來(lái)源。在People v.Davis 一案中,加利福尼亞最高法院也認(rèn)為人工智能機(jī)器人只能作工具使用。71同前注38。
綜上所述,人工智能的產(chǎn)品本質(zhì)決定了其風(fēng)險(xiǎn)的分類,這一分類基本上奠定了人工智能法律規(guī)制的前提,人工智能的刑法定位也是建立在風(fēng)險(xiǎn)分類基礎(chǔ)之上。
前述部分明確了人工智能的風(fēng)險(xiǎn)原理,并對(duì)人工智能的風(fēng)險(xiǎn)進(jìn)行了規(guī)范上的分類,接下來(lái)便是人工智能在刑法中具體定位的探討。前述風(fēng)險(xiǎn)劃分的工作結(jié)束后,人工智能在刑法體系中的定位就很明朗了。刑法此時(shí)的任務(wù)應(yīng)當(dāng)是在最后手段原則的指導(dǎo)下對(duì)這種內(nèi)外的二元風(fēng)險(xiǎn)作出最后的規(guī)制,即刑法對(duì)于“產(chǎn)品屬性”和“工具屬性”兩種風(fēng)險(xiǎn)的二元定位。
1.內(nèi)部風(fēng)險(xiǎn)的刑法定位
首先,民事規(guī)范在內(nèi)部風(fēng)險(xiǎn)的規(guī)制上應(yīng)當(dāng)是首選方法。畢竟,人工智能機(jī)器人作為一種產(chǎn)品,原則上由缺陷產(chǎn)品自身產(chǎn)生的侵害當(dāng)然適用產(chǎn)品責(zé)任來(lái)規(guī)制。當(dāng)下,《民法典》中產(chǎn)品責(zé)任編對(duì)這種缺陷產(chǎn)品的損害已經(jīng)作出了規(guī)定,主體涉及到生產(chǎn)者、銷售者以及運(yùn)輸者和倉(cāng)儲(chǔ)者等第三人,可以說(shuō)其規(guī)定的已經(jīng)相當(dāng)全面了。產(chǎn)品的生產(chǎn)者因產(chǎn)品缺陷造成他人損害的,對(duì)其一般適用無(wú)過(guò)錯(cuò)責(zé)任,比如《民法典》第1202條之規(guī)定。而對(duì)于中間的銷售者來(lái)講,其對(duì)缺陷產(chǎn)品承擔(dān)先行賠償?shù)牧x務(wù),但是事后可以向生產(chǎn)者追回,不過(guò)銷售者應(yīng)當(dāng)證明產(chǎn)品缺陷系生產(chǎn)者造成,比如《民法典》第1203 條之規(guī)定。對(duì)于因第三人過(guò)錯(cuò)使得缺陷產(chǎn)品對(duì)他人造成損害的,第三人也應(yīng)當(dāng)承擔(dān)賠償責(zé)任。而且,《民法典》產(chǎn)品責(zé)任編中,不僅是對(duì)侵權(quán)主體作出了詳細(xì)規(guī)定,對(duì)于責(zé)任承擔(dān)方式也作出了具體規(guī)定,比如,侵權(quán)主體除了要承擔(dān)一般的侵權(quán)責(zé)任外,在特定的情形下,被侵權(quán)人還有權(quán)主張適用懲罰性賠償,比如《民法典》第1207 條之規(guī)定。當(dāng)然,民法規(guī)范為了不過(guò)多的對(duì)技術(shù)進(jìn)步造成束縛,在產(chǎn)品責(zé)任的免責(zé)事由中指出,生產(chǎn)者因“將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的”不承擔(dān)賠償責(zé)任。
其次,行政規(guī)范在內(nèi)部風(fēng)險(xiǎn)的規(guī)制上也可以發(fā)揮作用。行政規(guī)范對(duì)于人工智能產(chǎn)品的生產(chǎn)、研發(fā),可以要求相關(guān)主體如企業(yè)制定、出臺(tái)一系列的規(guī)章制度,包括相應(yīng)的注意義務(wù)、產(chǎn)品的正確研發(fā)制度、引導(dǎo)使用規(guī)范等相關(guān)安全管理規(guī)定。企業(yè)如果未能嚴(yán)格遵守行政法規(guī)、政策而造成后果,行政規(guī)范可以采取警告或者罰款甚至是吊銷營(yíng)業(yè)執(zhí)照等手段。對(duì)于銷售者來(lái)說(shuō),行政法規(guī)及政策應(yīng)當(dāng)重點(diǎn)規(guī)制的是人工智能產(chǎn)品市場(chǎng)流入制度。此外,人工智能產(chǎn)品的特殊性(高度智能)還決定了銷售者應(yīng)當(dāng)盡更多的說(shuō)明、教會(huì)義務(wù),銷售者應(yīng)重點(diǎn)強(qiáng)調(diào)人工智能產(chǎn)品的注意事項(xiàng)、風(fēng)險(xiǎn)告知以及使用禁忌,以保證消費(fèi)者能夠做到詳細(xì)的了解和學(xué)習(xí)。此外,《治安管理處罰法》在內(nèi)部風(fēng)險(xiǎn)的行政法規(guī)制上也應(yīng)當(dāng)被考慮有無(wú)適用的余地。
最后,刑法手段在規(guī)制內(nèi)部風(fēng)險(xiǎn)中的應(yīng)用。刑法手段規(guī)制風(fēng)險(xiǎn)的第一種情形為,當(dāng)侵害結(jié)果的發(fā)生是因?yàn)樯a(chǎn)者等在研發(fā)、生產(chǎn)環(huán)節(jié)故意造成時(shí)刑法才有適用的空間。生產(chǎn)者、研發(fā)者在研發(fā)、生產(chǎn)人工智能等產(chǎn)品時(shí),對(duì)產(chǎn)品的零部件或者編程故意摻雜造假或者故意設(shè)計(jì)非法程序、下達(dá)非法指令,造成“缺陷產(chǎn)品”的生產(chǎn)并流入市場(chǎng)由此引發(fā)產(chǎn)品事故的,該種情形應(yīng)當(dāng)追究生產(chǎn)者生產(chǎn)、銷售偽劣產(chǎn)品罪或者以危險(xiǎn)方法危害公共安全罪的刑事責(zé)任,原因是:第一,人工智能機(jī)器人等屬于產(chǎn)品的范疇,生產(chǎn)者、研發(fā)者在生產(chǎn)過(guò)程中出現(xiàn)了以次充好、以假充真的情形,行為造成了嚴(yán)重的社會(huì)危害性,當(dāng)然應(yīng)當(dāng)根據(jù)生產(chǎn)銷售偽劣產(chǎn)品罪予以規(guī)制。第二,研發(fā)者或生產(chǎn)者故意造成系統(tǒng)缺陷進(jìn)而投放到市場(chǎng)使用,該行為無(wú)異于向社會(huì)投放危險(xiǎn)物質(zhì)。人工智能畢竟屬于高科技產(chǎn)品,程序出錯(cuò)的人工智能產(chǎn)品在危害性上無(wú)異于危險(xiǎn)物品,比如,前述“機(jī)器人殺人事件”,無(wú)人駕駛汽車以及人工智能作戰(zhàn)武器等的危險(xiǎn)程度甚至高于一般的危險(xiǎn)物質(zhì)。
刑法手段規(guī)制風(fēng)險(xiǎn)的第二種情形為,若研發(fā)者或者生產(chǎn)者在設(shè)計(jì)、生產(chǎn)人工智能機(jī)器人時(shí),未盡到相應(yīng)的管理注意義務(wù),疏忽大意使不合格的人工智能產(chǎn)品流入市場(chǎng),造成嚴(yán)重后果的,刑法規(guī)范才具備發(fā)揮作用的空間。這種情形可以過(guò)失以危險(xiǎn)方法危害公共安全罪、重大責(zé)任事故罪或者重大安全事故罪追究相關(guān)主體的刑事責(zé)任。比如,行為人在生產(chǎn)作業(yè)中違規(guī)操作引發(fā)重大責(zé)任事故,則應(yīng)追究主要責(zé)任人或者行為人的重大責(zé)任事故罪。該種情形下行為人不遵守操作說(shuō)明以及安全管理規(guī)定或者對(duì)違規(guī)操作持過(guò)失心態(tài),導(dǎo)致人工智能產(chǎn)品產(chǎn)生危害后果,滿足了重大責(zé)任事故罪的構(gòu)成要件。在第二種情形所涉及罪名的適用中,一方面要注重考察危害結(jié)果的發(fā)生與否,這是因?yàn)橐紤]到技術(shù)的不穩(wěn)定性等復(fù)雜情形,防止因?yàn)樾塘P措施過(guò)于嚴(yán)格阻礙科技進(jìn)步。另一方面要注重考察研發(fā)者和生產(chǎn)者是否遵守相關(guān)注意義務(wù),防止研發(fā)者和生產(chǎn)者在生產(chǎn)、作業(yè)中疏于管理或者違反有關(guān)安全管理規(guī)定而導(dǎo)致危害結(jié)果的發(fā)生。當(dāng)然,若該技術(shù)缺陷就算盡到注意義務(wù)也難以避免,則屬于意外事件。
2.外部風(fēng)險(xiǎn)的刑法定位
人工智能的外部風(fēng)險(xiǎn)主要是指人為使用所造成的危害結(jié)果,具體又可分為正常使用和非法利用兩種情形,對(duì)于這兩種情形的規(guī)制路徑也有所不同。
第一種情形,若是在正常使用中因產(chǎn)品自身原因?qū)е虑趾Y(jié)果產(chǎn)生,則應(yīng)當(dāng)按照產(chǎn)品責(zé)任的規(guī)定處理,實(shí)際上該種情況風(fēng)險(xiǎn)來(lái)源于人工智能內(nèi)部,這種情形不受刑法的關(guān)注。
第二種情形,對(duì)于非法利用人工智能的情形應(yīng)當(dāng)納入刑法規(guī)制的范疇。該種情形下行為人主要是將人工智能作為工具使用,比如,行為人利用人工智能機(jī)器人實(shí)施的殺人行為、搶劫行為等,人工智能此時(shí)充當(dāng)?shù)氖禽o助工具的角色,應(yīng)當(dāng)根據(jù)具體情形分別按照故意殺人罪、搶劫罪等追究行為人(人工智能使用者)的刑事責(zé)任。此外,前述提到的人工智能黑客現(xiàn)象,明顯就是人工智能工具屬性的體現(xiàn),即黑客程序設(shè)計(jì)者作為背后的責(zé)任主體,利用人工智能黑客侵入計(jì)算機(jī)的行為當(dāng)然也就構(gòu)成計(jì)算機(jī)類相關(guān)犯罪,如《刑法》第285 條以及第286 條規(guī)定的相關(guān)罪名。
除上述情形之外,本部分?jǐn)M以當(dāng)下熱度較高的無(wú)人駕駛技術(shù)為例,對(duì)其在刑法規(guī)制上做簡(jiǎn)要分析。無(wú)人駕駛技術(shù)是將強(qiáng)人工智能應(yīng)用于汽車駕駛領(lǐng)域,此時(shí),無(wú)人駕駛技術(shù)的刑法規(guī)制結(jié)合其風(fēng)險(xiǎn)來(lái)源,可以具體分為以下情形,生產(chǎn)者、設(shè)計(jì)者通過(guò)設(shè)計(jì)非法程序利用無(wú)人駕駛技術(shù)在人員密集的道路交通上橫沖直撞的,該種情形下應(yīng)當(dāng)視具體情形追究生產(chǎn)者、設(shè)計(jì)者故意殺人罪或者以危險(xiǎn)方法危害公共安全罪。若駕駛者在使用無(wú)人駕駛技術(shù)時(shí)造成交通事故,此時(shí),如果交通事故是由駕駛者過(guò)失操作不當(dāng)所致,駕駛者可根據(jù)情形被追究交通肇事罪的刑事責(zé)任;如果駕駛者故意操作導(dǎo)致駕駛故障,或者對(duì)產(chǎn)生故障后的情形持放任態(tài)度能去阻止而不阻止,任由無(wú)人駕駛汽車行駛而不去接管,此時(shí)駕駛者應(yīng)當(dāng)視情形被追究故意殺人罪等刑事責(zé)任。總之,刑法在明確了人工智能產(chǎn)品屬性和工具屬性的前提下,結(jié)合具體情形加以分析后得出的結(jié)論往往不會(huì)超出人們對(duì)法規(guī)范中常識(shí)常理常情的認(rèn)知。
人工智能時(shí)代終將到來(lái),人類也會(huì)因此進(jìn)入風(fēng)險(xiǎn)社會(huì),刑法如果盲目追求標(biāo)新勢(shì)必會(huì)引起刑法規(guī)制與科技進(jìn)步的矛盾。刑法應(yīng)當(dāng)克制住其在當(dāng)下焦躁冒進(jìn)的態(tài)度,遵循緩和的積極主義刑事立法觀。72參見(jiàn)王俊松:《網(wǎng)絡(luò)智能時(shí)代的刑事立法觀:理念回應(yīng)與路徑優(yōu)化》,載《重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2022 年第4 期。人工智能引發(fā)的法律問(wèn)題并未觸及到刑法深層次的理論探討,抑或者刑法教義學(xué)體系完全能夠消化風(fēng)險(xiǎn)社會(huì)理論涉及的有關(guān)現(xiàn)象。按照本文的主張,文章開(kāi)篇所提的“機(jī)器人殺人事件”也只不過(guò)是普通的自動(dòng)化器械故障而已,即便是機(jī)器人對(duì)話中出現(xiàn)的反人類情形亦是如此。人工智能威脅的產(chǎn)生并不來(lái)源于它本身,而是我們?nèi)祟悓?duì)它的態(tài)度??傊斯ぶ悄苤皇侨祟惏l(fā)展史上具有進(jìn)步意義的輔助工具,傳統(tǒng)的法律體系完全可以將其所衍生的風(fēng)險(xiǎn)內(nèi)化,而所謂的強(qiáng)人工智能和弱人工智能的劃分,不過(guò)是電鋸和斧頭的區(qū)別罷了。