摘 要:隨著人工智能技術(shù)的迅猛發(fā)展,我們應(yīng)提前預(yù)想到人工智能時(shí)代可能面臨的法律隱憂,明確不同類型的人工智能產(chǎn)品的法律特征和法律地位,并就我國刑法應(yīng)當(dāng)如何合理應(yīng)對人工智能時(shí)代所帶來的刑事風(fēng)險(xiǎn)展開具體的分析與討論。弱人工智能產(chǎn)品不能作為刑事責(zé)任主體;強(qiáng)、超人工智能產(chǎn)品在設(shè)計(jì)編程范圍內(nèi)不能成為刑事責(zé)任主體,但其基于自由意志、超越設(shè)計(jì)編程范圍自主實(shí)施犯罪行為時(shí)或是在刑法有明文規(guī)定的情況下能夠作為刑事責(zé)任主體。此外,即便承認(rèn)人工智能產(chǎn)品能夠具有刑事責(zé)任能力,其刑事責(zé)任能力同自然人主體一樣亦存在著增強(qiáng)或減弱、完全或受限的情形。
關(guān)鍵詞:刑事責(zé)任主體;刑事責(zé)任能力;弱人工智能產(chǎn)品;強(qiáng)人工智能產(chǎn)品
中圖分類號(hào):D914;TP18 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.13677/j.cnki.cn65-1285/c.2021.02.10
歡迎按以下方式引用:孫天洋.人工智能產(chǎn)品作為刑事責(zé)任主體之可能性探究[J].克拉瑪依學(xué)刊,2021(2)68-73.
一、人工智能產(chǎn)品作為未來刑事責(zé)任主體的法理設(shè)想
人工智能技術(shù)在多學(xué)科內(nèi)廣泛應(yīng)用并取得豐碩成果的同時(shí),大量人工智能產(chǎn)品致人損害甚至死亡的案例使學(xué)界產(chǎn)生能否賦予人工智能產(chǎn)品刑事責(zé)任主體地位,用刑法規(guī)制人工智能技術(shù)的發(fā)展的設(shè)想。[1]事實(shí)上,何種人工智能產(chǎn)品在何種條件下能夠作為刑事責(zé)任主體應(yīng)進(jìn)行類型化分析。學(xué)界對于弱人工智能產(chǎn)品能否作為刑事責(zé)任主體的意見較為一致,弱人工智能產(chǎn)品可以在設(shè)計(jì)和編制的程序范圍內(nèi)獨(dú)立判斷并自主作出決策,但是,因其不具有辨認(rèn)能力和控制能力,且其意志完全受控或受制于人類設(shè)計(jì)和編制的程序,因此可以將弱人工智能產(chǎn)品看作人類改造世界的新型工具。[2]故弱人工智能不可能也不必要成為刑事責(zé)任主體。但是對于強(qiáng)、超人工智能產(chǎn)品的刑事責(zé)任主體地位的認(rèn)定,學(xué)界存在兩種不同的觀點(diǎn)。第一種觀點(diǎn)為肯定說[3],該種觀點(diǎn)認(rèn)為強(qiáng)人工智能產(chǎn)品在設(shè)計(jì)編程范圍外獨(dú)立地實(shí)施犯罪行為時(shí)可以作為刑事責(zé)任主體。第二種觀點(diǎn)為否定說[4],該種觀點(diǎn)對人工智能產(chǎn)品獨(dú)立承擔(dān)刑事責(zé)任持謹(jǐn)慎態(tài)度(由于超人工智能產(chǎn)品是強(qiáng)人工智能產(chǎn)品的升級(jí)版,具備并超越強(qiáng)人工智能產(chǎn)品的一切功能,筆者在此主要針對強(qiáng)人工智能產(chǎn)品展開論述)。
(一)未來刑事責(zé)任主體理論的變革——“擬制人”概念的深化
法諺云:“無責(zé)任者無能力”,即只有具備刑事責(zé)任能力,才有可能作為刑事責(zé)任主體,承擔(dān)刑事責(zé)任。[5]責(zé)任能力是指進(jìn)行責(zé)任非難所要求的行為人的能力。刑法上所講的責(zé)任能力包含辨認(rèn)能力和控制能力兩方面的內(nèi)容。辨認(rèn)能力又稱認(rèn)識(shí)能力,指行為人認(rèn)識(shí)自己實(shí)施的特定行為的內(nèi)容、社會(huì)意義和結(jié)果的能力??刂颇芰τ址Q意志能力,指行為人支配自己實(shí)施或者不實(shí)施特定行為的能力。我們應(yīng)當(dāng)看到,有無辨認(rèn)和控制能力是能否具有刑事責(zé)任能力的前提,而刑事責(zé)任能力則是認(rèn)定刑事責(zé)任主體的核心要素。但任何一部法律,任何一條法律原則都有其產(chǎn)生的特定歷史原因,刑法的基本原則也不例外?,F(xiàn)行刑法確立的基本原則主要來源于18世紀(jì)后的啟蒙思想,囿于當(dāng)時(shí)的社會(huì)歷史環(huán)境以及科技發(fā)展程度,彼時(shí)的法學(xué)家不可能認(rèn)識(shí)到人工智能技術(shù)的產(chǎn)生和發(fā)展,更難以想象到人工智能技術(shù)給現(xiàn)行法律體系帶來的重大沖擊。在人工智能技術(shù)大規(guī)模應(yīng)用的新形勢下,對傳統(tǒng)刑法基本理念和原則的重建勢不可擋。[6]
在刑事責(zé)任理論發(fā)展的過程中,學(xué)界對于刑事責(zé)任主體的認(rèn)識(shí)經(jīng)歷了多次重大變革,在可以預(yù)見的未來,人工智能技術(shù)高度發(fā)達(dá),人工智能產(chǎn)品大規(guī)模走入人類社會(huì)中,成為人類社會(huì)不可或缺的一部分時(shí),刑事責(zé)任主體理論完全有可能進(jìn)一步發(fā)展和延伸,將責(zé)任主體的范圍擴(kuò)大到包含人工智能產(chǎn)品這一類擬人的產(chǎn)物進(jìn)而更好地保障人類社會(huì)的安定發(fā)展。[7]判斷某些主體能否作為法律主體的本質(zhì)在于其是否具備獨(dú)立的法律人格。雖然單位和人工智能產(chǎn)品都可能被刑法擬制成為“人”,但我們應(yīng)當(dāng)看到二者的核心區(qū)別,即單位意志的本質(zhì)來源是自然人的共同意志,而人工智能產(chǎn)品意志的本質(zhì)來源是程序與算法。可以說是否承認(rèn)人工智能產(chǎn)品的獨(dú)立意志的來源是新刑事責(zé)任主體理論能否包含人工智能產(chǎn)品的關(guān)鍵。弱人工智能產(chǎn)品由于完全依賴于人類的編程和算法的控制,其不具備獨(dú)立的意志自由,故而不可能具備獨(dú)立的法律人格,更不可能獨(dú)立的作為刑事責(zé)任主體去承擔(dān)刑事責(zé)任。而強(qiáng)人工智能產(chǎn)品、超人工智能產(chǎn)品具備著比肩甚至超越人類的深度學(xué)習(xí)能力和獨(dú)立的思維能力,其完全可能超越編程和算法產(chǎn)生自己的獨(dú)立意志。從這個(gè)角度上講,機(jī)器人完全有可能通過橫向的學(xué)習(xí)來實(shí)現(xiàn)法律人格的獨(dú)立。其基于自由意志實(shí)施犯罪后,作為刑事責(zé)任主體承擔(dān)刑事責(zé)任符合刑事責(zé)任主體理論在不同社會(huì)歷史條件下的發(fā)展進(jìn)程,且有助于維護(hù)現(xiàn)行刑事責(zé)任主體理論內(nèi)涵的統(tǒng)一。
(二)人工智能產(chǎn)品作為刑事責(zé)任主體的前提——“擬制人”的刑法地位
賦予智能機(jī)器人法律主體地位并非無稽之談,而且一些國家早有先例。如2017年10月25日,沙特政府決定授予智能機(jī)器人“索菲亞”國籍;日本議會(huì)通過立法案準(zhǔn)備授予智能機(jī)器人工人身份都很好地體現(xiàn)了這一點(diǎn)。但賦予人工智能產(chǎn)品“擬制人”的地位就不得不探討人工智能機(jī)器人在法律上的地位以及人與人工智能機(jī)器人的法律關(guān)系。1956年科幻小說家阿西莫夫首次在他的作品《圓舞》中明確闡述的“機(jī)器人三原則”可以給予我們很好的啟發(fā)。即第一法則:機(jī)器人不得傷害人類個(gè)體,也不得以其不作為致使人類個(gè)體受到傷害。第二法則:機(jī)器人應(yīng)當(dāng)服從人類個(gè)體給予的所有命令,除非該命令違反第一法則。第三法則:機(jī)器人應(yīng)當(dāng)在不違背第一法則或第二法則的范圍內(nèi)關(guān)注自己的安全。[8]雖然“機(jī)器人三原則”不是法律原則,甚至連法律規(guī)則也談不上,至多只能算作是人與機(jī)器人之間倫理道德的一種構(gòu)想,但卻不能否定其創(chuàng)設(shè)性的指導(dǎo)意義。在筆者看來,雖然未來的刑事責(zé)任主體理論可能深化,刑事責(zé)任主體這一概念也可能外延使之包含人工智能機(jī)器人這一“擬制人”。但是我們對智能機(jī)器人所享有的法律地位應(yīng)當(dāng)秉持承認(rèn)與限制并存的態(tài)度。[9]從人類高于人工智能機(jī)器人,人類創(chuàng)造人工智能技術(shù),以及人工智能技術(shù)的工具屬性的角度來看,人類與人工智能機(jī)器人的法律地位天然的不能平等。但是法律可以在一定程度上賦予人工智能產(chǎn)品特定的法律主體地位,將人工智能產(chǎn)品納入刑法的規(guī)制范圍加以保護(hù)或打擊,以期使其享有特定權(quán)利、履行特定義務(wù)。
(三)刑法規(guī)制人工智能主體的意義——“擬制人”的保護(hù)與約束
筆者認(rèn)為,在刑法領(lǐng)域,賦予人工智能產(chǎn)品法律主體地位的好處之一是其可以更好地受到刑法的保護(hù)。與自然人“天賦人權(quán)、人人生而平等”的權(quán)利來源不同,人工智能產(chǎn)品的權(quán)利只能來自于法律的明文規(guī)定。人工智能產(chǎn)品的工具屬性決定了其不能像自然人一樣擁有人格權(quán),更談不上擁有配偶權(quán)、親權(quán)等。但人工智能產(chǎn)品不同于動(dòng)物或其他物品,其擁有著類似人一樣的思維和意識(shí),不能將其簡單的歸結(jié)為刑法意義上的財(cái)物。刑法若賦予人工智能產(chǎn)品類似于人類的“生命權(quán)”“身體權(quán)”,賦予未來可能獨(dú)立存在自食其力的人工智能機(jī)器人“財(cái)產(chǎn)權(quán)”,將人工智能產(chǎn)品列為刑法保護(hù)的對象,使其特定“權(quán)利”免遭自然人或其他人工智能產(chǎn)品的肆意踐踏和侵害,通過刑法的規(guī)制更好地滿足人工智能產(chǎn)品的“精神”需要、“物質(zhì)”需要,使人工智能產(chǎn)品擁有更強(qiáng)的歸屬感、安全感,這將更加能夠解放人工智能產(chǎn)品本身的生產(chǎn)力和提高人工智能產(chǎn)品從事生產(chǎn)勞動(dòng)的積極性,使之與人類一同建設(shè)更加美好的社會(huì)。誠然,人工智能產(chǎn)品雖不必要亦不可能如人類一樣享有完整的人身權(quán)、財(cái)產(chǎn)權(quán),人類也不可能犧牲自身的權(quán)益去保障人工智能的利益,但是筆者認(rèn)為,適當(dāng)保障人工智能產(chǎn)品的上述權(quán)利,有助于規(guī)范自然人與人工智能產(chǎn)品、人工智能產(chǎn)品與人工智能產(chǎn)品間的法律關(guān)系,使此種關(guān)系長期穩(wěn)定地發(fā)展。
有權(quán)利必有義務(wù),賦予人工智能產(chǎn)品法律主體地位的另一好處是其作為刑法主體必然要承擔(dān)刑法上的作為和不作為義務(wù)。刑法的根本目的在于懲罰犯罪和保障人權(quán)。我們可以通過刑法的指引作用、評(píng)價(jià)作用、預(yù)防作用、教育作用降低人工智能產(chǎn)品自發(fā)實(shí)施犯罪的風(fēng)險(xiǎn)。如果人工智能產(chǎn)品獨(dú)立地實(shí)施了違反刑法的行為,造成了嚴(yán)重的損害結(jié)果而其自身對此又具有辨認(rèn)和控制能力,人工智能產(chǎn)品進(jìn)行的“犯罪”行為和自然人犯罪行為本質(zhì)上并無區(qū)別,其完全應(yīng)當(dāng)單獨(dú)承擔(dān)刑事責(zé)任。在此情形下,刑法規(guī)范就可以對其加以懲戒,以期達(dá)到教育和改造的目的,恢復(fù)被其侵害的社會(huì)秩序。對人工智能產(chǎn)品獨(dú)立地加以處罰使人工智能產(chǎn)品受到刑法的威懾,使之不能、不敢實(shí)施犯罪行為,這將有助于減少人工智能產(chǎn)品自發(fā)實(shí)施的犯罪,為人工智能時(shí)代下社會(huì)的穩(wěn)定發(fā)展提供強(qiáng)有力的保障。
二、人工智能產(chǎn)品作為刑事責(zé)任主體的制度支撐
(一)現(xiàn)行刑事責(zé)任主體制度的實(shí)然規(guī)定
在我國目前的刑法體系下,根據(jù)《刑法》第17條、第18條、第30條的規(guī)定,只有具有刑事責(zé)任能力的自然人和單位才能作為刑事責(zé)任主體。
根據(jù)我國刑法對于兩種刑事責(zé)任主體的不同規(guī)定,影響自然人辨認(rèn)和控制能力的因素包括兩個(gè)方面:年齡和精神狀態(tài)。即自然人的辨認(rèn)能力極大程度上受到年齡的影響,據(jù)此,《刑法》第17條依照年齡的大小,將自然人的刑事責(zé)任能力從無到有劃分為三個(gè)不同程度。第一,未滿14周歲的未成年人不承擔(dān)責(zé)任,此期間為絕對無責(zé)任時(shí)期。第二,已滿14周歲不滿16周歲的人僅對八種特定的嚴(yán)重犯罪承擔(dān)責(zé)任,此為相對負(fù)責(zé)任期間。第三,已滿16周歲的人應(yīng)當(dāng)負(fù)刑事責(zé)任,此為完全負(fù)責(zé)任期間,但因其未滿18周歲,故而應(yīng)當(dāng)對其從輕或減輕處罰。一般而言,辨認(rèn)能力是控制能力的前提,沒有辨認(rèn)能力便談不上控制能力。自然人的控制能力較大地受到精神狀態(tài)的影響,精神狀態(tài)異?;蛘呱砣毕菥赡芙档涂刂颇芰?,故我國刑法也包含了對精神病人、聾啞人從輕減輕處罰的規(guī)定。對自然人而言兩者并重,只有既達(dá)到刑事責(zé)任年齡同時(shí)又精神正常的人才具備完全的刑事責(zé)任能力。
(二)人工智能產(chǎn)品作為未來刑事責(zé)任主體的規(guī)范辨正
1.弱人工智能產(chǎn)品不能作為刑事責(zé)任主體。筆者認(rèn)為,弱人工智能不可能也不必要成為刑事責(zé)任主體。主要原因有以下幾點(diǎn):第一,不具備完全的辨認(rèn)能力和控制能力。如弱人工智能產(chǎn)品自動(dòng)駕駛汽車,雖然具有一定程度的識(shí)別能力,但其對自身行為的識(shí)別和控制能力處于較低層級(jí)。辨認(rèn)能力不僅是對事實(shí)的認(rèn)識(shí),更是對事實(shí)所蘊(yùn)含規(guī)范意義的認(rèn)識(shí),弱人工智能機(jī)器人最多只能認(rèn)識(shí)到事實(shí)(包括錯(cuò)誤的事實(shí)),而不可能認(rèn)識(shí)到事實(shí)的性質(zhì)、作用等規(guī)范層面上的意義。如自動(dòng)駕駛汽車雖然可以通過其搭載的雷達(dá)、攝像頭、傳感器等設(shè)備辨認(rèn)車輛當(dāng)時(shí)的狀態(tài)是處于前進(jìn)、后退或是轉(zhuǎn)彎之中,也可以通過其搭載的程序?qū)囕v的運(yùn)行狀態(tài)進(jìn)行控制。但在自動(dòng)駕駛汽車交通肇事的案件中,自動(dòng)駕駛汽車只能認(rèn)識(shí)到其正在控制著汽車的行進(jìn),其行進(jìn)的路徑上有某種類似人的障礙物,其保持行進(jìn)狀態(tài)對障礙物進(jìn)行了碾壓,但其卻不能理解其行為在刑法上的規(guī)范意義,不能認(rèn)識(shí)到其行為已經(jīng)構(gòu)成了刑法上的危害行為并且導(dǎo)致了嚴(yán)重的損害結(jié)果,可能成立交通肇事罪。第二,不具備獨(dú)立的自由意志。以自動(dòng)駕駛汽車為例,雖然其在駕駛領(lǐng)域?qū)囕v擁有著超越人類的控制能力,對危險(xiǎn)有著先于人類的認(rèn)識(shí)能力,但其只能在編程預(yù)先設(shè)定好的目的——從某個(gè)“起點(diǎn)”到達(dá)“終點(diǎn)”這一特定范圍內(nèi)進(jìn)行自主決策,其實(shí)現(xiàn)目的的手段和方法也完全依賴于人的事先輸入,并不具備超越程序和算法以外獨(dú)立決策的能力,故其完全受控于人,實(shí)現(xiàn)的只能是設(shè)計(jì)者、使用者的意志。若自動(dòng)駕駛汽車在人的指令下對行人進(jìn)行了碾壓,因其意志完全被剝奪,進(jìn)而喪失了獨(dú)立的法律人格,也就喪失了承擔(dān)刑事責(zé)任的可能性。
2.強(qiáng)、超人工智能產(chǎn)品在一定條件下可以作為刑事責(zé)任主體。筆者認(rèn)為,強(qiáng)人工智能產(chǎn)品在設(shè)計(jì)編程的范圍內(nèi)不能成為刑事責(zé)任主體,而在編程以外基于其自由意志獨(dú)立地實(shí)施犯罪行為時(shí)能夠作為刑事責(zé)任主體。強(qiáng)人工智能產(chǎn)品在刑法中明文規(guī)定(如現(xiàn)行刑法中規(guī)定的法定犯、法律擬制等)的情況下能夠作為刑事責(zé)任主體。
首先,強(qiáng)人工智能產(chǎn)品能夠獨(dú)立地實(shí)施嚴(yán)重的危害行為。即能夠?qū)嵤┡c自然人犯罪相同的危害行為。犯罪的本質(zhì)是不法和有責(zé)。我們應(yīng)當(dāng)意識(shí)到在可以預(yù)見的未來,不僅是人能夠辨認(rèn)和控制自己的行為,也不僅只有人才能實(shí)施犯罪的行為。如果人工智能產(chǎn)品具有刑事責(zé)任能力時(shí)基于獨(dú)立意志實(shí)施了犯罪行為,那么根據(jù)法律面前人人平等的基本原則,其就應(yīng)該與其他主體一樣獨(dú)立承擔(dān)刑事責(zé)任,接受刑法的制裁。為了避免實(shí)施的客觀危害行為相同、產(chǎn)生的危害后果相同、非難可能性也相同,僅因自然人主體或者是人工智能主體的不同而同案不同判的矛盾情形,應(yīng)當(dāng)承認(rèn)強(qiáng)人工智能產(chǎn)品的刑事責(zé)任主體地位。
其次,強(qiáng)人工智能產(chǎn)品能夠具有刑事責(zé)任能力,即刑法規(guī)定的承擔(dān)刑事責(zé)任所必需的高度的辨認(rèn)和控制能力。如前所述,辨認(rèn)能力和控制能力是刑事責(zé)任能力的核心。強(qiáng)人工智能產(chǎn)品可以通過攝像頭、雷達(dá)、芯片等設(shè)備對其當(dāng)下的狀態(tài)和實(shí)施的行為進(jìn)行辨認(rèn)及控制,這與弱人工智能產(chǎn)品和一般機(jī)器人并無本質(zhì)區(qū)別。但不同于弱人工智能產(chǎn)品和一般機(jī)器人的是,由于大數(shù)據(jù)、云計(jì)算和蒙特卡洛樹等技術(shù)的加持,強(qiáng)人工智能產(chǎn)品具有更加強(qiáng)大的感知能力和深度學(xué)習(xí)能力。此種類似甚至超越一般人類的辨認(rèn)、控制的能力,使他們不僅能夠認(rèn)識(shí)到自己正在實(shí)施的行為,亦完全可能認(rèn)識(shí)到其行為的規(guī)范意義和法律后果,這是刑法能夠?qū)ζ溥M(jìn)行否定評(píng)價(jià)的前提。如果事先在人工智能產(chǎn)品的程序中植入人類為其設(shè)定的機(jī)器人倫理道德和行為準(zhǔn)則,再使其超出程序范圍之外深度學(xué)習(xí)人類的法律規(guī)范、社會(huì)規(guī)范、倫理道德規(guī)范,使其完全能夠認(rèn)識(shí)和理解自身行為在刑法上的意義、可能產(chǎn)生的刑法后果乃至達(dá)到刑法規(guī)定的承擔(dān)刑事責(zé)任所要求的程度,也是完全可能的。
再次,強(qiáng)人工智能產(chǎn)品具有獨(dú)立的自由意志,即具有能夠選擇“為”與“不為”的能力。由于強(qiáng)人工智能產(chǎn)品在綜合領(lǐng)域具有獨(dú)立自主的思維,其對人類預(yù)先輸入的編程和算法的依賴程度較小,不僅能夠執(zhí)行編程范圍內(nèi)的任務(wù),更能脫離于人類的編程和控制之外獨(dú)立地完成一定的任務(wù)。若此種強(qiáng)人工智能產(chǎn)品在編程和算法范圍之外產(chǎn)生獨(dú)立思想,生成了獨(dú)立的犯意,并且在能夠選擇實(shí)施何種行為時(shí),卻在自我意志的支配下實(shí)施了犯罪,這就說明其具有相當(dāng)?shù)闹饔^惡性和人身危險(xiǎn)性,故而刑法帶來的不利后果亦應(yīng)該由該人工智能產(chǎn)品本身承擔(dān),這符合罪責(zé)自負(fù)原則的要求。
三、未來人工智能產(chǎn)品刑事責(zé)任主體制度的應(yīng)然設(shè)想
(一)利用弱人工智能產(chǎn)品實(shí)施犯罪的刑事責(zé)任分擔(dān)
自然人利用弱人工智能產(chǎn)品實(shí)施犯罪后,可以通過現(xiàn)行刑法加以規(guī)制。若研發(fā)者或使用者利用弱人工智能產(chǎn)品實(shí)施犯罪行為,其相當(dāng)于研發(fā)者或使用者的犯罪工具,可以將其視作犯罪分子手足的延伸,只對犯罪分子進(jìn)行處罰即可達(dá)到預(yù)防和懲罰的目的。但在利用弱人工智能產(chǎn)品進(jìn)行犯罪的不同情形中我們應(yīng)當(dāng)認(rèn)識(shí)到研發(fā)者和使用者的刑事責(zé)任是有區(qū)別的。第一,若該弱人工智能產(chǎn)品在設(shè)計(jì)之初便是以實(shí)行特定犯罪為目的,則可以認(rèn)為研發(fā)者對弱人工智能產(chǎn)品實(shí)施的全部該類型犯罪均具有概括的故意,而且可以認(rèn)定其與使用者構(gòu)成該罪的共同犯罪,是幫助犯,應(yīng)當(dāng)為此承擔(dān)刑事責(zé)任。第二,若該弱人工智能產(chǎn)品在設(shè)計(jì)之初本身只具有正常使用的功能且研發(fā)者盡到了注意與提示義務(wù),而是被使用者故意用于實(shí)施犯罪行為,在此種情況下,應(yīng)當(dāng)認(rèn)定研發(fā)者不構(gòu)成犯罪,只由使用者承擔(dān)刑事責(zé)任。[3]第三,若該人工智能產(chǎn)品本身具有設(shè)計(jì)缺陷,進(jìn)而被使用者用于實(shí)施犯罪行為,該種情況下則以設(shè)計(jì)者有無違反注意義務(wù)而構(gòu)成過失犯罪或意外事件。使用者應(yīng)當(dāng)構(gòu)成故意犯罪,而且是該故意犯罪的間接正犯。
(二)強(qiáng)、超人工智能產(chǎn)品實(shí)施犯罪的刑事責(zé)任分擔(dān)
強(qiáng)人工智能產(chǎn)品刑事責(zé)任分擔(dān)問題應(yīng)當(dāng)依據(jù)其是否具有獨(dú)立意志而作不同區(qū)分。第一,強(qiáng)人工智能產(chǎn)品在設(shè)計(jì)和編程范圍內(nèi)實(shí)施的犯罪行為與弱人工智能相同,不能獨(dú)立承擔(dān)刑事責(zé)任,此處不再贅述。第二,強(qiáng)人工智能產(chǎn)品在設(shè)計(jì)編程范圍外產(chǎn)生獨(dú)立意志進(jìn)而實(shí)施犯罪的情形下可以獨(dú)立承擔(dān)刑事責(zé)任,其亦可以和其他自然人主體或人工智能產(chǎn)品構(gòu)成共同犯罪。在人工智能產(chǎn)品犯罪中亦應(yīng)該區(qū)分故意或過失的主觀罪過。在人工智能產(chǎn)品故意犯罪的場合中,由于人工智能產(chǎn)品不完全平等的法律地位,以及人工智能產(chǎn)品獨(dú)立意志的產(chǎn)生和來源均與人類不同的特點(diǎn),刑法應(yīng)當(dāng)對人工智能故意犯罪的罪名、犯罪構(gòu)成、犯罪形態(tài)等進(jìn)行不同的規(guī)定。在人工智能產(chǎn)品過失犯罪情形下,由于強(qiáng)人工智能在特定領(lǐng)域具有超越人類的認(rèn)識(shí)能力、學(xué)習(xí)能力以及對危險(xiǎn)的掌控能力,故刑法在人工智能過失犯罪中亦應(yīng)該設(shè)定比自然人更高的注意義務(wù)和更加嚴(yán)格的責(zé)任。第三,我們還應(yīng)該認(rèn)識(shí)到,雖然人工智能產(chǎn)品能夠具有刑事責(zé)任能力,可以作為刑事責(zé)任主體,但與自然人主體一樣,其刑事責(zé)任能力也應(yīng)當(dāng)根據(jù)不同類別和用途、不同智能程度、不同的學(xué)習(xí)深度和廣度而有所不同。對其刑事責(zé)任能力的劃分也可以采取類似自然人的規(guī)定分為完全刑事責(zé)任能力,限制刑事責(zé)任能力和無刑事責(zé)任能力。另外在不同的客觀條件下(如經(jīng)濟(jì)、地域、氣候等)、在不同的特定環(huán)境中(如緊急時(shí)刻、故障等),也應(yīng)當(dāng)承認(rèn)人工智能產(chǎn)品刑事責(zé)任能力的加重或減輕。只有如此才能做到不偏不倚,罪刑相適應(yīng)。
四、結(jié)語
因?yàn)榉刹豢杀苊獾木哂袦笮?,雖然現(xiàn)行刑法并未明確人工智能產(chǎn)品的刑法地位,亦未賦予其刑事責(zé)任主體資格,而且目前對人工智能這一新生事物作出完備合理的規(guī)定尚有一段距離,但這并不妨礙我們以前瞻性的眼光去探討其被賦予刑事責(zé)任主體地位的可能,亦不妨礙我們在此假設(shè)的基礎(chǔ)上開展后續(xù)問題的探討。[10]筆者認(rèn)為,拓展刑事責(zé)任主體理論、擴(kuò)大刑事責(zé)任主體概念的內(nèi)涵使之包含某些人工智能產(chǎn)品,將人工智能產(chǎn)品納入刑法的規(guī)制和保護(hù)的范圍,以及推動(dòng)現(xiàn)行刑法的修訂是人工智能新時(shí)代背景下刑法研究者的努力方向。
值得注意的是,若賦予人工智能產(chǎn)品刑事責(zé)任主體資格將不可避免的對我國現(xiàn)行刑法體系特別是刑罰制度帶來巨大的沖擊?,F(xiàn)行刑法規(guī)定的刑罰是僅能適用于自然人和單位。若用處罰自然人的自由刑和生命刑來處罰人工智能產(chǎn)品,當(dāng)然不能產(chǎn)生刑罰想要實(shí)現(xiàn)的效果。因?yàn)槿斯ぶ悄墚a(chǎn)品本來就不具有人的生命特征,有些人工智能產(chǎn)品甚至不具備物理形態(tài),對其施加限制人身自由的刑罰和剝奪生命的刑罰本就沒有可能,更沒有意義。若單純基于人工智能產(chǎn)品的工具屬性來看,其難以擁有私有財(cái)產(chǎn),更遑論對其處以財(cái)產(chǎn)刑。筆者認(rèn)為對人工智能產(chǎn)品的處罰方式亦應(yīng)該隨著其特性而進(jìn)行改變,如依據(jù)不同智能機(jī)器人自身的特點(diǎn)對其增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰。[11]只有未雨綢繆提前做好準(zhǔn)備才不至于在人工智能時(shí)代真正來臨時(shí)手足無措。
參考文獻(xiàn):
[1]劉憲權(quán).人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對[J].中國檢察官,2018(9):79.
[2]劉憲權(quán).人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018(1):134-142.
[3]劉憲權(quán),林雨佳.人工智能時(shí)代技術(shù)風(fēng)險(xiǎn)的刑法應(yīng)對[J].華東政法大學(xué)學(xué)報(bào),2018(5):46-54.
[4]劉憲權(quán).人工智能:刑法的時(shí)代挑戰(zhàn)[M].上海:上海人民出版社,2018:124.
[5]張明楷.刑法學(xué)[M].北京:法律出版社,2016:121.
[6]劉憲權(quán),房慧穎.涉人工智能犯罪的前瞻性刑法思考[J].安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(1):108-117.
[7]夏陳婷.人工智能時(shí)代的刑事歸責(zé)路徑探析[J].法治社會(huì),2019(1):46-53.
[8]阿西莫夫,葉李華.機(jī)器人三定律[J].意林,2018(3):21.
[9]劉憲權(quán),胡荷佳.論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力[J].中國檢察官,2018(11):77.
[10]劉憲權(quán).涉人工智能犯罪刑法規(guī)制的路徑[J].現(xiàn)代法學(xué),2019(1):75-83.
[11]劉憲權(quán),房慧穎.涉人工智能犯罪刑法規(guī)制的正當(dāng)性與適當(dāng)性[J].華南師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(6)109-115.
[11]劉憲權(quán).人工智能時(shí)代我國刑罰體系重構(gòu)的法理基礎(chǔ)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(4):47-55.
收稿日期:2020-12-23
作者簡介:孫天洋,華東政法大學(xué)刑事法學(xué)院碩士研究生,研究方向:刑法學(xué)。