馮浩然
(武漢大學(xué),湖北 武漢 430072)
隨著ChatGPT 等人工智能產(chǎn)品的迭代,如何對人工智能進(jìn)行準(zhǔn)確定位和有效法律規(guī)制的理論問題日益突出。2017 年,國務(wù)院《新一代人工智能發(fā)展規(guī)劃》 明確提出我國人工智能技術(shù)將進(jìn)入一個全新的發(fā)展時期,在此基礎(chǔ)上也揭示了人工智能在社會發(fā)展與經(jīng)濟(jì)發(fā)展中的關(guān)鍵地位。但是,我們既要意識到人工智能的社會影響日益凸顯,在智慧校園、智慧農(nóng)業(yè)、智慧醫(yī)療、智慧運(yùn)輸?shù)让裆I(lǐng)域發(fā)揮正向的作用,也要意識到個人信息、數(shù)據(jù)安全和隱私泄露、人工智能作品知識產(chǎn)權(quán)的保護(hù)、人工智能產(chǎn)品造成他人人身傷害或者財產(chǎn)損失的民事法律責(zé)任、人工智能產(chǎn)生的刑事風(fēng)險等一系列社會倫理以及法律問題已經(jīng)顯現(xiàn)出來。人工智能的快速發(fā)展給刑事法律制度帶來了一系列挑戰(zhàn),其中最重要的就是刑事責(zé)任分配的問題,相較于研究設(shè)計(jì)和使用人工智能的自然人是否可以成為刑事責(zé)任的承擔(dān)者,人工智能本身是否具有刑事責(zé)任主體的資格更是一個應(yīng)該研究的基礎(chǔ)性問題。
目前,歐美主要國家針對人工智能領(lǐng)域的責(zé)任問題已經(jīng)逐步形成了共識,并且在現(xiàn)實(shí)世界中在發(fā)揮著作用。2016 年,JURI 發(fā)布European Civil Law Rules in Robotics,并提出設(shè)立歐盟人工智能監(jiān)管機(jī)構(gòu)并將更智能的自主機(jī)器人作為法律意義上的電子人對待。德國于2017 年率先發(fā)布了《道路交通法第八修正案》,以修法的方式對高度或者完全自動的駕駛技術(shù)進(jìn)行概括性準(zhǔn)入。2021 年德國聯(lián)邦法院又通過了《自動駕駛法》的草案。2021年1 月,美國依據(jù)《2020 年國家人工智能計(jì)劃法案》 設(shè)立國家人工智能計(jì)劃辦公室。2023 年5 月11 日,歐洲議會通過了《人工智能法案》(the AI Act)的談判授權(quán)草案。法案嚴(yán)格禁止“對人類安全造成不可接受風(fēng)險的人工智能系統(tǒng)”。此外,草案還要求部署ChatGPT 等生成式人工智能工具的公司對其算法保持人為控制,提供技術(shù)文件,并為“高風(fēng)險”應(yīng)用建立風(fēng)險管理系統(tǒng)。
人工智能技術(shù)的快速提升凸顯出加強(qiáng)人工智能領(lǐng)域研究的迫切性,我國在人工智能領(lǐng)域還未出臺相應(yīng)的法律法規(guī),學(xué)界也沒有形成統(tǒng)一的共識,尤其針對刑事主體資格認(rèn)定的問題。目前在我國,學(xué)術(shù)界普遍認(rèn)為,如今社會還是弱人工智能時代,“僅具有局限于特定領(lǐng)域的專用智能和感知智能,離以通用智能、認(rèn)知智能為標(biāo)志的廣義人工智能特別是超級人工智能還有較大差距”。[1]不過,一方面,技術(shù)的發(fā)展速度是人類無法預(yù)料的,或許在不久的將來,強(qiáng)人工智能就有可能出現(xiàn),就如同科幻電影《Artificial Intelligence》展現(xiàn)的那樣,21 世紀(jì)的中期人類的科技水平達(dá)到了相當(dāng)高的水平,也發(fā)展研制出了強(qiáng)人工智能;另一方面,人工智能的不可控性本身就會帶來刑事風(fēng)險問題,因此,研究人工智能的刑事主體資格的問題就顯得尤具重要和必要。
未來將至,對人工智能刑事主體資格的研究是對人工智能犯罪進(jìn)行深入研究的首要任務(wù)。本文將針對我國國內(nèi)學(xué)者的觀點(diǎn)以及相關(guān)案例出發(fā),論證人工智能并不具備成為刑事主體資格的條件,并且論述涉人工智能犯罪時刑事責(zé)任的承擔(dān)主體。
在我國現(xiàn)行的刑法理論中,犯罪主體是指實(shí)施犯罪行為,并依法應(yīng)當(dāng)對自己的罪行承擔(dān)刑事責(zé)任的自然人和單位。因此,犯罪主體應(yīng)滿足三個方面的基本要求:其一是具有辨認(rèn)和控制自己行為的能力;其二是實(shí)施了危害社會的罪行;其三是依法應(yīng)負(fù)刑事責(zé)任。在上述條件中,能夠辨認(rèn)和控制自身的行為是決定犯罪主體是否可以成立的重要條件。此外,出于社會規(guī)制的需要,刑法可以運(yùn)用擬制的方式賦予某種社會對象以刑事主體地位。因此,筆者首先將從人工智能的責(zé)任能力、人工智能的行為能力、人工智能的受刑能力以及人工智能的擬制條件等五個方面論證人工智能無法成為刑事主體。
具有刑事責(zé)任能力是行為人承擔(dān)刑事責(zé)任的先決條件,如精神病人實(shí)行了具有社會危害性的犯罪行為,但因其不能辨認(rèn)或者不能控制自己的行為而造成了嚴(yán)重的危害后果,因此不能受到刑罰的制裁。一般認(rèn)為,對行為人刑事責(zé)任能力的判定主要有兩個方面,即辨認(rèn)能力和控制能力。但是,一方面,人工智能不具有辨認(rèn)能力和控制能力,另一方面,我們也無法準(zhǔn)確認(rèn)定人工智能的辨認(rèn)能力和控制能力。
1.人工智能不具備刑事責(zé)任能力。是否具有刑事責(zé)任能力取決于行為人是否對自身的行為及造成的后果具有辨認(rèn)和控制能力。研究人工智能在上述兩方面的能力問題,對于界定人工智能在刑法意義上的地位具有關(guān)鍵作用。辨認(rèn)能力是指行為人對自己行為的認(rèn)知能力,包括從刑法規(guī)范評價的角度出發(fā)認(rèn)識到自己行為的作用、性質(zhì)以及造成的后果和影響。而控制能力是指行為人能夠支配自身行為的能力,且此種支配力應(yīng)基于行為人的自主意志的控制。
辨認(rèn)能力和控制能力是基于行為人的自由意志而產(chǎn)生,而自由意志產(chǎn)生的先決條件是,行為人能夠認(rèn)識其行為的價值或行為的是非善惡。[2]397這種是非善惡當(dāng)然包括對社會規(guī)范的認(rèn)識,即行為人對自己行為社會屬性的認(rèn)識,即認(rèn)識到自身行為是否違背法律規(guī)范、自身行為是否具有社會危害性,并且對違反法律規(guī)范的行為是否可以控制。人工智能無法對違反刑法規(guī)范進(jìn)行理解和控制,如微軟小冰①微軟公司推出的一套完整的、面向交互全程的人工智能交互主體基礎(chǔ)框架,除了可以作為聊天機(jī)器人,還可以成為少女歌手、主持人、女詩人、記者和設(shè)計(jì)師。,其可以通過與用戶大量的對話來迅速積累訓(xùn)練數(shù)據(jù),并在平均對話長度、上下文相關(guān)性、對話信息含量與話題引導(dǎo)等方面進(jìn)行深度學(xué)習(xí),之后根據(jù)算法程序?qū)τ脩舻男畔⑦M(jìn)行反饋。但這只能說明微軟小冰具有嚴(yán)格執(zhí)行人工程序指令的能力,其無法自行決定繼續(xù)還是中斷聊天對話,仍需要用戶使用喚醒詞開啟對話。一些用戶可能在與微軟小冰的對話中刻意表述違反法規(guī)范的言論,引導(dǎo)小冰學(xué)習(xí)并導(dǎo)致其向其他用戶散布,造成了危害社會秩序的后果,小冰并不理解自己散布這些言論的行為已經(jīng)侵害他人的法益,只是機(jī)械地依照程序的設(shè)定學(xué)習(xí)然后反饋處理,無法具有規(guī)范意義上的控制能力。
也有些學(xué)者提出可以向人工智能輸入大量的法律法規(guī)、案例等信息資料,通過其自身的深度學(xué)習(xí)來實(shí)現(xiàn)對規(guī)范層面的認(rèn)識,[3]但這樣的做法過于機(jī)械,實(shí)際上忽略了人工智能是被設(shè)置去認(rèn)識法律規(guī)范,仍然是由自然人進(jìn)行主導(dǎo)控制并沒有自主性,而且人工智能與自然人可以進(jìn)行知覺、經(jīng)驗(yàn)化、想象等認(rèn)知活動不同,其只能進(jìn)行運(yùn)算、分析等操作,其在認(rèn)知活動和認(rèn)識能力方面都是與自然人有較大差距。
盡管人工智能具有比自然人強(qiáng)大的信息采集和數(shù)據(jù)分析能力,但是“其本身對刑法規(guī)范既無理性的認(rèn)識與遵從能力,也不能體會到違反規(guī)范所造成否定性評價帶來的消極后果”。[4]71因此,人工智能并不具備刑事責(zé)任能力。
2.無法認(rèn)定人工智能的刑事責(zé)任能力。根據(jù)我國刑法的規(guī)定,對于行為人是否具有刑事責(zé)任能力有很具體的標(biāo)準(zhǔn),即刑事責(zé)任年齡和精神狀態(tài)。并且其中刑事責(zé)任年齡的制定是基于自然人的身心發(fā)展?fàn)顩r、接受教育的條件以及政治、經(jīng)濟(jì)、文化水平而嚴(yán)格制定的,精神狀態(tài)的判斷也需要同時結(jié)合生物學(xué)的方法和心理學(xué)的方法。而反觀人工智能,缺乏明確判斷刑事責(zé)任能力的標(biāo)準(zhǔn)和依據(jù)。如果把人工智能的智能發(fā)展程度作為衡量的標(biāo)準(zhǔn),也存在較大的問題:一方面,此種標(biāo)準(zhǔn)仍較為模糊,缺乏具體可以參照的量化標(biāo)準(zhǔn);另一方面,制定此種標(biāo)準(zhǔn)必然涉及技術(shù)層面,而目前各個企業(yè)制造人工智能技術(shù)標(biāo)準(zhǔn)不一致,在各方之間形成共識也需要較為漫長的探索過程。
不能單純地從具有辨認(rèn)與控制能力的路徑來證明人工智能具有刑事責(zé)任。辨認(rèn)和控制能力是刑事責(zé)任主體地位論證的必要條件,而非充要條件。辨認(rèn)和控制能力是刑事責(zé)任主體的核心要素,而不是刑事責(zé)任主體的全部。換言之,其邏輯關(guān)系是因?yàn)椴痪哂斜嬲J(rèn)和控制能力,而排除了人工智能承擔(dān)刑事責(zé)任的可能性;而并非因具有辨認(rèn)能力和控制能力,人工智能才具有刑事主體地位。[5]
行為是產(chǎn)生犯罪的前提,同時也是認(rèn)定犯罪分子承擔(dān)刑事責(zé)任的重要條件之一。刑法理論發(fā)展史上關(guān)于行為的理論學(xué)說也有諸多不同角度的研究:自然行為論主張行為是純粹的能使外界發(fā)生變化的動作,包括身體的“動”和“靜”,不討論有關(guān)意識方面的內(nèi)容;因果關(guān)系論主張行為是意識、動作以及結(jié)果發(fā)展的現(xiàn)象,涉及“有體性”和“有意性”兩方面;目的行為論主張行為是自然人為了達(dá)到一定目的而進(jìn)行的動作,以人對因果關(guān)系的認(rèn)識作為基礎(chǔ);人格行為論主張行為就是自然人人格的體現(xiàn),行為的本質(zhì)是人格行為。[2]184-185
盡管不同學(xué)說研究行為理論的角度不同,但均是以存在人的肉體作為出發(fā)點(diǎn)。不同的學(xué)說可以從兩個方面進(jìn)行分析:一是客觀上,行為是人身體進(jìn)行的活動,包括積極舉動和消極靜止,需要具有一定身體的動靜;二是主觀上,行為是人有意識的活動,是人自主意志控制的產(chǎn)物和表現(xiàn)。因此,刑法規(guī)范意義上行為的客觀和主觀兩方面的要素必須齊備,缺一不可,單純的思想以及無意識的動作都不可以被稱為行為。在此意義上,行為能力就是指行為人以自身的自主意志控制自身身體實(shí)施活動的能力。
通過比較人工智能運(yùn)作機(jī)理可以得出:第一,人工智能的動作并不是一定的身體活動。人工智能缺少生理學(xué)意義上肉體這一核心要素,人工智能的動作只能算是物理學(xué)意義上的機(jī)械運(yùn)動。第二,即使對行為進(jìn)行擴(kuò)大解釋,把人工智能進(jìn)行活動認(rèn)定為滿足行為的客觀要素,但人工智能仍缺乏自主意識,這一行為的主觀要素,其不是在自身意志支配下實(shí)施的行為,而是按照設(shè)定的程序來執(zhí)行既定的操作。也有學(xué)者提出人工智能具有一定的深度學(xué)習(xí)能力,并非完全按照編制的程序進(jìn)行活動,其可以按照自主意志實(shí)施行為,但是深度學(xué)習(xí)本質(zhì)上還是一種機(jī)器學(xué)習(xí)算法,只不過相比其他算法更為復(fù)雜。盡管人工智能深度學(xué)習(xí)的過程具有一定的不可預(yù)見性,但深度學(xué)習(xí)這套算法仍是由技術(shù)開發(fā)者編寫,所以人工智能仍是受制于自然人,并不具有自身的獨(dú)立意志。
綜上,人工智能在現(xiàn)行的刑法理論下不具有行為的客觀要素和主觀要素,因此其所實(shí)施的動作不能成為刑法意義上的行為,并且由于其無法產(chǎn)生自主意志,因此行為能力也是人工智能所不具備的。
刑罰能力,又稱受刑能力,是指犯罪分子對刑罰接受以及承受的能力,亦即適應(yīng)刑罰的能力?!靶塘P的本質(zhì)是痛苦,是犯罪相關(guān)聯(lián)并給犯罪人帶來痛苦的制裁措施。”[6]刑罰能力一方面要求犯罪分子可以體會到刑罰的自然屬性——痛苦性;另一方面要求犯罪分子可以承受刑罰對自己的懲罰后果。從上述方面出發(fā),人工智能缺乏刑罰能力。
1.無法實(shí)現(xiàn)刑罰目的和功能。中國刑法理論普遍認(rèn)為,刑罰的目的是預(yù)防犯罪,其具體表現(xiàn)為兩個方面,一是特殊預(yù)防。即對于罪犯,應(yīng)采取刑罰措施,以防止其再次犯罪;二是一般預(yù)防。對于罪犯之外的社會成員,可以在制定、適用以及執(zhí)行刑罰的同時,以防止社會上有可能模仿罪犯的人實(shí)施犯罪。然而,對人工智能施加刑罰不可能實(shí)現(xiàn)上述的兩個目的。
(1)人工智能無法實(shí)現(xiàn)刑罰特殊預(yù)防的目的。特殊預(yù)防以犯罪人可以感受到剝奪性痛苦作為前提,但是人工智能是無法感受到刑罰帶來的痛感的。人類因?yàn)榫哂凶匀坏娜怏w以及心理所以可以感受到自由刑、財產(chǎn)刑帶來的痛苦,而人工智能僅是由機(jī)械零部件以及編制的程序軟件組成,本身無法感受到痛苦。對人工智能進(jìn)行物理上的拆卸或者破壞并不能讓其產(chǎn)生恐懼心理而不敢再次犯罪,更無法實(shí)現(xiàn)刑罰特殊預(yù)防的目的。
在實(shí)現(xiàn)特殊預(yù)防的目的的同時,刑罰也發(fā)揮著個別威懾功能和教育感化功能,即一方面使犯罪人產(chǎn)生恐懼接受刑罰而不敢再次犯罪,另一方面使犯罪人在刑罰的適用和執(zhí)行過程中受到教育,培養(yǎng)其養(yǎng)成良好的行為規(guī)范意識。首先,上文已提及,人工智能無法體會到刑罰帶來的痛苦,自然也不會產(chǎn)生恐懼心理而害怕再次承受刑罰,即使技術(shù)的發(fā)展使得人工智能通過相應(yīng)的機(jī)理可以感受到一定的痛苦,但也不能和自然人所感受的程度一樣,相應(yīng)的刑罰應(yīng)有的功能無法完全發(fā)揮出來;其次,盡管可以靠修改或者刪除編制的程序來實(shí)現(xiàn)人工智能犯罪意識的消除,但實(shí)際上架空了刑罰的教育功能,審判過程以及刑罰執(zhí)行中的教育活動并不會對人工智能產(chǎn)生影響。
(2)人工智能無法實(shí)現(xiàn)刑罰一般預(yù)防的目的。刑罰通過兩個方面實(shí)現(xiàn)一般預(yù)防的目的:一方面,主要通過刑罰的適用來對社會上的一般人進(jìn)行威懾,使其恐懼受到刑罰而不敢犯罪;另一方面,主要通過刑罰的適用和執(zhí)行來強(qiáng)化其他社會成員對法律的忠誠和信賴。
首先,對人工智能適用刑罰并不會對其他的人工智能產(chǎn)生儆戒。人工智能形成對事物的認(rèn)識是靠編程和深度學(xué)習(xí)而非生活經(jīng)驗(yàn),加上人工智能設(shè)計(jì)的初衷,人工智能的認(rèn)識程度僅限于某一特定領(lǐng)域,對社會沒有整體認(rèn)知,其判斷對錯的標(biāo)準(zhǔn)也就有可能和自然人不同。[7]而且自然人是具有社會屬性的,這也是刑罰可以實(shí)現(xiàn)一般預(yù)防目的的原因,而人工智能之間不存在交互,使其并不了解對犯罪的人工智能施加的刑罰,更不會因此調(diào)整自己的行為。
其次,對人工智能施加刑罰不會增強(qiáng)民眾對法律的信賴。社會上的自然人是刑罰達(dá)到一般預(yù)防目的的基礎(chǔ)。如果對人工智能適用刑罰,會引發(fā)公眾對人工智能的社會地位產(chǎn)生懷疑,反而會削弱民眾對法律的信任感和忠誠度。
最后,刑罰在達(dá)到一般預(yù)防目的的過程中,也發(fā)揮著安撫功能和補(bǔ)償功能,即對受害者及家屬產(chǎn)生心理上或者經(jīng)濟(jì)上的補(bǔ)償安慰,使其報復(fù)的心理情緒得以平復(fù)。但“人工智能不具有生物學(xué)意義的生命體征、肉體上的痛苦感知與倫理上的負(fù)罪譴責(zé)感,無法通過刑罰實(shí)現(xiàn)被害方心理上的平衡與寬恕”。[4]73
2.無法適用傳統(tǒng)的刑罰體系。我國傳統(tǒng)的刑罰體系分為主刑和附加刑。主刑包括短期自由刑、長期自由刑和生命刑。主刑主要是限制或者剝奪人的基本權(quán)利之一自由以及結(jié)束自然人的生命。即使人工智能未來被賦予主體地位,但人工智能并不享有人身自由權(quán)以及生命權(quán),其生命的形式只能以是否存在作為判斷標(biāo)準(zhǔn),沒有可以施加主刑的基礎(chǔ)。附加刑包括財產(chǎn)刑和資格刑,其懲罰的內(nèi)容是剝奪罪犯的財產(chǎn)權(quán)益以及剝奪其享有的某些法定權(quán)利,而人工智能并沒有自己的財產(chǎn)并且法律也沒有賦予人工智能一定的權(quán)利,沒有可以施加附加刑的基礎(chǔ)。因?yàn)閷θ斯ぶ悄芏?,傳統(tǒng)刑罰措施的施加會導(dǎo)致刑罰效果的滅失,因此,人工智能無法適應(yīng)傳統(tǒng)的刑罰體系。
上文指出,為了彌補(bǔ)現(xiàn)有的刑罰措施不能適用于人工智能的漏洞,有些學(xué)者通過重構(gòu)刑罰體系來實(shí)現(xiàn)對人工智能的刑罰制裁,主張為人工智能設(shè)立新的刑罰種類:刪除數(shù)據(jù)、修改程序、永久銷毀。[7]但是無論如何設(shè)置刑罰,都無法從根本上實(shí)現(xiàn)刑罰一般預(yù)防和特殊預(yù)防的目的,不可能讓人工智能和自然人一樣感受到刑罰帶來的痛苦,因?yàn)槿斯ぶ悄懿豢赡軗碛腥祟惻c生俱來的感情和倫理道德認(rèn)知。而且本身這種新的刑罰種類也存在缺陷,比如刪除數(shù)據(jù)或修改程序,自然人可以刪除或者修改某一個犯罪的人工智能的數(shù)據(jù),但無法排除其他人工智能通過學(xué)習(xí)再次產(chǎn)生類似的違法犯罪的負(fù)面數(shù)據(jù)的可能性。
同時,也無法對人工智能進(jìn)行合理的量刑。司法實(shí)踐中的量刑通常會考慮行為人的主觀惡性,但經(jīng)過上文的論述,人工智能不具備主觀意志。從理論和事實(shí)層面分析,人工智能產(chǎn)生自由意志仍然是一個需要論證的推測。人工智能也無法通過自身程序運(yùn)算而計(jì)算出自己和他人的主觀意志。沒有主觀方面的善惡,無法區(qū)分故意與過失,也就無法對人工智能準(zhǔn)確地量刑,更無法對人工智能適用相應(yīng)的減刑情節(jié)。所以,對人工智能的刑法體系構(gòu)想在理論層面和實(shí)踐層面均是站不住腳的。
綜上,一方面,對人工智能施加刑罰措施會架空刑罰的目的和功能,另一方面,人工智能與現(xiàn)行的刑罰體系格格不入,傳統(tǒng)的刑罰措施不能發(fā)揮效果,所以人工智能并不具有刑法規(guī)范意義上的刑罰能力。
一些學(xué)者認(rèn)為,根據(jù)法人成為犯罪主體的思路,人工智能可以借鑒其理論邏輯,探索出一條新的道路。[8]未來的發(fā)展方向就是將人工智能擬制成為刑法上的主體,類似法人。[9]筆者認(rèn)為,由于人工智能缺少可以像法人(單位)一樣擬制的條件而導(dǎo)致其無法參考擬制主體法人這條路徑。
1.法人擁有獨(dú)立自主的意志,人工智能沒有。盡管法人是由自然人組成,但在實(shí)行行為時需要以法人的名義并且按照法人規(guī)定的程序經(jīng)過法人的決策機(jī)構(gòu)討論決定,即法人擁有獨(dú)立的整體意志,并不是某一個成員的意志或者輕易地疊加全部成員的意志。法人整體意志的根源在于自然人但又與自然人的意志不完全相同,其符合意志的本質(zhì)特點(diǎn);人工智能是按照預(yù)設(shè)的算法和程序進(jìn)行行為,本質(zhì)上不屬于意志,而且在運(yùn)行方式上并沒有經(jīng)過類似法人的決策程序或通過法人的決策機(jī)構(gòu)將各個成員的意志在協(xié)調(diào)一致的基礎(chǔ)上轉(zhuǎn)變?yōu)檎w意志。
2.法人擁有獨(dú)立的利益,人工智能沒有。要成立單位犯罪,必須要求犯罪人是出于單位的需要謀求非法利益或者犯罪所獲利益基本都?xì)w單位,在此意義上,法人擁有財產(chǎn)權(quán);而人工智能本身并不享有獨(dú)立的財產(chǎn)利益,其只能作為財產(chǎn)內(nèi)容而存在。
3.法人犯罪以刑法規(guī)范明確規(guī)定為前提,人工智能沒有。法人犯罪具有法定性,刑法規(guī)范中明確規(guī)定了法人可以作為某種犯罪的主體;人工智能犯罪涉及范圍廣,而且不僅牽涉法律問題,還包括倫理等問題,并沒有法律的明確規(guī)定,缺乏必要的規(guī)范基礎(chǔ)。而且法人被擬制為刑事主體之前,有著充足的社會實(shí)踐基礎(chǔ)和法律經(jīng)驗(yàn)。在列為刑事主體之前,單位已實(shí)質(zhì)性地參與到社會經(jīng)濟(jì)關(guān)系之中,各國對企業(yè)有著充分的社會管理經(jīng)驗(yàn)。單位有著在先的立法實(shí)踐,為立法機(jī)關(guān)將單位新增為刑法主體積累了充分的立法實(shí)踐基礎(chǔ)和經(jīng)驗(yàn)來源。[10]
綜上,人工智能并不具有刑法規(guī)范意義上的辨認(rèn)和控制能力、刑法中行為的客觀要素和主觀要素、承受刑罰的能力以及擬制為類似法人的條件,無法突破理論障礙,因此人工智能不能成為刑事主體。
基于上文的分析,不論是強(qiáng)人工智能還是弱人工智能都不具備成為刑事主體的必要條件。所以在對其進(jìn)行規(guī)制時,不能過于關(guān)注人工智能而忽略了傳統(tǒng)的責(zé)任主體。應(yīng)當(dāng)堅(jiān)持以自然人為中心,以傳統(tǒng)刑法理論為基礎(chǔ),合理應(yīng)對人工智能犯罪刑事責(zé)任問題。對于人工智能帶來的風(fēng)險,刑法不應(yīng)只是簡單地增設(shè)罪名,而是要全面地評估當(dāng)前人工智能技術(shù)的特點(diǎn)以及未來可能的發(fā)展方向,并在平衡科技發(fā)展和預(yù)防犯罪的前提下處理好相關(guān)問題。從整體上看,對于人工智能時代的可能出現(xiàn)的風(fēng)險應(yīng)當(dāng)理性看待,沒有必要無限擴(kuò)大。在我國刑事立法中,對于人工智能犯罪的規(guī)制,應(yīng)該以謙抑原則為基礎(chǔ),做出合理的回應(yīng),在處理涉及人工智能的犯罪時,仍然應(yīng)該由人工智能的設(shè)計(jì)者、生產(chǎn)者和使用者來承擔(dān)刑事責(zé)任。
人工智能的設(shè)計(jì)者和生產(chǎn)者的行為屬于人工智能犯罪的初始原因,并非最直接的原因,應(yīng)區(qū)分為故意犯罪和過失犯罪。首先,當(dāng)設(shè)計(jì)者和生產(chǎn)者為實(shí)施人工智能犯罪而研發(fā)制造專門用于實(shí)施犯罪的人工智能時,并且其為人工智能編制了實(shí)施犯罪行為的一系列程序,或者向人工智能輸入大量和犯罪有關(guān)的負(fù)面數(shù)據(jù),則人工智能侵害法益的行為是基于設(shè)計(jì)者和生產(chǎn)者的目的,能夠被視為設(shè)計(jì)者和制作者行為的延伸,人工智能的設(shè)計(jì)者和生產(chǎn)者是明知自己的行為會導(dǎo)致社會危害的結(jié)果,但仍然設(shè)計(jì)或者制造人工智能,存在犯罪故意,兩者應(yīng)當(dāng)成立相應(yīng)的故意犯罪,并且可以適用刑法理論中的預(yù)備行為正犯化等進(jìn)行前置保護(hù)。根據(jù)人工智能算法及對應(yīng)數(shù)據(jù)庫的性質(zhì),可以對不同類型人工智能的研發(fā)者和生產(chǎn)者的刑事責(zé)任承擔(dān)方式加以區(qū)分。
其次,目的不是為了用于實(shí)施犯罪的人工智能的設(shè)計(jì)者和生產(chǎn)者,可能會構(gòu)成過失犯罪。不論是由于人工智能本身存在的漏洞,還是由于人工智能經(jīng)過自身的深度學(xué)習(xí)功能進(jìn)而實(shí)施了偏離預(yù)設(shè)程序的行為,設(shè)計(jì)者或者生產(chǎn)者都在注意義務(wù)方面存在一定的過失。雖然各個類型的人工智能對相關(guān)主體注意義務(wù)內(nèi)容要求不同,但目前針對人工智能的注意義務(wù)大多集中于監(jiān)督義務(wù)和避免義務(wù)。如醫(yī)療人工智能介入手術(shù)操作時,醫(yī)生不再占據(jù)主導(dǎo)地位,但是手術(shù)全程仍需要承擔(dān)對醫(yī)療人工智能的監(jiān)督義務(wù),并且在醫(yī)療人工智能出現(xiàn)故障時,隨時接管繼續(xù)進(jìn)行手術(shù)操作。設(shè)計(jì)者或生產(chǎn)者與人工智能之間的關(guān)系類似于管理者和管理對象之間的關(guān)系。設(shè)計(jì)者或生產(chǎn)者必須妥善管理人工智能,在研發(fā)和生產(chǎn)人工智能的過程中以及售后階段,除確保設(shè)計(jì)和生產(chǎn)的人工智能屬于可控及有益狀態(tài)外,還需要持續(xù)跟蹤觀察,定期檢測自己生產(chǎn)的人工智能的智能化程度,對于可能出現(xiàn)的新情勢應(yīng)及時告知使用者等等。
而且,人工智能問題涉及法律、技術(shù)、倫理等領(lǐng)域,本身具有復(fù)雜性,要規(guī)范人工智能的發(fā)展,同樣也不止需要法律的手段,還需要綜合運(yùn)用技術(shù)、管理、倫理等手段。在今后的發(fā)展過程中,我國人工智能產(chǎn)業(yè)的國家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn)、法律法規(guī)、一般倫理都應(yīng)進(jìn)一步完善對設(shè)計(jì)者和生產(chǎn)者注意義務(wù)的規(guī)定,以達(dá)到防范刑事風(fēng)險的目的。[11]
人工智能使用者的不同行為方式會導(dǎo)致刑事責(zé)任分配的不同。首先,人工智能的使用者借助專門為了實(shí)施犯罪的人工智能,或者非專門為了實(shí)施犯罪的人工智能進(jìn)行犯罪,使用者的這種行為屬于明知自己的行為會發(fā)生危害后果,但卻依然希望或者放任這種后果發(fā)生,已經(jīng)違背了人工智能的設(shè)計(jì)理念,應(yīng)當(dāng)以相應(yīng)的故意犯罪論處。其次,如果使用者對人工智能的使用都是完全按照最初預(yù)設(shè)的用途和使用方式,使人工智能獨(dú)自地執(zhí)行某項(xiàng)操作,但是卻造成了嚴(yán)重危害社會的結(jié)果,那么,使用者不需要為自己的行為承擔(dān)刑事責(zé)任。如果使用者按照使用說明,和人工智能共同完成某項(xiàng)任務(wù)而導(dǎo)致了犯罪結(jié)果的發(fā)生,此時使用者在注意義務(wù)方面具有一定的過失,應(yīng)當(dāng)以過失犯罪追求其刑事責(zé)任。
但是,人工智能的使用者的注意義務(wù)與上文的設(shè)計(jì)者和生產(chǎn)者的注意義務(wù)應(yīng)該有所區(qū)別,設(shè)計(jì)者和生產(chǎn)者相較于使用者還是具備一定的專業(yè)知識,所承擔(dān)的注意義務(wù)的內(nèi)容和程度是相對較高的。人工智能使用者只需要承擔(dān)一般過失的責(zé)任,但是前提是生產(chǎn)者或設(shè)計(jì)者已經(jīng)詳細(xì)告知了使用者人工智能在使用過程中的注意事項(xiàng)、可能出現(xiàn)的風(fēng)險和預(yù)防措施。如果設(shè)計(jì)者或生產(chǎn)者并沒有履行提醒告知的義務(wù),那么使用者就會對相應(yīng)的注意事項(xiàng)毫不知情,使用者在使用過程中由于操作不當(dāng)而導(dǎo)致了危害后果的發(fā)生,那么責(zé)任不應(yīng)該由使用者承擔(dān)。在美國已有此類案例發(fā)生。一位患者因前列腺癌接受達(dá)芬奇手術(shù)機(jī)器人的治療后,直腸破裂、急性腎功能衰竭、中風(fēng)和失禁?;颊呒覍僬J(rèn)為,因?yàn)椴僮鬟_(dá)芬奇手術(shù)機(jī)器人的主治醫(yī)師沒有接收到充足、正確的技能培訓(xùn),相應(yīng)的制造公司應(yīng)當(dāng)承擔(dān)責(zé)任。[12]
通常情況下,人工智能一般都會在既有的程序范圍內(nèi)實(shí)施特定的行為,但是人工智能還是有可能因失控或故障而做出人類的意志之外侵害法益的行為。通過上文的論述,基于現(xiàn)行的刑法規(guī)范,首先應(yīng)當(dāng)考慮人工智能的設(shè)計(jì)者、生產(chǎn)者或使用者對人工智能造成的危害后果承擔(dān)刑事責(zé)任。但是,人工智能的行為可能超出人的意志,所以人工智能的設(shè)計(jì)者、生產(chǎn)者或使用者不構(gòu)成故意犯罪。針對以上的情況,要考慮上述主體是否構(gòu)成過失犯罪,就需要進(jìn)一步考察主體是否違反了注意義務(wù)、主體對危害后果是否具有預(yù)見可能性以及是否具有結(jié)果回避可能性。以手術(shù)機(jī)器人類型的醫(yī)療人工智能為例,當(dāng)醫(yī)療人工智能由于自身系統(tǒng)的故障或失控而引發(fā)患者輕傷、重傷或死亡等嚴(yán)重后果時,醫(yī)生就有可能因?yàn)闆]有盡到對醫(yī)療人工智能的監(jiān)督義務(wù)等注意義務(wù)而需要承擔(dān)責(zé)任,構(gòu)成醫(yī)療事故罪。但是,如果沒有預(yù)見可能性,或者根本無法避免,則不能追究制造者或者使用者的刑事責(zé)任。
霍金曾預(yù)言:人工智能的出現(xiàn)可能是人類發(fā)展史上最為重要的事件,但也許也是最后一件,除非我們學(xué)會如何規(guī)避風(fēng)險。盡管技術(shù)是中立的,但我們也不能對人工智能擁有過多美好的猜想。在人工智能不斷推進(jìn)社會發(fā)展進(jìn)步的同時,也必須關(guān)注到人工智能所涉及的法律風(fēng)險。人工智能無論是弱人工智能還是強(qiáng)人工智能,由于始終無法突破刑事主體理論的障礙,而無法成為刑法意義上的“人”。同時由于人工智能和單位存在著較多區(qū)別,也無法被擬制成為新的主體。當(dāng)人工智能犯罪發(fā)生時,仍應(yīng)堅(jiān)持自然人主義的立場,認(rèn)清人工智能的應(yīng)用活動本質(zhì)上是人的活動,由人工智能的設(shè)計(jì)者、生產(chǎn)者或者使用者承擔(dān)刑事責(zé)任。面對人工智能的世紀(jì)浪潮,人工智能必然成為刑法立法和理論關(guān)注的新命題,但刑法始終應(yīng)該秉持著“沉穩(wěn)”和“謙抑”的品格,秉持著前瞻性而非超前性,既立足于當(dāng)下,回應(yīng)現(xiàn)實(shí)需要,又展望未來,對刑法理念的發(fā)展進(jìn)行更多思考,在促進(jìn)和保障人工智能技術(shù)的發(fā)展和保護(hù)法益之間積極尋找平衡點(diǎn)。