胡樹琪(北京師范大學 刑事法律科學研究院,北京 100875)
人工智能技術革新①從人工智能技術發(fā)展的歷史進程來看,當前正處于人工智能的第三個浪潮期。在這波浪潮中,人工智能較前兩次浪潮期有了實質(zhì)的突破,出現(xiàn)了人工智能最核心的特征:基于大數(shù)據(jù)的深度學習。人工智能系統(tǒng)基于在神經(jīng)網(wǎng)絡算法中深度學習的能力,已經(jīng)具有一定的機器自主性,可以在無人操作或監(jiān)督的情況下獨立完成工作,智能機器輸出結(jié)果也具有不可控性。人工智能突破了機器的“工具性”,具有一定程度的“自主性”,與傳統(tǒng)機器具有了本質(zhì)上的不同。從人工智能的技術發(fā)展層次來看,科學界一般將人工智能分為二個層次,即弱人工智能與強人工智能(也稱為通用型人工智能)。目前,人工智能技術正處于弱人工智能階段,我們可以看到深度學習技術在各個特定領域深耕。但實現(xiàn)強(通用型)人工智能是產(chǎn)學研界研發(fā)人工智能的終極目標,神經(jīng)網(wǎng)絡算法的突破以及深度學習的問世,使得人工智能在這波浪潮中,實現(xiàn)弱人工智能到強人工智能的跨越成為可能。與智能社會的到來給刑事法律帶來的難題是,人工智能具有的機器自主性,動搖了傳統(tǒng)刑事法律責任劃分與承擔的體系。人工智能已經(jīng)不僅被作為刑法上被保護的客體、刑法意義上的“物”,也具有了成為刑事主體的可能性,這沖擊了傳統(tǒng)刑法上主客體的二分結(jié)構(gòu)。刑事法律要回應人工智能技術發(fā)展帶來的挑戰(zhàn),合理界分人工智能犯罪中自然人與智能機器的刑事法律責任,邏輯起點是思索人工智能能否成為刑事法律主體。
人工智能是否具備刑事主體資格涉及兩個面向,一是現(xiàn)實面向,一是未來面向。對于現(xiàn)實面向,人工智能尚處于弱人工智能階段,理論界已基本達成共識,認為弱人工智能不具有刑法意義上的自由意志與主體資格。①弱人工智能在運行的過程中,雖然具有深度學習的能力,比傳統(tǒng)機器更為智能,但只能完成特定的任務,其不具備學習并理解各種自然科學的因果法則的能力(控制能力、辨認能力以及自由意志),只能局限于完成人類賦予的特定的任務,自然不具備選擇受什么樣因果法則支配的自由。因此,弱人工智能仍處于較為初級的階段,所實施的行為尚不能成為構(gòu)成要件的內(nèi)容的行為,弱人工智能不具備刑事主體資格。對于未來面向,是否賦予強人工智能(通用型人工智能)刑事主體資格,理論界則存在兩種截然相對的立場。②目前以劉憲權老師為代表的諸多刑法學者提倡確立強人工智能的刑事主體地位,代表論文有:劉憲權:《人工智能時代的刑事責任演變:昨天、今天、明天》,載于《法學》2019年第1期;劉憲權:《涉人工智能犯罪刑法規(guī)制的路徑》,載于《現(xiàn)代法學》2019年第1期;劉憲權:《人工智能時代刑事責任與刑罰體系的重構(gòu)》,載于《政治與法律》2018年第3期。刑事法律是否賦予強人工智能刑事主體資格,不僅是未來強人工智能問世后刑法面臨的挑戰(zhàn),更影響到當下刑法規(guī)制人工智能犯罪時歸責路徑與立法路徑的選擇。對于強人工智能刑事主體資格的前瞻性探討也有助于緩解法律的滯后性。因此,在刑法視閾下需要回應和思索的問題是,如果未來在技術上實現(xiàn)了強人工智能,是否需要對其進行刑事處罰?是否需要賦予智能體刑事主體資格?如此是否具有現(xiàn)實可行性?本文對弱人工智能的刑事主體資格不進行贅述,主要探析強人工智能作為刑事主體的可行性問題。
當前,刑法學界已對未來人工智能是否具備刑事主體資格問題展開了較為激烈的討論。從總體上來看,筆者將已有探討歸納為保守派與激進派。其中,激進派對該問題持肯定態(tài)度,主張在強人工智能時代,人工智能具備辨認能力與控制能力,符合構(gòu)成刑事責任主體的條件,應當賦予其刑事主體資格,并為其添加設置配套的刑罰措施,智能機器為自己實施的反社會行為承擔刑事責任。保守派則對該問題持克制和理性的態(tài)度,從人機關系等多個視角考察分析人工智能刑事主體資格。
激進派的主要代表觀點有:其一,智能機器人可以分為在設計和編制的程序范圍內(nèi)實施行為的智能機器人和在設計和編制的程序范圍外實施行為的智能機器人,前者不具有獨立的辨認能力和控制能力,后者具有獨立的辨認能力和控制能力。辨認能力和控制能力即為刑事責任能力,具有刑事責任能力的行為人可成為刑事責任主體。在設計和編制的程序范圍外實施行為的智能機器人完全可以成為刑事責任主體。[1]其二,建議增設能夠適用于智能機器人的刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰方式。[2]
保守派的代表性觀點有:其一,就通用智能機器人應否成為刑事責任主體的問題而言,技術水平、價值觀念、具體認定等方面尚存在較大困難,刑法對此應堅持克制、理性的態(tài)度,不可貿(mào)然將機器人納入刑法規(guī)制的行為主體范圍。[3]其二,由智能機器人的自律能力所決定的自身活動的獨立性,永遠是相對的,永遠需要并且應當受人為控制。智能機器人永遠應當是人類所控制的裝置。[4]其三,有論者認為:1.受人類控制的人工智能系統(tǒng)不具有獨立的主體性,不應承認其犯罪主體地位;2.如果未來人工智能系統(tǒng)不受人類控制,自主進化,極可能不具備成立犯罪的主觀條件,不能適用刑法規(guī)定的刑事責任和刑罰相關規(guī)定,賦予其犯罪主體地位與刑法體系不協(xié)調(diào),不應作為犯罪主體對待;3.不受人類控制的未來人工智能系統(tǒng)不可能接受刑法的規(guī)制,其制造的危機需要以其他直接、有效的技術手段應對??傊谭ú粦獙⑷斯ぶ悄芟到y(tǒng)規(guī)定為犯罪主體或者刑事責任主體。[5]
激進派學者承認人工智能的獨立性,承認人工智能具有自由意志,并將辨認能力與控制能力作為其是否可以作為刑事責任主體的判斷標準,采用了大膽的態(tài)度進行預測與規(guī)劃。不僅肯定人工智能作為刑事主體的可能性,也肯定了強人工智能作為刑事主體的可行性。激進派學者所持觀點值得進一步分析。一方面,其判斷人工智能刑事主體資格的標準具有理論妥適性,但在實際適用中可能會面臨現(xiàn)實難題。通過辨析智能機器人的行為是否屬于設計和編制的范圍,來判定人工智能是否具有刑事主體資格,不僅在技術上有很大的實現(xiàn)難度,而且只能根據(jù)智能機器人每次實施的行為判斷人工智能是否具有主體地位,這將會導致同一智能機器人在不同情境下具有不同主體地位的情形。另一方面,人工智能具備辨認能力與控制能力是其具備刑事主體資格的必要條件而非充要條件。即人工智能具備辨認能力與控制能力只是其具備刑事主體資格的條件之一,并非全部條件。辨認能力與控制能力是刑事責任能力的核心要素,通過判斷刑事責任能力可以判斷刑事主體能否承擔刑事責任,但刑事責任能力與刑事主體資格是不同的刑法概念,將刑事責任能力等同于刑事主體資格將產(chǎn)生邏輯上的錯位。
保守派則采取了細心的態(tài)度對待人工智能的刑事主體資格。保守派從未來人機關系、智能體的刑法適用、智能體與人類在倫理觀上的差異性等視角出發(fā),更為全面地考察人工智能的刑事主體資格。需要認識到的是,保守派中不同學者采用了不同的論證視角,立足于不同的技術發(fā)展認識與時間維度。例如,上述觀點一是立足于宏觀層面的刑法態(tài)度,主張刑法當前應當對人工智能主體資格問題采取審慎理性的態(tài)度,并為人工智能刑事主體資格問題留下了討論的空間;觀點二則是從人工智能的技術特性以及人機關系的角度,論證了人工智能未來不具有刑事主體的可能性;觀點三則肯定了人工智能作為刑事主體的可能性,但從人機關系以及與刑法體系的協(xié)調(diào)性兩方面,否認了未來人工智能作為刑事主體的可行性。
無論是激進派還是保守派,不同學者的觀點不僅在刑事價值理念判斷上相異,也在于對人工智能技術水平認識、討論視角的不同。因此,在探討人工智能作為刑事主體的可行性之前,首先需要明確技術水平認識與討論視角。
從人工智能的運行機制來看,人工智能所具有的“深度學習”能力較傳統(tǒng)機器學習最大的不同在于:傳統(tǒng)機器學習是分步驟來進行的,每一步的最優(yōu)解不一定帶來結(jié)果的最優(yōu)解。而深度學習是從原始特征出發(fā),自動學習高級特征組合,整個過程是端到端的,直接保證最終輸出的是最優(yōu)解。但中間的隱層是一個黑箱,我們并不知道機器提取出了什么特征。[6]換言之,深度學習是打破以往分步驟的學習方式,在輸入與輸出之間自動學習,無需人工提出特征的較為智能的學習方法。從人為從現(xiàn)實世界選擇特征表示,到機器自動找出特征量表示概念并描述知識,深度學習能力的出現(xiàn)已攻克了人工智能技術發(fā)展的最大難關。[7]計算機可以自動生成特征表示它已具有了突破人工智能本質(zhì)極限的可能性。因此,在當前計算機基礎設施層(大數(shù)據(jù)以及計算能力)以及神經(jīng)網(wǎng)絡算法高速發(fā)展的背景下,我們可以大膽預測,未來在技術上可以實現(xiàn)具備社會意義上的控制能力①本文中控制能力是指人工智能可以控制其實施的行為,具備受什么樣因果法則支配的選擇自由。需要注意的是,人工智能的行為服從于自然科學的因果法則,不能改變或者調(diào)整自然科學的因果法則。但人工智能具有選擇受到什么樣的因果法則支配的可能性。人工智能可以選擇通過這樣的因果法則實現(xiàn)這樣的結(jié)果,也可以選擇通過那樣的因果法則實現(xiàn)那樣的結(jié)果。比如說,它可以選擇拿刀實施殺人行為,也可以選擇不實施殺人行為,刀刺入人體導致人體受傷是自然科學的因果法則,但人工智能可以選擇拿刀刺入他人人體,也可以選擇不拿刀傷害他人。與辨認能力的強人工智能。
對于人工智能是否具有“意識”的問題,主要有兩種觀點:一種是神秘論的觀點,認為我們神經(jīng)生物系統(tǒng)唯一共有的就是主觀體驗,這種現(xiàn)象意識是不可還原為物理機制或邏輯描述的,靠人類心智是無法把握的;另一種是取消論的觀點,認為機器僅僅是一種蛇神(zombie)而已,除了機器還是機器,不可能具有任何主觀體驗的東西。[8]筆者認為,人類的“意識”不僅僅存在于頭腦之中,而且會在人類與世界互動的過程之中不斷調(diào)整和發(fā)展,是一個“感知——行動”的互動過程。而人工智能無論發(fā)展到什么智能程度,它都只能掌握相關信息而無法真正理解事物。例如,人工智能無法親身體驗“錘”或“吃”這些動作,即便掌握了這些動作的機器也無法具有主觀體驗,不能真正理解。[9]也就是說,人工智能難以發(fā)展出人類的“意識”。因此,筆者認為,當前技術已足以預測未來人工智能可以具有社會意義上的辨認能力與控制能力,但卻無法產(chǎn)生人類所有的“意識”。應在此語境下探討未來人工智能是否可能作為刑事主體。即在肯定人工智能作為刑事主體可能性的基礎之上,探究人工智能作為刑事主體的可行性。
在人工智能作為刑事主體的可行性問題上,激進派與保守派采用了不同的論證邏輯。激進派采取“大膽”的態(tài)度認定人工智能可以作為刑事主體。對于人工智能作為主體后,與傳統(tǒng)刑法理論中犯罪論與刑罰論不相適應的部分,提出可以通過調(diào)整、發(fā)展傳統(tǒng)刑法理論使之融入刑法體系。保守派則采取“心細”的態(tài)度將人工智能與傳統(tǒng)刑法理論體系進行對比,將人工智能能否適用已有刑法體系作為判定其應否具備刑事主體資格的考量因素。激進派將傳統(tǒng)刑法體系內(nèi)容的調(diào)整作為一種結(jié)果,保守派則將其作為一個前提,著重考察人工智能與刑法體系是否具有調(diào)整融合的可能性。筆者認為,后者的論證邏輯更為緊密合理,我們首先需要回答人工智能與傳統(tǒng)刑法體系是否具有兼容可能性。兼容可能性是判斷人工智能作為刑事主體可行性的必要條件。沒有兼容可能性,則否認了人工智能作為刑事主體的可行性,必然不能貿(mào)然賦予人工智能刑事主體資格。
在判定人工智能與傳統(tǒng)刑法體系的兼容可能性問題時,首先需要條分縷析未來強人工智能能否直接適用傳統(tǒng)刑法體系。若回答是肯定的,則可以承認二者的兼容性;若回答是否定的,那么需要進一步回答為兼容人工智能修改刑法體系的做法是否具有可行性,若回答仍然是否定的,才可以說人工智能與傳統(tǒng)刑法體系不具有兼容可能性。
對于人工智能能否直接適用傳統(tǒng)刑法體系,可以分別從犯罪論與刑罰論進行考察。在犯罪論方面,人工智能實施的犯罪在客觀方面易于認定,如犯罪行為、犯罪結(jié)果、因果關系等方面的判定與自然人犯罪并無差異。難點在于是否可以適用傳統(tǒng)故意、過失理論對人工智能犯罪的主觀方面進行認定。筆者認為,皮勇教授對該問題的思考較為深入。他認為,人工智能可以認知到客觀事實,但不可能自主認識到法律規(guī)范的意義,對法律規(guī)范也不可能具有自主性選擇。而在判定人工智能的主觀故意或過失時,都需要以其對法律規(guī)范意義的認識為基礎。[5]也就是說,人類可以通過編程在人工智能系統(tǒng)內(nèi)輸入法律規(guī)范,以此限制人工智能的行為,但人工智能無法理解這些規(guī)范的涵義。即使是強人工智能,也只有辨認事實的能力,不具有理解規(guī)范的能力,因而不能直接對其適用傳統(tǒng)故意、過失理論。
在刑罰論方面,我國刑罰體系由生命刑、自由刑、財產(chǎn)刑、資格刑構(gòu)成。人工智能既沒有生命,也不擁有財產(chǎn)與政治權利。毋庸置疑,無論是刑罰的處罰方式還是刑罰的處罰對象,現(xiàn)有刑罰都不能適用于人工智能。因此,從犯罪論與刑罰論來看,人工智能與傳統(tǒng)刑法體系不能無縫隙兼容,若要確立人工智能的刑事主體資格,必須對傳統(tǒng)刑法體系進行一定的調(diào)整。
那么通過修改刑法體系中的相關內(nèi)容,以適用于人工智能這一新興主體,是否具有可行性?這里,可行性的評判不應是簡單的主觀價值選擇,而是基于客觀現(xiàn)實的理性思考。只有在回應調(diào)整傳統(tǒng)刑法體系兼容人工智能主體的可行性基礎之上,才可以回答能否賦予人工智能刑事主體地位問題。
1.人工智能與傳統(tǒng)刑法體系兼容可能性判斷標準的確立
通過修改刑法體系中的相關內(nèi)容,以適用于人工智能這一新興主體,在確立其判斷標準時,首先需要辨別的是人工智能作為刑事主體與人工智能承擔刑事責任的關系。人工智能具有社會意義上的控制能力與辨認能力是確立其為刑事主體的必要條件而非充要條件。在本文中所探討的人工智能與傳統(tǒng)刑法體系兼容可能性的判斷標準所回應的問題是,人工智能是否可以作為刑事主體以及人工智能作為刑事主體是否具有可行性,與人工智能是否可以承擔刑事責任以及人工智能承認刑事責任的可行性分屬于不同維度的問題。也就是說,即使刑事主體資格與刑事責任緊密相關,也不可將判斷人工智能的刑事主體資格問題與人工智能能否承擔刑事責任問題相等同。
在判斷人工智能與傳統(tǒng)刑法體系兼容可能性的問題時,需要從更深層次、更為基礎、更為根本的視角進行分析與檢視。因此,筆者認為,判斷人工智能是否具有可行性時需要反思以下幾個問題,即人工智能作為刑事主體能否實現(xiàn)刑法的根本目的?能否發(fā)揮刑法的社會效用?這一做法是否與刑法的基本價值相背離?不同學說流派對于刑法的目的、刑法的機能、刑罰的目的等宏觀刑法價值觀問題存有爭議,本文擬從功利主義的價值視角出發(fā)進行探討。主張判斷可行性的核心標準在于,通過調(diào)整或增添傳統(tǒng)刑法體系內(nèi)容,使得人工智能主體與刑法體系(犯罪論與刑罰論)兼容,從根本上能否實現(xiàn)刑法的機能與刑罰的功能。
容易受到質(zhì)疑的是,刑法將法人作為擬制主體即是對上述標準的否定。例如,就法人是否具有刑事主體地位的爭論來看,主要基于法人不具有自然人的意志自由與對懲罰痛苦的肉體感知,不存在倫理上的可譴責性以及社會非難性,刑罰報應論無法體現(xiàn)于法人這一特殊組織形式等,法人刑事主體否定論長期占據(jù)理論主導地位。①轉(zhuǎn)引自蔣熙輝《單位犯罪刑事責任探究與認定》一文,人民法院出版社,2005年出版。但我們必須認識到的是,法人與人工智能具有本質(zhì)上的不同。法人作為人類運營的組織,仍然由自然人來實施決策行為,法人的運行實則是自然人集中集體意志的表現(xiàn),并非形成了獨立、新興的個體。而人工智能作為完全新興的主體,完全摒棄脫離了自然人的身份與關系,人工智能與法人之間具有根本性的差異。
2.從刑法的機能審視人工智能與傳統(tǒng)刑法體系的兼容可能性
刑法具有行為規(guī)制機能、法益保護機能以及人權保障機能。[11]21對于刑法的行為規(guī)制機能,具體包括評價的機能與決定的機能。評價機能是指刑法將一定的行為規(guī)定為犯罪并給予刑罰處罰。將人工智能作為刑事主體,刑法調(diào)整體系內(nèi)容以適用于人工智能體后,不影響外界對于人工智能犯罪行為的評價。決定機能是指刑法將一定行為規(guī)定為犯罪并使人們知曉,人們可以據(jù)此決定不實施犯罪行為。一方面,人工智能主體即使“知曉”刑法有關的犯罪規(guī)定,但其無法產(chǎn)生“意識”,因而無法理解法條的規(guī)范意義。人工智能雖然具有決定實施此行為或彼行為的選擇自由,但其無法感知其行為的社會意義,即社會意義上的評價、刑法意義上的評價無法影響人工智能對其行為的選擇。另一方面,刑罰無法給人工智能帶來痛苦[5],無法對人工智能的選擇產(chǎn)生威懾、規(guī)范等影響。如果將刑法規(guī)則內(nèi)置于人工智能程序,使其遵循人類的社會規(guī)則,此種情境下人工智能的行為仍然受制于人,那么很難說人工智能具有自由意志,當然不能肯定人工智能作為刑事主體的可能性。人工智能技術旨在通過機器實現(xiàn)人的智能,而非克隆復制人類大腦,機器的學習模式與運行邏輯不因人類社會確立的規(guī)則而變換。因此,將人工智能確立為刑事主體,難以實現(xiàn)刑法的決定機能。
對于刑法的法益保護機能與人權保障機能,處罰具有意志自由的人工智能看似可以實現(xiàn)刑法的法益保護與人權保障機能,實則存在不可忽略的前提假設與邏輯預設。設想,人工智能實施犯罪殺害自然人,可將人工智能的行為評價為故意殺人罪,保護人類的生命法益;但若是自然人銷毀了人工智能的存在,刑法是否要將行為人的行為評價為故意殺人罪?若人類侵犯人工智能,人工智能進行反擊,是否可以認定為人工智能的正當防衛(wèi)?如果我們的回答不是肯定的,那么可以發(fā)現(xiàn)將人工智能作為刑事主體,只保護了自然人的法益與保障了自然人的權利,而人工智能只是作為刑法評價以及刑罰處罰的對象。
刑法的法益保護與人權保障機能之間的關系是刑事法領域永恒的經(jīng)典話題,二者之間的關系更是此消彼長。從宏觀層面來看,在納入人工智能主體以前,刑事法規(guī)定維持的是自然人法益與人權保護之間的平衡;在納入人工智能主體以后,若依舊只考慮人工智能被處罰的情形而不考慮其應享有的權利,必然將導致整體的法益保護與人權保障的失衡。正如“沒有無義務的權利,也沒有無權利的義務”[12],我們在賦予人工智能刑事主體資格時必然也便賦予了人工智能相應正當防衛(wèi)的權利。因此,我們必須認識到,肯定人工智能刑事主體資格的前提是將人工智能與自然人同等看待,賦予其同樣的義務與權利。只有在這一前提下才可以說,調(diào)整或增添傳統(tǒng)刑法體系內(nèi)容使得人工智能主體與刑法體系兼容,可以實現(xiàn)刑法的法益保護機能與人權保障機能。
筆者認為,無論未來人工智能發(fā)展到任何高級形態(tài),即使人工智能作為一種擬制的類人智能,都不能在刑法上將其等同于人類看待。機器與人類具有本質(zhì)的區(qū)別,機器的存在更無法與人類的生命所等同。人工智能機器可以對人類進行正當防衛(wèi)的社會也會給人類社會帶來重重危機。因此,將人工智能作為刑事主體難以實現(xiàn)刑法的決定機能、法益保護與人權保障機能。
3.從刑罰的功能審視人工智能與傳統(tǒng)刑法體系的兼容可能性
刑罰的功能作為刑罰制定、適用、執(zhí)行與達到刑罰目的的橋梁,是實現(xiàn)刑罰目的的前提與中介。探討對人工智能實施刑罰的可行性時必須審視刑罰功能的實現(xiàn)與否。在刑罰發(fā)展的歷史上,刑罰的制裁理念與手段不斷更新、發(fā)展、完善,不同時代人們對刑罰也存在不同的價值評判。目前,賴以實現(xiàn)特殊預防的刑罰功能有:限制、消除再犯條件的功能、個別威懾功能、教育感化功能;賴以實現(xiàn)一般預防的刑罰功能有:一般威懾功能、法制教育功能、安撫補償功能、強化規(guī)范意識功能。[11]519-521總體而言,刑罰所包含的威懾、教育、安撫補償以及限制、消除再犯功能等基本功能為理論與實務界所認同。
從威懾功能來看,包括一般威懾與個別威懾功能。刑罰的威懾功能是通過剝奪受刑人的權利,使其感受到一定的痛苦而實現(xiàn)。正如功利主義所主張的,趨利避害是人的本性,行為人要避免承受刑罰的苦而不再犯罪。但人工智能無法產(chǎn)生人類的“意識”,不具有人類的生物屬性,未必會發(fā)展出類人的具有生物疼痛感的神經(jīng)網(wǎng)絡。[5]一方面,人工智能的機器體制無法感知到生理上的疼痛感;另一方面,人工智能本身不具有類人的自由權、財產(chǎn)權、資格權利等。即使為其創(chuàng)設專屬刑罰,進行物理毀損或程序改造、數(shù)據(jù)刪除等,人工智能也無法感知到生理或精神上的痛苦。犯罪人工智能本身不會因為刑罰痛苦而避免犯罪,也不會對其他人工智能產(chǎn)生威懾。經(jīng)驗表明,如果所采用的力量并不直接觸及感官,又不經(jīng)常映現(xiàn)于頭腦之中以抗衡違反普遍利益的強烈私欲,那么,群眾就接受不了穩(wěn)定的品行準則,也背棄不了物質(zhì)和精神世界所共有的渙散原則。[13]也就是說,人工智能無法感知到痛苦,刑罰如果無法對其形成易感觸的力量,即使對其適用現(xiàn)有刑罰也無濟于事,無法實現(xiàn)刑罰的威懾功能。
從安撫、補償功能來看,對于人工智能的處罰,在社會公眾一般樸素的“以牙還牙”的正義價值觀念中,難以感知到公平正義。從被害人及其親屬的視角來看,對人工智能的處罰難以獲得心理上的平衡與寬恕,無法慰藉被害人及其親屬因犯罪行為所受的精神創(chuàng)傷。在被害人及其親屬精神無法得到有效安撫與補償?shù)那榫诚拢缓θ说群苡锌赡苻D(zhuǎn)而尋求私力報復,導致矛盾升級轉(zhuǎn)化,從而再次造成新的犯罪。
從教育功能來看,人工智能本身無法理解人類法律規(guī)范、價值規(guī)范。人工智能的內(nèi)部運行機制本質(zhì)上仍然屬于設計者的程序設計,即使人工智能具有意志自由,其行為選擇自由也仍然屬于科學技術問題,而不是法律倫理問題。人工智能無法理解其行為的社會意義,對其施加的刑罰,只能防止特定人工智能不再實施這一類犯罪,但無法使其認識理解并認同人類的法律規(guī)范,人工智能不會因為遭受刑罰而形成良好的規(guī)范意識。
綜上所述,筆者認為人工智能系統(tǒng)在犯罪論與刑罰論方面均與傳統(tǒng)刑法體系不能直接融合,如果需要確立人工智能的刑事主體地位,必須調(diào)整刑法體系的具體內(nèi)容與之相適應。但通過調(diào)整刑法體系納入人工智能主體的做法,從根本上無法實現(xiàn)刑法的機能與刑罰的功能。也就是說,人工智能與傳統(tǒng)刑法體系不具有兼容可能性。
人工智能技術發(fā)展給人類社會帶來巨大的便利,也伴隨著巨大的刑事風險。刑事法律考慮將人工智能作為刑事主體的意圖也正是在于:懲罰有關人工智能犯罪,防控人工智能帶來的刑事風險,維護社會安定。刑法作為社會防衛(wèi)的最后一道防線,在否認人工智能作為刑事主體的前提下,也應主動尋求出路,防控人工智能的刑事風險。一方面,刑法應合理界分人工智能犯罪中有關自然人的刑事責任,例如確立人工智能研發(fā)者、生產(chǎn)者、使用者的審慎義務,確保人工智能安全、可控的發(fā)展;另一方面,刑法對人工智能犯罪中人工智能的規(guī)制路徑仍需進一步探索,可以將以下兩條路徑作為參考。
刑法在處罰有關人工智能犯罪時,仍以處罰自然人為中心,將對人工智能的銷毀、刪除程序等作為有關自然人的附加刑罰。有論者認為,對人工智能新設“刪除數(shù)據(jù)、修改程序、永久銷毀” 等刑罰種類,在實際效果上更類似于對人類“犯罪工具”或財產(chǎn)的沒收、銷毀,而這本質(zhì)上是對人類自身的懲罰。[14]以上觀點不無道理。在不賦予人工智能刑事主體的前提下,人工智能仍然屬于刑法意義上的客體對象,屬于人類所控制的物,對人工智能的處罰本質(zhì)仍然是對自然人自身的處罰。因此,將對人工智能的處罰作為有關自然人的附加刑罰,既實現(xiàn)了銷毀、懲罰有關人工智能,達到防衛(wèi)社會的目的,也合理界定了人工智能的刑法地位。需要認識到的是,適用該條路徑的同時需要相關制度的發(fā)展。一方面,需要合理界分人工智能與自然人的關系與所屬問題,這是處罰自然人的前提;另一方面,對因人工智能犯罪而受處罰的自然人,有關自然人的犯罪前科以及是否構(gòu)成累犯問題,需要進行發(fā)展調(diào)整。
人工智能與傳統(tǒng)刑法理論體系不具有兼容可能性,即使強行納入傳統(tǒng)刑法理論體系,也需全方位地為其確立新的刑事法制度。此種做法無異于為人工智能創(chuàng)設一套新的法律制度。為人工智能單獨創(chuàng)設一套法律制度的優(yōu)點在于,人工智能與自然人具有本質(zhì)屬性上的差異,專屬于人工智能的法律制度為人工智能量身定做,既可以有效規(guī)制人工智能犯罪,有效防衛(wèi)社會,還可以根據(jù)人工智能的發(fā)展階段調(diào)整人工智能的相關法律,更具靈活性。也就是說,在人工智能與人類共生的社會中,人類為人工智能確立其在整個社會中享有的權利、承擔的義務以及需要遵守的規(guī)則。為人工智能創(chuàng)設一套新的法律制度的方式,避免了將人工智能強行納入傳統(tǒng)刑法體系的排異反應,也合理確立了人工智能刑法地位以及刑法對其處罰界限。
總體而言,人工智能的技術發(fā)展日新月異,給社會帶來的刑事風險正逐步變?yōu)楝F(xiàn)實。在不承認人工智能刑事主體地位的前提下,刑法處罰人工智能的核心在于社會防衛(wèi)。刑法無法賦予人工智能完全與自然人等同的權利,但卻有必要規(guī)制有關人工智能犯罪。將對人工智能的處罰作為自然人的附加刑罰或為人工智能創(chuàng)設一套法律制度,以上兩條路徑是對人工智能犯罪規(guī)制路徑的探索嘗試。當然,以上兩條路徑并不是相互排斥,必要時也可以結(jié)合適用以此構(gòu)造人工智能的刑事地位。[15]