吳 波 俞小海
人工智能(Artificial Intelligence,英文縮寫為AI)的快速發(fā)展,給人類社會生活帶來了廣泛而深遠的影響。近年來,世界各國紛紛將人工智能上升為國家戰(zhàn)略。①自2015年以來,美國聯(lián)邦政府對AI和相關(guān)技術(shù)的公開研究投資增長已超過40%。近日,白宮宣布,要在國家科學(xué)與技術(shù)委員會旗下組建一個AI特別委員會,在政府、軍事、財政、外交、人口和教育等各個領(lǐng)域進行AI深度部署,以保持美國在這一領(lǐng)域的領(lǐng)導(dǎo)地位。參見昝秀麗:《成立AI委員會 美國全方位部署人工智能》,《中國證券報》2018年5月15日。2017年3月5日,人工智能首次被寫入我國政府工作報告。2017年7月8日,國務(wù)院通過《新一代人工智能發(fā)展規(guī)劃》,提出了面向2030年我國新一代人工智能發(fā)展的指導(dǎo)思想、戰(zhàn)略目標、重點任務(wù)和保障措施,部署構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢,加快建設(shè)創(chuàng)新型國家和世界科技強國。人工智能的快速發(fā)展在給人類社會生活帶來廣泛影響的同時,也深刻地改變著人類社會生活的行為方式,帶來一系列的法律風(fēng)險,由此也極大地影響著法律對現(xiàn)實世界的介入范圍、評價方式和調(diào)整思路,其中一個無法回避的問題就是人工智能的發(fā)展對刑事責(zé)任認定思路的影響。
應(yīng)當(dāng)看到,除了被媒體曝光的自動駕駛汽車(人工智能)頻出事故以外,還出現(xiàn)了較為典型的人工智能產(chǎn)品致害行為。比如2015年7月《金融時報》報道的大眾機器人“殺人事件”,大眾承包商的一名工作人員在與同事一起裝配機器人的過程中,機器人突然抓住這名工作人員的胸部,然后將他擠壓到一塊金屬板,最終導(dǎo)致該名工作人員重傷身亡。又比如,Tay是2016年微軟在Twitter上推出的聊天機器人,但僅上線一天,Tay就散布一些種族主義、性別歧視和攻擊同性戀的言論,微軟不得不緊急關(guān)閉了Tay 的Twitter賬號。①參見王肅之:《人工智能犯罪的理論與立法問題初探》,《大連理工大學(xué)學(xué)報(社會科學(xué)版)》2018年第4期。我國有學(xué)者將人工智能時代的刑事風(fēng)險分為可能使得部分傳統(tǒng)犯罪的危害性發(fā)生“量變”、可能會導(dǎo)致新的犯罪形式產(chǎn)生、人工智能產(chǎn)品可能會因為種種原因脫離人類控制,進而獨立實施嚴重危害社會的犯罪行為三類。②參見劉憲權(quán):《人工智能時代的刑事風(fēng)險與刑法應(yīng)對》,《法商研究》2018年第1期。對于前兩類而言,人工智能產(chǎn)品只不過是人類實施犯罪行為的智能工具,本質(zhì)上與人類利用槍支、彈藥、刀具實施犯罪行為無異,因而并不存在“機器人”本身的刑事責(zé)任問題。但是對于獨立實施嚴重危害社會的犯罪行為的人工智能產(chǎn)品(機器人),是由其獨立承擔(dān)刑事責(zé)任,還是由其使用者、研發(fā)者承擔(dān)刑事責(zé)任,抑或是由其管理者、監(jiān)督者承擔(dān)刑事責(zé)任,就成為刑事責(zé)任認定中的一個需要全新研究的問題。這一問題隨著人工智能產(chǎn)品參與社會生活深度、廣度的日益提高,以及人工智能產(chǎn)品致害行為的日益出現(xiàn),而變得十分現(xiàn)實且必要。
實際上,不僅探討人工智能時代“機器人”的刑事責(zé)任問題具有必要性,而且運用人工智能時代的“機器人”思維,對于解決某些爭議類案件的刑事責(zé)任認定問題同樣具有很好的啟示意義。以許霆案為例,當(dāng)時圍繞許霆的行為是否構(gòu)成犯罪、構(gòu)成何種犯罪而展開的討論不勝枚舉,其中尤為引人注目的是關(guān)于“機器能否被騙”的爭論。③參見劉明祥:《用拾得的信用卡在ATM機上取款行為之定性》,《清華法學(xué)》2007年第4期;張明楷:《也論用拾得的信用卡在ATM機上取款的行為性質(zhì)——與劉明祥教授商榷》,《清華法學(xué)》2008年第1期;張明楷:《非法使用信用卡在ATM機取款的行為構(gòu)成盜竊罪——再與劉明祥教授商榷》,《清華法學(xué)》2009年第1期;劉明祥:《再論用信用卡在ATM機上惡意取款的行為性質(zhì)——與張明楷教授商榷》,《清華法學(xué)》2009年第1期。但是,應(yīng)當(dāng)看到,囿于當(dāng)時人工智能發(fā)展尚未充分興起,學(xué)界關(guān)于“機器能否被騙”的討論主要圍繞著ATM機的二元性質(zhì)展開,即要么將ATM機視為“機器”,要么將ATM機視為“人”,而未能從人工智能的視角對ATM機中存在的人工智能因素作出更為科學(xué)、合理的判斷,存在一定的歷史局限性。實際上,從人工智能的視角來看,一方面,由于ATM機被人類設(shè)置了電腦編程,可以根據(jù)人類的預(yù)先設(shè)定程序?qū)θ】钯~號和密碼進行“識別”,并實行相應(yīng)的“處分”行為,因而其有別于普通機械,具有“認識”“判斷”進而“表達”的“人腦功能”,且ATM機與柜員的識別方式日趨一致,識別能力也漸趨等同。但是另一方面,ATM機除了具有上述被信息計算程序設(shè)定的識別等“人腦功能”之外,并不具有自然人的其他功能(比如說話、吃飯、睡覺、表達情感)。因此,從更嚴格、更規(guī)范、更貼切人工智能科學(xué)的角度來說,ATM機既不是“機器”也不是“人”,而應(yīng)該認定為“機器人”④參見劉憲權(quán):《網(wǎng)絡(luò)侵財犯罪刑法規(guī)制與定性的基本問題》,《中外法學(xué)》2017年第4期。,是人工智能產(chǎn)品。在明確了這一基本前提和分析視角之后,我們很容易得出這樣的結(jié)論:如果行為人利用ATM機所具有的“人”的認識錯誤(比如識別功能)非法占有財物,其行為理應(yīng)構(gòu)成詐騙類的犯罪,而如果行為人只是利用ATM機本身具有的“系統(tǒng)故障”“機械故障”等非法占有財物,其行為當(dāng)然應(yīng)構(gòu)成盜竊類的犯罪。⑤參見劉憲權(quán):《論新型支付方式下網(wǎng)絡(luò)侵財犯罪的定性》,《法學(xué)評論》2017年第5期。由此出發(fā),許霆利用ATM機系統(tǒng)升級后出現(xiàn)的異常故障(經(jīng)查,在許霆取款之前,因ATM機系統(tǒng)升級后出現(xiàn)異常,1000元以下取款交易正常;1000元以上的取款交易,每取1000元按1元形成交易報文向銀行主機報送,即持卡人輸入取款1000元的指令,ATM機出鈔1000元,但持卡人賬戶實際扣款1元)非法占有財物,應(yīng)當(dāng)認定為盜竊罪。
應(yīng)當(dāng)看到,人工智能的發(fā)展極大地改變了人類社會生活,但也帶來了諸多風(fēng)險隱患,產(chǎn)生了責(zé)任認定問題的困惑。
“沒有責(zé)任就沒有刑罰”是近代以來刑法的一個基本原理。一般認為,刑事責(zé)任是指行為人因其犯罪行為所應(yīng)承受的,代表國家的司法機關(guān)根據(jù)刑事法律對該行為所作的否定評價和對行為人進行譴責(zé)的責(zé)任。①參見張明楷:《刑法學(xué)(上)》(第5版),法律出版社2016年版,第498頁。刑事責(zé)任是連接犯罪與刑罰之間的紐帶和橋梁。“一個人實施刑法所規(guī)定的犯罪,只是這個人負刑事責(zé)任的基礎(chǔ);而只有當(dāng)一個人對犯罪行為應(yīng)當(dāng)負刑事責(zé)任的時候,才能對他判處刑罰。”②高銘暄:《刑法學(xué)原理》(第1卷),中國人民大學(xué)出版社2005年版,第418頁。行為人承擔(dān)刑事責(zé)任的前提是具有刑事責(zé)任能力。我國刑法學(xué)通說認為,刑事責(zé)任能力是指行為人構(gòu)成犯罪和承擔(dān)刑事責(zé)任所必需的,行為人具備的刑法意義上辨認和控制自己行為的能力。簡言之,刑事責(zé)任能力就是行為人辨認和控制自己行為的能力。③參見高銘暄、馬克昌:《刑法學(xué)》(第6版),北京大學(xué)出版社、高等教育出版社2014年版,第84頁。有學(xué)者主張借鑒德日刑法中的相關(guān)理論,引入“主觀譴責(zé)”概念,即“并不是只要具有值得科處刑罰處罰的侵害或者威脅法益的行為,就馬上說行為人的行為構(gòu)成犯罪,對其動用刑罰……還必須是行為人對其所實施的行為具有責(zé)任,即在主觀上可以對其進行譴責(zé)”④黎宏:《刑法總論問題思考》(第2版),中國人民大學(xué)出版社2016年版,第219頁。。日本刑法學(xué)者則認為,責(zé)任能力的核心在于法的非難。“行為人不具備有責(zé)地實施行為之能力的場合,不能對于該行為人進行法的非難,其責(zé)任被阻卻。這樣的旨在責(zé)任非難的行為人能力方面的要件,稱為責(zé)任能力。”⑤[日]山口厚:《刑法總論》(第2版),付立慶譯,中國人民大學(xué)出版社2011年版,第254頁。在日本刑法學(xué)者看來,為法的非難奠定基礎(chǔ)的,是“他行為可能性”,即能夠回避構(gòu)成要件該當(dāng)且違法的行為,能夠?qū)嵤?gòu)成要件該當(dāng)、違法行為以外的行為。⑥同注⑤,第182-183頁。對此,我國有學(xué)者進一步指出,“具有辨認控制能力的人,具有接受法律規(guī)范的要求、實施合法行為的可能性,因而具有相對的意志自由。具有相對的意志自由的人,如果不接受法律規(guī)范的要求,實施了符合構(gòu)成要件的不法行為,就能夠?qū)χM行非難。”⑦同注①,第244頁。在英美法系,行為人承擔(dān)刑事責(zé)任必須具有主觀罪過。主觀罪過又有廣義和狹義之分,廣義的主觀罪過是指行為人在實施犯罪行為時,所懷有的“邪惡的意志”“罪惡的想法”“在道德上應(yīng)該受到譴責(zé)的”或“可責(zé)罰的”心理狀態(tài)。狹義的主觀罪過是指行為人實施犯罪行為時所懷有的該犯罪定義中所描述的特定精神狀態(tài)。⑧參見[美]約書亞·德雷斯勒:《美國刑法綱要》,姜敏譯,中國法制出版社2016年版,第14頁?!睹绹7缎谭ǖ洹分芯鸵?guī)定了主觀罪過包括蓄意、明知、輕率和疏忽。無論是主觀譴責(zé),還是法的非難,抑或是主觀罪過,其核心在于行為人實施行為時對不法行為的辨認和控制能力,即對自己的行為在刑法上的意義、性質(zhì)、作用、后果的分辨認識能力以及選擇自己實施或不實施為刑法所禁止制裁的行為的能力。傳統(tǒng)思路一般認為,要對行為具有辨認和控制能力,必須是自然人?!叭说倪@種刑法意義上的辨認能力與控制能力是隨著人的年齡的增長在社會生活中逐漸培養(yǎng)起來的,具有習(xí)得性。而且,人的這種刑法意義上的辨認能力與控制能力也不是一旦擁有以后就永遠具備的,它還會因為各種病變而喪失?!雹訇惻d良:《刑法哲學(xué)》(下冊),中國政法大學(xué)出版社2009年版,第373頁。綜上討論,我國當(dāng)前刑法確立的犯罪與刑罰體系,均是以自然人(和單位)為基本前提,以辨認和控制能力的有無作為刑事責(zé)任能力承擔(dān)的標準。
人工智能作為非生命體,與刑事責(zé)任認定中以自然人(生命體)為基礎(chǔ)的傳統(tǒng)路徑存在較大沖突。隨著人工智能的發(fā)展,特別是智能機器人的可能出現(xiàn),給刑事責(zé)任認定的傳統(tǒng)思路帶來了較大沖擊,主要體現(xiàn)在兩個方面:
1.對刑事責(zé)任主體的認定帶來挑戰(zhàn)
這一問題的實質(zhì)在于,人工智能產(chǎn)品能否成為刑事責(zé)任承擔(dān)的適格主體。隨著人工智能技術(shù)的不斷發(fā)展,人工智能技術(shù)能夠在很大程度上輔助人類行為,甚至替代人類行為,但是人工智能產(chǎn)品在法律規(guī)范層面能否等同于人類的行為,除了考慮社會危害性因素以外,還需要考慮犯罪主體本身的因素。如前文所述,當(dāng)前人工智能產(chǎn)品的致害行為已經(jīng)出現(xiàn)。從不法層面來說,前文所述人工智能產(chǎn)品的行為確實給社會帶來較為嚴重的危害,應(yīng)當(dāng)納入刑法調(diào)整的范疇,但是從有責(zé)層面來說,即便人工智能產(chǎn)品因程序失控(失靈)而偏離了預(yù)先設(shè)定的行動軌跡進而實施了致害行為,也很難認為人工智能產(chǎn)品本身具備刑法上的故意和過失,具有一般意義上的辨認和控制能力。因此,在當(dāng)前我國刑法僅規(guī)定自然人和單位兩類犯罪主體的情形下,很難賦予人工智能產(chǎn)品犯罪主體的地位。與主體身份相關(guān)聯(lián)的一個問題是,人工智能產(chǎn)品的“國籍”問題。因人工智能產(chǎn)品本質(zhì)上屬于“產(chǎn)品”“物品”或“機器”范疇,人工智能產(chǎn)品的所有(權(quán))或者占有(權(quán)),不像自然人的國籍一樣具有固定性、不可轉(zhuǎn)讓性,而往往隨著交易行為的變化而變化,這給傳統(tǒng)視野下刑事責(zé)任主體的認定帶來了不確定性。我國刑法的空間效力就涉及屬地管轄、屬人管轄、保護管轄與普遍管轄的問題。根據(jù)《刑法》第7條規(guī)定,中華人民共和國公民在中華人民共和國領(lǐng)域外犯本法規(guī)定之罪的,適用本法,但是按本法規(guī)定的最高刑為3年以下有期徒刑的,可以不予追究。第8條規(guī)定,外國人在中華人民共和國領(lǐng)域外對中華人民共和國國家或者公民犯罪,而按本法規(guī)定的最低刑為3年以上有期徒刑的,可以適用本法,但是按照犯罪地的法律不受處罰的除外??梢钥闯?,我國刑法屬人管轄和保護管轄的基礎(chǔ)在于我國國籍的確定。如果無法確定我國國籍,屬人管轄和屬地管轄便成了無源之水、無本之木,顯然,對于人工智能產(chǎn)品而言,無論是從其本質(zhì)屬性、權(quán)屬狀況,還是從當(dāng)前我國國籍確定的規(guī)則來看,均無法適用屬人管轄和屬地管轄原則,因而也就難以成為刑事責(zé)任的主體。
2.對刑事責(zé)任的承擔(dān)方式帶來挑戰(zhàn)
目前我國刑法所確立的刑罰體系主要由主刑和附加刑構(gòu)成,前者包括管制、拘役、有期徒刑、無期徒刑和死刑,后者則包括罰金、剝奪政治權(quán)利、沒收財產(chǎn)和驅(qū)逐出境。顯然,這些刑罰種類僅針對自然人而設(shè)計,且僅能適用于自然人(罰金刑可以適用于單位)。而訓(xùn)誡或者責(zé)令具結(jié)悔過、賠禮道歉、賠償損失等非刑罰性處置措施等,更是具有濃烈的自然人色彩。這些刑罰種類均難以適用于人工智能產(chǎn)品。從刑罰的目的來說,無論是報應(yīng)還是預(yù)防,也難以與人工智能產(chǎn)品發(fā)生關(guān)聯(lián)。比如,理論上一般認為,報應(yīng)中很重要的一塊內(nèi)容是道義報應(yīng)。道義報應(yīng)是指根據(jù)犯罪人的主觀惡性程度實行報應(yīng),由此出發(fā),對犯罪人發(fā)動刑罰,應(yīng)以其道德罪過為基礎(chǔ),使刑罰與道德充分保持一致。①參見陳興良:《刑法哲學(xué)》(下冊),中國政法大學(xué)出版社2009年版,第343頁。我國刑罰體系中的生命刑、自由刑、財產(chǎn)刑、資格刑等,都可以從道義報應(yīng)中找到原始依據(jù)。又比如,在個別預(yù)防的理論體系下,能否成為個別預(yù)防的對象,重點在于考察該對象是否具有刑罰的感受性。②同注①,第375頁。而一般預(yù)防則著眼于刑罰對其他人產(chǎn)生的威懾、教育、鑒別等效果,阻卻其他人的犯罪欲念或者幫助他人形成守法意愿。無論是刑罰的報應(yīng)還是預(yù)防,其基本預(yù)設(shè)均是自然人。
值得注意的是,我國有學(xué)者已經(jīng)注意到了人工智能產(chǎn)品的這一問題。該學(xué)者指出:“智能機器人具有感知刑罰痛苦的能力,并且能夠在犯罪的‘快感’與刑罰的‘痛感’之間進行理性權(quán)衡,以調(diào)整其之后的行為……一般預(yù)防的功能則體現(xiàn)得更為充分,由于智能機器人具有意識和意志,會學(xué)習(xí),能思考,因而此智能機器人完全可以從彼智能機器人因犯罪而受刑的經(jīng)歷中感受到威懾并接受教育,從而不斷在自己的‘大腦’中塑造或加深符合人類社會規(guī)范的‘價值觀’。”③劉憲權(quán)、胡荷佳:《論人工智能時代智能機器人的刑事責(zé)任能力》,《法學(xué)》2018年第1期。筆者認為,將人工智能產(chǎn)品(智能機器人)認定為具有刑罰感受性并能夠體現(xiàn)刑罰的一般預(yù)防功能,是基于人工智能技術(shù)發(fā)展現(xiàn)狀和未來趨勢,對人工智能產(chǎn)品作出的極具前瞻性、創(chuàng)造性的設(shè)想,這種設(shè)想對于開闊我們的視野、豐富我們的思路具有重要的參考借鑒價值。筆者的觀點是,盡管隨著人工智能技術(shù)的發(fā)展,在可預(yù)見的將來,可能會出現(xiàn)具有自主意識和自我決策能力,并基于自己的判斷而實施獨立行為的智能機器人,但是這些智能機器人能夠“思考”“行動”的本質(zhì)在于其背后軟件程序的支撐和運行,其本身難以具有道德觀、羞恥感,難以感受到刑罰的痛苦。如果這一論點成立,則意味著過去很長一段時間以來形成的所有刑罰理論以及由此而建立的刑罰體系,在人工智能產(chǎn)品面前“失靈”。換言之,當(dāng)前通行的刑事責(zé)任承擔(dān)方式,根本無法為人工智能產(chǎn)品提供出路。
人工智能的一個比較流行的定義,也是該領(lǐng)域較早的定義,是由約翰·麥卡錫在1956年的達特矛斯會議上提出的:“人工智能就是要讓機器的行為看起來就像是人所表現(xiàn)出的智能行為一樣。”當(dāng)前,人工智能技術(shù)及其產(chǎn)品已經(jīng)深入我們現(xiàn)實生活的方方面面。未來,人工智能還將可能以更為重要的身份出現(xiàn)在我們的生活中,人工智能產(chǎn)品的刑事責(zé)任認定,也必將成為刑法理論研究與司法實務(wù)無法回避的問題。筆者認為,在應(yīng)對人工智能給刑事責(zé)任認定帶來的挑戰(zhàn)時,應(yīng)及時調(diào)整和更新理念,主要把握三點:
“當(dāng)抽象——一般概念及其邏輯體系不足以掌握某生活現(xiàn)象或意義脈絡(luò)的多樣表現(xiàn)形態(tài)時,大家首先會想到的補助思考形式是‘類型’。”④[德]卡爾·拉倫茨:《法學(xué)方法論》,陳愛娥譯,商務(wù)印書館2003年版,第337頁。類型化思維是法律研究中的重要方法論,也是面對復(fù)雜事物時準確劃分刑事責(zé)任的基本方法?!爸挥性诳杀容^的事物之范圍內(nèi),才有類型,類型以可比較的事物,因而是可區(qū)別的事物為前提?!雹輀德]亞圖·考夫曼:《類推與事物本質(zhì)——兼論類型理論》,吳從周譯,中國臺灣地區(qū)新學(xué)林出版股份有限公司1999年版,第111頁。對人工智能產(chǎn)品進行刑事責(zé)任分析時,首先需要對人工智能產(chǎn)品做一個類型化的劃分,且這一分類應(yīng)當(dāng)充分考量人工智能科學(xué)領(lǐng)域的專業(yè)知識,并遵循人工智能領(lǐng)域產(chǎn)品劃分的基本范式。在人工智能科學(xué)領(lǐng)域,存在弱人工智能(TOPDOWN AI)和強人工智能(BOTTOM-UP AI)之分。兩者區(qū)分的關(guān)鍵在于是否具有自主意識、是否具備辨認和控制能力。弱人工智能并不真正擁有智能,也不會有自主意識,僅在設(shè)計和編制的程序范圍內(nèi)進行判斷、決策,并不具有辨認能力和控制能力,其實現(xiàn)的只是設(shè)計者或使用者的意志。強人工智能是指真正擁有智能,能推理和解決問題,并具有自我意識,其依賴于自身具有的辨認能力和控制能力,既可以在設(shè)計和編制的程序范圍內(nèi)進行獨立判斷并自主作出決策,也可以在設(shè)計和編制的程序范圍外自主實施行為,實現(xiàn)自己的意志。①參見劉憲權(quán):《人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任》,《東方法學(xué)》2018年第1期。此時,“盡管它無法同人類的意識相媲美,但在特定功能的范圍內(nèi),機器人已經(jīng)能夠自主地決定是否從事某種行為”②張玉潔:《論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制》,《東方法學(xué)》2017年第6期。。強人工智能意味著智能產(chǎn)品(主要是機器人)具有完全的自主性,是一種新的機器范式:不需要人類介入或者干預(yù)的“感知—思考—行動”③自動駕駛汽車就是目前已經(jīng)出現(xiàn)的完全自主的人工智能機器,理論和實務(wù)界已經(jīng)開始討論自動駕駛的民事責(zé)任問題。參見司曉、曹建峰:《論人工智能的民事責(zé)任:以自動駕駛汽車和智能機器人為切入點》,《法律科學(xué)》2017年第5期。。由此出發(fā),“智能機器人實施嚴重危害社會的行為可分為兩種,即在程序設(shè)計和編制范圍內(nèi)實施的行為與在程序設(shè)計和編制范圍外實施的行為”④劉憲權(quán):《人工智能時代刑事責(zé)任與刑罰體系的重構(gòu)》,《政治與法律》2018年第3期。。
強人工智能和弱人工智能的劃分,為人工智能產(chǎn)品的刑事責(zé)任分析提供了基本的前提和思路。顯然,就弱人工智能產(chǎn)品而言,因其不會偏離程序設(shè)計和編制范圍,更多的可能是被行為人所利用,當(dāng)成實施犯罪的智能工具,其本身一般難以成為刑事責(zé)任主體,但是可以視情況追究其使用者、研發(fā)者甚至管理者、監(jiān)督者的刑事責(zé)任;就強人工智能產(chǎn)品而言,由于其可能脫離人類的控制進而在程序設(shè)計和編制范圍以外自主實施嚴重危害社會的犯罪行為,完全有可能成為刑事責(zé)任的主體。此時不僅要考慮該智能機器人的刑事責(zé)任,還要考慮智能機器人研發(fā)者、使用者或管理者、監(jiān)督者的刑事責(zé)任,甚至還要考慮智能機器人與自然人共同犯罪刑事責(zé)任的分擔(dān)等問題。
如前文所述,在當(dāng)前我國刑法僅規(guī)定自然人和單位兩類犯罪主體,且刑罰體系僅能適用于自然人和單位的情形下,很難賦予人工智能產(chǎn)品犯罪主體的地位。但是隨著人工智能技術(shù)的發(fā)展,我們有理由相信,在未來某一個時期,可能會出現(xiàn)能夠獨立思考、獨立判斷、自主行為,并具有辨認和控制能力的智能機器人。有學(xué)者界定,智能機器人是由程序設(shè)計和編制而成且具有辨認控制能力和學(xué)習(xí)能力,同時能夠自主思維、自發(fā)行動的非生命體。⑤參見劉憲權(quán)、胡荷佳:《論人工智能時代智能機器人的刑事責(zé)任能力》,《法學(xué)》2018年第1期。對于該種智能機器人的理解,筆者認為,首先應(yīng)當(dāng)明確兩點:一是該種智能機器人所具有的辨認和控制能力與自然人的辨認和控制能力存在質(zhì)的差別,是一種新型的、特殊的辨認和控制能力;二是該種智能機器人能夠自主思維、獨立思考、自發(fā)行動的前提依然是經(jīng)程序設(shè)計和編制而來,即智能機器人的“腦子”是程序。這也決定了無法將智能機器人真正看成是自然人,進而在法律層面將智能機器人和自然人同等視之。但是,智能機器人基于其辨認和控制能力,在程序設(shè)計和編制范圍以外實施了嚴重危害社會的行為,如果只追究智能機器人使用者、研發(fā)者、管理者或監(jiān)督者的責(zé)任,不僅不符合責(zé)任認定的精細化原理,也與罪責(zé)刑相適應(yīng)原則不符。
那么,應(yīng)如何妥善認定該類主體實施的嚴重危害社會行為的刑事責(zé)任呢?筆者認為,可以借鑒法律擬制的思維。“在法律擬制的場合,盡管立法者明知T2與T1在事實上并不相同,但出于某種目的仍然對T2賦予與T1相同的法律效果,從而指示法律適用者,將T2視為T1的一個事例,對T2適用T1的法律規(guī)定?!雹購埫骺骸缎谭ǚ謩t的解釋原理(下)》(第2版),中國人民大學(xué)出版社2011年版,第631-632頁。盡管智能機器人與自然人、法人并不相同,但是出于維護國家利益、社會秩序,保障他人合法權(quán)益的目的,賦予其承擔(dān)刑事責(zé)任的能力,從而將智能機器人擬制為法律上與自然人、法人并列的第三類(新型)責(zé)任主體,不僅必要,而且具有可行性。應(yīng)當(dāng)看到,法人能否成為刑事責(zé)任的主體,在理論和實務(wù)上也經(jīng)歷了一個漫長的爭論過程。法人的意志、辨認和控制能力,均與自然人存在本質(zhì)區(qū)別,但是并不影響法人可以承擔(dān)刑事責(zé)任,也不影響對法人科處刑罰(罰金)。智能機器人能否成為刑事責(zé)任主體,與法人能否成為刑事責(zé)任主體具有幾乎相同的理論邏輯。因此,筆者認為,要對智能機器人堅持相對獨立的刑法評價,將智能機器人視為一種新型的責(zé)任主體,進而從該類主體刑罰適用的特殊性出發(fā),研究設(shè)定能夠準確適用于該類主體并起到刑罰目的的刑罰體系。對此,我國有學(xué)者提出,建議增設(shè)能夠適用于智能機器人的刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰方式,并在條件成熟時增設(shè)適用于智能機器人的財產(chǎn)刑或者權(quán)利刑等刑罰處罰方式。②參見劉憲權(quán):《人工智能時代我國刑罰體系重構(gòu)的法理基礎(chǔ)》,《法律科學(xué)》2018年第4期。對于這一前瞻性的設(shè)想,筆者深表贊同。與此相配套的是,要加強對人工智能犯罪主客觀要件的研究(不同于自然人和單位),構(gòu)建適應(yīng)人工智能主體實際的犯罪構(gòu)成體系,同時,可考慮對智能機器人實行嚴格的注冊制,并以實際注冊地為基礎(chǔ)確立管轄原則。
我國是成文法國家,罪刑法定原則是我國刑法規(guī)定的一項基本原則,也是刑法適用過程中應(yīng)當(dāng)堅守的最為重要的原則。罪刑法定原則要求對某一行為的罪刑評價應(yīng)當(dāng)以刑法的規(guī)定為依據(jù)。因此,一方面,在我國尚未完成對人工智能產(chǎn)品主體身份的立法確認,以及刑罰體系沒有完成重構(gòu)之前,盡管在理論上可以對人工智能產(chǎn)品的刑事責(zé)任問題展開充分的探討,但是在司法實務(wù)領(lǐng)域,對智能機器人這一新型責(zé)任主體的確認以及定罪與量刑活動,都應(yīng)當(dāng)嚴格恪守現(xiàn)有刑法規(guī)定,也不能通過自我演繹的方法,完成人工智能產(chǎn)品致害行為的司法犯罪化。另一方面,“法無禁止即可為”作為一種法理對于人工智能的推進和法律立場選擇同樣適用。人工智能技術(shù)及產(chǎn)品極大地促進和改善了人類社會的生產(chǎn)、生活方式,給人類帶來了極大的便利。但“刑法猶如一把雙刃劍,用之得當(dāng),則個人與社會兩受益;用之不當(dāng),則個人與社會兩受害”。筆者認為,在堅持罪刑法定原則的基礎(chǔ)上,應(yīng)正確處理好鼓勵人工智能創(chuàng)新發(fā)展與刑法介入適度性的關(guān)系,對于人工智能產(chǎn)品研發(fā)或使用行為的規(guī)制應(yīng)當(dāng)保持一定的謙抑性,肯定其研發(fā)、使用的正面效應(yīng),不過多地用刑法加以干預(yù),從而實現(xiàn)既要嚴格防控人工智能技術(shù)被濫用的風(fēng)險,又不能阻礙人工智能技術(shù)的創(chuàng)新和發(fā)展;對于因人工智能產(chǎn)品而引發(fā)的嚴重危害國家利益、社會利益和他人合法利益的犯罪行為,刑法應(yīng)及時、準確介入,從而發(fā)揮刑法對社會秩序和社會穩(wěn)定的屏障作用。同時,應(yīng)加強對人工智能時代各類風(fēng)險的研判和防控,注重人工智能產(chǎn)品研發(fā)、使用、管理過程的制度機制建設(shè),構(gòu)建人工智能產(chǎn)品研發(fā)、使用、管理的民事、行政、刑事三位一體的法律規(guī)范體系。