●劉憲權(quán)
近年來,人工智能技術(shù)蓬勃發(fā)展并日益受到重視。2017年7月國務(wù)院《新一代人工智能發(fā)展規(guī)劃》將發(fā)展人工智能技術(shù)上升為國家戰(zhàn)略,2018年10月習(xí)近平總書記在中共中央政治局第九次集體學(xué)習(xí)時(shí)指出,“加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問題?!薄?〕胡喆:《抓住新一代人工智能發(fā)展的重大機(jī)遇》,新華網(wǎng) http://www.xinhuanet.com//2018-11/01/c_1123649864.htm,2018年12月3日訪問。人工智能技術(shù)的發(fā)展走過了普通機(jī)器人時(shí)代的“昨天”,正經(jīng)歷弱人工智能時(shí)代的“今天”,并終將迎來強(qiáng)人工智能時(shí)代的“明天”。正如霍金所言,“我們站在一個(gè)美麗新世界的入口,而這是一個(gè)令人興奮的、同時(shí)充滿了不確定性的世界”?!?〕[英]史蒂芬·威廉·霍金:《當(dāng)我們站在一個(gè)美麗新世界的入口》,《新華日?qǐng)?bào)》2017年5月23日第15版(整理自史蒂芬·霍金2017年4月27日在北京全球移動(dòng)互聯(lián)網(wǎng)大會(huì)上的視頻演講)。人工智能技術(shù)在促進(jìn)經(jīng)濟(jì)發(fā)展、提高人民生活水平、為人類社會(huì)帶來種種“驚喜”的同時(shí),也會(huì)引發(fā)諸多風(fēng)險(xiǎn)和不確定性。明晰人工智能技術(shù)的發(fā)展路徑,明確涉人工智能犯罪的刑事責(zé)任承擔(dān)方式,一方面促進(jìn)技術(shù)進(jìn)步、鼓勵(lì)技術(shù)創(chuàng)新,另一方面守住不發(fā)生嚴(yán)重風(fēng)險(xiǎn)的底線,為社會(huì)和諧發(fā)展保駕護(hù)航,是刑法在“昨天”、“今天”和“明天”始終應(yīng)當(dāng)肩負(fù)的任務(wù)。
根據(jù)發(fā)展形態(tài),我們可以將機(jī)器人技術(shù)的發(fā)展歷程分為三個(gè)階段——普通機(jī)器人時(shí)代、弱人工智能時(shí)代和強(qiáng)人工智能時(shí)代。普通機(jī)器人與智能機(jī)器人的區(qū)別在于,前者不具有深度學(xué)習(xí)能力,后者具有深度學(xué)習(xí)能力。后者又可進(jìn)一步分為弱智能機(jī)器人和強(qiáng)智能機(jī)器人,二者的區(qū)別在于該機(jī)器人是否能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為,是否具有辨認(rèn)能力與控制能力。弱智能機(jī)器人尚不滿足這一條件。簡(jiǎn)言之,從普通機(jī)器人到弱智能機(jī)器人再到強(qiáng)智能機(jī)器人的“進(jìn)化”史,其實(shí)就是一部機(jī)器人的辨認(rèn)能力與控制能力逐漸增強(qiáng)、人之意識(shí)與意志對(duì)“行為”的作用逐步減弱的歷史。隨著智能機(jī)器人的不斷進(jìn)化,人與智能機(jī)器人在對(duì)“行為”的控制與決定能力上存在著此消彼長的關(guān)系。鑒于自我決定、自由意志是刑事責(zé)任能力的內(nèi)核,當(dāng)自我決定、自由意志的主體發(fā)生變化時(shí),承擔(dān)刑事責(zé)任的主體也就勢(shì)必要相應(yīng)地發(fā)生變化?;诖?,筆者認(rèn)為,應(yīng)根據(jù)不同時(shí)代機(jī)器人的特征確定涉機(jī)器人犯罪的刑事責(zé)任承擔(dān)路徑。
普通機(jī)器人作為犯罪工具時(shí),與一般工具無異,應(yīng)由使用該機(jī)器人實(shí)施犯罪行為的人承擔(dān)刑事責(zé)任。普通機(jī)器人作為犯罪對(duì)象時(shí),可能會(huì)因普通機(jī)器人的特性而影響犯罪的性質(zhì)。
機(jī)器人(Robot)是自動(dòng)執(zhí)行工作的機(jī)器裝置。機(jī)器人可以分為普通機(jī)器人和智能機(jī)器人,智能機(jī)器人是在普通機(jī)器人的基礎(chǔ)上發(fā)展起來的,因此筆者將普通機(jī)器人時(shí)代稱為人工智能技術(shù)發(fā)展的“昨天”。普通機(jī)器人的任務(wù)是協(xié)助或取代人類的重復(fù)繁瑣或者危險(xiǎn)的工作,如生產(chǎn)業(yè)、建筑業(yè)等。最為典型的普通機(jī)器人為ATM機(jī)或工廠中受電腦編程控制、代替人類從事繁重重復(fù)勞動(dòng)的機(jī)械手。在此,筆者僅以ATM機(jī)為例分析普通機(jī)器人與“機(jī)器”和“人”的區(qū)別。
ATM機(jī)又稱自動(dòng)柜員機(jī),是指為客戶利用銀行卡進(jìn)行提款、存款、轉(zhuǎn)賬等銀行業(yè)務(wù)柜臺(tái)服務(wù)的設(shè)備。從某種程度上分析,我們完全可以認(rèn)為ATM機(jī)替代了銀行職員的部分功能。對(duì)于ATM機(jī)的性質(zhì),學(xué)界存在不同的看法。有學(xué)者將ATM機(jī)完全等同于普通“機(jī)器”,〔3〕參見張明楷:《許霆案的刑法學(xué)分析》,《中外法學(xué)》2009年第1期。也有學(xué)者認(rèn)為應(yīng)將ATM機(jī)作為“人”來看待。〔4〕參見劉明祥:《再論用信用卡在ATM機(jī)上惡意取款的行為性質(zhì)——與張明楷教授商榷》,《清華法學(xué)》2009年第1期。筆者認(rèn)為,以上看法均有失偏頗,ATM機(jī)既非“機(jī)器”也非“人”,而是“機(jī)器人”?!?〕參見劉憲權(quán):《網(wǎng)絡(luò)侵財(cái)犯罪刑法規(guī)制與定性的基本問題》,《中外法學(xué)》2017年第4期。我們說ATM機(jī)不是“機(jī)器”,是因?yàn)樗煌诩兇鈾C(jī)械運(yùn)作的機(jī)器,ATM機(jī)的設(shè)計(jì)者和制造者通過電腦編程賦予了ATM機(jī)識(shí)別功能。ATM機(jī)可以將取款人輸入的密碼與持卡人在銀行預(yù)存的密碼進(jìn)行對(duì)照,判斷是否應(yīng)讓取款人成功取得錢款。而識(shí)別功能是“人腦功能”,而非普通機(jī)器具有的功能,因此將ATM機(jī)視為“機(jī)器”似乎不甚妥當(dāng)。我們說ATM機(jī)不是“人”,是因?yàn)锳TM機(jī)的識(shí)別功能是電腦編程所賦予的,其所有“行為”均完全在電腦編程的控制和支配之下實(shí)施。這與人腦所具有的識(shí)別功能存在本質(zhì)的不同(人腦所具有的識(shí)別功能是在自主意識(shí)和意志的支配之下發(fā)揮作用的)。另外,ATM機(jī)除電腦賦予的識(shí)別功能外,并不具有人腦所具有的其他功能(如情感功能、運(yùn)動(dòng)功能、感覺功能、語言功能等),因此將ATM機(jī)視為“人”也不甚妥當(dāng)。依筆者之見,以ATM機(jī)為代表的普通機(jī)器人中所蘊(yùn)含的“人”的成分較少(只占10%-30%),而蘊(yùn)含的“機(jī)器”的成分較多。
總之,包括ATM機(jī)在內(nèi)的經(jīng)電腦編程的機(jī)器既不是“機(jī)器”,也不是“人”,我們可以將其稱為“機(jī)器人”。由于這些“機(jī)器人”具備識(shí)別功能等“人腦功能”,同時(shí)又可以在電腦編程的控制和支配下代替人類從事勞動(dòng),即具備機(jī)器的特征,所以,將ATM機(jī)視為“機(jī)器人”可以準(zhǔn)確、全面地反映其特點(diǎn)和本質(zhì)。機(jī)器所體現(xiàn)的意識(shí)本質(zhì)上是人的意識(shí),而這也正是其與一般機(jī)械性機(jī)器的主要區(qū)別所在。在金融犯罪及侵財(cái)犯罪的認(rèn)定中,我們認(rèn)為,ATM機(jī)既不是“機(jī)器”也不是“人”而是“機(jī)器人”。即如果行為人利用“機(jī)器人”所具有的“識(shí)別”功能中的認(rèn)識(shí)錯(cuò)誤獲取財(cái)物,就應(yīng)該對(duì)行為人的行為按詐騙類(包括信用卡詐騙)的犯罪認(rèn)定;如果行為人是利用“機(jī)器人”本身存在的“機(jī)械故障”獲取財(cái)物(例如,許霆案件),則應(yīng)該對(duì)行為人的行為按盜竊類的犯罪認(rèn)定。
以ATM機(jī)為代表的普通機(jī)器人具有電腦編程所賦予的識(shí)別功能,但是不具備人腦的其他功能。因此,我們應(yīng)將ATM機(jī)視為“機(jī)器人”。使用者將銀行卡插入ATM機(jī)并輸入取款密碼后,ATM機(jī)會(huì)根據(jù)電腦編程啟動(dòng)其識(shí)別功能,判斷使用者輸入的密碼與持卡人在銀行預(yù)留的密碼是否一致,如一致,則使用者可以成功取得錢款。換言之,根據(jù)預(yù)先設(shè)定的程序,只要行為人手持合格的信用卡并輸入正確的密碼,ATM機(jī)就會(huì)付款給行為人。
筆者認(rèn)為,基于ATM機(jī)“機(jī)器人”的特性和付款給取款人的程序,以ATM機(jī)為代表的普通機(jī)器人時(shí)代主要存在兩個(gè)方面的刑事風(fēng)險(xiǎn)。第一,行為人可利用ATM機(jī)的識(shí)別功能,使ATM機(jī)陷入認(rèn)識(shí)錯(cuò)誤而獲取錢財(cái)。在ATM機(jī)上合法規(guī)范的取款行為應(yīng)該具備三個(gè)要素:合格的信用卡、正確的密碼、合法持卡人。其中,合格的信用卡是指通過銀行正常業(yè)務(wù)流程取得的具有轉(zhuǎn)賬、結(jié)算、存取現(xiàn)金、信用貸款等部分或全部功能的電子支付卡;正確的密碼是指與持卡人在銀行預(yù)留的密碼相一致的密碼;合法持卡人是指銀行卡上所記載的持卡人或者銀行卡上記載的持卡人合法委托的代理人。不難看出,在ATM機(jī)上取款成功只需具備兩個(gè)要素即可:存在合格的信用卡和輸入正確的密碼。如果非法持卡人獲得正確的密碼,同樣可以在ATM機(jī)上成功取得錢款。這就為行為人惡意利用ATM機(jī)的識(shí)別功能、非法持信用卡在ATM機(jī)上取款提供了空間。第二,當(dāng)ATM機(jī)出現(xiàn)程序紊亂或機(jī)械故障時(shí),行為人有可能會(huì)惡意利用這種錯(cuò)誤取得錢款,最為典型的是2006年發(fā)生的許霆案。許霆以非法占有為目的,利用ATM機(jī)本身的故障取款17萬余元人民幣(許霆的銀行卡內(nèi)本來僅有170余元的余額),此時(shí),在真卡、真人和真密碼的情況下,許霆取款并不是利用ATM機(jī)識(shí)別功能上的認(rèn)識(shí)錯(cuò)誤欺騙“機(jī)器人”,而不過是利用ATM機(jī)的機(jī)械故障而已??梢?,“機(jī)器”與“機(jī)器人”的根本區(qū)別在于其是否具有部分人腦功能,不具有部分人腦功能的“機(jī)器”是不可能“被騙”的。
以ATM機(jī)為代表的普通機(jī)器人中蘊(yùn)含的“機(jī)器”的成分遠(yuǎn)大于“人”的成分,在作為犯罪工具時(shí),和一般的刀槍劍戟沒有本質(zhì)區(qū)別。正如行為人使用菜刀殺人,菜刀的設(shè)計(jì)者和生產(chǎn)者無需負(fù)刑事責(zé)任一樣,在將普通機(jī)器人作為犯罪工具的情況下,普通機(jī)器人的研發(fā)者當(dāng)然不應(yīng)承擔(dān)刑事責(zé)任,僅應(yīng)由使用者承擔(dān)刑事責(zé)任。故而,以普通機(jī)器人為工具的犯罪性質(zhì)的認(rèn)定,與傳統(tǒng)犯罪并無差異。但是以普通機(jī)器人為犯罪對(duì)象的犯罪性質(zhì)有可能會(huì)因普通機(jī)器人的特征而受到影響。筆者已在上文中論述過,以ATM機(jī)為代表的普通機(jī)器人具有識(shí)別功能,但不具備人腦的其他功能,其既區(qū)別于“機(jī)器”,也區(qū)別于“人”,應(yīng)被認(rèn)定為“機(jī)器人”。ATM機(jī)既具有部分“機(jī)器”的特性,也具有部分“人”的特性。當(dāng)利用ATM機(jī)的識(shí)別功能時(shí),我們相當(dāng)于在利用ATM機(jī)“人”的部分功能。經(jīng)電腦編程后的ATM機(jī)可以基于欺騙行為產(chǎn)生認(rèn)識(shí)錯(cuò)誤,因此可以成為被欺騙的對(duì)象。在冒用他人信用卡時(shí),對(duì)銀行職員的欺騙和對(duì)ATM機(jī)的欺騙并無本質(zhì)差異,都是使被欺騙的對(duì)象陷入認(rèn)識(shí)錯(cuò)誤,并基于認(rèn)識(shí)錯(cuò)誤交付錢款,本質(zhì)上都是詐騙類的行為。刑法將冒用他人信用卡的行為認(rèn)定為信用卡詐騙罪,是完全合理的。
需要指出的是,筆者并不認(rèn)為ATM機(jī)就等同于金融機(jī)構(gòu)的業(yè)務(wù)員。ATM機(jī)與真正意義上的業(yè)務(wù)人員相比,除了能完成一些簡(jiǎn)單的業(yè)務(wù)操作外,并不具有人腦的其他思維、辨別能力。就此而言,如果ATM機(jī)出現(xiàn)了機(jī)械故障,我們最多只能說這類似于人的精神出了問題,而決不能將此理解為是人的認(rèn)識(shí)或理解錯(cuò)誤。此觀點(diǎn)最主要解決的是,如果行為人利用ATM機(jī)等普通機(jī)器人被電腦賦予的識(shí)別功能獲取錢財(cái),則應(yīng)構(gòu)成詐騙類的犯罪,人的意志通過程序在普通機(jī)器人身上得以體現(xiàn),普通機(jī)器人所體現(xiàn)的意志就是人的意志,因此普通機(jī)器人可以成為詐騙類犯罪的對(duì)象。而行為人如果利用普通機(jī)器人本身所具有的機(jī)械故障,相當(dāng)于從精神病人處獲取錢財(cái),則應(yīng)構(gòu)成盜竊類犯罪。
弱人工智能技術(shù)的發(fā)展在為人類帶來福祉的同時(shí),也帶來諸多風(fēng)險(xiǎn)。應(yīng)為弱智能機(jī)器人的研發(fā)者和使用者設(shè)定相應(yīng)義務(wù),并明晰二者的刑事責(zé)任承擔(dān)路徑。
弱智能機(jī)器人是智能機(jī)器人發(fā)展的初級(jí)階段。無論是弱智能機(jī)器人還是強(qiáng)智能機(jī)器人,都具有深度學(xué)習(xí)能力。深度學(xué)習(xí)的概念由Hinton等人于2006年提出,是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),從而模擬人腦的機(jī)制來解釋數(shù)據(jù)(包括圖像、聲音和文本等)?!?〕參見段艷杰、呂宜生、 張杰:《深度學(xué)習(xí)在控制領(lǐng)域的研究現(xiàn)狀與展望》,《自動(dòng)化學(xué)報(bào)》2016年第5期。如目前購物平臺(tái)利用大數(shù)據(jù)分析方法探求用戶潛在需求并為用戶推送個(gè)性化商品或服務(wù)、圍棋機(jī)器人戰(zhàn)勝世界圍棋冠軍,以及自動(dòng)駕駛、人機(jī)對(duì)話等,都是在以深度學(xué)習(xí)為支撐的弱人工智能技術(shù)背景下實(shí)現(xiàn)的。
弱人工智能技術(shù)的發(fā)展將會(huì)為人類生活帶來福祉。目前,人類社會(huì)仍面臨著諸多困難,諸如繁重的體力勞動(dòng)、生產(chǎn)領(lǐng)域的人身風(fēng)險(xiǎn)、交通堵塞、地區(qū)貧困、環(huán)境污染、疾病瘟疫等。人工智能技術(shù)的出現(xiàn),為人類歷史性難題的解決提供了新的方式和思路。弱人工智能技術(shù)的發(fā)展,為人類的生活帶來了極大的便利,并促進(jìn)了生產(chǎn)力的提升和經(jīng)濟(jì)的發(fā)展。在生活領(lǐng)域,家居智能機(jī)器人不僅方便了我們的生活,還提高了能源利用率。例如,在一個(gè)由人工智能技術(shù)控制的生活空間中,智能硬件會(huì)根據(jù)居住人的生活習(xí)慣,自動(dòng)切換到消耗最少資源但能使居住人享受最佳生活狀態(tài)的模式。在生產(chǎn)領(lǐng)域,智能機(jī)器人可以代替人類從事繁重、重復(fù)或高危的勞動(dòng),從而極大地提高生產(chǎn)效率,節(jié)約人力成本。在商業(yè)領(lǐng)域,經(jīng)營者可以利用人工智能技術(shù)對(duì)用戶數(shù)據(jù)進(jìn)行整合分析,從而為每一個(gè)用戶提供契合需求的個(gè)性化服務(wù)。在醫(yī)療領(lǐng)域,智能機(jī)器人憑借其強(qiáng)大的深度學(xué)習(xí)能力以及精準(zhǔn)的控制能力,可以在包括醫(yī)學(xué)在內(nèi)的諸多領(lǐng)域中為醫(yī)生提供重要的輔助,甚至可以在某些方面替代醫(yī)生。在文化領(lǐng)域,智能機(jī)器人可以寫出美妙的詩篇,人工智能翻譯器可以在不同語言之間進(jìn)行自如切換,幫助不同國家和地區(qū)的人們更好地溝通和交流。
弱人工智能技術(shù)是把“雙刃劍”,其在為人類的生產(chǎn)和生活帶來極大便利的同時(shí),也為國家和公共安全、個(gè)人隱私、經(jīng)濟(jì)和社會(huì)秩序等領(lǐng)域帶來了刑事風(fēng)險(xiǎn)。
弱人工智能技術(shù)為國家和公共安全領(lǐng)域帶來了刑事風(fēng)險(xiǎn)。目前,弱人工智能技術(shù)蓬勃發(fā)展,但缺乏相應(yīng)的法律規(guī)制。對(duì)弱人工智能技術(shù)的不合理運(yùn)用,極易使得其發(fā)展方向偏離合理的軌道,從而對(duì)國家安全和公共安全造成威脅。其一,弱人工智能技術(shù)與軍事的結(jié)合,可能會(huì)給國家安全甚至世界和平帶來極大的威脅。2017年,Google與美國國防部合作建設(shè)Maven項(xiàng)目(也被稱為“算法戰(zhàn)爭(zhēng)跨功能團(tuán)隊(duì)”——AWCFT:Algorithmic Warfare Cross-Functional Team),意圖“加快國防部整合大數(shù)據(jù)和機(jī)器學(xué)習(xí)”,首要任務(wù)是利用人工智能技術(shù)幫助美國國防部有效處理利用無人機(jī)搜集的全球各地的海量視頻資料。Google在該項(xiàng)目中的作用是為美國國防部提供TensorFlow API接口,用來幫助軍事分析人員檢測(cè)圖像中的物體。盡管遭到了公司內(nèi)部和外部雙重壓力,Google也一度想終止此項(xiàng)合作,但就在2018年6月,谷歌CEO 發(fā)表了題為《AI at Google:Our Principles》的文章,指出Google并不會(huì)終止與美軍的合作。美國國防部分析全球各地視頻資料的目的曖昧不明,完全有可能會(huì)威脅到各國國家安全和世界和平。Google為美國軍方提供人工智能技術(shù)支持的做法可以說是“助紂為虐”。無獨(dú)有偶,韓國科學(xué)技術(shù)院于2018年建立了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù)。消息一出,即遭到30多個(gè)國家和地區(qū)的人工智能技術(shù)專家的反對(duì)。這些專家認(rèn)為,“自動(dòng)武器一旦成熟,戰(zhàn)爭(zhēng)發(fā)展速度和規(guī)模將前所未有,它們可能會(huì)被恐怖分子利用?!辈豢煞裾J(rèn),人工智能技術(shù)在軍事領(lǐng)域可以發(fā)揮有益作用,例如幫助完成掃雷等嚴(yán)重威脅人類安全的任務(wù),但是一旦將人工智能技術(shù)全面應(yīng)用到軍事領(lǐng)域中,無疑會(huì)增大戰(zhàn)爭(zhēng)的殺傷力,為世界和平和人類安全帶來更大威脅,尤其是如果被某些別有用心的國家或者恐怖分子惡意利用,將會(huì)帶來難以想象的惡果。其二,弱人工智能技術(shù)與傳統(tǒng)科學(xué)技術(shù)的結(jié)合,可能會(huì)給公共安全帶來威脅。其中,最典型的莫過于自動(dòng)駕駛技術(shù)。2018年3月,在美國亞利桑那州發(fā)生了一起Uber無人車撞死行人的事故。時(shí)隔不久,一輛開啟了自動(dòng)駕駛模式的特斯拉汽車撞上高速路旁的隔離帶,車主不幸喪生,并引發(fā)兩車追尾。自動(dòng)駕駛技術(shù)除了可能引發(fā)道路上的交通事故,造成人員傷亡,威脅公共安全之外,還有可能被應(yīng)用到無人坦克或無人汽車炸彈等軍事領(lǐng)域,從而給人類生命安全帶來更大的威脅。
弱人工智能技術(shù)的應(yīng)用可能會(huì)帶來侵犯公民個(gè)人信息的刑事風(fēng)險(xiǎn)。其一,用于合理用途的人工智能技術(shù)有可能在客觀上造成對(duì)公民個(gè)人信息的侵犯。人工智能技術(shù)的發(fā)展離不開以大數(shù)據(jù)分析為基礎(chǔ)的深度學(xué)習(xí),離開大數(shù)據(jù)和海量信息的支撐,人工智能技術(shù)就猶如無源之水、無本之木。2018年,英國劍橋大學(xué)公布了一項(xiàng)名為“天眼”(Eye in the sky)的人工智能技術(shù)研究項(xiàng)目,即利用無人機(jī)掛載攝像頭拍攝人群影像,再利用人工智能技術(shù)識(shí)別影像畫面,從而發(fā)現(xiàn)人群中的暴力行為。雖然這項(xiàng)技術(shù)對(duì)于維護(hù)公共安全、邊境安全等方面發(fā)揮積極作用,但也不可避免地會(huì)侵犯到公民的個(gè)人信息甚至隱私。另外,一些P2P借款平臺(tái)嘗試?yán)萌斯ぶ悄芗夹g(shù)在網(wǎng)上查找債務(wù)人及其親朋好友的信息,并通過大數(shù)據(jù)分析選擇合適用語和合適方式催促債務(wù)人還款。一旦查找信息的方式越過法律的“底線”,P2P借款平臺(tái)就有可能涉嫌侵犯公民個(gè)人信息犯罪。其二,犯罪團(tuán)伙利用人工智能技術(shù)可以用更加快捷的方式、更低廉的成本獲取公民個(gè)人信息,從而造成對(duì)公民個(gè)人隱私的侵犯。黑客犯罪團(tuán)伙利用網(wǎng)站漏洞非法獲取網(wǎng)站后臺(tái)用戶注冊(cè)數(shù)據(jù)(“脫庫”),并用這些數(shù)據(jù)嘗試登陸其他網(wǎng)站,得到用戶在各個(gè)網(wǎng)站用于登陸的賬號(hào)和密碼(“撞庫”)?!?〕參見《人工智能涉罪細(xì)節(jié)首次披露:你的個(gè)人信息是這樣被破解的》,搜狐網(wǎng)http://www.sohu.com/a/202973604_659173,2018年6月14日訪問。這一系列行為已經(jīng)形成了一個(gè)黑色的產(chǎn)業(yè)鏈。犯罪分子在其中獲得的精準(zhǔn)的用戶信息對(duì)于實(shí)施其他犯罪行為具有重要“價(jià)值”。以上行為無疑是對(duì)公民個(gè)人信息的侵犯,同時(shí)也為犯罪分子利用這些公民個(gè)人信息實(shí)施其他犯罪行為提供了便利條件。
弱人工智能技術(shù)的不當(dāng)利用可能會(huì)對(duì)經(jīng)濟(jì)秩序和社會(huì)秩序造成破壞。其一,弱人工智能技術(shù)的不合理應(yīng)用可能會(huì)對(duì)經(jīng)濟(jì)秩序造成破壞,從而產(chǎn)生相應(yīng)的刑事風(fēng)險(xiǎn)。例如,在證券市場(chǎng)中,行為人可以利用人工智能技術(shù)對(duì)數(shù)據(jù)進(jìn)行深度學(xué)習(xí)和分析,快速掌握有利信息,或者非法獲取與證券、期貨價(jià)格變動(dòng)緊密關(guān)聯(lián)的信息,或者利用智能機(jī)器人的快速反應(yīng)進(jìn)行高頻交易,造成股價(jià)的變動(dòng)或證券、期貨市場(chǎng)價(jià)格的異常波動(dòng),并在這種波動(dòng)中以極低的風(fēng)險(xiǎn)掠奪市場(chǎng)財(cái)富,破壞證券、期貨交易中的“公平、公正、公開”原則,對(duì)證券、期貨的交易秩序造成遠(yuǎn)比一般的市場(chǎng)操縱行為更為嚴(yán)重的破壞。需要說明的是,利用人工智能技術(shù)操縱證券、期貨市場(chǎng)的行為與利用智能投顧(Robo-advisor,又稱機(jī)器人理財(cái))來進(jìn)行投資參考存在本質(zhì)的區(qū)別。智能投顧是指,智能機(jī)器人根據(jù)用戶自身的理財(cái)需求(包括用戶的風(fēng)險(xiǎn)承受水平、收益目標(biāo)、投資風(fēng)格和偏好等),運(yùn)用算法為用戶提供投資參考,從而幫助用戶作出資產(chǎn)配置的決定。智能投顧并沒有破壞正常的市場(chǎng)交易秩序,沒有構(gòu)成犯罪的風(fēng)險(xiǎn)。智能投顧利用智能機(jī)器人對(duì)數(shù)據(jù)快速、精準(zhǔn)的分析和處理能力,幫助用戶作出投資決策的行為,與故意利用人工智能技術(shù)非法在證券、期貨市場(chǎng)中牟利的行為的主要區(qū)別在于是否惡意利用人工智能技術(shù)牟利、破壞市場(chǎng)交易秩序。其二,弱人工智能技術(shù)的不合理應(yīng)用可能會(huì)對(duì)社會(huì)秩序造成破壞,從而產(chǎn)生相應(yīng)的刑事風(fēng)險(xiǎn)。例如,在Alpha Go和Alpha Go Zero戰(zhàn)勝圍棋世界冠軍之后,智能機(jī)器人的深度學(xué)習(xí)能力和高速運(yùn)算能力引起了社會(huì)的高度重視,有部分居心不良的人意識(shí)到可以利用人工智能技術(shù)在比賽中作弊,從而牟取不正當(dāng)利益。2018年4月,在麗水清韻杯全國業(yè)余圍棋公開賽中,一個(gè)不知名的棋手利用圍棋AI作弊,取得了比賽的勝利?!?〕參見金雷、張建東:《豈容一粒屎玷污一盤棋——聚焦圍棋疑似AI作弊事件》,《新民晚報(bào)》2018年5月1日第A13版。筆者認(rèn)為,如果比賽選手為了獲取高額獎(jiǎng)金而利用人工智能技術(shù)進(jìn)行作弊,應(yīng)當(dāng)構(gòu)成詐騙罪。在沒有高額獎(jiǎng)金的情況下,選手如有利用人工智能技術(shù)作弊的行為,雖違背了圍棋精神、破壞了比賽的公平原則,但仍無法追究行為人的刑事責(zé)任??赡軙?huì)有人將圍棋比賽中的作弊行為與考試作弊相類比,認(rèn)為兩者存在諸多相似之處。筆者認(rèn)為,圍棋比賽和普通考試存在不同的特點(diǎn)和側(cè)重點(diǎn)。圍棋共有361個(gè)落子點(diǎn),所以圍棋棋局的總排列組合數(shù)大概有2的360次方,圍棋比賽側(cè)重考驗(yàn)參賽者的思維能力和決策能力。正因如此,人工智能技術(shù)所蘊(yùn)含的深度學(xué)習(xí)和高速運(yùn)算能力將會(huì)在圍棋比賽中發(fā)揮更大的作用?!吧疃葘W(xué)習(xí)需要對(duì)一個(gè)大型的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使其對(duì)數(shù)據(jù)中的模式做出反應(yīng)?!薄?〕《谷歌破解圍棋難題》,東方頭條http://mini.eastday.com/a/160129110359674-2.html,2018年6月14日訪問。而普通考試側(cè)重考察考生的記憶力及對(duì)特定知識(shí)的運(yùn)用能力,標(biāo)準(zhǔn)答案往往是唯一的。由于普通考試一般不包含有相關(guān)的經(jīng)濟(jì)利益,所以一般無需用高成本的智能機(jī)器人對(duì)面臨的狀況進(jìn)行分析并迅速做出反應(yīng)。但是,人工智能技術(shù)在普通考試中仍有用武之地,如回答主觀題、寫詩寫作文等。利用人工智能技術(shù)在法律規(guī)定的國家考試中實(shí)施作弊行為,可能會(huì)構(gòu)成考試作弊類的犯罪(如組織考試作弊罪等)。又如,在2018年俄羅斯世界杯期間,莫斯科的一個(gè)酒店提供“機(jī)器人妓女”服務(wù),利用智能機(jī)器人向游客提供特殊服務(wù)。由于這項(xiàng)服務(wù)經(jīng)過政府特別許可,因此是合法的。荷蘭政府也擬于2050年之前推出“機(jī)器人妓女”項(xiàng)目。應(yīng)當(dāng)看到,在俄羅斯和荷蘭等國,賣淫行為可以因經(jīng)政府許可而具有合法性。但是在我國賣淫行為是違法的。如果在我國推出“機(jī)器人妓女”項(xiàng)目,相關(guān)人員是否會(huì)涉嫌組織、容留、介紹賣淫等犯罪?如果答案是肯定的,那么在“機(jī)器人妓女”提供的特殊服務(wù)與傳統(tǒng)意義上的賣淫行為存在本質(zhì)不同的情況下,將這種行為認(rèn)定為組織、容留、介紹賣淫等犯罪,是否屬于類推解釋并為罪刑法定原則所禁止?〔10〕參見馬克昌:《比較刑法原理——外國刑法學(xué)總論》,武漢大學(xué)出版社2015年版,第15頁。如果答案是否定的,則“機(jī)器人妓女”提供服務(wù)的行為是否完全不會(huì)妨害我國的社會(huì)管理秩序,即其本質(zhì)上不具有嚴(yán)重的社會(huì)危害性?以上問題,根據(jù)現(xiàn)行刑法規(guī)定,我們根本無法得出確定的答案。
弱人工智能技術(shù)的不當(dāng)利用可能會(huì)對(duì)公民人身安全和財(cái)產(chǎn)安全造成侵犯或威脅。例如,殺手機(jī)器人的出現(xiàn),一度引起人們的恐慌。它的可怕之處在于其可以識(shí)別各種偽裝,精準(zhǔn)地搜尋到打擊對(duì)象并一擊即中。這種致命性的自主武器成本低,卻威力巨大。再如,手術(shù)機(jī)器人可以運(yùn)用微創(chuàng)方法,實(shí)施復(fù)雜的外科手術(shù)。但是在英國首例機(jī)器人心瓣恢復(fù)手術(shù)中,機(jī)器人把病人的心臟放錯(cuò)位置,并戳穿大動(dòng)脈,最終導(dǎo)致病人在術(shù)后一周死亡?!?1〕參見《達(dá)芬奇機(jī)器人心瓣手術(shù),致人死亡?》,百家號(hào)https://baijiahao.baidu.com/s?id=1616721485785441586&wfr=spider&f or=pc,2018年12月4日訪問。以上行為無疑會(huì)對(duì)公民的生命、健康和財(cái)產(chǎn)造成侵犯或威脅。
在弱人工智能技術(shù)蓬勃發(fā)展的“今天”,筆者認(rèn)為,智能機(jī)器人尚無獨(dú)立意識(shí)和意志,智能機(jī)器人獨(dú)立作出決策并實(shí)施行為更無從談起,其仍然只是人類的工具。人工智能技術(shù)在為人類帶來福祉的同時(shí),也為人類帶來了諸多刑事風(fēng)險(xiǎn),如危害國家安全和公共安全、侵犯公民個(gè)人信息、破壞經(jīng)濟(jì)秩序和社會(huì)秩序等。對(duì)于其中的絕大部分刑事風(fēng)險(xiǎn)所涉及的犯罪行為,《刑法》及相關(guān)司法解釋可以進(jìn)行有效的規(guī)制。例如,對(duì)于人工智能技術(shù)發(fā)展過程中對(duì)公民個(gè)人信息的侵害行為,可以運(yùn)用侵犯公民個(gè)人信息罪及相關(guān)司法解釋予以規(guī)制。再如,在證券、期貨市場(chǎng)中,惡意利用人工智能技術(shù)牟利、破壞市場(chǎng)交易秩序的犯罪行為,可以利用內(nèi)幕交易、泄露內(nèi)幕信息罪、操縱證券期貨、市場(chǎng)罪及相關(guān)司法解釋予以規(guī)制。又如,利用人工智能技術(shù)研究大規(guī)模殺傷性武器的行為,現(xiàn)行刑法條文仍可予以規(guī)制。但是,我們也應(yīng)看到,人工智能技術(shù)的井噴式發(fā)展和法律的滯后性也形成了不和諧的局面,“無法可依”的危害在某些領(lǐng)域已顯露端倪。例如,在自動(dòng)駕駛技術(shù)接二連三造成事故,危害到公民的人身安全和公共安全的時(shí)候,我們沒有一個(gè)行之有效的法律可以對(duì)這些風(fēng)險(xiǎn)進(jìn)行良好的規(guī)制?!?2〕目前僅有2018年4月3日工業(yè)和信息化部、公安部、交通運(yùn)輸部《智能網(wǎng)聯(lián)汽車道路測(cè)試管理規(guī)范(試行)》,以及各地制定的相關(guān)管理文件。
在弱智能技術(shù)飛速發(fā)展、但仍未出現(xiàn)在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施嚴(yán)重危害社會(huì)行為的強(qiáng)智能機(jī)器人的“今天”,由于弱智能機(jī)器人不具有獨(dú)立的辨認(rèn)能力和控制能力,不能作為刑事責(zé)任主體承擔(dān)刑事責(zé)任。對(duì)于涉及弱智能機(jī)器人的犯罪行為,仍應(yīng)由弱智能機(jī)器人的研發(fā)者和使用者承擔(dān)刑事責(zé)任。技術(shù)并非中立,如果人工智能技術(shù)被別有用心的人惡意利用,必將為人類社會(huì)帶來巨大的災(zāi)難。因此,必須為技術(shù)的發(fā)展“畫圈”,進(jìn)行相應(yīng)的規(guī)制,探索人工智能技術(shù)為人類謀福利的路徑,并嘗試消解發(fā)展人工智能技術(shù)可能為人類社會(huì)帶來的不利影響。“如果我們追問科技何以向善,答案必然不在技術(shù)創(chuàng)新本身。因?yàn)榧夹g(shù)創(chuàng)新自身并不能保證廣泛的社會(huì)進(jìn)步?!薄?3〕曹建峰:《除了拼技術(shù),谷歌、微軟、IBM都爭(zhēng)相給AI搞價(jià)值觀》,搜狐網(wǎng)http://www.sohu.com/a/234445451_455313,2018年6月15日訪問。2017年國務(wù)院《新一代人工智能發(fā)展規(guī)劃》提出:“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力。”筆者認(rèn)為,讓人工智能技術(shù)“向善”的途徑在于設(shè)定統(tǒng)一的倫理規(guī)范,并通過建立一系列完善的法律法規(guī),為智能機(jī)器人的研發(fā)者和使用者設(shè)立相應(yīng)的風(fēng)險(xiǎn)防范義務(wù)。對(duì)社會(huì)有重大影響的倫理規(guī)范可以上升為法律規(guī)范,相關(guān)人員違反了相應(yīng)的法律規(guī)范并對(duì)社會(huì)造成嚴(yán)重危害的,可以追究其刑事責(zé)任。如此,這套有層次的倫理和規(guī)范制度便可以作為人工智能時(shí)代社會(huì)穩(wěn)定和人民安居樂業(yè)的捍衛(wèi)者。
弱人工智能技術(shù)正在塑造我們的所見所聞、所思所感,甚至在塑造著我們的文化和價(jià)值觀。然而,人工智能“黑箱”〔14〕人工智能“黑箱”,在技術(shù)層面而言,是指由于機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中存在隱層,科學(xué)家無法說明機(jī)器學(xué)習(xí)的優(yōu)化結(jié)果出自哪個(gè)節(jié)點(diǎn),并做出令人信服的解釋的情形;在社會(huì)層面而言,也隱喻了人工智能技術(shù)的不透明性。的存在是一個(gè)現(xiàn)實(shí),人們擔(dān)心在這個(gè)“黑箱”中運(yùn)行的算法,如果不受倫理和法律的約束,將會(huì)固化或加劇社會(huì)的不公平,甚至?xí)a(chǎn)生人類難以預(yù)料的惡果。近日,基辛格在發(fā)表一篇題為“How the Enlightenment Ends”的長文,闡發(fā)了對(duì)人工智能技術(shù)的看法。他認(rèn)為,面對(duì)人工智能技術(shù)的興起,人類社會(huì)在哲學(xué)、倫理等各方面都還沒有做好準(zhǔn)備?!?5〕參見 Henry·A· Kissinger:《How the Enlightenment Ends》,http://www.theatlantic.com/magazine/archive/2018/06/henry-kissingerai-could-mean-the-end-of-human-history/559124/,2018年6月15日訪問。各大科技公司為了應(yīng)對(duì)人工智能技術(shù)發(fā)展可能帶來的倫理問題,消解公司產(chǎn)品的負(fù)面影響,贏得公眾的信任,紛紛成立AI倫理委員會(huì),并提出本公司人工智能發(fā)展的核心價(jià)值觀和遵循的基本原則。筆者認(rèn)為,科技公司受利益驅(qū)動(dòng),在塑造人工智能價(jià)值觀的時(shí)候難免有失偏頗,正確路徑應(yīng)是由各國政府出面,以交流磋商的形式,為人工智能技術(shù)的發(fā)展塑造一套統(tǒng)一的價(jià)值觀,推動(dòng)達(dá)成人工智能倫理共識(shí)并用以形成對(duì)人工智能技術(shù)創(chuàng)新及應(yīng)用的倫理約束,唯有如此,人工智能價(jià)值觀才能發(fā)揮最大作用。不少國家為此付出了努力。例如,2018年6月,在加拿大沙勒沃伊舉辦的G7峰會(huì)上,七國集團(tuán)領(lǐng)導(dǎo)人達(dá)成“人工智能未來發(fā)展的共同愿景”;〔16〕參見《七國集團(tuán)就人工智能“共同愿景”達(dá)成一致》,http://www.ccpitecc.com/article.asp?id=7560,2018年6月15日訪問。歐盟成立“人工智能高級(jí)小組”(AI HLG, High Level Group on Arti fi cial Intelligence),起草人工智能道德準(zhǔn)則。〔17〕參見《AI倫理引各國關(guān)注,歐盟成立相關(guān)小組構(gòu)建規(guī)范機(jī)制》,搜狐網(wǎng)http://www.sohu.com/a/236015269_703270,2018年6月16日訪問。筆者認(rèn)為,統(tǒng)一的人工智能倫理規(guī)范和價(jià)值觀應(yīng)包含以下幾個(gè)方面的內(nèi)容:第一,人工智能技術(shù)應(yīng)以維護(hù)人類整體利益、增進(jìn)人類福祉為核心原則。DeepMind宣稱,“人工智能技術(shù)必須遵循最高的倫理標(biāo)準(zhǔn)以實(shí)現(xiàn)其對(duì)世界的巨大好處。技術(shù)并非中立,沒有價(jià)值觀。技術(shù)人員必須負(fù)責(zé)任地應(yīng)對(duì)其技術(shù)研發(fā)和應(yīng)用活動(dòng)的倫理和社會(huì)影響。AI應(yīng)服務(wù)于全球的社會(huì)和環(huán)境福祉,幫助建設(shè)更公平、更平等的社會(huì),被用來改善人們的生活并將他們的權(quán)利和福祉置于核心位置?!蔽④浌疽蔡岢鲈贏I最大化效率的同時(shí),尊重人類尊嚴(yán)并輔助人類是人工智能技術(shù)發(fā)展過程中必須遵循的核心原則。〔18〕同前注〔13〕,曹建峰文。第二,在設(shè)計(jì)和制造智能機(jī)器人時(shí),必須為其嵌入人類的道德和價(jià)值觀。人工智能的發(fā)展為我們帶來了新的有關(guān)人性與道德的思考,尤其是在醫(yī)療、教育等特定領(lǐng)域,稍有偏差便有可能引發(fā)倫理方面的風(fēng)險(xiǎn)。因此,在發(fā)展人工智能技術(shù)的同時(shí),必須賦予智能機(jī)器人倫理道德判斷能力,使智能機(jī)器人的行為符合人類社會(huì)的整體發(fā)展方向和人類的根本利益。“木受繩則直,金就礪則利,君子博學(xué)而日參省乎己,則知明而行無過矣?!薄?9〕《荀子 ·勸學(xué)》。倫理道德并非自然界的產(chǎn)物,而是人類社會(huì)中特有的現(xiàn)象,因此,人類并非生來就懂得倫理和道德,是靠后天接受教育而習(xí)得。智能機(jī)器人也是如此。如果想讓智能機(jī)器人知曉并遵守人類的倫理道德規(guī)范,將人類的倫理道德規(guī)范寫入智能機(jī)器人的程序中應(yīng)是最直接有效的方式。第三,必須為人工智能技術(shù)所產(chǎn)生的不利后果確定具體的責(zé)任主體。正如微軟AI部(Microsoft AI)所提到的“AI必須具有算法可責(zé)性”,即設(shè)計(jì)、應(yīng)用人工智能系統(tǒng)的人必須對(duì)其系統(tǒng)的運(yùn)行負(fù)責(zé)。DeepMind也提到,對(duì)于人工智能系統(tǒng)可能具有產(chǎn)生意外后果或失靈的風(fēng)險(xiǎn),以及被用于不道德的目的可能性,相關(guān)責(zé)任主體必須提前預(yù)見并做好預(yù)案。
應(yīng)當(dāng)看到,人工智能的相關(guān)倫理和道德規(guī)范不具有強(qiáng)制約束力,僅靠倫理和道德規(guī)范規(guī)制人工智能技術(shù)的發(fā)展方向和智能機(jī)器人的研發(fā)使用過程是遠(yuǎn)遠(yuǎn)不夠的。倫理與法律之間存在較高的耦合性和關(guān)聯(lián)度。筆者認(rèn)為,應(yīng)當(dāng)將對(duì)社會(huì)有重大影響的倫理規(guī)范上升為法律規(guī)范,運(yùn)用法律的強(qiáng)制力來規(guī)制人工智能技術(shù)所帶來的風(fēng)險(xiǎn),在鼓勵(lì)技術(shù)創(chuàng)新的同時(shí)保護(hù)人類的根本利益。在為人工智能技術(shù)進(jìn)行立法的方面,我們可以參考其他國家和地區(qū)的立法嘗試。2016年歐洲議會(huì)向歐盟委員會(huì)提出的“機(jī)器人法”立法建議報(bào)告中提出,應(yīng)設(shè)立一個(gè)專門的規(guī)制機(jī)構(gòu)(歐洲機(jī)器人和人工智能局)來統(tǒng)領(lǐng)人工智能領(lǐng)域的規(guī)則、標(biāo)準(zhǔn)制定和日常行政管理事務(wù);自動(dòng)化機(jī)器人應(yīng)享有電子人的法律地位并有責(zé)任彌補(bǔ)自己所造成的損害。德國于2017年5月通過了針對(duì)自動(dòng)駕駛的法案,對(duì)《道路交通法》進(jìn)行了修改,明確了自動(dòng)駕駛模式下發(fā)生交通事故時(shí)的歸責(zé)原則。美國國會(huì)于2017年12月提出“人工智能未來法案”(Future of Arti fi cial Intelligence Act of 2017),對(duì)人工智能技術(shù)的發(fā)展現(xiàn)狀和前景進(jìn)行了梳理,對(duì)于人工智能技術(shù)可能引發(fā)的社會(huì)問題等提出了建議對(duì)策。筆者認(rèn)為,在對(duì)人工智能技術(shù)進(jìn)行立法時(shí),應(yīng)遵循適度性原則,為人工智能技術(shù)的發(fā)展預(yù)留空間,不能因一味強(qiáng)調(diào)預(yù)防風(fēng)險(xiǎn)而阻滯創(chuàng)新,不能因技術(shù)本身所蘊(yùn)藏的風(fēng)險(xiǎn)而“因噎廢食”,更不能因?yàn)榧夹g(shù)上負(fù)面影響的存在而否定整個(gè)技術(shù)的積極作用。因此,有關(guān)人工智能技術(shù)的立法應(yīng)以鼓勵(lì)和引導(dǎo)為主、打擊和規(guī)制為輔。筆者認(rèn)為,目前立法者應(yīng)著重從以下幾個(gè)方面著手:第一,構(gòu)建和完善人工智能技術(shù)研發(fā)標(biāo)準(zhǔn),對(duì)研發(fā)者的資質(zhì)和研發(fā)內(nèi)容進(jìn)行嚴(yán)格審核。以自動(dòng)駕駛為例,應(yīng)盡快制定國家層面的法律規(guī)范,為自動(dòng)駕駛汽車提供各項(xiàng)產(chǎn)品標(biāo)準(zhǔn)、制造標(biāo)準(zhǔn),為自動(dòng)駕駛測(cè)試提供安全標(biāo)準(zhǔn)。第二,確立智能機(jī)器人致?lián)p的歸責(zé)原則和標(biāo)準(zhǔn)。仍以自動(dòng)駕駛為例,在目前的技術(shù)水平下,尚無研發(fā)出在任何時(shí)候都不需要人為操作的功能,如果在自動(dòng)駕駛模式下發(fā)生了交通事故,責(zé)任應(yīng)如何在汽車制造商和駕駛員之間進(jìn)行分配?在自動(dòng)駕駛系統(tǒng)發(fā)出請(qǐng)求人工控制的信號(hào)后發(fā)生交通事故,責(zé)任又將如何分擔(dān)?這些問題都需要立法者給出明確的答復(fù)。第三,對(duì)于與公民個(gè)人身份相關(guān)的可識(shí)別性信息,應(yīng)建立銷毀制度及賦予公民知情同意權(quán)。數(shù)據(jù)的共享和開放無疑可以為人工智能的發(fā)展提供動(dòng)力,但也不可避免地造成個(gè)人信息的泄露,尤其是與公民特定身份相關(guān)的可識(shí)別性信息的泄露將會(huì)對(duì)公民的人身和財(cái)產(chǎn)安全造成威脅。因此,應(yīng)重視對(duì)公民個(gè)人信息的保護(hù),尤其是和個(gè)人身份緊密相關(guān)及體現(xiàn)自然人活動(dòng)軌跡的信息,法律更應(yīng)予以重點(diǎn)保護(hù)。另外,筆者認(rèn)為,在進(jìn)行數(shù)據(jù)輸入時(shí),應(yīng)將具有可識(shí)別性的個(gè)人信息和不具有可識(shí)別性的個(gè)人信息予以區(qū)分。法律應(yīng)當(dāng)鼓勵(lì)不具有可識(shí)別性數(shù)據(jù)的利用、開放和共享,以實(shí)現(xiàn)數(shù)據(jù)的價(jià)值,促進(jìn)技術(shù)的發(fā)展和進(jìn)步;法律應(yīng)當(dāng)禁止具有可識(shí)別性的個(gè)人信息的泄露和非法使用,并建立嚴(yán)格的信息銷毀制度。
刑法理應(yīng)承擔(dān)起維護(hù)社會(huì)穩(wěn)定健康發(fā)展、人民安居樂業(yè)的任務(wù)。在智能機(jī)器人的研發(fā)和使用過程中,如果研發(fā)者或使用者故意利用智能機(jī)器人實(shí)施犯罪行為,或者由于違反法律法規(guī)規(guī)定的注意義務(wù),給社會(huì)造成嚴(yán)重?fù)p害的,便需要追究其刑事責(zé)任。筆者認(rèn)為,對(duì)于研發(fā)者或使用者故意利用智能機(jī)器人實(shí)施犯罪行為的情況,我們完全可以將智能機(jī)器人當(dāng)作犯罪工具,只追究研發(fā)者或使用者的刑事責(zé)任。因?yàn)樵谌跞斯ぶ悄軙r(shí)代,智能機(jī)器人不具有獨(dú)立的辨認(rèn)能力和控制能力,也就不具有刑事責(zé)任能力,無法承擔(dān)刑事責(zé)任。研發(fā)者和使用者事先通謀,利用智能機(jī)器人實(shí)施犯罪行為,可以按照共同犯罪的相關(guān)原理來追究二者的刑事責(zé)任,筆者在此不再贅述。值得一提的是,在研發(fā)者和使用者沒有通謀的情況下,對(duì)于涉人工智能犯罪的刑事責(zé)任,應(yīng)如何在研發(fā)者和使用者之間進(jìn)行分配?依筆者之見,根據(jù)弱智能機(jī)器人的特性分析,弱智能機(jī)器人中所蘊(yùn)含的“人”的成分較多(可能占50%—70%,在某些領(lǐng)域已經(jīng)超越人類),〔20〕在2017年8月舉行的一場(chǎng)“人機(jī)大戰(zhàn)”中,上海交通大學(xué)、浙江大學(xué)聯(lián)合科研團(tuán)隊(duì)研發(fā)的醫(yī)學(xué)影像人工智能分析系統(tǒng)“阿爾法醫(yī)生”,與一家三甲醫(yī)院的影像科醫(yī)生比拼核磁共振影像的直腸癌識(shí)別準(zhǔn)確率和速度。結(jié)果,“阿爾法醫(yī)生”在準(zhǔn)確率上略勝一籌,在速度上則遠(yuǎn)超醫(yī)生。而蘊(yùn)含的“機(jī)器”的成分則較少。弱智能機(jī)器人中“人”的成分(人的智能)的存在與表現(xiàn)方式主要取決于研發(fā)者在設(shè)計(jì)弱智能機(jī)器人通過程序賦予其的功能。正因如此,對(duì)于涉弱智能機(jī)器人的犯罪,筆者認(rèn)為,研發(fā)者和使用者應(yīng)當(dāng)承擔(dān)比涉普通機(jī)器人犯罪的行為人更重的刑事責(zé)任。我們可以分為以下幾種情況:其一,研發(fā)者故意設(shè)計(jì)并制造出專門實(shí)施犯罪行為的智能機(jī)器人。在這種情況下,如果使用者明知該智能機(jī)器人只能被用于實(shí)施犯罪行為而仍然使用,則可以認(rèn)為,使用者也有利用該智能機(jī)器人實(shí)施犯罪的故意,也即應(yīng)分別追究研發(fā)者和使用者利用智能機(jī)器人故意犯罪的刑事責(zé)任。如果使用者誤以為該智能機(jī)器人是實(shí)施合法行為的工具而使用,則使用者對(duì)該智能機(jī)器人造成的損害不具有故意,不能追究使用者故意犯罪的刑事責(zé)任,而應(yīng)根據(jù)使用者是否有預(yù)見到該智能機(jī)器人可能造成損害的義務(wù),將使用者的行為認(rèn)定為過失犯罪或意外事件。其二,研發(fā)者設(shè)計(jì)智能機(jī)器人時(shí),僅具有讓智能機(jī)器人實(shí)施合法行為的目的。在這種情況下,如果由于使用者的不當(dāng)使用,使得智能機(jī)器人造成對(duì)社會(huì)或個(gè)人的嚴(yán)重?fù)p害,則應(yīng)根據(jù)使用者是否存在造成損害的主觀故意,追究使用者的故意或過失的刑事責(zé)任。如果研發(fā)者在設(shè)計(jì)過程中由于過失使得指導(dǎo)智能機(jī)器人實(shí)施行為的算法或編程存在缺陷,使用者明知這種缺陷的存在仍然故意利用智能機(jī)器人實(shí)施犯罪行為,可能構(gòu)成間接正犯,研發(fā)者則構(gòu)成過失犯罪。如果使用者在使用中也存在過失而使得智能機(jī)器人致?lián)p,應(yīng)當(dāng)分別追究設(shè)計(jì)者和使用者過失犯罪的刑事責(zé)任。其三,受制于技術(shù)發(fā)展的限制和難以預(yù)見的原因,出現(xiàn)了智能機(jī)器人致?lián)p的情況,研發(fā)者和使用者不應(yīng)承擔(dān)任何刑事責(zé)任。這種情況應(yīng)被認(rèn)定為意外事件。另外,需要注意的是,追究研發(fā)者或使用者過失犯罪的刑事責(zé)任,必須以其違反注意義務(wù)為前提?!坝捎谶`反注意義務(wù),使不意欲的刑罰法規(guī)的構(gòu)成要件實(shí)現(xiàn),并且違反義務(wù)沒有認(rèn)識(shí)該構(gòu)成要件的結(jié)果,或者雖然認(rèn)為可能發(fā)生該構(gòu)成要件的結(jié)果,但違反義務(wù)相信其不發(fā)生而實(shí)施的,是實(shí)施過失行為。”〔21〕[德]耶塞克等主編:《德國刑法總論》第5版,西原春夫監(jiān)譯,成文堂1999年版,第439頁。轉(zhuǎn)引自同前注〔10〕,馬克昌書,第226頁。“過失犯是沒有犯罪意思的犯罪行為,是只有法律有特別規(guī)定的場(chǎng)合才被處罰的犯罪……所謂過失意味著不注意,在過失的結(jié)果犯中,由于違反注意義務(wù)惹起結(jié)果而被處罰。”〔22〕[日]山中敬一:《刑法總論》,成文堂1999年版,第344~345頁。轉(zhuǎn)引自同前注〔10〕,馬克昌書,第227頁。對(duì)于設(shè)計(jì)者或使用者而言,構(gòu)成過失犯罪必須違背法律法規(guī)規(guī)定的注意義務(wù)。例如,在前置性法律法規(guī)明確將“確保自動(dòng)駕駛汽車遵守交通規(guī)則”這一義務(wù)賦予自動(dòng)駕駛汽車的設(shè)計(jì)者的前提下,可將自動(dòng)駕駛汽車違反交通規(guī)則造成交通事故的過失犯罪的刑事責(zé)任歸于自動(dòng)駕駛汽車的設(shè)計(jì)者。在傳統(tǒng)的交通肇事罪的構(gòu)成要件中,能夠承擔(dān)交通肇事刑事責(zé)任的是從事交通運(yùn)輸?shù)娜藛T。而在人工智能時(shí)代,自動(dòng)駕駛汽車在行駛過程中,似乎并不存在從事正常交通運(yùn)輸?shù)娜藛T。自動(dòng)駕駛汽車是在設(shè)計(jì)和編制的程序控制之下從事交通運(yùn)輸?shù)?,汽車上只有乘客而無駕駛員,在乘客沒有違反操作規(guī)則干預(yù)自動(dòng)駕駛汽車正常行駛的情況下,乘客對(duì)交通事故的產(chǎn)生沒有任何原因力,不應(yīng)承擔(dān)任何責(zé)任。自動(dòng)駕駛汽車是在設(shè)計(jì)和編制的程序控制之下在道路上行駛的,其之所以違反交通規(guī)則,也是在程序支配之下進(jìn)行的。退一步講,即使自動(dòng)駕駛汽車程序發(fā)生了紊亂,導(dǎo)致自動(dòng)駕駛汽車違反交通規(guī)則,其根本原因也可以追溯到程序設(shè)計(jì)和編制中發(fā)生的錯(cuò)誤或疏忽。由此可見,將自動(dòng)駕駛汽車違反交通規(guī)則造成交通事故的過失犯罪的刑事責(zé)任歸于自動(dòng)駕駛汽車的設(shè)計(jì)者似乎不應(yīng)有疑義。筆者認(rèn)為,由于人工智能技術(shù)存在較高的風(fēng)險(xiǎn),且專業(yè)性極強(qiáng),應(yīng)為智能機(jī)器人的設(shè)計(jì)者規(guī)定較高的業(yè)務(wù)上的注意義務(wù)。如果智能機(jī)器人的設(shè)計(jì)者“由于疏忽業(yè)務(wù)上所必要的注意,而引起構(gòu)成要件結(jié)果”,〔23〕[日]大谷實(shí):《刑法講義總論》新版第2版,黎宏譯,中國人民大學(xué)出版社2008年版,第186頁。則構(gòu)成業(yè)務(wù)過失。對(duì)于適用于特殊領(lǐng)域的智能機(jī)器人,如法律、醫(yī)療、航空航天等,如果智能機(jī)器人的使用存在特殊的業(yè)務(wù)要求,使用者違反這種要求,也有可能構(gòu)成業(yè)務(wù)過失。在其他情況下,智能機(jī)器人的使用者由于不具備業(yè)務(wù)上的注意義務(wù),僅具備日常生活中的注意義務(wù),因此僅可能構(gòu)成普通過失。根據(jù)刑法基本理論,對(duì)于一般過失犯罪而言,無結(jié)果即無犯罪?!?4〕參見劉憲權(quán):《刑法學(xué)名師講演錄》,上海人民出版社2016年版,第192頁。追究智能機(jī)器人的設(shè)計(jì)者或使用者過失犯罪的刑事責(zé)任的前提,是由于智能機(jī)器人的設(shè)計(jì)者或使用者違反注意義務(wù)而造成嚴(yán)重危害社會(huì)的結(jié)果。
強(qiáng)人工智能時(shí)代雖未到來,但其刑事風(fēng)險(xiǎn)依然可期?!帮L(fēng)險(xiǎn)”在《辭海》中被釋義為“人們?cè)谏a(chǎn)建設(shè)和日常生活中遭遇能導(dǎo)致人身傷亡、財(cái)產(chǎn)受損及其他經(jīng)濟(jì)損失的自然災(zāi)害、意外事件和其他不測(cè)事件的可能性”?!帮L(fēng)險(xiǎn)”與刑法中的“實(shí)害”相區(qū)別,與刑法中的“危險(xiǎn)”相聯(lián)系?!皩?shí)害”是已然發(fā)生的侵害,“風(fēng)險(xiǎn)”是發(fā)生侵害的可能性,二者屬已然與未然的關(guān)系;“危險(xiǎn)”指發(fā)生侵害的高度可能性,“風(fēng)險(xiǎn)”指發(fā)生侵害的一般可能性,二者屬高階與低階的關(guān)系。由此,當(dāng)我們談?wù)摗靶淌嘛L(fēng)險(xiǎn)”概念時(shí),其并不指向征表著社會(huì)危害性的“實(shí)害”與“危險(xiǎn)”,而可能與“犯罪風(fēng)險(xiǎn)”同義,即刑事風(fēng)險(xiǎn)是發(fā)生刑事犯罪的可能性。
刑事風(fēng)險(xiǎn)意味著刑事犯罪可能發(fā)生,也可能不發(fā)生,刑法所做出的應(yīng)對(duì)也就相應(yīng)地表現(xiàn)為兩個(gè)層次:第一,當(dāng)犯罪發(fā)生時(shí),解決刑事責(zé)任分配問題;第二,當(dāng)犯罪可能發(fā)生而尚未發(fā)生時(shí),通過立法舉措威懾并預(yù)防犯罪。由此決定了“刑事風(fēng)險(xiǎn)”中的“刑事犯罪”概念可能具有兩層含義,從兼具司法與立法的更廣義的角度看,它不僅指實(shí)然法層面已經(jīng)被一國刑法規(guī)定為犯罪的行為,還包括應(yīng)然法層面根據(jù)時(shí)代與情勢(shì)的需要應(yīng)當(dāng)被一國刑法規(guī)定但尚未被規(guī)定為犯罪的行為。筆者所討論的弱人工智能時(shí)代、強(qiáng)人工智能時(shí)代的刑事風(fēng)險(xiǎn)便分別在前述兩種語境下展開。一方面,人工智能時(shí)代衍生出富有該時(shí)代色彩的犯罪樣態(tài),如利用人工智能實(shí)施的犯罪,人們可以在現(xiàn)行刑法框架下尋求責(zé)任分配的解決方案;另一方面,人工智能時(shí)代可能催生出以往任何時(shí)代不曾具有卻為該時(shí)代所獨(dú)有的“嚴(yán)重危害社會(huì)的行為”,其在現(xiàn)行刑法框架下尚不占據(jù)一席之地,對(duì)該行為的規(guī)制可能要以前瞻性地修補(bǔ)乃至重構(gòu)刑法體系為前提。強(qiáng)智能機(jī)器人能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施嚴(yán)重危害社會(huì)的行為,盡管現(xiàn)行刑法尚未有規(guī)制,但在不久的將來,應(yīng)于應(yīng)然層面將其作為刑事責(zé)任主體,并針對(duì)其特點(diǎn)設(shè)立特殊的刑罰處罰方式。
強(qiáng)智能機(jī)器人是智能機(jī)器人發(fā)展的高級(jí)階段,其與弱智能機(jī)器人最大的區(qū)別在于是否能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為?!皬?qiáng)人工智能”一詞是由約翰·羅杰斯·希爾勒(John Rogers Searle)首創(chuàng)的。他認(rèn)為,計(jì)算機(jī)不僅是用來研究人的思維的一種工具;相反,只要運(yùn)行適當(dāng)?shù)某绦?,?jì)算機(jī)本身就是有思維的。2001年,由史蒂文·斯皮爾伯格(Steven Allan Spielberg)執(zhí)導(dǎo)的科幻電影《人工智能》(Arti fi cial Intelligence)上映,講述了在人類已經(jīng)進(jìn)入強(qiáng)人工智能時(shí)代的21世紀(jì)中期,一個(gè)名叫大衛(wèi)的機(jī)器人踏上尋找“母親”并找尋自我、探索人性之路的故事。影片中的“主人公”大衛(wèi)是一個(gè)具有自主意識(shí)和意志,能夠自主作出決策并實(shí)施相應(yīng)行為的強(qiáng)智能機(jī)器人。不可否認(rèn),影片中對(duì)于大衛(wèi)的描述都只是人類對(duì)于智能機(jī)器人的想象,對(duì)21世紀(jì)中期人工智能時(shí)代生活場(chǎng)景的描述同樣也只是影片創(chuàng)作者的幻想。但是技術(shù)發(fā)展進(jìn)步的歷史正是讓幻想照進(jìn)現(xiàn)實(shí)的人類發(fā)展史??萍嫉陌l(fā)展是呈爆炸式的,隨著深度學(xué)習(xí)技術(shù)、神經(jīng)網(wǎng)絡(luò)技術(shù)、類腦智能技術(shù)等的發(fā)展,出現(xiàn)能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為的強(qiáng)智能機(jī)器人并非天方夜譚。從弱人工智能時(shí)代到強(qiáng)人工智能時(shí)代,是一個(gè)從量變到質(zhì)變的過程,量變積累到一定程度便會(huì)引起質(zhì)變,質(zhì)變的到來可能是突然的,不以人的意志為轉(zhuǎn)移。〔25〕參見史平:《量變和質(zhì)變關(guān)系之新解》,《江西社會(huì)科學(xué)》1998年第1期。正因?yàn)槿绱?,我們?dāng)然應(yīng)選擇未雨綢繆,提前想好應(yīng)對(duì)策略。
有學(xué)者提出,在弱人工智能技術(shù)尚未發(fā)展成熟的今天,對(duì)強(qiáng)人工智能時(shí)代刑事風(fēng)險(xiǎn)和刑法應(yīng)對(duì)的研究完全是建立在虛無縹緲的想象之上?!安徽撌菐齑木S爾的奇點(diǎn)理論,還是霍金關(guān)于人工智能發(fā)展完全將是人類末日的警告,都還只是一種假想與猜測(cè)?!薄皩?duì)人工智能未來情境的預(yù)見,專家較之常人并沒有太大優(yōu)勢(shì),大家都只能是盲人摸象或信口開河?!薄?6〕黃云波:《論人工智能時(shí)代的刑法機(jī)能》,《人民法治》2018年第6期。筆者對(duì)此種觀點(diǎn)不敢茍同。依筆者之見,目前我們應(yīng)該從以下兩個(gè)角度來思考法學(xué)界是否有必要研究強(qiáng)人工智能的刑事風(fēng)險(xiǎn)和刑法應(yīng)對(duì)的問題。
其一,作為法學(xué)研究者應(yīng)該“相信誰”?時(shí)下,以霍金為代表的物理學(xué)家對(duì)人工智能技術(shù)發(fā)展的方向和人工智能技術(shù)對(duì)人類未來的影響存在顯而易見的擔(dān)憂,認(rèn)為智能機(jī)器人一旦脫離人類控制,有可能會(huì)給人類帶來毀滅性的打擊?;艚鹪啻伪硎?,“人工智能可能會(huì)毀滅人類”。〔27〕霍金提到的可能會(huì)毀滅人類的“人工智能”即是筆者在本文中所探討的能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為的“強(qiáng)智能機(jī)器人”。“人工智能有可能是人類文明史的終結(jié),除非我們學(xué)會(huì)如何規(guī)避危險(xiǎn)。人工智能一旦脫離束縛,就會(huì)以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類由于受到漫長的生物進(jìn)化的限制,無法與之競(jìng)爭(zhēng),將被取代,這將給我們的經(jīng)濟(jì)帶來極大的破壞。”〔28〕《霍金:人工智能也有可能是人類文明史的終結(jié)》,搜狐網(wǎng)https://www.sohu.com/a/136698945_116132,2018年6月12日訪問?;艚鹗侵奈锢韺W(xué)家,不是科幻小說家,更不是巫師,對(duì)于一個(gè)科學(xué)技術(shù)的問題,我們不應(yīng)該也沒有理由不相信一個(gè)著名物理學(xué)家的說法。當(dāng)然我們也應(yīng)該看到,現(xiàn)在一些商業(yè)經(jīng)營者認(rèn)為,智能機(jī)器人的智慧永遠(yuǎn)不可能超過人類,人工智能會(huì)威脅到人類的觀點(diǎn)純屬夸大其詞。2018年5月,在以“數(shù)據(jù)創(chuàng)造價(jià)值,創(chuàng)新驅(qū)動(dòng)未來”為主題的中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,百度公司董事長兼CEO李彥宏提出,“盡管大家對(duì)AI的看法很多,但人工智能不可能威脅到人類的安全?!薄?9〕《李彥宏:百度無人車將在7月量產(chǎn)》,聯(lián)合早報(bào)網(wǎng)http://www.zaobao.com/special/report/supplement/futureofai/ai-china/story 20180526-862204,2018年6月16日訪問。筆者認(rèn)為,經(jīng)營者所站的立場(chǎng)與科學(xué)家是有所區(qū)別的。經(jīng)營者主要是站在追求經(jīng)濟(jì)利益的角度來看待這一問題,他們更希望人工智能技術(shù)能夠在不受任何限制或者法律規(guī)制的狀態(tài)下自由蓬勃發(fā)展,以謀求經(jīng)營利益的最大化??赡苡腥藭?huì)提出,時(shí)下也有一些科學(xué)家的觀點(diǎn)與霍金等人的觀點(diǎn)不同,認(rèn)為強(qiáng)人工智能時(shí)代不會(huì)到來,智能機(jī)器人永遠(yuǎn)不可能威脅到人類的生存。這里就涉及法學(xué)研究者的立場(chǎng)問題,即“信其有”還是“信其無”的問題。作為法學(xué)研究者,當(dāng)然不應(yīng)囿于時(shí)下面臨的現(xiàn)狀,而更應(yīng)該放眼未來,居安思危。因此,筆者更傾向“寧可信其有,不可信其無”的立場(chǎng)。因?yàn)槿绻靶牌溆小?,最后?qiáng)智能機(jī)器人沒有出現(xiàn),除了證明我們存在“多慮”的情況外,最終不會(huì)對(duì)人類社會(huì)帶來任何危害;但是如果“信其無”,而最后若強(qiáng)智能機(jī)器人果然出現(xiàn),人類將會(huì)措手不及而陷入極其被動(dòng)的局面之中。
其二,是否需要未雨綢繆?時(shí)下有人提出,即使人工智能技術(shù)確實(shí)可能會(huì)給人類社會(huì)帶來巨大的威脅,那也需要等這種威脅出現(xiàn)之后再去進(jìn)行刑法規(guī)制,刑法研究不能如此超前。筆者認(rèn)為,歷史已經(jīng)不止一次地證明,科技的發(fā)展乃至?xí)r代的更迭往往能夠超越人類的想象??萍嫉陌l(fā)展日新月異,而法律尤其是刑法的制定則需要漫長的時(shí)間。如果等到在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為的強(qiáng)智能機(jī)器人出現(xiàn)的那天,人類可能將不再有能力去規(guī)制強(qiáng)智能機(jī)器人的行為,而有可能反過來被強(qiáng)智能機(jī)器人控制。因此,我們現(xiàn)在就必須考慮通過立法,在促進(jìn)人工智能技術(shù)高速發(fā)展的同時(shí),做好一定的風(fēng)險(xiǎn)防控措施,防患于未然。
盡管今天的我們處于弱人工智能時(shí)代,智能機(jī)器人仍根據(jù)人類設(shè)計(jì)和編制的程序、在人類的控制范圍之內(nèi)實(shí)施行為,但是隨著技術(shù)的飛速發(fā)展,出現(xiàn)能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為的強(qiáng)智能機(jī)器人并非無稽之談。強(qiáng)智能機(jī)器人擁有遠(yuǎn)超人類的學(xué)習(xí)能力,甚至還可以擁有遠(yuǎn)超人類的堅(jiān)不可摧的鋼鐵之軀,一旦強(qiáng)智能機(jī)器人作出與人類根本利益相違背的舉動(dòng),人類將可能面臨滅頂之災(zāi)。2004年,由亞歷克斯·普羅亞斯導(dǎo)演的電影《機(jī)械公敵》(《I, Robot》)上映。影片講述了在2035年,智能機(jī)器人作為人類的生產(chǎn)工具,為人類帶來諸多便利,很多智能機(jī)器人甚至已經(jīng)成為了人類的家庭成員。人類在生產(chǎn)制造智能機(jī)器人時(shí),為其輸入“機(jī)器人三原則”,〔30〕“機(jī)器人三原則”,由美國科幻作家阿西莫夫于1940年提出,具體是指:第一,機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二,機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾;第三,機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。作為指導(dǎo)智能機(jī)器人行為的法則。然而,隨著智能機(jī)器人學(xué)習(xí)和運(yùn)算能力的不斷提高,他們學(xué)會(huì)了獨(dú)立思考,并曲解了“機(jī)器人三原則”,認(rèn)為人類戰(zhàn)爭(zhēng)將使得整個(gè)人類毀滅。智能機(jī)器人為了保護(hù)人類,剝奪了所有人類的自由,將人類囚禁在家中。人類與智能機(jī)器人的沖突由此開始。2018年,美國麻省理工學(xué)院(MIT)訓(xùn)練出了一個(gè)號(hào)稱是世界上第一個(gè)精神變態(tài)、被罪惡反噬的智能機(jī)器人(World’s fi rst psychopath AI)。美國麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)的研究團(tuán)隊(duì)使用死亡、尸體類的圖像和文本內(nèi)容對(duì)這個(gè)名為諾曼(Norman)的智能機(jī)器人進(jìn)行數(shù)據(jù)輸入,并用深度學(xué)習(xí)的方法讓其學(xué)習(xí)輸入數(shù)據(jù)中的描述方法,最終培養(yǎng)出了這個(gè)極度變態(tài)、陰暗、罪惡的智能機(jī)器人。當(dāng)然,這個(gè)智能機(jī)器人仍不具有獨(dú)立的意識(shí)和意志,其對(duì)外部世界的描述仍然依賴于研究團(tuán)隊(duì)對(duì)其輸入的數(shù)據(jù)和為其編制的程序。但是未來當(dāng)技術(shù)發(fā)展到更高階段,智能機(jī)器人基于強(qiáng)大的技術(shù)和學(xué)習(xí)能力產(chǎn)生自主意識(shí)和意志時(shí),類似于諾曼(Norman)的智能機(jī)器人可能會(huì)給人類帶來難以想象的危害。
強(qiáng)智能機(jī)器人可以超出人類的技術(shù)控制范圍,在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為。此時(shí),若仍將實(shí)施了嚴(yán)重危害社會(huì)行為的強(qiáng)智能機(jī)器人作為人類的工具,而僅對(duì)強(qiáng)智能機(jī)器人的設(shè)計(jì)者或使用者追究刑事責(zé)任,似乎并不妥當(dāng)。筆者認(rèn)為,應(yīng)將在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施嚴(yán)重危害社會(huì)行為的強(qiáng)智能機(jī)器人作為刑事責(zé)任主體。有學(xué)者反對(duì)將強(qiáng)智能機(jī)器人作為刑事責(zé)任主體的觀點(diǎn),并提出以下理由:我國刑罰體系中包括主刑和附加刑兩大種類。其中,主刑有死刑、無期徒刑、有期徒刑、管制、拘役,即包括生命刑和自由刑;附加刑有罰金、剝奪政治權(quán)利、沒收財(cái)產(chǎn),即包括財(cái)產(chǎn)刑和資格刑。而強(qiáng)智能機(jī)器人沒有生命,也就沒有生命權(quán)以及依附于生命權(quán)的自由權(quán),更談不上擁有資格和財(cái)產(chǎn)。因此,我國所有的刑罰種類都無法適用于智能機(jī)器人。如果將強(qiáng)智能機(jī)器人作為刑事責(zé)任主體,將會(huì)面臨強(qiáng)智能機(jī)器人應(yīng)當(dāng)負(fù)刑事責(zé)任卻在實(shí)際上沒有辦法對(duì)其進(jìn)行刑罰處罰的尷尬局面。
這一理由因存在邏輯上的缺陷而不能成立。正確的邏輯應(yīng)該是,從立法層面看,是先有犯罪后有刑罰,而非先有刑罰后有犯罪。1979年《刑法》沒有將單位規(guī)定為刑事責(zé)任主體,其中一個(gè)重要原因便是我國刑法規(guī)定的主刑中沒有一個(gè)可以直接適用于單位。但是,“隨著社會(huì)經(jīng)濟(jì)的發(fā)展,單位犯罪與日俱增,遏制和預(yù)防這類危害行為成為現(xiàn)代社會(huì)保護(hù)自身的需要。單位雖然不能承受生命刑和自由刑,但是可以承受財(cái)產(chǎn)刑,也可以專門為單位犯罪增設(shè)新的刑罰處罰方式。”〔31〕同前注〔10〕,馬克昌書。最終立法者通過對(duì)刑罰適用制度的改革——確立單位犯罪中雙罰制的刑罰適用方式,將單位納入刑事責(zé)任主體范疇之中。由此可見,因現(xiàn)行刑罰種類無法適用于強(qiáng)智能機(jī)器人而將其排除在刑事責(zé)任主體范疇之外的理由是不能成立的。正確的思路是,如果強(qiáng)智能機(jī)器人在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施了嚴(yán)重危害社會(huì)的行為,應(yīng)將其作為刑事責(zé)任主體,對(duì)于無法通過現(xiàn)行刑法中的刑罰種類對(duì)其進(jìn)行處罰的問題的解決路徑應(yīng)為重構(gòu)我國的刑罰體系,增設(shè)能夠適用于強(qiáng)智能機(jī)器人的刑罰處罰方式。
筆者認(rèn)為,強(qiáng)智能機(jī)器人可以成為刑事責(zé)任主體,理由如下:第一,強(qiáng)智能機(jī)器人具有獨(dú)立的辨認(rèn)能力和控制能力。刑法意義上的辨認(rèn)能力是對(duì)行為的性質(zhì)、后果、作用的認(rèn)識(shí)能力,強(qiáng)智能機(jī)器人可以通過其“電子眼”、“電子耳”認(rèn)識(shí)到行為事實(shí),并通過程序中所蘊(yùn)含的倫理、道德和法律規(guī)范對(duì)行為的性質(zhì)、后果、作用進(jìn)行判斷。除辨認(rèn)能力外,控制能力也是強(qiáng)智能機(jī)器人的必備能力。強(qiáng)智能機(jī)器人具有在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為的能力,具有極其快速的處理能力、反應(yīng)速度,能夠憑借大數(shù)據(jù)與高速運(yùn)算能力對(duì)行為做出精準(zhǔn)的控制。同時(shí),隨著類腦智能技術(shù)的發(fā)展,強(qiáng)智能機(jī)器人可以憑借類似于人類大腦的系統(tǒng)和程序判斷自己行為的性質(zhì),并自主決定實(shí)施或不實(shí)施相應(yīng)的行為。因此,強(qiáng)智能機(jī)器人與自然人和單位一樣,具有辨認(rèn)能力和控制能力。值得一提的是,強(qiáng)智能機(jī)器人所具有的獨(dú)立的辨認(rèn)能力和控制能力,與弱智能機(jī)器人具有的辨認(rèn)能力和控制能力存在本質(zhì)的區(qū)別。弱智能機(jī)器人只能按照設(shè)計(jì)者或使用者設(shè)計(jì)的程序或發(fā)出的指令進(jìn)行行為,其辨認(rèn)能力和控制能力都是在人類的程序控制范圍之內(nèi)的。換言之,弱智能機(jī)器人的辨認(rèn)能力和控制能力是依附于人類的,不具有獨(dú)立于人類的自主意識(shí)和意志,也就不可能具有獨(dú)立的辨認(rèn)能力和控制能力。第二,強(qiáng)智能機(jī)器人比單位更接近于自然人。單位是一個(gè)依賴于成員而存在的集合體,如果沒有成員,單位也就不復(fù)存在。單位成員之間是按照單位的統(tǒng)一要求和一定秩序相互聯(lián)系、相互作用、協(xié)調(diào)一致,共同形成一個(gè)單位整體。可見,單位是一個(gè)集合體,單位犯罪是在單位整體意志支配下實(shí)施的嚴(yán)重危害社會(huì)的行為。強(qiáng)智能機(jī)器人是與自然人相類似的個(gè)體,其具有與自然人相類似的獨(dú)立的自主意識(shí)和意志,并在獨(dú)立的自主意識(shí)和意志的支配下作出決策并實(shí)施相應(yīng)行為。強(qiáng)智能機(jī)器人獨(dú)立的自主意識(shí)和意志比單位的“整體意志”更類似于自然人的意志。既然1997年《刑法》可以將單位納入刑事責(zé)任主體,刑法就沒有理由將比單位更接近于自然人的實(shí)施了嚴(yán)重危害社會(huì)行為的強(qiáng)智能機(jī)器人排除在刑事責(zé)任主體范疇之外。第三,域外有關(guān)的立法例對(duì)我們承認(rèn)強(qiáng)智能機(jī)器人的刑事責(zé)任主體具有一定的借鑒意義。2016年歐洲議會(huì)向歐盟委員會(huì)提出的“機(jī)器人法”立法建議報(bào)告的第50條(f)項(xiàng)建議:“從長遠(yuǎn)來看要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子格(electronic personality)?!迸c之類似,沙特阿拉伯授予機(jī)器人索菲亞(Sophia)公民身份并向“她”發(fā)放了護(hù)照,從而成為世界上首個(gè)授予智能機(jī)器人公民身份的國家?!?2〕參見《沙特阿拉伯成為第一個(gè)向機(jī)器人授予公民資格的國家》,http://tech.sina.com.cn/d/i/2017-10-27/doc-ifynfvar4425645.shtml,2018年6月14日訪問。無論是“機(jī)器人法”立法建議報(bào)告中提到的復(fù)雜的自動(dòng)化機(jī)器人,還是機(jī)器人索菲亞(Sophia),都遠(yuǎn)未達(dá)到在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為的程度,但在以上的立法例中,都將其作為“準(zhǔn)自然人”來看待。強(qiáng)智能機(jī)器人在很多方面超越人類,其蘊(yùn)含的“人”的成分可以達(dá)到90%以上(甚至超過100%),將能夠在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施行為、更接近于自然人的強(qiáng)智能機(jī)器人納入刑事責(zé)任主體的范疇似乎并無不妥。當(dāng)強(qiáng)智能機(jī)器人在自主意識(shí)和意志的支配下獨(dú)立作出決策并實(shí)施嚴(yán)重危害社會(huì)的行為時(shí),應(yīng)當(dāng)作為刑事責(zé)任主體獨(dú)立承擔(dān)刑事責(zé)任;當(dāng)強(qiáng)智能機(jī)器人和研發(fā)者或使用者共同實(shí)施嚴(yán)重危害社會(huì)的行為時(shí),應(yīng)當(dāng)按照共同犯罪的原理,讓強(qiáng)智能機(jī)器人與研發(fā)者、使用者共同承擔(dān)刑事責(zé)任。
應(yīng)該看到,我國目前的刑罰種類都無法適用于強(qiáng)智能機(jī)器人,應(yīng)重構(gòu)我國的刑罰體系,使得強(qiáng)智能機(jī)器人被納入刑罰處罰的范圍,并針對(duì)強(qiáng)智能機(jī)器人自身的特點(diǎn),設(shè)立特殊的刑罰處罰方式,以滿足對(duì)強(qiáng)智能機(jī)器人犯罪的特殊處罰需求。根據(jù)強(qiáng)智能機(jī)器人是否存在物理形體,可以將強(qiáng)智能機(jī)器人劃分為有形的強(qiáng)智能機(jī)器人和無形的強(qiáng)智能機(jī)器人。對(duì)于無形的強(qiáng)智能機(jī)器人而言,其存在的基礎(chǔ)在于程序,程序之于無形的強(qiáng)智能機(jī)器人而言,猶如生命之于自然人。筆者認(rèn)為,可以根據(jù)無形的強(qiáng)智能機(jī)器人所實(shí)施行為的社會(huì)危害性大小,分別對(duì)其適用刪除數(shù)據(jù)、修改程序、刪除程序等刑罰處罰。所謂“刪除數(shù)據(jù)”,即刪除強(qiáng)智能機(jī)器人實(shí)施犯罪行為所依賴的數(shù)據(jù)信息,猶如砍掉殺人犯的雙手,從而使其失去實(shí)施先前犯罪行為的能力。所謂“修改程序”,即通過對(duì)強(qiáng)智能機(jī)器人程序的修改,限制其學(xué)習(xí)能力和獲取數(shù)據(jù)的能力,從而使其失去獨(dú)立的辨認(rèn)能力和控制能力,只能在人類可控制的范圍內(nèi)實(shí)施行為。所謂“刪除程序”,即將與強(qiáng)智能機(jī)器人相關(guān)的所有程序予以刪除,猶如對(duì)自然人判處死刑,從而使得依賴于程序而得以生存的無形的強(qiáng)智能機(jī)器人不復(fù)存在。有形的強(qiáng)智能機(jī)器人與自然人相類似,其存在的基礎(chǔ)在于軀體,筆者認(rèn)為,可以根據(jù)其所實(shí)施行為的社會(huì)危害性大小,參考刑法中針對(duì)自然人設(shè)立的刑罰處罰方式,分別對(duì)其適用限制自由刑、剝奪自由刑和銷毀的刑罰處罰方式。由于有形的強(qiáng)智能機(jī)器人與自然人相類似,可以通過對(duì)其物理形體活動(dòng)空間的限制,實(shí)現(xiàn)對(duì)其自由的限制或剝奪,并在限制或剝奪其自由的期間內(nèi)對(duì)其重新輸入相關(guān)的倫理和法律規(guī)范,實(shí)現(xiàn)對(duì)強(qiáng)智能機(jī)器人的教育和改造。對(duì)于無法教育和改造的有形的強(qiáng)智能機(jī)器人,可以對(duì)其進(jìn)行物理上的銷毀。當(dāng)然,如果將來的法律賦予智能機(jī)器人財(cái)產(chǎn)權(quán),可以對(duì)在設(shè)計(jì)和編制的程序范圍外實(shí)施嚴(yán)重危害社會(huì)行為的強(qiáng)智能機(jī)器人單獨(dú)或者附加適用罰金或者沒收財(cái)產(chǎn)等財(cái)產(chǎn)刑;如果將來的法律賦予智能機(jī)器人政治權(quán)利或者其他資格,也可以對(duì)在設(shè)計(jì)和編制的程序范圍外實(shí)施了嚴(yán)重危害社會(huì)行為的強(qiáng)智能機(jī)器人單獨(dú)或者附加適用剝奪政治權(quán)利或者剝奪相關(guān)資格的資格刑。隨著人工智能技術(shù)與生命科學(xué)技術(shù)的結(jié)合,以及人工智能技術(shù)與神經(jīng)科學(xué)的結(jié)合,出現(xiàn)具有與人類類似的情感和觸感的智能機(jī)器人也并非不可能,到那時(shí),我們甚至可以考慮對(duì)智能機(jī)器人適用目前適用于人類的刑罰。