房慧穎
(華東政法大學(xué) 刑事法學(xué)院,上海 200042)
與工業(yè)革命塑造的勞動者駕馭無自主能力的機械化工具的生產(chǎn)力結(jié)構(gòu)不同的是,智能革命締造的生產(chǎn)力結(jié)構(gòu)是勞動者利用有自主能力的智能化工具。(1)何立民:《人工智能時代是什么時代?》,《單片機與嵌入式系統(tǒng)應(yīng)用》2020年第4期?!榜{馭”意味著機械化工具作用的發(fā)揮離不開勞動者的直接操控,而“利用”則意味著智能化工具作用的發(fā)揮無需勞動者的直接參與,勞動者僅需啟動智能化工具,并等待著“享受”智能化工具所產(chǎn)生的成果。(2)黃素珍:《人工智能的責(zé)任困境:以自主能動性和道德圖靈測試為探討中心》,《山東社會科學(xué)》2020年第4期。由此,“工具化”的生產(chǎn)工具逐步演變?yōu)椤氨倔w化”的生產(chǎn)工具。這意味著直接實施“危害行為”的主體由人轉(zhuǎn)變?yōu)橹悄芑ぞ?,由此造成行為與人的分離化。(3)于沖:《刑事合規(guī)視野下人工智能的刑法評價進路》,《環(huán)球法律評論》2019年第6期。問題在于,智能化工具實施危害行為的原始發(fā)動力的確是人類提供的,但是整個算法循環(huán)運作過程卻無人類直接參與。確切地說,人類被排除在了算法循環(huán)之外,被動接受算法運行結(jié)果。(4)[英]瑪格麗特·博登:《人工智能哲學(xué)》,劉西瑞等譯,上海譯文出版社2001年版,第11頁。“危險在于沒有人能確保該算法設(shè)計正確,尤其是當(dāng)它與眾多算法交互時?!?5)[美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機器人領(lǐng)域的64個大問題》,任莉等譯,人民郵電出版社2017年版,第169頁。換言之,當(dāng)數(shù)量驚人的算法交互運作,且速度遠超人類想象時,人類社會所面臨的風(fēng)險以及對危害結(jié)果進行歸責(zé)的困難便顯而易見了。
由于人工智能犯罪與普通犯罪相比,存在行為與人分離這一顯著特征,在人工智能犯罪刑事責(zé)任歸屬與認定方面,也就存在區(qū)別于普通犯罪的特質(zhì)。本文所要解決的問題是,其一,人工智能犯罪的刑事責(zé)任歸屬應(yīng)遵循什么樣的標(biāo)準(zhǔn),也即人工智能犯罪的刑事責(zé)任在智能機器人的生產(chǎn)者和使用者之間應(yīng)當(dāng)如何分配?其二,人工智能犯罪刑事責(zé)任的認定應(yīng)遵循什么樣的標(biāo)準(zhǔn),也即刑法應(yīng)如何確定智能機器人的生產(chǎn)者或者使用者構(gòu)成犯罪的尺度或底線?以上問題需結(jié)合智能機器人的本質(zhì)屬性以及人工智能犯罪的實質(zhì),契合刑法理論在人工智能時代的走向,以得出妥善的結(jié)論。
在現(xiàn)階段,智能機器人尚不具有獨立自主的意識和意志,其本質(zhì)屬性仍是人類的工具。人工智能犯罪實質(zhì)上是人類犯罪,刑法規(guī)制人工智能犯罪并非規(guī)制智能機器人所實施的犯罪行為,而是規(guī)制智能機器人背后的人類過錯。
現(xiàn)階段的智能機器人在人類編寫的算法控制之下,為了滿足人類的需求而運作,盡管在運作過程中,智能機器人能夠發(fā)揮相當(dāng)程度的自主性,無需人類的逐步操控。換言之,在程序運作時,人類被排除在了控制智能機器人的算法循環(huán)之外,被動接受算法的運行結(jié)果,但這并不意味著智能機器人取得了自主性,擺脫了作為人類工具的“命運”。事實上,在智能機器人運作過程中,其自主性的發(fā)揮完全在程序編寫者的預(yù)期范圍內(nèi),仍符合作為工具的兩大屬性,即可為人類所支配,不能在自主意識和意志支配下實施影響客觀世界的行為。
一方面,智能機器人可為人類所支配。能夠為人類支配的工具具有千差萬別的表現(xiàn)形式,但其在本質(zhì)上都是對人類身體某一部分機能的替代。從遠古時代人類打造的石器、青銅器、鐵器等工具到近現(xiàn)代人類發(fā)明創(chuàng)造的各種大型機械等工具,都是對人類手、腳等軀體功能的替代。而在智能時代,計算機、智能機器人等實現(xiàn)的主要是對人類大腦功能的替代。盡管智能機器人與其他工具相比,在復(fù)雜程度、精密程度、對人類身體的替代程度上具有天壤之別,但是智能機器人并未超越工具的本質(zhì)屬性,都是在人類的支配下替代人類身體某一部分機能。
另一方面,智能機器人不能在自主意識和意志支配下實施影響客觀世界的行為。智能機器人能夠在人類編寫的程序控制之下自動運作,對客觀世界產(chǎn)生影響,其自動運作的前提是遵循人類編寫的程序。盡管從外觀上看來,智能機器人在一定程度上發(fā)揮了主觀能動性,但究其實質(zhì),程序體現(xiàn)了編寫人的意識和意志,而非智能機器人自身的意識和意志。事實上,智能機器人并無自主意識和意志,其實施的所有影響客觀世界的行為均體現(xiàn)人類的意識和意志。
以自動駕駛汽車為例,盡管自動駕駛汽車能夠自主確定行駛速度、最優(yōu)路線,但是其所實施的上述行為均在人類編寫的程序控制之下,遵循人類輸入的指令。換言之,盡管自動駕駛汽車在外觀上表現(xiàn)出一定的主觀能動性,但是這種主觀能動性的發(fā)揮實質(zhì)上是人類意識和意志的具體化,并非體現(xiàn)自動駕駛汽車自身的意識和意志。自動駕駛汽車的一切行為均受控于人類,即為人類所支配。
從形式上看,人工智能犯罪是智能機器人作出的危害社會行為,但實質(zhì)上人工智能犯罪體現(xiàn)的并非智能機器人的過錯,而是智能機器人背后的人類過錯。人工智能犯罪本質(zhì)上是人類在使用智能機器人過程中故意或者過失地導(dǎo)致嚴重危害社會結(jié)果發(fā)生的行為。
首先,指導(dǎo)和控制智能機器人作出行為的是人類編寫的算法,產(chǎn)生刑事風(fēng)險的算法偏差并非智能系統(tǒng)本身運作過程所存在的技術(shù)性偏差,而是融入了人為影響的由算法導(dǎo)致的“技術(shù)霸凌”。信息技術(shù)、人工智能技術(shù)發(fā)展的三要素是算法、數(shù)據(jù)和算力(6)賽迪顧問股份有限公司:《2018人工智能核心產(chǎn)業(yè)發(fā)展白皮書》,《中國計算機報》2018年11月26日第8版。,算法對智能系統(tǒng)的運作有著決定性影響。算法具有高度的專業(yè)性,未受過專業(yè)訓(xùn)練的人往往無法掌握算法的運作原理,更無法對算法的運作過程施加影響。因此,算法的高度專業(yè)性使得算法的編寫與運行過程被極少數(shù)專業(yè)人士所掌握。(7)周游:《我國亟待建立人工智能算法審查機制》,《中國計算機報》2018年5月14日第12版。算法作為智能技術(shù)的核心體現(xiàn),本身是中立的,不具有個人偏好或者人類的善惡價值。但是,智能技術(shù)本身的中立并不代表智能系統(tǒng)運行之后產(chǎn)生的結(jié)果中立。智能系統(tǒng)運作的過程看上去體現(xiàn)了充分的自主性,并非受到人為控制,但是智能系統(tǒng)運作的原動力——算法,在被編寫與設(shè)計的階段,往往會不可避免地受到算法設(shè)計者倫理道德、價值取向、結(jié)果導(dǎo)讀、指標(biāo)標(biāo)準(zhǔn)的影響。(8)于沖:《刑事合規(guī)視野下人工智能的刑法評價進路》,《環(huán)球法律評論》2019年第6期。“即使算法結(jié)果是由數(shù)據(jù)自動化處理得出,從本質(zhì)上講就是人為編制的運算法則,其中的回報函數(shù)體現(xiàn)著工程師的設(shè)計意圖和價值取向?!?9)于沖:《人工智能的刑法評價路徑:從機器規(guī)制向算法規(guī)制》,《人民法治》2019年第17期。融入了設(shè)計者不良倫理道德、不當(dāng)價值取向的算法,即是存在偏差的算法。某一算法的編寫往往影響不只一個智能系統(tǒng),而可能會同時作用于多個系統(tǒng),又或者,一個智能系統(tǒng)可能會影響一個特定領(lǐng)域,也可能會影響多個領(lǐng)域。算法偏差的影響非個人力量所能比擬,其通常會呈現(xiàn)規(guī)模化、系統(tǒng)化特征,從而對社會發(fā)展不利。
其次,現(xiàn)階段的智能機器人不具有實質(zhì)意義上的法律人格。歐洲議會在2016年針對智能機器人在外觀上能夠自主作出并執(zhí)行決策的情況,在立法建議報告中提出賦予智能機器人“電子人格”,但并沒有如何貫徹智能機器人“電子人格”的建議。賦予智能機器人“電子人格”,意味著承認智能機器人的行為能力與責(zé)任能力,而具有行為能力與責(zé)任能力的智能機器人在給他人造成損害時,應(yīng)承擔(dān)相應(yīng)的賠償責(zé)任。在該立法建議中,對智能機器人造成損害時所承擔(dān)的賠償責(zé)任的具體落實,僅提議智能機器人的生產(chǎn)商為其購買強制性保險。假定智能機器人具有“電子人格”能夠獲得法律的認可,最終承擔(dān)責(zé)任的仍舊是人類,且賦予智能機器人所謂的“電子人格”并未在實質(zhì)上影響人類社會的法律關(guān)系。因此,目前智能機器人還不可能具有實質(zhì)意義上的法律人格。
最后,現(xiàn)階段的智能機器人不具有實質(zhì)意義上的刑事責(zé)任能力。智能機器人的設(shè)計者、生產(chǎn)者作為信息技術(shù)領(lǐng)域和人工智能技術(shù)領(lǐng)域的專業(yè)人士,是智能時代社會風(fēng)險源頭的有力影響者甚至是實際控制者。而現(xiàn)階段的智能機器人不具有自主的意識和意志,無論是人類故意利用智能機器人實施犯罪行為,還是在使用智能機器人過程中因過失導(dǎo)致嚴重危害社會的結(jié)果,智能機器人都只是作為工具而存在,危害后果的發(fā)生并非智能機器人意識和意志作用的結(jié)果。智能機器人作出的所有行為,均未超出人類編寫、設(shè)計的程序范圍。智能機器人的行為目的、行為邊界由人類界定。換言之,智能機器人在完成人類設(shè)定目的的過程中能夠發(fā)揮自主性,但是自主性的發(fā)揮被嚴格限定在人類編寫的程序射程之內(nèi),也即智能機器人的行為均在人類的概括掌控之下。
人工智能犯罪的刑事責(zé)任歸屬應(yīng)遵循什么樣的標(biāo)準(zhǔn),也即人工智能犯罪的刑事責(zé)任在智能機器人的生產(chǎn)者和使用者之間應(yīng)當(dāng)如何分配?如果生產(chǎn)者或者使用者故意利用智能機器人實施犯罪行為,則只需根據(jù)生產(chǎn)者或者使用者的故意內(nèi)容確定其刑事責(zé)任,此時不存在刑事責(zé)任歸屬的難題。當(dāng)生產(chǎn)者或者使用者都不存在犯罪故意,卻在過失的情況下導(dǎo)致了嚴重危害社會的結(jié)果發(fā)生時,應(yīng)如何確定刑事責(zé)任的歸屬?筆者認為,除使用者違反操作規(guī)程使用智能機器人的情況之外,過失犯罪刑事責(zé)任均應(yīng)由生產(chǎn)者承擔(dān)。也即人工智能過失犯罪刑事責(zé)任以歸屬于智能機器人生產(chǎn)者為原則,以歸屬于智能機器人使用者為例外。
首先,智能機器人生產(chǎn)者承擔(dān)的注意義務(wù)遠多于智能機器人使用者,使用者只應(yīng)承擔(dān)按照操作規(guī)程使用智能機器人的注意義務(wù)。理論上認為,對過失犯罪而言,無結(jié)果即無犯罪。追究智能機器人生產(chǎn)者或者使用者過失犯罪刑事責(zé)任的前提是,生產(chǎn)者或者使用者違反注意義務(wù)并因此導(dǎo)致嚴重危害社會的結(jié)果發(fā)生。因此,探討人工智能過失犯罪刑事責(zé)任歸屬問題的關(guān)鍵便是,誰承擔(dān)并違反了注意義務(wù)。與使用普通產(chǎn)品不同,使用智能機器人時,使用者對智能機器人發(fā)揮的影響力極弱,智能機器人按照算法決定的程序作出行為,使用者只是單純利用算法運作所產(chǎn)生的結(jié)果。而生產(chǎn)者是算法的編寫者,能夠從根本上決定智能機器人的行為,能夠?qū)χ悄軝C器人的作用發(fā)揮產(chǎn)生決定性影響。不同主體所承擔(dān)的注意義務(wù)理應(yīng)根據(jù)對智能機器人影響力的大小而調(diào)整。因此,生產(chǎn)者應(yīng)承擔(dān)絕大部分注意義務(wù),而使用者只承擔(dān)極少部分注意義務(wù),也即只要使用者未違反操作規(guī)程使用智能機器人,便應(yīng)當(dāng)認為使用者未違反注意義務(wù)。
其次,人工智能過失犯罪刑事責(zé)任原則上歸屬于智能機器人生產(chǎn)者,符合“支配原則”。“支配原則”是指,“風(fēng)險屬于誰的管轄范圍,誰便需要對風(fēng)險及由此產(chǎn)生的結(jié)果來負責(zé)”(10)勞東燕:《過失犯中預(yù)見可能性理論的反思與重構(gòu)》,《中外法學(xué)》2018年第2期。。算法是智能機器人運作的動力和依據(jù),而算法由智能機器人生產(chǎn)者掌控。當(dāng)算法存在瑕疵時,智能系統(tǒng)將會在運作過程中將這一瑕疵傳遞并放大,進而帶來不良后果。(11)于沖:《刑事合規(guī)視野下人工智能的刑法評價進路》,《環(huán)球法律評論》2019年第6期。如果智能機器人生產(chǎn)者在編寫算法過程中將存在瑕疵的數(shù)據(jù)輸入,可能引發(fā)嚴重的社會危害后果,甚至帶來相應(yīng)的刑事風(fēng)險。(12)李智勇:《終極復(fù)制:人工智能將如何推動社會巨變》,機械工業(yè)出版社2016年版,第90頁。尤其是對于與生命健康或者財產(chǎn)安全息息相關(guān)的領(lǐng)域而言,如自動駕駛、醫(yī)療、工程機械等智能系統(tǒng),一旦原始數(shù)據(jù)存在瑕疵,將會造成難以想象的惡果。而使用者在使用智能機器人過程中,一般無法干預(yù)智能機器人的運作過程。生產(chǎn)者的支配力不僅作用于智能機器人的生產(chǎn)領(lǐng)域,而且可以延伸到智能機器人的使用領(lǐng)域。這與普通產(chǎn)品的生產(chǎn)和使用存在質(zhì)的區(qū)別。以汽車為例,普通汽車在生產(chǎn)領(lǐng)域由生產(chǎn)者支配,而在使用領(lǐng)域則由使用者支配。如果普通汽車發(fā)生交通事故,除汽車本身存在瑕疵,如剎車系統(tǒng)存在故障外,都應(yīng)被認為是在駕駛員支配領(lǐng)域發(fā)生的事故,即應(yīng)由駕駛員而非汽車生產(chǎn)者承擔(dān)責(zé)任。但對于自動駕駛汽車而言,即使是汽車使用領(lǐng)域,也仍屬于汽車生產(chǎn)者的支配范疇。只要自動駕駛汽車的使用者未違反汽車操作規(guī)程,則無論是因汽車本身瑕疵而引發(fā)交通事故,還是因汽車違反交通規(guī)則而引發(fā)交通事故,均屬在汽車生產(chǎn)者支配領(lǐng)域發(fā)生的事故。
再次,人工智能過失犯罪刑事責(zé)任原則上歸屬于智能機器人生產(chǎn)者,契合“合理信賴原則”。“合理信賴原則”是指,智能機器人使用者有理由相信智能機器人生產(chǎn)者會按照法律法規(guī)、人工智能行業(yè)規(guī)范的要求生產(chǎn)出值得信任、不存在產(chǎn)品瑕疵、能夠安全使用的智能機器人,只要使用者遵循智能機器人的操作規(guī)程,智能機器人便會正常發(fā)揮作用,不會引發(fā)事故?;凇昂侠硇刨囋瓌t”,智能機器人的生產(chǎn)者應(yīng)當(dāng)在當(dāng)前技術(shù)發(fā)展程度內(nèi),窮盡智能機器人可能引發(fā)事故的所有瑕疵并及時糾正。智能機器人含有較高科技含量,非專業(yè)人士無法掌握其運作規(guī)則。因此,智能機器人使用者不可能具有預(yù)見并糾正智能機器人瑕疵的能力,只能信賴智能機器人生產(chǎn)者能生產(chǎn)出符合安全標(biāo)準(zhǔn)的無瑕疵智能機器人?!笆袌鼋?jīng)濟通過交換關(guān)系將不同的利益主體聯(lián)系到一起, 這是人類合作秩序的擴展。為保障人類的合作, 為保證社會秩序的公正和公平, 市場經(jīng)濟必然伴隨著道德倫理和法律制度的建設(shè)?!?13)高劍平、曲用心:《論利益內(nèi)在的矛盾運動——基于歷史唯物主義的視野》,《新時代馬克思主義論叢》2021年第1期。而智能機器人生產(chǎn)者應(yīng)遵循法律法規(guī)、人工智能行業(yè)規(guī)范以及產(chǎn)品說明和承諾,預(yù)見智能機器人的瑕疵并及時進行糾正,以防引發(fā)嚴重危害社會的后果。
最后,人工智能過失犯罪刑事責(zé)任原則上歸屬于智能機器人生產(chǎn)者,契合人工智能技術(shù)誕生的最初宗旨。人工智能技術(shù)之所以誕生,主要是科學(xué)家們希望通過探求能夠替代人類大腦的機器,將人類從繁雜勞動中解放出來,為人類探求更高層次的生命價值和人生意義留出更充足的大腦空間。如果法律仍為智能機器人使用者設(shè)定較高的注意義務(wù),則與智能機器人的設(shè)計與生產(chǎn)初衷背道而馳。仍以自動駕駛汽車為例,生產(chǎn)者為汽車設(shè)計自動駕駛程序,初衷就是把駕駛員從駕駛的疲勞與機械動作中解放出來,以便“駕駛員”能夠在汽車行駛過程中同時實施其他行為。正因如此,與普通汽車相比,自動駕駛汽車“駕駛員”在汽車行駛途中理應(yīng)承擔(dān)遠小于普通汽車駕駛員的注意義務(wù)。換言之,自動駕駛汽車“駕駛員”只需遵循汽車操作規(guī)程來啟動汽車以及在汽車發(fā)出警報等必要時刻介入駕駛行為,在其他時間無需干擾自動駕駛汽車的自動運行。在行駛過程中遵守交通法律法規(guī),控制汽車的行進方向、路線、速度等,是自動駕駛汽車程序運行所能自動達成的要求和目標(biāo),無需使用者介入。如果法律賦予自動駕駛汽車使用者除簡單、必要地按照操作規(guī)程所需作出動作之外的義務(wù),如持續(xù)地監(jiān)督自動駕駛汽車的運行狀況,則與自動駕駛汽車的設(shè)計與生產(chǎn)初衷相悖。
對智能機器人所實施行為能夠產(chǎn)生決定性影響的是智能機器人生產(chǎn)者。當(dāng)生產(chǎn)者或者使用者都不存在犯罪故意,卻在過失的情況下導(dǎo)致了嚴重危害社會的結(jié)果發(fā)生時,除使用者存在違反操作規(guī)程使用智能機器人的情況之外,過失犯罪刑事責(zé)任均應(yīng)由生產(chǎn)者承擔(dān)。但是,這并不意味著對智能機器人生產(chǎn)者的刑事歸責(zé)具有隨意性。相反,刑法認定智能機器人生產(chǎn)者構(gòu)成過失犯罪應(yīng)遵循什么樣的標(biāo)準(zhǔn),也即刑法應(yīng)如何確定智能機器人生產(chǎn)者構(gòu)成犯罪的尺度或底線,是一個值得深入探究的課題。
第一,確定智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)時,應(yīng)遵循在安全與發(fā)展中求平衡的原則。(14)房慧穎:《預(yù)防刑法的天然偏差與公共法益還原考察的化解方式》,《政治與法律》2020年第9期。應(yīng)當(dāng)看到,刑法認定智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn),會直接影響人工智能技術(shù)為社會帶來的風(fēng)險及智能機器人生產(chǎn)者技術(shù)創(chuàng)新的熱情。具體而言,如果智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)過低,即智能機器人生產(chǎn)者動輒面臨被追究刑事責(zé)任的風(fēng)險,則其研發(fā)、設(shè)計、生產(chǎn)智能機器人的積極性將大大降低,這將會限制甚至阻礙人工智能技術(shù)的進步與發(fā)展;如果智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)過高,則生產(chǎn)者在研發(fā)、設(shè)計、生產(chǎn)智能機器人時可能會不認真履行保證人義務(wù),從而導(dǎo)致產(chǎn)品安全問題產(chǎn)生,進而導(dǎo)致人工智能技術(shù)風(fēng)險的不當(dāng)升高。“過失犯是開放的構(gòu)成要件,對于過失犯的把握要非常謹慎。”(15)儲陳城:《人工智能時代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》,《東方法學(xué)》2018年第3期。刑法所設(shè)定的智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)既不能過高,也不能過低,而應(yīng)盡量在降低人工智能技術(shù)風(fēng)險與促進人工智能技術(shù)發(fā)展之間達到平衡。
第二,確定智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)時,應(yīng)依循現(xiàn)有科技發(fā)展水平設(shè)定生產(chǎn)者的注意義務(wù)。違反注意義務(wù)是構(gòu)成過失犯罪的前提,法律所設(shè)定的智能機器人生產(chǎn)者注意義務(wù)的多少將直接影響對智能機器人生產(chǎn)者是否構(gòu)成過失犯罪的認定。隨著人工智能技術(shù)的發(fā)展,人類可以通過編寫算法達成越來越多的目的,但是“技術(shù)黑箱”始終存在,算法始終都有不可控制、不可解釋的側(cè)面。(16)沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,《環(huán)球法律評論》2019年第6期。智能機器人生產(chǎn)者對于智能機器人投入使用后的所有風(fēng)險,在當(dāng)前的技術(shù)水平之下,未必能夠全面地預(yù)見和避免。對于當(dāng)前技術(shù)水平下生產(chǎn)者無法預(yù)見的風(fēng)險產(chǎn)生危害結(jié)果的情況,當(dāng)然不能認為生產(chǎn)者違反了相應(yīng)的注意義務(wù)。(17)房慧穎:《預(yù)防性刑法的風(fēng)險及應(yīng)對策略》,《法學(xué)》2021年第9期。筆者在此僅強調(diào)具有結(jié)果預(yù)見可能性是生產(chǎn)者違反注意義務(wù)的前提,而不強調(diào)具有結(jié)果回避可能性是生產(chǎn)者違反注意義務(wù)的前提,原因在于,具有結(jié)果預(yù)見可能性是具有結(jié)果回避可能性的前提和基礎(chǔ)。生產(chǎn)者不具有結(jié)果預(yù)見可能性時,必然也不具備結(jié)果回避可能性。當(dāng)然,假如在生產(chǎn)智能機器人時,生產(chǎn)者對智能機器人所造成的嚴重社會危害結(jié)果具有結(jié)果預(yù)見可能性,基于人工智能風(fēng)險在當(dāng)前技術(shù)水平下存在一定程度的不可控性,生產(chǎn)者應(yīng)完全切斷具有較高風(fēng)險的智能機器人投入使用領(lǐng)域的渠道,以防不可控的具有較高風(fēng)險的智能機器人在投入使用領(lǐng)域后帶來嚴重危害社會的結(jié)果。
第三,確定智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)時,應(yīng)遵循“被允許的危險”原則。人工智能技術(shù)發(fā)展創(chuàng)新所帶來的無法預(yù)測、無法避免的風(fēng)險應(yīng)由全人類共同分擔(dān),而非由智能機器人生產(chǎn)者承擔(dān)。雖然人工智能技術(shù)已歷經(jīng)近70年發(fā)展歷程,但從總體而言,人工智能技術(shù)仍處于初級發(fā)展階段。在人工智能技術(shù)的創(chuàng)新及應(yīng)用過程中,仍存有諸多人類無法預(yù)測、無法避免的風(fēng)險。既然人工智能技術(shù)發(fā)展創(chuàng)新所產(chǎn)生的“紅利”由全人類共同享受,則其所帶來的無法預(yù)測、無法避免的風(fēng)險也理應(yīng)由全人類共同承擔(dān)?!叭绻麤]有證據(jù)證明任何人有注意義務(wù)的違反的話,雖然會出現(xiàn)責(zé)任的空白地帶,但是鑒于刑法的謙抑精神,應(yīng)該將這種空白地帶讓社會全體來承擔(dān)?!?18)儲陳城:《人工智能時代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》,《東方法學(xué)》2018年第3期。這種無法預(yù)測、無法避免的風(fēng)險現(xiàn)實化后所產(chǎn)生的危害結(jié)果,即屬于刑法理論中的“被允許的危險”(19)[日]西田典之:《日本刑法總論》,劉明祥等譯,中國人民大學(xué)出版社2007年版,第104頁。?!氨辉试S的危險”當(dāng)然不能作為智能機器人生產(chǎn)者承擔(dān)刑事責(zé)任的來源和依據(jù)。
第四,確定智能機器人生產(chǎn)者構(gòu)成過失犯罪的標(biāo)準(zhǔn)時,應(yīng)遵循“法律不強人所難”原則?!胺梢笮袨槿说牧x務(wù)是以行為人能夠履行義務(wù)為前提的。所以,預(yù)見義務(wù)是以預(yù)見可能為前提的。如果行為人沒有預(yù)見能力,則不要求其必須履行負有的義務(wù)?!?20)劉憲權(quán):《刑法學(xué)》,上海人民出版社2016年版,第161頁。如果基于當(dāng)前社會生產(chǎn)力的發(fā)展水平與人工智能技術(shù)發(fā)展現(xiàn)狀,智能機器人生產(chǎn)者在設(shè)計、研發(fā)、生產(chǎn)智能機器人過程中,已經(jīng)根據(jù)法律法規(guī)、人工智能行業(yè)規(guī)范、人工智能產(chǎn)品承諾等充分盡到了審慎義務(wù),但仍未能阻止智能機器人引發(fā)嚴重危害社會的結(jié)果,則應(yīng)認為智能機器人生產(chǎn)者對該危害結(jié)果的發(fā)生沒有能力預(yù)見,智能機器人生產(chǎn)者也就沒有義務(wù)阻止該結(jié)果發(fā)生。
行為人違反注意義務(wù)是構(gòu)成過失犯罪的前提。關(guān)于認定行為人違反注意義務(wù)的標(biāo)準(zhǔn),刑法理論上存在諸多學(xué)說。舊過失論認為,注意義務(wù)的核心是結(jié)果預(yù)見義務(wù);新過失論認為,注意義務(wù)的核心是結(jié)果避免義務(wù),而履行該義務(wù)的前提是對危害結(jié)果具有具體預(yù)見可能性;新新過失論也認為,注意義務(wù)的核心是結(jié)果避免義務(wù),但是與新過失論不同的是,新新過失論認為,履行結(jié)果避免義務(wù)的前提僅是對危害結(jié)果具有抽象預(yù)見可能性。(21)馬克昌:《比較刑法原理——外國刑法學(xué)總論》,武漢大學(xué)出版社2015年版,第228-233頁。分析上述學(xué)說可知,舊過失論只關(guān)注結(jié)果預(yù)見義務(wù)而忽視結(jié)果避免義務(wù),有可能導(dǎo)致認定行為人違反注意義務(wù)的標(biāo)準(zhǔn)過低,從而導(dǎo)致過失犯罪成立范圍不當(dāng)擴大,并不足??;而新新過失論提出的對危害結(jié)果僅具有抽象預(yù)見可能性的觀點,導(dǎo)致作為履行結(jié)果避免義務(wù)前提的結(jié)果預(yù)見義務(wù)的內(nèi)容模糊不清,且缺乏可操作性,也不足取。(22)[日]松尾浩也等:《刑法判例百選I總論》,有斐閣1997年版,第108頁。因此,舊過失論和新新過失論因自身所存在的不足,不宜作為認定智能機器人生產(chǎn)者構(gòu)成過失犯罪的參考理論。而在判斷智能機器人生產(chǎn)者是否違背注意義務(wù)時,新過失論頗具可取之處,可以作為重要參考。
在風(fēng)險社會中,諸多風(fēng)險雖可以被預(yù)見卻無法被避免,而新過失論排除了智能機器人生產(chǎn)者預(yù)見危害結(jié)果卻無法避免危害結(jié)果從而構(gòu)成過失犯罪的情況,在一定程度上避免了不當(dāng)擴大認定智能機器人生產(chǎn)者構(gòu)成過失犯罪的范圍。具體而言,智能時代不僅帶來了物質(zhì)文明的加速發(fā)展,也導(dǎo)致人類面臨的風(fēng)險急劇增加。人類為了享受現(xiàn)代文明的便捷、舒適,就不得不容忍一定程度的風(fēng)險。在現(xiàn)代社會,諸多風(fēng)險雖可以被預(yù)見但無法被完全避免。(23)房慧穎:《新型操縱證券市場犯罪的規(guī)制困局與破解之策》,《華東政法大學(xué)學(xué)報》2022年第1期。以汽車等交通工具為例,其在帶來人類出行效率提高的同時,也內(nèi)含著導(dǎo)致被害人死傷的風(fēng)險。人類雖可通過規(guī)范駕駛行為、提高汽車的安全性能等方式降低事故發(fā)生幾率,但卻無法在根本上杜絕汽車所帶來的交通安全風(fēng)險。人工智能領(lǐng)域的情況亦是如此。智能機器人在替代人類大腦、減輕人類負擔(dān)、方便人類生活的同時,也包含著人類可能預(yù)見但卻無法從根本上完全避免的風(fēng)險。新過失論強調(diào)結(jié)果避免義務(wù),而非像舊過失論那樣強調(diào)結(jié)果預(yù)見義務(wù),有利于將智能機器人生產(chǎn)者預(yù)見危害結(jié)果但無法從根本上避免危害結(jié)果的情況排除,避免不當(dāng)擴大認定智能機器人生產(chǎn)者構(gòu)成過失犯罪的范圍。
智能時代的風(fēng)險是與便捷、舒適的現(xiàn)代生活共存的。換言之,人類社會面臨兩種選擇:一是人類在享受現(xiàn)代物質(zhì)文明的同時承擔(dān)技術(shù)發(fā)展所帶來的相應(yīng)風(fēng)險;二是人類為了從根本上杜絕現(xiàn)代文明所帶來的風(fēng)險,從而舍棄現(xiàn)代文明。第一種選擇是理性的,是人類社會發(fā)展的必由之路,而第二種選擇是荒謬的。(24)房慧穎:《預(yù)防性刑法的具象考察與理念進路》,《法學(xué)論壇》2021年第6期。正因如此,人工智能技術(shù)發(fā)展過程中伴隨的抽象危險一直存在,將內(nèi)容模糊不清的抽象危險作為智能機器人生產(chǎn)者預(yù)見義務(wù)的內(nèi)容顯然并不合理。將具體的、可感知的具體危險作為認定智能機器人生產(chǎn)者預(yù)見義務(wù)的內(nèi)容,更有利于限制對生產(chǎn)者注意義務(wù)范圍的認定,也更有利于限縮生產(chǎn)者過失犯罪成立的范圍,從而維持技術(shù)發(fā)展與風(fēng)險防范的平衡。
根據(jù)新過失論,智能機器人生產(chǎn)者違反結(jié)果預(yù)見義務(wù)是認定其違反結(jié)果回避義務(wù)的前提,違反結(jié)果回避義務(wù)是認定其違反注意義務(wù)的核心,而違反注意義務(wù)是認定其構(gòu)成過失犯罪的必要條件。
首先,智能機器人生產(chǎn)者違反結(jié)果預(yù)見義務(wù)是認定其違反結(jié)果回避義務(wù)的前提?!耙钥陀^預(yù)見義務(wù)的面目出現(xiàn)的預(yù)見可能性,只是作為結(jié)果避免義務(wù)的前提而存在,或者確切地說,是作為履行安全標(biāo)準(zhǔn)的必要前提,它本身并不具有獨立的意義。”(25)勞東燕:《過失犯中預(yù)見可能性理論的反思與重構(gòu)》,《中外法學(xué)》2018年第2期。換言之,智能機器人生產(chǎn)者違反結(jié)果回避義務(wù),則其必然違反了結(jié)果預(yù)見義務(wù),反之則不成立。具體而言,智能機器人生產(chǎn)者違反結(jié)果回避義務(wù)的前提是根據(jù)現(xiàn)有科技發(fā)展水平,其有能力預(yù)見到行為所造成的具體危害社會結(jié)果并采取相應(yīng)措施阻止結(jié)果發(fā)生,但因為疏忽大意而沒有預(yù)見或者已經(jīng)預(yù)見而輕信能夠避免,從而導(dǎo)致危害社會結(jié)果發(fā)生。此種情況下,才能認為智能機器人生產(chǎn)者違反了結(jié)果回避義務(wù)。反之,并不能由智能機器人生產(chǎn)者預(yù)見到其行為所造成的具體危害社會后果,推斷出其違反了結(jié)果回避義務(wù)。例如,根據(jù)現(xiàn)有科技發(fā)展水平,智能機器人生產(chǎn)者并無能力阻止危害結(jié)果發(fā)生,此時不能認為智能機器人生產(chǎn)者違反了結(jié)果回避義務(wù),否則便可能不當(dāng)擴大智能機器人生產(chǎn)者構(gòu)成過失犯罪的范圍。
其次,智能機器人生產(chǎn)者違反結(jié)果回避義務(wù)是認定其違反注意義務(wù)的核心。如果智能機器人生產(chǎn)者違反了注意義務(wù),則其必然違反了結(jié)果回避義務(wù),反之則不成立。例如,自動駕駛汽車因生產(chǎn)者編寫的算法瑕疵而超速行駛,與超速駕駛摩托車的某甲相撞并導(dǎo)致某甲死亡。在這個案例中,由于不具有結(jié)果回避的可能性,所以應(yīng)當(dāng)否定生產(chǎn)者的結(jié)果回避義務(wù),則無論其是否違反了結(jié)果預(yù)見義務(wù),都不能認為其違反了注意義務(wù)。但反之,如果智能機器人生產(chǎn)者違反了結(jié)果回避義務(wù),并不必然能夠得出其違反了注意義務(wù)的結(jié)論。根據(jù)《刑法》第16條之規(guī)定,智能機器人生產(chǎn)者雖然違反了結(jié)果回避義務(wù),但是不是出于故意或過失,而是由不具有結(jié)果預(yù)見可能性所引起的,則不能認定行為人違反了注意義務(wù)。
最后,智能機器人生產(chǎn)者違反注意義務(wù)是認定其構(gòu)成過失犯罪的必要條件。如果智能機器人生產(chǎn)者構(gòu)成過失犯罪,則其必然違反了注意義務(wù),反之則不成立?!盀榱顺闪⑦^失,違反法律上認為必要的注意義務(wù)是必要的?!?26)馬克昌:《比較刑法原理——外國刑法學(xué)總論》,武漢大學(xué)出版社2015年版,第234-235頁。如前文所述,智能機器人生產(chǎn)者應(yīng)遵守的注意義務(wù)范圍不僅限于法律法規(guī)的規(guī)定,還應(yīng)包括人工智能行業(yè)規(guī)范和生產(chǎn)者對人工智能產(chǎn)品的承諾。無論智能機器人生產(chǎn)者的行為在客觀上是否造成了嚴重危害社會結(jié)果,只要其遵守了法律法規(guī)規(guī)定、人工智能行業(yè)規(guī)范和對人工智能產(chǎn)品的承諾,就不能認為智能機器人生產(chǎn)者違反了注意義務(wù),更不可能認定其構(gòu)成過失犯罪。(27)房慧穎:《智能風(fēng)險刑事治理的體系省思與范式建構(gòu)》,《山東社會科學(xué)》2021年第2期。但反之,如果智能機器人生產(chǎn)者違反了注意義務(wù),則不必然能夠得出其構(gòu)成過失犯罪的結(jié)論?!氨M管行為人侵害了法益,但仍需考察,其所違反的規(guī)范是否是用于保護該類法益。若否,則規(guī)范的違反并沒有對被害人造成相關(guān)的危險?!?28)[德]埃里克·希爾根多夫:《因果關(guān)系與客觀歸屬——原理與問題》,徐凌波譯,載陳澤憲主編:《刑事法前沿》(第7卷),中國人民公安大學(xué)出版社2013年版,第127頁。刑法的規(guī)范保護目的與其他法律的規(guī)范保護目的不完全一致。智能機器人生產(chǎn)者雖違反了注意義務(wù),但該注意義務(wù)與危害結(jié)果不存在直接關(guān)聯(lián)時,不能認定智能機器人生產(chǎn)者構(gòu)成過失犯罪。此時,危害結(jié)果的發(fā)生無法歸因于智能機器人生產(chǎn)者實施的行為,也就無法將危害結(jié)果歸責(zé)于智能機器人生產(chǎn)者。