• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      哈利維的人工智能犯罪觀及其啟示

      2019-02-19 08:56:36彭文華
      關(guān)鍵詞:利維法人刑法

      彭文華

      2016年,隨著AlphaGo Lee以4:1擊敗圍棋世界冠軍韓國(guó)棋手李世石,人工智能引起人們的廣泛關(guān)注。2017年以來(lái),人工智能及其法律問(wèn)題成為學(xué)界研究的熱點(diǎn),與之相關(guān)的各種學(xué)術(shù)會(huì)議可謂接二連三。人工智能引發(fā)關(guān)注,與其近年來(lái)的飛速發(fā)展密切相關(guān)。2017年10月,谷歌旗下DeepMind公司研發(fā)的AlphaGo Zero能夠在空白狀態(tài)下無(wú)監(jiān)督自主學(xué)習(xí),并在圍棋對(duì)弈中取得輝煌戰(zhàn)績(jī)。①2017年10月19日凌晨,在國(guó)際頂級(jí)學(xué)術(shù)期刊《自然》(Nature)上發(fā)表的一篇研究論文中,谷歌下屬公司Deepmind報(bào)告新版程序AlphaGo Zero橫空出世。AlphaGo Zero從空白狀態(tài)起,在不需要任何人類(lèi)輸入的條件下迅速自學(xué)圍棋。在自學(xué)圍棋72小時(shí)后,AlphaGo Zero就以100:0的成績(jī)擊敗AlphaGo Lee;自學(xué)40天后,AlphaGo Zero以89∶11擊敗AlphaGo Lee的升級(jí)版AlphaGo Master。與AlphaGo Lee和AlphaGo Master不同的是,AlphaGo Zero是無(wú)監(jiān)督學(xué)習(xí)的產(chǎn)物,而前兩者均使用了監(jiān)督學(xué)習(xí)的方法。以前,人工智能在認(rèn)知智能上面臨的最大挑戰(zhàn)之一是從零開(kāi)始,以超人類(lèi)的水平學(xué)習(xí)復(fù)雜概念的算法。AlphaGo Zero則跨越了這個(gè)階段,在人工智能發(fā)展史上具有里程碑式的意義。這表明AlphaGo Zero的神經(jīng)網(wǎng)絡(luò)“大腦”可以進(jìn)行精準(zhǔn)復(fù)雜的處理,可以實(shí)現(xiàn)編程自動(dòng)化,并可能產(chǎn)生與人類(lèi)相似的自主意識(shí)和思維,在人工智能發(fā)展史上具有里程碑式的意義。而智能機(jī)器人索菲亞則能識(shí)別人類(lèi)面部、理解語(yǔ)言,與人類(lèi)的互動(dòng)和眼神交流,還會(huì)開(kāi)玩笑。②2017年10月26日,由美國(guó)漢森機(jī)器人公司設(shè)計(jì)制造的“女性”機(jī)器人索菲亞(Sophia)被授予沙特公民身份,她也因此成為史上首個(gè)獲得公民身份的機(jī)器人。索菲亞擁有橡膠皮膚,其“大腦”采用了相對(duì)高級(jí)的人工智能技術(shù)和谷歌語(yǔ)音識(shí)別技術(shù),因而能識(shí)別人類(lèi)面部、理解語(yǔ)言、記住與人類(lèi)的互動(dòng),和人進(jìn)行眼神交流,甚至還會(huì)開(kāi)玩笑。參見(jiàn)黎史翔、陳薇茜:《首位機(jī)器人公民原型為赫本》,《法制晚報(bào)》2017年11月3日。

      人工智能給人們工作、生活等帶來(lái)巨大便利的同時(shí),也會(huì)造成危害,這自然會(huì)引起人們對(duì)人工智能之法律規(guī)制的關(guān)注。其中,對(duì)人工智能犯罪及其法律規(guī)制的研究將不可避免地成為人們關(guān)注的重點(diǎn),這不僅在于刑法保護(hù)的法益重大,而且在于刑法規(guī)制人工智能會(huì)面臨許多復(fù)雜難題。事實(shí)上,早在1983年,華盛頓州立大學(xué)教授奧古斯特就提出過(guò)機(jī)器人犯罪概念。“刑法目前還不能處理機(jī)器人犯罪,即機(jī)器人獨(dú)立于人類(lèi)指令所犯之罪。犯罪的形式可以想象和人類(lèi)所犯之罪一樣眾多:從亂穿馬路到謀殺?!雹賀aymond S.August,Turning the Computer into aCriminal,10 Barrister 12,53(1983).不過(guò),奧古斯特只是提出過(guò)機(jī)器人犯罪概念,并沒(méi)有對(duì)機(jī)器人等人工智能犯罪展開(kāi)研究。此后,人工智能犯罪也沒(méi)有引起更大的關(guān)注。截至目前,學(xué)界對(duì)人工智能犯罪的研究尚處于起步階段。

      以色列小野學(xué)院法學(xué)院教授哈利維是真正對(duì)人工智能犯罪有過(guò)系統(tǒng)研究的學(xué)者,他的很多觀點(diǎn)都具有開(kāi)拓性與創(chuàng)建性。自2010年以來(lái),哈利維先后在《阿克倫知識(shí)產(chǎn)權(quán)雜志》等刊物上公開(kāi)發(fā)表《人工智能實(shí)體的刑事責(zé)任——從科幻小說(shuō)到法律社會(huì)的控制》等數(shù)篇與人工智能犯罪直接相關(guān)的論文。2013年,哈利維所著《當(dāng)機(jī)器人殺人時(shí):刑法中的人工智能》在美國(guó)東北大學(xué)出版社出版,該書(shū)對(duì)人工智能犯罪進(jìn)行了全面、深入的研究。通過(guò)這些研究成果,哈利維對(duì)人工智能的犯罪主體資格、刑事責(zé)任、刑事責(zé)任模式、嚴(yán)格責(zé)任、刑罰目的與刑罰方式等諸多問(wèn)題,進(jìn)行了具體、詳細(xì)的探討。由于所涉及的內(nèi)容較多,本文不作一一介紹,僅就哈利維有關(guān)人工智能的犯罪主體資格、刑事責(zé)任模式以及刑罰目的和刑罰方式等核心問(wèn)題加以具體論述,期待借此能在人工智能犯罪問(wèn)題研究上拋磚引玉。

      一、人工智能的犯罪主體資格

      啟蒙運(yùn)動(dòng)以后,在刑法的規(guī)制對(duì)象上,逐漸形成了刑法人類(lèi)中心主義的犯罪觀,這意味著只有人類(lèi)才能構(gòu)成犯罪,動(dòng)物以及其他實(shí)體被排除在刑法制裁之外。例如,費(fèi)爾巴哈就認(rèn)為,“只有個(gè)人才能成為犯罪的可能主體”②[德]安塞爾姆·里特爾·馮·費(fèi)爾巴哈:《德國(guó)刑法教科書(shū)》,徐久生譯,中國(guó)方正出版社2010年版,第37頁(yè)。。后來(lái),盡管作為社會(huì)有機(jī)體的法人獲得犯罪主體資格,但由于法人的行為和意志是依托于人類(lèi)的,因而法人犯罪仍然被認(rèn)為是人類(lèi)實(shí)施的犯罪。

      人工智能則不然,作為科技有機(jī)體,它在形式物體特征上與機(jī)器等機(jī)械實(shí)體并無(wú)本質(zhì)區(qū)別。因此,人工智能往往被看作是人類(lèi)的工具,是人類(lèi)信息系統(tǒng)的延伸?!半娔X是最新的和最外層的一套符號(hào)表征系統(tǒng)?!瓕?duì)待人與機(jī)器之間關(guān)系的更有效的方法是把機(jī)器看作是人類(lèi)信息系統(tǒng)的延伸,而不是把計(jì)算機(jī)和人類(lèi)視為兩種不同的智能系統(tǒng)來(lái)相互交流。”③J.C.Smith,Machine Intelligence and Legal Reasoning,73 Chi.-Kent L.Rev.277,345(1998).據(jù)此,排除人工智能的犯罪主體資格就順理成章了。這樣,因人工智能造成損害或危險(xiǎn)而構(gòu)成犯罪的,只能由其他相關(guān)的自然人主體承擔(dān)刑事責(zé)任。當(dāng)然,刑事責(zé)任最終需要根據(jù)具體責(zé)任人的歸責(zé)可能性來(lái)確定?!凹僭O(shè)機(jī)器人的制造商和程序員被要求制造它們時(shí)遵循一定的規(guī)則,那么機(jī)器人被卷入的最有可能的情況,是因不正確的制造或者編程而起訴制造商或程序員,或起訴輔助犯罪的機(jī)器人的所有人或經(jīng)營(yíng)者?!雹躍ee note①,54(1983).

      哈利維則認(rèn)為,犯罪主體不應(yīng)局限于人類(lèi),人工智能也可以成為犯罪主體。“只要滿(mǎn)足刑法的所有相關(guān)要求,除人類(lèi)個(gè)體和法人外,一種新型主體就可以加入到刑法中現(xiàn)有主體的大家庭中?!雹貵abriel Hallevy,When robots kill:artificial intelligence under criminal law21(Northeastern University Press 2013).在哈利維看來(lái),人工智能是現(xiàn)代科技的產(chǎn)物,他會(huì)給人類(lèi)帶來(lái)巨大的收益,同時(shí)也會(huì)產(chǎn)生“副產(chǎn)品”——犯罪?!皺C(jī)器人罪犯是人類(lèi)創(chuàng)造機(jī)器人的不可避免的副產(chǎn)品。對(duì)機(jī)器人無(wú)止境的技術(shù)追求導(dǎo)致人工智能技術(shù)的高度發(fā)展,使得模仿人類(lèi)思想及相關(guān)技能較之以前做得更好成為可能。”②Gabriel Hallevy,When robots kill:artificial intelligence under criminal law19(Northeastern University Press 2013).刑法雖非完美,卻是最有效的社會(huì)手段,因而有必要利用刑法來(lái)應(yīng)對(duì)人工智能。“刑法被認(rèn)為是指導(dǎo)任何一個(gè)社會(huì)個(gè)體行為的最有效的社會(huì)手段。它遠(yuǎn)非完美,但在現(xiàn)代環(huán)境下,這是最有效的措施。因?yàn)樗鼘?duì)于人類(lèi)個(gè)體來(lái)說(shuō)是有效的,那么有必要檢查它是否對(duì)非人類(lèi)實(shí)體,尤其是人工智能實(shí)體有效。”③Ibid.

      在哈利維看來(lái),現(xiàn)代科技的飛速發(fā)展,賦予了人工智能擁有類(lèi)似于人類(lèi)那樣的心理,而人類(lèi)正是因其獨(dú)特的心理成為刑法規(guī)制的對(duì)象,故人工智能也可以成為刑法規(guī)制的對(duì)象。“如果技術(shù)能極大地促進(jìn)機(jī)器智人的創(chuàng)造,這將使現(xiàn)行刑法與人工智能技術(shù)密切相關(guān),因?yàn)檫@種技術(shù)模仿人類(lèi)的心理,而人類(lèi)的心理已經(jīng)受制于現(xiàn)行刑法。因此,人工智能技術(shù)方法對(duì)人的心理的完全模仿越接近,現(xiàn)行刑法與之就越相關(guān)。”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law21-22(Northeastern University Press 2013).人工智能受刑法規(guī)制,至少有以下兩個(gè)方面的積極意義:一是有利于消除人類(lèi)對(duì)機(jī)器的恐懼?!皩⑷斯ぶ悄軝C(jī)器人置于刑法中可能會(huì)減輕我們對(duì)人類(lèi)與機(jī)器人共存的恐懼。刑法對(duì)人們的自信心有著重要的作用,每個(gè)人都知道社會(huì)上所有其他人都必須遵守法律,尤其是刑法?!魏蝹€(gè)人或團(tuán)體不受刑法約束,其他人的個(gè)人信心受到嚴(yán)重?fù)p害,因?yàn)椴环男谭ǖ娜藳](méi)有動(dòng)機(jī)服從法律?!雹軬abriel Hallevy,When robots kill:artificial intelligence under criminal law22(Northeastern University Press 2013).二是有利于維護(hù)其他實(shí)體以及社會(huì)的信心。“如果其中任一實(shí)體不受刑法拘束,其他實(shí)體的信心就會(huì)受到損害,更廣泛地說(shuō),整個(gè)社會(huì)的信任感會(huì)受到損害。因此,社會(huì)必須做出一切努力,使所有能動(dòng)實(shí)體服從刑法?!雹轎bid.

      不過(guò),要想成為犯罪主體,首先面臨的是智能代理能否成為道德代理的問(wèn)題。根據(jù)傳統(tǒng)刑法理論中的道義責(zé)任論,人類(lèi)之所以成為犯罪主體,是由其自由意志決定的。而人的自由意志是與人特有的道德情感密切相關(guān)的,因而道德在決定犯罪主體的去留上具有重要作用。哈利維指出,“刑法以及作為刑法的執(zhí)行者的國(guó)家,也必須接受道德的批判。國(guó)家倫理性的問(wèn)題,在考慮責(zé)任論以及刑罰界限的時(shí)候,具有特別重要的意義”⑦[日]曾根威彥:《刑法學(xué)基礎(chǔ)》,黎宏譯,法律出版社2005年版,第32頁(yè)。。由于人工智能不是人,因而不具有人類(lèi)的意識(shí)和道德情感,因而難以像人那樣成為犯罪主體?!爸悄艽砣狈ψ鳛槿说闹陵P(guān)重要的因素:盡管它能夠?qū)W習(xí)并且做出其他人無(wú)法預(yù)知的決策,但它對(duì)于它自身的自由并無(wú)意識(shí),更遑論將自己視為社會(huì)權(quán)利義務(wù)的承擔(dān)者?!雹郲瑞士]薩比娜·格雷斯、[德]托馬斯·魏根特:《智能代理與刑法》,載陳澤憲主編:《刑事法前沿》(第10卷),社會(huì)科學(xué)文獻(xiàn)出版社2017年版,第222頁(yè)。

      但是,對(duì)所謂的道德代理,哈利維有不同看法。哈利維認(rèn)為,“道德責(zé)任確實(shí)是一個(gè)非常復(fù)雜的問(wèn)題,不僅對(duì)機(jī)器,而且對(duì)人類(lèi)也是如此。一般來(lái)說(shuō),道德沒(méi)有一個(gè)共同的、所有社會(huì)均可接受的定義”⑨Gabriel Hallevy,When robots kill:artificial intelligence under criminal law18(Northeastern University Press 2013).。由于不同的社會(huì)主體具有不同的道德,這使得道德極為復(fù)雜甚至難以評(píng)價(jià),因而所謂的道德歸責(zé)并非最恰當(dāng)?shù)姆椒??!凹{粹認(rèn)為自己具有道義上的道德,雖然大多數(shù)社群和個(gè)人不同意。如果道德如此難以評(píng)估,那么在我們剛剛審查過(guò)的案件中,道德歸則可能不是最恰當(dāng)、最有效的評(píng)估責(zé)任的方法?!雹貵abriel Hallevy,When robots kill:artificial intelligence under criminal law18(Northeastern University Press 2013).據(jù)此,哈利維并不贊成所謂的道德歸責(zé)?!坝捎谛谭ú⒉灰蕾?lài)于道德歸責(zé),因而有關(guān)機(jī)器的道德責(zé)任的爭(zhēng)論與現(xiàn)在的問(wèn)題無(wú)關(guān),雖然有時(shí)在刑事責(zé)任、某些類(lèi)型的道德責(zé)任與某些類(lèi)型的道德規(guī)范之間存在重疊,但這樣的巧合對(duì)于承擔(dān)刑事責(zé)任是沒(méi)有必要的?!雹贕abriel Hallevy,When robots kill:artificial intelligence under criminal law19(Northeastern University Press 2013).同時(shí),哈利維認(rèn)為智能代理也可以成為道德代理。在他看來(lái),道德有道義論道德與目的論道德之別?!暗懒x論的道德(集中在意志和行為)和目的論的道德(集中在結(jié)果)是最可接受的類(lèi)型,在許多情況下它們發(fā)揮著相反的作用。”③See note①.人工智能雖然不具備人類(lèi)那樣的意志和行為,不能進(jìn)行道義上的歸責(zé)。但是,人工智能完全能夠給社會(huì)或個(gè)人造成損害和危險(xiǎn),因而從目的論道德上來(lái)看與人類(lèi)并無(wú)本質(zhì)不同。因此,立足于目的論道德,智能代理是可以成為道德代理的。

      哈利維還以動(dòng)物及人工智能與人類(lèi)的關(guān)系為例,對(duì)人工智能可以而動(dòng)物不能成為犯罪主體加以進(jìn)一步論證。對(duì)于動(dòng)物為什么不能成為犯罪主體,哈利維通過(guò)對(duì)古代和現(xiàn)代有關(guān)動(dòng)物的法律進(jìn)行考察,從兩個(gè)方面進(jìn)行了闡述:一是動(dòng)物作為人類(lèi)財(cái)產(chǎn)的法律關(guān)系;二是對(duì)動(dòng)物寬恕的義務(wù)。關(guān)于第一個(gè)方面,哈利維認(rèn)為“涉及人類(lèi)對(duì)動(dòng)物的所有權(quán)、占有權(quán)和其他財(cái)產(chǎn)權(quán)利。例如,如果損害是由動(dòng)物造成的,對(duì)該動(dòng)物擁有財(cái)產(chǎn)權(quán)的人對(duì)該損害負(fù)有法律責(zé)任。如果一個(gè)人受到狗的攻擊,它的主人對(duì)任何傷害負(fù)有法律責(zé)任”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law22-23(Northeastern University Press 2013).。哈利維指出,當(dāng)動(dòng)物造成侵害時(shí),主要涉及的是侵權(quán)法的問(wèn)題,即使與刑法有關(guān),也只能歸責(zé)于人,任何法律不可能將責(zé)任歸于動(dòng)物。“在大多數(shù)國(guó)家,這些都是侵權(quán)法的問(wèn)題,雖然在一些國(guó)家,它們也與刑法有關(guān),但在任何情況下,法律責(zé)任都是人的責(zé)任,而不是動(dòng)物的責(zé)任。……任何法律制度都不會(huì)考慮動(dòng)物直接受制于法律,特別是不受制于刑法,不管動(dòng)物智力如何?!雹軬abriel Hallevy,When robots kill:artificial intelligence under criminal law23(Northeastern University Press 2013).

      關(guān)于第二個(gè)方面,哈利維認(rèn)為主要是針對(duì)人類(lèi)而言的。由于人類(lèi)的智慧較之動(dòng)物要優(yōu)越,因而面對(duì)人類(lèi)的侵害動(dòng)物往往孤立無(wú)助?;谕?、憐憫等情感,應(yīng)禁止人類(lèi)肆意對(duì)動(dòng)物施虐。當(dāng)動(dòng)物受侵害時(shí),實(shí)際受害的是社會(huì)而不是動(dòng)物?!叭祟?lèi)因智慧而被認(rèn)為比動(dòng)物優(yōu)越,動(dòng)物被認(rèn)為是無(wú)助的。因此,法律禁止人類(lèi)濫用權(quán)力虐待動(dòng)物。這些法律條文的主體是人,不是動(dòng)物,被人類(lèi)虐待的動(dòng)物即使遭受損害也不會(huì)站在法庭上。在這些情況下,合法的‘受害者’是社會(huì)而不是動(dòng)物,因此在大多數(shù)情況下,這些法律條款是刑法的一部分?!雹轘ee note②.既然針對(duì)動(dòng)物的侵害是因?yàn)樯鐣?huì)受到損害,這種對(duì)動(dòng)物的保護(hù)方式顯然與財(cái)產(chǎn)的保護(hù)方式有很大不同?!按蠖鄶?shù)刑法禁止破壞他人的財(cái)產(chǎn),以保護(hù)占有人或所有者的財(cái)產(chǎn)權(quán)利。但在虐待動(dòng)物的情況下,這種保護(hù)與產(chǎn)權(quán)無(wú)關(guān)。一只狗的合法主人可能因虐待狗而被起訴,而不管狗身上的財(cái)產(chǎn)權(quán)。這些法律規(guī)定自古以來(lái)就存在,形成了動(dòng)物的法律模式?!雹逽ee note②.

      問(wèn)題在于,為什么動(dòng)物的法律模式不能適用于人工智能實(shí)體呢?這就需要證明人工智能有別于動(dòng)物,并且較之動(dòng)物更接近于人類(lèi)。否則,人工智能與動(dòng)物就沒(méi)有實(shí)質(zhì)差異,適用動(dòng)物法律模式完全可以解決人工智能犯罪問(wèn)題。哈利維認(rèn)為,人工智能更接近于人類(lèi),主要理由有二:一是人工智能具有類(lèi)似于人類(lèi)的邏輯推理能力,動(dòng)物則不具備,因而人工智能更接近于人類(lèi)?!叭祟?lèi)編程使人工智能實(shí)體遵循有條理的人類(lèi)邏輯推理。這形成了人工智能實(shí)體賴(lài)以行動(dòng)的核心推理,因而其計(jì)算是由有條理的人類(lèi)邏輯推理來(lái)負(fù)責(zé)的。大多數(shù)情況下,大多數(shù)動(dòng)物缺乏這種推理。不是動(dòng)物不合理,而是它們的合理性不一定建立在有條理的人類(lèi)邏輯基礎(chǔ)上。”①See Gabriel Hallevy,When robots kill:artificial intelligence under criminal law24(Northeastern University Press 2013).二是人工智能在理性上更接近于人類(lèi),動(dòng)物在情感上更接近于人類(lèi),法律適用更需要理性而不是情感?!叭绻愿星樽鳛楹饬?,較之人類(lèi)和機(jī)器,人類(lèi)和動(dòng)物更接近彼此。但是,如果以純粹理性作為衡量,較之動(dòng)物機(jī)器更接近人類(lèi)。雖然情感和理性互相影響,但它們?cè)诜缮系膮^(qū)別在于它們的適用性。”②Ibid.對(duì)于法律尤其是刑法來(lái)說(shuō),所考慮的主要因素是理性,情感很少被考慮?!拌b于評(píng)價(jià)法律責(zé)任時(shí)法律更傾向于理性而非情感,因?yàn)槿斯ぶ悄芗夹g(shù)的合理性是建立在有條理的人類(lèi)邏輯推理基礎(chǔ)上,因而從法律的角度來(lái)看,人工智能技術(shù)較之動(dòng)物更接近于人類(lèi)物,對(duì)于所有的法律方面亦如此。”③Gabriel Hallevy,When robots kill:artificial intelligence under criminal law25(Northeastern University Press 2013).因此,動(dòng)物法律模式不適于評(píng)價(jià)人工智能實(shí)體的法律責(zé)任。不過(guò),由于人工智能沒(méi)有情感,因而不存在人類(lèi)對(duì)人工智能的寬恕,這也是對(duì)人工智能為什么不能適用動(dòng)物法律模式的原因之一?!坝捎谌狈η楦械幕咎刭|(zhì),人工智能實(shí)體不能以任何情感形式表達(dá)悲痛、遭受痛苦、失望或折磨,動(dòng)物法律模式的這些因素對(duì)于人工智能實(shí)體沒(méi)有意義?!雹蹽abriel Hallevy,When robots kill:artificial intelligence under criminal law24-25(Northeastern University Press 2013).

      哈利維還以法人犯罪主體為例,來(lái)論證人工智能為什么能夠成為犯罪主體。眾所周知,英美法系國(guó)家早就接受了法人刑事責(zé)任的理念,而20世紀(jì)之后許多國(guó)家都將法人置于刑法的規(guī)制之下。那么,法人犯罪模式是如何產(chǎn)生的呢?哈利維指出,與人類(lèi)相比,法人既沒(méi)有物理意義上的身體存在,也沒(méi)有思維等精神要素?!靶淌仑?zé)任需要事實(shí)要素,而法人沒(méi)有物理身體。刑事責(zé)任也需要心理要素,而法人則沒(méi)有思維、頭腦、精神或靈魂。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law35(Northeastern University Press 2013).但是,將法人排除在犯罪主體之外并不合適,因?yàn)檫@樣會(huì)為犯罪提供庇護(hù)。“一些歐洲國(guó)家拒絕對(duì)非人類(lèi)生物施加刑事責(zé)任,并恢復(fù)羅馬規(guī)則,法人不承擔(dān)刑事責(zé)任(合伙社團(tuán)非熱點(diǎn))。但這種做法很有問(wèn)題,因?yàn)樗鼮樽锓柑峁┝朔杀幼o(hù)。例如,一個(gè)不納稅的人有刑事責(zé)任,但當(dāng)其是法人時(shí)卻是免責(zé)的。這為個(gè)人通過(guò)公司運(yùn)作及逃稅提供了動(dòng)力?!雹轎bid.哈利維指出,法人犯罪的“新模式是建立在認(rèn)同理論基礎(chǔ)上的。在某些情況下,法人的刑事責(zé)任來(lái)源于其機(jī)關(guān),而在其他案件中,其刑事責(zé)任是獨(dú)立的。當(dāng)犯罪要求不作為(例如不納稅、不履行法律要求或不維護(hù)工人權(quán)益)的時(shí)候,作為義務(wù)就是法人的,法人獨(dú)立承擔(dān)刑事責(zé)任,與其他實(shí)體的刑事責(zé)任以及是否是人無(wú)關(guān)。當(dāng)犯罪需要作為時(shí),其機(jī)關(guān)作為就與法人有關(guān),只要其代表實(shí)施了犯罪,無(wú)論有無(wú)許可”⑦Gabriel Hallevy,When robots kill:artificial intelligence under criminal law36(Northeastern University Press 2013).。因此,法人犯罪與其他主體犯罪是有嚴(yán)格界限的,應(yīng)該分開(kāi)處置?!叭绻ㄈ朔戏缸锏乃幸螅蜁?huì)被起訴,與事實(shí)上針對(duì)一般主體的人的任何訴訟無(wú)關(guān)。如果被定罪,該法人將受到懲罰,與任何個(gè)人實(shí)體分開(kāi)。”⑧Ibid.

      自17世紀(jì)以來(lái),非人類(lèi)的法人最終成為犯罪主體,是順應(yīng)時(shí)代發(fā)展自然而然形成的,這說(shuō)明刑事責(zé)任并非只能適用于人類(lèi)。如果說(shuō)刑法人類(lèi)中心主義犯罪觀因法人成為犯罪主體而被突破,那么人工智能成為犯罪主體為什么不可以突破呢?“鑒于第一道障礙在17世紀(jì)被突破,在針對(duì)人工智能實(shí)體施加刑事責(zé)任之前,通往下一道障礙的道路會(huì)繼續(xù)敞開(kāi)?!雹貵abriel Hallevy,When robots kill:artificial intelligence under criminal law36-37(Northeastern University Press 2013).當(dāng)然,哈利維也清醒地認(rèn)識(shí)到,“當(dāng)人工智能實(shí)體通過(guò)軟件能夠計(jì)算需要如何行動(dòng)時(shí),法律責(zé)任難題中的一些問(wèn)題仍然會(huì)令人困惑”。②Gabriel Hallevy,When robots kill:artificial intelligence under criminal law24(Northeastern University Press 2013).對(duì)此,哈利維認(rèn)為,一方面,由于具備人類(lèi)那樣的邏輯推理,因而“人工智能實(shí)體比動(dòng)物更容易溝通復(fù)雜思想”③See note②.,這在一定程度上可以弱化人工智能成為犯罪主體所存在的問(wèn)題。另一方面,就算存在問(wèn)題,但承擔(dān)刑事責(zé)任并非需要完全具備人類(lèi)那樣的能力。“刑事責(zé)任并不一定要求具備所有的人類(lèi)技能。要成為一個(gè)罪犯,不需要使用所有的人類(lèi)技能,不管他是否擁有這樣的技能?!雹蹽abriel Hallevy,When robots kill:artificial intelligence under criminal law20(Northeastern University Press 2013).正如法人成為犯罪主體,不需要考慮“對(duì)法人的懲罰被認(rèn)為沒(méi)有對(duì)人類(lèi)那么有效”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law36(Northeastern University Press 2013).的問(wèn)題一樣。總之,“在刑法語(yǔ)境中,只要滿(mǎn)足這些要求,就沒(méi)有什么可以防止刑事責(zé)任的產(chǎn)生,無(wú)論刑法主體是否是人。這就是(刑法)適用于人類(lèi)和非人類(lèi)罪犯如法人的邏輯”⑥Gabriel Hallevy,When robots kill:artificial intelligence under criminal law21(Northeastern University Press 2013).。人工智能同樣如此,故成為犯罪主體并無(wú)不可。

      二、人工智能犯罪的歸責(zé)模式

      作為犯罪構(gòu)成要件的犯罪心理態(tài)度,往往被認(rèn)為人類(lèi)才具有,也是檢驗(yàn)其他實(shí)體能否成為犯罪主體的關(guān)鍵要素之一。動(dòng)物之所以不能成為犯罪主體,就是因?yàn)槠洳痪邆淙祟?lèi)那樣的犯罪心理態(tài)度,無(wú)所謂犯罪過(guò)意與過(guò)失,因而難以對(duì)其行為承擔(dān)刑事責(zé)任。既然人工智能可以成為犯罪主體,那么如何理解和認(rèn)定其犯罪心理態(tài)度呢?對(duì)此,哈利維沒(méi)有直接就人工智能的犯罪故意和犯罪過(guò)失加以具體分析。他認(rèn)為,構(gòu)成犯罪需要具備犯罪行為和罪過(guò)。為了對(duì)任何實(shí)體施加刑事責(zé)任,必須證明犯罪行為和罪過(guò)兩個(gè)因素存在。如果證明某人明知或基于某種犯罪意圖而犯罪時(shí),他對(duì)該罪行就需要承擔(dān)刑事責(zé)任。那么,與某種實(shí)體的刑事責(zé)任相關(guān)的問(wèn)題是:這些實(shí)體是如何實(shí)現(xiàn)刑事責(zé)任的上述兩項(xiàng)要求的呢?⑦See Gabriel Hallevy,Virtual Criminal Responsibility,6Original L.Rev.6,10(2010).由此,哈利維將人工智能犯罪的歸責(zé)模式分為3種:間接正犯模式、自然可能的結(jié)果責(zé)任模式和直接責(zé)任模式。通過(guò)對(duì)3種不同歸責(zé)模式進(jìn)行分析,他就人工智能犯罪如何追究刑事責(zé)任提出了自己獨(dú)特的認(rèn)識(shí)與見(jiàn)解。

      (一)間接正犯模式

      在刑法理論上,通常認(rèn)為“構(gòu)成要件行為,不一定只限于行為人自身的直接的身體動(dòng)作,和利用動(dòng)物、工具一樣,將他人作為媒介實(shí)行犯罪,既有可能,也不罕見(jiàn)。這種通過(guò)利用他人實(shí)現(xiàn)犯罪的情況,就是間接正犯”⑧張明楷:《刑法學(xué)》,法律出版社2016年版,第401頁(yè)。。這意味著,對(duì)于人工智能而言,如果它被他人利用,只是充當(dāng)他人實(shí)施犯罪的媒介,或者只是作為無(wú)辜的代理而實(shí)施犯罪,那么利用者便是間接正犯。哈利維認(rèn)為,“雖然無(wú)辜的介質(zhì)是一件復(fù)雜的工具,仍被認(rèn)為是一種純粹的工具,而作為首犯并策劃犯罪的當(dāng)事人(另一犯罪人)才是真正的罪犯,需要對(duì)無(wú)辜的介質(zhì)的行為負(fù)責(zé)。其他人犯罪的刑事責(zé)任,也是以無(wú)辜的介質(zhì)的行為和該犯罪人自己的心理態(tài)度為依據(jù)確定的”①Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,202(2011).。在這里,哈利維認(rèn)為無(wú)辜的介質(zhì),即充當(dāng)代理的人工智能不承擔(dān)刑事責(zé)任,只有策劃犯罪的人以及其他參與犯罪的人承擔(dān)刑事責(zé)任,這便是所謂的間接正犯模式。

      在哈利維看來(lái),間接犯罪者承擔(dān)刑事責(zé)任的依據(jù)是人工智能的“工具”行為和行為人的精神狀態(tài)。②Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,179(2010).問(wèn)題在于,誰(shuí)是間接正犯呢?對(duì)此,哈利維認(rèn)為“有兩個(gè)候選者:第一個(gè)是人工智能軟件的程序員,第二個(gè)是用戶(hù),或者是最終用戶(hù)”③See note②,p.171,179(2010).。在他看來(lái),“人工智能軟件的程序員可能設(shè)計(jì)一個(gè)程序,以便通過(guò)人工智能實(shí)體實(shí)施犯罪”④See note②,pp.171,179-180(2010).。他還以無(wú)人駕駛交通工具為例進(jìn)行了說(shuō)明,“例如,一個(gè)程序員為運(yùn)營(yíng)中的無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ咴O(shè)計(jì)軟件。無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ咝旭傇诼飞蠒r(shí)被有目的地操控,其程序設(shè)置指令無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ咄ㄟ^(guò)碾壓無(wú)辜的人們來(lái)殺死他們。無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ呖赡芊笟⑷俗?,但程序員被認(rèn)為是犯罪人”⑤See note②,p.171,202(2010).。與程序員不同的是,用戶(hù)雖然沒(méi)有對(duì)軟件進(jìn)行編程,但為了自身利益會(huì)使用人工智能實(shí)體及其軟件實(shí)施犯罪。例如,“一個(gè)用戶(hù)購(gòu)買(mǎi)一輛無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ?,其目的是?zhí)行主人給它的指令。特定用戶(hù)就會(huì)被無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ哒J(rèn)為是其主人,主人命令無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ吣雺喝魏侮J入他或她的農(nóng)場(chǎng)的入侵者。無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ呔_執(zhí)行作為指令的命令。這與一個(gè)人命令他的狗攻擊入侵者沒(méi)有什么不同,無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ邔?shí)施的侵犯人身的犯罪,用戶(hù)被認(rèn)為是犯罪人”⑥Ibid.p.171,202(2010).。

      哈利維認(rèn)為,間接正犯模式可能適用于兩種情形:一是在不使用其高級(jí)功能的情況下使用人工智能實(shí)體進(jìn)行犯罪;二是使用一個(gè)非常舊的人工智能實(shí)體版本,它缺乏現(xiàn)代人工智能實(shí)體所具有的現(xiàn)代化的高級(jí)功能。⑦Ibid.p.171,181(2010).不難看出,在這兩種情況下人工智能實(shí)體充當(dāng)?shù)氖枪ぞ呓巧?。根?jù)該觀點(diǎn),機(jī)器只能是機(jī)器,從來(lái)不會(huì)也不可能成為人。但是,哈利維并沒(méi)有將人工智能看作工具。哈利維認(rèn)為,不能忽視人工智能實(shí)體所具備的實(shí)際能力。雖然其能力不足以認(rèn)定人工智能實(shí)體為犯罪行為人,但這些能力與智力有限的人的對(duì)應(yīng)的能力相似,例如兒童、智力不健全的人或缺乏犯罪心理狀態(tài)的人等。⑧Ibid.p.171,179(2010).在哈利維看來(lái),人工智能與純粹的工具有所不同,“因?yàn)樗心芰?zhí)行犯罪的指令,螺絲刀不能執(zhí)行這樣的指令;狗可以,但狗不能執(zhí)行復(fù)雜的命令”⑨Ibid.p.171,181(2010).。

      間接正犯責(zé)任模式表明,當(dāng)程序員或用戶(hù)對(duì)人工智能實(shí)體加以工具化使用時(shí),程序設(shè)計(jì)者和用戶(hù)對(duì)人工智能所犯特定罪行承擔(dān)刑事責(zé)任,而人工智能實(shí)體則不承擔(dān)任何刑事責(zé)任。不過(guò),當(dāng)人工智能實(shí)體決定通過(guò)自身積累的經(jīng)驗(yàn)或知識(shí)進(jìn)行犯罪時(shí),或者當(dāng)人工智能實(shí)體軟件不是為了犯特定罪行而設(shè)計(jì)的,而是人工智能實(shí)體自己犯下的,或者當(dāng)特定的人工智能實(shí)體功能不是作為一個(gè)無(wú)辜的代理人,而是作為一個(gè)半無(wú)辜的代理人時(shí),間接正犯責(zé)任模式就不能適用。

      (二)自然可能的后果責(zé)任模式

      所謂自然可能的后果責(zé)任模式,“是指程序員或用戶(hù)對(duì)人工智能實(shí)體的日?;顒?dòng)深入?yún)⑴c,但無(wú)意通過(guò)人工智能實(shí)體進(jìn)行任何攻擊”①Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,181(2010).,乃至于因人工智能犯罪而產(chǎn)生的刑事責(zé)任模式。這里所說(shuō)的“無(wú)意”,并非是指意外,而是指程序員或者用戶(hù)并沒(méi)有參與實(shí)施犯罪的明確意圖。根據(jù)該模式,如果一個(gè)人的行為是該行為的自然和可能后果的話(huà),則行為人可能對(duì)犯罪承擔(dān)刑事責(zé)任。該模式與間接正犯模式最大的不同在于:間接正犯模式假定了犯罪意圖,即程序員或用戶(hù)通過(guò)對(duì)某些人工智能實(shí)體的功能加以工具化使用進(jìn)行犯罪的犯罪意圖。而在自然可能的后果責(zé)任模式中,程序員或用戶(hù)并沒(méi)有犯罪的明知,沒(méi)有計(jì)劃也沒(méi)有打算使用人工智能實(shí)體犯罪,而是基于程序員或用戶(hù)預(yù)見(jiàn)潛在的犯罪行為的能力。②Ibid.p.171,182(2010).

      在哈利維看來(lái),自然可能的后果責(zé)任模式最初被用來(lái)對(duì)共犯歸責(zé)。當(dāng)一個(gè)人犯了罪,這些罪行并不是所有人都計(jì)劃了的,也不是共謀的一部分。法院確立的規(guī)則是,行為人的行為能夠鼓勵(lì)共犯或協(xié)助犯罪計(jì)劃,乃至于促成“自然可能的后果”,因而共犯責(zé)任延伸到犯罪人的行為。③Ibid.p.171,183(2010).顯然,這種情況下行為人承擔(dān)的責(zé)任類(lèi)似于大陸法系國(guó)家刑法理論中的監(jiān)督過(guò)失責(zé)任,或者說(shuō)至少存在監(jiān)督過(guò)失的責(zé)任情形?!熬捅O(jiān)督過(guò)失的事例而言,由于存在著直接引起了結(jié)果的行為人,且是由該行為人的過(guò)失行為導(dǎo)致了結(jié)果的發(fā)生,所以對(duì)于處在監(jiān)督直接行為人立場(chǎng)的監(jiān)督者來(lái)說(shuō),為了肯定其對(duì)于結(jié)果的預(yù)見(jiàn)可能性,就必須要求其可能預(yù)見(jiàn)到直接行為人的過(guò)失行為?!雹躘日]山口厚:《刑法總論》,付立慶譯,中國(guó)人民大學(xué)出版社2018年版,第256-257頁(yè)。

      自然可能的后果責(zé)任模式要求程序員或用戶(hù)存在疏忽所需的心理狀態(tài),程序員或用戶(hù)不需要知道,任何即將到來(lái)的、人工智能實(shí)施的犯罪行為是他們行為的結(jié)果,但必須知道這種行為是他們行為的自然的、可能的結(jié)果。換句話(huà)說(shuō),程序員不知道人工智能會(huì)實(shí)施何種犯罪,卻知道人工智能有可能會(huì)實(shí)施某種犯罪,并造成相應(yīng)的結(jié)果。“一位無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ叩某绦騿T或用戶(hù),應(yīng)該預(yù)見(jiàn)到觸犯即將到來(lái)的某種具體犯罪的罪行的可能性,并對(duì)該具體犯罪承擔(dān)刑事責(zé)任,即使他們事實(shí)上并沒(méi)有預(yù)見(jiàn)它,這是過(guò)失犯罪承擔(dān)刑事責(zé)任的根本法律依據(jù)。”⑤Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,206(2011).自然可能的后果責(zé)任模式的典型例子是,“一個(gè)人工智能機(jī)器人或者軟件被設(shè)計(jì)成一位自動(dòng)駕駛員,作為飛行任務(wù)的一部分,人工智能實(shí)體計(jì)劃執(zhí)行護(hù)航任務(wù)。在飛行過(guò)程中,人工飛行員激活自動(dòng)駕駛員(即人工智能實(shí)體),程序初始化。在自動(dòng)駕駛儀激活后的某個(gè)時(shí)刻,人類(lèi)飛行員看到即將來(lái)臨的風(fēng)暴,試圖中止任務(wù)返回基地。人工智能實(shí)體認(rèn)為人類(lèi)飛行員的行動(dòng)是對(duì)其使命的威脅,并采取行動(dòng)以消除這種威脅。它可能切斷飛行員的空氣供應(yīng),或激活彈射座椅等。結(jié)果,飛行員被人工智能實(shí)體的行動(dòng)殺死”⑥Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,182(2010).。

      哈利維認(rèn)為,對(duì)于程序員或用戶(hù)來(lái)說(shuō),自然可能的后果責(zé)任模式在法律后果上存在兩種不同類(lèi)型:一是程序員或用戶(hù)在編程或使用人工智能實(shí)體時(shí)疏忽大意,但沒(méi)有犯罪意圖;二是當(dāng)編程人員或用戶(hù)蓄意或希望通過(guò)編程或使用人工智能實(shí)體犯某種罪行時(shí),人工智能實(shí)體偏離計(jì)劃而實(shí)施其他罪行,并沒(méi)有實(shí)施所計(jì)劃的犯罪。①See Gabriel Hallevy,Virtual Criminal Responsibility,6Original L.Rev.6,15(2010).在第一種情況下,程序員或者用戶(hù)是基于純粹的疏忽,如果法律規(guī)定了他們具有相關(guān)義務(wù),他們就需要承擔(dān)監(jiān)督過(guò)失責(zé)任。與第一種情形不同的是,第二種情形屬于共犯的責(zé)任類(lèi)型。由于行為人期待人工智能合作、共謀以及實(shí)施犯罪以達(dá)到犯罪目的,因而其主觀上對(duì)人工智能犯罪是持故意的心理態(tài)度,只是由于人工智能沒(méi)有實(shí)施其所期待的犯罪而已。但是,畢竟在行為人的意圖下人工智能實(shí)施了其他犯罪,因其社會(huì)危害較之第一種情形顯然要嚴(yán)重。這種情形類(lèi)似于我國(guó)《刑法》第29條第2款規(guī)定,即被教唆的人(人工智能)沒(méi)有犯所教唆的罪(程序員或者用戶(hù)期待的罪行),而是犯了其他罪行。

      需要進(jìn)一步澄清的是,在這種責(zé)任模式下,人工智能自身的責(zé)任如何確定呢?對(duì)此,哈利維認(rèn)為有兩種可能的結(jié)果。首先,如果人工智能實(shí)體充當(dāng)一個(gè)無(wú)辜的代理人,不知道任何關(guān)于刑事禁止的事情,它就不會(huì)對(duì)它犯下的罪行負(fù)刑事責(zé)任。其次,如果人工智能實(shí)體不只是作為一個(gè)無(wú)辜的代理人,那么,除了程序員或用戶(hù)根據(jù)第二種責(zé)任模式承擔(dān)刑事責(zé)任外,人工智能實(shí)體本身也應(yīng)直接對(duì)具體罪行承擔(dān)刑事責(zé)任。②See Gabriel Hallevy,Virtual Criminal Responsibility,6Original L.Rev.6,16(2010).第一種情況與第一種責(zé)任模式不同的是,人工智能并非扮演工具角色,而是由于程序員或者用戶(hù)的疏忽,乃至于對(duì)法律禁止的內(nèi)容一無(wú)所知,即使其對(duì)行為及其結(jié)果有認(rèn)識(shí),也不能承擔(dān)刑事責(zé)任。同時(shí),程序員或者用戶(hù)并非故意利用人工智能犯罪,而是因?yàn)槭韬鰧?dǎo)致人工智能因不知道刑法禁止的內(nèi)容而犯罪。這種情形有點(diǎn)類(lèi)似于德國(guó)刑法中規(guī)定的不可避免的違法性認(rèn)識(shí)錯(cuò)誤,屬于免責(zé)的事由。

      (三)直接責(zé)任模式

      如果人工智能實(shí)體對(duì)某個(gè)特定程序員或用戶(hù)沒(méi)有任何依賴(lài),而是由于自身原因?qū)嵤┓缸?,則屬于直接責(zé)任模式。哈利維認(rèn)為,成立犯罪需要具備犯罪的客觀要件(外部要素)和主觀要件(內(nèi)部要素),“如果一個(gè)人工智能實(shí)體能夠滿(mǎn)足外部要素和內(nèi)部要素的要求,并且事實(shí)上它滿(mǎn)足了這些要求,那么就沒(méi)有什么可以阻止對(duì)該人工智能實(shí)體施加刑事責(zé)任”③Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,187(2010).。在他看來(lái),滿(mǎn)足犯罪的外部要素要求并不難,也很容易歸因于人工智能實(shí)體?!爸灰粋€(gè)人工智能實(shí)體控制一個(gè)機(jī)械或其他機(jī)構(gòu)來(lái)移動(dòng)它的運(yùn)動(dòng)部件,任何行為都可以被認(rèn)為是人工智能實(shí)體實(shí)施的。因此,當(dāng)人工智能機(jī)器人激活其供電或液壓臂并移動(dòng)它時(shí),這可能被認(rèn)為是一種行為,如果特定的犯罪涉及這樣的行為?!雹躍ee note③,p.171,187(2010).

      哈利維指出,真正對(duì)人工智能犯罪形成挑戰(zhàn)的,是將犯罪的心理因素歸因于人工智能實(shí)體。“對(duì)人工智能心理要素的歸因不同于其他,現(xiàn)代人工智能技術(shù)發(fā)展起來(lái)的絕大多數(shù)認(rèn)知能力,如創(chuàng)造力,對(duì)刑事責(zé)任追究問(wèn)題無(wú)關(guān)緊要。追究刑事責(zé)任所需的唯一認(rèn)知能力體現(xiàn)在心理要素要求(犯罪意圖)中。創(chuàng)造力是人的特點(diǎn),某些動(dòng)物也具有,但創(chuàng)造性不是追究刑事責(zé)任的要素。即使是最沒(méi)創(chuàng)意的人也可能會(huì)被追究刑事責(zé)任?!雹軬abriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,208(2011).不過(guò),哈利維還是認(rèn)為人工智能具備犯罪心理要素。這是因?yàn)?,刑事?zé)任所需的唯一心理要求是具體犯罪和刑法一般理論所要求的知識(shí)、故意、過(guò)失等,諸如無(wú)人駕駛交通工具等人工智能實(shí)體對(duì)具體犯罪承擔(dān)刑事責(zé)任,并不需產(chǎn)生犯具體犯罪的想法,只要對(duì)該罪的事實(shí)要素有認(rèn)知便可。①See Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,208(2011).哈利維認(rèn)為,具備認(rèn)知能力對(duì)人工智能實(shí)體而言并不是問(wèn)題。“大多數(shù)人工智能系統(tǒng)都有良好的接收能力,視覺(jué)、聲音、身體接觸、觸覺(jué)等感官接收器,在大多數(shù)人工智能系統(tǒng)中都很常見(jiàn)。這些受體將接收到的實(shí)際數(shù)據(jù)傳送給分析數(shù)據(jù)的中央處理單元,人工智能系統(tǒng)的分析過(guò)程與人類(lèi)的理解相類(lèi)似。人腦通過(guò)分析數(shù)據(jù)理解眼睛、耳朵、手等所接收到的數(shù)據(jù)。先進(jìn)的人工智能運(yùn)算程序正試圖模仿人類(lèi)的認(rèn)知過(guò)程,這些過(guò)程沒(méi)有什么不同。”②Ibid.pp.200,208-209(2011).當(dāng)然,對(duì)人工智能的犯罪心理要素最具挑戰(zhàn)的,是特定意圖和情緒或情感等。

      哈利維認(rèn)為,具備特定意圖并非人類(lèi)所獨(dú)有的,無(wú)人駕駛交通工具等人工智能同樣具備特定意圖。“一些無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ呖梢跃幊陶页鲎约旱哪康幕蚰繕?biāo),并采取行動(dòng)以達(dá)到了目的,一些先進(jìn)的無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ呖梢源_定自己的目的并采取相關(guān)行動(dòng)以達(dá)到目的。在這兩種情況下,這可能被視為特定的意圖,因?yàn)闊o(wú)人駕駛?cè)斯ぶ悄芙煌üぞ叽_定了自己的目的,并且想辦法通過(guò)相關(guān)行動(dòng)以達(dá)到目的?!雹跧bid.p.200,209(2011).至于強(qiáng)烈的情緒或者情感,人們普遍認(rèn)為人工智能軟件是無(wú)法模仿的,哪怕是最先進(jìn)的人工智能軟件也是如此。對(duì)此,哈利維表示認(rèn)可。不過(guò),他認(rèn)為強(qiáng)烈的情緒或情感,如愛(ài)、情感、仇恨、嫉妒等,與特定意圖一樣,只是在少數(shù)犯罪中有要求,大多數(shù)具體罪行只要滿(mǎn)足對(duì)外在因素存在的認(rèn)知就可以了。“除了認(rèn)知之外,很少的犯罪需要特定意圖。幾乎所有的其他罪行只需滿(mǎn)足那些要求少得多的因素(疏忽、魯莽、嚴(yán)格責(zé)任)。也許在極少數(shù)特定犯罪中,需要一定的感情(如種族主義犯罪、仇恨),刑事責(zé)任不能強(qiáng)加給一輛沒(méi)有這種情感的無(wú)人駕駛?cè)斯ぶ悄芙煌üぞ?,但在任何其他特定的犯罪中,某些感情缺失并非刑事?zé)任的障礙?!雹躀bid.p.200,209(2011).

      總而言之,哈利維主張,“當(dāng)一個(gè)人工智能實(shí)體確立了包括外部和內(nèi)部要素在內(nèi)的某一特定罪行的所有要素,就沒(méi)有理由免除對(duì)該罪行承擔(dān)刑事責(zé)任。如果通過(guò)任何其他合法路徑對(duì)程序員或用戶(hù)施加刑事責(zé)任,人工智能實(shí)體的刑事責(zé)任不能取代程序員或用戶(hù)的刑事責(zé)任。刑事責(zé)任不是分開(kāi)的,而是結(jié)合在一起的。除了人類(lèi)程序員或用戶(hù)的刑事責(zé)任外,人工智能實(shí)體的刑事責(zé)任也需要追究”⑤Ibid.p.171,191(2010).。當(dāng)然,他也承認(rèn),“根據(jù)直接責(zé)任模式,人工智能實(shí)體的刑事責(zé)任與人類(lèi)相關(guān)的刑事責(zé)任有所不同。在某些情況下,一些調(diào)整是必要的,但實(shí)質(zhì)上,建立在相同的要素和相同的方式評(píng)價(jià)基礎(chǔ)上的刑事責(zé)任還是非常相似的”⑥Ibid.p.171,193(2010).。

      三、人工智能犯罪的處罰

      既然人工智能可以成為犯罪主體,也存在著承擔(dān)刑事責(zé)任的不同模式,那么一旦人工智能犯罪,可否以及怎樣對(duì)之給予刑罰處罰呢?對(duì)此,哈利維認(rèn)為,處罰人工智能應(yīng)當(dāng)考慮以下3個(gè)問(wèn)題:一是對(duì)人的具體處罰的根本意義是什么?二是懲罰對(duì)人工智能實(shí)體有何影響?三是在對(duì)人工智能實(shí)體施加實(shí)際懲罰時(shí),什么樣的實(shí)際懲罰可以達(dá)到同樣的意義?如果需要調(diào)整懲罰方式,那么在對(duì)人和人工智能實(shí)體施加懲罰時(shí),其具體懲罰意義應(yīng)該相同。①See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to Legal Social Control,4 Akron Intell.Prop.J.171,195(2010).基于這樣的理念,哈利維從刑罰的目的入手,分析了處罰人工智能可能達(dá)到的刑罰目的,并就人工智能承擔(dān)刑事責(zé)任的方式進(jìn)行了深入探討。

      (一)制裁人工智能犯罪的刑罰目的

      哈利維認(rèn)為,量刑一般有4個(gè)共同目的,它們是量刑時(shí)通常需要考慮的:報(bào)應(yīng)、威懾、康復(fù)和剝奪犯罪能力。②See Gabriel Hallevy,When robots kill:artificial intelligence under criminal law157(Northeastern University Press 2013).那么,制裁人工智能能否實(shí)現(xiàn)這4個(gè)目的呢?哈利維對(duì)此進(jìn)行了具體分析。在他看來(lái),懲罰人工智能難以達(dá)到報(bào)應(yīng)的目的。這是因?yàn)?,“?bào)應(yīng)主要是為了滿(mǎn)足社會(huì)需要,給罪犯造成痛苦本身就沒(méi)有預(yù)期的價(jià)值,苦難可以阻止犯罪者,但這是威懾的目的之一,而不是報(bào)應(yīng)。報(bào)應(yīng)可能通過(guò)使罪犯遭受痛苦而讓社會(huì)和受害者產(chǎn)生宣泄作用,然而,在這種情況下基于報(bào)應(yīng)去懲罰機(jī)器將毫無(wú)意義且不切實(shí)際”③Gabriel Hallevy,When robots kill:artificial intelligence under criminal law158(Northeastern University Press 2013).。而且,“如果報(bào)應(yīng)作為一種預(yù)防復(fù)仇的量刑寬大模式,其與人工智能量刑的不相關(guān)更為明顯。復(fù)仇被認(rèn)為對(duì)犯罪者造成的痛苦比官方懲罰更大,但是因?yàn)闄C(jī)器不經(jīng)歷痛苦,報(bào)復(fù)和懲罰之間的區(qū)別對(duì)他們來(lái)說(shuō)毫無(wú)意義”④See note③,p.。同時(shí),哈利維認(rèn)為威懾主要是針對(duì)自然人才有效,機(jī)器人等人工智能由于缺乏痛苦的體驗(yàn),因而規(guī)勸、恐嚇、威懾等對(duì)之均沒(méi)有效果?!巴刂荚谕ㄟ^(guò)恐嚇來(lái)阻止下一次犯罪的發(fā)生,在當(dāng)前技術(shù)中,恐嚇是一種機(jī)器無(wú)法體驗(yàn)的感覺(jué)??謬樖腔趯?duì)未來(lái)犯罪的恐懼,因?yàn)闄C(jī)器沒(méi)有痛苦體驗(yàn),正如我們已經(jīng)提到的,當(dāng)對(duì)機(jī)器人考慮適當(dāng)懲罰時(shí),恐嚇和規(guī)勸都是無(wú)效的,同時(shí),懲罰和威懾可能是人工智能實(shí)體犯罪中與懲罰人類(lèi)參與者(例如用戶(hù)和程序員)相關(guān)的目的?!雹軬abriel Hallevy,When robots kill:artificial intelligence under criminal law159(Northeastern University Press 2013).

      哈利維認(rèn)為,懲罰人工智能能夠?qū)崿F(xiàn)康復(fù)目的,“有時(shí),人工智能系統(tǒng)可能需要外部指導(dǎo),以細(xì)化其決策過(guò)程,這可能是機(jī)器學(xué)習(xí)過(guò)程的一部分。對(duì)于人工智能實(shí)體來(lái)說(shuō),康復(fù)功能與人類(lèi)完全一樣,能夠使它們?cè)谌粘I钪袕纳鐣?huì)的角度做出更好的決定”⑥Gabriel Hallevy,When robots kill:artificial intelligence under criminal law160(Northeastern University Press 2013).。哈利維指出,人工智能程序是可以被改良的,并且人工智能本身也能夠通過(guò)深度學(xué)習(xí)進(jìn)行自我修復(fù),這為其康復(fù)準(zhǔn)備了充分的條件,康復(fù)本身對(duì)于人工智能而言就是學(xué)習(xí)的一部分?!氨恍迯?fù)后,通過(guò)對(duì)其自我決策施加更多限制,并通過(guò)機(jī)器學(xué)習(xí)來(lái)改進(jìn)程序,人工智能系統(tǒng)能夠作出各種更精準(zhǔn)的決策。因此,如果懲罰被確切地應(yīng)用到單獨(dú)的人工智能系統(tǒng),將成為機(jī)器學(xué)習(xí)過(guò)程的一部分?!雹逫bid.哈利維甚至認(rèn)為,康復(fù)目的在很多情形下對(duì)于人的制裁而言是次要的,但對(duì)于人工智能的制裁而言可能是主要的,“康復(fù)可以成為對(duì)人工智能系統(tǒng)懲罰的相關(guān)目的,因?yàn)樗皇腔诳謬樆蛲纯?,而是致力于改善人工智能系統(tǒng)的性能。對(duì)于人類(lèi)而言,這種考慮在許多情況下可能是次要的,但是對(duì)于人工智能系統(tǒng)來(lái)說(shuō),這可能是懲罰的主要目的”⑧Gabriel Hallevy,When robots kill:artificial intelligence under criminal law160-161(Northeastern University Press 2013).。

      至于剝奪犯罪能力,哈利維指出這是為了消除犯罪者的物理能力,以阻止其再下一次犯罪?!盁o(wú)論罪犯是否理解或同意社會(huì)要求,由于犯罪的物理能力被消除,下一次犯罪得以被阻止?!雹酖abriel Hallevy,When robots kill:artificial intelligence under criminal law161(Northeastern University Press 2013).適應(yīng)預(yù)防犯罪的需要,剝奪犯罪能力理當(dāng)為刑罰的目的之一。相對(duì)而言,只不過(guò)剝奪犯罪能力較之康復(fù)要嚴(yán)厲些?!叭绻诖蠖鄶?shù)情況下康復(fù)被認(rèn)為是對(duì)懲罰的普遍考慮,那么剝奪犯罪能力則被認(rèn)為是嚴(yán)厲的?!雹貵abriel Hallevy,When robots kill:artificial intelligence under criminal law161(Northeastern University Press 2013).哈利維認(rèn)為,防止人工智能再犯罪是必要的?!安还苋斯ぶ悄芟到y(tǒng)是否理解其行為意義,也不管人工智能系統(tǒng)是否配備了合適的工具來(lái)完成內(nèi)部改變,防止犯罪仍然是必須的。在這樣的情形下,社會(huì)必須剝奪人工智能系統(tǒng)犯其他罪行的物理能力,盡管它擁有其他技能?!雹贗bid.如果人工智能不能通過(guò)機(jī)器學(xué)習(xí)改變其行為方式,那么剝奪犯罪能力就更有必要?!叭绻斯ぶ悄芟到y(tǒng)犯罪,并且通過(guò)機(jī)器學(xué)習(xí)不能改變其行為方式,只有剝奪犯罪能力才能提供恰當(dāng)?shù)拇鸢??!雹跧bid.因此,剝奪犯罪能力完全能夠作為懲罰人工智能的目的。

      總之,哈利維認(rèn)為,康復(fù)和剝奪犯罪能力是實(shí)現(xiàn)對(duì)非人類(lèi)犯罪的刑罰目的服務(wù)的?!皯土P人工智能系統(tǒng)需要考慮的兩個(gè)相關(guān)因素是康復(fù)和剝奪犯罪能力,兩者反映了量刑的兩極,都是為非人類(lèi)罪犯的刑法目的服務(wù)。”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law161-162(Northeastern University Press 2013).如果人工智能能通過(guò)機(jī)器學(xué)習(xí)改變其行為方式,康復(fù)較之剝奪犯罪能力更可取,否則就需要?jiǎng)儕Z犯罪能力。“當(dāng)人工智能系統(tǒng)能夠進(jìn)行影響其活動(dòng)的內(nèi)部變化時(shí),康復(fù)似乎比剝奪犯罪能力更可取,但當(dāng)它不具備這種能力時(shí),剝奪犯罪能力是可取的?!雹軬abriel Hallevy,When robots kill:artificial intelligence under criminal law162(Northeastern University Press 2013).這樣看來(lái),懲罰人工智能的刑罰目的需要根據(jù)具體需要,這一點(diǎn)與懲罰人類(lèi)并沒(méi)什么不同?!疤幜P應(yīng)根據(jù)罪犯的相關(guān)個(gè)人特征,如同人類(lèi)犯罪的情形那樣?!雹轎bid.

      (二)人工智能犯罪的刑罰種類(lèi)

      哈利維對(duì)人工智能所適用的刑罰類(lèi)型進(jìn)行了較為詳細(xì)的闡述,這些處罰方式涉及死刑、監(jiān)禁、緩刑、社區(qū)服務(wù)以及罰金等。在他看來(lái),絕大多數(shù)普通刑罰都可適用于人工智能實(shí)體。

      哈利維認(rèn)為,對(duì)人工智能完全可以適用死刑。通常,死刑對(duì)人類(lèi)的意義是剝奪生命;對(duì)人工智能而言,死刑也意味著剝奪“生命”。在他看來(lái),人工智能實(shí)體的生命雖然不具有人類(lèi)那樣的生物屬性,但也是客觀存在的,其“生命”便是它作為實(shí)體的獨(dú)立存在。有時(shí),它具有物理外觀(例如,作為機(jī)器人),有時(shí)它只有抽象的存在(例如,安裝在計(jì)算機(jī)系統(tǒng)或網(wǎng)絡(luò)服務(wù)器上的軟件)。⑦See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,196(2010).至于執(zhí)行死刑的方式,哈利維認(rèn)為主要有兩種:一是刪除人工智能軟件?!拌b于死刑具有剝奪罪犯犯罪能力的功效,當(dāng)對(duì)人工智能刪除控制其的人工智能軟件時(shí),死刑在實(shí)際上也可能會(huì)達(dá)到相同的效果。一旦刪除的處罰得到執(zhí)行,犯罪的人工智能實(shí)體就不能再犯罪了。刪除(人工智能軟件)根除了人工智能實(shí)體的獨(dú)立存在,無(wú)異于死刑?!雹郍abriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,196(2010).二是永久關(guān)閉人工智能系統(tǒng)?!皩?duì)人工智能系統(tǒng)判處死刑意味著它被永久關(guān)閉,這樣對(duì)系統(tǒng)而言不會(huì)再實(shí)施犯罪或其他任何活動(dòng)……永久喪失能力意味著根據(jù)法院命令絕對(duì)關(guān)閉,再無(wú)激活系統(tǒng)的選擇。”⑨Gabriel Hallevy,When robots kill:artificial intelligence under criminal law166-167(Northeastern University Press 2013).

      至于監(jiān)禁,對(duì)人類(lèi)的意義是剝奪了人的自由,即對(duì)人類(lèi)的行為自由、行動(dòng)自由和個(gè)人生活自由等施加嚴(yán)格限制。哈利維認(rèn)為,人工智能具有自由,也能夠自主,因而可以適用監(jiān)禁刑?!叭斯ぶ悄軐?shí)體的‘自由’或‘自主’包括在相關(guān)領(lǐng)域的行為自由。例如,從事醫(yī)療服務(wù)的一個(gè)人工智能實(shí)體有參與外科手術(shù)的自由;一個(gè)工廠的一個(gè)人工智能實(shí)體有生產(chǎn)的自由等?!雹貵abriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,196-197(2010).“考慮到監(jiān)禁刑的性質(zhì),當(dāng)對(duì)人工智能實(shí)體施加處罰是使人工智能實(shí)體在某一確定的期限內(nèi)不再被使用,這樣的處遇之效果與判處監(jiān)禁刑是相同的?!雹赟ee Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,197(2010).哈利維指出,對(duì)人工智能系統(tǒng)也可以實(shí)行監(jiān)禁,即在規(guī)定時(shí)間剝奪它們的行動(dòng)自由并加以嚴(yán)格監(jiān)督,當(dāng)人工智能系統(tǒng)被羈押、受限制和監(jiān)督時(shí),它的攻擊能力是喪失的。③See Gabriel Hallevy,When robots kill:artificial intelligence under criminal law168(Northeastern University Press 2013).在此期間,任何與人工智能實(shí)體自由有關(guān)的行動(dòng)都不被允許,因此其自主或自由受到限制。④See note②,p.171,197(2010).

      在西方法律體系中,緩刑是一種非常受歡迎的過(guò)渡性懲罰方式,它雖然并非對(duì)行為人的自由或者行動(dòng)等實(shí)行限制,卻增加了對(duì)罪犯的威懾作用。這種威懾作用,源自罪犯如果觸犯具體罪行或某種類(lèi)型的具體犯罪,那么對(duì)其而言就有撤銷(xiāo)緩刑而適用監(jiān)禁的危險(xiǎn)。如果罪犯觸犯某種具體罪行,那么第二次犯罪與第一次犯罪的刑罰都要執(zhí)行,這就促使罪犯不敢冒巨大風(fēng)險(xiǎn)而再次觸犯其他罪名。哈利維認(rèn)為,“適用緩刑僅僅只是法律記錄,緩期執(zhí)行時(shí)并沒(méi)有對(duì)身體采取任何實(shí)際行動(dòng)。因此,當(dāng)判處緩刑時(shí),人類(lèi)和人工智能實(shí)體之間的效果沒(méi)有差別”⑤See note①,p.171,197(2010).。關(guān)于對(duì)人工智能如何執(zhí)行緩刑以及采取何種執(zhí)行方式,哈利維指出,“對(duì)人工智能系統(tǒng)判處緩刑是對(duì)重新考慮其行為過(guò)程的警告。這個(gè)過(guò)程可以由程序員、用戶(hù)或制造商發(fā)起,其方式與人類(lèi)犯罪由其親屬或?qū)I(yè)人員(如心理學(xué)家或社會(huì)工作者)輔助或法人犯罪由官員或?qū)I(yè)人員輔助相同”⑥Gabriel Hallevy,When robots kill:artificial intelligence under criminal law169(Northeastern University Press 2013).。在具體執(zhí)行時(shí),“州的法定犯罪記錄在對(duì)人、法人或者人工智能實(shí)體處以緩刑之間并不作區(qū)分,只要有關(guān)實(shí)體能夠被具體而準(zhǔn)確地確定”⑦See note①,p.171,197(2010).。

      公共服務(wù)也是西方法律體系中極受歡迎的過(guò)渡性制裁措施,它不是真正意義上的監(jiān)禁。在許多法律制度中,公共服務(wù)可以代替實(shí)際監(jiān)禁的短期刑罰。實(shí)行公共服務(wù)并附加考驗(yàn)期,可以使犯罪人為犯特定罪行所造成的損害而“付出代價(jià)”。哈利維認(rèn)為,“法人和人工智能系統(tǒng)都與社區(qū)有很強(qiáng)的互動(dòng)關(guān)系。公共服務(wù)可以授權(quán)和加強(qiáng)這些互動(dòng),并使之成為必要的內(nèi)在變化的基礎(chǔ)”⑧Gabriel Hallevy,When robots kill:artificial intelligence under criminal law172-173(Northeastern University Press 2013).。因此,對(duì)人工智能實(shí)體是可以適用公共服務(wù)的,人工智能系統(tǒng)的公共服務(wù)在本質(zhì)上類(lèi)似于人類(lèi)的公共服務(wù)。一方面,公共服務(wù)對(duì)人類(lèi)的意義是通過(guò)勞動(dòng)對(duì)社會(huì)作出強(qiáng)制性貢獻(xiàn),而一個(gè)人工智能實(shí)體可以作為一個(gè)工人在許多領(lǐng)域從事工作。當(dāng)一個(gè)人工智能實(shí)體在工廠工作時(shí),它的工作是為了工廠所有者的利益或其他工人的利益而進(jìn)行的,以減緩和幫助他們的職業(yè)任務(wù)。⑨See note②,p.171,197-198(2010).另一方面,“一個(gè)人工智能實(shí)體為了個(gè)人利益而工作,也可能為公共的利益而工作。當(dāng)為公共利益而進(jìn)行的工作被強(qiáng)加給一個(gè)人工智能實(shí)體,作為對(duì)社會(huì)作出強(qiáng)制性貢獻(xiàn)時(shí),它可以被認(rèn)為是公共服務(wù)”①Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,198(2010).。據(jù)此,哈利維認(rèn)為,無(wú)論是強(qiáng)加給人類(lèi)還是人工智能實(shí)體,公共服務(wù)的意義是相同的。②See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,198(2010).

      在西方法律體系中,罰金判決無(wú)疑是最受歡迎的過(guò)渡性制裁。判處罰金的意義,對(duì)于人類(lèi)而言意味著剝奪他們的一些財(cái)產(chǎn)。通常,如果一個(gè)人不繳納罰金,或沒(méi)有足夠的財(cái)產(chǎn)支付罰金,則可以對(duì)罪犯處以替代刑,如監(jiān)禁等。哈利維認(rèn)為,“對(duì)法人處以罰金等同于對(duì)某人處以罰款,因?yàn)闊o(wú)論是人還是法人都有財(cái)產(chǎn)和銀行賬戶(hù),因此罰金的支付方式是相同的,無(wú)論支付實(shí)體是人還是法人實(shí)體”③See note①,p.171,198(2010).。但是,人工智能實(shí)體的情況與人類(lèi)和法人可能有所不同?!叭绻硞€(gè)人工智能實(shí)體擁有自己的財(cái)產(chǎn)或金錢(qián),對(duì)其處以罰款將等同于對(duì)人或法人處以罰款?!雹躍ee note①,p.171,199(2010).問(wèn)題在于,大多數(shù)人工智能實(shí)體并沒(méi)有自己的現(xiàn)金、財(cái)產(chǎn)或銀行賬戶(hù),如何對(duì)人工智能適用罰金呢?對(duì)此,哈利維認(rèn)為可以考慮調(diào)整處罰方式?!叭斯ぶ悄芟到y(tǒng)的確沒(méi)有財(cái)產(chǎn),但它工作能力是很有價(jià)值的,可以賦予其貨幣價(jià)值?!斯ぶ悄芟到y(tǒng)可以使用它擁有的唯一貨幣:工作時(shí)間。工作時(shí)間對(duì)社會(huì)有貢獻(xiàn),就像公益服務(wù)的貢獻(xiàn)一樣。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law174(Northeastern University Press 2013).在哈利維看來(lái),對(duì)大多數(shù)人和法人來(lái)說(shuō),財(cái)產(chǎn)是通過(guò)勞動(dòng)獲得的,繳納罰金意味著因勞動(dòng)所得的財(cái)產(chǎn)發(fā)生轉(zhuǎn)移,這表明除了通過(guò)財(cái)產(chǎn)的方式外,罰金也可以直接以勞動(dòng)的方式支付或繳納。因此,對(duì)一個(gè)人工智能實(shí)體施加的罰金,可能被轉(zhuǎn)化為金錢(qián)或財(cái)產(chǎn)以及作為社會(huì)福利的勞動(dòng)。當(dāng)罰金是以勞動(dòng)的形式為社會(huì)利益而募集的,與上面所述的社區(qū)服務(wù)沒(méi)有什么不同。⑥See note②,p.171,199(2010).

      四、哈利維的人工智能犯罪觀之述評(píng)與啟示

      (一)對(duì)哈利維的人工智能犯罪觀之述評(píng)

      對(duì)于哈利維有關(guān)人工智能犯罪的各種觀點(diǎn),加拿大多倫多大學(xué)法學(xué)博士蕾切爾·查尼進(jìn)行了簡(jiǎn)要評(píng)述。查尼指出,現(xiàn)有法律基礎(chǔ)是以人類(lèi)為核心確立的,由于“現(xiàn)行人工智能系統(tǒng)的能力并沒(méi)有達(dá)到刑法所要求的意識(shí)和意志的法律標(biāo)準(zhǔn)”⑦Rachel Charney,Can Androids Plead Automatism – AReview of When Robots Kill:Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy,73 U.Toronto Fac.L.Rev.69,71(2015).,因而哈利維有關(guān)人工智能犯罪的理論并非建立在現(xiàn)有法律基礎(chǔ)上的?!白罱K,《當(dāng)機(jī)器人殺人時(shí)》一書(shū)包含原始和有趣的理論思想,但哈利維的論點(diǎn)仍然更多地停留在科幻小說(shuō)領(lǐng)域而不是實(shí)際的法律分析。”⑧See note⑦,p.69,72(2015).對(duì)哈利維有關(guān)人工智能犯罪的某些見(jiàn)解,查尼給予充分肯定,“他確實(shí)看到了剝奪犯罪能力和康復(fù)的價(jià)值,剝奪犯罪能力,如關(guān)閉人工智能或?qū)θ斯ぶ悄苤匦戮幊?,有助于防止人工智能犯下更多的罪行,康?fù)則涉及改變?nèi)斯ぶ悄艿男袨椋ㄟ^(guò)機(jī)器學(xué)習(xí)可以讓人工智能在未來(lái)作出更好的決策?!雹酳ee note⑦,p.69,71(2015).同時(shí),查尼對(duì)哈利維許多觀點(diǎn)又表示疑慮。

      例如,對(duì)于哈利維所謂的公共服務(wù)懲罰,查尼認(rèn)為并不可信,且這樣做會(huì)縱容機(jī)器人給社區(qū)帶來(lái)傷害?!霸诠卜?wù)量刑問(wèn)題上,哈利維給出了一個(gè)醫(yī)療診斷機(jī)器人的例子。他解釋說(shuō),社會(huì)可以懲罰機(jī)器人在私人診所的疏忽診斷,迫使它做一個(gè)有監(jiān)督的社區(qū)服務(wù)安置診斷公立醫(yī)院的病人。哈利維忽略了,在機(jī)器人被修復(fù)之前,機(jī)器人的診斷是不可信的,通過(guò)公共服務(wù),機(jī)器人可能給社區(qū)帶來(lái)傷害。”①Rachel Charney,Can Androids Plead Automatism – AReview of When Robots Kill:Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy,73 U.Toronto Fac.L.Rev.69,71-72(2015).同時(shí),盡管哈利維認(rèn)為可以對(duì)人工智能從事社區(qū)服務(wù)加以監(jiān)督,但查尼認(rèn)為如何監(jiān)督是個(gè)問(wèn)題?!半m然他明確表示機(jī)器人在公共服務(wù)期間將受到監(jiān)督,以防止進(jìn)一步的違法行為,但尚不清楚監(jiān)督將如何進(jìn)行,因此仍有可能在傷害已經(jīng)發(fā)生之前再發(fā)現(xiàn)進(jìn)一步的疏忽?!雹赟ee note①,p.69,72(2015).總之,對(duì)人工智能實(shí)施公共服務(wù)處罰極為微妙和復(fù)雜,“在某些情況下,有可能找到一種替代人工智能系統(tǒng)有益于社區(qū)的方法,但是不同于那些在超速行駛后被判撿垃圾的人,一個(gè)能夠駕駛和超速的人工智能系統(tǒng)不太可能有能力撿起垃圾。因此,公共服務(wù)處罰是否適用于人工智能是一個(gè)比哈利維指出的更微妙和更復(fù)雜的問(wèn)題”③See note①,p.69,72(2015).。

      又如,查尼認(rèn)為對(duì)人工智能判處罰金也是不現(xiàn)實(shí)的。人工智能本來(lái)就被認(rèn)為是所有者的財(cái)產(chǎn),對(duì)人工智能判處罰金無(wú)異于對(duì)無(wú)辜的所有者加以處罰,“現(xiàn)代法律認(rèn)為人工智能系統(tǒng)僅僅是財(cái)產(chǎn)。因此,人工智能系統(tǒng)的所有生產(chǎn)手段,包括其工作時(shí)間,都不是由人工智能系統(tǒng)本身,而是由它的所有者擁有。因此,如果一個(gè)人工智能系統(tǒng)通過(guò)公共服務(wù)被罰款,那么其潛在的無(wú)辜所有者將因沒(méi)收財(cái)產(chǎn)而受到不適當(dāng)?shù)膽土P”④See note①,p.69,72(2015).。而且,試圖通過(guò)調(diào)整處罰方式,如處以社區(qū)服務(wù)來(lái)替代罰金也是缺乏證據(jù)或邏輯支持的。“哈利維進(jìn)一步辯稱(chēng),通過(guò)工作時(shí)間對(duì)人工智能系統(tǒng)加以罰金的目的不是康復(fù)而是剝奪犯罪能力,因?yàn)轭~外的工作時(shí)間將使得機(jī)器人擁有‘更少的自由時(shí)間犯罪’。這是假定機(jī)器人在他們的‘自由時(shí)間’中優(yōu)先犯罪,這是一個(gè)沒(méi)有證據(jù)或邏輯支持的命題。”⑤See note①,p.69,72(2015).

      從查尼博士的相關(guān)論述來(lái)看,她并沒(méi)有完全否認(rèn)人工智能成為犯罪主體及其可以接受不同類(lèi)型處罰,而是基于現(xiàn)實(shí)的不可行性、缺乏法律基礎(chǔ)以及處罰的不可信、缺乏具體操作等來(lái)看待問(wèn)題的??陀^地說(shuō),基于人工智能發(fā)展上處于弱人工智能階段,哈利維的人工智能犯罪觀無(wú)疑是超前且缺乏法律基礎(chǔ)的。這并不意味著未來(lái)發(fā)展到強(qiáng)人工智能階段或者超人工智能階段,人工智能仍然不可以成為犯罪主體并接受處罰。至于處罰人工智能在效果上不可信以及缺乏具體操作性,則主要因?yàn)槿祟?lèi)目前尚缺乏這方面的具體實(shí)踐,因而無(wú)論是對(duì)之充滿(mǎn)期待還是質(zhì)疑,都是情有可原的。

      的確,哈利維有關(guān)人工智能的罪與罰的許多觀點(diǎn)需要進(jìn)一步探究。例如,以側(cè)重于結(jié)果的目的論道德作為人工智能的歸責(zé)依據(jù),是存在問(wèn)題的。因?yàn)?,人?lèi)之外的其他實(shí)體也會(huì)造成一定的危害結(jié)果,但顯然不能僅以此作為追究刑事責(zé)任的依據(jù)。哈利維認(rèn)為道德具有復(fù)雜性與多元化特征,因而根據(jù)道義論道德歸責(zé)是不可靠的。然而,自古典刑法理論產(chǎn)生以來(lái),以自由意志論、道德理性論為核心的唯心主義哲學(xué)就成為刑事歸責(zé)的哲理基礎(chǔ),直到今天依然占據(jù)主導(dǎo)地位。哈利維在沒(méi)有就自由意志論、道德理性論與人工智能的道德與理性加以深入分析的前提下,就斷然否定道義責(zé)任論,顯然難以令人信服,這也使得其有關(guān)人工智能可以成為犯罪主體的觀點(diǎn)缺乏哲理基礎(chǔ),這不得不說(shuō)是一大遺憾。又如,他認(rèn)為與人工智能犯罪相關(guān)的人類(lèi)犯罪主體是程序員與用戶(hù)等,就顯得過(guò)于狹隘。事實(shí)上,凡是與人工智能犯罪相關(guān)的主體,如人工智能的制造商、銷(xiāo)售商、服務(wù)商、程序員、所有者、使用者,以及別有用心的黑客等,均有可能因人工智能犯罪而被追究刑事責(zé)任。“有關(guān)危險(xiǎn)的有故障自動(dòng)駕駛車(chē)輛的一種顯著可能性是,法人制造商或相關(guān)實(shí)體,自我驅(qū)動(dòng)的硬件和軟件的提供商和服務(wù)商,可能會(huì)被視為‘操作車(chē)輛的人’而構(gòu)成犯罪?!雹貹ieran Tranter,The Challenges of Autonomous MotorVehicles for Queensland Road and Criminal Laws,16 QUTL.Rev.59,78(2016).

      就人工智能的處罰而言,哈利維的有些觀點(diǎn)還是具有可行性的。例如,對(duì)人工智能適用“死刑”,就較之對(duì)法人判處“死刑”(如注銷(xiāo))更具有可行性,因?yàn)樽N(xiāo)法人會(huì)“株連”法人中的大多數(shù)無(wú)辜成員,判處人工智能“死刑”則不會(huì)產(chǎn)生“株連”效果。又如,公益服務(wù)不失為針對(duì)人工智能的有效制裁措施。人工智能的許多技能人類(lèi)無(wú)法企及,公益服務(wù)能發(fā)揮其技能和作用。至于查尼博士所擔(dān)心的人工智能在提供公益服務(wù)時(shí)可能會(huì)危害社會(huì)的問(wèn)題,倒是沒(méi)有必要太在意。因?yàn)?,即使是人也存在同樣的?wèn)題,誰(shuí)又能保證犯罪的人不會(huì)再犯罪呢?但是,他認(rèn)為適用于人類(lèi)的刑罰大多數(shù)可以適用于人工智能,這種按部就班地套用模式是否可行值得進(jìn)一步探討,畢竟作為機(jī)械實(shí)體的人工智能不同于作為有機(jī)生命體的人類(lèi)。這使得其有關(guān)人工智能處罰的一些觀點(diǎn)遭至質(zhì)疑在所難免。例如,對(duì)人工智能處以監(jiān)禁刑和緩刑,恐怕難以達(dá)到像處罰人類(lèi)那樣的效果,至少對(duì)弱人工智能而言如此。因?yàn)椋斯ぶ悄苋舨痪邆淙祟?lèi)那樣的意識(shí)、思維和理性,通過(guò)對(duì)計(jì)算機(jī)程序等酌情加以改寫(xiě)、改良等,顯然比判處監(jiān)禁刑和緩刑更直接并且有利于實(shí)現(xiàn)處罰目的。至于哈勒維所主張通過(guò)調(diào)整處罰方式來(lái)對(duì)人工智能適用罰金,也是難以自圓其說(shuō)的。因?yàn)楣娣?wù)在性質(zhì)上不同于罰金,與其以公益服務(wù)替代罰金,不如直接處以公益服務(wù)。

      無(wú)論哈利維有關(guān)人工智能犯罪的理論觀點(diǎn)如何,都應(yīng)當(dāng)肯定其在人工智能犯罪上的開(kāi)拓性研究。迄今為止,哈利維對(duì)人工智能的罪與罰的研究,可以說(shuō)是最為全面的?!半m然目前的技術(shù)還不夠先進(jìn),以適應(yīng)哈利維的理論框架,但新興技術(shù)將使得其在未來(lái)得以實(shí)施是完全有可能的。雖然他的書(shū)后半部分的一些論據(jù)和類(lèi)比可以更加精煉,但哈利維的分析是全面的……”②Rachel Charney,Can Androids Plead Automatism – AReview of When Robots Kill:Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy,73 U.Toronto Fac.L.Rev.69,72(2015).,盡管哈利維對(duì)人工智能犯罪的分析缺乏現(xiàn)行法律基礎(chǔ),但其理論研究無(wú)疑極具探索性、建設(shè)性與開(kāi)創(chuàng)性,這對(duì)尚處于啟蒙階段之際的人工智能刑法研究可謂意義深遠(yuǎn)。

      (二)哈利維的人工智能犯罪觀之啟示

      哈利維有關(guān)人工智能犯罪的理論觀點(diǎn)本身如何已經(jīng)不重要,重要的是哈利維開(kāi)啟了人工智能刑法研究的先河,為人們認(rèn)識(shí)和理解人工智能犯罪提供了一面鏡子。正如查尼博士在評(píng)價(jià)《當(dāng)機(jī)器人殺人時(shí):刑法中的人工智能》一書(shū)所指出的,“在這本書(shū)中,哈利維為我國(guó)現(xiàn)行刑法框架中刑事責(zé)任能否適用于人工智能提供了一個(gè)很好的切入點(diǎn)”③Ibid.p.69,72(2015).。哈利維的相關(guān)理論顯然大大突破了傳統(tǒng)刑法理論的框架,給人們重新審視犯罪提供了新的視角與啟示。

      近年來(lái)人工智能發(fā)展極為迅猛,遠(yuǎn)超人們的想象?,F(xiàn)今的人工智能已經(jīng)不是孤立的,其背后是云計(jì)算和大數(shù)據(jù)。新一代互聯(lián)網(wǎng)在全球范圍的推廣應(yīng)用,將讓以人與人鏈接為特征的互聯(lián)網(wǎng),轉(zhuǎn)變?yōu)槿伺c人、人與物、物與物鏈接三位一體的物聯(lián)網(wǎng),大數(shù)據(jù)將井噴式涌現(xiàn)。而量子計(jì)算機(jī)的橫空出世,使得人類(lèi)擁有的計(jì)算能力,正處在指數(shù)級(jí)增長(zhǎng)的前夜。凡此種種,使得人工智能不斷取得顛覆性發(fā)展和進(jìn)步。①人腦因其復(fù)雜性以及未知性,而被許多人認(rèn)為是限制人工智能成為犯罪主體的關(guān)鍵因素。問(wèn)題在于,制造出類(lèi)人機(jī)器人并不需要對(duì)人類(lèi)大腦的功能完全掌握和了解,因?yàn)檠兄啤邦?lèi)人”人工智能也并不需要等待腦科學(xué)認(rèn)知原理的突破,只要獲得生物神經(jīng)網(wǎng)絡(luò)的介觀圖譜和神經(jīng)元及神經(jīng)突觸功能特性,就能制造出生物大腦工作模式和性能相當(dāng)?shù)闹悄軝C(jī)器,甚至涌現(xiàn)出自我意識(shí)。要在技術(shù)上達(dá)到這一點(diǎn)顯然較之對(duì)人類(lèi)大腦功能的完全掌握和了解要容易得多。因此,制造像真正的人一樣的人工智能應(yīng)當(dāng)不會(huì)太遙遠(yuǎn)。與此同時(shí),人工智能也越來(lái)越多地進(jìn)入人們的日常生活?!?017年12月30日,中國(guó)大陸首條無(wú)人駕駛運(yùn)行線路——北京軌道交通燕房線正式開(kāi)通運(yùn)營(yíng)。2018年1月初,北京市順義區(qū)無(wú)人駕駛試運(yùn)營(yíng)基地在奧林匹克水上公園啟動(dòng)。2018年2月,浙江宣布將建設(shè)首條超級(jí)高速公路,全面支持自動(dòng)駕駛。2018年3月,全國(guó)首批3張智能網(wǎng)聯(lián)汽車(chē)開(kāi)放道路測(cè)試號(hào)牌在上海發(fā)放?!雹谂砦娜A:《自動(dòng)駕駛車(chē)輛犯罪的注意義務(wù)》,《政治與法律》2018年第5期。預(yù)計(jì)未來(lái)10年,無(wú)人駕駛地鐵及汽車(chē)等將進(jìn)入全國(guó)各大城市運(yùn)營(yíng),深刻地影響人們的日常生活。

      人工智能的很多技能人類(lèi)難以比肩,但這并非意味著其不存在違法犯罪問(wèn)題。以人工智能車(chē)輛為例,雖然其安全性更佳,有時(shí)也會(huì)造成事故。隨著更多的人工智能車(chē)輛上路,引發(fā)的交通事故必然會(huì)越來(lái)越多。在司法實(shí)踐中,人工智能獨(dú)立實(shí)施犯罪的典型案例是機(jī)器人殺人事件。1981年,日本發(fā)生人類(lèi)第一例機(jī)器人殺人事件,受害人是名37歲的工人。③See Yueh-HsuanWeng,Chien-Hsun Chen&Chuen-Tsai Sun,Toward the Human-Robot Co-Existence Society:On Safety Intelligence for NextGeneration Robots,1 Int J SocRobotics,267,273(2009).此后,類(lèi)似事件屢見(jiàn)不鮮。例如,2015年6月29日,德國(guó)法蘭克福大眾工廠的一名工人被自己組裝的機(jī)器人殺死,同年印度工廠一名工人被機(jī)器人手臂上的焊條刺死。“在過(guò)去的30年里,僅在美國(guó)機(jī)器人就在工作場(chǎng)所殺死了至少26人?!雹躍.M.Solaiman,Corporate Manslaughter by IndustrialRobots at Work:Who Should Go on Trial under thePrinciple of Common Law in Australia,35 J.L.& Com.21,22(2016).

      于是,傳統(tǒng)的機(jī)器工具主義犯罪觀開(kāi)始受到質(zhì)疑,不少學(xué)者提出智能機(jī)器人、無(wú)人駕駛車(chē)輛等可以成為犯罪主體。甚至,以往否定人工智能法律人格的刑法學(xué)者,現(xiàn)在的態(tài)度也發(fā)生動(dòng)搖。如德國(guó)學(xué)者魏根特、瑞士學(xué)者格雷斯在2014年發(fā)表的一篇論文中反對(duì)人工智能成為刑罰主體⑤[瑞士]薩比娜·格雷斯、[德]托馬斯·魏根特:《智能代理與刑法》,載陳澤憲主編:《刑事法前沿(第十卷)》,第215頁(yè)以下。,但在2016年發(fā)表的一篇論文中卻承認(rèn)未來(lái)智能代理可以變成道德代理,并認(rèn)為彼時(shí)需要重新考慮人工智能的人格及犯罪主體地位問(wèn)題。“可以肯定的是,這些陳述是指我們?cè)?016年中知道的智能代理。然而,回顧近幾十年來(lái)計(jì)算機(jī)科學(xué)所發(fā)生的迅速變化,未來(lái)的智能代理將獲得使它們更像人類(lèi)的素質(zhì)和能力并非不可能。如果它們獲得反省和類(lèi)似于道德良知的能力,他們的人格問(wèn)題就不得不重新考慮了?!雹轘abine Gless; Emily Silverman; Thomas Weigend,IfRobots Cause Harm,Who Is to Blame:Self-Driving Carsand Criminal Liability,19 New Crim.L.Rev.412,417(2016).他們還認(rèn)為,洛克和康德等古典哲學(xué)家們以人的自我反思能力為基礎(chǔ)確立的人格方法,并沒(méi)有考慮當(dāng)代人工智能。⑦See note⑥,p.412,416(2016).

      在我國(guó),認(rèn)為人工智能可以成為犯罪主體的大有人在。如有學(xué)者認(rèn)為,智能機(jī)器人的行為應(yīng)受刑法規(guī)制,刑法視野下的智能機(jī)器人具有犯罪主體地位,能夠?qū)嵤┙^大部分犯罪并承擔(dān)相應(yīng)刑事責(zé)任,應(yīng)當(dāng)承認(rèn)機(jī)器人的限制性主體地位。⑧參見(jiàn)劉憲權(quán):《人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期。也有學(xué)者在充分考慮當(dāng)前人工智能發(fā)展水平的基礎(chǔ)上,主張其成為犯罪主體不能一蹴而就?!艾F(xiàn)階段只是在法律上賦予人工智能在某些具體的刑事犯罪主體資格,在特定的情況下,追究軍事智能武器的法律責(zé)任,類(lèi)似我國(guó)刑法規(guī)定的單位犯罪,人工智能犯罪類(lèi)型是具體和明確的,這也是現(xiàn)階段有效管控人工智能技術(shù)發(fā)展,解決法律沖突和法律規(guī)避的有效方式?!雹傧奶欤骸痘谌斯ぶ悄艿能娛轮悄芪淦鞣缸飭?wèn)題初論》,《犯罪研究》2017年第6期。還有觀點(diǎn)指出,“一個(gè)可行的思路是參考既有犯罪主體中的一些主體否定制度,比如間接正犯(否定他人的主體資格)、原因自由行為(延展行為人的主體資格)等問(wèn)題的立法模式,使人工智能恰當(dāng)?shù)剡M(jìn)入現(xiàn)有刑事主體立法框架,達(dá)到立法與處罰的協(xié)調(diào)”②王肅之:《人工智能犯罪的理論與立法問(wèn)題初探》,《大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第4期。。對(duì)于人工智能犯罪及相關(guān)理論,越來(lái)越多的人達(dá)成如下共識(shí),即應(yīng)當(dāng)注重科技創(chuàng)新未來(lái)發(fā)展可能帶來(lái)諸多法律問(wèn)題的預(yù)測(cè)與預(yù)判,與細(xì)節(jié)微觀處的探究,而不是全盤(pán)將這一前瞻性的理論研究作為“偽命題”一概排除。唯如此,法律才能彰顯生命力,否則是無(wú)視人工智能對(duì)社會(huì)帶來(lái)法律問(wèn)題的表現(xiàn),由此帶來(lái)的復(fù)雜社會(huì)難題也將越來(lái)越多。③參見(jiàn)馬治國(guó)、田小楚:《論人工智能體刑法適用之可能性》,《華中科技大學(xué)學(xué)報(bào)》2018年第2期。

      在人類(lèi)刑法發(fā)展史上,曾出現(xiàn)過(guò)將動(dòng)物甚至建筑物等作為懲罰對(duì)象的現(xiàn)象。啟蒙運(yùn)動(dòng)以后,隨著對(duì)犯罪本質(zhì)及刑罰目的等的認(rèn)識(shí)和理解的加深,動(dòng)物以及其他自然界實(shí)物逐漸被排除在刑法制裁之外。只有人類(lèi)作為智能生物有機(jī)體才具有行為和心理,具備犯罪成立所需的客觀要素和主觀要素,故而成為刑法規(guī)制的對(duì)象,這便是刑法人類(lèi)中心主義。其后,作為組織機(jī)構(gòu)的法人主體的出現(xiàn),一度被認(rèn)為對(duì)刑法人類(lèi)中心主義提出挑戰(zhàn)。不過(guò),法人犯罪無(wú)論是行為還是心理,均依托于法人背后的自然人。換句話(huà)說(shuō),法人犯罪仍然離不開(kāi)自然人的參與,故而認(rèn)為法人犯罪并未在真正意義上脫離刑法人類(lèi)中心主義。人工智能顯然與人類(lèi)和法人都不同,人工智能具有相對(duì)自主、獨(dú)立的行為與心理,而作為社會(huì)有機(jī)體的法人通常不具備人工智能所擁有的獨(dú)立而清晰的實(shí)物形象,其行為與心理完全依托于人類(lèi)。“機(jī)器人/法人類(lèi)比的問(wèn)題在于,法人和機(jī)器人之間存在本質(zhì)差異:在法律擬制的背后法人有實(shí)際的人,而完全獨(dú)立的超智能機(jī)器人則沒(méi)有?!雹躀gnatius Michael Ingles,Regulating Religious Robots:Free Exercise and RFRA in the Time of SuperintelligentArtificial Intelligence,105 Geo.L.J.507,516-517(2017).可見(jiàn),人工智能犯罪與法人犯罪有著本質(zhì)不同。因此,人工智能犯罪問(wèn)題無(wú)疑將會(huì)對(duì)傳統(tǒng)刑法理論造成挑戰(zhàn)與沖擊。

      首先,人工智能犯罪將對(duì)傳統(tǒng)刑法理論中的意志自由論提出挑戰(zhàn)。古典學(xué)派的意志自由論主張,任何人都有為善避惡的自由意志,犯罪是惡,有自由意志的人能夠避之而竟敢實(shí)施之,故而犯罪出于自由意志。⑤參見(jiàn)馬克昌:《近代西方刑法學(xué)說(shuō)史》,中國(guó)人民公安大學(xué)出版社2008年版,第50頁(yè)。由于人工智能不同于人類(lèi),因而能否根據(jù)自由意志論來(lái)認(rèn)定犯罪顯然是個(gè)問(wèn)題。人工智能作為一種機(jī)械實(shí)體,在物理特征上與日常生活中的機(jī)械物體并無(wú)本質(zhì)區(qū)別。但是,人工智能又具備感知、認(rèn)知等人類(lèi)才具有的智能,能獨(dú)立分析問(wèn)題和解決問(wèn)題。例如,AlphaGo在與人類(lèi)頂尖棋手的對(duì)弈中能下出精妙的圍棋著法,說(shuō)明其有自己獨(dú)立的判斷和自由意志。而谷歌公司開(kāi)發(fā)的AlphaGo Zero則可以像人類(lèi)初學(xué)者一樣在空白狀態(tài)下無(wú)監(jiān)督自主學(xué)習(xí),這無(wú)疑為人工智能產(chǎn)生獨(dú)立的意識(shí)和意志提供了技術(shù)根基。甚至,人工智能的某些意志表現(xiàn)力在形式上與人類(lèi)沒(méi)有什么區(qū)別??梢哉f(shuō),人工智能技術(shù)的發(fā)展,使得傳統(tǒng)意義上的人機(jī)之間由主體與客體的關(guān)系,逐漸演變成主體與主體的關(guān)系,這既是人工智能自由意志的體現(xiàn),也是其他機(jī)械實(shí)體無(wú)法比擬的。當(dāng)然,人工智能之自由意志又具有特殊性,如不受身體要素及環(huán)境要素等決定,通常只在計(jì)算機(jī)程序設(shè)置和容許的范疇內(nèi)得以體現(xiàn),等等。人工智能獨(dú)特的意志特征,顯然會(huì)對(duì)傳統(tǒng)刑法理論中的意志自由論造成沖擊。

      其次,人工智能犯罪將對(duì)傳統(tǒng)刑法理論中的道義責(zé)任論提出挑戰(zhàn)。古典學(xué)派的道義責(zé)任論通常站在非決定論的立場(chǎng)上,認(rèn)為在自由意志支配下實(shí)施的行為及其結(jié)果應(yīng)歸屬于行為人,可就其行為和結(jié)果從道義上對(duì)行為人進(jìn)行非難。①參見(jiàn)[日]大塚仁:《刑法概說(shuō)(總論)》,馮軍譯,中國(guó)人民大學(xué)出版社2002年版,第374頁(yè)。站在規(guī)范的立場(chǎng),道德之于責(zé)任是有特定意義的?!靶谭ㄒ约白鳛樾谭ǖ膱?zhí)行者的國(guó)家,也必須接受道德的批判。國(guó)家倫理性的問(wèn)題,在考慮責(zé)任論以及刑罰界限的時(shí)候,具有特別重要的意義?!雹赱日]曾根威彥:《刑法學(xué)基礎(chǔ)》,黎宏譯,法律出版社2005年版,第32頁(yè)。刑事責(zé)任年齡的確定、犯罪動(dòng)機(jī)與目的之甄別、從重與從輕處罰的規(guī)定以及對(duì)具體犯罪的處罰等,均體現(xiàn)了道德倫理等對(duì)定罪量刑的影響。通常認(rèn)為,人工智能是有自己的道德準(zhǔn)則的。例如,在一項(xiàng)研究中,學(xué)生們被要求與名叫羅伯維(Robovie)仿人機(jī)器人互動(dòng),參與者發(fā)現(xiàn)羅伯維有精神、情感和社會(huì)屬性。③See Melanie Reid,Rethinking the Fourth Amendment in theAge of Supercomputers,Artificial Intelligence,andRobots,119 W.Va.L.Rev.863,886-887(2017).但是,人工智能的道德是有別于人類(lèi)的。究其原因,在于人類(lèi)的道德是在歷經(jīng)復(fù)雜的社會(huì)關(guān)系與人際關(guān)系后通過(guò)抽象思維形成的;而人工智能既沒(méi)有經(jīng)過(guò)人類(lèi)那樣的漫長(zhǎng)成長(zhǎng)歷程洗禮,也沒(méi)有經(jīng)受過(guò)復(fù)雜的社會(huì)關(guān)系與人際關(guān)系浸淫,其道德是基于數(shù)據(jù)和算法的線性“思維”形成的。人工智能獨(dú)有的道德情感會(huì)引發(fā)許多問(wèn)題,如智能代理能否成為道德代理,可否因人工智能的獨(dú)特道德而對(duì)之歸責(zé),通過(guò)何種處罰方式實(shí)現(xiàn)對(duì)人工智能的道德非難,等等。這些問(wèn)題將對(duì)傳統(tǒng)責(zé)任理論框架下的定罪量刑造成新的挑戰(zhàn)。

      長(zhǎng)期以來(lái),在刑法人類(lèi)中心主義犯罪觀的支配下,人們總是難以接受人類(lèi)意外的其他實(shí)體成為犯罪主體,這就是為什么直到現(xiàn)在仍然有部分國(guó)家不愿意承認(rèn)法人犯罪的緣由。盡管法人犯罪的背后有人類(lèi)活動(dòng)作為支撐,但作為社會(huì)組織的法人能夠成為犯罪主體,對(duì)刑法人類(lèi)中心主義犯罪觀的挑戰(zhàn)是毋庸置疑的??上攵灰蕾?lài)于人類(lèi)活動(dòng)而能夠獨(dú)立實(shí)施犯罪的人工智能一旦可以成為犯罪主體,對(duì)傳統(tǒng)刑法理論以及刑法人類(lèi)中心主義犯罪觀的挑戰(zhàn),無(wú)疑是顛覆性的。盡管人們不愿意面對(duì),但隨著人工智能技術(shù)的飛速發(fā)展及其越來(lái)越廣泛的應(yīng)用,人工智能成為犯罪主體并非不可能。屆時(shí),我們所要做的不是愿不愿意承認(rèn)人工智能犯罪的問(wèn)題,而是如何應(yīng)對(duì)其挑戰(zhàn)的問(wèn)題,就像承認(rèn)法人犯罪并接受其挑戰(zhàn)一樣。從這一點(diǎn)來(lái)看,哈利維對(duì)人工智能犯罪的研究可謂未雨綢繆,其積極的理論價(jià)值與現(xiàn)實(shí)意義值得肯定。

      最后需要說(shuō)明的是,不管現(xiàn)在或者未來(lái)人工智能成為犯罪主體的理由如何充分,要想獲得犯罪主體身份必須要有立法的首肯。這是因?yàn)?,人工智能既不同于生命有機(jī)體的人類(lèi),也不同于社會(huì)有機(jī)體的法人,而是屬于一種新型、獨(dú)特的科技實(shí)體。對(duì)于這樣的新型實(shí)體,其成為犯罪主體的前提是必須要有刑法的明文規(guī)定。否則,便是背離罪刑法定原則,也是不可取的。

      猜你喜歡
      利維法人刑法
      的的喀喀湖
      法人征訂(新)
      法人(2023年9期)2023-12-01 14:50:14
      法人形象廣告
      法人(2023年9期)2023-12-01 14:50:12
      完善法人治理結(jié)構(gòu) 增強(qiáng)打造世界領(lǐng)先內(nèi)生動(dòng)力——中國(guó)石化完善法人治理結(jié)構(gòu)的實(shí)踐與思考
      過(guò)度刑法化的傾向及其糾正
      法律方法(2021年4期)2021-03-16 05:35:02
      非營(yíng)利法人破產(chǎn)特殊制度安排研究
      刑法適用與刑法教義學(xué)的向度
      刑法論叢(2016年3期)2016-06-01 12:15:17
      美醫(yī)生偷拍8000女患者
      中老年健康(2014年9期)2014-05-30 22:16:47
      釋疑刑法
      浙江人大(2014年6期)2014-03-20 16:20:40
      刑法類(lèi)推解釋禁止之證立
      法律方法(2013年1期)2013-10-27 02:27:48
      长兴县| 波密县| 临洮县| 永泰县| 沙湾县| 吉首市| 剑河县| 屯留县| 碌曲县| 盐山县| 舞阳县| 肥乡县| 孝感市| 饶阳县| 枣阳市| 灵川县| 宜阳县| 潜山县| 周至县| 榆林市| 黄骅市| 盐亭县| 钟山县| 长岭县| 措美县| 陈巴尔虎旗| 兴文县| 囊谦县| 临邑县| 安平县| 宜宾市| 吉安县| 共和县| 青海省| 莫力| 苍梧县| 诏安县| 柳州市| 体育| 遵义县| 广德县|