• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能時代刑法歸責(zé)的走向

      2018-05-28 05:26儲陳城
      東方法學(xué) 2018年3期
      關(guān)鍵詞:自控刑法機器

      儲陳城

      內(nèi)容摘要:隨著全面的人工智能時代即將到來,刑法作為回顧性法律,也需要對未來可能產(chǎn)生的風(fēng)險進(jìn)行提前性展望。由于人工智能技術(shù)的復(fù)雜性、裁量的獨立性和行為自控性等特點,使得現(xiàn)實中會出現(xiàn)人工智能因過失導(dǎo)致的法益侵害,存在無法歸責(zé)的空白地帶。對此歸責(zé)上的間隙,目前理論上形成了“機器人刑法”與“傳統(tǒng)刑法修正”兩套應(yīng)對方案。機器人刑法雖然在一定程度上會防止技術(shù)發(fā)展的萎縮,但是在刑法的主體、刑罰正當(dāng)化和自由意志等方面?zhèn)涫苜|(zhì)疑。而傳統(tǒng)刑法修正,雖然會保留刑法的本來面貌,但是會導(dǎo)致出現(xiàn)刑法介入過失犯的范圍過寬的局面。應(yīng)對人工智能時代的風(fēng)險,社會應(yīng)當(dāng)在保障技術(shù)發(fā)展的長遠(yuǎn)目標(biāo)的基礎(chǔ)上,限縮過失犯的成立,保持刑法的最后手段性。

      關(guān)鍵詞:人工智能過失犯歸責(zé)間隙機器人刑法

      一、問題的提出——人工智能領(lǐng)域過失犯中歸責(zé)的間隙

      機械隨著人類文明的進(jìn)程不斷地演進(jìn)。因為電子計算機技術(shù)的迅猛發(fā)展,任何信息都可以數(shù)據(jù)化,全球化的互聯(lián)網(wǎng)絡(luò)已經(jīng)形成,在這種技術(shù)的發(fā)展中,需要有法律的存在。作為機械相關(guān)的初期的法律規(guī)定,中世紀(jì)的礦業(yè)法,17、18世紀(jì)的制粉法等,工業(yè)革命時期,蒸汽鍋爐相關(guān)的立法也開始出現(xiàn),比如鐵路法的制定,其也成為現(xiàn)今責(zé)任法的基礎(chǔ)?!? 〕目前,機器人技術(shù)的進(jìn)步已經(jīng)日新月異。不受人的直接操作,獨自地根據(jù)周圍的環(huán)境,進(jìn)行目的指向性行動的機器(自控型或者部分自控型機器)正在走向人類的生活。未來隨著機器人技術(shù)的進(jìn)步,機器人將會和人類完全一樣自主地進(jìn)行活動?!白钥匦汀笔侵笝C器不受來自人類的指示,有判斷的裁量性,并且具有學(xué)習(xí)和適應(yīng)能力,使人無法預(yù)測其具體的行動。〔2 〕

      當(dāng)經(jīng)過了機器人作為人類的道具被使用的階段之后,接近奇點理論的時候,人工智能或者機器人開始脫離人類的控制,〔3 〕將會引發(fā)什么樣的問題?如果人類是將人工智能作為支配性工具而輔助性地使用的話,出現(xiàn)歸責(zé)問題時,基本上只要通過現(xiàn)行法及擴張解釋就可以應(yīng)對。因為,此時人類是作為主體行動,只不過是將人工智能作為工具而使用,最終的法律效果(權(quán)利和義務(wù))都?xì)w屬于人類,人類也應(yīng)該承擔(dān)法律責(zé)任。而與此相對,當(dāng)人工智能發(fā)展到近乎奇點理論的時候,人工智能或者機器人脫離了人類控制,現(xiàn)行的法律規(guī)則是否能夠全面應(yīng)對呢?

      當(dāng)然,無論是依據(jù)美國生化學(xué)家Isaac Asimov曾經(jīng)提出的機器人三原則,〔4 〕抑或是日本學(xué)者新保史生教授所提出的機器人使用的八原則,〔5 〕都絕對禁止故意生產(chǎn)、設(shè)計或者使用能夠?qū)θ祟惍a(chǎn)生法益侵害的機器。比如遠(yuǎn)程操作型的機器就會產(chǎn)生這樣的一般性問題:即因為該機器是遠(yuǎn)程操作,即便是遭到反擊或者逮捕,也不會受傷,因此這種機器可能會被人類惡意使用作為搶劫銀行的工具。即便沒有惡意使用到那種程度,也可能會通過遠(yuǎn)程操縱而破壞他人財物。還可能會因為網(wǎng)絡(luò)線路的故障,導(dǎo)致指示傳達(dá)的滯后,并出現(xiàn)射殺和意圖的對象不一致的其他人的結(jié)果?!? 〕對于設(shè)計、生產(chǎn)和使用這種機器人的主體,因為機器只是人類實施犯罪行為的工具,即便該機器人是自控型的,也可以利用和解釋間接正犯理論來對具體人進(jìn)行歸責(zé)。然而,在人工智能時代,刑法適用中成為問題的是過失犯領(lǐng)域,往往會出現(xiàn)歸責(zé)的間隙。

      以德國刑法學(xué)者約爾登教授曾探討的萊茵河案為例:在濃霧當(dāng)中,導(dǎo)航向正在與萊茵河流向呈平行線行駛的駕駛員發(fā)出指示,讓其向右轉(zhuǎn)彎。已經(jīng)50歲左右的駕駛員聽從該指示向右轉(zhuǎn)彎,使得自己和汽車一齊飛入到萊茵河當(dāng)中,致使駕駛員和同乘的乘客溺水死亡。導(dǎo)航大概是想讓駕駛員更容易地改變行駛路線,而在此處并沒有橫跨萊茵河的大橋存在,要想到達(dá)對岸必須要通過船運才可以實現(xiàn),認(rèn)識到這一點實際上并不困難。但是因為有濃霧,駕駛員沒有注意到,甚至都沒有踩剎車就跌入到萊茵河當(dāng)中?!? 〕關(guān)于此案,當(dāng)該導(dǎo)航只是普通的電子產(chǎn)品的時候,對于駕駛員和乘客的死亡結(jié)果,可以考慮追究導(dǎo)航制造者的刑事責(zé)任。其原因是,制造者可以預(yù)見到發(fā)生這種死亡事故的發(fā)生。另外,制造者應(yīng)該能夠預(yù)見到,導(dǎo)航在指示道路變更時,在有大霧等例外狀態(tài)中,會給駕駛員錯誤的指示的可能性,這樣或許可以通過程序設(shè)計來回避錯誤指示的出現(xiàn)。也可以通過設(shè)計程序,讓駕駛員在航道前停車。但是,如果該導(dǎo)航具備人工智能的屬性,通過設(shè)計者和生產(chǎn)者的初始設(shè)計,設(shè)定了行動目標(biāo)后,該導(dǎo)航系統(tǒng)擺脫了人類的控制,根據(jù)自己的判斷進(jìn)行學(xué)習(xí)、適應(yīng)。此時,該智能型導(dǎo)航因為錯誤導(dǎo)致駕駛?cè)藛T死亡的案件,又該如何處理呢?〔8 〕

      二、可能的解決路徑——德國刑法學(xué)界的爭議

      關(guān)于刑法應(yīng)該如何回應(yīng)上述歸責(zé)上的間隙問題,對此,德國學(xué)者分成兩派觀點。第一種是對刑法中已有的概念進(jìn)行修改、完善,開辟出刑法對機器人適用的可能性。這一派觀點的代表性學(xué)者是希爾根多夫教授。第二種則是直截了當(dāng)?shù)胤穸ㄐ谭▽C器人適用的可能性,強調(diào)刑法的人類中心主義,試圖通過對現(xiàn)行刑法理論的解釋、修正予以應(yīng)對。這一派的主流學(xué)者是貝克教授和約爾登教授。

      (一)機器人刑法之倡導(dǎo)

      行為、歸責(zé)、責(zé)任這樣的概念,一直以來都是不可侵入且不可變化的,被認(rèn)為是無法適用于機器的。即便機器是自主地進(jìn)行活動,但是因為該活動不屬于刑法當(dāng)中的行為,則對機器進(jìn)行責(zé)任歸屬,或者認(rèn)定責(zé)任都不具有可行性?!? 〕希爾根多夫教授認(rèn)為,這樣的立場是將機器人所惹起的損害,讓機器人自身承擔(dān)責(zé)任的可能性,先驗地予以完全排除。但是,認(rèn)定人類和機器人之間的差異是否存在何種理由呢?對于人類所適用的概念用于機器人時,猶豫不前,難道不是人類固執(zhí)地認(rèn)為“我們?nèi)祟愂仟氁粺o二的存在”所導(dǎo)致的嗎。〔10 〕

      一般的語法當(dāng)中,記號的意義并不是使用者單方所規(guī)定的,重要的是概念的接受者該如何理解。換言之,語言的共同體和解釋的同一性就是記號的意義所在。〔11 〕但是,即便是在同一的語言共同體中,也會存在同樣的表達(dá)出現(xiàn)不同的意思的情形,語言用法不明確的情形并不少見。因此,明確概念的方法還必須要進(jìn)行摸索。賦予概念明確意思的第一種方法就是注釋。所謂注釋,是對某個概念的意思進(jìn)行具體化,對該概念的各個標(biāo)準(zhǔn)進(jìn)行分析。比如刑法當(dāng)中將“奪取”這一概念,注釋為“侵害他人的占有以及確立新的占有”。〔12 〕與此相對,第二種方法是定義。定義,不管是在使用不明確的語言的時候,還是在通過定義來賦予語言新的概念的場合,都會使用到。通過定義可以設(shè)定占位詞,將冗長的表達(dá)予以簡略化(省略功能)。比如:德國《刑法》第11條第1項第1號當(dāng)中所規(guī)定的內(nèi)容:“本法律的意義中,1.所謂親屬是指:(a)直系血親、直系姻親、配偶、訂婚者、兄弟姐妹、兄弟姐妹的配偶以及配偶的兄弟姐妹;婚姻已經(jīng)不復(fù)存在的場合,或者血親關(guān)系、姻親關(guān)系消滅的時候,也是親屬。(b)監(jiān)護(hù)人和被監(jiān)護(hù)之子女?!?〔13 〕

      定義,并不是表述意思,而是通過規(guī)定來確定語言新的意思。因此,定義沒有正確和錯誤之分,只有相當(dāng)性(合目的性)程度的差異而已。這樣的話,語言的意思就不是不可變化的。也即,語言是在歷史的過程當(dāng)中不斷變化的,可以通過定義來改變其意義,可以賦予語言全新的內(nèi)涵。而且,正是在法律領(lǐng)域,通過新的解釋,使得概念適應(yīng)需求的變化,并使該變化不斷地延續(xù)。

      行為、責(zé)任這樣的基本概念并非只限于人類。比如民法和刑法上,因為存在法人的概念,因此作為責(zé)任主體的人的概念,并非沒有擴張的可能性?!?4 〕既然可以將行為、歸責(zé)、責(zé)任等概念,擴張到法人領(lǐng)域,自然將其也用于機器人的可能性就無法完全被否定掉。現(xiàn)在的語法絕非不可侵的,而是可以變更的。一般的語法在歷史的流程中不斷地變化,而在專門領(lǐng)域當(dāng)中的語法,可以通過應(yīng)用專門語法之目的而創(chuàng)設(shè)出來的定義進(jìn)行修正。

      第一,關(guān)于機器的行為,希爾根多夫教授認(rèn)為,行為被理解為通過意思而被控制的舉止,至少,機器人在外觀上看起來像是自己進(jìn)行的舉動。但是,確實機器人會四肢動作、發(fā)出語音,對周邊環(huán)境施加影響等,但是還不能明確地說這些舉止是基于意思進(jìn)行的控制。這其中的“意思”更可能是對機器進(jìn)行程序的人或者使用的人的意思,這樣的話,就會將機器的舉止歸屬于機器背后的人,而不是機器本身。要提出“機器行為”這一概念,就必須要在機器自身當(dāng)中找到和人類意思完全相當(dāng)?shù)囊馑迹@里往往會想到控制機器的程序。最為簡單的程序是,按照“遇到什么場合→做什么動作”這樣的組合來進(jìn)行設(shè)計,機器人在A狀態(tài)中,就會做出A動作,在B狀態(tài)中,就會做出B動作。這樣可能會妨礙機器基于意思而控制舉止的可能性了。鑒于人類原則上也是按照一定的規(guī)則,或者根據(jù)該規(guī)則的指引,來選擇行為舉止的,這樣的話,人類和機器進(jìn)行對比,將機器基于程序而進(jìn)行動作,表述為“意思控制”也具有可能性。

      但是,這一類比并沒有考慮“自由意志的問題”。自由意志當(dāng)中,以“人類不能(完全地)決定自己的舉止,和能夠自由決定”為前提,這一命題在刑法當(dāng)中尤為重要。當(dāng)然,在實務(wù)當(dāng)中,對于意思自由的結(jié)論是保留的。法官只關(guān)注否定意思控制的要件,比如無法抵抗的強制。這樣的話,機器人的行為也可以作同樣的評價。也即,機器也有行為能力,只需要在無法抵抗的強制這樣的因素存在時,否定行為即可。〔15 〕

      第二,關(guān)于對機器的歸責(zé)。希爾根多夫教授質(zhì)問,只有自然人才能成為責(zé)任主體嗎?民法上的企業(yè)能夠承擔(dān)責(zé)任已經(jīng)被予以認(rèn)可了,另外,考慮到很多國家甚至已經(jīng)認(rèn)可企業(yè)可以承擔(dān)刑事責(zé)任,〔16 〕那么自然人以外的主體承擔(dān)責(zé)任是可能的。原理上,肯定人類以外的非人類主體承擔(dān)責(zé)任是法律的自由范疇。因此,至少在概念上,肯定機器人的責(zé)任并沒有什么問題。另一方面,承認(rèn)責(zé)任的法律效果會怎么樣,則成為問題。機器人因為沒有財產(chǎn),所以不能判決機器人承擔(dān)損害賠償。但是,這一問題可以通過如下途徑解決,比如對于機器人的使用者,為了使得機器人能夠附著損害賠償?shù)牧x務(wù),需要強制性購買保險這樣的法律義務(wù)?;蛘叻梢?guī)定,所使用的每個機器人的時候,必須向銀行賬戶中轉(zhuǎn)入一定的存款,萬一發(fā)生機器人損害賠償?shù)臅r候,可以從中支取?!?7 〕

      第三,關(guān)于機器的責(zé)任能力,希爾根多夫教授認(rèn)為,要承認(rèn)刑法上的追責(zé),不僅需要行為能力,還必須以責(zé)任能力為前提。責(zé)任一般被解釋為“非難可能性”,1952年德國聯(lián)邦最高法院的判例當(dāng)中就意思自由作出如下判解:“通過責(zé)任這樣的無價值評價,行為者可以采取遵從法律的舉止,盡管能夠選擇適法的決定,卻沒有采取合法的行為,轉(zhuǎn)而決定選擇不法,就能夠被非難。責(zé)任非難的內(nèi)在根據(jù)是,人只要道德已經(jīng)成熟,只要這種自由且道德地決定自己行為的能力,沒有因為病理原因暫時性或者長時間地受阻甚至喪失,那么就視為具有自由、有責(zé)且道德地進(jìn)行決定的能力,因此可以選擇適法行為,抵抗不法行為,使得自己的舉止作為法律所允許的合規(guī)范行為,回避法律所禁止的行為。” 〔18 〕

      因此,德國聯(lián)邦最高法院就意思的自由持如下立場:“人只要沒有被病理所困擾,就可以在合法與非法、善與惡之間,自由地抉擇?!边@種意思自由是責(zé)任刑法的本質(zhì)性要素,在現(xiàn)今德國刑法領(lǐng)域廣受支持?;谶@樣的背景,初見之下,似乎無法肯定機器人的責(zé)任。但是,21世紀(jì)的腦科學(xué)研究,對意思的自由產(chǎn)生了質(zhì)疑,法學(xué)又恢復(fù)到將意思的自由視為是一種擬制的立場?!?9 〕如果意思自由只是一種擬制的話,那么這種擬制不就有擴張適用到機器人身上的可能性了嗎。擬制不是反映現(xiàn)實,有的時候甚至是和現(xiàn)實相反。擬制是基于合目的性這樣的觀點而被提出的,所以將機器人的自由意志作為一種擬制予以引入的話,也只有在滿足實際生活的必要性時,才具有可能。但是在目前,這種必要性還無法獲得認(rèn)同。和人類的處罰相類比,考慮對機器人進(jìn)行“處罰”,比起法學(xué)來說,更像是科幻的主題。要想變更機器人的舉止,雖然最簡單的方法是更改程序,但是,必須因為有自行學(xué)習(xí)的系統(tǒng),而使得程序更改無法奏效的時候,就需要討論能夠使得機器舉止發(fā)生變化的“危險補充”。但是,為了應(yīng)對這種“危險補充”,并不需要多重意義的刑罰。

      然而在法學(xué)上,實際上意思自由并沒有那么重要的意義。行為者的責(zé)任,只要滿足:1.責(zé)任能力;2.特別責(zé)任要素(比如德國《刑法》第315條c所規(guī)定的道路交通危險罪中的魯莽要素);〔20 〕3.責(zé)任過失、故意;4.不法的意識;5.免責(zé)事由不存在,就可以予以肯定。這其中完全沒有涉及到意思的自由問題。這可以說是德國刑法中的實際主義(或者即物主義),將意思自由這種形而上學(xué)的問題置于考慮的范圍之外。因此,只要機器具備上述5點要件的話,就可能認(rèn)定機器人的責(zé)任。這樣來看的話,可能會有人批判認(rèn)為,機器實際上并不具有理解所為不法的能力,不可能進(jìn)行實際的無謀行為。但是,對于這種批判,即便是人類,這種所為的“實際上”到底是什么意義,并不明確。另外,適用上述詞匯的時候,只是被單純的擬制,那是基于實務(wù)上的理由而被引入的,并不需要實際地闡明內(nèi)在的、心理的狀態(tài)。

      總而言之,希爾根多夫教授認(rèn)為行為、責(zé)任等概念可以用于到自控型的機器身上。這些概念只要有必要運用到機器人領(lǐng)域,就可以在法律的框架內(nèi),基于擴張解釋來對這些概念進(jìn)行必要的修正。雖然會出現(xiàn)形而上學(xué)的難題,但是意思自由這樣的問題,在實務(wù)上幾乎無需有所顧慮,而且人類的自由,對于國家來說也只是必要的擬制而已。基于上述的原因,對于機器人可以認(rèn)定行為、歸責(zé)和責(zé)任。

      (二)傳統(tǒng)刑法修正對策

      約爾登教授是反對機器人刑法的典型代表,他認(rèn)為關(guān)于用何種方法來判斷對機器人的決定是否應(yīng)承擔(dān)責(zé)任的問題,可以通過承認(rèn)法律中的自由行為起到何種作用這一觀點來解釋。這一討論雖然也在腦科學(xué)和哲學(xué)中被提出,但是重要的是,要區(qū)別從法律的角度來看的情形、從生活實踐中所見的情形、以及將來所見的情形。其認(rèn)為,自由行為為法律所認(rèn)定,是被告人從國家那里獲得作為主體的資格。因此,行為尚且不自由的情形下,比如法律視野下的兒童那樣,只能作為國家的客體予以對待。約爾登認(rèn)為人類的尊嚴(yán)、責(zé)任、有責(zé)性等概念如果沒有自由的概念的話,就沒有任何意義。人類是基于自由的決定而遵守規(guī)則的。而機器人的自由觀念和人的自由是無法相容的?!?1 〕

      那么通過傳統(tǒng)的過失犯論,應(yīng)對自控型的機器人所產(chǎn)生的歸責(zé)問題,會產(chǎn)生很多難題。因為要想成立過失犯,必須要有對注意義務(wù)的違反和對危險的預(yù)見可能性。

      而現(xiàn)在,機器人工程學(xué)當(dāng)中,注意義務(wù)劃定的參考標(biāo)準(zhǔn)幾乎不存在。界定注意義務(wù)的大致標(biāo)準(zhǔn)是作為工業(yè)標(biāo)準(zhǔn)的ISO標(biāo)準(zhǔn),或者是DIN標(biāo)準(zhǔn)。在使用這一標(biāo)準(zhǔn)的時候,必須要注意一些事項。〔22 〕

      第一,這些標(biāo)準(zhǔn)都是非國家組織所制定的民間標(biāo)準(zhǔn),未必和刑法上的注意義務(wù)標(biāo)準(zhǔn)相一致。因為刑法也保護(hù)部分的社會道德,和民間標(biāo)準(zhǔn)所要保護(hù)的利益并不完全一致。因此,即便是遵循民間標(biāo)準(zhǔn),也有可能會構(gòu)成過失犯。刑法和民間標(biāo)準(zhǔn)的保護(hù)目的之不同的一個例子是,刑法中所謂的“傷害”概念。按照DIN標(biāo)準(zhǔn),和機器人一起作業(yè)的人受傷的話,如果該受傷沒有出現(xiàn)出血的情況,那么應(yīng)該忍受身體侵害的危險,如果出現(xiàn)出血的話,則不需忍受該危險,也即違反了該標(biāo)準(zhǔn)。但是,刑法中的傷害的概念不以出血為必要,只以身體是否有重大傷害作為區(qū)分標(biāo)準(zhǔn)。

      第二,因為民間標(biāo)準(zhǔn)是非國家組織所制定的,所以其制定的標(biāo)準(zhǔn)缺乏民主主義的正當(dāng)性。這是因為,在制定標(biāo)準(zhǔn)的時候,參與制定的委員的選任方法、標(biāo)準(zhǔn)的起草以及最終采納的方法等,都不甚明確;而且,甚至和該標(biāo)準(zhǔn)相關(guān)的領(lǐng)域?qū)<叶纪耆珱]有參與。

      盡管有上述的疑問之處,但是實務(wù)界仍然對民間標(biāo)準(zhǔn)有著很大的依賴性。正是由于民間標(biāo)準(zhǔn)有著這種官方的印象,很多學(xué)者和制造商認(rèn)為,只要遵守民間標(biāo)準(zhǔn),就不會有法律上的問題。如果,開發(fā)者所設(shè)計的機器人對他人造成傷害,該開發(fā)者確信“只要遵從民間標(biāo)準(zhǔn)的就沒有問題”的話,雖然該確信對于認(rèn)定注意義務(wù)的違反沒有影響,但是有可能會否定他們的違法性意識。

      過失犯成立的第二個要件,需要要求危險的預(yù)見可能性。在利用自控型的機器人的時候,總覺得該機器人可能會造成某種損害,這很容易想象得到。比如,自動駕駛的汽車 〔23 〕、軍事機器人 〔24 〕等都是比較好的例證。但是,對具體的結(jié)果預(yù)見、因果經(jīng)過的基本部分等的預(yù)見,幾乎不可能。〔25 〕這是因為,自控型機器人有學(xué)習(xí)和適應(yīng)能力,使人無法預(yù)測機器人的具體行動。刑法上所要求的預(yù)見可能性,需要對該具體事實以及和因果關(guān)系相關(guān)的具體的預(yù)見可能性,那么這就無法對機器人的設(shè)計者等肯定其預(yù)見可能性。另一方面,如果將預(yù)見可能性理解為“大概可能會對人造成危險”這樣抽象的預(yù)見可能性的話,顯然會使得過失犯的范圍變得過于寬廣了。

      通過傳統(tǒng)的過失犯理論來解決有上述困難之外,自控型機器人領(lǐng)域的刑事案件的問題之復(fù)雜性,還遠(yuǎn)不止此。這是因為,機器人大多數(shù)都是在和人類打交道。也即,機器人的過失行為的原因,是因為設(shè)定機器人學(xué)習(xí)和適應(yīng)的程序設(shè)計者的行為導(dǎo)致的嗎?還是因為制造和販賣的人導(dǎo)致的呢?抑或是進(jìn)行訓(xùn)練和調(diào)整的利用者的行為呢?這調(diào)查起來非常困難,認(rèn)定誰擁有多大程度的過失,可以說是幾乎不可能完成的任務(wù)。

      作為這種情況下的責(zé)任分配的方案,能夠考慮的大概有以下四種方法:1.相關(guān)主體當(dāng)中的一人,比如利用者獨立承擔(dān)責(zé)任。2.相關(guān)主體當(dāng)中,只由能夠通過證據(jù)證明存在過失的人承擔(dān)責(zé)任。3.和機器人相關(guān)的所有的人,理解為一種新的法律人格,由這種新的法律人格來承擔(dān)責(zé)任。4.可以將機器人視為是對社會來說重要的存在,因此由機器人所產(chǎn)生的危險性、責(zé)任性應(yīng)由社會全體來分擔(dān)。這些解決方案的背景是,因機器人的利用而受益者,對于機器人的過失而應(yīng)該被課以金錢或者刑法上的制裁,機器的行為應(yīng)該歸責(zé)于受益者。即使這種機器的行為超過了正常人的預(yù)想。但是,在機器人的體系當(dāng)中,對過失行為、損害賠償進(jìn)行追責(zé)不是問題的所有。刑法本是只有回顧性地對犯罪進(jìn)行非難的機能,所以并不具有對這種現(xiàn)代性風(fēng)險進(jìn)行概括性控制的導(dǎo)向。

      針對上述復(fù)雜問題,能夠想到的解決對策之一,是對過失概念的修正。以下是這種修正過失犯論的核心。

      這種修正的過失犯論當(dāng)中,最早危險的抽象預(yù)見可能性,不能成為刑法中責(zé)任的標(biāo)準(zhǔn)。這是因為,汽車、核能發(fā)電等,雖然統(tǒng)計學(xué)顯示具有危險性,但是廣泛地被社會所接受?!?6 〕因此,要側(cè)重于設(shè)定注意義務(wù)的基準(zhǔn),這種注意義務(wù)的基準(zhǔn)不應(yīng)該用民間標(biāo)準(zhǔn)或者刑法以外的規(guī)定。如前所述,民間標(biāo)準(zhǔn)和刑法以外的規(guī)定,衡量比較某種行為的優(yōu)缺點,這樣的規(guī)范未必和刑法規(guī)范的保護(hù)目的不一致。因此,這種利益衡量無法直接用于劃定注意義務(wù)的標(biāo)準(zhǔn)。機器人的有用性和機器人所擁有的危險性衡量以后的結(jié)果,尚能夠為社會所接受的話,就應(yīng)該在“可容許的危險”的范圍內(nèi)進(jìn)行。

      在過失責(zé)任分配的時候,重要的要素是“信賴原則”。根據(jù)信賴原則的規(guī)定,所有的人原則上都可以信賴別人進(jìn)行合法行為?!?7 〕在機器人的體系當(dāng)中,這就意味著,比如自控型機器人侵害人類法益的時候,只要設(shè)計者、販賣者、利用者相互之間可以期待適法行為的話,任何人都不承擔(dān)責(zé)任,只有沒有實施被期待的合法行為的人,承擔(dān)侵害結(jié)果的責(zé)任。這樣來看的話,責(zé)任分配的結(jié)果要么是誰都免不了責(zé)任,抑或是誰也無法被證明有責(zé)任,那么誰都無法被處罰。

      但是顯然這又會產(chǎn)生新的歸責(zé)空白,為了填補上述責(zé)任上的空白地帶,也有觀點指出讓利用者完全承擔(dān)責(zé)任。此時,除了程序設(shè)計、制造時存在明顯的構(gòu)造上的缺陷,否則我們讓機器人代為實施的行為造成的損害,均由利用者來承擔(dān)責(zé)任。但是,這樣的歸責(zé)結(jié)果很難被接受。因為我們將判斷轉(zhuǎn)移給自控型的機器人,讓機器人代為行使,就是讓人類從判斷的負(fù)擔(dān)中解放出來。也即,是為了減輕人類的負(fù)擔(dān)?!?8 〕如果即便將判斷轉(zhuǎn)移,而機器人的行為必須由利用者來承擔(dān)責(zé)任的話,那么結(jié)果是人類的負(fù)擔(dān)并沒有予以實質(zhì)地減輕。比如長距離的運輸當(dāng)中,利用機器人來進(jìn)行自動駕駛的時候,雖然是將路線和速度調(diào)整等都交給機器人代為決定,但是如果因機器人判斷失誤而導(dǎo)致出現(xiàn)事故,事故責(zé)任由利用者來承擔(dān)。這樣一來,利用者必須不休息,一直注視著機器人的駕駛,這顯然需要利用者付出和自己駕駛同等程度的注意義務(wù)。那么,這種歸責(zé)方式顯然和使用自控型機器人的意義本末倒置了。這樣的話,與其為了避免責(zé)任上的空白地帶而采取上述不當(dāng)歸責(zé)方法,還不如讓社會容忍這種歸責(zé)空白地帶?!?9 〕

      三、人工智能歸責(zé)間隙的刑法應(yīng)對

      (一)對機器人刑法的回應(yīng)

      機器在運轉(zhuǎn)的時候發(fā)生的侵害法益之行為,能夠?qū)C器追究刑法上的責(zé)任嗎?或者說,機器應(yīng)該承擔(dān)責(zé)任嗎?當(dāng)計算機出現(xiàn)崩盤的時候,導(dǎo)致數(shù)據(jù)喪失,計算機的所有者基于憤怒,可能會對計算機施加私人的“處罰”,但是國家能夠基于刑事程序,對計算機施以國家層面的刑罰嗎?希爾根多夫教授將刑法中的行為、歸責(zé)、責(zé)任等概念進(jìn)行分析,認(rèn)為概念存在的重要性,需要考慮語言共同體當(dāng)中的合目的性,得出也可將時至今日只能適用于人類的刑法概念體系,擴張到人類以外的實體當(dāng)中的結(jié)論,并進(jìn)而創(chuàng)造出機器人刑法的概念。確實,在不久的將來,機器極有可能在沒有人介入的情況下,進(jìn)行決斷實施某種行為。此時,根據(jù)機器所遵守的原則,可能并不是在制造過程當(dāng)中所確立的,而是在其實際運轉(zhuǎn)過程中發(fā)生變化的原則,并且機器會根據(jù)自身需要進(jìn)行變更所遵守的原則。也即,人類開始對機器失去控制時,機器在運轉(zhuǎn)過程中所產(chǎn)生的法益侵害結(jié)果,到底由誰來承擔(dān),就成了刑法上的空白地帶,那么機器人刑法似乎成了必然結(jié)論。〔30 〕如果不讓人類來為機器的行為買單,機器人真的有為自己行為承擔(dān)責(zé)任的可能嗎?

      根據(jù)希爾根多夫教授的觀點,創(chuàng)設(shè)機器人刑法,可以通過對現(xiàn)行概念進(jìn)行修正,擴張適用到機器人領(lǐng)域。通過對自然人設(shè)定經(jīng)濟(jì)義務(wù),讓機器人在被追究刑事責(zé)任時有財產(chǎn)可供(罰金)執(zhí)行。這種觀點并非沒有任何意義。這一觀點,一方面使得遭受機器人過失侵害的被害者有獲得救濟(jì)的途徑,能夠緩解因機器人過失侵害無法受償所導(dǎo)致的社會恐慌和不滿。另一方面,通過對機器人進(jìn)行處罰,雖然實際上是由自然人實際負(fù)擔(dān)經(jīng)濟(jì)責(zé)任,但是卻實現(xiàn)了罪“刑”分離。也即雖然設(shè)計、生產(chǎn)、銷售和使用機器人的自然人可能會因為機器人的過失侵害,實質(zhì)背負(fù)罰金刑,但是因為不是犯罪主體,所以不會因為機器人的過失行為,而被認(rèn)定為犯罪。這會極大減輕自然人設(shè)計、生產(chǎn)、銷售和使用機器人的刑法成本,在過失犯領(lǐng)域,將自然人本應(yīng)承擔(dān)的刑事責(zé)任實質(zhì)轉(zhuǎn)化成為了只承擔(dān)民事賠償責(zé)任。考慮到刑事責(zé)任成本過高,會導(dǎo)致對技術(shù)創(chuàng)新造成萎縮效果,故這一觀點能夠保障人工智能技術(shù)的發(fā)展。

      盡管如此,批判機器人刑法觀點的聲音仍不絕于耳。創(chuàng)設(shè)機器人刑法的概念,第一個反對的聲音來自于刑法是只以人作為規(guī)制對象的傳統(tǒng)刑法觀念。這一觀念也被稱之為“刑法人類中心主義”?!?1 〕基于這一觀念,國家發(fā)動刑罰的對象則必須是人類。確實,刑法典當(dāng)中對此并沒有明確規(guī)定,但是大部分的規(guī)定都內(nèi)含著“實施……的人”這樣的用語,從中可以看出刑法所針對的對象也是人類。

      誠然,縱觀人類刑法的歷史,直至啟蒙時期,在刑法秩序當(dāng)中確實存在著很多非人類的實體,也即刑法曾經(jīng)經(jīng)歷過并非完全以人類為中心進(jìn)行建構(gòu)的時期。所謂的非人類的實體,包括動物或者物體。比如曾經(jīng)有刑法規(guī)定可以對作為犯罪發(fā)生場所的建筑物,或者行為人所住過的房屋進(jìn)行銷毀,即所謂的廢墟化。另外,還存在一種口袋之刑,即將罪犯和動物一起裝入袋子,沉入河中溺死的刑罰?!?2 〕甚至,還存在對物或者動物進(jìn)行裁判的刑事制度。但是,這種非完全以人類為中心主義的刑法,已經(jīng)在啟蒙時期到來之后基本消失。其后,刑法迎來了專門以人類為中心的時代。這里所言的人類,是指作為擁有自由地進(jìn)行行為的能力,且有理性的先天能力的個體的人類。換言之,即作為被課以需要遵守法律義務(wù)的國家市民的人類。這樣的話,動物或者其他物體已經(jīng)不再能夠成為刑法規(guī)制的對象、這是因為,動物或者其他物體不具有自由和理性的能力,而且,動物也不是國家中的市民組成。刑法進(jìn)入人類為中心的時代,標(biāo)志著刑法文明的巨大進(jìn)步。

      針對機器人刑法的第二個質(zhì)疑是,目的能夠?qū)⑺械氖侄味颊?dāng)化嗎?即對機器施以刑罰制裁,無法獲得承認(rèn)。即便現(xiàn)代刑法又返回非完全以人類為中心的時代,刑法可以規(guī)制機器人的行為,那么對于機器該如何施以刑罰呢?

      對此,有的學(xué)者認(rèn)為,可以對機器人進(jìn)行再程序化或者重新設(shè)計,即認(rèn)為機器人和人類不同,機器的制造者可以將機器人的程序信息全部抹消,將其恢復(fù)到和最初出廠時完全一樣的狀態(tài),然后,機器人就可以重新按照最初的程序來決定和定義自己的行為了。因此提議將機器予以再程序化融入到刑法的刑罰制度體系中去。〔33 〕這種刑罰的設(shè)置和當(dāng)前的刑罰體系格格不入。以德國刑罰體系為例,其主刑包括自由刑和罰金刑,而再程序化的處罰和這些刑罰無法相適應(yīng)。通過對機器人予以再程序化,顯然無法達(dá)到自由刑那樣的限制行為自由的效果;同樣,機器人沒有財產(chǎn)權(quán),通過再程序化也無法強制機器人支付罰金。

      那么是否可以將再程序化單獨列為一種獨立的刑罰呢?作為再程序化的對象是機器的“身體”“生命”或者“人格性”。如果將機器人作為和人類等同的人格主體的話,則針對這三者的處罰,都是為現(xiàn)代刑法所排除的刑罰手段。針對機器人的再程序化這樣的刑罰設(shè)置建議,實際上相當(dāng)于針對人類的生命刑及身體刑。換言之,機器人刑法是以將機器人視為與人類擁有同等程度的自控性人格為前提。對機器人實施再程序化,就相當(dāng)于對人類實施腦白質(zhì)切除術(shù),以強行改變?nèi)烁竦牟豢赡嫘砸粯?,對被承認(rèn)具有人格的自控型機器人,也就不能實施強制變更其內(nèi)置程序。再程序化應(yīng)該和人類死刑一樣被禁止。

      反對機器人刑法設(shè)立的第三個核心論點來自機器人刑法所主張的自由意志。誠然,自然人的自由意志也不過是一種虛擬,這種觀點為很多學(xué)者所認(rèn)同并主張。比如有學(xué)者提出“自由意志和他行為的可能性,完全無法證明”,因此認(rèn)為自由意志理解為規(guī)范的要求?!?4 〕井田良教授認(rèn)為,作為確定責(zé)任的有無和程度的基準(zhǔn)的自由和可能性,并不是經(jīng)驗性事實,而是規(guī)范的要求或者假設(shè)?!?5 〕高橋則夫教授則主張:“責(zé)任并不是作為實體的責(zé)任,甚至可以說一種社會的虛構(gòu)?!薄皼]有這種社會的虛構(gòu)的話,社會就無法存續(xù),結(jié)果、責(zé)任和刑罰,如果沒有將自由意思假設(shè)作為前提的話,也會成為無法存續(xù)的制度?!?〔36 〕但是,即便自然人的自由意志是基于規(guī)范的要求而作的法律之虛擬,也不能直接肯定機器人的意思之自由也是法律之虛擬。正如佐伯千仞教授所指出的那樣,刑法上的責(zé)任和意思自由即便是一種擬制,“那也是在社會生活的現(xiàn)實中有基礎(chǔ)的,絕不是被架空的”?!?7 〕自然人由于存在一定的社會基礎(chǔ),才能夠允許將自由意志進(jìn)行假定的話,那么機器人的責(zé)任和自由意志的假定,也必須要求有同樣的社會基礎(chǔ)。

      但是,到底容許自然人自由意志的社會基礎(chǔ)是什么呢?增田豐教授作出這樣的批判:“通過作為國家擬制的自由,對行為人歸屬責(zé)任的非難,對行為人課以刑罰的構(gòu)想,大概不會得到我們相互之間主觀的承認(rèn),也無法獲得正當(dāng)化?!闭J(rèn)定對行為人進(jìn)行責(zé)任歸屬,必須要具備“為追究責(zé)任的相互主觀的、交流的條件”。也即,“作為責(zé)任非難基礎(chǔ)的自由,即便是習(xí)慣性的存在,社會的、文化的構(gòu)成,也必須是先于國家擬制,相互主觀所構(gòu)成的現(xiàn)實”?!?8 〕總而言之,追究責(zé)任的一方和被追究責(zé)任的一方要處于相互對等的立場,也即,相互立場的交換可能性是責(zé)任(以及自由意志)的前提。進(jìn)一步來說,處于對等位置的人,基于共同認(rèn)識,來決定自由的意思,才能夠?qū)⒋俗鳛閿M制予以假定。那么,討論機器人的責(zé)任、自由意志的前提條件,也即追究責(zé)任的一方(自然人)和被追究責(zé)任的一方(機器人)需要被認(rèn)定具有對等性。然而,至少在目前,我們?nèi)祟惡蜋C器人之間的主觀交流和探討的基礎(chǔ)尚不存在。因此,自然人狀態(tài)下,承認(rèn)將自由意志予以擬制,這一理論原封不動地導(dǎo)入到機器人領(lǐng)域,尚不可行。

      (二)傳統(tǒng)刑法修正應(yīng)對策的評價

      自控型機器人的行為是無法進(jìn)行預(yù)測的,所以具體的預(yù)見可能性是無法被認(rèn)定的。因此,承擔(dān)過失責(zé)任的話,只以注意義務(wù)違反作為要件。對于該機器人,負(fù)有注意義務(wù)的人承擔(dān)責(zé)任,只有被證明違反了注意義務(wù)的人,才能承擔(dān)過失的罪責(zé)。如果沒有證據(jù)證明任何人有注意義務(wù)的違反的話,雖然會出現(xiàn)責(zé)任的空白地帶,但是鑒于刑法的謙抑精神,應(yīng)該將這種空白地帶讓社會全體來承擔(dān)。

      我國刑法學(xué)中的過失論是從蘇俄引入的,其特點是以法條關(guān)于過失犯罪的規(guī)定為中心進(jìn)行注釋性論述。隨著將過失的本質(zhì)確立為違反注意義務(wù),我國的過失理論最終完成了從蘇俄刑法學(xué)話語到德日刑法學(xué)話語的轉(zhuǎn)變,由此而使我國刑法中的過失理論獲得了生命力。在過去三十年間,我國對過失犯的研究從以法條規(guī)定為中心到以違反注意義務(wù)為中心,經(jīng)歷了一個過失犯理論的全面提升。

      那么日本的過失犯到底是怎樣的現(xiàn)狀?日本學(xué)者認(rèn)為,日本的判例對于過失責(zé)任的要件,雖然要求預(yù)見可能性,但是也并沒有要求達(dá)到具體的預(yù)見可能性,只要對“因果關(guān)系的基本部分”有預(yù)見的話,即已足夠?!?9 〕所以最后的問題是,在日本的判例當(dāng)中,什么是“因果關(guān)系的基本部分”?什么是預(yù)見可能性的對象?

      日本的判例,預(yù)見可能性的對象被理解的范圍相當(dāng)廣。比如,沒有認(rèn)識到車輛貨架上有人,而駕駛車輛,因為超速導(dǎo)致無法操縱,進(jìn)而沖撞到信號柱,使得貨架上的人死亡的案件中,日本最高裁判所認(rèn)為“對于魯莽地駕駛車輛會導(dǎo)致人的死傷等交通事故,這是應(yīng)該能夠予以認(rèn)識的”,因此認(rèn)定被告人成立業(yè)務(wù)上過失致死罪?!?0 〕另外,在最近的判例中,在以前經(jīng)常發(fā)生塌陷的人工沙灘,在新的其他地方發(fā)生了塌陷,被害人因為掉進(jìn)陷坑死亡。作為市政府職員的被告人被認(rèn)定,因懈怠而存在過失。相關(guān)的判例肯定過失時,要求必須有預(yù)見可能性,其預(yù)見對象是“因果關(guān)系的基本部分”。只要能夠認(rèn)識到該人工沙灘的其他地方以前曾經(jīng)發(fā)生過大規(guī)模的塌陷,那么就能夠預(yù)見對人的生命的危險,這就足以驅(qū)動(被告人)采取充分的結(jié)果回避措施,因此認(rèn)定成立業(yè)務(wù)過失致死罪?!?1 〕

      以上述判例的立場為前提的話,在所謂“懈怠該注意義務(wù),就可能出現(xiàn)該結(jié)果”的情況下,就會肯定預(yù)見可能性的存在。對于注意義務(wù),并不要求對具體結(jié)果的預(yù)見,只要預(yù)見到充分的危險性,就肯定需要履行結(jié)果回避義務(wù)。這樣的話,預(yù)見可能性和結(jié)果回避義務(wù)并不是相互獨立的成立要件,預(yù)見可能性是用于劃定結(jié)果回避措施、注意義務(wù)的內(nèi)容的前提?!?2 〕在日本的判例中,如果是將預(yù)見可能性作為劃定注意義務(wù)內(nèi)容的下位標(biāo)準(zhǔn)的話,Beck教授所說的,不需要預(yù)見可能性來修訂過失概念的必要性,至少在日本缺乏基礎(chǔ)。

      過失犯是風(fēng)險社會中典型的犯罪之一。所謂的風(fēng)險和危險不同,它是指因?qū)嵤┗蛘卟粚嵤┠撤N行為而產(chǎn)生的危險。比如說,受到地震侵襲的是危險,而雖然知道要發(fā)生地震,建造抗震的住宅,并繼續(xù)住在哪里,這就是承擔(dān)風(fēng)險。而這里所言的實施某種行為或者不實施某種行為,是指在法律規(guī)范中,不得為何種行為,或者應(yīng)該為何種行為等禁止、命令被規(guī)范化。在故意犯當(dāng)中,這種禁止、命令規(guī)范,包括構(gòu)成要件、行為人等的規(guī)定,對于一般人來說都是比較明確的,但是在過失犯當(dāng)中,構(gòu)成要件上,只規(guī)定了“基于過失而導(dǎo)致”這樣的描述,因此法官對于具體的案件,必須要補充的構(gòu)成要件的范圍就比較大,這也就是為什么說過失犯是“開放的構(gòu)成要件”的原因所在。因為過失犯是開放的構(gòu)成要件,對于過失犯的把握要非常謹(jǐn)慎。實際上,過失犯論的學(xué)說演進(jìn)從舊過失犯論的主流地位到新過失犯論和修正的舊過失犯論的并立格局,與目前對新新過失犯論的批判,都顯示出法學(xué)界對過失成立予以限縮的趨勢。〔43 〕

      在德國,2005年曾經(jīng)就針對醫(yī)療過失的過失處罰的限定,進(jìn)行過激烈的討論?!?4 〕并且在此之前,就過失處罰的限定的爭議,積累了大量的成果。不管是什么領(lǐng)域,對于過失犯的處罰都應(yīng)該予以限定。比如德國學(xué)者科赫就認(rèn)為,不僅是醫(yī)療過失等特定的領(lǐng)域,即便是一般的過失犯,其處罰也應(yīng)該予以限定。其后,德國學(xué)者都深受這一觀點的影響??坪找赃^失致死傷罪為例,認(rèn)為應(yīng)該限定處罰的根據(jù)包括:1.能夠減輕司法的負(fù)擔(dān);2.過失犯中,行為者的人格非犯罪人格;3.過失在事實上不具有回避的可能性;4.和其他領(lǐng)域中的評價相抵觸;5.存在所謂的偶然要素;6.在追訴的實務(wù)中,存在不平等現(xiàn)象;7.對于過失犯的處罰沒有任何實際意義等。〔45 〕

      顯然,日本對于過失的認(rèn)定過于寬泛,通過日本理論和判例所形成的過失犯的判斷框架,容易導(dǎo)致人工智能時代,人類所承擔(dān)的過失責(zé)任范圍過廣。在互聯(lián)網(wǎng)的背景下,不加限制地嚴(yán)格遵循擴張化的過失犯構(gòu)造,或許會導(dǎo)致網(wǎng)絡(luò)時代技術(shù)開發(fā)的萎縮效果。人工智能技術(shù)是現(xiàn)代工業(yè)文明發(fā)展的必然產(chǎn)物,自動駕駛汽車、人工智能醫(yī)療等將會對人類帶來諸多便利與福祉。人工智能的健康、快速發(fā)展,對于人類整體來說,利大于弊。因此,我們在處理人工智能的刑事歸責(zé)問題時,必須要維持秩序與變革、守護(hù)與創(chuàng)新、價值與事實之間的動態(tài)平衡?!?6 〕

      (三)人工智能初期歸責(zé)問題中刑法的定位

      如果說刑罰是對責(zé)任進(jìn)行非難的話,存在“歸責(zé)的間隙”的時候,因為不存在對無責(zé)任進(jìn)行處罰的觀念,所以不能直接適用現(xiàn)行刑法來解決問題。這就必須要慎重地討論通過現(xiàn)行刑法解釋進(jìn)行解決的可能性及其界限。

      刑法要應(yīng)付完全自控型機器所帶來的法益侵害,可能只有兩種選擇路徑。其一是,如前所述的那樣,現(xiàn)行刑法中的規(guī)定,因為無法對完全自控型的機器人進(jìn)行抓捕以及處罰,只能通過將過失概念作寬松化理解,讓制造者、販賣者以及使用者來承擔(dān)責(zé)任。但是,將刑法作為對犯罪進(jìn)行非難來理解的話,尚處于初級階段的技術(shù)產(chǎn)業(yè)都沒有明確的規(guī)制標(biāo)準(zhǔn),而這種需要予以追責(zé)的行為還沒有明確的細(xì)則的話,刑法是不能夠予以介入的?!?7 〕另外現(xiàn)實上也是如此,完全自控型的機器這一技術(shù)自身是非常復(fù)雜的。因此,基于前述的累積效應(yīng),即便是在經(jīng)過了開發(fā)、制造階段之后的利用階段,也可能會陷入無法預(yù)測的事態(tài)當(dāng)中。在使用這種完全自控型的機器時,雖能夠認(rèn)識到會有一些危險性,但是這種極為抽象的預(yù)見可能性是不能作為過失責(zé)任的基礎(chǔ)的。而且因為技術(shù)的復(fù)雜性,使得結(jié)果歸責(zé)的證明變得幾乎不可能。另一個可能的路徑就是,比如在醫(yī)療、護(hù)理、道路交通等和人的生命息息相關(guān)即便是再小的失誤也不能夠被允許的領(lǐng)域當(dāng)中,將完全自控型的機器一律作為刑法所禁止的對象。但是,這樣的話,通過刑法來表明禁止的態(tài)度過于寬廣了,這就會對自由造成過度的限制。這無論是對于醫(yī)生或者患者來說,都是弊大于利的事情?!?8 〕另外,被禁止的領(lǐng)域中的機器人的開發(fā)、研究,在事實上就被制約了,這便嚴(yán)格限制了研究和學(xué)問自由的發(fā)展?!?9 〕大凡尖端技術(shù)都會蘊含有不確定的要素,如果都通過刑法的介入來勉強進(jìn)行解決的話,那么就會使得尖端技術(shù)可能給人類社會帶來的利益也被消解掉了。

      因此,通過現(xiàn)行刑法來應(yīng)對完全自控型機器非常困難。雖然可以通過刑法的修正或者補充立法,來對部分自控型機器人的法益侵害行為找到歸責(zé)主體。但是,這種立法也并不是完全沒有限制。因為,罪刑法定原則的存在,對于行為要素必須要有嚴(yán)密且明確的規(guī)定,否則就視為違反了明確性原則。也即,如前沿技術(shù)那樣,在很多領(lǐng)域還有大量未知的因素,不應(yīng)該通過刑法這種回顧的視點,而應(yīng)該求諸其他法當(dāng)中那種展望性視角,即軟化的對應(yīng)策略,通過刑法來規(guī)制并不是適當(dāng)?shù)姆椒?。另外,完全自控型的機器,使得人類的判斷一部分被讓渡,因此部分承擔(dān)了人類的責(zé)任,這使得責(zé)任性被擴散開,這進(jìn)而導(dǎo)致對值得非難的行為無法單獨地予以定義。此時刑法還不是出場的最佳時機。不管是對完全自控型機器自身進(jìn)行處罰,還是讓相關(guān)自然人承擔(dān)“連帶”處罰責(zé)任,都是違反刑罰的目的。所以,刑法的目的不僅僅是消除危險性,還有保障行為者自由的一面。在面對行為人的自控性和人的尊嚴(yán)的基礎(chǔ)上,刑法只能對明確應(yīng)該非難的行為進(jìn)行補充性地處罰,這才是刑法的目標(biāo)。基于這種明確性的原則、責(zé)任主義和補充性原則的考慮,對于先端技術(shù),刑法應(yīng)該秉持謙抑的態(tài)度。

      雖然如此,由先端技術(shù)所引起的,明確應(yīng)該非難的行為而導(dǎo)致的法益侵害之情形,并不是無法想象。比如通過遠(yuǎn)程操作機器人來搶劫銀行就是其中一例。這種只是將機器作為犯罪手段的場合中,將責(zé)任歸責(zé)于操縱者并無特別的障礙。

      關(guān)于對部分自控型的機器進(jìn)行遠(yuǎn)程操縱的過失責(zé)任,比如通過互聯(lián)網(wǎng)來進(jìn)行操作,但是由于互聯(lián)網(wǎng)服務(wù)提供商技術(shù)上的漏洞,而使得通信變得不穩(wěn)定,導(dǎo)致操作滯后進(jìn)而出現(xiàn)自動駕駛汽車沖撞使人受傷的場合。原則上,可以挪用信賴原則,以操縱者信賴能夠穩(wěn)定地使用網(wǎng)絡(luò)這樣的基本理論來尋找歸責(zé)的主體。但是,如果同樣的案件發(fā)生在農(nóng)村地區(qū),能夠容易想象到信號不穩(wěn)定,無法信任通信的穩(wěn)定性的時候,使用人知道存在能夠使得現(xiàn)場的人陷入操作不能的風(fēng)險,似乎沒有任何可以避免侵害產(chǎn)生的時候,那么使用人可以被課以節(jié)制使用這種機器的義務(wù)。但是即便如此,比起刑法,活用道路交通安全法等公法或者民法中的賠償性規(guī)定更為妥當(dāng)。

      結(jié)語

      在完全自控型的機器的情形中,基于他們具有把人類的判斷被部分轉(zhuǎn)移進(jìn)而減輕人類的負(fù)擔(dān)這一性質(zhì),人類的責(zé)任要相對地減少。另外,處罰機器自身沒有任何意義,刑法出面的必要性已然不大。但是也有極少數(shù)例外,在一定領(lǐng)域中使用完全自控型機器的危險性能夠非常容易估計到,該機器的利用并非對社會有益,而只是有利于利用者個人的利益,且非常容易陷入無法控制的狀態(tài)的話,是可以通過過失來追究自然人的責(zé)任的。鑒于有追究完全自控型機器利用者的責(zé)任的例外情形,雖然可以通過制定應(yīng)對機器人的特別刑法的可能,但是不限于刑事規(guī)制,通過其他法律制度來進(jìn)行規(guī)制也是可以解決問題的。如果該機器的侵害性很高,無法獲得社會的一致認(rèn)可的話,也可以對這部分機器的利用予以禁止。如上所述,刑法對于先端技術(shù),不應(yīng)該過于積極地介入。刑法不應(yīng)該對于先端技術(shù)的發(fā)展產(chǎn)生使之萎縮的危害效果。但是反言之,刑法也有保障國民自由的使命,因此為了技術(shù)發(fā)展而導(dǎo)致社會不安定顯然也不是社會所期待的。刑法也必須在一定程度上進(jìn)行回應(yīng)。

      猜你喜歡
      自控刑法機器
      機器狗
      機器狗
      哲理漫畫
      我國刑法立法效益提高的制約因素與實現(xiàn)途徑思路構(gòu)建
      刑法修正案研究述評
      中國刑法立法晚近20年之回眸與前瞻
      刑法修正案的立法方式考察
      神奇的獨眼機器
      定襄县| 长沙县| 广平县| 阿拉善左旗| 汾西县| 常山县| 鹿邑县| 石屏县| 和顺县| 任丘市| 巩留县| 清徐县| 四子王旗| 太保市| 报价| 罗定市| 塘沽区| 阿城市| 临夏市| 荔波县| 汉寿县| 元朗区| 南木林县| 昆明市| 邵武市| 平乐县| 全州县| 吉安市| 宜兴市| 林西县| 九龙县| 奉化市| 昌图县| 罗甸县| 富宁县| 昌江| 望城县| 桓仁| 通渭县| 咸宁市| 治多县|