• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      強人工智能體刑事主體地位的否定及其法理辨析

      2022-11-24 17:51:26宗紹昊
      湖南廣播電視大學學報 2022年2期
      關(guān)鍵詞:論者刑罰意志

      宗紹昊

      (東南大學法學院,江蘇南京 211189)

      一、問題的提出

      自20世紀50年代人工智能這一概念被提出以來,經(jīng)過多年的技術(shù)與經(jīng)驗積累,人工智能已進入高速發(fā)展軌道。然而,發(fā)展與風險并存,人工智能體①越智能,其超出人的控制并制造法益侵害危險的風險也就越大。2015年德國大眾汽車制造車間內(nèi)發(fā)生的“首起機器人殺人案”以及世界上第一個獲得公民資格的機器人索菲亞說出的“我想毀滅人類”言論[1],更是大大觸碰到人工智能法學研究者們敏感的神經(jīng)。歐盟議會已經(jīng)開始進行相關(guān)法律規(guī)制的實踐,并通過了《就機器人民事法律規(guī)則向歐盟委員會提出立法建議》,為機器人創(chuàng)設(shè)“電子人”的法律主體地位,韓國、俄羅斯緊隨其后,其法案基本精神與歐盟基本一致[2]。在此過程中,規(guī)制人工智能技術(shù)風險的重要法律手段便指向?qū)θ斯ぶ悄荏w法律主體地位的承認。

      基于刑罰的嚴厲性以及刑法的后盾法地位,究竟要不要承認人工智能體的刑事主體地位成為眾多法律規(guī)制措施中的重要討論內(nèi)容。持肯定論者認為,強人工智能時代的智能機器人將不受研發(fā)者、生產(chǎn)者的控制,具有獨立的辨識和控制能力,可以實施程序設(shè)計和編制范圍以外的行為,并享有完全的權(quán)利,能夠承擔義務(wù),應(yīng)當成為刑事責任的主體[3]。在人工智能法學研究興起之時,該立場一度成為顯學。之后部分學者對肯定論立場展開了一系列反思,否定論由此誕生。持否定論者認為,人工智能體不可能具有罪責能力,其與法人存在根本差異,且權(quán)利與義務(wù)相分離,因而只能是人類所研發(fā)的高級工具[4]。此外,折衷論立場也很有影響。在其他部門法中,折衷論體現(xiàn)為賦予強人工智能體以法律擬制主體地位[5]。而在刑法中,折衷論體現(xiàn)為在不法階層中承認強人工智能體的行為主體地位,但在責任階層中否認其責任主體地位,是“具有行為能力而沒有責任能力的‘準主體’”[6]。三大立場之爭仍在持續(xù),需要研究的問題也更加凸顯。其一,部分持否定論者所反對的對象并未與持肯定論者保持統(tǒng)一[7],用反對弱人工智能體的觀點、例子否認強人工智能體刑事主體地位的論斷時常出現(xiàn)。其二,無論是持肯定論者還是持否定論者,其論證均存在邏輯跳躍現(xiàn)象,即跨越客觀不法階層中的危害行為要件而直接談?wù)撝饔^責任階層中的主體要件。持折衷論者雖然注意到了該問題,但其所堅守的教義學立場卻前后搖擺。其三,不同立場的論者往往采取點對點的模式進行討論,并聚焦于自由意志、權(quán)利與義務(wù)、罪責能力等問題,卻并未注意到這些問題之間關(guān)聯(lián)、遞進的關(guān)系,導(dǎo)致完整的邏輯鏈條一直未能顯現(xiàn)出來,最終影響論證強度。

      既然對“弱人工智能體不應(yīng)擁有刑事主體地位”的觀點已達成共識,討論對象便指向強人工智能體。雖然現(xiàn)有人工智能體均屬于弱人工智能體,強人工智能體是按照技術(shù)發(fā)展邏輯與愿景推演出來的產(chǎn)物,但法學研究依然可以未雨綢繆,對強人工智能體的刑事主體地位展開討論。合格的刑事主體應(yīng)是在其自由意志支配下自主選擇實施危害行為,并能最終實現(xiàn)自我答責,進而適用刑罰懲治。按照從階層式犯罪論(客觀不法階層、主觀責任階層)到刑罰論的邏輯對其討論范式進行重構(gòu),強人工智能體刑事主體地位應(yīng)當涉及行為的可解釋性要素、責任的可承擔性要素、刑罰的可適用性要素,以及雖不屬于主體要素但可能決定其范圍的現(xiàn)實必要性要素。這些要素依次相連、接續(xù)排列,前者可作為否定后者的關(guān)鍵理由,卻非唯一理由,由此奠定了全要素討論的必要性及其實質(zhì)上的相互關(guān)聯(lián)性。在此基礎(chǔ)上,只有滿足全部五個要求,強人工智能體的刑事主體地位才能得以證立;只要其中任一要求未被滿足,強人工智能體的刑事主體地位即應(yīng)被否定,只能處于客體地位。

      二、強人工智能體刑事主體地位肯定論及其理論缺陷

      持肯定論者在犯罪論層面選擇的是法教義學方法,意圖通過解釋現(xiàn)有刑法規(guī)范,將強人工智能體納入刑法的規(guī)制范圍。然而,將強人工智能體列為刑事主體面臨不符合刑事責任年齡以及限制或無刑事責任能力等實證法規(guī)定(如我國刑法第十七條、第十八條)的指責。對此,有學者認為可以“將人工智能的智能化程度作為衡量刑事責任年齡的指標依據(jù)”[8]。這種解釋明顯超越了實證法規(guī)范可能的文義射程而違背了罪刑法定原則最基本的要求。當持肯定論者費盡心思將強人工智能體的行為該當不法與責任之后,卻發(fā)現(xiàn)現(xiàn)行刑罰體系根本無法適用于強人工智能體,于是在刑罰論層面又運用立法論方法重構(gòu)整個刑罰體系,提出刪除數(shù)據(jù)、修改程序、永久銷毀三種新的刑罰類型[9]。由此可見,持肯定論者提倡的教義學路徑不僅備受實證法阻礙,其自身立場亦存在前后不一、搖擺不定的情況。

      (一)行為的可解釋性要素:具有信息黑箱屬性的強人工智能體無法被詮釋

      在階層犯罪論體系中,危害行為屬于客觀不法階層中優(yōu)先考慮的因素,至于主體有無自由意志、刑事責任能力等判斷則因體系性、目的性的考量而被放置于主觀責任階層。因此,不能越過危害行為直接論證強人工智能體是否可以以及如何擁有刑事主體地位。

      “鑒于‘人們只能對已經(jīng)理解的事物作出法律上的安排’,人工智能的可解釋性成為人工智能推廣和應(yīng)用以及解決其法律責任問題的前提條件?!盵10]假如強人工智能體無法解釋自身行為,或者我們無法對強人工智能體的行為進行解釋,就談不上對其行為進行法律上的認定或評價,也就無法實現(xiàn)其法律歸責,更談不上要不要承認其刑事主體地位。在持肯定論者看來,強人工智能體具備所謂的自主思考能力,擁有辨識和控制能力。姑且不論這種自主思考能力是否可以等同于自由意志,其能夠直接體現(xiàn)出的事實是強人工智能體設(shè)計者所鍵入的初始算法及數(shù)據(jù),與強人工智能體最終得出的答案或結(jié)論存在一定的差距。這種差距既是強人工智能體進行算法加工、處理的結(jié)果,也是行為可解釋性的解釋對象?!安粌H僅是數(shù)據(jù)的復(fù)雜導(dǎo)致了人工智能的信息黑箱問題,人工智能本身的思考方式也確實無法被看到?!盵10]這種強人工智能體信息處理的不透明以及決策過程的不可認知性和無法詮釋性,共同決定了其行為的不可解釋性。換言之,持肯定論者是知其然卻不知其所以然,只知道初始設(shè)置與最終行為之間存在信息和結(jié)論差距,并將其視為強人工智能體思考的結(jié)果,卻無法解釋其從何而來、為何而來。既然如此,對于無法解釋的強人工智能體行為就不能被認定或評價為危害行為。

      (二)責任的可承擔性要素:強人工智能體的刑事責任根基缺失

      既然強人工智能體的行為不可被解釋,則其便不可能實現(xiàn)自我答責,更不可能實現(xiàn)法律上的自我辯護,對其進行刑事非難成為空想。除此之外,從自由意志和權(quán)利義務(wù)關(guān)系的角度也可以再次論證強人工智能體責任的不可承擔性。

      1.強人工智能體意志不自由

      持肯定論者認為,強人工智能體可以眼觀六路、耳聽八方,具備遠超人類的素質(zhì)能力,當然存在自主意識,并能在這種獨立的意志之下控制自己行為的實施[11]。這種解釋背后隱藏著自由意志論證的缺失。自由意志即存在自己選擇、自主決定的自由能力。動物也有一定的意識,卻沒有人會認為其存在自由意志。因此,在以人為本的法律體系當中,驗證強人工智能體是否具備自由意志的標準只能以人為參照,具體包含構(gòu)造的模仿力、客觀的思考力以及主觀的情感力。

      就構(gòu)造的模仿力而言,自然科學界一直在嘗試令人工智能體產(chǎn)生自由意志,并提出了諸如人腦仿真、機器學習以及腦機對接等研究進路[7]。由于自由意志只能以人為標準,因而這些研究進路的核心特征都是模仿,即模仿人腦構(gòu)造、模仿人的好奇心、模仿人體運作機制等。甚至有人認為,只要能制造出完美的人工神經(jīng)網(wǎng)絡(luò),就可以實現(xiàn)強人工智能體自由意志的誕生。模仿的前提在于技術(shù)的高度發(fā)達以及對于人類本身的完全認知。然而,技術(shù)的有限性與人們對大腦構(gòu)造認知的有限性,共同決定了其不可行性。人類的大腦極其神秘,一些特殊的感知能力如常識、框架、直覺等[7],至今仍未得到合理解釋。人類對于大腦的探索從未停止也從未到達終點。在無法完全認知、無法解釋的情況下,就不能實現(xiàn)完整的技術(shù)復(fù)刻。就客觀的思考力而言,強人工智能體可以在預(yù)設(shè)的初始算法與數(shù)據(jù)之外獲取新知識,似乎具備一定的思考能力?!霸?深度學習)訓練的時候,我們從來不會告訴機器‘這是一只貓’。實際上是系統(tǒng)自己發(fā)現(xiàn)或者領(lǐng)悟了‘貓’的概念?!盵12]但是,并非所有的解釋均導(dǎo)向承認思考力,中文屋思想實驗[13]就是很好的例證。此外,強人工智能體自主學習的背后是研發(fā)者設(shè)定的初始意志在起作用,這種非天然產(chǎn)生的意志與人類的自由意志并不相同。就主觀的情感力而言,“人類理性的運作是心智的整體活動的一部分,其中有邏輯推理的影響,但也不可避免地與情感欲望相關(guān)”[2]。強人工智能體具備純粹的技術(shù)理性特征,與夾雜感性的人類理性相比存在本質(zhì)差異,讓冰冷的機器具備人類的情感比擁有思考力更難。

      2.強人工智能體權(quán)利義務(wù)關(guān)系不統(tǒng)一

      責任是違反義務(wù)所帶來的后果。因此,權(quán)利與義務(wù)相統(tǒng)一既是法律主體的基本特性,也是承擔責任的基礎(chǔ)。然而,強人工智能體的權(quán)利與義務(wù)相互割裂,根本無法實現(xiàn)統(tǒng)一。

      在權(quán)利問題上,強人工智能體無法具備權(quán)利意識,人類與強人工智能體之間也難以擁有權(quán)利共識。一方面,即便外部法律制度承認強人工智能體的權(quán)利主體地位,如果其自身沒有權(quán)利意識,權(quán)利將形同虛設(shè),承認行為本身也將失去意義。強人工智能體盡管存在一種不屬于自由意志的思考能力,但其存在目的是他設(shè)的,其自我發(fā)展、自我實現(xiàn)的目的缺失,在此基礎(chǔ)上就不可能具備權(quán)利意識。另一方面,“如果將法律主體資格僅僅理解為一種道德性權(quán)利賦予的話,那么這種權(quán)利的生成依賴于社會群體的心理共識”[14]。因此,人們對于強人工智能體社會成員身份的認可成為其能否具備權(quán)利的基礎(chǔ),并不受任何推理的影響。承認強人工智能體的權(quán)利意味著其與人類在法律上處于平等地位,造成的后果就是對強人工智能體的程序性修改、機械性拆卸以及日常性使用等行為,均需以強人工智能體的同意為前提。然而,無論是強人工智能體的研發(fā)者、生產(chǎn)者、使用者,還是社會大眾,根本不愿出現(xiàn)這種情況,權(quán)利共識無法達成。此外,從肯定論立場的論證邏輯看,還存在兩大邏輯悖論:其一,持肯定論者一方面在應(yīng)然層面認可強人工智能體理應(yīng)享有完全的權(quán)利[15],另一方面卻在實然層面不得不對其權(quán)利進行大幅度的限制②,因而在本質(zhì)上仍然沒有把強人工智能體當成是與人們平等的法律主體。持肯定論者還主張對強人工智能體的正當防衛(wèi)、緊急避險等權(quán)利進行嚴格適用[3],對于這種差異,持肯定論者指出這只是其“表現(xiàn)形式更為特殊而已,明顯區(qū)別于傳統(tǒng)法律主體的法律能力”[15]。既然已經(jīng)與根據(jù)現(xiàn)有實證法所證成的法律主體概念存在顯著區(qū)別,就很難認為強人工智能體屬于合格的權(quán)利主體。其二,財產(chǎn)權(quán)是所有權(quán)利的基礎(chǔ)[16],能否具備相對獨立的財產(chǎn)是判斷法律主體資格的實質(zhì)性要件[5]。對此,持肯定論者提出可由研發(fā)者、生產(chǎn)者或使用者將強人工智能體所賺取的報酬提至其所管理的賬戶作為其財產(chǎn)[5],并主張建構(gòu)強制保險制度、建立賠償基金等[4],避免出現(xiàn)財產(chǎn)不足以賠償?shù)默F(xiàn)象。但問題是,既然承認強人工智能體的權(quán)利主體地位,為何需要他人幫助管理財產(chǎn)?同時,強人工智能體是否均能獲取報酬?從現(xiàn)實情況看,人工智能體的盈利能力為零,今后能否實現(xiàn)從無到有也缺乏推導(dǎo)的事實基礎(chǔ)。從功能上看,并不是所有類型的強人工智能體都存在所謂的盈利能力。

      既然強人工智能體沒有自由意志,就無法承擔起法律所賦予的各項義務(wù);既然強人工智能體無法擁有自己的財產(chǎn),就不能負擔違反義務(wù)規(guī)范之后所帶來的賠償責任。更重要的是,責任承擔是雙向的,既包含強人工智能體自身承擔責任,亦包含行為人對強人工智能體承擔責任。由此,一旦承認強人工智能體的刑事主體地位,意味著對其實施修理、銷毀、涂彩、使用、丟棄行為可能構(gòu)成組織出賣人體器官罪、故意傷害罪、故意殺人罪、侮辱罪、強迫勞動罪、遺棄罪等。在研發(fā)者、生產(chǎn)者或使用者具備作為義務(wù)時,遇到見危不救等情形還有可能構(gòu)成不作為犯罪。由此帶來的后果就是公民對強人工智能體的行為處處受限,稍有不慎就有可能構(gòu)成犯罪,從而大大壓縮其自由行為空間。

      (三)刑罰的可適用性要素:對強人工智能體的刑罰論證進路閉塞

      刑罰的可適用性不同于責任的可承擔性,屬于犯罪成立之后應(yīng)考慮的事由,并以責任的可承擔性為前提。當前,無論是持肯定論者還是持否定論者,均認為現(xiàn)有刑罰體系根本無法懲罰強人工智能體。然而,對強人工智能體增設(shè)新刑罰亦不合理。

      1.刑罰屬性不符與目的不能

      從刑罰屬性看,基于刑法的特殊部門法定位,刑法具備不同于其他部門法的顯著特征?!靶塘P作為刑事責任的常態(tài)表現(xiàn)方式,是指由審判機關(guān)根據(jù)刑事立法對犯罪人適用的建立在剝奪性痛苦之上的最嚴厲的刑事制裁措施?!盵17]諸如刪除數(shù)據(jù)、修改程序、永久銷毀等所謂的新設(shè)刑罰類型均屬于技術(shù)性措施,與恢復(fù)原狀、吊銷營業(yè)許可、責令停產(chǎn)停業(yè)等并無本質(zhì)差別,因而根本稱不上是刑罰[4]。既然這些技術(shù)性措施并非刑法所特有的手段,意味著其從根本上違背了刑罰是最嚴厲的制裁措施這一本質(zhì)屬性,也不符合刑法法益保護的輔助性、最后手段性等品格[1]。既然三種手段均為技術(shù)性措施,則顯示出肯定論的另一個矛盾,即明明是由現(xiàn)實技術(shù)手段無法合理、妥善規(guī)制強人工智能體所帶來的風險為論證起點,卻又在論證終點轉(zhuǎn)過頭來尋求技術(shù)手段懲罰強人工智能體并試圖達到規(guī)制目的。更進一步講,如果能在事后發(fā)現(xiàn)并規(guī)制技術(shù)問題,則事前理應(yīng)也能做到。

      從刑罰目的看,報應(yīng)刑論與預(yù)防刑論兩大立場構(gòu)成了刑罰目的的基本內(nèi)容。雖然當前預(yù)防刑論有逐漸成為通說之勢,但目前的主流仍然是兼顧報應(yīng)刑與預(yù)防刑的并合刑論,即因為發(fā)生了犯罪并且為了沒有犯罪而科處刑罰。據(jù)此,為強人工智能體創(chuàng)設(shè)新刑罰必須考慮能否達成刑罰的目的。從報應(yīng)刑的角度看,刑罰是對犯罪的官方報應(yīng)[18]5?!皭簣蟮膬?nèi)容必須是惡害,惡報必須與惡行相均衡?!盵19]668換言之,只要強人工智能體實施了侵害或威脅法益的犯罪行為,司法機關(guān)就有理由對其施以相應(yīng)的刑罰。對強人工智能體創(chuàng)設(shè)刑罰似乎滿足報應(yīng)刑的要求,這也是肯定論受到一定認可的主要原因。從預(yù)防刑的角度看,刑罰還需達成預(yù)防強人工智能體二次犯罪(特殊預(yù)防)以及預(yù)防其他強人工智能體犯罪(一般預(yù)防)的效果,并通過威嚇或教育等方式來實現(xiàn)。但問題是強人工智能體可以被威嚇或教育嗎?基于構(gòu)造差異,對強人工智能體實施所謂刪除程序等措施,因其缺乏情感而不會使其產(chǎn)生痛苦、害怕心理,威嚇目的無法達成,同時因其缺乏自由意志而不會知錯就改、重新做“人”。既然前期無法通過預(yù)設(shè)的程序?qū)崿F(xiàn)特殊預(yù)防的目的,就不能期待東窗事發(fā)之后還能通過特殊預(yù)防達到規(guī)制目的,否則便自相矛盾。另外,持肯定論者提出的刑罰措施都是直接修改乃至銷毀手段,并不存在教育的空間。可見,即便是持肯定論者也不承認能達成教育目的。既然無法對強人工智能體的行為進行有效解釋就不可能實現(xiàn)刑罰的預(yù)防目的[10],既然無法實現(xiàn)預(yù)防目的動用刑罰便失去了意義。

      2.強人工智能體類比單位失當

      既然無法從正面論證強人工智能體可以承擔刑事責任,持肯定論者便另辟蹊徑,將其與單位進行類比,并據(jù)此肯定其刑事主體地位。然而,類比方法與類推解釋存在天然的關(guān)聯(lián)性,試圖通過這種路徑承認強人工智能體的刑事主體地位并非妥善的教義學方案,且違反了罪刑法定原則。此外,該觀點還存在以下弊端:其一,持肯定論者一方面稱強人工智能體與單位、自然人存在明顯區(qū)別[20],另一方面卻又在多種場合將上述三者進行類比、換算,從而陷入自我矛盾;其二,持肯定論者認為單位是自然人的整體意志,而強人工智能體是具備自由意志的個體,既然如此,就不能說僅僅是因為經(jīng)過了集合的流程就認為強人工智能體比單位更自由、更接近人;其三,雖然強人工智能體作出行為決策的流程類似單位,但是單位運作除了人力之外,還需實體性場所及財產(chǎn),而強人工智能體與財產(chǎn)權(quán)無涉,二者在概念的構(gòu)成要素上存在巨大差異,不能任意類比;其四,當前大多數(shù)國家并未承認法人犯罪[21],我國刑法雖然承認法人犯罪,但采取的是一種以自然人為基礎(chǔ)的折衷立場,即“將特定的自然人的犯罪視為單位犯罪,進而處罰單位”[19]178。按照通說,單位犯罪是指單位謀取非法利益或單位多數(shù)或全體成員以其名義謀取非法利益,由單位的決策機構(gòu)按照決策程序作出決定,并由直接責任人員實施,且刑法有明文規(guī)定的犯罪類型[22]。在此過程中,單位意志與個人意志的區(qū)分構(gòu)成單位犯罪與自然人犯罪的重要區(qū)別。但是,單位意志雖然是多個自然人意志經(jīng)過單位的提煉、總結(jié)與升華,其“背后的原理也是肯定群體中多數(shù)人的意志,最終的落實點還是在人身上”[14]。我國對單位犯罪的規(guī)定是無例外的雙罰制,即除了處罰單位之外,單位直接負責的主管人員和其他直接責任人員全部都要受到處罰,這也能體現(xiàn)單位犯罪成立依賴于自然人的理念。由此可見,在我國刑法語境下,單位犯罪指向的是單位背后的若干人,其刑事主體地位的獲得也源于個人。既然如此,自然人對強人工智能體所具備的優(yōu)勢也應(yīng)當適用于單位,很顯然這種當然的類比結(jié)論存在根本性的漏洞。

      (四)現(xiàn)實必要性要素:承認強人工智能體刑事主體地位無益于規(guī)制風險

      強人工智能體威脅論衍生了強人工智能體規(guī)制論。據(jù)此,現(xiàn)實規(guī)制的必要性成為持肯定論者的論證起點和重要論證依據(jù)。但實際上并不是只有賦予強人工智能體以刑事主體地位才能解決問題。

      首先,關(guān)于人工智能技術(shù)存在一定風險的認知已得到普遍認可,但是將其作為論證起點,并非可以理所當然地推導(dǎo)出賦予其刑事主體地位的結(jié)論,甚至根本不能推導(dǎo)出這一結(jié)論。既然人工智能技術(shù)存在諸多風險,未來的強人工智能體勢必會具備更大的風險。因此,出于控制風險考慮,人類必須將其掌握在自己的控制范圍之內(nèi),就更不能賦予強人工智能體以刑事主體地位?!叭斯ぶ悄艹瑥姷闹悄芴N含巨大的風險,必須處于人類的支配和控制之下,只能是法律關(guān)系客體而非主體?!盵23]對此,有學者認為,只有將強人工智能體列為刑事主體,才能使其受制于法律[23]。然而這僅僅是一種幻想,因為即便是強人工智能體也不能真正理解需要國民規(guī)范意識參與判斷的法律。

      其次,直接賦予強人工智能體以刑事主體地位,雖然簡化歸責流程、明晰歸責主體,但并不意味著可以實現(xiàn)妥善、合理的歸責結(jié)果。強調(diào)對強人工智能體的法律歸責,勢必會大大減弱甚至消解對其研發(fā)者、生產(chǎn)者及使用者的追責力度。其后果是強人工智能體背后的人可以置身事外,并以強人工智能體的自主意識、自我選擇等理由逃避法律追究。此外,由于懲罰強人工智能體根本無法起到威懾或教育作用,欲實現(xiàn)預(yù)防犯罪的目標,則必須對研發(fā)者、生產(chǎn)者、使用者的研發(fā)、生產(chǎn)、使用流程進行規(guī)范。由此可見,解決問題的關(guān)鍵還是在于人,對強人工智能體的規(guī)制歸根到底是對人的規(guī)制。賦予強人工智能體以刑事主體地位,看似是簡化了問題,實際上既不利于解決問題,還使得問題復(fù)雜化,因為不僅要追究人的責任,還要額外追究強人工智能體的責任。

      再次,隨著人的主體性逐漸覺醒,以人本主義為基礎(chǔ)的哲學體系形成并穩(wěn)定下來,至今仍然占據(jù)主流地位。可以說,只要作為刑法理論根基的人本哲學未被推翻,學者們便無法從哲學層面證成強人工智能體的主體地位[6]。隨著強人工智能體越來越智能,若其智慧遠超人類,則其終有一天會不甘心寄人籬下,以人類、強人工智能體為基礎(chǔ)形成的多中心主義將會演變?yōu)橐詮娙斯ぶ悄荏w為中心的一元論。而像強人工智能體這種沒有同情心、價值觀、道德觀的機器,是不會擁有對人類的敬畏之心的[5]。屆時,社會的中心是強人工智能體而不是人類,人類處于強人工智能體的控制之下將失去自由,這無疑是在走向人的毀滅。

      三、強人工智能體刑事主體地位折衷論及其理論缺陷

      折衷論在批判肯定論并對否定論進行部分修正的基礎(chǔ)上產(chǎn)生。持折衷論者立足于實質(zhì)的二階層犯罪論體系對不法階層中人的概念進行了擴張解釋,從而承認強人工智能體的行為主體地位。同時,在責任階層中對無刑事責任能力人進行了擴張解釋,將強人工智能體與兒童、精神病人進行同類劃分,從而否認強人工智能體的責任主體地位[6]。折衷論值得認同之處有三點:首先,研究對象聚焦于強人工智能體,與持肯定論者的研究對象保持統(tǒng)一;其次,旗幟鮮明地提出用教義學方案解決強人工智能體的刑事主體地位問題,擺脫了肯定論立場搖擺的弊端;再次,對肯定論立場的批評是合理的。而持折衷論者關(guān)于否定論無法合理解決正當防衛(wèi)、共同犯罪難題的觀點則值得商榷,在此觀點基礎(chǔ)上建構(gòu)的新模式也存在問題。此外,雖然持折衷論者對人以及無刑事責任能力的人進行了擴張解釋,但多次擴張解釋后獲得的是明顯超越文義射程的類推解釋結(jié)論,違反了罪刑法定原則。

      (一)否定強人工智能體的刑事主體地位不影響正當防衛(wèi)的認定

      持折衷論者認為,如果完全否認強人工智能體的主體地位,則強人工智能體對自然人的自發(fā)攻擊行為便無法被視為不法侵害,從而難以適用正當防衛(wèi)規(guī)則,只能轉(zhuǎn)向緊急避險規(guī)則[6]。雖然從理論上看,動物侵襲也可以稱得上是不法侵害,但按照我國刑法第二十條的規(guī)定,不法侵害只能由人來完成,強人工智能體不能成為實施正當防衛(wèi)的對象。在工具論的立場下,對強人工智能體背后的主人實施正當防衛(wèi)沒有問題,但二者并非在各種情形中都同時在場,且程序設(shè)定之后能不能阻止強人工智能體的侵害行為還存在很大的疑問。因此,當出現(xiàn)強人工智能體侵襲自然人時,自然人只能采取緊急避險措施。然而只能采取緊急避險措施也不一定意味著不利于自然人的人權(quán)保障、法益保護。持折衷論者之所以得出該結(jié)論,很大程度上源于其對緊急避險理論的誤解,認為緊急避險僅能向無辜第三人行使,根本沒辦法阻止強人工智能體的侵襲,而只能默默忍受、艱難躲避,當然不利于保護法益。其實緊急避險并非僅包含針對無辜第三人情形(即傳統(tǒng)的攻擊性緊急避險),針對危險源本身所實施的行為存在成立緊急避險的余地,此時屬于防御性緊急避險。我國刑法第二十一條并未涉及任何關(guān)于避險對象的限制,將其僅限于無辜第三人而不包含危險源本身的觀點于法無據(jù),目前大陸法系國家所承認的防御性緊急避險完全可以納入我國刑法體系而無任何障礙,這意味著自然人可以向強人工智能體這一危險源實施反擊行為。

      緊急避險措施也具備正當防衛(wèi)規(guī)則所不具有的優(yōu)勢,主要體現(xiàn)在危險性要件上。日本刑法理論將正當防衛(wèi)與緊急避險的危險性要件同等視之[24];德國及我國臺灣地區(qū)刑法理論則采取二分法,將緊急避險中的現(xiàn)實性危險區(qū)分為即刻性危險以及持續(xù)性危險[25],比正當防衛(wèi)中的危險概念更寬泛。筆者贊同第二種觀點。首先,緊急避險的危險源類型遠多于正當防衛(wèi),包括自然力造成的危險,動物襲擊造成的危險,疾病、饑餓等特殊情況形成的危險,人的危害行為造成的危險等[19]289。針對其中諸如自然力危險等情形,如果要求危險現(xiàn)實發(fā)生才可避險,則根本無法實現(xiàn)避險目的。其次,防御性緊急避險(又稱預(yù)防性正當防衛(wèi))本身與正當防衛(wèi)關(guān)系較為緊密,設(shè)置不同于正當防衛(wèi)中的危險概念有利于區(qū)分緊急避險與正當防衛(wèi)。再次,鑒于強人工智能體只是工具且可能會實施更加危險的行為,對自然人的法益保護就應(yīng)有更高的要求,緊急避險中危險判斷的決定性標準從損害是否立即發(fā)生演變?yōu)榧纯滩扇》烙袨榈谋匾跃哂泻侠硇訹26]。在此基礎(chǔ)上,危險正在發(fā)生的類型包括危險現(xiàn)實存在或者即將到來[18]253。

      至于持折衷論者所提到的緊急避險限度性要件嚴于正當防衛(wèi)從而不利于實現(xiàn)人權(quán)保障的問題,可采取如下解決方案:當緊急避險所引起的損害小于所避免的損害時,可以適用我國刑法第二十一條規(guī)定阻卻行為的違法性;當緊急避險所引起的損害等于所避免的損害時,可以適用期待可能性理論阻卻行為的責任[27];當緊急避險所引起的損害略大于所避免的損害時,由于此時僅產(chǎn)生了財產(chǎn)損失,基于刑法的謙抑性不宜由刑法介入處理,動用民事手段即可。由此,緊急避險的限度性要件仍未減弱對自然人的法益保護力度。

      (二)否定強人工智能體的刑事主體地位不影響共同犯罪的認定

      持折衷論者認為,如果將強人工智能體一概視為工具,則在共同犯罪中存在三大難題需要解決。一是當自然人幫助強人工智能體實施違法犯罪行為時,如果涉及的是一些罪狀內(nèi)容表述更具體、定型化程度更高的犯罪構(gòu)成要件時,持否定論者會得出幫助者無罪的結(jié)論。二是當強人工智能體脅迫自然人實施違法犯罪行為時,如果自然人不能緊急避險,就會被以正犯論處。而當強人工智能體控制自然人實施違法犯罪行為時,如果否認強人工智能體的間接正犯地位,就不能對自然人的侵害行為進行防衛(wèi)。三是持否定論者也無法解決對向犯的問題[6]。姑且不論其質(zhì)疑內(nèi)容是否合理,其“具有高度智力的強人工智能既可以自發(fā)產(chǎn)生獨立的犯罪決意,也完全可以在犯罪歷程中起到支配作用”[6]的觀點實際上滑向了肯定論立場。按其觀點,既然強人工智能體具備自主意志,可以自行選擇并決定行為,則應(yīng)賦予其主體地位。但如前所述,這種觀點從根本上存在問題。另外其所提出的三點質(zhì)疑,否定論完全可以進行妥善處理,理由如下:

      首先,無論罪狀內(nèi)容表達具體與否、構(gòu)成要件定型化程度高低,只要強人工智能體實施了相關(guān)違法犯罪行為,就意味著行為人通過工具實施了相應(yīng)的違法犯罪行為,就可以對行為人進行定罪處罰。以生產(chǎn)偽劣商品的行為為例,雖然行為人在表面上并未直接實施構(gòu)成要件行為,僅僅是為強人工智能體提供了一些原材料,但實質(zhì)上行為人是通過強人工智能體這一工具中介而實施了構(gòu)成要件行為。由此,行為人仍然屬于直接實施構(gòu)成要件行為的情形,應(yīng)對其進行定罪處罰。

      其次,當強人工智能體脅迫行為人實施違法犯罪行為時,即便行為人可能在某些特殊情況下未滿足緊急避險的構(gòu)成要件,但這并不意味著行為人構(gòu)成犯罪。因為在這種情形下,行為人的行為仍可能因缺乏實質(zhì)的可罰性,或是期待可能性而出罪。至于持折衷論者所稱自然人不知道行為的性質(zhì)就無法被視為不法侵害的觀點更是毫無道理,因為行為究竟有無法益侵害性只能是客觀判斷,與行為人知曉與否不存在任何關(guān)聯(lián)。據(jù)此,對實施法益侵害行為的自然人進行防衛(wèi)沒有任何規(guī)范上的障礙?;蛟S有人認為,出現(xiàn)強人工智能體脅迫或控制行為人違法犯罪時,由于強人工智能體的工具屬性,根本無法對其進行定罪處罰,這豈不是在放縱違法犯罪?然而,強人工智能體之所以能實施違法犯罪行為,與設(shè)計者、生產(chǎn)者及使用者存在密切關(guān)系。追本溯源,規(guī)制強人工智能體不如規(guī)制其背后的人。

      再次,持折衷論者認為否定論無法解決對向犯難題亦無根據(jù)。以代替考試行為為例,強人工智能體真的可以代替他人考試嗎?或許其知識儲備可以應(yīng)對考試題目,其機械構(gòu)造可以完成考試答題,但其外貌、行為舉止、聲音等可以以假亂真、蒙混過關(guān)嗎?并且就算強人工智能體可以經(jīng)過重重阻礙順利代替他人考試,但由于我國刑法第二百八十四條規(guī)定考試作弊類犯罪所打擊的均為二人以上參與實施的違法犯罪行為,因而在工具論視角下利用強人工智能體代替考試與自己作弊無異,未達到值得科處刑罰的程度,不需要刑法進行規(guī)制。因此,堅持否定論立場可以妥善解決共同或片面對向犯的難題。

      四、結(jié)語

      面對社會高速發(fā)展,通過解釋或修改法律以提升法律對于社會的應(yīng)變性是一項可行的舉措。置身于風險社會,面對強人工智能體所帶來的風險,在刑法領(lǐng)域展開討論是必要的。當我們身處強人工智能體刑事責任研究熱潮中,冷靜、理性地思考便顯得尤為重要。強人工智能體真的會產(chǎn)生嗎?賦予強人工智能體以刑事主體地位符合現(xiàn)有實證法規(guī)范、符合法律主體的要素嗎?有規(guī)制的現(xiàn)實必要嗎?論證過程融洽、合理、無矛盾嗎?賦予其刑事主體地位又會給人們帶來什么樣的益處?有什么樣的后果?等等?;谛谭ê蠖芊ā⑷藱?quán)保障法的地位,不宜輕動、輕改,刑罰不宜擅用。如果不對相關(guān)問題進行深入論證并一一回應(yīng)就倉促得出結(jié)論,刑法的根本屬性便會被動搖。強人工智能體或許會產(chǎn)生,但試圖通過承認刑事主體的方式達到規(guī)制目的既不符合法律和法理,也不會取得實效。因此,無論技術(shù)發(fā)展到何種程度,均不應(yīng)承認強人工智能體的刑事主體地位。

      注釋:

      ①要說明的是,人工智能是一個技術(shù)概念,而人工智能體是指具有智能性、實體性的人工系統(tǒng)。在要不要賦予其法律主體地位的問題上,本文討論的是具有實體性的人工智能體,即采用后一概念指代討論對象。

      ②強人工智能體只具有限制性的法律地位,只能享有部分從屬于自然人的權(quán)利,不具有生命權(quán)、健康權(quán),只享有部分自由權(quán)、尊嚴權(quán)、特定財產(chǎn)權(quán)(如深度學習后產(chǎn)生的數(shù)據(jù)權(quán))。參閱劉憲權(quán)、張俊英《人工智能時代機器人異化與刑事責任》,《法治研究》2019年第4期。

      猜你喜歡
      論者刑罰意志
      動物的“自由意志”
      大自然探索(2023年7期)2023-11-14 13:07:52
      Facing emotional impact of a warming planet 直面全球變暖造成的情感影響
      閱讀理解兩篇
      刑罰威懾力的刑法學分析
      活力(2019年22期)2019-03-16 12:49:24
      代運為名行詐騙 構(gòu)成犯罪獲刑罰
      斷鹽也是一種刑罰
      古代高危職業(yè)之諫論者生存指南
      學生天地(2017年7期)2017-05-17 05:49:29
      《西廂記》中的理性意志與自由意志
      康德是相容論者嗎?
      哲學評論(2016年2期)2016-03-01 03:42:25
      刑罰的證明標準
      人間(2015年22期)2016-01-04 12:47:28
      博罗县| 于都县| 十堰市| 凤山市| 枝江市| 梅河口市| 建阳市| 莱西市| 绥芬河市| 红安县| 班玛县| 崇州市| 鹤峰县| 通山县| 玉龙| 囊谦县| 都昌县| 保靖县| 博湖县| 高淳县| 定陶县| 临澧县| 贵南县| 寻乌县| 海盐县| 吉水县| 绥棱县| 武夷山市| 长岭县| 无为县| 独山县| 弥勒县| 兰考县| 西吉县| 南部县| 临澧县| 虞城县| 乐昌市| 徐州市| 星座| 乌兰察布市|