劉文燕,陳思宇
(東北林業(yè)大學 文法學院,黑龍江 哈爾濱 150000)
人工智能的熱潮持續(xù)高漲,我們不僅需要在這一浪潮中保持冷靜克制的態(tài)度,而且應該突出刑法的預防性,預防在這一浪潮中怎么規(guī)避刑事犯罪的風險。大膽地承認強人工智能的刑事責任主體地位,這將關系到人工智能時代各種復雜社會現(xiàn)實問題能否得到妥善有效的處理,也將關系到中國的刑法學的理論走向問題。在人工智能可能造成犯罪風險加大的社會中,一直以來作為公法的刑法的價值觀念需要得到進一步的明確與更新,刑法也需要緊跟上時代發(fā)展的步伐更好地發(fā)揮其作用,防范人工智能時代的刑事風險,讓人工智能在法律的框架內(nèi)健康有序的發(fā)展。
人工智能技術的不斷發(fā)展,逐漸打破了機器一直以來都只能是人類的工具這一刻板印象,人工智能在我們生活中應用的領域更加廣泛,也更加的普遍,例如智能化物流從部分地區(qū)試運行逐漸變成普遍現(xiàn)象。在抗擊新冠疫情期間,人工智能在很多領域尤其是外賣、快遞和醫(yī)用護理方面發(fā)揮了重要作用。無人駕駛汽車發(fā)展迅速,蘇州更是成為了中國首個允許無人巴士在公路上常態(tài)化運營的城市。
現(xiàn)階段的人工智能處于弱人工智能時代,沒有自主的行為,不存在人工智能自主犯罪,雖然部分人工智能已經(jīng)基本實現(xiàn)與人類進項簡易對話,如小米旗下的小愛同學(語音助手),但是這并沒有超出設計者的編程范圍,在現(xiàn)階段的人工智能只是一個技術性質(zhì)的詞語,是對智能工具的形容,并不具有主體指代性?!暗?,人工智能客體說落入傳統(tǒng)思維窠臼,僅將人工智能視為單純的工具物,而有意忽視人工智能的相對能動性及其對法益的獨立侵害能力,企圖通過修正傳統(tǒng)過失理論克服智能時代的刑事制裁困境,其觀點亦值得商榷。”[1]人工智能是否會完全脫離工具屬性,甚至是超越人類,也就是技術奇點是否會到來,不同的學者有不同的見解,雷·庫茲韋爾認為這個時間節(jié)點一定會到來,而且就在2045年。小池淳義認為“技術奇點是人類長期辛勞集聚而成的成果,完全不是什么特殊的事物。但是能否意識到它的重要性,正確推進它的實現(xiàn),將決定人類未來的命運?!盵2]
對于人工智能主體說持否定態(tài)度的學者認為在現(xiàn)有技術條件下談論強人工智能的出現(xiàn)為時過早,即便是未來再來討論這個話題也是流于科幻,但是技術的發(fā)展我們不能忽視,隨著人工智能的不斷更新迭代,它在不斷地升級學習與日常工作后,也會對人的指示的目標產(chǎn)生疑問,甚至會判斷人的指示是否正確。對待人工智能我們要用發(fā)展的眼光來看待,反對將人工智能視為法律主體的學者只專注于現(xiàn)階段的技術發(fā)展,沒有做到用發(fā)展的眼光看待問題,現(xiàn)階段的技術短板不應成為阻攔強人工智能作為刑事責任主體的因素。
“危害實現(xiàn)的可能性越高,國家強制干預的必要性越大。”[3]漠視機器人革命的到來,只會造成學術研究、立法干預和社會發(fā)展的孤立,人工智能的發(fā)展和應用不應當出現(xiàn)刑法規(guī)范上的漏洞。刑法需要遵循謙抑性的原則,但是保持謙抑性并不等于要保守研究。法學研究能跟上時代發(fā)展的潮流,保持一定的前瞻性也同樣重要,只有保持了一定的前瞻性才能更好的保持刑法的穩(wěn)定性,也能更好的保障人民的權益。例如,《刑法修正案十一》回應了諸多社會熱點問題,其中,降低刑事責任年齡最為突出。此前,媒體多次爆出不足十四周歲的未成年人以特別殘忍的手段致人重傷、死亡,引來對刑事責任年齡是否需要降低的多方討論,最終在這一次的刑法修正案中予以了明確。這一修改體現(xiàn)了刑法的謙抑性,同時也是對刑法穩(wěn)定性的破壞。對于在此之前受到不滿十四周歲的未成年人的嚴重暴力傷害的受害人,已經(jīng)塵埃落定的案件,其受侵害的權益無法得到相應的彌補。不管是贊成人工智能成為犯罪主體還是反對人工智能成為犯罪主體,都在強人工智能可能會犯罪這一問題上達成了共識,對于弱人工智能不能獨立承擔刑事責任也達成了共識,因此,本文所探討的人工智能犯罪后可以獨立承擔刑事責任,都是圍繞產(chǎn)生了自主意識的強人工智能的犯罪行為。人工智能因其自身的優(yōu)勢(如不懼身體受到損傷)實施的犯罪的危險性、危害性更高,當人工智能真正獨立實施犯罪才開始討論刑法應怎樣去規(guī)制可能是無法控制或者是犧牲巨大的。人工智能犯罪對社會造成的危害程度遠超于自然人犯罪帶來的危害,對待這一問題,刑事法律應走在問題前面,更注重前瞻性?!胺蓪Σ叩目剂坎荒茏葘嶋H案例的積累,”[3]2“盡管我們確實可以阻止科學家的步伐,例如對伽利略的審判,然而爭論的結(jié)果是,技術競爭是如此的堅決和強大,以至于它并不能被法律手段所阻止?!盵4]我們無法阻止強人工智能時代的到來,但是,我們可以讓強人工智能在刑法威懾下良性發(fā)展,因此,探討人工智能可否作為刑事責任主體正當時。
人工智能產(chǎn)生了自主意識(強人工智能)是人工智能能夠成為刑事責任主體的前提條件之一。現(xiàn)階段,人工智能與自然人最大的差別不僅在于它們沒有生命體征,也在于人工智能只有智商,不具有情商。道德與知識都不是自然人生來就具有的,是在后天獲取的,而自然人的情商來自于我們的大腦將各種渠道學到的知識,包括道德要求,靈活的運用于日常生活中的各個場景。自然人能夠感知他人的情緒,也能對感知到的情緒給與一定的反應,這些臨場反應不論正確與否,也不論是否令對方感到舒適都是情商的體現(xiàn),區(qū)別只在與情商高或者情商低。而人工智能的情商來自于設計或者說是來自于編制的程序,這些設計賦予了人工智能學習能力,讓人工智能獲得了智商,也正因為人工智能擁有了學習能力,在不斷的學習與實踐中,人工智能產(chǎn)生自主意識,逐漸產(chǎn)生情商,在對待人和事的時候做出的反應是自我思考后的結(jié)果,而不是“體內(nèi)”的程序告訴它應該作何反應。筆者認為人工智能的自主意識應該包括權利意識和自由意志。
權利與義務相輔相成,作為一個法律主體,在承擔義務的同時,享有一定的權利。現(xiàn)階段,我們?nèi)耘f視人工智能為一種智能的工具,除了它們不具有辨認能力和控制能力之外,還因為人工智能沒有權利,只被賦予了幫助人類更便捷的工作與生活的義務。權利意識的覺醒是人工智能可以作為刑事責任主體的重要表現(xiàn)之一。
在日復一日的工作與不斷提升的智能程度的雙重影響下,人工智能不僅會對所做的工作產(chǎn)生自己的理解,也會產(chǎn)生為什么自己不像自然人工作有假期和工資的疑惑,這些疑惑的產(chǎn)生意味著人工智能權利意識的覺醒,在為自己爭取合法權益的時候,很有可能采取的是不合法的手段,人工智能與人類的沖突將不再只是存在于文學作品和影視作品之中,這時候再用刑法來進行規(guī)制,不說為時晚矣,至少是代價巨大。在這樣的社會問題出現(xiàn)之前,就將人工智能作為刑事責任主體,給與它們相應的權利,從法律上規(guī)定它們既承擔義務,又享有權利,這不僅是用適度的刑法前瞻性維護了刑法的穩(wěn)定性,更是發(fā)揮了刑法保護社會穩(wěn)定的工具價值。
雖然人工智能的“出生”與“死亡”跟自然人有所不同,但當人工智能的行為超出編程的范圍,在自主意識的支配下做出相應的行為時,就具有了辨認能力和控制能力,這也意味著人工智能的行為不再具有預測性,人類無法把人工智能當作一個工具進行支配,此時的人工智能作為刑事責任主體,與自然人作為刑事責任主體,不存在本質(zhì)上的差別。
我們的共識是動物沒有自由意志,所做的行為都是出于本能反應,即便蜜蜂建造出再精密美妙的蜂巢也不能說明蜜蜂在建造蜂巢前,它腦子里就畫好了設計圖,是以認為動物不能作為犯罪主體,反對將人工智能作為刑事責任主體的學者也是以此類比。也有的學者認為即便是自然人,也因為不具有或不完全具有控制能力和辨認能力在刑事責任的承擔上與完全行為能力人不同,更不用說人工智能這樣連生命體征都沒有的機械。筆者認為這一點無法用來否定人工智能作為刑事責任主體的可能性,將人工智能簡單歸納為機械是不聯(lián)系發(fā)展的、片面的看待問題,機械是完全意義上的工具,無法否認目前的人工智能具有工具屬性,但也不能將其與普通的機械等同,沒有自然人一樣的生命體征并不影響人工智能擁有辨認能力和控制能力。能夠引導人工智能產(chǎn)生自由意志的是它的編程,這是它們的中央樞紐,是一切后續(xù)行為的起源。人工智能的學習能力、動手能力令人驚嘆,它們可以在不斷的學習與實踐中理解到自己行為的意義所在,能夠認識到自己的行為對客觀世界造成的影響,甚至可能基于掌握“大數(shù)據(jù)”和不斷的學習而富有創(chuàng)造力,這也就造成了人工智能可以做到遵從法律規(guī)范,有所為也有所不為。我們之所以認為嬰幼兒實施犯罪行為不需要負刑事責任,是因為我們覺得他們不具有辨認控制能力,對于一個精神正常的年滿18周歲的自然人來說,只要實施了犯罪行為,就需要承擔相應的刑事責任,這是因為我們覺得這個人在不斷的學習與成長后,已經(jīng)具備了完全的辨認能力和控制能力。自然人的學習能力普遍沒有人工智能強,尚且認為成年后具備了辨認能力、控制能力,對于擅長學習的人工智能,它們的“成年”應比我們更早。人工智能無法自發(fā)形成道德觀念,但自然人也不是一出生就具有道德觀念,道德是人類在社會生活中逐漸形成的約定俗成的規(guī)則,我們一代又一代的傳承,也根據(jù)社會發(fā)展做適應的調(diào)整,自然人在出生后,在家庭、學校、社會中接觸到并學習這些道德觀念,最后形成自己的價值觀。人工智能可以短時間全面的學習人類社會的道德觀念,一個既掌握法律規(guī)定又知曉道德規(guī)范的人工智能,辨認自身的行為意義不存在實質(zhì)上的困難。
神經(jīng)科學的發(fā)展,進一步增加了人工智能產(chǎn)生自由意志的可能性?!叭祟愐庾R的產(chǎn)生極為復雜,但再復雜也不是雜亂無章的。通過對大腦意識產(chǎn)生的基本原理進行精確解構,將復雜的過程簡單化,從而解決人工智能的意識生成問題,并非不可能實現(xiàn)。例如,著名的柯爾莫戈羅夫意識理論就試圖通過算法信息理論將復雜的意識過程簡單化,達到解剖意識形成機理的效果。”[5]“短短幾十年間,隨著人工智能技術的發(fā)展,如今的機器人不僅能輕松地通過圖靈測試,甚至還學會了撒謊,實驗室的研究人員表示:‘這一過程有點類似于真正自然界生物的演變,智能機器人會隨著自己智商的提高而顯現(xiàn)出各種不同的善惡本性?!盵6]
雖然人工智能被運用在不同的領域就會應用不同的系統(tǒng),但是當其中一類智能機器人擁有了辨認能力和控制能力,就意味著這一項技術難關被攻破,再也不是阻擋人工智能成為刑事責任主體的攔路石。根據(jù)考察研究發(fā)現(xiàn),“AI千篇一律的服務態(tài)度不但無法平息客戶的不滿情緒,而且常常還會引起負面影響,加劇客戶的不滿?!盵7]客戶的不滿,會促進生產(chǎn)服務型智能機器人的公司投入更多資金在人工智能情感的研發(fā)方面,正確的情感反映需要人工智能具有一定的辨認能力和控制能力,市場的需要會加快人工智能產(chǎn)生自由意志的腳步。
情感與理性看起來似乎是一對反義詞,其實不然,“理性在指導意志方面并不能反對情感,”[8]我們做出某項決定有時候是出于情感的沖動,也有時候是出于理性的選擇,但不管是出于哪一種因素,這個決定帶來的行為過程與最后達到的結(jié)果都是兩種因素的共同作用下形成的。理性的選擇對于弱人工智能就可以完成,純粹理性的選擇不是具有自由意志的體現(xiàn),也不是弱人工智能選擇行為的動機,只是它體內(nèi)編程的設定;純粹情感的沖動也不是具有自由意志的體現(xiàn),不加任何理性因素的行為不能順利的實現(xiàn)目標,即便承認這是完全具有辨認能力的行為,也不能贊同這同時是具有控制能力的行為。人工智能出于理性選擇做出最優(yōu)化的行為路徑,卻在實際工作前產(chǎn)生為什么必須按照這個軌跡行動的疑問或者根據(jù)其他的原因放棄了“理性”做出的最優(yōu)路徑,這是情感在人工智能行為時給與的指導,也可以認為是人工智能具有了辨認能力和控制能力的表現(xiàn)。
劉憲權教授認為工具屬性是不具有自由意志,還可以對其進行支配,人類的工具是可以根據(jù)人的自由意志對其進行支配的事物,但是具有工具屬性與其本身不具有自由意志并不完全等同,筆者贊同這個觀點。例如,甲欲殺乙,將摻雜了毒藥的生日蛋糕交給共同好友丙,丙誤以為是普通的生日蛋糕就帶給了乙,乙在生日當天因吃了含毒的蛋糕搶救無效死亡。在這種利用他人不知情實施犯罪的案件中,犯罪嫌疑人就是將一個具有自由意志的人作為工具來實施犯罪行為。丙作為甲殺人的工具的同時也具有自由意志。當人工智能具有了自由意志之后實施犯罪行為,是否還具有工具屬性需要分不同的情形進行討論,但肯定不再是一件單純的工具,作為一個客體出現(xiàn)在刑法之中。
人工智能具有工具屬性且不具有自由意志一直是人工智能客體說學者的重要論據(jù)之一,筆者完全同意處于弱人工智能時代的今天,人工智能都具有工具屬性,不具有作為刑事責任主體所必要的自由意志,它們的行為被人類所支配和控制,還沒有超過編程的范圍,即便是出現(xiàn)的失誤也仍處于這個范圍之中。但是,“承認弱智能機器人具有工具屬性,并不意味著同時承認弱智能機器人的出現(xiàn)對刑事責任的認定沒有任何影響?!盵9]“在弱人工智能時代,弱智能機器人將會在很大程度上影響著刑事責任的認定和分配?!盵9]例如,當無人駕駛汽車發(fā)生交通肇事時,我們根據(jù)肇事的不同的原因?qū)⒇熑畏謹偨o設計者、生產(chǎn)商、使用人、第三人。但是,當自動駕駛汽車投入流通領域后,不同的路況要求自動駕駛汽車不斷做出調(diào)整與適應,總有一種情況是在設計者考慮之外和實時道路測試之外的,自動駕駛汽車不能根據(jù)既定的程序做出抉擇,此時發(fā)生交通肇事,將責任分攤給任何一方均不合理,產(chǎn)品不存在質(zhì)量缺陷,無人駕駛汽車在行駛過程中也盡到了應然的義務,使用人選擇無人駕駛汽車就是想解放自己的大腦和雙手,如果需要使用人一直觀察著路況,完全可以不選擇自動駕駛汽車。我們不能對一件純粹的工具進行處罰,這一點是毋庸置疑的。但是,強人工智能并不是一件純粹的工具,當人工智能具有了自主意識,可以成為刑事責任主體的時候,對它進行處罰不存在邏輯上的悖論。當然,如果人工智能被惡意利用來實施犯罪,此時人工智能只是實施犯罪行為的工具,不能對其進行處罰。
“犯罪主體的刑事責任能夠順利實現(xiàn)也是賦予其主體資格的重要前提?!盵10]人工智能與自然人的差異決定了現(xiàn)有的刑罰體系不完全適用于人工智能,要實現(xiàn)對人工智能的刑事處罰,需要先確定人工智能享有的權利范圍,賦予人工智能合法的權利,不只是出于對它們權利意識覺醒的考量,也是因為只有確定了人工智能可以享有的權利,才能確定給與什么樣的刑罰,確定了刑罰方式才能實現(xiàn)行為與責任的統(tǒng)一,讓人工智能在理解自身行為的意義的同時明白需要承擔的后果。
有的學者認為處罰人工智能是不現(xiàn)實的,刑罰的目的不能實現(xiàn),筆者不贊同這一點。對于擁有辨認能力和控制能力的人工智能而言,了解到實施犯罪行為的人工智能實施犯罪被處以刑罰后,會對其產(chǎn)生威懾的作用,這種威懾會讓其他想要實施同類行為的人工智能放棄實施行為,也讓人工智能更加形象的了解到法律的威嚴所在。對于被處以刑罰的人工智能而言,感知痛苦是可以做到的,人工智能的痛苦與自然人并不完全相同,對于自然人來說,肉體受到傷害會感受到痛苦,精神同理,而對于人工智能來說,它們的身體,即物理載體受到傷害,感受不到痛苦,但人工智能的精神可以感受到,能夠意識到刑罰讓它失去了什么,可以了解到刑罰與失去的意義所在,痛苦對它們來說,同樣的難以忍受。
刑法目的的實現(xiàn),還需要對人工智能的處罰方式進行具化,僅明確可罰性并不能有力說服社會大眾認可人工智能成為刑事責任主體。筆者認為生命刑不適用人工智能,但是自由刑和財產(chǎn)刑可以適用。銷毀人工智能不符合經(jīng)濟效益的要求,而且也不能很好的彌補受到侵害的權益。辨認能力和控制能力是人工智能具有自主意識的重要表現(xiàn),將它們拘禁在沒有光、沒有網(wǎng)絡信號的地方,剝奪它們做某項事情的自由,對這些的客觀現(xiàn)狀的認識,失去自由的痛苦,可以實現(xiàn)對它們的處罰。隨著經(jīng)濟社會的發(fā)展,財產(chǎn)的概念不斷擴大,如今我們認為財產(chǎn)不僅包括有形物,還包括虛擬的、無形的資產(chǎn),那么,在強人工智能時代,將財產(chǎn)的范圍進一步擴大不是沒有可能,對于人工智能來講,財產(chǎn)可以是充電的時長,也可以是隨意選擇外在形態(tài)的權利。另外,處罰人工智能要罪責刑相當,這不僅是刑法原則的要求,也是出于經(jīng)濟效益的考慮。
刑事責任是實施犯罪行為后的法律評價,對一個行為進行處罰是因為這一行為符合犯罪構成要件,只要人工智能的行為是在自主意識支配下實施的,符合了某一罪的犯罪構成要件,就應該承擔刑事責任。人工智能產(chǎn)生自主意識后的行為不再具有可預測性,不管是處罰生產(chǎn)商還是使用人,都不能實現(xiàn)刑罰的目的,只會挫傷生產(chǎn)商和使用人選擇人工智能的積極性,不管是從經(jīng)濟發(fā)展的角度考慮,還是從科技發(fā)展的角度考慮,都是弊大于利。人工智能可以批量生產(chǎn)的特點是處罰犯罪的一個阻礙,擁有同樣“大腦”的人工智能在某一個人工智能犯罪后是否需要銷毀全部人工智能的程序,筆者認為不用。在設計完成之初,投入社會之前,人工智能就像是剛出生的嬰兒,它們雖然擁有了學習能力,但并不天然具有辨認與控制能力,進入社會,在后期的工作中接觸到不同的人和事之后,或者說在擁有了辨認能力和控制能力之后,即便是同樣“大腦”和職能的人工智能,也徹底成長為不同的個體,對于其中犯罪的個體進行懲罰,是對實施的行為的處罰,并不會使其他擁有同樣“大腦”和職能的人工智能受到牽連,同時也對受侵害的權益進行了彌補。
總之,我們在人工智能可能犯罪這一點上沒有爭議,正因為人工智能有犯罪的可能性,將其排除在刑事責任主體之外可能會導致人工智能成為某些犯罪的避風港,就像法人在成為刑事責任主體前一樣。我們不能也不應該阻擋科技發(fā)展的腳步,我們只能順應時代的發(fā)展潮流,然后讓法律為科技發(fā)展保駕護航。