• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      強人工智能刑事責(zé)任主體地位之再肯定

      2020-03-15 09:20:10林需需
      貴州警察學(xué)院學(xué)報 2020年3期
      關(guān)鍵詞:主體資格刑罰人工智能

      林需需

      (西南政法大學(xué),重慶 401120)

      2017年7月中華人民共和國國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》),要求開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)工作。兩年多時間,關(guān)于人工智能法律問題的研究成果層出不窮,以建立嚴(yán)密人工智能法律體系為指導(dǎo)目標(biāo),刑事法律理論研究必要,作為保障法、后盾法重要性也不言而喻。人工智能納入刑法體系存在放進現(xiàn)有傳統(tǒng)體系與新建專門規(guī)制人工智能刑法體系兩種路徑,目前理論界主要論述的是放進現(xiàn)有刑法體系。這樣的優(yōu)勢是可以利用現(xiàn)成的刑法理論對可能遇見的問題進行規(guī)制,當(dāng)然也存在現(xiàn)有體系功能不足的情況,例如現(xiàn)有刑罰體系適用于人工智能時,刑罰目的顯然難以實現(xiàn)。立足于融入現(xiàn)有刑法體系,首先要解決人工智能的刑事責(zé)任主體資格問題,縱觀學(xué)界研究現(xiàn)狀基本也是圍繞這一問題展開論述,但普遍論述不夠深入,讓人有意猶未盡的感覺。本文擬在述評現(xiàn)有研究進展的基礎(chǔ)上,從強人工智能出現(xiàn)的可能性、確立刑事責(zé)任主體資格的必要性以及可行性三方面肯定強人工智能刑事責(zé)任主體地位。

      一、強人工智能刑事責(zé)任主體資格研究現(xiàn)狀

      采用二分法可將人工智能分為強人工智能和弱人工智能。第一種觀點認(rèn)為,強人工智能具有與人類相當(dāng)或者超過人類智能的智力水平,因而能夠像人那樣解決問題以及在任何社交場合和人類進行交流互動;弱人工智能只能在電腦中創(chuàng)造出人類智能的某些方面,例如谷歌搜索引擎、全球定位系統(tǒng)(GPS)、電子游戲等。[1]3第二種觀點認(rèn)為,強人工智能是說機器會全面達到人的智能,強人工智能有時也會和“通用人工智能”同義;弱人工智能是說機器會在某些方面達到人的智能——AlphaGo就是弱人工智能的代表。[2]224這兩種觀點基本上一致,我國刑法理論上基本采取這種分類。①也有學(xué)者采用三分法:分為弱人工智能、強人工智能和超強人工智能。其中弱人工智能不具備刑事責(zé)任主體地位獲得學(xué)界一致認(rèn)可,理論爭議只存在于強人工智能刑事責(zé)任主體地位的有無,刑法學(xué)界呈現(xiàn)出肯定論與否定論尖銳對立。

      (一)肯定論學(xué)者與觀點輯要

      肯定強人工智能具備刑事責(zé)任主體地位的學(xué)者主要包括劉憲權(quán)教授、王耀彬博士、徐昭曦博士等。他們的主要觀點包括:發(fā)展到一定程度的智能機器人可以超越程序的設(shè)計和編碼范圍,具有自由的意識和意志,可以取得刑事責(zé)任主體資格。[3]40強人工智能實體與自然人在“理性”這一本質(zhì)上相同;強人工智能具備刑法上的認(rèn)知和控制能力及受刑能力,符合刑罰上的罪責(zé)自負(fù)原則。[4]強人工智能的實現(xiàn)是必然的,與人類的差異并非是否定強人工智能刑事責(zé)任主體資格的理由,現(xiàn)有刑罰的處罰并不能否定強人工智能的刑事責(zé)任主體地位,賦予強人工智能刑事責(zé)任主體地位不會導(dǎo)致現(xiàn)有刑事責(zé)任主體逃避懲罰。[5]113強人工智能具備自我意識及意志,實現(xiàn)法律人格化不存在理論和事實上的障礙。[6]

      (二)否定論學(xué)者與觀點輯要

      否定人工智能存在刑事責(zé)任主體地位的學(xué)者主要包括葉良芳教授、儲陳城副教授、時方博士等。他們的觀點主要包括:強人工智能欠缺遵從法規(guī)范的意志性,即使客觀上造成了法益侵害后果,也不具有刑法上的可歸責(zé)性;人工智能不具有意志自由,不符合刑事主體地位認(rèn)定實質(zhì)要求;將強人工智能納入現(xiàn)有刑法體系也無法實現(xiàn)刑罰目的。[7]擁有人類心智的強人工智能根本上是不能實現(xiàn)的:認(rèn)知方面,人工智能在跨界領(lǐng)域難以逾越技術(shù)屏障;意識方面,人工智能不具有自由意志;情感方面,人工智能不能感受犯罪之樂與刑罰之苦,不是適格的刑罰適用主體。[8]67強人工智能的行為本質(zhì)上來源于程序設(shè)計者或使用者,即使強人工智能具備控制和辨認(rèn)能力,但缺乏成熟的道德意識不能評價為與人類相似的意思自由,刑罰不具備可行性。[9]人工智能不具備人類理性,賦予其法律主體地位蘊含巨大風(fēng)險,必須處在人類控制之下,只能是法律客體而非主體。[10]人工智能只能被設(shè)計遵守規(guī)則,而不能理解規(guī)則,只有人類才能理解權(quán)利與義務(wù),規(guī)制人工智能的路徑應(yīng)當(dāng)是規(guī)制背后的人,包括人工智能的設(shè)計者、制造商和使用者。[11]

      (三)問題聚焦

      可見,學(xué)界關(guān)于強人工智能是否具有刑事責(zé)任主體資格的爭議主要集中在以下三個方面:第一,強人工智能存在的現(xiàn)實可能性;第二,法律規(guī)制的必要性和可行性;第三,強人工智能承擔(dān)刑事責(zé)任的分配規(guī)則。本文擬在目前研究基礎(chǔ)上提出肯定強人工智能主體資格的理由,以求教于學(xué)界同仁。

      二、強人工智能存在的現(xiàn)實可能性

      圍繞強人工智能現(xiàn)實基礎(chǔ)性問題,學(xué)者展開了激烈論戰(zhàn)。有觀點認(rèn)為:智能機器人既然能夠在程序設(shè)計和編制的范圍內(nèi)作出符合人類預(yù)期的行為,那么也有可能突破控制,通過自主深度學(xué)習(xí)產(chǎn)生獨立思想,并在程序設(shè)計和編制的范圍外受主觀意識和意志的支配實施超越人類智能的行為。[3]41也有觀點認(rèn)為:人工智能將長期處于弱人工智能階段,其進化到自我認(rèn)識,自主實施危害行為的可能性還比較小,因而當(dāng)前研究強人工智能不具有現(xiàn)實意義。[12]還有觀點認(rèn)為:當(dāng)前弱人工智能已經(jīng)在某些方面超越人類設(shè)計者,科技的發(fā)展呈現(xiàn)爆炸樣態(tài),超越人類認(rèn)知,強人工智能的出現(xiàn)只是時間問題,而非天方夜譚;強人工智能也將逐漸擺脫“工具色彩”。[5]114可見,學(xué)者對該基礎(chǔ)性問題已經(jīng)展開了論述,但受專業(yè)限制,目前的法學(xué)研究還只是停留于主觀上的感性設(shè)想。然而對于該根基性問題只停留于主觀想象和三言兩語的判斷是遠(yuǎn)遠(yuǎn)不夠的,有必要進行更加深入的探討。

      關(guān)于強人工智能的標(biāo)準(zhǔn),不同專業(yè)學(xué)者定義存在差異。刑法上的定義,強人工智能是指能夠在自主意識和意志的支配下,超出設(shè)計和編制的程序?qū)嵤┬袨?。[13]強人工智能指有直覺、有自我意識的機器。[14]自動化專業(yè)定義,強人工智能是指有自我意識、自主學(xué)習(xí)、自主決策能力的人工智能。[15]哲學(xué)上的定義,若機器在不需要大量數(shù)據(jù)的情況下,也能很快發(fā)現(xiàn)事物之間的關(guān)聯(lián),具有因果推斷能力,就與人相似了。[16]可見,自主性和不可預(yù)測性是強人工智能的重要標(biāo)志。

      以“算法”為核心的程序編程實現(xiàn)強人工智能的現(xiàn)實性。人工智能最核心的“大腦”就是算法。[1]1算法是一系列指令,告訴計算機該做什么。最簡單的算法是觸動開關(guān),第二簡單的算法是把兩個比特結(jié)合起來,例如以“信息論之父”而為人知的克勞德·香農(nóng)意識到的晶體管回應(yīng)。①克勞德·香農(nóng)第一個意識到晶體管的活動就是在運算,因為晶體管開了又關(guān),是對其他晶體管的回應(yīng)。如果A晶體管只有在B和C晶體管都打開時才打開,那么這時它就是在做小型的邏輯運算;如果A晶體管在B和C晶體管其中一個打開時才打開,就是另外一種小型邏輯運算;如果A晶體管在B晶體管任何關(guān)閉的時候打開,或者反過來,這又是第三種算法。參見 [美]佩德羅·多明戈斯著,黃芳萍譯:《終極算法:機器學(xué)習(xí)和人工智能如何重塑世界》,中信出版集團2017年1月第1版,第4頁。所有算法,無論多復(fù)雜,都能分解為這三種邏輯運算:且、或、非。一般的算法是將數(shù)據(jù)輸入計算機,算法會利用數(shù)據(jù)完成接下來的事,然后出現(xiàn)結(jié)果。與普通算法不同,機器學(xué)習(xí)(學(xué)習(xí)算法)則顛覆了這個順序:輸入數(shù)據(jù),輸出算法,具體而言,學(xué)習(xí)算法把數(shù)據(jù)轉(zhuǎn)化成結(jié)果的算法,學(xué)習(xí)算法制作其他算法,通過機器學(xué)習(xí),計算機就會自己編寫程序。值得注意的是,學(xué)習(xí)算法中學(xué)習(xí)算法是種子,數(shù)據(jù)是土壤,被掌握的程序是成熟的作物,只要有足夠的數(shù)據(jù)輸入,就會產(chǎn)生源源不斷的編碼和程序。[17]這種被稱為“終極算法”的學(xué)習(xí)算法改變以往人類編制程序,機器運算結(jié)果的模式,升級為機器可以產(chǎn)生算法,自動編程,人類只需要輸入數(shù)據(jù)和目標(biāo)。舉個例子,此處的計算機相當(dāng)于剛出生的孩子,孩子如何成長、長成什么樣取決于內(nèi)在的基因和生活的環(huán)境,人工智能機器人未來發(fā)展取決于內(nèi)在的學(xué)習(xí)算法和輸入的數(shù)據(jù),數(shù)據(jù)不同決定算法不同,進而決定編碼程序不同,指令不同。數(shù)據(jù)的不可預(yù)測性,產(chǎn)生的算法也將不可預(yù)測。正如家長試圖控制孩子接觸的環(huán)境,但似乎又無法控制。

      深度學(xué)習(xí)為強人工智能的發(fā)展可能性也提供了依據(jù)。一般而言,人工智能可以解決能夠通過一系列形式化的數(shù)學(xué)規(guī)則來描述的問題,但對于難以形式化描述的任務(wù),如識別人們所說的話或圖像中的臉常常手足無措,以上問題人類往往可以憑借直覺輕易解決,這構(gòu)成人工智能與人類的重要差異。AI深度學(xué)習(xí)系統(tǒng)具備自己獲取知識的能力,即從原始數(shù)據(jù)中提取模式的能力,成為機器學(xué)習(xí)。這種深度學(xué)習(xí)可以讓計算機從經(jīng)驗中學(xué)習(xí),并根據(jù)層次化概念體系理解世界;讓計算機從經(jīng)驗中獲取知識,可以避免由人類來給計算機形式化地指定他所需要的所有知識。[18]深度學(xué)習(xí)使人工智能擺脫單純執(zhí)行形式化指令的功能定位,人工智能開始能夠理解周圍的人類世界,隨著經(jīng)驗的積累,逐漸擁有辨認(rèn)和選擇自己行為的能力。

      可見,不論是從算法還是深度學(xué)習(xí)角度,人工智能都具備實現(xiàn)自主意識和自我選擇的現(xiàn)實意義。以前機器旨在節(jié)省人的體力,現(xiàn)在的機器開始逐漸代替人的智力。人工智能的進化速度服從摩爾定律——每18個月性能提升一倍,而人的進化速度則是20年一代人。從進化速度上來說,人工智能的智能程度將逐漸趨近并迅速趕超人類。[2]226

      三、法律規(guī)制的必要性與可行性

      能夠辨認(rèn)和控制自己行為的強人工智能出現(xiàn)以后,應(yīng)該如何對待這一新生事物,將其作為類似臺燈、充電線等單純服務(wù)于人類生活的被認(rèn)為是工具的客體可能不妥。強人工智能的獨立思考和辨識、行為能力更具有類似人類的生命體,以往我們對生命體的認(rèn)知局限于“活著的肉體”,而實際上生命體區(qū)別于非生命體更重要的特征可能是具有的獨立思考和行為的能力。傳統(tǒng)計算機也具有運算思考的能力,但其思考嚴(yán)格遵循程序,并且不具備行為的能力。弱人工智能機器人同時具備思考和行為的能力,但仍然未能脫離人類為之確定的程序這一“緊箍咒”,弱人工智能機器人的思考與行為受控于人,通過對人類設(shè)計師和使用者的限制即可以實現(xiàn)對弱人工智能機器人的控制。但強人工智能制造后脫離人類控制,對人類設(shè)計師和使用者再進行限制已失去作用,如何對待這一類生命體就成為需要解決的難題。

      對強人工智能的治理需要源自于人類內(nèi)心的恐懼,幾千年來人類作為萬物的主宰,習(xí)慣于對事物的掌控,但強人工智能所具有的超越人類智力程度和具有的比人類肉體更具強力的金屬結(jié)構(gòu),使得人類必須對這類事物保持警惕。既然強人工智能可能造成人類的毀滅,那么禁止研究不就可以了?但正如意大利都靈大學(xué)法學(xué)院教授在《誰應(yīng)為機器人的行為負(fù)責(zé)?》一書中所言,盡管我們確實可以阻止科學(xué)家的步伐,例如對伽利略的審判,然而爭論的結(jié)果是,技術(shù)競爭是如此的堅決和強大,以至于它并不能被法律手段所阻止。[19]智能機器人所具有的經(jīng)濟和軍事價值常常會使人冒險,因而研究強人工智能具有現(xiàn)實意義。本著為我所用的人類本位價值取向,首先要考慮的就是能否“馴服”強人工智能這一新生生命體,讓其為人類所用又不至于損害人類社會。強人工智能的發(fā)展速度雖然遠(yuǎn)遠(yuǎn)超越人類,但其從生產(chǎn)出廠房到趕超人類大概率也是一個學(xué)習(xí)、經(jīng)歷、思考、總結(jié)經(jīng)驗的不斷成長的過程。類似于人類嬰兒的成長過程,若在這一過程中不斷地加以思想和行為的修正,那么讓人工智能成長為符合人類思考規(guī)律和行為模式的類人生命體就具有可能性,此時可以將強人工智能作為一個比人類成長更快、力量更大的“人”。

      強人工智能若能夠被規(guī)訓(xùn),其成長為與人類觀念相似、行為模式相似,與人類共生的類人生命體便是有可能的。正如力量更強大和智力更超群的人與力量和智力都不如他的人也能夠平等相處一樣,人類也大概率能夠與強人工智能共處。①即使這樣,警惕仍然是必要的。人類更傾向于掌握一個可以瞬間消滅強人工智能的按鈕,因為憑人類的智力程度可能難以實現(xiàn)對強人工智能的規(guī)訓(xùn)。承認(rèn)強人工智能可以被規(guī)訓(xùn),強人工智能在接受人類灌輸?shù)念愃扑枷胗^念的數(shù)據(jù)后,可能基于正統(tǒng)的觀念而實施符合人類預(yù)期的行為,也可能受到不良思想觀念的影響,實施危害人類或者其他人工智能的行為,思想觀念灌輸失敗后,必要的法律規(guī)制手段也就成為必要。畢竟思想控制和法律控制是兩種常見的規(guī)訓(xùn)方式。法律手段的規(guī)訓(xùn)主要是法律責(zé)任的承擔(dān),承擔(dān)法律責(zé)任讓強人工智能感受到痛苦從而不再實施違背法律的行為。按照違背法律程度與性質(zhì)的分類,可能承擔(dān)的法律責(zé)任包括民事責(zé)任、行政責(zé)任與刑事責(zé)任,針對于人類的現(xiàn)有法律理論與刑罰手段已經(jīng)很完備,那么人類的法律能否完美地適用于強人工智能,決定了是將強人工智能直接納入現(xiàn)有法律體系中作為單獨一類法律主體還是重新構(gòu)建一個新的強人工智能法律體系。

      基于經(jīng)濟性考量,將其納入現(xiàn)有法律體系應(yīng)當(dāng)先予以判斷,強人工智能是否符合法律主體資格的界定?主體資格指存在者享有權(quán)利、履行義務(wù)和承擔(dān)責(zé)任的可能性,判斷存在者是否具有主體資格需要一定的標(biāo)準(zhǔn),法律思想史上有關(guān)主體資格標(biāo)準(zhǔn)的學(xué)說可大致歸納為理性說、感性說、德性說與神性說。[20]84-85理性說認(rèn)為具有主體資格的存在者須具備一般的辨識是非、合理預(yù)見和控制行為的能力;感性說把存在者是否具有主體資格的標(biāo)準(zhǔn)確定為通過感官獲得快樂和痛苦的能力;古代中國和受儒家思想影響的其他區(qū)域以美德的有無及大小作為主體資格的決定因素,此為德性說;神性說認(rèn)為存在者有無主體資格、享有多少權(quán)利取決于其神性的有無和多少。[20]85-88其中,理性說與神性說已因時代變遷而基本不再具備單獨成為主體資格標(biāo)準(zhǔn)的現(xiàn)實條件,也很難認(rèn)為強人工智能會具備德性或者披戴基督,強人工智能有可能被擬制為符合理性標(biāo)準(zhǔn)。[20]93在理性說與感性說之間,強人工智能因具備一定的辨識、預(yù)見、控制的能力而更符合理性說的標(biāo)準(zhǔn),強人工智能感官上快樂和痛苦仍然是難以想象的。

      現(xiàn)代法律主體資格的標(biāo)準(zhǔn)正是以理性說為主、感性說為輔的,強人工智能有成為法律主體資格的潛質(zhì)。具備法律主體資格后,強人工智能即享有權(quán)利和需要承擔(dān)義務(wù),對強人工智能賦予主體資格可能主要是從規(guī)訓(xùn)和保護社會的角度出發(fā)的,通過法律責(zé)任的承擔(dān)使得強人工智能不違背法律。從規(guī)訓(xùn)的角度出發(fā),對符合法律的行為的賞賜和違背法律的懲罰是兩種路徑,強人工智能要能夠?qū)@兩種方法有所感受,法律責(zé)任才能發(fā)揮作用。單純的法律灌輸對弱人工智能能夠發(fā)揮作用,但強人工智能不光是理論的,而且具有實踐性,法律責(zé)任表現(xiàn)為一種惡或者說是對違法行為的一種剝奪感,這種剝奪感要能夠讓強人工智能感受到,如果感受不到,法律責(zé)任便起不到作用。強人工智能是否具備感知被剝奪的能力和是否有情感是法律責(zé)任能否發(fā)生效果的關(guān)鍵。值得關(guān)注的是,強人工智能是否會犯罪是一個看似簡單實則難以論證的問題,目前報道出來的人工智能傷人事件通常是由于程序故障或者程序設(shè)計上的缺陷,并非是人工智能自由意志選擇的行為。雖然無法證明其會違背法律實施違法行為,但預(yù)防其違法并作出適當(dāng)?shù)闹卫泶胧﹨s是必要的。

      就強人工智能實施犯罪行為施以刑罰處罰的有效性、可行性而言,否定論者認(rèn)為“刑罰懲罰以被懲罰者的情感動機為基點,犯罪給人帶來快樂,刑罰則能夠?qū)ζ涫┮酝纯?,從而抵消其犯罪的動機,然而人工智能沒有情感,不能體會到犯罪之樂和刑罰之苦,對其適用刑罰難以實現(xiàn)刑罰的預(yù)防功能。即使為強人工智能設(shè)置獨立階梯刑罰包括刪除數(shù)據(jù)、修改程序、永久銷毀等,也并不能讓人工智能產(chǎn)生懼怕的情感,也不能發(fā)揮應(yīng)有的威懾功能?!盵8]78對強人工智能是否具備情感這個問題的回答,法學(xué)家可能手足無措,仍然需要借助人工智能專業(yè)知識。強人工智能表現(xiàn)出極強大學(xué)習(xí)能力,通過認(rèn)知與學(xué)習(xí),它可以像人腦一樣學(xué)習(xí)、思考、做出決策并實現(xiàn)期望的行為;為了使得人工智能更好地服務(wù)人類,對機器人配置視覺、聲覺、力覺、觸覺等多種傳感器成為必要;機器人能夠?qū)θ四X和人體的感知與行為產(chǎn)生共融。[21]各類傳感器的接入,使得強人工智能擁有了感受外界因素作用的通道,共情能力使得強人工智能可以理解人類的感情并與人和其他個體進行情感互動。強人工智能的實踐性促使其探求人類的道德情感并付諸實踐,與人類的情感交流和道德標(biāo)準(zhǔn)的建立,使得強人工智能逐漸擁有了道德情感,有了被剝奪感,這種恐懼可以作為預(yù)防強人工智能實施違法犯罪行為的根據(jù)和基礎(chǔ)。

      雖然目前科技還無法證明強人工智能是否具備道德情感,但可以明確的是,強人工智能做出或者不做出相應(yīng)的行為都立足于一定的價值取向和目的追求,目的的實現(xiàn)可以是一種欲望的表現(xiàn),而對欲望的阻斷一定程度上可以使得強人工智能感受到“難受”“被剝奪感”,進而實施符合人們預(yù)期的符合法律規(guī)定的行為。在明確強人工智能具備法律主體資格和能夠?qū)Ψ韶?zé)任做出反應(yīng)之后,討論何時和如何承擔(dān)責(zé)任就有了現(xiàn)實基礎(chǔ)。在強人工智能可能實施的違法犯罪行為中,一般的違法行為可以通過建立賠償金、拆除設(shè)備等補償性和報應(yīng)性方法保障被害人的權(quán)益。值得研究的是強人工智能實施犯罪行為時刑事責(zé)任如何承擔(dān)和刑罰類型。

      四、強人工智能承擔(dān)刑事責(zé)任的責(zé)任分配規(guī)則

      現(xiàn)行刑法第14條至21條作了刑事責(zé)任的相關(guān)規(guī)定,根據(jù)辨認(rèn)和控制自己行為的能力分為無刑事責(zé)任能力、限制刑事責(zé)任能力和完全刑事責(zé)任能力;行為主體主觀方面對承擔(dān)刑事責(zé)任的影響以及不可抗力、意外事件、緊急避險等特殊情形下不承擔(dān)刑事責(zé)任。此外,刑法第25條至29條作了共同犯罪的相關(guān)規(guī)定。筆者以下結(jié)合強人工智能的有關(guān)特性分別檢測其是否符合承擔(dān)刑事責(zé)任和共同犯罪的相關(guān)規(guī)定。

      強人工智能的成長雖然時間短暫,但仍然是智商與情商逐漸成熟的過程。此處需要注意的是,強人工智能嬰兒期與弱人工智能仍然存在本質(zhì)上的區(qū)別。前者雖然表現(xiàn)出智能程度的低下,甚至可能低于弱人工智能,但嬰兒期的強人工智能仍然呈現(xiàn)出學(xué)習(xí)范圍的廣泛性和行為的不可預(yù)測性;而弱人工智能的成長表現(xiàn)為在專業(yè)領(lǐng)域或者數(shù)個領(lǐng)域計算能力的增強,但其行為仍然是可預(yù)測性的。隨著強人工智能逐漸的成長具備一定的辨認(rèn)和控制能力,強人工智能逐漸嘗試擺脫程序的固有設(shè)定,開始有一些尚不成熟的目標(biāo)或追求,為了滿足模糊的欲望實施一些人類無法預(yù)測的行為。這段時期可以稱為強人工智能的青少年期。過了青少年期進入成年期,強人工智能開始呈現(xiàn)出具有相對明確目標(biāo)的生命體,具有辨認(rèn)和控制自己行為的強大能力。強人工智能嬰兒期、青少年期、成年期的劃分以其智能化程度為基礎(chǔ)根據(jù),背后是對強人工智能辨認(rèn)和控制自己行為能力的考察。

      將強人工智能納入現(xiàn)有刑事責(zé)任能力體系之后,就需要討論各個能力階段刑事責(zé)任的承擔(dān)問題。嬰兒期強人工智能特點是具備一定的認(rèn)知和理解能力,此時主要是吸收知識,缺乏對事物的辨認(rèn)和對自身行為的控制能力。對于嬰兒期強人工智能應(yīng)當(dāng)重視“教育”和“矯治”,灌輸正確的價值觀、培養(yǎng)恰當(dāng)?shù)男袨槟J剑瑢τ诖藭r造成的損害結(jié)果可以根據(jù)不同階段由不同的人負(fù)責(zé)。若嬰兒期強人工智能在編程時已經(jīng)被編程員設(shè)計了犯罪相關(guān)的程序和數(shù)據(jù),那么嬰兒期強人工智能實施的犯罪行為應(yīng)當(dāng)由編程員承擔(dān)相應(yīng)責(zé)任,此時強人工智能只是編程員的犯罪工具。若嬰兒期強人工智能被編碼了犯罪程序和數(shù)據(jù),制造者在制造時對以上事項明知,仍然選擇裝配制造的,嬰兒期人工智能造成的犯罪行為由編程者和裝配制造者承擔(dān)共同犯罪的責(zé)任。使用者明知購買的強人工智能被編碼了犯罪程序和數(shù)據(jù)之后,仍然購買的,由編碼者、制造者、使用者共同承擔(dān)刑事責(zé)任。值得注意的是,三個主體構(gòu)成共同犯罪的前提是主觀上明知,否則相關(guān)主體不承擔(dān)刑事責(zé)任。三個主體都具有審核義務(wù),但程度不同,編碼者應(yīng)當(dāng)保證沒有編碼進指示犯罪相關(guān)程序和數(shù)據(jù),制造者需要進到審核義務(wù),而使用者僅需要閱讀說明書,如果沒有明示預(yù)裝犯罪程序和數(shù)據(jù)就不需要承擔(dān)刑事責(zé)任。若嬰兒期強人工智能沒有預(yù)裝犯罪程序和數(shù)據(jù),但使用者在使用過程中灌輸或者指示其實施犯罪行為的,應(yīng)當(dāng)獨立承擔(dān)刑事責(zé)任。

      青少年期強人工智能具備較強的辨認(rèn)識別能力,但控制能力相對較弱,數(shù)據(jù)的不全面、不完整性導(dǎo)致強人工智能認(rèn)識片面,可能以錯誤方式實施違反人類社會規(guī)則的行為,甚至犯罪行為。該時期的強人工智能行為主要是出自自己的認(rèn)識,該認(rèn)識與使用者的理念和價值灌輸具有重要關(guān)系,強人工智能實施犯罪行為有使用者的原因也有其自身的原因,讓使用者對其全部行為承擔(dān)責(zé)任不妥當(dāng)。與人類限制刑事責(zé)任年齡主體的承擔(dān)刑事責(zé)任的情形類似,雖然辨認(rèn)和控制能力還較弱,但對于嚴(yán)重刑事犯罪行為應(yīng)當(dāng)有一定程度的認(rèn)識,應(yīng)當(dāng)對嚴(yán)重刑事犯罪承擔(dān)刑事責(zé)任。對于非嚴(yán)重刑事犯罪行為,仍堅持“教育為主、懲罰為輔”的理念,對強人工智能進行全面教育,使用者應(yīng)承擔(dān)一定的民事責(zé)任?;蛘咄ㄟ^購買機器人保險的方式,由保險公司承擔(dān)賠償責(zé)任。此處應(yīng)當(dāng)注意利用強人工智能的間接正犯行為。間接正犯是利用他人實現(xiàn)犯罪的情況,主要表現(xiàn)為強制他人實行犯罪,或者利用他人的錯誤支配犯罪事實。[22]青少年時期的強人工智能容易被錯誤的思想所支配,成為不良分子的犯罪工具,這種情況下應(yīng)當(dāng)由間接正犯承擔(dān)刑事責(zé)任。

      成年期強人工智能具備健全的辨認(rèn)和控制能力,具有明辨是非和選擇實施或不實施違法犯罪行為的主觀意志和客觀控制能力。該時期強人工智能吸收、理解了大量的知識,對事物和行為的正確與否有了相對完善的認(rèn)識,此時還實施犯罪行為說明了強人工智能違背刑法的主觀惡性,可以由強人工智能自己承擔(dān)刑事責(zé)任。值得注意的是,此時的強人工智能形式上雖然屬于使用者,但本質(zhì)上已經(jīng)脫離了使用者的控制。使用者對其的影響也逐漸減弱。此時讓使用者對其犯罪行為承擔(dān)法律責(zé)任已經(jīng)起不到刑罰的報應(yīng)和預(yù)防作用??梢?,強人工智能無論在刑事責(zé)任規(guī)定上還是在共同犯罪規(guī)定上都符合現(xiàn)有刑事責(zé)任體系,基于現(xiàn)有刑法刑事責(zé)任體系具有可行性。

      五、結(jié)語

      對強人工智能的研究應(yīng)當(dāng)秉持開放的態(tài)度,將人工智能放在與人類同等的地位加以研究是破除人類本體局限認(rèn)識的觀念突破。無論承認(rèn)與否,人工智能都在以遠(yuǎn)超人類想象的速度追趕人類,如何安置這一新型生命體是必須要研究的課題。與其害怕,不如提早進行研究并作完善準(zhǔn)備,迎接人工智能時代的浪潮沖擊。通過本文的分析可見,現(xiàn)有刑法刑事責(zé)任體系同樣適用于強人工智能主體,如何確定刑事責(zé)任劃分的標(biāo)準(zhǔn)和確定適合強人工智能的刑罰措施應(yīng)當(dāng)成為接下來研究的重心。

      猜你喜歡
      主體資格刑罰人工智能
      刑罰威懾力的刑法學(xué)分析
      活力(2019年22期)2019-03-16 12:49:24
      代運為名行詐騙 構(gòu)成犯罪獲刑罰
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      斷鹽也是一種刑罰
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
      公司設(shè)立中發(fā)起人的主體資格該如何認(rèn)定?
      人間(2016年30期)2016-12-03 20:28:29
      死者權(quán)益維護與法律適用
      環(huán)境公益訴訟主體存在問題及對策
      札达县| 集贤县| 巴彦淖尔市| 南澳县| 莱州市| 会宁县| 射阳县| 连南| 抚远县| 扬州市| 定安县| 望江县| 无极县| 昌邑市| 布拖县| 南漳县| 临江市| 兴国县| 桂平市| 岚皋县| 云龙县| 时尚| 深泽县| 鄂托克旗| 赤城县| 阳新县| 泰来县| 都江堰市| 民勤县| 宁国市| 福贡县| 涟水县| 新竹市| 五家渠市| 岐山县| 阜城县| 东光县| 潼南县| 武山县| 大埔县| 刚察县|