• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能刑事主體資格研究

      2023-03-03 05:29:40曹更瑩
      經(jīng)濟研究導(dǎo)刊 2023年2期
      關(guān)鍵詞:人工智能

      曹更瑩

      摘? ?要:弱人工智能遵循人類設(shè)計和編制的程序,其不具有獨立意識,本質(zhì)上是便捷人類生活的工具;強人工智能隨著科技發(fā)展或許可具有一定“獨立意識”,但這種意識仍然是人類先驗知識的延伸,其不能夠達(dá)到人類“自由意識”的高度。所以,基于刑法體系穩(wěn)定性及社會倫理的考量,不宜將人工智能體納入刑事責(zé)任主體范圍內(nèi)。承認(rèn)肯定說觀點將意味著刑法體系的“回爐重造”,對于整個刑法理論體系將產(chǎn)生“質(zhì)變”影響。時下,對人工智能體的風(fēng)險防范應(yīng)主要致力于如何確保其未來發(fā)展的“可控性”。

      關(guān)鍵詞:人工智能;刑事責(zé)任主體;獨立意識;刑法體系

      中圖分類號:D914? ? ? 文獻標(biāo)志碼:A? ? ? 文章編號:1673-291X(2023)02-0158-03

      一、問題的提出

      科學(xué)技術(shù)的進步推動人工智能技術(shù)走向成熟,在給人類生活帶來極大便捷的同時,也帶來了不確定性和安全風(fēng)險。庫茲韋爾在其奇點理論中提到人工智能在未來的某個時刻極大可能出現(xiàn)發(fā)展的不可控性,并預(yù)測2045年人工智能將超越人的智能[1]。而在此之前也有人做過此類猜想。2004年上映的由艾歷士普羅亞斯執(zhí)導(dǎo)的電影《機械公敵》將人工智能發(fā)展的潛在危險直接展現(xiàn)在銀幕上。該影片從人與智能機器人的關(guān)系的角度為未來人工智能的發(fā)展敲響了警鐘。當(dāng)人工智能體具備獨立意識時,極可能對人類產(chǎn)生“反控”風(fēng)險。為了預(yù)防這種風(fēng)險,有學(xué)者從刑法角度探討如何規(guī)制此類風(fēng)險。以影片中智能機器人桑尼為例,如果真的涉嫌故意殺人,能否利用刑法對其處罰?或者智能機器人可否成為刑事主體?對此,學(xué)界存在三種不同觀點??隙ㄕf認(rèn)為,智能機器人通過深人學(xué)習(xí)產(chǎn)生自主意識和意志,在設(shè)計和編制的程序范圍外實施符合犯罪構(gòu)成的具有嚴(yán)重社會危害性的行為時就應(yīng)當(dāng)承擔(dān)刑事責(zé)任[2]。否定說認(rèn)為,在認(rèn)知思維、自由意志以及情感動機等方面,人工智能與人類存在很大差異,刑法規(guī)制的對象只能是人,人工智能無法具備刑事責(zé)任主體資格[3]。折中說則認(rèn)為,對于人工智能刑事責(zé)任主體問題應(yīng)當(dāng)區(qū)分討論,弱人工智能本質(zhì)上仍然是研發(fā)者意志的擴展,無法獨立承擔(dān)刑事責(zé)任;但具備獨立意識的強人工智能可以獨立實施刑法意義上的危害行為,亦可以成為刑事責(zé)任主體[4]??隙ㄕf與折中說存在的弊端在于,將未來人工智能發(fā)展的假設(shè)或者推定的命題,以過度前瞻性預(yù)防思想進行防范,極大降低了人類對未來世界的主導(dǎo)作用,從而導(dǎo)致該命題被部分學(xué)者批判為一個“偽命題”。本文認(rèn)為,對于人工智能可否成為刑事責(zé)任主體,應(yīng)當(dāng)保持謹(jǐn)慎、理性態(tài)度,對于人工智能的研究應(yīng)當(dāng)遵循社會發(fā)展現(xiàn)實。在討論該問題時,首先應(yīng)當(dāng)明確以下幾個問題。第一,人工智能可否擁有與人類相當(dāng)?shù)莫毩⒁庾R?第二,人工智能擁有了獨立意識,是否就可以成為刑事責(zé)任主體呢?第三,人工智能納入刑事責(zé)任主體的必要性有多大?假如該命題成立會對刑法體系造成什么影響?

      二、人工智能刑事主體資格之反思

      (一)人工智能獨立意識之反思

      根據(jù)人工智能發(fā)展的不同層次,人工智能分為弱人工智能和強人工智能。弱人工智能遵循設(shè)計者編制和設(shè)計的程序,其實施各種活動需要在人類設(shè)置的指令范圍內(nèi)進行,因此其無法形成自主意識,仍然屬于人類控制范圍內(nèi)的一種工具。在當(dāng)前科技水平發(fā)展階段,常見的智能機器人大部分屬于弱人工智能產(chǎn)品,其本身所作的各種決策僅僅是程序開發(fā)者意志的體現(xiàn),或者說他們是人類創(chuàng)造的一種智能工具。因此,對于弱人工智能產(chǎn)品所帶來的刑事風(fēng)險,尋找規(guī)制研發(fā)者的刑法策略為最佳預(yù)防途徑。而強人工智能是指能夠超出設(shè)計和編制的程序范圍活動的智能機器人,具備獨立意識并可實施相應(yīng)行為,實現(xiàn)自身的意志[5]。這類人工智能體具備獨立意識,能夠獨立實施活動,因而也對人類安全構(gòu)成潛在威脅。正是由此,學(xué)界部分學(xué)者希望將該類人工智能體納入刑法規(guī)制對象,以防范未來可能出現(xiàn)的風(fēng)險。但刑罰的對象是人。我們需要關(guān)注的是,強人工智能體所具備的獨立意識是否與人類意識相同?

      從哲學(xué)的角度來看,人腦是人類意識存在的物質(zhì)基礎(chǔ),離開人腦,人則無法感知世界,也就無法形成意識。同時,意識的本質(zhì)特征還在于“意識到必須和周邊的人們來往”,如果不與周圍之人來往,那么他就脫離了社會關(guān)系,即使他具備一定的人腦的生理機能,也不會有人的意識[6]。而事實上科學(xué)技術(shù)發(fā)展的有限性及人腦結(jié)構(gòu)的高度復(fù)雜性,決定了強人工智能體無法克隆人類完全一樣的大腦,也無法同人類一樣形成穩(wěn)固的社會關(guān)系。很多學(xué)者將強人工智能稱為“類人型機器人”,實際也認(rèn)可了人工智能的發(fā)展只能無限接近于人類,而無法實現(xiàn)完全復(fù)制。那么,強人工智能擁有的獨立意識在一定意義上仍然是人類意識的體現(xiàn)。

      從人的經(jīng)驗與情感方面來看,人類的經(jīng)驗具有獨特性和差異性。每個人在生活中的經(jīng)歷各不相同,因此,他們對同一件事結(jié)合個人的經(jīng)驗、常識、直覺等很可能產(chǎn)生不同的看法或者不同的處理方式。而這一點恰恰是強人工智能無法模擬的。同時,強人工智能具有的情感與人類有較大差距。強人工智能所能體會的“喜怒哀樂”仍然是對數(shù)據(jù)的分析和處理,即使將來真正出現(xiàn)“情感型機器人”,這種“情感”仍會以人類情感為模板,并非屬于自身的、獨特的、真實形成的一種意識活動。如明斯基所言:“情感是先于理智存在的,人工智能只有智力,沒有情感,不是真正的智能[7]。人類的經(jīng)驗和情感的不可復(fù)制性也決定了強人工智能不能具備人類那樣的意識。綜上,弱人工智能不存在具備人類意識的條件,即便未來強人工智能有一定獨立意識,但與人類自由的意識并不相同。那么,當(dāng)人工智能擁有一定獨立意識時是否就具備了刑事責(zé)任主體資格呢?

      (二)人工智能刑事責(zé)任能力之反思

      強人工智能體即使形成一定獨立意識,但這種意識也非絕對自由的意識。恩格斯曾經(jīng)指出:“如果不談所謂自由意志、人的責(zé)任、必然和自由的關(guān)系等問題,就不能很好地討論道德和法的問題[8]”。主體未達(dá)到形成自由意志的階段,便意味著對自身行為無法真正具備控制能力。而我國刑法在討論刑事責(zé)任能力時,主要考察年齡與精神狀態(tài)。這主要因為年齡與精神狀態(tài)影響行為人的辨認(rèn)與控制能力。只有當(dāng)行為人同時具備辨認(rèn)能力與控制能力時,刑法對其才具有非難可能性,才能對其處刑罰。而強人工智能自由意志的欠缺決定了它們并不能完全獨立地實施一系列行為,無法真正形成人類一樣的控制能力。同時,刑法上的危害行為必須要求在行為人意志的支配下實施,而強人工智能客觀表現(xiàn)的各種行為舉動并非受特定意志支配,因此,其不具備實施刑法上危害行為的主觀條件,同時,由于不具備對行為的真正控制能力,也就不符合刑事責(zé)任主體資格。正如有學(xué)者指出的,“人類思維和AI 永遠(yuǎn)是模擬與被模擬、操控與被操控之間的關(guān)系,人類大腦是AI 可以無限接近但不可逾越的地平線。”[9]人工智能體終究是人類智慧的創(chuàng)造物,因而在任何時候都無法真正脫離人類的控制,其所實施的行為或多或少都會摻雜著人類的意志。

      綜上,強人工智能不具備刑事責(zé)任能力,也無法滿足刑事責(zé)任主體條件。刑法亦是處罰人的法律,人工智能體不能擁有與人類相同的自由意識,不能對自身行為作出是非善惡之分,因而也就不是一個適格的刑事責(zé)任主體。

      三、人工智能納入刑事主體對刑法體系的影響

      肯定說論者以前瞻性觀點對未來人工智能可能實施的危害行為提出完善立法的建議。不可否認(rèn),這種追求對法益侵害事先預(yù)防的觀點,正符合當(dāng)下理論界所倡導(dǎo)的積極主義刑事立法觀。但對于一種極為遙遠(yuǎn)的可能性問題甚至無法到來的時代,立法的必要性有多大著實有待于商榷。對人工智能領(lǐng)域的風(fēng)險預(yù)防,肯定論提出將人工智能納入刑法規(guī)制范圍的設(shè)想。但這種設(shè)想并非一種積極主義的刑事立法觀,而屬于一種非理性、激進式的立法觀。刑事立法應(yīng)當(dāng)考量刑法的體系設(shè)置與實施的現(xiàn)實可能性,并非是隨意增設(shè)新罪。正如有學(xué)者所言,積極主義不是隨心所欲的濫用,也不意味著在社會治理中的首當(dāng)其沖,相反強調(diào)的是與刑法在法體系中的地位和功能相協(xié)調(diào)下的適度的、理性的犯罪化。如果強行將人工智能體納入刑事責(zé)任主體范圍內(nèi),那就勢必會對整個刑法體系造成前所未有的沖擊;刑事責(zé)任主體的擴張將會導(dǎo)致刑事立法及相關(guān)刑法理論的重新構(gòu)建,其任務(wù)量之大必定是立法者及理論界當(dāng)下及未來很長一段時間內(nèi)所無法完成的。

      刑事立法的修改將直接影響刑法中的具體理論。人工智能納入刑事責(zé)任主體范圍,首先要通過刑事立法來具體實現(xiàn)。而這一立法變動對刑法理論有著“牽一發(fā)而動全身”的影響。如果持肯定說論者的建議真正實施于立法之中,那么諸多刑法理論也將隨之重新定義,甚至喪失意義。以法益保護原則為例,刑法是通過損害一部分法益(適用刑罰)來保護另一部分法益的[10]。在人工智能可否具備刑事責(zé)任主體資格的爭議中,無論持肯定說學(xué)者或否定說學(xué)者,所關(guān)注的焦點都在于對具有自主意識的人工智能對人類造成危害時如何規(guī)制,而沒有從相反的角度考慮,亦即假如人工智能可以作為刑事責(zé)任主體,那當(dāng)人類或是人工智能針對人工智能實施的犯罪行為是否需要保護呢?人工智能是否有值得保護的法益?既然肯定說學(xué)者認(rèn)為人工智能應(yīng)當(dāng)為其自主意識支配下實施的犯罪行為承擔(dān)責(zé)任,那其權(quán)利同樣也應(yīng)當(dāng)?shù)玫叫谭ǖ谋Wo。權(quán)利與義務(wù)是一對相互的概念,任何一部法律都不可能僅規(guī)定權(quán)利或者僅規(guī)定義務(wù)。同一法律主體對于兩者也屬于兼而有之的狀態(tài)。而事實上,部分肯定說論者的討論局限于人工智能犯罪時如何利用刑法規(guī)制其犯罪行為。換言之,如何為人工智能制定一套全新的刑法意義上的義務(wù)?但是,這種討論基本未對如何保障人工智能的法益有所涉及。根據(jù)權(quán)利與義務(wù)的依存關(guān)系,設(shè)置刑法上人工智能主體義務(wù)的同時,也應(yīng)當(dāng)考慮為其制定一套全新的法益保護標(biāo)準(zhǔn),使得其合法權(quán)益得到保障。而事實上這一標(biāo)準(zhǔn)是難以實現(xiàn)的。人工智能所實施的犯罪與自然人的法益,或者自然人所實施的犯罪與人工智能的法益之間的比例性問題本身就是一大難題。例如,當(dāng)人工智能實施故意殺人,情節(jié)特別嚴(yán)重時,按照罪責(zé)刑相適應(yīng)原則,應(yīng)當(dāng)剝奪其生命權(quán);而實際上,人工智能并不具備這項權(quán)利,因為其本身就是非生命體。有學(xué)者提出對人工智能開發(fā)一套新的刑罰體系,即刪除數(shù)據(jù)、修改程序、永久銷毀[11]。但是,這種新型刑罰體系真正能夠做到罪責(zé)刑相適應(yīng)嗎?永久銷毀能否等同于剝奪人工智能的生命權(quán),能否起到安撫被害人家屬的作用?刪除數(shù)據(jù)或者修改程序又與自然人哪種法益具有相當(dāng)性?這些問題表明了肯定說理論仍然處于不成熟階段,有待進一步探析。而本文認(rèn)為,即使將來肯定說理論有了新的突破,在不承認(rèn)自然人與人工智能法律意義上平等的前提下,此類問題仍會如“雨后春筍”般產(chǎn)生。

      四、結(jié)論

      綜上所述,無論弱人工智能或是強人工智能都不宜成為刑事責(zé)任主體。因為人工智能不具備人的思維屬性,無法同人類一樣進行感知,而刑罰需是能為人所感知的,它是一種讓人感受到恐懼的強制力,只有如此才能長久地約束和震懾那些犯罪的欲望。人工智能體會不到刑罰帶來的痛苦,也就會降低對刑法的敬畏,從而致使刑罰功能落空。人工智能也無法同人類一樣在社會網(wǎng)絡(luò)中與他人交往。刑法所規(guī)制的犯罪行為是基于人與人之間的某種關(guān)系而產(chǎn)生的。人工智能無論是對知識的獲取、對行為的認(rèn)知還是對情境的反映等,都是在特定的現(xiàn)實空間或虛擬空間里進行的,并非是參與社會活動的結(jié)果,因而不具有社會性,而只具有自然性、反射性[3]。進而言之,人工智能不能擺脫人類的控制,其本質(zhì)意義上始終是為人類服務(wù)的工具。如果說將來人工智能真正實現(xiàn)獨立思考、能夠自主支配行為、對人類能夠?qū)嵤胺纯亍睍r,那么造就這類人工智能體的意義是什么?既然這類人工智能體本身就存在風(fēng)險,不如趁早將其扼殺在搖籃里。對人工智能“居安思?!惫倘皇菦]錯的,但并非一定要利用刑法防御風(fēng)險。當(dāng)下,最應(yīng)當(dāng)致力于如何保障人工智能在人類可控范圍內(nèi)發(fā)展,這要比增設(shè)一個新的刑事責(zé)任主體更為簡便?!胺阑加谖慈弧辈攀菚r下最好的一個選擇。

      參考文獻:

      [1]? ?雷·庫茲韋爾.奇點臨近[M].李慶誠,等,譯.北京:機械工業(yè)出版社,2011:80.

      [2]? ?劉憲權(quán),胡荷佳.論人工智能時代智能機器人的刑事責(zé)任能力[J].法學(xué),2018,(1):40-47.

      [3]? ?葉良芳.人工智能是適格的刑事責(zé)任主體嗎?[J].環(huán)球法律評論,2019,(4):67-82.

      [4]? ?王肅之.人工智能犯罪的理論與立法問題初探[J].大連理工大學(xué)學(xué)報:社會科學(xué)版,2018,(4):53-63.

      [5]? ?劉憲權(quán),房慧穎.如何劃分智能機器人的刑事責(zé)任?[J].公民與法:綜合版,2018,(6):30-31.

      [6]? ?張鶴鳴.意識是人腦的機能嗎[J].學(xué)術(shù)研究,1986,(3):51-56.

      [7]? ?馬文·明斯基.情感機器:人工智能與人類思維的未來[M].王文革,等,譯.杭州:浙江人民出版社,2016.

      [8]? ?馬克思恩格斯選集:第3卷[M].北京:人民出版社,2012:490-491.

      [9]? ?張勁松.人是機器的尺度——論人工智能與人類主體性[J].自然辯證法研究,2017,(1):49-54.

      [10]? ?張明楷.法益保護與比例原則[J].中國社會科學(xué),2017,(7):88-108,205-206.

      [11]? ?劉憲權(quán).人工智能時代刑事責(zé)任與刑罰體系的重構(gòu)[J].政治與法律,2018,(3):89-99.

      [責(zé)任編輯? ?興? ?華]

      猜你喜歡
      人工智能
      我校新增“人工智能”本科專業(yè)
      用“小AI”解決人工智能的“大”煩惱
      汽車零部件(2020年3期)2020-03-27 05:30:20
      當(dāng)人工智能遇見再制造
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      AI人工智能解疑答問
      人工智能與就業(yè)
      基于人工智能的電力系統(tǒng)自動化控制
      人工智能,來了
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      人工智能來了
      德化县| 东兴市| 安溪县| 咸阳市| 阳曲县| 黄浦区| 达日县| 同心县| 武汉市| 吉林省| 舒城县| 湘潭县| 信宜市| 竹山县| 同江市| 广丰县| 华坪县| 略阳县| 皋兰县| 沙坪坝区| 聂拉木县| 施秉县| 双牌县| 安新县| 维西| 安岳县| 蓬安县| 石首市| 柳河县| 麻阳| 黎平县| 玉溪市| 渝中区| 延津县| 阿拉善右旗| 大城县| 琼海市| 肥乡县| 三台县| 南城县| 达日县|