• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能時代刑事責任主體之再審視

      2020-03-11 05:51:59
      廣西社會科學 2020年12期
      關鍵詞:主體人工智能人類

      (吉林大學 法學院,吉林 長春 130012)

      人工智能這個概念早在20世紀50年代就已經(jīng)出現(xiàn),但其發(fā)展并非一路順利,而是歷經(jīng)了三起兩落,隨著深度學習在計算機視覺、語音識別及自然語言處理等領域取得突破性進展,人工智能技術在社會生活領域的應用日趨成熟[1],這一技術不再僅停留在學術界的討論階段,而成為各國政府和企業(yè)家的追捧對象。我國也非常重視人工智能的發(fā)展,先后發(fā)布了《機器人產(chǎn)業(yè)發(fā)展規(guī)劃(2016—2020年)》《新一代人工智能發(fā)展規(guī)劃》《人工智能標準化白皮書(2018版)》等一系列相關文件鼓勵、促進人工智能的發(fā)展,而且在政府的支持下我國的人工智能技術已經(jīng)在各個領域迅速發(fā)展,“智慧法院”“百度醫(yī)療大腦”和“富士康機器人”等都是人工智能應用于社會生活的現(xiàn)實例子。然而人工智能發(fā)展也不可避免地存在一定的風險和隱患,國家在大力倡導發(fā)展人工智能技術產(chǎn)業(yè)的同時也要求構建配套的風險防范機制,以防范潛在風險。習近平在主持中共中央政治局集體學習時就明確指出:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。”[2]因此,關于人工智能體法律規(guī)制包括刑事法律規(guī)制相關問題的研究對我國當前法治社會的發(fā)展而言具有跨時代意義。

      一、問題的提出:人工智能時代刑事責任主體地位的爭論

      人工智能的發(fā)展不僅是一場科技的革命,也將會對傳統(tǒng)社會倫理、法律提出挑戰(zhàn)。我國法學理論界從法理學、民法和著作權法等不同視角探究人工智能時代法律制度受到的沖擊和可能發(fā)生的變革,自2017年起人工智能相關法律問題爭論的“戰(zhàn)火”燒到了刑法學界,是否要改變傳統(tǒng)的刑事責任主體范圍,賦予人工智能體獨立的犯罪主體資格,成為這場刑法學論辯的核心問題。

      人工智能體依據(jù)發(fā)展程度不同而有強弱之分,弱人工智能體僅是人類編程控制下改造社會的工具,可能成為犯罪對象或犯罪工具卻因明顯不具有自主意志而不可能成為刑事責任的主體,對于這一點刑法學界基本上能夠達成共識。然而,對于脫離人類編程控制的強人工智能體或者說智能機器人是否會成為刑事責任的主體,目前理論界存在兩種觀點。一是否定說。持否定說的學者認為:“未來已來,但是不是說來就來,主張人工智能體具有主體,尚不具有現(xiàn)實意義”[3];“人工智能系統(tǒng)對其活動的法律規(guī)范意義不可能具有自主性認識,不可能具有刑法意義上的辨認、控制能力,刑法不應將其作為刑事責任主體”[4]。二是肯定說。持肯定說的學者認為,“強人工智能體能在人類的設計編程之外實施行為具有獨立意志,且與人類相比具有更強的控制能力與可培養(yǎng)的辨認能力,可以成為刑事責任的主體”[5]?!艾F(xiàn)實生活中人工智能體在部分國家和地區(qū)已經(jīng)具有了法律人格,而且既然法人能夠獨立承擔刑事責任,人工智能體與法人之間的刑事責任理念沒有實質性的法律差異,其也可以具有刑罰適應能力,所以人工智能體成為刑事責任主體不存在障礙?!盵6]肯定說和否定說就以下三個方面存在正面的沖突:(1)人工智能體刑事責任討論的前提范疇問題;(2)人工智能體是否具有辨認、控制能力和可罰性的問題;(3)人工智能體是否具有法律人格等問題。

      事實上,人工智能體是否具有刑事主體地位的問題應當從兩個層面進行考察:一是實然層面,即人工智能體在自身能力上是否能夠具備辨認、控制能力和承擔刑事責任的能力;二是應然層面,即人工智能體應不應該發(fā)展至具有刑事責任主體地位的階段,當然前提是從目前來看人類對人工智能的發(fā)展能否達到這種程度是具有一定控制力的,至于是否要積極實現(xiàn)則需要進行風險的評估和利益的衡量。

      二、前提審視:人工智能的發(fā)展現(xiàn)狀及未來發(fā)展軌跡

      (一)人工智能概念的厘清

      有關人工智能發(fā)展的爭論中影響最大的莫過于對人工智能威脅論的爭辯,一方以伊隆·馬斯克為代表,對強人工智能和超級人工智能時代的到來充滿擔憂,認為人工智能發(fā)展的終點可能是人被機器所控制;另一方以馬克·扎克伯格為代表,認為人工智能是改善人類生活的重要發(fā)明,而且人工智能不可能超越人類,威脅論者是在危言聳聽。雙方的爭論看起來針鋒相對,但事實上并不是在同一個話語體系下對話。威脅論者所擔憂的“人工智能”指的是強人工智能甚至是超級人工智能,而威脅論的反對者所指的“人工智能”則是弱人工智能,在不同的語境之下抽象地對人工智能是否會給社會帶來威脅進行討論其實不過是各說各話而已,并沒有真正形成觀點上的交鋒與碰撞。同理,若抽象地討論人工智能的刑事責任主體資格問題,有的學者是在弱人工智能的語境之下論述,有的學者是以強人工智能時代為討論背景,且學者們對“人工智能”的概念也有不同的理解,在前提概念沒有厘清的情況下一味地概念附會只會制造學術泡沫,并無助于認清人工智能時代刑事責任主體的范圍[7]。

      有的學者在沒有清晰認識人工智能體差異的前提下,將強人工智能也簡單理解為一種算法,始終認為人類具有唯一的主體性,提出無論是在弱人工智能時代還是在強人工智能時代都應堅持“人力可控時定罪,人力不可控時不定罪”的定罪原則[8]。事實上,人工智能按照其發(fā)展程度分為弱人工智能(專用人工智能)、強人工智能(通用人工智能)和超級人工智能。強人工智能與弱人工智能之間的差異在于機器是真的智能,還是表現(xiàn)得“好像”很智能一樣[9]。若機器依附于人類設置的編程和軟件活動則表明尚處于弱人工智能時代;若機器能夠在人類設計和編程的范圍之外獨立思考、作出決策,并且可以按照自己的意志實施行為,則意味著強人工智能時代的來臨;而超級人工智能是指人工智能將超過人類智力的極限點,達到這個狀態(tài)的時間點就是“奇點”[10]。按照理論推理和概念描述的內(nèi)容,強人工智能體已經(jīng)脫離了人類的控制,具有主體性,因此,將強人工智能體理解為絕對的客體是對人工智能體內(nèi)涵的理解存在偏差,對前提性概念存在誤解的基礎上討論人工智能體的主體地位問題,所得出的結論將很難令人信服。

      (二)強人工智能時代是否來臨尚未可知

      雖然有部分人工智能專家對人工智能的未來發(fā)展充滿信心,認為“奇點”一定會出現(xiàn),但大部分科學家就現(xiàn)實情況作出冷靜的分析后認為,“目前還沒有已知的強人工智能算法或明晰的工程路線可以實現(xiàn)這些構想”[11]。強人工智能時代很可能只是人們的一種美好的夢想并且無法實現(xiàn),理由是:

      其一,從弱人工智能過渡到強人工智能技術上存在難以逾越的鴻溝。有學者認為科技的發(fā)展是爆發(fā)式的,人工智能技術已經(jīng)在逐漸改變我們的生活和工作方式,而且弱人工智能體已經(jīng)在某些方面具有超越人類的能力,所以強人工智能時代的到來也是可以預期的[12]。人們之所以對強人工智能時代的來臨持有過于樂觀的態(tài)度,部分原因是對人工智能當前發(fā)展速度的認知與實際的發(fā)展進度之間存在一定的偏差。人工智能系統(tǒng)在社會生活中應用的范圍不斷擴張,人們誤以為是人工智能技術本身在高速發(fā)展,但實際上近十年來人工智能技術本身一直停留在深度學習的發(fā)展階段,并沒有什么突破性的進展,而人工智能體也不會突然自己“覺醒”自我升級為智能機器人,從弱人工智能到強人工智能的交替需要計算機技術、神經(jīng)網(wǎng)絡技術等相關領域合作完成。目前實現(xiàn)由弱到強的最現(xiàn)實策略是讓機器模擬人的大腦運作過程來達到智能,即通過打造人工網(wǎng)絡神經(jīng)元模擬人類大腦的神經(jīng)網(wǎng)絡運作程序,但這種理論很難付諸實踐,谷歌投入大量資金發(fā)展了近十年僅組成16000個處理器,這與人類大腦中的數(shù)十億個神經(jīng)元相比不值一提[13]。雖然弱人工智能在某些領域表現(xiàn)出超人的能力,但是這僅僅意味著AI技術在許多垂直領域內(nèi)的局部進展狀況良好,從AI的整體發(fā)展來看,跨領域的發(fā)展進程很緩慢,存在技術上難以突破的瓶頸[14]。從目前發(fā)展趨勢和強弱人工智能時代交替所需要的技術支持來看,很難確定強人工智能時代一定會實現(xiàn)。

      其二,強人工智能體存在的觀點缺乏哲學基礎。人的心智是非常復雜而難以解釋的,目前哲學家對人類所具有的意識、智能等概念尚不能明確作出界定,何談對人工智能體是否具有人類的意識和智能進行判斷?而且目前人工智能的發(fā)展更強調(diào)理性的智力而忽視情感方面的能力,所以很難令人相信會有與人類在理解力、智能等方面相匹敵的人工智能體出現(xiàn)。

      其三,從人工智能的發(fā)展史來看,人工智能的發(fā)展隨時可能再次面臨低谷。人工智能的發(fā)展并非一帆風順的,曾因技術發(fā)展瓶頸而停步不前,也曾因社會政治、經(jīng)濟條件不允許而遭受冷落,雖然目前人工智能的發(fā)展很繁榮,但也不能保證它在短期之內(nèi)就會有巨大的進步,下一個階段是人工智能的發(fā)展停滯期也不是毫無可能。

      總的來說,雖然人工智能正在我國的金融發(fā)展、城市基礎設施建設以及醫(yī)療等領域發(fā)揮一定的作用,但也僅是在特定的領域發(fā)揮決策、預測和分析的功能,尚處于發(fā)展的初期,也就是弱人工智能時代[15]。從目前的發(fā)展狀況而言,探討強人工智能體或說是智能機器的人的刑事法律主體地位問題實在是為時尚早。

      三、資格審視:人工智能體能不能成為刑事責任主體

      依據(jù)我國刑法規(guī)定,刑事責任主體指的是能夠承擔刑事責任的自然人和單位,而刑事責任的承擔以具備刑事責任能力為前提,因此討論人工智能體是否具有刑事責任主體資格就是在討論其是否具有刑事責任能力。根據(jù)刑法通說的觀點,刑事責任能力是犯罪能力和刑罰適應能力的統(tǒng)一,這里的犯罪能力指的是辨認、控制能力,而刑罰適應能力指的是承擔刑事責任的能力[16],若人工智能體具備刑事責任能力,則既要求其具有辨認、控制能力,也要求其具有接受刑罰處罰的可能性以保證能夠達到刑罰處罰的目的[17]。但從目前的發(fā)展情況來看,人工智能體不可能具有刑事責任能力。

      (一)人工智能體不可能具備辨認、控制能力

      智能機器人具備刑事責任能力的論證思路是:承認其具備獨立的意志→具有辨認、控制能力→具有刑事責任能力,這一論證過程看似很有道理,實則只是一種脫離實際的紙上談兵,缺乏可操作性。理由是:

      其一,如何判斷人工智能體是否具備獨立意識?人工智能體具備獨立的意識是其具備辨認、控制能力的基礎和前提,而判斷人工智能體是否具有獨立意識的參照對象是人的獨立意識,哲學角度人的“獨立意識”的內(nèi)涵尚含混不清,沒有一個統(tǒng)一的界定,在判斷標準尚不明晰的情況下科學確定人工智能體是否具有獨立意識似乎不太現(xiàn)實,若人工智能體的獨立意識都不能確定就討論其是否具備辨認、控制能力就如同空中樓閣,沒有理論根基。

      其二,智能機器人如何獲得價值判斷的能力?刑事責任能力核心的判斷標準是辨認、控制能力,其中辨認能力指的是行為人對行為及結果在法律上的性質和意義有認識的能力,控制能力是指行為人有決定是否要實施某特定行為的能力,辨認能力是控制能力存在的前提。行為人具備辨認能力不僅要求其對自身行為、結果、因果關系等客觀事實有認知的能力,還要求其對行為在法律上的意義、性質和后果具有判斷的能力,因此,辨認能力不僅僅是事實認知的能力,還包含價值評判的能力。若人工智能體具備辨認能力,則意味著其既要有事實認知的能力,還應該有價值評判的能力。事實認知能力容易實現(xiàn),“電子眼”和“電子耳”對客觀事實的認識能力要比人類還要強很多。但是,人工智能體如何獲得價值判斷的能力?途徑一是“人工智能體通過人類設計的程序中所蘊含的道德、倫理、法律規(guī)范作出價值判斷”[18]。這種表述本身存在邏輯上的漏洞,若人類能夠通過相關程序控制人工智能體的價值判斷能力,那說明人工智能體還在人類的控制之下,其不具有獨立的意識,也就不具有辨認、控制能力。而且若人類能夠通過“道德嵌入”的方式賦予人工智能體價值判斷的能力,就能根據(jù)提前預估的道德風險設計出能夠規(guī)避道德和法律風險的人工智能體,那么,人工智能體將永遠不會實施違反道德和法律的行為,就根本不會成為刑事責任主體[19]。途徑二是人工智能體依靠其自身的強化學習擁有人類的價值判斷能力,這完全是自我升級的結果。目前尚未有任何依據(jù)表明人工智能體將會具備這種自我升級的能力,即使人工智能體擁有這種自我升級的能力,其對自身行為價值判斷的標準也存在不確定性,人工智能體完全可能會產(chǎn)生一種獨立的、新的行為規(guī)范作為判斷自身行為意義的標準,這種行為準則是否會與目前社會的道德準則、法律規(guī)范一致很難說。在這種情況下人工智能體確實既有事實判斷的能力也有價值判斷的能力,但其對自身行為性質的認識并不是參照現(xiàn)行刑法規(guī)范作出的,那么其對自身行為在現(xiàn)行刑法中的意義還是沒有認知。

      綜合分析來看,人工智能體具備與人類一樣的價值判斷能力基本是一種不可能實現(xiàn)的猜想。既然人工智能體不可能對自身行為的法律性質有明確的認識,那么,其也就不可能具備辨認能力,更不可能具備控制能力。因此,人工智能體不可能具備辨認、控制能力。

      (二)人工智能體不具有刑罰適應能力

      根據(jù)美國學者杰夫里的公式①美國學者根據(jù)費爾巴哈的心理強制說提出一個判斷犯罪是否發(fā)生的公式:CB(犯罪行為)=BP(增加犯罪的可能性)—PP(感受到刑罰痛苦的可能性)。,當行為人感受到刑罰處罰痛苦的可能性大于實施犯罪的可能性,其犯罪行為就會減少或不發(fā)生[20]。我國傳統(tǒng)的刑罰體系包括生命刑、自由刑、財產(chǎn)刑和資格刑。一方面,人工智能體區(qū)別于血肉之軀的人類,傳統(tǒng)刑罰對其適用的空間有限;另一方面,人工智能體是否應具有獨立法律主體地位,在多大的范圍之內(nèi)擁有何種權利都很難界定,因此,通過傳統(tǒng)刑罰體系懲罰人工智能體來預防犯罪存在一定障礙。于是有學者建議重構刑罰處罰結構以適應人工智能時代的發(fā)展,認為可以對人工智能體處以刪除程序、修改程序和永久銷毀的刑罰處罰措施[21]。持這種觀點的學者認為“智能機器人已經(jīng)具有獨立的意識,其具有感知痛苦的能力,也能在刑罰處罰的痛苦與犯罪獲得的快感之間衡量后調(diào)整自己的行為,對其進行刑罰處罰能夠達到特殊預防的效果”。同時,若智能機器人已經(jīng)具備了獨立學習的能力,當有人工智能體遭受到刑罰處罰的痛苦,對其他人工智能體將會起到一種威懾作用,因此對人工智能體的處罰能夠實現(xiàn)一般預防和特殊預防的功能[22]。

      然而,一方面,既然承認人工智能體有獨立的意識,那么即使刪除數(shù)據(jù)、修改程序對其也起不到刑罰處罰的效果,因為人工智能體自身有獨立的意識表示其已經(jīng)不受人類數(shù)據(jù)和程序的控制,即使刪除了相關數(shù)據(jù)還是可以通過自我升級恢復;另一方面,人工智能體的本質是一套系統(tǒng),機器人僅是這套程序的載體或者說容器,即使永久地銷毀了人工智能體,其也還是有“復活”的可能性,不能像自然人一樣對死亡有恐懼感和痛苦感,既然刑罰無法真正地對人工智能體發(fā)揮作用,那么一般預防和特殊預防的目的也都無法實現(xiàn)。因此,從目前的研究成果來看,設計適應人工智能體的刑罰框架不過是坐而論道,不具現(xiàn)實操作性和實際意義。

      綜上所述,就目前的技術發(fā)展情況而言,人工智能體具備辨認、控制能力和刑罰適應能力缺乏實際操作的可能性,所以人工智能體很難具有刑事責任能力。

      四、風險審視:人工智能體應不應成為刑事責任主體

      雖然從目前的技術發(fā)展情況來看,人工智能體具有刑事責任能力還只是空想,但科技創(chuàng)造了諸多奇跡,人工智能是否要朝著這個方向發(fā)展以及發(fā)展到何種程度還是一個值得思考的問題。強人工智能和超級人工智能時代來臨代表世界上將會出現(xiàn)一種和人類一樣具有思考能力,甚至超出人類智力程度很多倍的“永生”機器出現(xiàn),那么人類是否還能幸存就是個值得擔憂的問題[23]。強人工智能時代到來的時刻一定是顛覆世界的時刻,既對社會制度產(chǎn)生巨大沖擊也會直接威脅到人類個人權利的保障,因此要在人工智能的發(fā)展過程中清醒地認識到其可能帶來的風險,就如禁止克隆技術和人類基因編輯一樣,人工智能的發(fā)展速度也需要法律的控制。所以,人工智能體刑事責任主體問題的討論不僅要思考“能不能”的問題,更要關注要不要賦予其刑事責任主體地位的問題[24]。

      (一)強人工智能時代刑法失去約束力

      目前一些刑法理論界的學者已經(jīng)開始對強人工智能體實施犯罪行為的情況充滿擔憂:若機器超出人類控制之外成為具有自我意識的智能機器人,在自我意識支配之下與人類產(chǎn)生矛盾和沖突,損害人類利益、造成嚴重的社會危害應當要承擔刑事責任[25]。事實上,強人工智能時代能否出現(xiàn)還是一個科學上的未解之謎,來自專業(yè)人工智能研究領域的專家和學者們對此并不看好,但退一步來說,倘若在未來的某個時間強人工智能時代真的到來,存在于智能機器人與人類之間的矛盾和沖突也并非刑法所能解決的問題。

      首先,刑法在和平狀態(tài)下才能發(fā)揮作用?;舨妓拐J為人類的天性中存在沖突的基因,在沒有一個令所有人敬畏的權力出現(xiàn)之前,人類處于每個人對每個人的戰(zhàn)爭狀態(tài)下,人們的生活充滿了不安和恐懼,為了擺脫這種戰(zhàn)爭的威脅,能夠享有和平的生活狀態(tài),人們愿意放棄自己的部分權利授權給一個集體或個人從而形成國家,國家是共同權力的代表,其存在的價值是內(nèi)求安定、外謀和平[26]。國家利用權力的威懾力設立法律規(guī)范限制人們的行為來實現(xiàn)國家內(nèi)部的安定。反過來說,若社會處于戰(zhàn)爭狀態(tài)人們的權利很難匯合授予給能夠代表公眾意識的集體或個人,也很難形成一個令人畏懼的共同權力,而沒有共同的權力也就沒有法律規(guī)范存在的根基和基礎。因此,只有在相對和平狀態(tài)下的國家才有法律適用的可能性,刑法又是法律規(guī)范的一個分支,所以刑法也僅能在處于相對和平狀態(tài)下的國家中發(fā)揮作用。

      然而,強人工智能時代的社會風險超出刑法的調(diào)整范圍。若真的存在與人的智力、能力相當?shù)娜斯ぶ悄荏w,很難確定其是否愿意接受人類的控制為人所服務,人們最擔憂的情況是強人工智能體想要擺脫人類的控制依照自己的意志實施違反人類社會共同價值規(guī)范的行為,甚至想要傷害、征服人類。雖然刑法是一種有效的社會糾紛解決機制,但當社會的主要矛盾是人工智能體與人類之間的權利和權力之爭時,從歷史發(fā)展的客觀規(guī)律來看,這種爭端最終的解決機制往往是戰(zhàn)爭而不是法律。倘若這種可怕的想象成真,與人類作對的反叛者對原有的共同權力的象征——國家就不再有敬畏之心,依托于國家權威而存在的法律規(guī)范對這些反叛者自然也就沒有威懾力。相反,他們會想要打破原有的共同權力體建立一個新的權力體,形成新的法律規(guī)范和制度。因此,若強人工智能時代真的來臨,刑事法律規(guī)范也將失去其功能性,強人工智能體是刑事責任主體就是個偽命題。

      (二)人工智能體不應具有法律人格

      討論人工智能體是否具有刑事主體資格無法回避的一個前置性問題就是:人工智能體是否具有法律人格?若其不具備法律人格就更不用考慮承擔刑事責任的問題。對于人工智能體法律人格的探討最開始是由法理學者和民商法學者發(fā)起的,隨后也有刑法學者在此基礎上開始思考這一問題,已經(jīng)有一些刑法學者開始支持賦予人工智能體限制的法律人格或完全的法律人格,主要從兩個層面進行論證:其一是從哲學基礎的層面,認為人的道德意志的來源是大腦,人工智能體也可以具備與人類思考能力相同的大腦,所以其也就有道德理性,人工智能體具有法律人格的哲學基礎;其二是從實現(xiàn)可能性的層面,將人工智能體與單位犯罪相類比,從單位獲得法律人格的歷史發(fā)展軌跡推論人工智能體擁有法律人格也是社會發(fā)展的必然[27],而且已經(jīng)有一些國家和國際組織開始提出法案甚至實驗賦予人工智能體法律人格。事實上這兩個論證理由都值得推敲,對于第一個理由,道德是指人與其知識、技能有別的一種內(nèi)在素質,包括道德情感和道德觀念[28]。人的道德理性總是與人性和情緒這種抽象的概念聯(lián)系起來,其產(chǎn)生的機理是個復雜的過程,是否完全來源于人的大腦也是難以明確的,所以以人腦與人工智能體能力相當作為其具有道德理性的論據(jù)難以令人信服。對于第二個理由,從單位被確定具有法律人格的發(fā)展過程來看,將人的意志集合起來的單位與自然人相比有集資的優(yōu)勢、長生的優(yōu)勢、分擔風險的優(yōu)勢等諸多優(yōu)勢[29],因此法律賦予其獨立的人格為的是促進經(jīng)濟發(fā)展和人類進步,是適應社會發(fā)展的應然之舉。然而,在人工智能飛速發(fā)展的今天,法律賦予人工智能體獨立人格的必要性和優(yōu)勢尚未體現(xiàn)出來,而且若法律賦予人工智能體獨立的人格反而會帶來很多的弊端,一旦人工智能體具有獨立的人格,將與自然人享有平等的權利,他們將會與人類共同分享自然資源,而且社會經(jīng)濟制度、政治制度和法律制度都要作出相應調(diào)整,這些付出的成本遠遠高于創(chuàng)造人工智能所要節(jié)約的成本,因此賦予人工智能體獨立的人格不符合經(jīng)濟合理性原則,未必會成為社會發(fā)展的必然趨勢。而且國際相關組織提出賦予人工智能體法律地位的報告也只是停留在提出建議的階段,對于如何具體落實人工智能體的法律人格并沒有設計具體的規(guī)則[30]。

      法律人格提倡論者期待著賦予人工智能體權利和義務,將其作為法律規(guī)制的對象能夠緩解人類對人工智能犯罪的恐慌,保障科技的發(fā)展不受阻礙。這種觀念表現(xiàn)出一種為了發(fā)展科學技術不顧社會倫理道德規(guī)范的架勢,這種思想是很危險的?!皺C器人之父”阿西莫夫提出的“機器人三定律”明確了人和機器人之間的地位關系,機器人應該是依附于人類的附屬品,機器人的過度發(fā)展帶來的可能是災難而不是便利,雖然人工智能威脅論的觀點聽起來似乎更像荒誕不經(jīng)的電影劇本,但是這關乎人類的命運,即使有微乎其微的可能性也沒有必要冒風險。而法律應是將人工智能對人類造成的損害控制在提前預測范圍內(nèi)最有效的方法,而不是為人工智能的無節(jié)制發(fā)展背書[31]。

      綜上所述,人工智能體的過度發(fā)展有威脅人類安全、危害社會制度的風險,不應賦予其獨立的法律人格,所以人工智能體不應成為刑事責任主體。

      五、問題的回歸:人工智能時代真正的刑事責任主體——提供者和使用者

      (一)人工智能時代承擔刑事責任的主體應當是人工智能體的控制者

      德國學者烏爾希里·貝克曾經(jīng)預言在風險社會之下可能會出現(xiàn)一種有組織的不負責任的現(xiàn)象,即“我們企圖在破壞性影響與個人因素間建立聯(lián)系,而后者很少能夠從工業(yè)生產(chǎn)模式的復雜體系中被分離出來”[32]。貝克認為隨著社會分工的不斷進化,責任在多方利益角逐的過程中成為“燙手的山芋”,個人將會通過多種形式企圖推卸責任。依據(jù)貝克的觀點,人工智能時代將刑事法律責任轉嫁給人工智能體似乎也是個人逃避責任的一種表現(xiàn),但當個人可以不再承擔任何責任時其行為就會缺少約束,社會破壞性的影響就難以修復和預防,而且我國尚處在弱人工智能時代,個人是人工智能體背后的實際控制者,所以追究個人責任才是人工智能時代防范風險的有效手段。

      一方面,國家對人工智能體法律規(guī)制對象提出了指導性意見。2018年1月18日國家人工智能標準化總體組、專家咨詢組成立大會在北京召開,同期召開了2018人工智能標準化論壇,中國電子技術標準化研究院在此次論壇上發(fā)布了《人工智能標準化白皮書(2018版)》,為近期我國人工智能的研究提供了方向。白皮書中指出,“未來法律和政策應當作出明確的規(guī)定以保證權責的統(tǒng)一,應在技術開發(fā)和應用兩方面都建立明確的責任體系,以便在技術層面可以對人工智能技術開發(fā)人員或部門問責,在應用層面可以建立合理的責任和賠償體系”[33]。根據(jù)白皮書表述的內(nèi)容,國家對人工智能相關法律的規(guī)制對象主要是人工智能的技術研發(fā)者和使用者。

      另一方面,社會公眾對人工智能時代法律責任的承擔主體的意見也很一致。騰訊研究院于2017年5月至6月展開了一次人工智能相關問題的網(wǎng)絡問卷調(diào)查,其中一個問題就是人工智能的法律責任歸屬問題,調(diào)查結果顯示,認為企業(yè)(產(chǎn)品生產(chǎn)者)應當承擔法律責任的受訪者占到77.9%,產(chǎn)品生產(chǎn)者以絕對性的優(yōu)勢成為公眾認為最應該承擔法律責任的主體;排在第二位的法律責任承擔主體是人工智能的使用者[34]。因此,無論是官方的態(tài)度還是社會民眾的意愿,都是認為目前人工智能的法律責任主體應該是人工智能的提供者和使用者而不是人工智能體本身,法律應當通過明確研發(fā)者、生產(chǎn)者和使用者的法律責任來維護人工智能時代的社會秩序和安全。

      (二)人工智能提供者和使用者是刑事責任主體的理論依據(jù)

      刑法在法律體系中處于保障法的地位,刑事法律責任與其他法律責任相比具有一定的特殊性,結合我國刑事法律規(guī)范的特征和人工智能時代可能存在的犯罪行為,依照主觀罪過的不同具體可以分為兩種情況:

      其一,人工智能的研發(fā)者、生產(chǎn)者和使用者可能承擔故意犯罪的刑事責任。首先,人工智能之父艾倫·圖靈曾說,“即使我們可以使機器服從于人類,比如在可以在關鍵時刻關掉電源,然而作為一個物種我們也應該感到極大的敬畏”[35]。從成本效益分析的角度來看,人類研發(fā)風險性極高的人工智能體帶來的弊端要大于預期的收益,而且人工智能的發(fā)展軌跡可能直接威脅到整個人類社會的存亡,僅僅依靠科技道德對其進行規(guī)范遠遠不夠。從風險的嚴重程度上刑法應適當對人工智能的研究領域進行一定的限制,對人工智能的研發(fā)內(nèi)容進行必要的約束。若研發(fā)者違反刑法禁止性規(guī)定,研發(fā)具有危險性的人工智能體應當承擔故意犯罪的刑事責任。其次,人工智能也可能被不法分子所利用而成為一種升級的犯罪工具。例如,一些應用人工智能技術的無人飛行器的使用,從積極的方面在資源勘探、海洋監(jiān)測以及軍事領域都發(fā)揮了重要的作用;從消極的方面若人工智能的使用者利用這種可以搭載炸藥等危險物品的無人飛機實施殺人、傷害行為或者恐怖主義活動,其要承擔故意殺人、傷害以及恐怖主義相關犯罪的刑事責任。最后,我國處于弱人工智能時代,從人工智能研發(fā)出來到廣泛地應用于日常生活之間有個過渡的環(huán)節(jié),即生產(chǎn)者對人工智能產(chǎn)品的批量生產(chǎn)過程。目前人工智能體不是以獨立個體的身份存在,尚未動搖人類中心主義的現(xiàn)實,只是輔助人類更好生活的工具[36],本質上人工智能體是一種產(chǎn)品。我國現(xiàn)行刑法第一百四十條至一百五十條規(guī)定了生產(chǎn)、銷售偽劣產(chǎn)品罪相關的刑事責任,人工智能的生產(chǎn)者與普通產(chǎn)品的生產(chǎn)者并沒有本質上的差異,其也可以適用這一節(jié)的相關罪名,人工智能的生產(chǎn)者也是刑事責任的主體[37]。

      其二,人工智能的研發(fā)者和使用者可能是過失犯罪的犯罪主體。刑法理論界的通說認為“過失犯罪的本質是具有注意能力的人對注意義務的違反,因而合理的判斷行為人是否具有注意能力和負有注意義務就成為正確認定犯罪過失的關鍵”[38]。人工智能研發(fā)者的工作就是通過設計軟件和編程創(chuàng)造出人工智能產(chǎn)品,作為專業(yè)技術人員經(jīng)過多年人工智能相關知識的培訓和研究,在人工智能的研發(fā)過程中經(jīng)過多重的理論分析和實踐探索,其對人工智能產(chǎn)品本身是否存在安全隱患,將這類產(chǎn)品投入使用是否會引發(fā)危害后果應該能夠作出科學的判斷,因此可以合理地認為研發(fā)者對人工智能產(chǎn)品可能引發(fā)的嚴重危害社會的后果具有認識、預見的能力。同時,人工智能的研發(fā)行為是一種具有高度風險性的行為,因此研發(fā)者應當承擔一定的注意義務,且注意義務來源于法律、法規(guī)或業(yè)務規(guī)定。目前全國標準化信息委員會(SAC/TC 28)已經(jīng)與國際標準化組織機構合作,逐步對人工智能研發(fā)涉及的各個相關領域開展標準化工作,這意味著我國權威機構已經(jīng)為人工智能研發(fā)者設置一定的注意義務。因此,人工智能的研發(fā)者具備注意能力和注意義務,是過失犯罪的刑事責任主體。另外,人工智能的使用者在產(chǎn)品的使用過程中也應當承擔一定的注意義務,若其違反法律規(guī)定的注意義務,造成危害結果的出現(xiàn),也會成為過失犯罪的刑事責任主體,需要承擔過失犯罪的刑事責任 。

      六、結語

      “不要因為走得太遠,而忘記了當初為什么要出發(fā)”,人類發(fā)展人工智能的目的是獲得更好的生活,人工智能體始終應該在人類可控范圍內(nèi),一旦失去這種控制,人類將會面臨未知的危險。因失去對人工智能體的控制引發(fā)的不良后果可能要比研發(fā)高級人工智能所獲得的價值還要大,出于趨利避害的本能也應該思考是否要走到那一步。若人類始終是人工智能背后的真正控制者,那么人工智能體不過是人類實現(xiàn)自我意志的傀儡,當法益侵害結果出現(xiàn),應苛責具有非難可能性的人類而不是人工智能體本身。

      猜你喜歡
      主體人工智能人類
      人類能否一覺到未來?
      論自然人破產(chǎn)法的適用主體
      南大法學(2021年3期)2021-08-13 09:22:32
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      1100億個人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      關于遺產(chǎn)保護主體的思考
      人類正在消滅自然
      奧秘(2015年2期)2015-09-10 07:22:44
      鸡西市| 黄龙县| 普兰县| 松江区| 尉氏县| 宣城市| 镇安县| 深泽县| 汤原县| 房山区| 永嘉县| 建湖县| 胶州市| 樟树市| 玉溪市| 台江县| 于田县| 灵宝市| 汝城县| 武宣县| 双桥区| 宜州市| 云梦县| 平顶山市| 梓潼县| 上蔡县| 桓台县| 宽城| 永昌县| 桑植县| 万年县| 遵化市| 南乐县| 镶黄旗| 盘锦市| 扎囊县| 九江市| 灵武市| 禹城市| 武清区| 措美县|