• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      智能社會中人工智能法律主體資格探析

      2021-12-04 03:42:46白玉杰
      關鍵詞:主體資格主體人工智能

      白玉杰 張 昱

      ( 1. 華東理工大學社會與公共管理學院, 上海 200237; 2. 青海大學財經(jīng)學院, 青海西寧 810016)

      一、研究背景

      科技的進步與發(fā)展帶來時代的快速更迭,與農(nóng)業(yè)社會轉(zhuǎn)型為工業(yè)社會不同,工業(yè)社會向智能社會的轉(zhuǎn)變,其速度、廣度和深度都已超出人類的想象。[1]人工智能技術的快速發(fā)展已然證明人類進入了萬物互聯(lián)的智能社會。2016年3月,人工智能系統(tǒng)AlphaGo以4∶1戰(zhàn)勝世界圍棋冠軍李世石;2017年7月,AlphaGo與柯潔在圍棋人機對戰(zhàn)中連勝3局;同年10月,AlphaGoZero通過三天圍棋學習,以100∶0戰(zhàn)勝AlphaGo;此后,DeepStack程序戰(zhàn)勝世界頂級職業(yè)撲克玩家,人工智能機器戰(zhàn)勝人類的事件頻頻出現(xiàn)。人工智能幾乎成為所有領域談論的熱點,哪個領域若不能與人工智能相聯(lián)系,彷佛就要被社會所淘汰,智能金融、智能教育、智能醫(yī)療、智能交通、智能經(jīng)濟、智能健康、智能能源、智能家具、智能養(yǎng)老、智能公共服務、智能監(jiān)管等等,涉及人類社會的方方面面。只要有一部智能手機與互聯(lián)網(wǎng)相連,人工智能就在身邊,我們的生活質(zhì)量瞬間提升,工作和學習效率也大大提高。我們在享受科技進步帶來福祉的同時,也會遇到人工智能惹出的麻煩。因為智能社會的發(fā)展太迅速、給人類準備迎接的時間又太短,所以當我們面對人工智能惹出的麻煩時,我們既需要冷靜客觀地思考解決方法,又要以包容的心態(tài)對待新技術在應用中出現(xiàn)的問題,只有這樣才不會阻礙科技的發(fā)展,被破壞的社會關系也能及時得到修復。

      智能社會因為科技的迅速發(fā)展對原有的社會結(jié)構、社會生活方式、經(jīng)濟發(fā)展都產(chǎn)生了巨大的影響,許多國家紛紛著眼于人工智能技術的發(fā)展,希望無論在技術方面還是相關制度設計方面都能引領世界,因此人工智能技術成為促進社會發(fā)展、提升綜合國力的重要科技力量。隨著人工智能應用的領域越來越廣泛,其出現(xiàn)的問題也逐漸引起人們的思考。人工智能技術的發(fā)展帶給人類社會的負面影響或風險并未因技術的不斷革新而消失,相反,人類可能需要不斷面對新的甚至更嚴峻的風險??茖W技術的高度發(fā)展便是風險社會的特征之一,技術風險是造成社會風險的重要根源。[2]例如,2015年英國首列達芬奇手術機器人給患者進行心瓣修復手術時,縫錯了患者心臟的位置、戳穿了大動脈,機器人的“暴走”行為導致患者手術后一周去世,原本是一場最尖端醫(yī)療技術的展示,沒想到卻成為一樁慘案。[3]無人駕駛汽車因交通事故導致車內(nèi)人員傷亡。人類閱讀人工智能在文學創(chuàng)作領域的生成物時,竟無法辨別出該文學創(chuàng)作是出自一個不具有情感的機器人之手,使得人類的尊嚴有受到威脅的緊迫感。人工智能的發(fā)展依賴于大數(shù)據(jù),而大數(shù)據(jù)環(huán)境下人類的隱私泄露又成為人工智能領域所面對的一個重大風險。上述種種問題已經(jīng)引發(fā)各國政府考慮如何讓人工智能在符合倫理道德和法律的范圍內(nèi)健康有序發(fā)展。

      我國在2017年7月頒布《新一代人工智能發(fā)展規(guī)劃》,將人工智能的發(fā)展作為國家戰(zhàn)略?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》明確提出“以加快人工智能與經(jīng)濟、社會、國防深度融合為主線,以提升新一代人工智能科技創(chuàng)新能力為主攻方向,發(fā)展智能經(jīng)濟,建設智能社會”的要求。習近平總書記在2018年10月的中共中央政治局第九次集體學習會議上明確指出:“想要抓住新一輪科技革命和產(chǎn)業(yè)變革機遇要依靠人工智能技術的發(fā)展。”[4]但我們也應當看到,人工智能技術的飛速發(fā)展,給人們生活帶來極大的便利,同時因法律制度的滯后性無法跟上人工智能技術迅速發(fā)展的腳步,致使無力解決伴隨人工智能出現(xiàn)的一系列社會問題。民法領域關于人工智能致人損害可能因不具備法定條件而無法認定責任主體,受害人權益無法得到保障;人工智能小冰創(chuàng)作的令人難以區(qū)分是人還是機器所作的詩歌問世后,在知識產(chǎn)權領域掀起不小的漣漪,人們討論小冰應否成為作者、她所創(chuàng)作的詩歌應否受著作權法的保護?刑法領域討論最多的是應否重構法律結(jié)構賦予人工智能法律主體資格以及創(chuàng)設適用于人工智能的新刑罰種類等等。由于人工智能技術風險的形成與技術方法本身、經(jīng)濟利益、技術的社會組織和管理活動中的人為因素等都可能有關,所以在確定人工智能損害責任主體時面臨一個龐大且復雜的關系網(wǎng),在既有法律制度框架下,想要合理認定責任主體顯得非常困難。隨著長沙、北京、上海等地自動駕駛出租車服務的開放[5],自動駕駛汽車離大眾的生活越來越近。在人們?yōu)樾迈r科技產(chǎn)品躍躍一試的時候,無論是在無人駕駛車里的人還是行走在路上的行人,一旦因無人駕駛汽車的失靈遭受損害,應該由誰負責?這樣的問題如果不能很好地解決,將會嚴重阻礙人工智能技術的發(fā)展,只有研發(fā)沒有應用市場的科學技術是走不遠的??梢哉f,人工智能已經(jīng)向傳統(tǒng)的法律制度發(fā)起了挑戰(zhàn),考驗人類如何做到既要保障人工智能技術快速穩(wěn)健地發(fā)展,也要保護因人工智能受到侵害的法益。因此人工智能造成損害后如何確定責任主體以及如何彌補和恢復受害人損失,是當下研究的熱點問題,也是維護智能社會穩(wěn)定,保障科技持續(xù)發(fā)展的必然要求。

      二、對應否賦予人工智能法律主體資格的討論

      理論界將導致人工智能引發(fā)損害的原因力大致分為兩種:“內(nèi)在原因力”和“外在原因力”?!皟?nèi)在原因力”是指人工智能基于一定的算法對大數(shù)據(jù)的深度學習,能夠具有自主性和認知特征,不受人類控制擁有獨立自主地作出判斷的能力。“外在原因力”多指不良用心的人利用人工智能技術威脅他人的生命和財產(chǎn)安全,甚或是利用人工智能機器對某一國家發(fā)動戰(zhàn)爭等等。無論是“內(nèi)在原因力”還是“外在原因力”,學界對屬于人類編程控制之下人工智能致?lián)p的責任認定的認識及態(tài)度是統(tǒng)一的,即由人工智能機器的研發(fā)者、設計者或使用者、銷售者等相關主體承擔責任。但對未來可能出現(xiàn)的超出人類編程控制的具有自主決策意識的人工智能的侵害行為的認定,以及著作權領域人工智能應否具有法律主體資格而獲得相應著作權利,學界有著完全不同的看法和態(tài)度。有學者認為責任應以誰決策誰承擔為原則,故而,人工智能的損害責任也應以此為原則,即對于超出人類設計程序范圍之外獨立決策并實施決策行為的人工智能賦予法律主體資格并讓其獨立承擔特殊的法律懲罰。有學者則極力反駁,認為人工智能機器無法具備人的生物性特征,機器的行為均是在人的程序編制輸入的框架內(nèi)實施,不應打破以人為中心的法律框架,急于將人工智能納入法律主體結(jié)構中予以規(guī)制,要求其承擔義務和責任甚至接受刑罰懲罰并不現(xiàn)實。

      人工智能應否具有法律主體資格,是人工智能可否享有權利、承擔義務的前提。所以是否賦予人工智能法律主體資格,是討論人工智能規(guī)范治理的邏輯起點,因而也成為學界討論的焦點。目前,法學界存在兩種觀點,即不應賦予法律主體的否定說和應當賦予法律主體的肯定說,此外,在不斷爭論過程中還出現(xiàn)了第三種聲音——“偽問題論”。

      (一)否定說

      持否定說觀點的學者堅持法律主體“二元論”,認為現(xiàn)有的法律體系之下,法律主體為自然人和法人,人工智能不具備像人類一樣的思維和獨立自由的意識,是完全依賴于人類的程序設計和編制,體現(xiàn)的是設計者或使用者的意志,應由人工智能的設計者、制造者或使用者對人工智能造成的損害承擔法律責任,而人工智能不應該也無法獲得法律上的主體資格。朱建華和甄航認為人工智能在神經(jīng)、心理、語言、思維、文化方面都無法達到人類的水平,其只是在人類程序和指令設計范圍內(nèi)對人智能形式上的簡單模擬,即使在可預見的未來,具有自主意識的強人工智能仍然處在樸素的科學設想階段,若將人工智能提升到人的高度,有損人之所以為人的尊嚴。[6]魏東認為人工智能犯罪在生成過程和內(nèi)在邏輯上只能是“算法安全犯罪”,而算法是否安全取決于自然人或法人這樣的社會關系主體。[7]葉良芳和馬路瑤認為人工智能在善惡觀和倫理觀上不可能具備像人類一樣的認知水平,將人工智能作為犯罪主體不具有正當?shù)目茖W立法的依據(jù)。時方通過細致的法理分析,指出人工智能無法具有刑法上的主觀要素即自主性, 也就不能具有人的意識理性所支配的承擔責任的基礎, 因而人工智能欠缺作為刑事責任主體的本質(zhì)要素。[8]齊延平在其論文中提出對科學技術的研究發(fā)展領域中具有極大不確定的預測性問題,法學研究與法律建構應對其保持適當?shù)木嚯x,以免對法律的穩(wěn)定性造成不必要的沖擊和緊張關系。[9]針對當前刑法學者熱衷將“人工智能納入刑事責任主體”為代表的文獻在2018年出現(xiàn)井噴式增長,冀洋在其論文中表露出自己的疑惑,不知此種現(xiàn)象到底是屬于法學研究的“最前沿”還是法學面對科技迅速發(fā)展表現(xiàn)出的“急不可耐”?或是學者在參與流行話題討論時為了“搶占高端話語權”?其在疑惑之余也表達了自己的看法,認為刑法作為最后的保障法,應在其他部門法之后慎重表態(tài)。[10]總而言之,人工智能雖作為一項重要科學技術,每個國家都在支持人工智能技術的研發(fā),主要目的是展現(xiàn)一個國家的科技力量與水平,絕非是想以未來強人工智能代替人類或?qū)θ祟悩嫵赏{,因而人工智能技術的發(fā)展依然能夠被人類所控制,無論何時,人工智能所實施的行為都會是某一個(或一類)特定人的意思表現(xiàn),故無需改變傳統(tǒng)的“二元主體結(jié)構”。此外,由于人工智能無法具備人一樣的善惡觀和倫理觀,無法具備自主意識,因此無論是現(xiàn)有刑罰制度還是針對人工智能創(chuàng)設新的刑罰種類,都不具有可行性。

      (二)肯定說

      肯定說的論者認為應該重構法律責任主體,在自然人和法人之外將人工智能設立為新的法律主體,即“三元主體論”。持該觀點的認為在強人工智能時代,人工智能可能因為強大的深度學習能力,能夠脫離人的控制,自主決策并實施決策行為,因此產(chǎn)生的危害結(jié)果應由人工智能自身承擔,這樣就需要給人工智能賦予法律主體資格。[11]學術界將人工智能擬制為新的法律主體的觀點不在少數(shù)。皮勇籠統(tǒng)地承認強人工智能機器人應具有犯罪主體性。[12]劉憲權教授在其文章中提出,當強人工智能在人類的程序設計之外自主實施危害社會的行為時,該強人工智能便具有行為的辨認和控制能力,即具有刑法意義上的刑事責任能力,其應獨立承擔刑事責任[13],然而承擔刑事責任的前提則是人工智能首先要被賦予法律主體資格。王肅之建議參考法人主體的設計思路,構建以法律擬制模式為主的人工智能刑事主體資格,使人工智能被納入刑法主體范圍。[14]徐慧麗提出以法人制度為參考,以限定性、工具性為特征賦予人工智能以電子人格。[15]不少持肯定說的學者認為,以人工智能的發(fā)展速度和深度學習技術來看,可能在不久的將來,出現(xiàn)的強人工智能便能夠擁有自主意識和意志支配下的辨認能力和控制能力,為此,傳統(tǒng)的法律制度無法調(diào)整或規(guī)范強人工智能在自主決策下的機器行為,因而需要改變傳統(tǒng)的法律主體結(jié)構,以便在法律適用上體現(xiàn)行為主體需對自己實施的侵害行為擔責的歸責理論,避免法律制度成為人工智能快速發(fā)展的障礙,導致人工智能技術的萎縮。持肯定觀點的論者相信將來的強人工智能機器可以擁有像人一樣的思維,可以超出人的程序設計范圍自主實施違反設計者或使用者本來目的的行為。根據(jù)刑法上定罪與處罰需以實施的行為為判定基礎,因此,如果人工智能超出設計程序范圍自主決定實施的危害行為,在設計者和使用者能夠證明自己對危害結(jié)果的發(fā)生沒有過錯的情形下,如果再追究設計者和使用者的刑事責任就違背了罪責刑相一致的原則,此種情形下,就需要由人工智能本身作為主體來承擔相應的責任。

      (三)偽問題論

      除了上述否定說與肯定說完全對立的兩種觀點以外,還有人認為,未來人工智能具有類人的思考、像人一樣獨立自主決策并脫離人的控制實施侵害人類的行為,并將人工智能作為可歸責主體屬于無稽之談的“偽問題”,實無討論之必要。[16]持該種觀點的學者完全獨立于否定說與肯定說,認為當下人們不值得花費時間和精力去探討一個未來尚不知能否研發(fā)出具有獨立思維的人工智能該不該獲得法律主體資格以及歸責問題。筆者詢問身邊不同職業(yè)的人對強人工智能將來是否會擁有獨立思維及自主決策能力的看法,大多數(shù)認為這是不可能實現(xiàn)的。但筆者認為,這種對人工智能不可能擁有獨立思維和自主決策能力的看法是普通民眾的樸素認知觀,而法學研究者,應具有一定的風險意識及更高的認知程度,對法律在人工智能的規(guī)范上應該具有前瞻性,應設想未來強人工智能的出現(xiàn)可能引發(fā)的風險,而不能因為強人工智能是否會真實發(fā)生尚未可知作為回避討論這一難題的借口,因為不同觀點的爭鳴與探索可以引起人們的重視,況且,需要對人工智能的發(fā)展作出具有前瞻性的立法布局,是世界各國面臨的法律難題。

      人工智能應否被賦予法律主體資格的不同觀點,在某些方面各有其合理性,但結(jié)合人工智能特征進行分析,便會發(fā)現(xiàn)上述觀點都有不能解決的問題。首先,人工智能機器無法具有生理學上的人的構成要素,不是細胞而是電路、元件和編碼的構成,這是機器與人的根本區(qū)別。李建偉教授認為人工智能所表現(xiàn)出的行為與人類有目的有意識的行為是完全不同的,人工智能雖在一定程度上能夠模擬出和擴展人的智能,但因其不具有人的心性和靈性,因此人工智能無法獲得法律上的主體資格。[17]該種觀點在對待人工智能超出人的程序設計之外所實施的侵害行為(此種情形下設計者或使用者無過錯)的責任承擔上,因人工智能不具備人的本質(zhì)特征不能賦予法律主體資格問題上,顯得心有余而力不足。其次,有論者建議參考法人制度的設計,通過法律規(guī)定將人工智能視為具有擬制人格的法律主體,以便符合一定的法律精神和法律歸責理論,筆者認為此舉亦不可行,因為法人本是人合或財合的組織,這些組織也都是由人組成,最終所體現(xiàn)的也是人的意志,雖然法律規(guī)定法人以其全部財產(chǎn)承擔責任,但法人的財產(chǎn)來源于出資人的財產(chǎn)出資,讓法人承擔責任的后果直接會影響到出資人的財產(chǎn)利益,因而以法人名義實施的行為基本都是經(jīng)過出資人的審慎考慮。而強人工智能是根據(jù)自己的獨立意志作出決定并非是人類意志的體現(xiàn),所以人工智能同樣不具備可賦予擬制法律主體的法理依據(jù)。再次,在“三元主體論”的觀點中,有學者提倡突破傳統(tǒng)法律主體結(jié)構,為人工智能設定新的法律主體地位,成為獨立于自然人和法人之外的第三種法律主體。筆者認為,法律制度自隨著國家的出現(xiàn)而產(chǎn)生,它始終是以人為中心,法律調(diào)整的終究都是因人的意志和行為而發(fā)生的法律關系,強人工智能雖然在未來可能有自己的意識和獨立決策行為,但它始終無法具備人類的本質(zhì)特征,且筆者認為人工智能的發(fā)展始終會且必須受控于人類,我們沒必要在當下迫切地去改變伴隨人類幾千年的法律價值和法律理念,況且滯后性是法律的特征之一,法律也無法規(guī)制未來不確定是否能發(fā)生的事情。

      三、人工智能無需擁有法律主體資格的論斷

      法律在對人工智能的規(guī)范上要有一定的前瞻性,應該設想未來強人工智能的出現(xiàn)所引發(fā)的風險,但就目前對人工智能有計劃地在一些特定領域發(fā)展及未來發(fā)展方向仍以人類為主導的原則來看,人工智能不會取代人類,只要人們對人工智能的研發(fā)設計始終遵從全人類認同的發(fā)展規(guī)則即可。物理學家斯蒂芬·霍金曾多次表示人工智能可能會毀滅人類,弗里曼·戴森認為“技術只會給我們提供工具,人類的欲望和制度決定了我們?nèi)绾卫盟鼈儭盵18]。故而如果全人類建立起對人工智能在研發(fā)設計和適用方面的統(tǒng)一規(guī)范標準,限制人類惡意研發(fā)和使用人工智能,那么,人工智能必然會為人類創(chuàng)造福祉。對于因人工智能的獨立自主決策行為致人損害,其損害的社會關系完全可以通過其他途徑獲得恢復和補償。我們不應該以人工智能可能會實施損害行為而倒推必須通過賦予人工智能法律主體資格來要求人工智能對自己行為造成的損害承擔法律責任。人工智能是人類創(chuàng)造出的為滿足人的生活和工作需求,提升人的生活水平和工作效率的一種為人類謀福祉的工具??梢詮囊韵陆嵌确治鼍哂泄ぞ邔傩缘娜斯ぶ悄苁菬o需擁有法律主體資格的:

      1. 人類對人工智能具有可控性,其無需獲得法律主體資格。人工智能屬人類科技創(chuàng)造物,無論其未來自主能力怎樣,終究是以人類編制的程序內(nèi)容為基礎、以人提供的信息數(shù)據(jù)內(nèi)容為學習對象,故人類對其具有可控性。《人工智能標準化白皮書2018》中對人工智能進行定義,人工智能是利用數(shù)字計算機或者數(shù)字計算機控制的機器模擬、 延伸和擴展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術及應用系統(tǒng)。故人工智能是科學技術的發(fā)展結(jié)果,作為科學技術,始終都要以服務人類、服務社會為終極目標,都必須以尊重個人或某種情況下尊重有關群體的人權、基本自由和人的尊嚴為前提。[19]人工智能作為一種工具,只因這種工具在為人提供服務的過程中,超出人類的控制對人或財產(chǎn)造成傷害,就要為其賦予法律主體資格并讓其對自己造成的損害承擔責任,與人一樣成為并列的法律主體資格?人之所以成為法律主體,是因為這個世界本身是由人組成的,社會的發(fā)展是由一代一代的人在推動,社會的文明也是由人類在創(chuàng)造,人與人之間的交往互動組成了社會,人們創(chuàng)造法律就是為了規(guī)范所有的人能夠在這個社會中按規(guī)則行事,維護自己的權益也保護他人權益不受侵犯。筆者認為,無論人工智能怎樣發(fā)展,它都不可能成為主導社會發(fā)展的主要成員,也不可能成為延續(xù)社會存續(xù)和創(chuàng)造社會文明的力量(只有人才能實現(xiàn)社會的存續(xù)及文明的創(chuàng)造)。因人工智能對人造成的傷害,按現(xiàn)有法律制度就可以解決,沒有適當規(guī)則解決的情況下,還可以創(chuàng)設其他規(guī)則來實現(xiàn)對損害的彌補,以及由其他主體來承擔相應的法律責任。從這個層面來看,人工智能是無需具有法律主體資格的。

      2. 人工智能不同于法人組織,無需通過法律賦予其擬制的法律主體資格。法人是法律上擬制的人格,目的是便于其他人或其他組織與法人進行交易,或某個法人組織便于以自己的名義獨立開展活動,推動和保證社會及市場經(jīng)濟的發(fā)展。法人是人的集合,法人的意志是由其成員共同決定,法人的權利和義務也是由其成員享有和履行,法人基于其成員的出資擁有獨立于出資人的財產(chǎn),享有一定的財產(chǎn)權,法人的責任既有法人承擔也有其成員承擔的責任,即使法人承擔了財產(chǎn)責任,最終還是由其成員體驗被懲罰的痛苦感。人工智能是人的創(chuàng)造物,并非由人組成,人工智能是人們滿足生活和工作需要的工具,設計者、研發(fā)者、使用者、所有者并非是其成員,每一個主體對人工智能在設計階段、研發(fā)階段、使用階段應負有不同的責任,人類按照事先設計的程序為人工智能輸入指令讓其工作,即使人工智能通過自主決策實施某行為,都不應認為是以它自己的名義實施。由于人工智能并非人的集合,其沒有獨立財產(chǎn),無財產(chǎn)權也無承擔法律責任的基礎,若是由人工智能承擔法律責任,無論是人工智能還是人都體會不到被懲罰的痛苦,故而人工智能也無需獲得擬制的法律主體資格。

      3. 法律主體作為法學上的一個源于人的尊嚴、人格而形成的重要理論范疇,是對人的本質(zhì)的一種法律抽象。人作為法律主體,享有生而為人的生命健康、尊嚴與其他權利,并在一切社會交往過程中體現(xiàn)自我意志。即使是作為法律擬制主體的法人,按照法律規(guī)定享有法人權利、承擔法人義務,其法人意志是其組成人員共同意志的體現(xiàn),并由其代表人執(zhí)行法人的意思決定。對人工智能而言,即使將來強人工智能能夠脫離人類編制的程序進行自主決策并獨立實施某種行為,這終究不是體現(xiàn)人的意志也不是借助人的行為來實現(xiàn)人工智能機器的意志,其始終不會脫離物或者工具的范疇。故而對法律主體范圍的界定始終不應離開以人為中心才能實施活動的情景。法律發(fā)展至今,法律主體的認定問題上只有是或不是的兩分法,沒有中間狀態(tài),如準人格的概念。我們不能因為未來的強人工智能有自主決策自主行為的能力,而賦予人工智能類似卻又不同于人的主體資格,讓人工智能基于獲得的準人格享有某類權利承擔某類義務或責任。這勢必會打破人與人、人與社會的互動規(guī)則,破壞社會的公平正義規(guī)則。如果人工智能擁有法律主體資格,由于其科學技術性、高度專業(yè)性,加之現(xiàn)有法律制度下的誰主張誰舉證的舉證責任,普通公眾受人工智能的侵害后,幾乎沒有能力舉證證明侵害行為是由人工智能自主決策行為造成的,只要受害人無法證明是人工智能自主決策行為致害,那么受害人就要承擔舉證不利的后果。即使在人工智能侵害案件中,適用舉證責任倒置,聰明的比人類反應還快的人工智能怎么可能老老實實自證有錯或有罪呢。所以賦予人工智能法律主體資格,將會大大增加受害人舉證難度。設想這樣一個場景:法庭上,原告席坐著人,被告席上坐著一個人工智能機器(人),法官席上坐著一位或幾位人類法官,大家就被告人工智能機器(人)的侵害行為展開法庭審理。人類與一臺人工智能機器(人)對簿公堂,且該機器(人)在主觀上并不能產(chǎn)生像人類那樣的我做錯了的認知,恐怕不是人類所能接受的。

      4. 現(xiàn)有法律制度并非完全失去對人工智能的規(guī)范效力,且法律制度可以隨著社會與科技發(fā)展而做出調(diào)整。人工智能研發(fā)和使用過程中的相關人員在法律理論上都有成為承擔責任的可能性,即使沒有責任主體,我們的法律制度及法律原則都有能力修復被人工智能破壞的社會關系,無需由一個智能機器(人)來承擔法律責任。未來的人工智能可能擁有脫離人的控制自主做出決策的時候,但其做出決策所依賴的程序及數(shù)據(jù)仍然由設計者或使用者操作和決定,人工智能的行為離不開人,其在工作過程中產(chǎn)生的侵害行為可以由設計人、研發(fā)人、使用人或管理人在不同階段因未盡到謹慎注意義務或上述人員行為不符合相應技術規(guī)范、法律倫理規(guī)范等,由個體或是多個責任主體共同承擔損害責任。即使人工智能的設計人、研發(fā)人、使用人或管理人因不存在主觀過錯而不涉罪或侵權,且受害人自身也無過錯的,對于受害人的補救可以根據(jù)人工智能的使用范圍及影響力,按照民事法律制度中的公平補償原則,可對受害人予以一定的補救。并非由人工智能以主體身份承擔責任才是恢復受損社會關系的唯一有效途徑。如果人工智能需要以賦予法律主體資格的方式承擔責任接受懲罰,那么是否也應賦予動物法律主體資格以便于承擔致人傷害的責任?至少動物相對于人工智能這樣的機器或者應用系統(tǒng)而言,被法律處以生命刑的時候,動物會感覺到疼痛,而人工智能被刪除數(shù)據(jù)、銷毀時不會有絲毫的疼痛感。如:狗作為人類喜愛的動物,是可以在其意識范圍內(nèi)決定自己是走是跑還是臥著不動,能決定往哪個方向走,決定吃或不吃,但狗一旦傷了人,除受害人自身有過錯外,即使飼養(yǎng)人主觀上沒有過錯,都要承擔責任。此種情形下,狗傷害他人的行為,純屬飼養(yǎng)人意志之外,法律并不會要求狗來承擔責任而會讓飼養(yǎng)人承擔相應的責任。如果飼養(yǎng)人故意唆使狗實施傷害他人的行為或在看管狗的過程中因過失對他人造成嚴重的危害后果,飼養(yǎng)人的行為可能就構成犯罪,仍然要對狗傷害他人的行為承擔法律責任。同理,人工智能機器應用到社會生活中,也能找到對他負責的法律主體。根據(jù)導致人工智能侵害行為發(fā)生時的原因,可以確定承擔責任的主體,如果無法確定誰存在過錯,受害人也無過錯的情形下,根據(jù)民法公平補償原則由人工智能機器的受益者或設計者、研發(fā)者、使用者、管理者和所有者按比例或平均的方式共同承擔法律責任,如果受害人也有過錯的,按照過錯程度承擔相應的損失。這種做法一方面可以促使人工智能的設計者、研發(fā)者、使用者或所有者時刻謹記審慎注意義務,嚴格讓其行為符合人類制定的技術倫理規(guī)范和法律制度,以防利用人工智能侵害他人權益;另一方面通過普遍認可和接受的技術倫理和配套制度規(guī)范的約束和保障,可以促使人工智能在有序良好的社會環(huán)境中快速而穩(wěn)健地發(fā)展。

      人工智能在未來的發(fā)展中,即使具有自主決策能力,那也是基于人類編程和提供的信息數(shù)據(jù)內(nèi)容使然,并非是具有意識能力。我們與其激烈地討論未來強人工智能應不應該被賦予法律主體資格的問題,還不如靜下心來,與人工智能相關的其他學科領域的專家、技術人員進行配合,探討如何制定出保障人工智能健康發(fā)展的法律倫理規(guī)范以及相應的責任承擔分配措施,將人工智能可能帶來的風險控制在技術規(guī)制的范圍內(nèi),即使符合技術倫理規(guī)范而研發(fā)的人工智能對他人造成侵害,我們也可以通過其他途徑來保護受害人的合法權益。正如國務院頒布的《新一代人工智能發(fā)展規(guī)劃》中提出設立追溯和問責制度及法律倫理規(guī)范,目的是為了通過法律制度保障人工智能技術的順利發(fā)展,并對因人工智能可能引發(fā)的社會風險進行法律規(guī)制,這應是我們目前探討和尋求解決的方向。

      四、擇取他法,維護并修復社會關系

      人機協(xié)同是智能社會發(fā)展的必然過程,所以人工智能在某些情形下可能對人類造成傷害,致使智能社會的社會關系遭到撕裂,我們需要探尋合適的方法,以修復被撕裂的社會關系。

      1. 加快完善人工智能的技術法律倫理規(guī)范,探究人工智能技術活動中利益與風險的分配問題。技術風險的承擔者與技術成果的受益者往往并不一致。隨著人工智能技術后果影響的累積性、長遠性和危險性的加大,對單個技術的技術后果進行評價也會越發(fā)困難。這就要求我們從體制上為人工智能技術的發(fā)展規(guī)劃一個合理的符合正義要求的框架,以保證技術活動中利益與風險的分配正義。我們必須通過不同學科的交叉研究,既不能脫離人工智能相關的技術理論去談法律規(guī)制,也不能脫離法律思維去談人工智能技術活動中利益與風險的分配及法律責任問題。國家應鼓勵有條件有能力的高等院校培養(yǎng)兼具人工智能相關專業(yè)知識與法學知識的綜合性研究人才,以解決人工智能技術法律倫理規(guī)范研究領域的人才不足、綜合性專業(yè)水平不夠的問題。這樣我們才能更深入了解人工智能的技術研發(fā)以及應用等領域出現(xiàn)的問題,進而根據(jù)實際需要制定相應的風險管理和控制制度,科學且合理地規(guī)范人工智能技術活動中利益與風險的分配及法律責任相關的制度。

      2. 參照《民法典》侵權責任編關于動物致人損害或物件致人損害的規(guī)定,將人工智能視為“物”或“特殊產(chǎn)品”,在《民法典》的侵權責任編增加關于人工智能致人損害的責任分配規(guī)定。(1)受害人無過錯的情況下,人工智能致人損害的,可根據(jù)無過錯原則,由人工智能的設計者、研發(fā)者、使用者、管理者和所有者對人工智能的致人損害結(jié)果承擔責任,無法證明人工智能的設計者、研發(fā)者、使用者、管理者和所有者誰有過錯的,就由設計者、研發(fā)者、使用者、管理者和所有者共同承擔連帶責任;如果人工智能的設計者、研發(fā)者、使用者、管理者和所有者有證據(jù)足以證明自己與人工智能致人損害無關,則無須承擔責任。(2)人工智能致人損害,受害人有過錯但該過錯并不是導致?lián)p害的主要原因,且人工智能的設計者、研發(fā)者、使用者、管理者和所有者沒有證據(jù)證明自己無過錯的,可根據(jù)人工智能致人損害行為產(chǎn)生的背景或可能引發(fā)的誘因,由受害人、人工智能的設計者、研發(fā)者、使用者、管理者和所有者共同承擔責任,能確定責任比例的按比例承擔。(3)人工智能的設計者、研發(fā)者、使用者、管理者和所有者因故意或重大過失的行為導致人工智能在設計程序之外自主決策致人損害的,對上述人員可根據(jù)《刑法》規(guī)定的相關罪名定罪處罰,受害人同時可依據(jù)《民法典》規(guī)定主張相關主體承擔賠償責任。(4)由于人工智能技術是高深且極其專業(yè)的技術,因此舉證責任分配上應采用舉證責任倒置制度,由相應的人員證明自己負責或掌控的階段或領域內(nèi)不存在問題,以證明自己不承擔法律責任。

      3. 借鑒對機動車輛的管理模式,通過設定保險的方式分散或降低人工智能致人損害的法律責任:(1)賦予每一個人工智能機器獨立且唯一的編號,設置相關的行政管理部門,對人工智能機器進行備案登記以便統(tǒng)一管理。(2)制定用于不同領域的人工智能的研發(fā)設計制造的技術標準(例如為提供養(yǎng)老看護服務的人工智能機器制定相應的研發(fā)設計制造的技術標準),參照汽車年檢制度,規(guī)定人工智能需進行定期的安全及性能的檢查,以保證人工智能機器在深度學習過程中始終符合自身及對外界的安全性的要求。(3)參照車輛強制保險和商業(yè)保險制度,對可能存在不確定風險的人工智能要求其研發(fā)者、設計者、使用者、管理者和所有者根據(jù)自己所處的位置購買相應的強制責任保險或其他商業(yè)保險,不僅可以減輕人工智能的設計者、研發(fā)者、使用者和所有者因人工智能致人損害而無法避開的風險,同時也保障受害人在保險人的責任限額內(nèi)獲得相應賠償。通過借鑒機動車管理模式及制度,不僅能有效保障受害人的合法權益,更能促進人工智能技術的持續(xù)發(fā)展,保證人工智能技術活動中利益與風險的分配正義。

      五、小結(jié)

      根據(jù)人工智能技術導致的風險在法律責任承擔方面具有多元性、復雜性等特征,在不改變現(xiàn)有法律結(jié)構的基礎上,通過完善相應法律規(guī)范、法律倫理和技術倫理規(guī)范,通過研發(fā)技術規(guī)范、使用規(guī)范、安全檢查標準等方式規(guī)范技術研發(fā)行為、應用行為,監(jiān)督管理對人工智能的設計、研發(fā)與安全檢查,明確不同情景中人工智能損害的責任分配規(guī)則,從源頭控制好人工智能的研發(fā)目的和方向、使用目的和行為??傊瑢θ斯ぶ悄艿陌l(fā)展,法律應為其保駕護航,而不是通過規(guī)范的形式束縛人工智能的發(fā)展步伐,也不是以犧牲法律的穩(wěn)定性及法律價值為代價,應兼顧法律規(guī)范的執(zhí)行效果以及人工智能領域技術風險防控能力的建設,立足于全球發(fā)展,以全人類命運共同體為著眼點,要為人工智能的發(fā)展提供強有力的制度保障,同時也要保障智能社會的社會秩序的穩(wěn)定及和平,正如克隆技術一樣,各國政府和整個學術共同體在克隆技術領域制定了嚴格的準則和公約,保證了克隆技術在全世界范圍的有序發(fā)展,唯有如此,才能實現(xiàn)科技為人類服務的終極目標。

      注釋:

      [1] 楊述明:《新時代國家治理現(xiàn)代化的智能社會背景》,《江漢論壇》2018年第3期。

      [2] 王 前:《技術倫理通論》,北京:中國人民大學出版社,2011年,第165頁。

      [3] 《英國首列機器人心瓣修復手術以失敗告終》,2018年11月10日,http://www.elecfance.com/d811794.html,2021年1月3日。

      [4] 胡 喆:《抓住新一代人工智能發(fā)展的重大機遇》,2018年11月1日,http//www.xinhuanet.com//2018-11/01/c_1123649864.htm,2021年1月3日。

      [5] 2020年10月,百度自動駕駛出租車服務在北京全面開放,設置了數(shù)十個自動駕駛出租車站點;2019年9月26日,百度阿波羅自動開放道路智能駕駛長沙示范區(qū)正式啟用,數(shù)據(jù)顯示,截至2019年12月底,長沙已累計實現(xiàn)了一萬次以上的安全載客。2020年6月27日,滴滴出行在上海首次面向公眾開放自動駕駛預約服務。

      [6] 朱建華、甄 航:《人工智能刑法“主體性”否定:緣起、解構、反思——以認知科學的五個層級為基礎》, 2020年4月27日,http://kns.cnki.net/kcms/detail/50.1023.C.20191225.0926.002.html,2021年1月3日。

      [7] 魏 東:《人工智能犯罪的可歸責主體探究》,《理論探索》2019年第5期。

      [8] 時 方:《人工智能刑事主體地位之否定》,《法律科學》(西北政法大學學報)2018年第6期。

      [9] 齊延平:《論人工智能時代法律場景的變遷》,《法律科學》(西北政法大學學報)2018年第4期。

      [10] 冀 洋:《人工智能時代的刑事責任體系不必重構》,《比較法研究》2019年第4期。

      [11] 王耀彬:《類人型人工智能實體的刑事責任主體資格審視》,《西安交通大學學報》(社會科學版)2019年第1期。

      [12] 皮 勇:《人工智能刑事法治的基本問題》,《比較法研究》2018年第5期。

      [13] 劉憲權:《人工智能時代刑事責任與刑罰體系的重構》,《政治與法律》2018年第3期。

      [14] 王肅之:《人工智能犯罪的理論與立法問題初探》,《大連理工大學學報》(社會科學版)2018年第4期。

      [15] 徐慧麗:《人工智能法律人格分析》,《西北大學學報》(哲學社會科學版)2020年第1期。

      [16] 魏 東:《人工智能犯罪的可歸責主體探究》,《理論探索》2019年第5期。

      [17] 楊立新:《論智能機器人的民法地位及其致人損害的民事責任》,《人工智能法學研究》2018年第2期。

      [18] TSCHIDER C A.,“Regulating the Internet of Things: Discrimination, Privacy, and Cybersecurity in the Artificial Intelligence Age”,DenverLawReview,vol.96,no.1(2018),pp:87-144.

      [19] 參見《人類基因宣言》,1997年11月11日,經(jīng)聯(lián)合國教科文組織第二十九屆會議通過,1998年11月27日,又經(jīng)聯(lián)合國大會批準,成為國際文件?!度祟惢蚪M宣言》有四條基本原則:人類的尊嚴與平等,科學家的研究自由,人類和諧,國際合作。

      猜你喜歡
      主體資格主體人工智能
      論自然人破產(chǎn)法的適用主體
      南大法學(2021年3期)2021-08-13 09:22:32
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      環(huán)境污染侵權案件實務中的問題研究
      公司設立中發(fā)起人的主體資格該如何認定?
      人間(2016年30期)2016-12-03 20:28:29
      死者權益維護與法律適用
      環(huán)境公益訴訟主體存在問題及對策
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      關于遺產(chǎn)保護主體的思考
      清苑县| 建昌县| 临桂县| 平南县| 乌恰县| 怀来县| 岱山县| 南开区| 迁西县| 辽阳县| 金坛市| 来凤县| 云安县| 荔波县| 泗阳县| 平江县| 河源市| 宝坻区| 稷山县| 广灵县| 漾濞| 阜新| 剑阁县| 平果县| 库伦旗| 双江| 烟台市| 四子王旗| 伊宁市| 峨眉山市| 枣庄市| 弥渡县| 望江县| 崇文区| 上林县| 浪卡子县| 河南省| 顺义区| 凉城县| 株洲县| 黄骅市|