• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      “人工智能+法律”發(fā)展的兩個面向

      2018-11-28 23:22:00清,張
      求是學刊 2018年4期
      關鍵詞:機器人人工智能法律

      張 清,張 蓉

      近年來,人工智能機器人研發(fā)、部署、安裝與使用的運動式發(fā)展,在引發(fā)全球討論的同時,也鼓勵著政府監(jiān)管和法律責任的創(chuàng)新。例如,無人機在成為大眾消遣工具的同時還在反恐戰(zhàn)爭中發(fā)揮著重要作用;自動化智能機器可以取代工廠中的體力勞動者,由此帶來了勞動力市場的革命;人形機器人在學校協(xié)助教導學生、在日托機構(gòu)中照顧老年人;輔助機器人技術(shù)廣泛應用在醫(yī)療領域,不管是在鑒別診斷還是對自閉癥患者的心理治療抑或在復雜的外科手術(shù)中,都能發(fā)現(xiàn)智能機器人的身影。機器人在家庭、工作、社會公共層面的廣泛存在,不僅帶給人類新的機會與挑戰(zhàn),同時還改變著人類的行為方式。①Danit Gal:《聯(lián)合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2018年5月22日。2017年7月8日國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》)認為,在移動互聯(lián)網(wǎng)、大數(shù)據(jù)、超級計算、傳感網(wǎng)、腦科學等理論創(chuàng)新、技術(shù)創(chuàng)新的多因素共同驅(qū)動下,人工智能加速發(fā)展,呈現(xiàn)出深度學習、跨界融合、人機協(xié)同、群智開放、自主操控等新特征。大數(shù)據(jù)驅(qū)動知識學習、跨媒體協(xié)同處理、人機協(xié)同增強智能、群體集成智能、自主智能系統(tǒng)成為人工智能的發(fā)展重點,類腦智能助推人工智能發(fā)展進入新階段。當前,新一代人工智能相關學科發(fā)展、理論建模、技術(shù)創(chuàng)新、軟硬件升級等整體推進,正在引發(fā)鏈式突破,推動經(jīng)濟社會各領域從數(shù)字化、網(wǎng)絡化向智能化加速躍升。①國務院:《新一代人工智能發(fā)展規(guī)劃》[國發(fā)〔2017〕35號],http://finance.china.com/news/11173316/20170720/30991028.html,訪問時間2018年5月20日?!兑?guī)劃》描繪了我國新一代人工智能發(fā)展的藍圖,確立了“三步走”目標:到2020年人工智能總體技術(shù)和應用與世界先進水平同步;到2025年人工智能基礎理論實現(xiàn)重大突破、技術(shù)與應用部分達到世界領先水平;到2030年人工智能理論、技術(shù)與應用總體達到世界領先水平,成為世界主要人工智能創(chuàng)新中心?!兑?guī)劃》確定六方面重點任務:一是建立開放協(xié)同的人工智能科技創(chuàng)新體系,從前沿基礎理論、關鍵共性技術(shù)、平臺、人才隊伍四個方面進行部署。二是培育高端高效的智能經(jīng)濟,發(fā)展人工智能新興產(chǎn)業(yè),推進產(chǎn)業(yè)智能化升級,打造創(chuàng)新高地。三是建設安全便捷的智能社會,發(fā)展便捷高效的智能服務,提高社會治理智能化水平。四是強化人工智能對軍事和國防安全的支撐。五是構(gòu)建泛在安全高效的智能化基礎設施體系,加強網(wǎng)絡、大數(shù)據(jù)、高效能計算等基礎設施的建設和升級。六是設立新一代人工智能重大科技項目,形成以新一代人工智能重大科技項目為核心、統(tǒng)籌當前和未來布局的“1+N”人工智能項目群。美國當?shù)貢r間2017年10月18日,谷歌人工智能DeepMind團隊在《Nature》上發(fā)表論文,宣布新版的AlphaGo Zero計算機程序可以突破人類知識的局限,迅速實現(xiàn)自我學習。新版阿爾法狗從零開始自學圍棋,僅用3天時間,就以100比0的成績擊敗了舊版的AlphaGo,這是人類人工智能史的重大突破。②蔡鼎:《新版阿爾法圍棋橫空出世:自學3天,100∶0碾壓李世石版“舊狗”》,http://www.nbd.com.cn/articles/2017-10-19/1155201.html,訪問時間2018年5月28日。AlphaGo Zero除了獨立地學會了人類花費數(shù)千年時間發(fā)現(xiàn)的圍棋規(guī)則外,還自行學會了非常有趣的圍棋策略,并且許多走法都“極具創(chuàng)造性”。在沙特首都利雅得舉行的Future Investment Initiative大會上,機器人索菲亞登臺亮相,并宣布了自己的獨特身份。當主持人安德魯·羅斯·索爾金(Andrew Ross Sorkin)詢問索菲亞為何看起來如此高興時,她表示:“我為獲得這種優(yōu)待感到非常榮幸和自豪,我是歷史上第一個獲得公民身份的機器人。”③小?。骸渡程厥谟枰粋€機器人公民身份,但它有人的權(quán)利嗎?》,2017年10月27日網(wǎng)易科技報道,http://tech.163.com/17/1027/09/D1OCBSK100097U80.html,訪問時間2018年10月28日。據(jù)Futurism報道,由總部位于香港的人工智能機器人公司Hanston robotics設計的機器人索菲亞(Sophia),已經(jīng)被沙特阿拉伯王國授予了公民身份。這是有史以來第一次機器人被給予這樣的優(yōu)待,但也引發(fā)了“機器人權(quán)利”之爭。索菲亞在演講臺上的表現(xiàn)非常出色,甚至熟練地避開了向她提出的“機器人自我意識”的問題。新一代人工智能是國際競爭的新焦點、經(jīng)濟發(fā)展的新引擎,它帶來社會建設的新機遇,而發(fā)展的不確定性也帶來新挑戰(zhàn),改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。④國務院:《新一代人工智能發(fā)展規(guī)劃》[國發(fā)〔2017〕35號],http://finance.china.com/news/11173316/20170720/30991028.html,訪問時間2017年11月20日。面對2030年要建成“更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”的目標,我們要做的事情很多很多。

      一、機器人、人工智能及其法律面向

      人工智能最早的表現(xiàn)形態(tài)是機器人,以替代人類難以實現(xiàn)的更大數(shù)據(jù)計算、更細微量度操作或更惡劣環(huán)境等重復勞動為目標。華盛頓大學法學院Ryan Calo教授是美國最具影響力的機器人法律方面的專家之一,他通過研究美國近50多年來所有涉及機器人的案件后,發(fā)現(xiàn)機器人涉法問題的爭論早已有之。他認為機器人法律簡史可以通過以下四個案例來描述⑤佚名:《深度解密你所不了解的機器人法律簡史》,http://www.sohu.com/a/65846007_335773,訪問時間2018年5月26日。:案例一,肖像權(quán)案。20世紀90年代初,三星做了一個廣告,廣告中的機器人使用了女星Vanna White的肖像特征,而Vanna White認為這一舉動侵犯了她的公開權(quán)及肖像權(quán),她以各種方式起訴三星公司,最終,她贏得這場官司。這是一個典型的關于人類是否能擁有自己版本權(quán)利的案例。法庭也由此開始考慮是否能夠視機器人為演員從而征收娛樂稅。案例二,木馬搗亂案。有一名網(wǎng)頁開發(fā)者在Twitter上向當?shù)氐囊粋€時裝秀發(fā)布了一個死亡威脅,然而被逮捕后他卻表示對此事毫不知情。調(diào)查后發(fā)現(xiàn),始作俑者卻是來自他編寫的一個程序,最終他被無罪釋放,一則“無犯罪實施者”的案件形成了。案例三,太空機器人律師案。2015年11月,奧巴馬簽署法案鼓勵私人公司進行太空探索,包括那些對小行星礦產(chǎn)感興趣的公司。Calo教授表示在未來這種工作肯定是交給機器人的,不難想象各種法律問題會由此而生,說不定太空機器人律師會成為一個正式的職業(yè)。案例四,無人駕駛車案。關于無人機和自動駕駛機器人的法律機制更為復雜,許多法律尚需實施,以便控制它們的法律風險。

      Calo教授論及的這些法律案,涉及諸多法律問題,比如:機器人的肖像權(quán),或由此衍生的人格權(quán);是否應該像對待人類一樣給予機器人權(quán)利;如果機器人犯罪了,機器人是否具有刑法意義上的“主觀能動性”,它是否要受到法律的約束與制裁;機器人行動的程序是由人編寫的,相應的法律責任由誰承擔,抑或按比例分擔;是否允許無人駕駛車輛在道路上行駛;車輛管理部門該如何給機器人做視力檢查及駕駛培訓;當一輛無人駕駛車輛發(fā)生道路交通安全事故,誰負責賠償損失;緊急狀態(tài)時,計算機應該選擇撞向一只動物還是沖下公路;等等。

      艾丹米勒也認為,隨著機器人崛起和“機器人法律”出現(xiàn)而引發(fā)的其他重要問題,我們必須面對:其一,機器人規(guī)制必須要針對特定機器人并結(jié)合具體場景而定。這就要求對特定領域的“機器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認識。其二,(完善的)現(xiàn)有法律類型能夠被合理地應用并對機器人予以規(guī)制。其三,機器人法律受到社會“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實用主義的,那么在不遠的將來,智能機器人就會被當作人類來對待。那就意味著,智能機器人應當被賦予法律人格,并因此有能力取得和持有財產(chǎn)以及訂立合同。其五,反對將機器人當作人類一樣對待的理由源自于認識論與本體論層面。這些觀點都關系到機器人是否能思考(它們不能)以及成為人類意味著什么。①霍斯特·艾丹米勒:《機器人的崛起與人類的法律》,李飛、敦小匣譯,《法治現(xiàn)代化研究》2017年第4期。

      機器人發(fā)展的最新形態(tài)是新一代人工智能。人工智能(Artificial Intelligence,英文縮寫為AI)是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應用系統(tǒng)的一門新的技術(shù)科學,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。斯圖爾特·羅素(Stuart Russell)和皮特·諾威格(Peter Norvig)②關于Russell和Norvig對人工智能分類的觀點,參見M.U.Scherer:Regulating Artificial Intelligence Systems:Risks,Challenges,Competencies,and Strategies,in Harvard Journal of Law&Technology,2016,29(2)。在《人工智能:一個現(xiàn)代路徑》中提出了八個不同的人工智能定義,分成四類:像人一樣思考(thinking humanly),像人一樣行為(acting humanly),理性思考(thingking rationally),理性行為(acting rationally)。③馬修·U.謝勒:《監(jiān)管人工智能系統(tǒng):風險、挑戰(zhàn)、能力和策略》,曹建峰、李金磊譯,《信息安全與通信保密》2017年第3期。人工智能可以模擬人的意識及思維的信息過程,能像人那樣思考、像人那樣行為,甚至超過人的智能。

      就此,《規(guī)劃》在對人工智能理論、技術(shù)和應用作出前瞻布局的同時,呼吁加強人工智能相關法律、倫理和社會問題研究,建立人工智能法律法規(guī)、倫理規(guī)范和政策體系?!兑?guī)劃》力挺智慧法庭建設,提出促進人工智能在證據(jù)收集、案例分析、法律文件閱讀與分析中的應用,實現(xiàn)法院審判體系和審判能力智能化。更為前瞻的是,《規(guī)劃》提出“人工智能+X”復合專業(yè)培養(yǎng)新模式,法學赫然在列,法學教育的變革已然箭在弦上。④曹建峰:《法律人工智能十大趨勢》,http://www.sohu.com/a/162390641_455313,訪問時間2017年10月20日?!兑?guī)劃》要求,建設人工智能學科。完善人工智能領域?qū)W科布局,設立人工智能專業(yè),推動人工智能領域一級學科建設,盡快在試點院校建立人工智能學院,增加人工智能相關學科方向的博士、碩士招生名額。鼓勵高校在原有基礎上拓寬人工智能專業(yè)教育內(nèi)容,形成“人工智能+X”復合專業(yè)培養(yǎng)新模式,重視人工智能與數(shù)學、計算機科學、物理學、生物學、心理學、社會學、法學等學科專業(yè)教育的交叉融合。加強產(chǎn)學研合作,鼓勵高校、科研院所與企業(yè)等機構(gòu)合作開展人工智能學科建設。

      1987年,在美國波士頓東北大學舉辦的首屆國際人工智能與法律會議(ICAIL),旨在推動人工智能與法律這一跨學科領域的研究和應用,并最終促成了國際人工智能與法律協(xié)會(IAAIL)在1991年的成立,人工智能的法律面向包括但不限于十大主要議題①曹建峰:《法律人工智能十大趨勢》,http://www.sohu.com/a/162390641_455313,訪問時間2018年5月20日。:法律推理的形式模型,論證和決策的計算模型,證據(jù)推理的計算模型,多智能體系統(tǒng)中的法律推理,自動化的法律文本分類和概括,自動提取法律數(shù)據(jù)庫和文本中的信息,針對電子取證等法律應用的機器學習和數(shù)據(jù)挖掘,概念上的或者基于模型的法律信息檢索,完成重復性法律任務的法律機器人,立法的可執(zhí)行模型。日本學者關心的議題包括:人工智能與憲法(表達自由、隱私、法律下的平等、正當程序),人工智能與民法(知識產(chǎn)權(quán)、合同、不法行為——尤其是產(chǎn)品責任),人工智能與刑法(利用人工智能實施高科技犯罪:冒充、欺詐、金融犯罪、網(wǎng)絡犯罪),人工智能與勞動法(雇傭環(huán)境的變化、通過人工智能進行雇傭管理與否),人工智能與國際法(安全保障、恐怖犯罪對策、人工智能武器)等。②儲陳城:《日本政府對人工智能的發(fā)展戰(zhàn)略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。

      二、人工智能法律規(guī)制的理論構(gòu)造

      人工智能運動式發(fā)展,不僅在全球范圍內(nèi)逐步建立起自己的生態(tài)格局,而且開始深度介入人類的社會生活。

      1.人工智能三定律/八原則

      人類與機器人/人工智能的關系將掀起一場對于私隱、尊嚴及安全的討論。隨著機器人/人工智能的適應性和自主學習能力不斷增強,它們可能不再是人類使用的簡單工具,“類腦”人工智能可能超越人類的智力,這將對人類控制機器人構(gòu)成挑戰(zhàn)。一旦機器人自我意識崛起,高度自主、獨立判斷且不受人類直接控制的人工智能機器人甚至可能威脅人類的生存。歐盟議會法律事務委員會(JURI)參照美國科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)在1950年出版的短篇小說集《我,機器人》中提出的“機器人學三大法則”(也被稱為“機器人學三定律”)作為立法框架,提出了機器人自我意識覺醒后的行為規(guī)范。據(jù)此,我們可以為人工智能設定三個原則,即“人工智能三定律”。③於興中:《當法律遇上人工智能》,《法制日報》2016年3月28日第007版。第一定律:人工智能機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律:人工智能機器人應服從人的一切命令,但不得違反第一定律;第三定律:人工智能機器人應保護自身的安全,但不得違反第一、第二定律。人工智能三定律必須在一個大前提之下方可成立,即:人工智能不得傷害人類整體,或因不作為使人類整體受到傷害,有義務保護人類的整體利益,以契合阿西莫夫在《機器人與帝國》中補充提出的第零法則。④佚名:《關于機器人時代的倫理,阿西莫夫早就給出了三條法則》,http://www.sohu.com/a/131831765_483391,訪問時間2018年5月27日。日本學者新保史生提出機器人使用的八原則,被稱為“新保試案”:人類優(yōu)先原則,服從命令原則,保護秘密原則,限制利用原則,安全保護原則,公開透明性原則,個人參加原則,責任原則。⑤儲陳城:《日本政府對人工智能的發(fā)展戰(zhàn)略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。

      2.法律吸納風險理論

      人工智能技術(shù)在造福人類的同時也增加了人類受危害的系數(shù),這恰恰能夠驗證技術(shù)的負面性與風險的不確定性的關聯(lián)。傳統(tǒng)法律治理體系無力解決新一代科技革命帶來的社會問題,這恰恰能夠驗證法律的確定性與風險的不確定性的背離。當前,人工智能發(fā)展的規(guī)制,其實是基于風險的制度選擇和法律安排,我們應“通過法律化解風險”“通過法律吸納風險”“將風險社會置于法治社會的背景之中”,即對智能革命時代的法律制度乃至整個社會規(guī)范進行新的建構(gòu)。①吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。人們對人工智能安全問題的普遍憂慮,涉及人類基本權(quán)益的生命與健康、尊嚴與隱私、安全與自由。1986年,德國學者烏爾里?!へ惪嗽凇讹L險社會》一書中首次在學理上提出了“風險社會”的概念,貝克認為,人類面臨著威脅其生存的由社會所制造的風險?,F(xiàn)代化正在成為它自身的主題和問題,因此變得具有反思性。②吳漢東:《知識產(chǎn)權(quán)的制度風險與法律控制》,《法學研究》2012年第4期。風險概念表明人們創(chuàng)造了一種文明,以便使自己的決定將會造成的不可預見的后果具備可預見性,從而控制不可控制的事情。在風險理論中,人工智能存在著現(xiàn)代性的負面影響,因此有必要采取風險措施,即預防性行為和因應性的制度。對風險社會問題的法學研究,其重點是法律制度與法律秩序。③吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。一方面,“法律制度的價值和意義就在于規(guī)范和追尋技術(shù)上的可以管理的哪怕是可能性很小或影響范圍很小的風險和災難的每一個細節(jié)?!雹軈⒁姙鯛柪锵!へ惪耍骸稄墓I(yè)社會到風險社會(上篇)——關于人類生存、社會結(jié)構(gòu)和生態(tài)啟蒙等問題的思考》,王武龍譯,《馬克思主義與現(xiàn)實》2003年第3期。另一方面,法律秩序客觀上表征了法律制度實施的效果,大致是人類社會生產(chǎn)生活基本方面實現(xiàn)法律化和制度化?,F(xiàn)代社會是法治社會,制度風險及風險法律控制是風險社會法學研究理論的基本內(nèi)涵。風險社會是一種“全球風險社會”,風險的空間影響超越了地理邊界和社會文化的邊界。

      3.法律責任理論

      中國科學院科技戰(zhàn)略咨詢研究院吳焦蘇提出了Graceful AI,不僅考慮AI的責任,還考慮AI的技術(shù)、倫理和法律之間的界限。Graceful AI以網(wǎng)絡行為學的策略相關性原理(SCP)為基本模型,其策略相關系數(shù)的上界是圖博弈矩陣的最小特征值的倒數(shù),下界是圖博弈矩陣的最大特征值的倒數(shù),在上下界之間的行為才是親人類行為,過之屬道德過載(Moral Overload),略少屬道德負擔不足(Moral Under?load),過多低于該閾值,則是法律管轄的范圍。⑤齊昆鵬:《“2017’人工智能:技術(shù)、倫理與法律”研討會在京召開》,《科學與社會》2017年第2期。這也正是當前人工智能發(fā)展面臨的主要法律挑戰(zhàn),即人工智能法律化規(guī)制的具體面向:法律責任劃分和法律責任承擔問題。法律責任是由于違反了第一性義務(如違約、侵權(quán)等)而引起的第二性義務(如賠償?shù)龋彩且驗樘囟ǖ姆墒聦嵍鸬膶p害進行補償、賠償或接受處罰的特殊義務。人工智能機器人的法律責任是否當然包括現(xiàn)有的民事責任、行政責任、刑事責任、違憲責任和國家賠償責任?此外,法律責任除了分責,還有歸責、免責、償責等諸多方面,某種程度上,人工智能機器人作為擬制人,與所有參與機器人的發(fā)明、授權(quán)和分配中的自然人或(和)法人,甚至承保相應險種的保險公司,在歸責、免責和償責等諸多方面均是法律空白,需要在既有規(guī)范之外制定新的法律責任規(guī)則。

      三、人工智能法律規(guī)制的立法探索

      人工智能從產(chǎn)品到技術(shù)都在迅猛發(fā)展,現(xiàn)在是人工智能立法的準備階段、摸索階段、積累階段,也是人工智能立法的促進階段,可以先制定促進人工智能發(fā)展法。立法應該優(yōu)先考慮對人們生活已經(jīng)有影響的領域,比如自動駕駛、服務類機器人領域,率先啟動立法立項工作。人工智能的法律應對,有必要進行體系性的討論和專題式的研究,主要包括:功能風險與法律制度、權(quán)利利益相關的風險,由于對于法律課題的討論剛剛開始需要進行個別性把握,分別列舉可能出現(xiàn)的風險等。⑥儲陳城:《日本政府對人工智能的發(fā)展戰(zhàn)略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。

      1.聯(lián)合國的人工智能法律與倫理

      聯(lián)合國教科文組織(United Nations Educational,Scientific and Cultural Organization)與世界科學知識與技術(shù)倫理委員會(World Commission on the Ethics of Scientific Knowledge and Technology)聯(lián)合發(fā)布的報告(2016年),主要討論了機器人的制造和使用促進人工智能的進步,以及這些進步所帶來的社會、法律與倫理道德問題。①Danit Gal:《聯(lián)合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2018年5月22日。報告呼吁在國際層面上應該在以下幾個方面加強立法控制:數(shù)據(jù)和隱私保護,創(chuàng)新關于機器人與機器人制造者之間的責任分擔機制,預警機制的建立,對機器人在實際生活場景中的測試,在涉及人類的機器人研究中的知情同意權(quán),智能機器人的退出機制,為應對自動機器人的廣泛應用將給人類教育和就業(yè)帶來的巨大影響而建立全新的保險制度。②詳細分析參見Danit Gal:《聯(lián)合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2017年10月22日。聯(lián)合國作為全球最重要的國際組織,在2016年最新發(fā)布的人工智能報告中,表達了其對于人工智能的關注;同時,為應對人工智能及機器人技術(shù)的發(fā)展帶來的各種問題,提出了全新的思考方式與解決路徑,這對世界各國的人工智能監(jiān)管具有重要的參考意義。

      在制造一個機器人需要不同的專家和部門合作的情況下,誰該為機器人的某次操作失靈負責任?聯(lián)合國的報告援引了阿薩羅(Asaro)提出的結(jié)論,即機器人以及機器人技術(shù)造成的傷害,很大一部分由民法中產(chǎn)生責任的相關法律調(diào)整,因為機器人一般被視為通常意義上的科技產(chǎn)品。從這個角度看,機器人造成的傷害很大一部分被歸責于機器人制造者和零售商的“過失”“產(chǎn)品警告的缺失”“沒有盡到合理的義務”。在阿薩羅看來,這種歸責制度會隨著機器人越來越自動化及智能化而逐漸被廢棄。③Asaro,P.M.“A body to kick,but still no soul to damn:legal perspectives on robotics”,in Lin,P.,Abney,K.,and Bekey,G.A.(eds.)Robot Ethics:The ethical and social implications ofrobotics,MIT Press,2012.pp.169-186.然后,一個新的平衡機器人制造者、銷售者和最終使用者的責任分擔機制會被逐漸創(chuàng)造出來。④參見Danit Gal:《聯(lián)合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2018年5月22日。對此,一個可行的解決辦法,即采取責任分擔的解決途徑,讓所有參與到機器人的發(fā)明、授權(quán)和分配過程中的人來分擔責任;另一個解決辦法就是讓智能機器人承擔責任,因為智能機器人確實擁有前所未有的自主性,并且擁有能夠獨立做出決策的能力。這兩種責任分擔方式展現(xiàn)了兩種極端,既無視了人類在科技發(fā)展過程中的固有偏見,也忽略了科技被居心叵測的使用者用作他途的可能性。而高度智能化的機器人如何獨立承擔責任值得我們深入研究。

      2.歐盟的立法建議

      早在2015年1月,歐盟議會法律事務委員會(JURI)就決定成立一個工作小組,專門研究與機器人/人工智能發(fā)展相關的法律。2016年5月,法律事務委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》⑤United Nations Educations,Scientific and Cultural Organization(UNESCO)and World Commission on the Ethics of Sci?entific Knowledge and Technology(COMEST).(2015).Preliminarydraft Reports on COMEST on Robotics Ethics.Accessible on?line at:http://unesdoc.unesco.org/images/0024/002455/245532E.pdf.,討論歐洲首份管制機器人的建議立法草案,旨在為民用機器人的使用制定法律框架。報告對機器人可能引發(fā)的安全風險、道德問題、對人類造成的傷害等情況做出討論。呼吁制定“人類與人工智能機器人互動的全面規(guī)則”,這或是首個涉及管制機器人的立法草案。報告要求歐盟為民用機器人制定法律框架,探討是否需要為機器人安裝“死亡開關”、研究機器人搶走人類工作的應對措施,等等。專家認為,此次立法將有利于人類應對機器人革命帶來的社會震蕩。⑥Lielvwang:《全球首個涉及管制機器人的立法草案或?qū)⒙涞貧W盟》,http://www.robot-china.com/zhuanti/show-3112.html,訪問時間2017年10月26日。EU Parliament.(2016).Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics.Accessible online at:http://www.europarl.europa.eu/sides/get Doc.do?pub Ref=-//EP//NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//EN。同年10月發(fā)布《歐盟機器人民事法律規(guī)則》。在此基礎上,2017年2月16日,歐盟議會投票表決通過一份決議,包含了立法建議,并要求歐盟委員會就機器人/人工智能提出立法提案。法律事務委員會提出的立法建議涉及多個方面,主要包括:成立一個機構(gòu),專門負責歐盟的機器人和人工智能;確立人工智能倫理準則;重構(gòu)智能機器人的責任規(guī)則;長遠考慮,也許可以賦予復雜的自主機器人法律地位(所謂的“電子人”);明確人工智能在知識產(chǎn)權(quán)領域的“獨立智力創(chuàng)造”;注重隱私和數(shù)據(jù)保護;推進標準化工作和機器人的安全性;針對具有特定用途的機器人和人工智能系統(tǒng)(主要包括自動駕駛汽車、護理機器人、醫(yī)療機器人、無人機、人類修復和增強等)出臺特定規(guī)則,進行特殊監(jiān)管;關注人工智能的社會影響;加強法律政策領域的國際合作。①司曉、曹建峰:《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,《法律科學》2017年第5期。

      3.美國的草案

      2016年,美國弗吉尼亞州州長簽署了一條關于送貨機器人的法律,它將允許送貨機器人合法在全州的人行道上行駛,它也是美國第一條關于送貨機器人的立法。兩名弗吉尼亞州的立法者Ron Villanueva和Bill DeSteph與愛沙尼亞一家做地面送貨機器人的公司Starship Technologies合作制定了這條法律的草案。根據(jù)最新法案規(guī)定,送貨機器人被允許在道路上自動行駛,但速度不能超過每小時10英里(約16千米每小時)或者質(zhì)量不得超過50磅(約23 kg)。雖然法案沒有要求機器人一定要在操作者的視線范圍內(nèi)行駛,但它還是需要操作者進行遠程控制,以防止其在道路運行的過程中失控。這條州立法案的規(guī)定并不是唯一固定的,各個城市可以根據(jù)本地的運營條件對它做出適當?shù)恼{(diào)整。比如市議會可以指定更嚴格的速度限制或禁止送貨機器人上路等。目前除了弗吉尼亞州之外,美國的另外兩個州愛達荷州及佛羅里達州也在提出類似的立法草案。②朱若淼:《送貨機器人在美國合法上路了,還有了第一條關于機器人法案》,http://www.qdaily.com/articles/38375.ht?ml,訪問時間2018年5月26日。

      4.英國的監(jiān)管與目標

      2013年,英國挑選出“機器人技術(shù)及其自動化系統(tǒng)”作為其“八項偉大的科技”計劃的一部分,并且宣布英國要力爭成為第四次工業(yè)革命的全球領導者。英國下議院的科學和技術(shù)委員會在2016年發(fā)布的《機器人技術(shù)和人工智能》報告,側(cè)重闡述了英國會如何規(guī)范機器人技術(shù)與人工智能系統(tǒng)的發(fā)展,以及如何應對其發(fā)展帶來的倫理道德、法律及社會問題,報告認為積極響應并且負責任地監(jiān)管措施能促成監(jiān)管的介入和領導體制的建立。英國政府總是落后于工業(yè)進步、學術(shù)研究和不斷增長的公共關注,在政府決策機制中引入人工智能,制造了非常有趣的關注點,在為社會創(chuàng)造利益的同時,也帶來了新的倫理、法律和社會問題。下議院的科學和技術(shù)委員會在倫理道德和法律方面的重要關注點包括:人工智能的安全與管控,管理——標準與規(guī)則,鼓勵公眾對話,研究——資金支持與創(chuàng)新。③騰訊研究院:《人工智能各國戰(zhàn)略解讀》,http://www.360doc.com/content/17/0301/09/35919193_632883078.shtml,訪問時間2018年5月26日。

      5.日本的機器人革命戰(zhàn)略

      作為“機器人超級大國”,日本政府希望開發(fā)推廣機器人技術(shù),緩解勞動力短缺問題,提高生產(chǎn)效率,2014年9月成立了“機器人革命實現(xiàn)委員會”,召開會議討論與“機器人革命”相關的技術(shù)進步、監(jiān)管改革以及全球化標準等具體舉措。日本經(jīng)濟產(chǎn)業(yè)省將委員會討論的成果進行匯總,2015年1月編制發(fā)布了《日本機器人戰(zhàn)略:愿景、戰(zhàn)略、行動計劃》,機器人革命戰(zhàn)略的三大支柱包括:作為世界機器人創(chuàng)新的據(jù)點——徹底強化機器人創(chuàng)新能力,成為世界上主要的機器人使用大國,領導世界走向機器人新時代。同時建議制訂機器人發(fā)展“五年計劃”。④儲陳城:《日本政府對人工智能的發(fā)展戰(zhàn)略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。日本的機器人革命戰(zhàn)略涉及人工智能與憲法、民法、刑法、勞動法、國際法等諸領域的法律問題,法律法學界正加緊研究。

      6.人工智能立法規(guī)制的中國方案

      《規(guī)劃》在對人工智能理論、技術(shù)和應用作出前瞻布局的同時,還呼吁加強人工智能相關法律、倫理和社會問題研究,建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。在前文人工智能法律規(guī)制的理論構(gòu)造基礎上,我們依次從人工智能的權(quán)利能力、行為能力、責任能力等方面進行相應的立法規(guī)制。

      其一,人工智能機器人享有法律權(quán)利。對應“人工智能三定律”第三條“人工智能機器人應保護自身的安全”,若要賦予人工智能機器人保護自身的權(quán)利,必然與一般的基本權(quán)利保護范圍由自然形成不同,人工智能機器人的基本權(quán)利形成必須通過立法來確定基本權(quán)利的范圍。具有高度智慧、獨立意思表示能力和獨立決策行為能力的高智能機器人是自然人和服務類機器人之外的特殊主體,其享有的法律權(quán)利及對應的法律義務都應當在立法中予以明確界定。

      其二,人工智能機器人類型化立法技術(shù)管控?!斑@是最好的時代,也是最壞的時代”,狄更斯在《雙城記》中的開篇語,同樣適用于“未來已來”的人工智能時代。即:既希冀于人工智能機器人帶來的高效率、高精度、高細度的“三高”智能時代,又憂慮于人工智能優(yōu)于人類的學習深度、優(yōu)于人類的工作強度、優(yōu)于人類的生活態(tài)度以及可能顛覆人類的潛在風險。面對這種具有共生性、時代性和全球性的風險,①吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。不高估、不怯懦,不低估、不自大,以權(quán)利能力、行為能力等基本法律概念為切入點,通過分級、分類管控的方式化解、吸納人工智能風險。例如,參照自然人民事行為能力的分類,將人工智能機器人按照智能程度高低分為無民事行為能力者、限制民事行為能力者,智能程度低的人工智能機器人屬無民事行為能力者,智能程度高的人工智能機器人屬限制民事行為能力者,其行為需經(jīng)相關責任主體追認方可生效。如此,權(quán)利享有者順理成章地成為責任的承擔者。

      其三,全區(qū)鏈備案制的法律責任規(guī)制。自然人之權(quán)利始于出生,終于死亡,無民事行為能力人的法律責任和限制民事行為能力人的大部分法律責任由其監(jiān)護人承擔。對于人工智能機器人,其權(quán)利應當始于登記備案時,登記備案是必經(jīng)的法定程序,人工智能的設計者、生產(chǎn)者、銷售者、使用者、監(jiān)管者都是法律責任的可能承擔者,任何一方不得擅自更改人工智能數(shù)據(jù),人工智能數(shù)據(jù)“黑匣子”只在主管部門授權(quán)或司法部門鑒定時提供。唯有如此,才能倒逼人工智能行業(yè)自律,亦能保證整個生產(chǎn)使用鏈條在程序上的可追責性。

      其四,投保強制責任險。具有深度學習能力、獨立意思表示能力的高智能機器人,性質(zhì)界定遠不是學界流行的工具說、電子奴隸說、代理說等②袁曾:《人工智能有限法律人格審視》,《東方法學》2017第5期。所能囊括的。高智能機器人致人損害的責任有可能是產(chǎn)品責任,毫無疑問,由產(chǎn)品的設計者、生產(chǎn)者、銷售者承擔損害賠償責任;另一種可能是“類腦”機器人的損害故意,責任劃分上,單方面將賠償責任歸給使用者或管理者等“實際控制人”,顯然不妥,而投保強制責任險或許是以法律手段調(diào)整新型人機權(quán)責關系最有效的方式。

      四、法律科技人工智能化的可能路徑

      “現(xiàn)代法律制度的每一個建構(gòu)性要素及其運作過程的每一個環(huán)節(jié),都表現(xiàn)出很強的技術(shù)性特征,這使得法律成為一種典型的社會技術(shù)?!杉夹g(shù)本身也是法治的基本條件之一?!雹壑苌偃A:《法律理性與法律的技術(shù)化》,《法學論壇》2012年第3期。人工智能在法律領域的運用,即法律科技(LawTech)的發(fā)展趨勢/重點規(guī)制領域包括但不限于④曹建峰:《法律人工智能十大趨勢》,http://www.sohu.com/a/162390641_455313,訪問時間2018年5月20日。:智能化的法律檢索將深刻影響法律人進行法律研究(檢索)的方式;人工智能將推動法律文件自動化生成;在線法律服務、人工智能機器人法律服務等替代性商業(yè)模式(alternative business structure)不斷涌現(xiàn),促進法律服務標準化、商品化、自動化、民主化;基于人工智能和大數(shù)據(jù)的案件預測將深刻影響當事人的訴訟行為或改變法律糾紛的解決模式;在線法院(online court)以及人工智能法律援助,將促進司法可得性(access to justice),幫助消除司法鴻溝(justice gap);人工智能和機器人將成為法律系統(tǒng)的主要進入點;律師市場評價將使法律行業(yè)更加透明,可能帶來“馬太效應”;法律人工智能職業(yè)將作為法律行業(yè)的新興職業(yè)而不斷涌現(xiàn);法律教育與人工智能等前沿信息科學技術(shù)將日益密切結(jié)合起來;計算法律(computational law)以及算法裁判,或?qū)⒊蔀榉傻慕K極形態(tài)?;谶@些預判,我們需要對其盡早作出規(guī)制設計。

      在智能發(fā)展引擎的驅(qū)動下,法律的人工智能化可能遍及立法的人工智能化、司法的人工智能化、執(zhí)法的人工智能化等領域,其發(fā)展進程亦離不開法律規(guī)制,人工智能技術(shù)在法律領域的開發(fā)應用必須跨過一個鴻溝,即法理學原則在智能開發(fā)領域的有效運用。有學者指出,擅長法律推理的人工智能應當可以解決以下問題:根據(jù)案例的類比推理(包括真實案例和假設案例);根據(jù)規(guī)則推理;多種推理方式的結(jié)合;處理定義不嚴密及含義開放的概念;設計論證和解釋;處理各項知識的例外和期間的沖突,比如規(guī)則間的沖突;包容法律知識基礎的變化,尤其是法律概念的變化,處理非單一性因素引起的變化,即由于更多新知識的出現(xiàn)而使原有的真理不再成為真理,因之而起的變化;模擬普通常識;模擬人的意向和信念知識;承擔理解自然語言的功能。①於興中:《法理學前沿》,北京:中國民主法制出版社,2014年,第102—105頁。

      不難看出,法律的人工智能化過程中,不得不面對以下具體問題:其一,人工智能法律語言的規(guī)制;其二,人工智能法律解釋的規(guī)制;其三,人工智能法律推理系統(tǒng)的規(guī)制。無論是人工智能法律檢索還是人工智能司法裁判,都必須基于最基本的法律語言而展開,這一點恰恰是人工智能需要攻克的難題。因為現(xiàn)有法律語言存在模糊性,不同學者對法律概念的內(nèi)涵和外延認知有差別,對某一法律問題的理解可能法律職業(yè)共同體內(nèi)部就有多種解釋,而機器語言只做單向的精確推理,如需窮盡推理結(jié)果,必須在法律語言的確定性、法律解釋的一致性和法律推理的多維性等方面預先加以規(guī)制。

      法律的人工智能化在智慧司法中的運用應當是“有限智能化”②黃京平:《刑事司法人工智能的負面清單》,《探索與爭鳴》2017年第10期。,尤其現(xiàn)階段該應用主要集中于數(shù)據(jù)檢索環(huán)節(jié),更需兼顧效率與公正、權(quán)衡案件的共同性和差異性。2017年8月28日,由上海市社科聯(lián)探索與爭鳴雜志社和華東政法大學政治學研究院共同主辦的“人工智能與未來社會:趨勢、風險與挑戰(zhàn)”學術(shù)研討會上,微軟亞太科技有限公司副總裁王楓鮮明地指出:“沒有數(shù)據(jù)的人工智能是一個理論和空談,數(shù)據(jù)的完整性、專業(yè)性和準確性是最基本的?!雹蹍⒁姟度斯ぶ悄茉谖磥砩鐣⒂心男╋L險與挑戰(zhàn)》,http://news.ifeng.com/a/20170831/51821471_0.shtml,訪問時間2018年5月23日。人工智能發(fā)展的原始助推力不是算法、不是推理,更不是軟件系統(tǒng),而是大量的數(shù)據(jù),所涉數(shù)據(jù)的來源、數(shù)據(jù)的使用都不可避免地帶來安全隱患或產(chǎn)生隱私侵權(quán)行為,這就需要在道德倫理與法律之間尋求一個平衡點,在保護數(shù)據(jù)信息安全使用的前提下,通過人工智能系統(tǒng)促進法律職業(yè)技術(shù)改革,總之,法律的人工智能化不僅追求效率,更要兼顧公平與正義。在使用數(shù)據(jù)方面,遵循目的明確、最少夠用、公開告知、知情同意等基本原則,④袁曾:《人工智能有限法律人格審視》,《東方法學》2017第5期。通過數(shù)據(jù)使用主體權(quán)限、數(shù)據(jù)使用者登記備案、數(shù)據(jù)使用流向注入標簽水印等方式嚴格規(guī)范數(shù)據(jù)使用,對于濫用數(shù)據(jù)或竊取使用數(shù)據(jù)的行為,在查明責任主體的前提下,以民事和刑事責任予以規(guī)制。

      結(jié) 語

      人工智能從技術(shù)到產(chǎn)品都在發(fā)展成熟的過程中,這個過程正是人工智能立法的準備階段、摸索階段、積累階段。在人工智能立法方面,就目前而言,尚沒有立法成就特別突出的國家,這是全人類所面臨的新課題,有學者提出,堅持以人為本的原則、建立全流程監(jiān)管體系、明晰法律責任制度、明確數(shù)據(jù)信息保護與隱私權(quán)保護、強化涉及人工智能發(fā)展的知識產(chǎn)權(quán)保護、加強國際合作,加快制定專門的《人工智能發(fā)展法》。①袁曾:《人工智能有限法律人格審視》,《東方法學》2017第5期。一部體系和結(jié)構(gòu)完整的《人工智能發(fā)展法》既需要廓清人工智能機器人的基本權(quán)責義,還需要厘清人(法人)機之間的責任分配以及責任承擔方式,更需要不同領域相關法律的配合和補充。

      人工智能已然提升至國家戰(zhàn)略層面,毫無疑問,立法也將緊隨科技進步的步伐。當前,圍繞自動駕駛、服務機器人等應用基礎好的領域,加快立法進度,將人工智能復雜環(huán)境中的突發(fā)事件納入法律規(guī)制的范圍,探索歸納該場景下突發(fā)事件的應對主體、問責機制,為后續(xù)立法提供借鑒。

      猜你喜歡
      機器人人工智能法律
      法律解釋與自然法
      法律方法(2021年3期)2021-03-16 05:57:02
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      讓人死亡的法律
      山東青年(2016年1期)2016-02-28 14:25:30
      “互助獻血”質(zhì)疑聲背后的法律困惑
      機器人來幫你
      認識機器人
      機器人來啦
      江山市| 华安县| 得荣县| 喜德县| 成都市| 宜城市| 黑河市| 拜城县| 聊城市| 全椒县| 尼勒克县| 伊通| 广昌县| 禄丰县| 稷山县| 逊克县| 轮台县| 灯塔市| 盐源县| 闻喜县| 尉氏县| 运城市| 临猗县| 平乐县| 施甸县| 钟山县| 宜宾县| 恩施市| 永兴县| 泰安市| 台安县| 鄂托克旗| 陇南市| 石台县| 广灵县| 游戏| 叙永县| 临清市| 黑水县| 晋城| 剑阁县|