錢思雯
(常熟理工學(xué)院,江蘇 常熟 215500)
案例一:2011年,英國(guó)一駕駛員根據(jù)GPS指引,超車并將車輛轉(zhuǎn)向道路錯(cuò)誤的一側(cè)造成交通事故致人死亡。法院認(rèn)為GPS的失誤是事故的部分原因,但駕駛員對(duì)GPS的過(guò)分依賴構(gòu)成了疏忽駕駛,被判處4年徒刑。
案例二:2016年,美國(guó)佛羅里達(dá)州一輛開啟Autopilot模式的特斯拉電動(dòng)汽車對(duì)駛近的大貨車未做出任何反應(yīng),徑直撞向了大貨車尾部的拖車并導(dǎo)致駕駛員死亡,成為人工智能發(fā)展史上第一起自動(dòng)駕駛致死事故。
案例三:2017年,ElsaGate (愛(ài)莎門事件)使不良兒童視頻廣泛傳播,由于You Tube算法存在漏洞 (如自動(dòng)推薦算法給予基于視頻發(fā)布者的權(quán)值權(quán)重很小,給予個(gè)人觀看者權(quán)值比重大;兒童安全算法易被規(guī)避等),導(dǎo)致個(gè)別有害視頻被兒童觀看后大量類似視頻被自動(dòng)推薦給兒童。
從深藍(lán)到AlphaGo,從GPS到智能車,近年來(lái),人工智能 (Artificial Intelligence,AI)在多個(gè)領(lǐng)域取得突破進(jìn)展并展現(xiàn)了極為強(qiáng)大的深度學(xué)習(xí)能力,甚至超越了人類一流專家水平,人工智能已成為不可阻擋的時(shí)代潮流,對(duì)各國(guó)經(jīng)濟(jì)社會(huì)發(fā)展產(chǎn)生著戰(zhàn)略性和全局性影響。 《國(guó)務(wù)院關(guān)于積極推進(jìn) “互聯(lián)網(wǎng)+”行動(dòng)的指導(dǎo)意見(jiàn)》提出,到2018年,要在重點(diǎn)領(lǐng)域培育若干全球領(lǐng)先的人工智能骨干企業(yè),初步建成基礎(chǔ)堅(jiān)實(shí)、創(chuàng)新活躍、開放協(xié)作、綠色安全的人工智能產(chǎn)業(yè)生態(tài),形成千億級(jí)的人工智能市場(chǎng)應(yīng)用規(guī)模。
人工智能的飛速發(fā)展帶來(lái)了一系列社會(huì)與法律問(wèn)題:社會(huì)層面,特定行業(yè)工作崗位首當(dāng)其沖,2018年1月,美國(guó)卡車司機(jī)工會(huì)要求與UPS談判禁止無(wú)人機(jī)和無(wú)人駕駛卡車配送包裹,以保障26萬(wàn)名員工工作;法律領(lǐng)域,2017年12月,工信部 《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃 (2018—2020年)》提出要開展人工智能相關(guān)政策和法律法規(guī)研究,為產(chǎn)業(yè)健康發(fā)展?fàn)I造良好環(huán)境。年是三年行動(dòng)計(jì)劃的之年,人工智能法律領(lǐng)域的研究也已提上議事日程,人工智能的民事主體地位、人工智能作品著作權(quán)、人工智能侵權(quán)、大數(shù)據(jù)時(shí)代隱私權(quán)保護(hù)等問(wèn)題皆已引起了各方關(guān)注。
面對(duì)人工智能時(shí)代對(duì)現(xiàn)行法律體系的挑戰(zhàn),本文針對(duì)以下問(wèn)題進(jìn)行思考:傳統(tǒng)法律如何應(yīng)對(duì)人工智能技術(shù)革新?怎樣構(gòu)建人工智能時(shí)代的責(zé)任分配體系?如何在保障安全與促進(jìn)技術(shù)進(jìn)步之間取得平衡?本文的第一部分對(duì)當(dāng)前人工智能的發(fā)展階段進(jìn)行定性,認(rèn)為當(dāng)前人工智能屬于弱人工智能階段,尚未脫離 “物”之屬性,仍屬法律關(guān)系的客體;第二部分從責(zé)任分配的角度分析弱人工智能時(shí)代可能承擔(dān)責(zé)任的主體,認(rèn)為由制造商承擔(dān)產(chǎn)品責(zé)任是平衡技術(shù)發(fā)展與消費(fèi)者權(quán)益保護(hù)的最優(yōu)選擇;第三部分討論弱人工智能技術(shù)發(fā)展對(duì)現(xiàn)行法律體系的挑戰(zhàn),認(rèn)為法律應(yīng)對(duì)人工智能的合法地位采取寬容態(tài)度,并確立合理的監(jiān)管框架和責(zé)任分配體系。
技術(shù)進(jìn)步使人工智能逐漸由 “物”向 “人”轉(zhuǎn)變,對(duì)應(yīng)人工智能法律人格從無(wú)到有、法律地位由法律關(guān)系的客體向主體的轉(zhuǎn)變。人工智能的不同法律定位對(duì)應(yīng)了不同的糾紛解決形式,影響最終的權(quán)利歸屬與責(zé)任承擔(dān)方式,因而明確現(xiàn)階段人工智能技術(shù)的發(fā)展階段與法律地位成為探討人工智能一切法律問(wèn)題的前提。
自1956年達(dá)特茅斯會(huì)議上提出人工智能概念以來(lái),人工智能的發(fā)展已經(jīng)歷60多年,對(duì)人工智能的討論圍繞 “思考”和 “行為”區(qū)分了四個(gè)維度,即:像人一樣思考的系統(tǒng),理性地思考的系統(tǒng),像人一樣行動(dòng)的系統(tǒng),理性地行動(dòng)的系統(tǒng)[1],但對(duì)其定義至今未有一致結(jié)論。從發(fā)展階段看,人工智能可分為弱人工智能 (Artificial Narrow Intelligence,ANI)、強(qiáng)人工智能 (Artificial General Intelligence,AGI)和超人工智能 (Artificial Super Intelligence,ASI)三個(gè)階段,弱人工智能盡管具有推理計(jì)算、自我學(xué)習(xí)能力,可以像人類一樣解決任何問(wèn)題并在任何社會(huì)環(huán)境中進(jìn)行互動(dòng),但并不具備意識(shí);強(qiáng)人工智能則具備意識(shí)、自我、創(chuàng)新思維等與人類類似的智能[2];超人工智能更是在各方面均遠(yuǎn)超人類大腦。
目前,弱人工智能已取得了飛速發(fā)展并充斥在人類生活的各個(gè)方面,如搜索引擎、導(dǎo)航系統(tǒng)、人臉識(shí)別系統(tǒng)、AlphaGo,等等[3]。盡管深藍(lán)、AlphaGo等人工智能在某些領(lǐng)域擊敗人類頂尖高手,但尚未具備自我、意識(shí)等類人類智能,仍未跨越與強(qiáng)人工智能之間巨大的技術(shù)鴻溝, 《星球大戰(zhàn)》中的C-3PO等智能程度匹配甚至超越人類智能的強(qiáng)人工智能仍屬虛構(gòu)。 《奇點(diǎn)臨近》一書預(yù)言技術(shù)發(fā)展將以指數(shù)級(jí)速度遞增,人工智能將在2045年超過(guò)人類智能[4],但奇點(diǎn)臨近前的當(dāng)前時(shí)點(diǎn)仍處于弱人工智能階段。
面對(duì)人工智能的爆發(fā)式發(fā)展,霍金曾公開表示憂慮,其認(rèn)為: “可以想象,人工智能會(huì)以其‘聰明’在金融市場(chǎng)勝出,在發(fā)明方面勝過(guò)人類研究者,在操縱民意方面將勝過(guò)人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至不理解的武器。盡管人工智能的短期影響取決于誰(shuí)在控制人工智能,而它的長(zhǎng)期影響則取決于人工智能能否受到任何控制?!笨梢钥吹?,控制權(quán)的歸屬將成為強(qiáng)人工智能和超人工智能時(shí)代人類與人工智能交互作用的焦點(diǎn),也是人工智能從法律關(guān)系的客體向主體轉(zhuǎn)變的重要轉(zhuǎn)折點(diǎn)。強(qiáng)人工智能以后,人工智能技術(shù)超越人類控制能力,倫理性將超越技術(shù)性成為人工智能法律制度的基石,從 “機(jī)器人三定律”到 “阿西洛馬人工智能原則”,人工智能的倫理性基礎(chǔ)將確保其未來(lái)發(fā)展以人類最佳利益行事。
弱人工智能的深度學(xué)習(xí)能力導(dǎo)致其行為具有不可預(yù)測(cè)性,當(dāng)制造商 (設(shè)計(jì)者)將人工智能用于實(shí)踐后就無(wú)法預(yù)見(jiàn)其將如何運(yùn)行,更無(wú)法預(yù)測(cè)其與消費(fèi)者或第三方互動(dòng)學(xué)習(xí)結(jié)果[5],例如,案例三中,You Tube根據(jù)用戶點(diǎn)擊習(xí)慣推薦類似視頻導(dǎo)致有害視頻擴(kuò)散,微軟聊天機(jī)器人Tay根據(jù)互動(dòng)用戶語(yǔ)言習(xí)慣學(xué)習(xí)并發(fā)表種族歧視言論,等等。然而,盡管無(wú)法精準(zhǔn)預(yù)測(cè)弱人工智能的行為結(jié)果,制造商 (設(shè)計(jì)者)仍可通過(guò)更科學(xué)合理的設(shè)置算法與強(qiáng)化審核過(guò)濾體系對(duì)不可預(yù)測(cè)后果加以防范。因此,盡管弱人工智能具有獨(dú)立思考與深度學(xué)習(xí)能力,甚至具備某種程度的獨(dú)立行為能力,但仍離不開人類的監(jiān)管與控制,如人類駕駛員在自動(dòng)駕駛模式下仍需保持足夠警覺(jué)并在系統(tǒng)發(fā)出請(qǐng)求時(shí)及時(shí)恢復(fù)人工控制,又如網(wǎng)絡(luò)平臺(tái)自動(dòng)推薦系統(tǒng)的控制權(quán)由平臺(tái)公司掌握并受到監(jiān)管。由此可見(jiàn),弱人工智能階段,人類有能力也有義務(wù)保持對(duì)人工智能的控制以保障技術(shù)發(fā)展的安全性,對(duì)弱人工智能的法律規(guī)制更多集中于技術(shù)層面。
沙特阿拉伯于2017年賦予機(jī)器人 “索菲亞”公民身份,引發(fā)了對(duì)人工智能法律地位的思考,其究竟是隸屬于人類的 “財(cái)產(chǎn)” “自然奴隸”,還是與人類相似的 “公民”[6]?具有公民身份的機(jī)器人 “索菲亞”在當(dāng)前只是特例,弱人工智能的公民地位并未得到普遍認(rèn)可,人工智能的公民權(quán)問(wèn)題在強(qiáng)人工智能時(shí)代將無(wú)法回避,而弱人工智能時(shí)代則更多關(guān)注責(zé)任分配等私法問(wèn)題。
長(zhǎng)遠(yuǎn)來(lái)看,確定人工智能有限法律人格或特殊法律地位系大勢(shì)所趨[7],當(dāng)人工智能自治性增強(qiáng)到具有獨(dú)立行為能力的轉(zhuǎn)折點(diǎn)——便產(chǎn)生了獨(dú)立承擔(dān)民事責(zé)任的必要性與可能性。2016年,歐洲議會(huì)向歐盟委員會(huì)報(bào)告第59 (f)項(xiàng)建議: “從長(zhǎng)遠(yuǎn)來(lái)看,要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位 (a special legal status),以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)享有電子人 (electronic persons)的法律地位,以彌補(bǔ)人工智能所造成的任何損害,并適用于機(jī)器人做出自主決策或獨(dú)立與第三人交往的情形”。除技術(shù)突破外,還需輔以勞動(dòng)法、稅法、保險(xiǎn)法、公司法、信托法乃至憲法等法律的變革,才能使人工智能享有獨(dú)立財(cái)產(chǎn)并享有一定程度的私法 “人格”[8]。
目前,弱人工智能雖具有獨(dú)立思考與深度學(xué)習(xí)能力,但尚未具備自我意識(shí)與情感,也不能離開人類的最終控制。從作為輔助駕駛工具的GPS到可獨(dú)立作出判斷的自動(dòng)駕駛汽車,人工智能自治性不斷增強(qiáng),工具性不斷減弱,難以做出準(zhǔn)確的法律定性。明確弱人工智能的法律定位是解決一切法律問(wèn)題的關(guān)鍵,根據(jù)人工智能的特殊屬性,其可能的法律定位包括[9]:
(1)雇員:近年來(lái),亞馬遜等公司開始探索采用無(wú)人機(jī)、無(wú)人駕駛汽車送貨,導(dǎo)致人類快遞員崗位岌岌可危,或可將弱人工智能的法律地位類比為人類雇員,其造成的損害由雇主承擔(dān)替代責(zé)任。然而,與其說(shuō)無(wú)人機(jī)、無(wú)人駕駛汽車類似于人類雇員,不如說(shuō)其為更先進(jìn)的運(yùn)輸工具更合適。再進(jìn)一步,人工智能并不具備人類雇員的特性,無(wú)法在復(fù)雜的社會(huì)活動(dòng)中作為一個(gè)有自我意識(shí)的主體存在,難以從主觀上斷定其是否為 “雇主利益”行事,對(duì)其自我學(xué)習(xí)、自我判斷后超出授權(quán)范圍的行為難以斷定是否屬于 “職務(wù)行為”,將其類比為 “雇員”并不合適。
(2)代理人:電子代理人 (electronic agent)在電子商務(wù)締約過(guò)程中的廣泛運(yùn)用提出了人工智能法律地位的另一種可能——代理人,與人類代理人相似,電子代理人使被代理人行為得以延伸,并將行為后果歸屬于被代理人。然而,電子代理人實(shí)質(zhì)上仍是計(jì)算機(jī)程序、電子或自動(dòng)化手段,根據(jù)既定程序運(yùn)行,與人類代理人有本質(zhì)區(qū)別,沒(méi)有能力對(duì)代理過(guò)程中造成的損害承擔(dān)民事責(zé)任,無(wú)法超脫工具范疇 (Instrumentality Theory),并不適合將其類比為代理人[10]。
(3)未成年人:將人類對(duì)弱人工智能的監(jiān)管類比為對(duì)未成年人的監(jiān)護(hù),監(jiān)護(hù)手段與強(qiáng)度隨著被監(jiān)護(hù)人理性的增長(zhǎng)而調(diào)整[11]。但監(jiān)護(hù)權(quán)系準(zhǔn)身份權(quán)[12],弱人工智能并不具備 “人格”與 “身份”,并且其理性程度、承擔(dān)監(jiān)護(hù)義務(wù)的主體均難以確定,無(wú)論使設(shè)計(jì)者、制造者或使用者負(fù)擔(dān)監(jiān)護(hù)義務(wù),均將造成 “監(jiān)護(hù)人”的過(guò)重負(fù)擔(dān),阻礙人工智能技術(shù)發(fā)展。
(4)動(dòng)物:弱人工智能的理性水平尚處初級(jí)階段時(shí),拋開 “人格”與 “身份”的顧慮,動(dòng)物或許是更為合適的類比對(duì)象。動(dòng)物飼養(yǎng)人或管理人實(shí)際控制、管理著動(dòng)物,并了解動(dòng)物的習(xí)性,比一般人更能注意和防范損害發(fā)生,應(yīng)當(dāng)對(duì)動(dòng)物采取安全措施并負(fù)合理注意義務(wù),對(duì)動(dòng)物造成的損害承擔(dān)侵權(quán)責(zé)任。然而,此種類比將弱人工智能侵權(quán)責(zé)任施予實(shí)際控制者 (如使用人,往往是消費(fèi)者),并不深究損害原因[13],但事實(shí)上,實(shí)際控制者并不掌握人工智能的運(yùn)作原理,不能預(yù)測(cè)其行為趨勢(shì)并防止損害發(fā)生,由其承擔(dān)替代責(zé)任并不公平。
(5)危險(xiǎn)行為:還有一種思路是將弱人工智能類比高度危險(xiǎn)作業(yè),如民用核設(shè)施、航空器、高度危險(xiǎn)物等,由實(shí)際控制者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任。然而,人工智能的運(yùn)用與火箭測(cè)試、高速駕駛油罐車等行為存在本質(zhì)區(qū)別,發(fā)展人工智能的目的是使人類生活更為便利與安全,即便在使用過(guò)程中產(chǎn)生了危險(xiǎn)也并非其固有風(fēng)險(xiǎn),很難將其定性為危險(xiǎn)行為。相反,弱人工智能在提高安全性、減少事故發(fā)生方面做出重要貢獻(xiàn),例如特斯拉在安裝了Autopilot輔助駕駛系統(tǒng)后交通事故發(fā)生率降低了40%。
(6)物:弱人工智能遠(yuǎn)未發(fā)展到 “電子人”階段,人類依舊保持著對(duì)弱人工智能的監(jiān)管與控制。不同于對(duì)未成年人的監(jiān)護(hù)及對(duì)動(dòng)物的管理,人類對(duì)弱人工智能的監(jiān)督主要體現(xiàn)在兩方面:一方面,體現(xiàn)為制造過(guò)程中制造商對(duì)程序和算法的設(shè)定、技術(shù)的改進(jìn),以及在后續(xù)維護(hù)中對(duì)程序的更新及漏洞的彌補(bǔ);另一方面,體現(xiàn)為應(yīng)用過(guò)程中使用人對(duì)控制權(quán)的掌握。現(xiàn)階段,人類對(duì)弱人工智能的權(quán)益并未脫離占有、使用、收益、處分的范疇,將人工智能定位為 “物”,特別是被人們生產(chǎn)、使用和消費(fèi)的 “產(chǎn)品”更為合適,有利于推動(dòng)人工智能商業(yè)化進(jìn)程。
無(wú)論是有形的自動(dòng)駕駛汽車,還是無(wú)形的算法,弱人工智能作為 “物”與人類互動(dòng)不斷增多,無(wú)可避免產(chǎn)生損害與侵權(quán)風(fēng)險(xiǎn)。不同于奇點(diǎn)來(lái)臨后的強(qiáng)人工智能,弱人工智能尚未具備獨(dú)立承擔(dān)法律責(zé)任的條件,但與傳統(tǒng) “物”之侵權(quán)不同,弱人工智能侵權(quán)特征表現(xiàn)為侵權(quán)形態(tài)的多樣性、侵權(quán)原因的復(fù)雜性以及控制手段的隱秘性,如何合理分配弱人工智能的侵權(quán)責(zé)任,從而推動(dòng)技術(shù)進(jìn)步并保障技術(shù)安全成為現(xiàn)行法律亟待回應(yīng)的重要問(wèn)題。
導(dǎo)致人工智能侵權(quán)的原因多種多樣,包括人工智能產(chǎn)品缺陷、使用人 (監(jiān)管人、第三人等)的錯(cuò)誤操作以及人工智能本身的獨(dú)立判斷等,在人工智能與人類互動(dòng)導(dǎo)致?lián)p害的過(guò)程中,責(zé)任主體有以下可能[3]:
(1)制造商 (設(shè)計(jì)者、經(jīng)銷商等)。人工智能作為產(chǎn)品本身的缺陷,包括制造缺陷、設(shè)計(jì)缺陷和警示缺陷,應(yīng)由制造商 (設(shè)計(jì)者、經(jīng)銷商等)承擔(dān)責(zé)任。如案例三中,You Tube應(yīng)對(duì)存在漏洞的算法導(dǎo)致的損害結(jié)果負(fù)責(zé);實(shí)務(wù)中汽車制造商對(duì)汽車電子控制系統(tǒng)設(shè)計(jì)缺陷、定速巡航系統(tǒng)缺陷亦承擔(dān)產(chǎn)品責(zé)任。
第三天仍然是有,第四天,第五天,一個(gè)星期過(guò)去。第十天的時(shí)候,阮小棉終于把那張報(bào)紙留下來(lái)。她記下了他的地址,芙蓉里五段18號(hào)。
(2)使用人 (監(jiān)管人、第三人等)。目前的弱人工智能尚未具備獨(dú)立行為能力,使用過(guò)程離不開人類控制與監(jiān)管,即便使用者并不了解、無(wú)法預(yù)測(cè)人工智能的行為,仍需為其行為承擔(dān)責(zé)任[13]。如案例一中GPS提供的路線指引離不開駕駛員的獨(dú)立判斷;Google汽車Autopilot系輔助駕駛系統(tǒng)需要駕駛員保持對(duì)車輛的控制和快速反應(yīng);自動(dòng)駕駛模式下的飛機(jī)駕駛員仍有義務(wù)對(duì)飛機(jī)保持嚴(yán)密監(jiān)控。此外,第三人通過(guò)與人工智能互動(dòng)等方式對(duì)其自我學(xué)習(xí)結(jié)果產(chǎn)生影響致使損害發(fā)生,也應(yīng)當(dāng)承擔(dān)責(zé)任,如聊天機(jī)器人自動(dòng)學(xué)習(xí)的語(yǔ)言內(nèi)容與使用者的語(yǔ)言習(xí)慣有直接關(guān)系;黑客對(duì)系統(tǒng)漏洞的攻擊可引發(fā)隱私泄露等一系列嚴(yán)重后果。因此,弱人工智能的使用人、監(jiān)管人乃至第三人都是可能的責(zé)任主體。
(3)人工智能本身。特定情況下,弱人工智能符合邏輯的正確決定也將導(dǎo)致?lián)p害,產(chǎn)生人工智能本身承擔(dān)責(zé)任的可能。例如:兩輛完全自動(dòng)駕駛汽車在高速公路上同向行駛,A車在左車道,B車在右車道,A車在B車略前方。一頭鹿突然出現(xiàn)在左車道中間,A車立刻做出決定,向右車道打方向以避免撞到那只鹿。右車道內(nèi)的B車同樣做出決定,向右側(cè)打方向以避免碰撞到A輛車,撞到了右面的一棵樹并導(dǎo)致B車內(nèi)乘客受傷。兩輛自動(dòng)駕駛汽車均正確運(yùn)行并做出最安全的決定,由人工智能本身承擔(dān)責(zé)任似乎最符合公平正義的理念。當(dāng)前,美國(guó)國(guó)家公路運(yùn)輸安全管理局 (the National Highway Transportation Safety Administration)已承認(rèn)車輛自動(dòng)駕駛系統(tǒng)作為車輛 “駕駛?cè)恕保扇斯ぶ悄鼙旧沓袚?dān)責(zé)任的情境并不遙遠(yuǎn)。
此外,在人類與人工智能的復(fù)雜互動(dòng)中,尤其是弱人工智能尚離不開使用人監(jiān)督操作的現(xiàn)階段,更多出現(xiàn)混合責(zé)任的情況,如人類駕駛員在不利的天氣條件或路況下開啟自動(dòng)駕駛模式,以及未能在特定情況下重新控制車輛等,此時(shí),事故原因的界定及責(zé)任的合理分配將更為困難。
無(wú)論是通過(guò)傳統(tǒng)侵權(quán)法體系還是產(chǎn)品質(zhì)量法體系解決弱人工智能侵權(quán)責(zé)任分配問(wèn)題,事故原因的查明均系關(guān)鍵所在,但只有制造商才具備技術(shù)與數(shù)據(jù)優(yōu)勢(shì)進(jìn)行調(diào)查。此外,正如霍姆斯法官所說(shuō), “最安全的方式是將風(fēng)險(xiǎn)交給決定采取何種預(yù)防措施的人?!盵14]人工智能的制造商掌握著最全面的制造與改進(jìn)技術(shù),對(duì)弱人工智能具有最強(qiáng)的控制權(quán)。無(wú)論從事故原因的確定還是從風(fēng)險(xiǎn)控制方面來(lái)看,制造商都具有最優(yōu)主體地位,具體而言:
(1)調(diào)查優(yōu)勢(shì)。人工智能的運(yùn)作過(guò)程類似 “黑匣子”,無(wú)論是法院還是其他專門調(diào)查機(jī)構(gòu),在事故原因調(diào)查中都需要人工智能制造商配合以獲得相關(guān)數(shù)據(jù),如案例二中,美國(guó)國(guó)家公路交通安全管理局作為調(diào)查主體要求特斯拉公司移交自動(dòng)駕駛系統(tǒng)引入以來(lái)的一切設(shè)計(jì)變更與更新的詳細(xì)信息,以及接下來(lái)四個(gè)月的更新計(jì)劃。弱人工智能的運(yùn)作過(guò)程類似 “黑匣子”,制造商在推動(dòng) “黑匣子”轉(zhuǎn)變?yōu)?“玻璃匣子”的進(jìn)程中發(fā)揮核心作用。目前,各國(guó)已開始推動(dòng)人工智能的透明化進(jìn)程,歐盟要求配置大量對(duì)公眾產(chǎn)生影響的算法的公司,必須在2018年前對(duì)所創(chuàng)建模型的內(nèi)部邏輯做出 “解釋”,美國(guó)國(guó)防高級(jí)研究計(jì)劃署也制定了 “可解釋的人工智能新計(jì)劃”力圖對(duì)人工智能深度學(xué)習(xí)進(jìn)行解釋[15]。
(2)控制優(yōu)勢(shì)。由于制造商掌握著弱人工智能的核心技術(shù)并在制造、設(shè)計(jì)、警示方面具有主動(dòng)權(quán),較于其他主體,制造商對(duì)人工智能產(chǎn)品更為了解,更有利于控制事故、改進(jìn)技術(shù),具有最低的預(yù)防成本,根據(jù)漢德公式,由制造商作為人工智能侵權(quán)的第一責(zé)任人具有合理性。制造商對(duì)弱人工智能行為缺乏預(yù)見(jiàn)能力并不能成為其拒絕承擔(dān)產(chǎn)品責(zé)任的 “擋箭牌”,現(xiàn)代侵權(quán)法的多樣性風(fēng)險(xiǎn)路徑擴(kuò)張了風(fēng)險(xiǎn)預(yù)見(jiàn)能力與預(yù)見(jiàn)范圍[5],制造商 “合理預(yù)見(jiàn)”范圍也進(jìn)一步擴(kuò)大,必須預(yù)見(jiàn)人工智能產(chǎn)品可能的一切用途,而不局限于其宣稱的功能。而隨著弱人工智能技術(shù)發(fā)展,越來(lái)越多弱人工智能將獨(dú)立運(yùn)作,責(zé)任承擔(dān)將進(jìn)一步由混合責(zé)任向制造商責(zé)任傾斜。
制造商的第一責(zé)任人地位也引發(fā)了一系列擔(dān)憂:一方面,面對(duì)不可預(yù)見(jiàn)的產(chǎn)品責(zé)任,制造商將失去開發(fā)新產(chǎn)品的動(dòng)力從而阻礙技術(shù)進(jìn)步[16]。嚴(yán)格的產(chǎn)品責(zé)任使中小企業(yè)很容易因幾起訴訟而破產(chǎn),大企業(yè)則成為侵權(quán)訴訟的 “深口袋 (Deep Pocket)”背負(fù)沉重枷鎖;另一方面,制造商采取各種手段轉(zhuǎn)移責(zé)任使產(chǎn)品責(zé)任名存實(shí)亡,從而對(duì)人工智能市場(chǎng)發(fā)展產(chǎn)生負(fù)面影響。如將具備看護(hù)功能的人工智能保姆作為 “玩具”銷售,消費(fèi)者難以證明對(duì)其看護(hù)功能的 “合理期待”,出現(xiàn)問(wèn)題后難以歸咎于產(chǎn)品責(zé)任[3];或與消費(fèi)者簽訂格式條款要求消費(fèi)者保持注意義務(wù)并承擔(dān)最終風(fēng)險(xiǎn),如Tesla要求自動(dòng)駕駛模式下駕駛員的手經(jīng)常保持在方向盤上并保證控制權(quán),將責(zé)任轉(zhuǎn)移到使用人。
(1)責(zé)任限制。①免責(zé)事由。根據(jù) 《產(chǎn)品質(zhì)量法》規(guī)定的免責(zé)事由,未將產(chǎn)品投入流通、產(chǎn)品投入流通時(shí)引起損害的缺陷尚不存在、科技發(fā)展水平限制可作為免責(zé)事由進(jìn)行抗辯,但后兩種抗辯事由應(yīng)采取更嚴(yán)格的標(biāo)準(zhǔn),要充分考慮到制造商對(duì)人工智能自動(dòng)學(xué)習(xí)、自我發(fā)展能力的預(yù)測(cè)與控制能力。②責(zé)任限額。科技進(jìn)步與風(fēng)險(xiǎn)伴生,以航空法的發(fā)展為例,20世紀(jì)初飛機(jī)的發(fā)明對(duì)當(dāng)時(shí)人類社會(huì)的沖擊并不亞于人工智能時(shí)代的到來(lái),為保障航空公司免于大規(guī)模侵權(quán)訴訟,1929年簽訂的 《華沙條約》對(duì)國(guó)際航空運(yùn)輸中的承運(yùn)人責(zé)任、損害賠償標(biāo)準(zhǔn)等做出了規(guī)定,促進(jìn)了技術(shù)創(chuàng)新與航空產(chǎn)業(yè)發(fā)展[18]。面對(duì)弱人工智能造成的不可預(yù)知的侵害,可參考航空法責(zé)任限額方式對(duì)制造商責(zé)任進(jìn)行限制。③合理替代設(shè)計(jì)。制造商并不因人工智能帶來(lái)凈效益而免責(zé),但為緩和制造商責(zé)任并防止訴訟泛濫,在缺陷的認(rèn)定上可采合理替代設(shè)計(jì)標(biāo)準(zhǔn),即制造商若能證明不存在其他合理替代設(shè)計(jì)以避免損害可減免責(zé)任[9]。在完全自動(dòng)駕駛車輛基于獨(dú)立判斷仍不免發(fā)生事故的情況下,制造商并無(wú)合理替代設(shè)計(jì)方案避免事故,即便人類駕駛員也無(wú)法做出更好的選擇,根據(jù)風(fēng)險(xiǎn)-效用理論并不能認(rèn)定自動(dòng)駕駛車輛存在缺陷,因而制造商在上述情況下可免于承擔(dān)責(zé)任。
(2)稅收與基金。通過(guò)向制造商收稅并設(shè)立賠償基金以緩和制造商責(zé)任、減少訴訟帶來(lái)的沖擊,此種方式在醫(yī)療、汽車制造領(lǐng)域均有先例。以醫(yī)療領(lǐng)域?yàn)槔?,新疫苗的研發(fā)與應(yīng)用往往伴隨大量訴訟,為促進(jìn)疫苗的研發(fā)并維護(hù)受害人權(quán)益,1986年,美國(guó)前總統(tǒng)里根簽署 《全國(guó)兒童疫苗損害法案》 (NCVIA)并為受害者設(shè)立賠償基金,并成立了國(guó)家預(yù)防接種傷害救濟(jì)項(xiàng)目 (NVICP),每劑疫苗向制造商征收0.75美元的稅收,消費(fèi)者可直接向該項(xiàng)目提出索賠。消費(fèi)者并不承擔(dān)對(duì)因果關(guān)系和實(shí)際損失的舉證責(zé)任,只有消費(fèi)者拒絕賠償或被該項(xiàng)目拒絕賠償?shù)那闆r下才可對(duì)制造商提起訴訟,此舉既鼓勵(lì)了家長(zhǎng)給兒童接種疫苗,同時(shí)也促進(jìn)了制造商繼續(xù)研發(fā)疫苗[18]。在人工智能領(lǐng)域,也可參考此種方式向制造商征收合理的稅收并成立賠償基金,為人工智能侵權(quán)受害人提供賠償,避免制造商陷入訴訟旋渦。
(3)保險(xiǎn)。通過(guò)保險(xiǎn)分散人工智能帶來(lái)的風(fēng)險(xiǎn)是一個(gè)多贏選擇,人工智能安全性越高,保費(fèi)就越低,就越能促進(jìn)制造商進(jìn)一步改進(jìn)技術(shù)、提高產(chǎn)品安全性[16]。目前,在自動(dòng)駕駛領(lǐng)域,交通事故責(zé)任保險(xiǎn)或賠償保函已成為強(qiáng)制性要求。對(duì)人工智能投保也具有較強(qiáng)可行性,目前許多保險(xiǎn)公司已開始采用 “基于使用”計(jì)劃,通過(guò)車輛設(shè)備收集駕駛信息,了解駕駛習(xí)慣及駕駛行為,據(jù)此精確調(diào)整保費(fèi)。類似的,在其他人工智能領(lǐng)域,保險(xiǎn)公司也可根據(jù)歷史數(shù)據(jù)確定風(fēng)險(xiǎn)并調(diào)整保費(fèi)[19]。
弱人工智能時(shí)代,法律調(diào)整的首要任務(wù)是在防范人工智能帶來(lái)的風(fēng)險(xiǎn)與鼓勵(lì)科技創(chuàng)新之間尋求平衡,由于制造商在事故原因調(diào)查、風(fēng)險(xiǎn)控制、技術(shù)革新方面都具有顯著優(yōu)勢(shì),并可通過(guò)責(zé)任限額、稅收、基金及保險(xiǎn)等手段分散風(fēng)險(xiǎn),故以產(chǎn)品責(zé)任為核心的責(zé)任分配體系具有合理性與可行性。圍繞制造商責(zé)任,基于弱人工智能特點(diǎn),制造商還需承擔(dān)如下義務(wù):
(1)舉證義務(wù)。產(chǎn)品責(zé)任系無(wú)過(guò)錯(cuò)責(zé)任,原則上,受害人承擔(dān)對(duì)產(chǎn)品缺陷、損害以及因果關(guān)系的證明責(zé)任;生產(chǎn)者則對(duì)法律規(guī)定的免責(zé)事由承擔(dān)舉證責(zé)任。而在特殊情況下,如生產(chǎn)者掌握核心技術(shù),受害人無(wú)法通過(guò)其他途徑檢測(cè)產(chǎn)品缺陷,則可由法官裁量采用舉證責(zé)任倒置。弱人工智能的產(chǎn)品責(zé)任確定即屬于此種特殊情況,人工智能的復(fù)雜性與不透明性使消費(fèi)者難以查明事故原因并證明產(chǎn)品缺陷,為避免消費(fèi)者負(fù)擔(dān)過(guò)重的舉證責(zé)任,舉證責(zé)任倒置是更合理的選擇。此外,以不存在 “合理替代設(shè)計(jì)”作為證明標(biāo)準(zhǔn),避免訴訟泛濫[20]。
(2)培訓(xùn)與訓(xùn)練義務(wù)。弱人工智能的特殊性在于其不斷的自我學(xué)習(xí)與自我改進(jìn)能力,為確保制造商對(duì)其行為的 “合理預(yù)測(cè)”,在人工智能產(chǎn)品進(jìn)入市場(chǎng)前,必須保證具備足夠的 “前市場(chǎng)測(cè)試”使操作系統(tǒng)具有足夠的學(xué)習(xí)量[19]。以醫(yī)療機(jī)器人 “達(dá)芬奇”為例,其投入市場(chǎng)后已引發(fā)多起產(chǎn)品責(zé)任訴訟,法院普遍認(rèn)為制造商應(yīng)對(duì)消費(fèi)者進(jìn)行培訓(xùn)指導(dǎo),個(gè)別法院甚至認(rèn)為制造商還應(yīng)當(dāng)負(fù)有對(duì)機(jī)器人的 “訓(xùn)練義務(wù)”[9]。
(3)警示義務(wù)?,F(xiàn)階段弱人工智能尚離不開使用者監(jiān)督,但消費(fèi)者對(duì)人工智能的想象與信賴很容易產(chǎn)生對(duì)其安全性與便利性的 “合理期待”,導(dǎo)致對(duì)人工智能的過(guò)度依賴與注意力分散,因此,除事先對(duì)消費(fèi)者進(jìn)行培訓(xùn)外,制造商還應(yīng)承擔(dān)及時(shí)的風(fēng)險(xiǎn)警示義務(wù)[9]。案例二即人類駕駛員對(duì)有條件自動(dòng)駕駛模式產(chǎn)生過(guò)度依賴所導(dǎo)致的,事發(fā)時(shí)駕駛員正在觀看電影,人類駕駛員無(wú)視車輛發(fā)出的視覺(jué)警告及語(yǔ)音警告導(dǎo)致了事故發(fā)生。針對(duì)此種情況,除及時(shí)有效的警示外,制造商還應(yīng)采取容錯(cuò)設(shè)計(jì)以避免人類在與人工智能互動(dòng)過(guò)程中發(fā)生錯(cuò)誤。案例二事件發(fā)生后,特斯拉升級(jí)了Autopilot系統(tǒng),若司機(jī)對(duì)系統(tǒng)警告沒(méi)有反應(yīng),將暫時(shí)阻止車主使用該系統(tǒng)。通用汽車也計(jì)劃在半自動(dòng)駕駛汽車中安裝包含能夠探測(cè)出駕駛員是否困倦或未注意路況功能的軟件,并采用聲音和視覺(jué)方式引起駕駛員注意,若警告無(wú)效,制造商將通過(guò)車輛的對(duì)講系統(tǒng)與人類駕駛員對(duì)話溝通。如果人類駕駛員仍未有反應(yīng),車輛就會(huì)在路邊停靠,進(jìn)一步確保人工智能安全性[19]。
(4)維護(hù)義務(wù)。不同于普通產(chǎn)品制造商提供的售后服務(wù),弱人工智能產(chǎn)品投入市場(chǎng)后,不斷與人類互動(dòng)并自我學(xué)習(xí)成長(zhǎng),時(shí)刻面臨新情況、新問(wèn)題,弱人工智能產(chǎn)品制造商負(fù)有更重的跟蹤維護(hù)義務(wù),需要隨時(shí)注意更新程序、修補(bǔ)漏洞并防范黑客攻擊,必要的時(shí)候甚至需要主動(dòng)召回產(chǎn)品[9]。目前,一些制造商已經(jīng)在自動(dòng)駕駛汽車采用無(wú)線升級(jí)技術(shù)OTA (Over The Air),以確保對(duì)自動(dòng)駕駛汽車的維護(hù)與更新。
(5)披露義務(wù)。人工智能是當(dāng)前發(fā)展最前沿的技術(shù)之一,消費(fèi)者很難通過(guò)檢索代碼等方式發(fā)現(xiàn)程序、算法錯(cuò)誤等產(chǎn)品缺陷[21]。制造商出于商業(yè)秘密保護(hù)等目的可能不愿意透露產(chǎn)品信息,但舉證責(zé)任倒置的要求及合理替代標(biāo)準(zhǔn)的確立都迫使制造商負(fù)擔(dān)一定程度的信息披露義務(wù)[20]。此外,結(jié)合產(chǎn)品責(zé)任保險(xiǎn),制造商還可通過(guò)披露保費(fèi)的方式使消費(fèi)者了解人工智能產(chǎn)品的潛在風(fēng)險(xiǎn),從而做出正確的消費(fèi)決定[19]。
技術(shù)的發(fā)展對(duì)法律制度有著直接影響,甚至推動(dòng)全新法律制度的創(chuàng)造[22],反過(guò)來(lái),法律對(duì)科技發(fā)展的回應(yīng)方式又影響了技術(shù)革新的進(jìn)程。人工智能時(shí)代對(duì)法律帶來(lái)的挑戰(zhàn)遠(yuǎn)甚于以往任何時(shí)期的技術(shù)變革,在人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃的開局之年,我們必須思考:現(xiàn)有的法律體系應(yīng)以何種姿態(tài)應(yīng)對(duì)人工智能的飛速發(fā)展?如何在促進(jìn)技術(shù)革新與維護(hù)各方權(quán)益之間取得平衡?
人工智能的最大特點(diǎn)在于其自我學(xué)習(xí)、自我決定的能力,而現(xiàn)行法律則是建立在 “所有的決定都是由人類做出”這一假設(shè)的前提下,長(zhǎng)遠(yuǎn)來(lái)看,兩者必然產(chǎn)生沖突,在憲法、刑法、民法等各個(gè)領(lǐng)域引起重大變革。在當(dāng)前的弱人工智能時(shí)代,沖突尚未加劇,但摩擦早已顯現(xiàn),弱人工智能在合法地位、監(jiān)管手段、責(zé)任承擔(dān)等方面與目前法律體系不相適應(yīng),亟待法律及時(shí)做出調(diào)整與回應(yīng)。
(1)合法地位的挑戰(zhàn)。人工智能的進(jìn)步正在以無(wú)與倫比的勢(shì)頭挑戰(zhàn)現(xiàn)有法律體系,以自動(dòng)駕駛汽車為例,現(xiàn)有的法律制度、政策、保險(xiǎn)體系等,并不是為自動(dòng)駕駛時(shí)代的交通量身定制的,勢(shì)必面臨排斥反應(yīng)[23]。2017年7月,百度CEO李彥宏 “乘坐”無(wú)人駕駛汽車在北京五環(huán)上行駛的事件引發(fā)了對(duì)無(wú)人駕駛合法性的爭(zhēng)議,倒逼現(xiàn)行交通法律法規(guī)的破冰。12月,北京市交通委聯(lián)合北京市公安交管局、北京市經(jīng)濟(jì)信息委制定發(fā)布了 《北京市關(guān)于加快推進(jìn)自動(dòng)駕駛車輛道路測(cè)試有關(guān)工作的指導(dǎo)意見(jiàn) (試行)》和 《北京市自動(dòng)駕駛車輛道路測(cè)試管理實(shí)施細(xì)則 (試行)》,規(guī)范并推動(dòng)了自動(dòng)駕駛汽車的實(shí)際道路測(cè)試。自動(dòng)駕駛領(lǐng)域的合法性挑戰(zhàn)在國(guó)際上早已呈現(xiàn),2016年 《國(guó)際道路交通公約 (日內(nèi)瓦)》修正案承認(rèn)了符合條件的自動(dòng)駕駛合法身份,德國(guó)、西班牙、新加坡和美國(guó)部分州也肯定了自動(dòng)駕駛汽車的合法性,相反,印度則于2017年7月宣布禁止自動(dòng)駕駛汽車上路。
(2)監(jiān)管體系的挑戰(zhàn)。面對(duì)人工智能帶來(lái)的不確定性與潛在風(fēng)險(xiǎn),放任自流并非明智選擇,如何構(gòu)建適度有效的監(jiān)管體系,引導(dǎo)人工智能在正確的軌道上發(fā)展成為各國(guó)立法的重要課題。早在2016年,歐盟議會(huì)法律事務(wù)委員會(huì)發(fā)布 《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》 (Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)及 《歐盟機(jī)器人民事法律規(guī)則》 (European Civil Law Rules in Robotics),并于2017年通過(guò)一份決議 (Resolution),提出了具體的立法建議,加強(qiáng)對(duì)人工智能的監(jiān)管成為該項(xiàng)決議的重要內(nèi)容,具體包括設(shè)立專門機(jī)構(gòu)、確立倫理準(zhǔn)則、針對(duì)特定用途人工智能出臺(tái)特定規(guī)則等。目前,無(wú)人駕駛汽車及無(wú)人機(jī)領(lǐng)域的監(jiān)管盲區(qū)已經(jīng)呈現(xiàn)[24],在及時(shí)填補(bǔ)特定領(lǐng)域法律空白的同時(shí),學(xué)習(xí)歐盟確定針對(duì)人工智能確定整體監(jiān)管框架與倫理準(zhǔn)則成為當(dāng)務(wù)之急。
(3)責(zé)任體系的挑戰(zhàn)。隨著人工智能的廣泛運(yùn)用,越來(lái)越多人工智能侵害案件對(duì)現(xiàn)行責(zé)任體系提出挑戰(zhàn),強(qiáng)人工智能甚至能成為侵權(quán)責(zé)任、違約責(zé)任乃至刑事責(zé)任的主體。弱人工智能在逐漸脫離使用者監(jiān)督、控制的過(guò)程中,責(zé)任分配方式也從使用者過(guò)錯(cuò)侵權(quán)轉(zhuǎn)移至生產(chǎn)者的產(chǎn)品責(zé)任。而現(xiàn)階段弱人工智能仍需要人類操作與監(jiān)管,存在大量混合責(zé)任的情況,責(zé)任的確定與轉(zhuǎn)移難以 “一刀切”,目前各國(guó)立法對(duì)此的回應(yīng)較為保守,中美兩國(guó)則仍在現(xiàn)行法律體系內(nèi)確定自動(dòng)駕駛責(zé)任,人類駕駛員仍居于責(zé)任主體地位。德國(guó)2017年修訂的 《道路交通法》則更進(jìn)一步,試圖在制造商與駕駛員之間明確責(zé)任轉(zhuǎn)移的標(biāo)準(zhǔn),但此舉的合理性與可行性遭到質(zhì)疑。但長(zhǎng)遠(yuǎn)來(lái)看,面對(duì)弱人工智能的發(fā)展,對(duì)現(xiàn)行法律體系的變革與責(zé)任的重新分配勢(shì)在必行。
法律必須是穩(wěn)定的,但又不能一成不變[25]。人工智能的迅速發(fā)展將徹底改變?nèi)祟惿钌踔粮脑焓澜?,?duì)現(xiàn)行法律體系的挑戰(zhàn)也是前所未有。法律應(yīng)及時(shí)做出回應(yīng),在激進(jìn)與保守、穩(wěn)定性與適應(yīng)性之間尋求平衡點(diǎn):一方面,對(duì)人工智能合法地位采取寬容態(tài)度,以鼓勵(lì)技術(shù)發(fā)展;另一方面,確立科學(xué)合理的監(jiān)管框架和責(zé)任分配體系,以維護(hù)安全穩(wěn)定。此外,應(yīng)對(duì)技術(shù)革新,弱人工智能時(shí)代的法律體系更要處理好以下三方面關(guān)系:
(1)推動(dòng)創(chuàng)新與保障安全??萍嫉倪M(jìn)步從來(lái)是一把 “雙刃劍”,法律應(yīng)在技術(shù)進(jìn)步與安全穩(wěn)定之間起到平衡作用。人工智能引領(lǐng)人類通往未知世界,被稱為 “第四次工業(yè)革命”,在構(gòu)建人工智能法律體系與監(jiān)管手段時(shí),必須具備充分的前瞻性,既要防止刻板傳統(tǒng)的監(jiān)管阻礙創(chuàng)新,又要防止法律盲區(qū)引發(fā)系統(tǒng)性風(fēng)險(xiǎn)[9],應(yīng)致力于 “建立以安全為核心的法律價(jià)值目標(biāo)、以倫理為先導(dǎo)的社會(huì)規(guī)范調(diào)控體系和以技術(shù)、法律為主導(dǎo)的風(fēng)險(xiǎn)控制機(jī)制[26]。”
(2)信息披露與知識(shí)產(chǎn)權(quán)保護(hù)。在人工智能監(jiān)管框架內(nèi),從事故原因調(diào)查到產(chǎn)品標(biāo)準(zhǔn)確立,均離不開制造商對(duì)人工智能技術(shù)的合理披露,這與商業(yè)秘密的保護(hù)存在沖突。然而,人工智能自我學(xué)習(xí)能力的提高與發(fā)展將帶來(lái)制造商無(wú)法控制的風(fēng)險(xiǎn),適當(dāng)?shù)臋?quán)利讓渡不可或缺,對(duì)人工智能 “黑匣子”運(yùn)作過(guò)程的解讀與一定程度的信息披露是保障人工智能安全性的必經(jīng)之路。
(3)制造商責(zé)任與消費(fèi)者權(quán)益。特別是現(xiàn)階段,一方面,弱人工智能尚離不開使用者監(jiān)督,制造商采取種種手段將最終責(zé)任轉(zhuǎn)嫁到消費(fèi)者身上;另一方面,消費(fèi)者對(duì)人工智能的合理期待又無(wú)法避免其產(chǎn)生合理依賴,在允許自動(dòng)駕駛汽車的人類駕駛員手離方向盤、上網(wǎng)、瀏覽郵件的同時(shí),又要求其保持隨時(shí)掌握車輛控制權(quán)實(shí)屬?gòu)?qiáng)人所難。弱人工智能發(fā)展的最終方向是脫離使用者監(jiān)督,不斷增強(qiáng)自治性與獨(dú)立性,因而應(yīng)當(dāng)構(gòu)建以產(chǎn)品責(zé)任為核心的責(zé)任分配體系,強(qiáng)化制造商責(zé)任,并輔以保險(xiǎn)、基金、稅收等手段分散制造商風(fēng)險(xiǎn),從而平衡制造商與消費(fèi)者權(quán)益并推動(dòng)技術(shù)進(jìn)步。
人工智能的發(fā)展無(wú)論在倫理性層面還是制度性層面都引發(fā)了廣泛爭(zhēng)議,從長(zhǎng)遠(yuǎn)看,必然給人類社會(huì)帶來(lái)翻天覆地的變化,政治、經(jīng)濟(jì)、法律等各個(gè)領(lǐng)域都將發(fā)生深刻的變革;而從短期看,目前技術(shù)發(fā)展水平仍處于弱人工智能階段,我們既不必杞人憂天地對(duì)人工智能產(chǎn)生 “終結(jié)者”的恐慌,又不可故步自封無(wú)視技術(shù)的進(jìn)步,法律則應(yīng)順應(yīng)時(shí)代發(fā)展,在對(duì)人工智能合理定位后做出恰當(dāng)?shù)幕貞?yīng),為人工智能發(fā)展?fàn)I造良好環(huán)境。