馬中英
(山西省政法管理干部學(xué)院,山西 太原 030012)
近年來,人工智能得到了飛速發(fā)展,并為人類創(chuàng)造出可觀的經(jīng)濟(jì)效益和社會效益。人工智能似乎無所不能,它可以做大量人類不想做、不能做的工作,而且機(jī)器人的精準(zhǔn)度高,犯錯(cuò)誤的概率低,能夠持續(xù)不斷地工作,大大地提升了工作效率,節(jié)約了成本。但人工智能的發(fā)展也是一把雙刃劍,它在給人類帶來許多好處的同時(shí),也會帶來許多問題和風(fēng)險(xiǎn)。英國著名物理學(xué)家史蒂芬·霍金表示,人工智能的崛起可能是“我們文明史上最糟糕的事件”,除非人類社會能夠找到控制它發(fā)展的方法,否則后果不堪設(shè)想。確實(shí),人工智能的潛在風(fēng)險(xiǎn)正在形成。
創(chuàng)新工場董事長李開復(fù)在2016WISE大會上表示,未來十年,世界上50%的工作都會被人工智能所取代。準(zhǔn)確的數(shù)據(jù)可能無法預(yù)測,但人工智能必然會使很多職業(yè)消失,可能導(dǎo)致就業(yè)率下降失業(yè)率上升,給社會帶來新的不穩(wěn)定因素。
開發(fā)者可能存在種族偏見、性別歧視、特定疾病歧視,基于此而開發(fā)出來的人工智能就可能存在算法歧視,從而造成新的不平等。而且,由于人工智能導(dǎo)致的就業(yè)停滯和生產(chǎn)力提升,可能造成財(cái)富更加向少數(shù)人集中,從而引發(fā)新的資本不平等。
對于人工智能產(chǎn)生的損害,如何承擔(dān)分配責(zé)任還遠(yuǎn)未達(dá)成共識,開發(fā)者、生產(chǎn)者是否應(yīng)當(dāng)承擔(dān)瑕疵擔(dān)保責(zé)任,能否確立人工智能的法律人格地位還不得而知。當(dāng)開發(fā)者、生產(chǎn)者由于破產(chǎn)等因素?zé)o法擔(dān)責(zé)時(shí),受損者可能無法得到賠償。
2017年3月15日,備受世界矚目的人機(jī)大戰(zhàn),最終以人類失敗告終。這場比賽,激起了各種“機(jī)器超越人類,科幻小說將成真”的討論,這讓大家意識到,人工智能給人類帶來了危機(jī),人類將來會不會被機(jī)器人所代替,成為機(jī)器人的奴隸?
開發(fā)者與使用者可能基于不正當(dāng)目的開發(fā)使用人工智能,從而可能給人類帶來毀滅性災(zāi)難,例如一些極端恐怖組織可能濫開發(fā)、濫利用人工智能。而且,人工智能已經(jīng)具有了深度學(xué)習(xí)能力,會不斷演化進(jìn)步?;艚鹁嬲f:“由于受到緩慢的生物演化的限制,人類不能與人工智能競爭,最終將會被代替?!?/p>
“智能時(shí)代,未來已來”。人們在為人工智能的強(qiáng)大能力感到驚嘆的同時(shí),也激發(fā)了對人工智能安全問題的普遍憂慮,人工智能是否成為人類“最后的發(fā)明”,我們應(yīng)該如何看待人工智能的潛在風(fēng)險(xiǎn),值得深入思考與積極應(yīng)對。
人工智能的飛速發(fā)展,對傳統(tǒng)法律帶來了前所未有的巨大挑戰(zhàn)。目前最突出也是最緊迫的主要有兩個(gè)方面:
人工智能技術(shù)發(fā)展的基本面向,是對人機(jī)關(guān)系的改變。智能機(jī)器人的大規(guī)模應(yīng)用,一方面推動了社會生產(chǎn)力的發(fā)展,大大提高了生產(chǎn)效率;另一方面也帶來了社會結(jié)構(gòu)的變化,使得人與機(jī)器人的關(guān)系成為社會生活的重要方面。以保護(hù)勞動者利益為宗旨的《勞動法》,面臨著前所未有的兩個(gè)難題:一是傳統(tǒng)《勞動法》的調(diào)整功能消減。據(jù)牛津大學(xué)的調(diào)研報(bào)告顯示,未來將有1000萬非技術(shù)工種被機(jī)器人取代,其中包括文秘、工人、中介、司機(jī)等一大批崗位。報(bào)告還特別指出,目前軟件工程師的工作將會被智能機(jī)器人所代替,即創(chuàng)造者被其創(chuàng)造的技術(shù)產(chǎn)品所代替。這些都會對現(xiàn)有勞動者的權(quán)利帶來沖擊,大批勞動者離開傳統(tǒng)崗位,其權(quán)益救濟(jì)更多是尋求社會保障,那么《勞動法》是否面臨消亡的命運(yùn)?二是未來《勞動法》將面臨新的調(diào)整對象。機(jī)器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對機(jī)器人權(quán)利保護(hù)或者禁止對機(jī)器人濫用,在當(dāng)下尚是一個(gè)社會倫理問題,而在未來就成為勞動立法問題。
人工智能在交通領(lǐng)域的重要應(yīng)用是網(wǎng)聯(lián)自動駕駛。智能駕駛通過導(dǎo)航系統(tǒng)、傳感器系統(tǒng)、智能感知算法、車輛控制系統(tǒng)等智能技術(shù),實(shí)現(xiàn)了“人工智能+無人駕駛”,顛覆了以往的人車關(guān)系、車車關(guān)系。無人駕駛汽車可能帶來的法律問題主要有:一是法律規(guī)制對象的轉(zhuǎn)變。無人駕駛意味著交通領(lǐng)域的準(zhǔn)入資格,不再是駕駛?cè)说鸟{駛技術(shù),而是無人駕駛汽車的智能化水平。換言之,隨著無人駕駛中駕駛?cè)烁拍畹南?法律規(guī)制的對象不再是車輛的駕駛?cè)藛T,而將是智能駕駛系統(tǒng)的開發(fā)者、制造者。二是法律責(zé)任體系的重構(gòu)。以過錯(cuò)責(zé)任為基礎(chǔ)而建立的“風(fēng)險(xiǎn)分配”責(zé)任體系,在未來的交通法規(guī)中將不復(fù)存在。對于道路交通事故的認(rèn)定,其歸責(zé)事由只有結(jié)果的“對與錯(cuò)”,而無主觀上的“故意”或“過失”。三是交通監(jiān)管重心的變化。以交通安全為目標(biāo),以往交通管理部門監(jiān)管的重點(diǎn)是汽車裝置的安全性能和駕駛?cè)税踩{駛技能,而在智能駕駛中,避險(xiǎn)保障和精確駕駛的軟硬件體系,是道路交通檢測、準(zhǔn)入的重點(diǎn)。
法律制度總是滯后的,但關(guān)于法律問題思考應(yīng)該是前瞻的。面向智能革命時(shí)代,我們應(yīng)在認(rèn)識和分析現(xiàn)行法律困境的基礎(chǔ)上,探索與科學(xué)文明相伴而生的制度文明,創(chuàng)制出有利于人工智能健康、有序發(fā)展的社會規(guī)范體系。
人是人工智能的總開關(guān),所以規(guī)制人工智能首先需要規(guī)制人的智能,需要對人工智能的開發(fā)者進(jìn)行規(guī)制。開發(fā)者在設(shè)計(jì)人工智能時(shí),應(yīng)當(dāng)以人為本,以有利于社會福利最大化而非利潤最大化為理念,遵守基本的社會倫理道德,消除各種歧視觀念,遵守平等原則。禁止基于不正當(dāng)目的開發(fā)人工智能。開發(fā)者應(yīng)當(dāng)審慎設(shè)計(jì)相關(guān)代碼程序,如果某項(xiàng)人工智能所促進(jìn)的社會公共利益,與其所造成的損害明顯不成比例,違反比例原則,或者可能失控,就應(yīng)當(dāng)及時(shí)放棄。
銷售者應(yīng)當(dāng)建立并執(zhí)行人工智能產(chǎn)品進(jìn)貨檢查驗(yàn)收制度,驗(yàn)明人工智能產(chǎn)品合格證明和其他標(biāo)志,禁止銷售不合格的人工智能產(chǎn)品。使用者應(yīng)當(dāng)合理利用人工智能,不得損害國家、社會及他人合法權(quán)益,法律應(yīng)當(dāng)合理設(shè)定相應(yīng)的使用條件與標(biāo)準(zhǔn)。
如果開發(fā)者在設(shè)計(jì)時(shí)存在故意或重大過失,導(dǎo)致?lián)p害發(fā)生,則應(yīng)由開發(fā)者承擔(dān)責(zé)任。如果由于開發(fā)者當(dāng)時(shí)的認(rèn)知局限,沒有預(yù)見到未來發(fā)生的狀況,導(dǎo)致?lián)p害發(fā)生,開發(fā)者也應(yīng)當(dāng)承擔(dān)責(zé)任,即瑕疵擔(dān)保責(zé)任,因?yàn)殚_發(fā)者有所獲益,就應(yīng)當(dāng)承擔(dān)相應(yīng)的風(fēng)險(xiǎn),而且如此更能促使開發(fā)者審慎地設(shè)計(jì)相應(yīng)的代碼程序。在索賠方式上,使用者、受害者可以直接找開發(fā)者索賠,也可以找銷售者索賠。如果銷售者與使用者存在過錯(cuò),則應(yīng)承擔(dān)相應(yīng)的責(zé)任。此外,應(yīng)當(dāng)逐步建立完善的人工智能產(chǎn)品保險(xiǎn)制度。
科技需要在法律的軌道上發(fā)展,技術(shù)中立并不表明技術(shù)可以脫離法治。盡管存在隱憂,但只要法律規(guī)制適當(dāng),具有諸多優(yōu)勢的人工智能必定會給人類社會帶來無窮大的正能量。因此,應(yīng)當(dāng)對人工智能進(jìn)行適度有效的規(guī)制,及時(shí)制定相關(guān)法律制度。國務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中提出:“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。在規(guī)制人工智能時(shí),政府應(yīng)當(dāng)處理好科技創(chuàng)新與法律規(guī)制的關(guān)系,按照“鼓勵(lì)創(chuàng)新、包容審慎”的原則,確立事前備案、事后懲處的機(jī)制,使法律既能保障公民權(quán)利,又能促進(jìn)科技創(chuàng)新。
面向未來時(shí)代的制度構(gòu)成,應(yīng)以人工智能的技術(shù)發(fā)展與規(guī)制為主題,形成包含法律規(guī)則、政策規(guī)定和倫理規(guī)范的社會治理體系。
安全是人工智能時(shí)代的核心價(jià)值。安全價(jià)值是對整個(gè)社會秩序穩(wěn)定的維護(hù)。對此,法哲學(xué)家雷加森斯·西克斯言道:“如果法律秩序不代表一種安全的秩序,那么就不是一種法律”。安全價(jià)值是許多法律部門共同追求的目標(biāo),且通過不同的制度或調(diào)整方法來實(shí)現(xiàn)。例如《刑法》通過刑事責(zé)任方式來實(shí)現(xiàn)社會秩序安全,《民法》通過侵權(quán)法來保護(hù)交易安全和財(cái)產(chǎn)秩序。人工智能作為未來時(shí)代技術(shù)尚在深入發(fā)展之中,但在當(dāng)下已引發(fā)人們對其安全問題的普遍擔(dān)憂。關(guān)于風(fēng)險(xiǎn)規(guī)制的安全規(guī)范,包括人工智能產(chǎn)品的倫理規(guī)范、人工智能技術(shù)的應(yīng)用規(guī)范、人工智能安全的監(jiān)測規(guī)范等,都是相關(guān)法律制度設(shè)計(jì)和安排需要考量的問題。
人工智能時(shí)代的文明,需要相應(yīng)的行為規(guī)范作為社會關(guān)系的調(diào)整器。對于人工智能社會關(guān)系的調(diào)整,倫理規(guī)范具有一種先導(dǎo)性的作用,及時(shí)制定《機(jī)器人倫理章程》,以此作為人工智能研發(fā)、應(yīng)用的道德基礎(chǔ)。這是因?yàn)榉梢?guī)范基于現(xiàn)實(shí)生活而生成,且立法過程繁瑣,因而總是處于滯后境地。而倫理規(guī)范可以先行和預(yù)設(shè),對已變化或可能變化的社會關(guān)系作出反映。倫理規(guī)范的調(diào)整功能非常獨(dú)到且為重要,例如:對智能機(jī)器人預(yù)設(shè)道德準(zhǔn)則,為人工智能產(chǎn)品本身進(jìn)行倫理指引;規(guī)定人工智能技術(shù)研發(fā)及應(yīng)用的道德標(biāo)準(zhǔn),對科研人員進(jìn)行倫理約束。上述倫理規(guī)范,可為后續(xù)法治建設(shè)提供重要法源,即在一定時(shí)候,倫理規(guī)范亦可轉(zhuǎn)化為法律規(guī)范,實(shí)現(xiàn)道德的法律化。
法律控制是風(fēng)險(xiǎn)治理機(jī)制的重要手段。適時(shí)進(jìn)行機(jī)器人專門立法,以此作為人工智能法律的基本規(guī)范。立法者必須重視控制風(fēng)險(xiǎn)功能的法治化,例如《專利法》具有激勵(lì)科技創(chuàng)新的制度功能,其授權(quán)客體的擴(kuò)充及其權(quán)益保護(hù),即是激勵(lì)人工智能發(fā)展機(jī)制的法律表現(xiàn)。與此同時(shí),《專利法》也要注重權(quán)利客體的排除領(lǐng)域、禁止權(quán)利濫用、限制權(quán)利行使等制度規(guī)則的適用,從而排除人工智能的潛在危害。此外,還應(yīng)輔之于相關(guān)科技法律法規(guī),對人工智能的研發(fā)使用和傳播,建立限制機(jī)制、禁止機(jī)制以及懲戒機(jī)制。
中國正在走向人工智能時(shí)代。世界新一輪科學(xué)革命、產(chǎn)業(yè)變革與我國轉(zhuǎn)變經(jīng)濟(jì)發(fā)展方式形成歷史性交匯。對人工智能的發(fā)展和規(guī)制進(jìn)行制度安排,是時(shí)代新潮流,也是國際大趨勢,更是本土創(chuàng)新發(fā)展的內(nèi)在要求。我們有理由相信,科學(xué)技術(shù)的智慧之光與法律制度的理性之光,將在人工智能時(shí)代交相輝映。