徐玖玖
摘 要:人工智能是模擬、延伸和拓展人類(lèi)智能的新興技術(shù),其道德性的實(shí)現(xiàn)尤為重要。人工智能的道德失范既是一種客觀(guān)的現(xiàn)象描述,也是一種主觀(guān)的價(jià)值判斷,既有積極效應(yīng),也有消極效應(yīng)。從全球人工智能道德性實(shí)現(xiàn)的實(shí)然應(yīng)對(duì)來(lái)看,人工智能道德準(zhǔn)則的探索呈現(xiàn)出技術(shù)主義、降維虛化、內(nèi)核分歧的特點(diǎn),并不能為道德性的實(shí)現(xiàn)提供可行方案。這一困境的根本原因在于人工智能技術(shù)性與道德性之間的沖突難以調(diào)和,而以“技術(shù)—法治—人文”為范式進(jìn)路,探索技術(shù)性與道德性的激勵(lì)相容之道,是這一問(wèn)題的關(guān)鍵所在。對(duì)此,引入原則導(dǎo)向治理理論,可以在人工智能道德性實(shí)現(xiàn)的理想狀態(tài)與現(xiàn)實(shí)規(guī)范之間創(chuàng)造出包容審慎的制度空間,構(gòu)建由核心原則框架與工具選擇共同組成的人工智能原則導(dǎo)向治理體系,實(shí)現(xiàn)人工智能道德性在道德價(jià)值、技術(shù)要求和法律語(yǔ)言之間的“轉(zhuǎn)錄”。
關(guān)鍵詞:人工智能;道德性;技術(shù)性;原則導(dǎo)向治理;法治;激勵(lì)相容
中圖分類(lèi)號(hào):DF523文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1001-2397.2021.03.02 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
“人工智能時(shí)代”①來(lái)臨,信息技術(shù)正在與社會(huì)經(jīng)濟(jì)生活深度融合,人機(jī)交互不斷加深,人工智能不但成為日常生活的構(gòu)成要素,而且逐漸向聲譽(yù)、信用等具有人格屬性的私領(lǐng)域滲透。②在這場(chǎng)“第四次工業(yè)革命”③中,人工智能作為引領(lǐng)未來(lái)的戰(zhàn)略性技術(shù),對(duì)于提升國(guó)家競(jìng)爭(zhēng)力、維護(hù)國(guó)家安全、提高人民生活水平都具有重要的意義。習(xí)近平總書(shū)記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量,加快發(fā)展新一代人工智能是事關(guān)我國(guó)能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問(wèn)題”,“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問(wèn)題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。”新華社:加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ) 推動(dòng)我國(guó)新一代人工智能健康發(fā)展,載《人民日?qǐng)?bào)》2018年11月1日,第1版。相較于一般的技術(shù)創(chuàng)新,人工智能的特殊性是其旨在模擬、延伸和拓展人類(lèi)智能,對(duì)于人類(lèi)社會(huì)的發(fā)展具有更深層次的影響。然而,人工智能的發(fā)展也對(duì)既有的社會(huì)結(jié)構(gòu)及其規(guī)范體系產(chǎn)生沖擊,出現(xiàn)了一系列偏離傳統(tǒng)價(jià)值觀(guān)念的失范現(xiàn)象。例如,人工智能技術(shù)的應(yīng)用對(duì)社會(huì)、文化和政治環(huán)境帶來(lái)的系統(tǒng)性影響Kate Crawford,Ryan Calo,There is a Blind Spot in AI Research,538 Nature 311-313(2016).;人工智能設(shè)備的行為可能會(huì)超出所設(shè)定的原則,從事不道德行為Amitai Etzioni,Oren Etzioni,AI Assisted Ethics,18 Ethics Inf.Technol.149-156(2016).;人工智能技術(shù)可能因訓(xùn)練數(shù)據(jù)的偏差Michael Veale,Reuben Binns,F(xiàn)airer machine learning in the real world: Mitigating discrimination without collecting sensitive data,4 Big Data & Society 1-17(2017).導(dǎo)致更加不公平的決策歧視;等等。因此,如何實(shí)現(xiàn)人工智能的道德性,紓緩技術(shù)與道德之間的沖突,是始終縈繞在人工智能發(fā)展之上的“達(dá)摩克利斯之劍”。人工智能道德失范的“基因”是否會(huì)成為技術(shù)創(chuàng)新的阻礙因素?怎樣的治理范式才能解除人們對(duì)于技術(shù)的擔(dān)憂(yōu)?如何實(shí)現(xiàn)科技的可持續(xù)發(fā)展?對(duì)于這些問(wèn)題的回答,都將決定人工智能的未來(lái)之路。
一、人工智能道德失范的判定與討論
(一)人工智能道德失范的客觀(guān)存在:技術(shù)失序與規(guī)范失效
“道德失范”(disordered moral)通常屬于倫理學(xué)的范疇,是指由于社會(huì)生活中道德價(jià)值及其規(guī)范要求的缺失或失效,導(dǎo)致社會(huì)行為和社會(huì)生活出現(xiàn)混亂。高兆明:《簡(jiǎn)論“道德失范”范疇》,載《道德與文明》1999年第6期,第8-10頁(yè)。從這一意義上而言,人工智能的道德失范是一種狀態(tài),即社會(huì)既有的價(jià)值觀(guān)念被技術(shù)所打破或否定,包括法律在內(nèi)的各類(lèi)社會(huì)規(guī)范喪失約束能力,而新的、有效的規(guī)范尚未建立或達(dá)成共識(shí),由此所呈現(xiàn)出的失序現(xiàn)象。因此,人工智能道德失范的判定包括兩個(gè)因素:一是存在失序現(xiàn)象,二是缺乏有效規(guī)范。
第一,人工智能技術(shù)存在失序現(xiàn)象。對(duì)于技術(shù)失序的擔(dān)憂(yōu)廣泛見(jiàn)于各國(guó)或國(guó)際組織關(guān)于人工智能相關(guān)的政策文件之中。例如,2020年2月歐盟委員會(huì)發(fā)布的《人工智能白皮書(shū):通往卓越和信任的歐洲之路》(White Paper on Artificial Intelligence-A European Approach to Excellence and Trust)將人工智能可能帶來(lái)的危害描述為,生命健康和財(cái)產(chǎn)安全等物理傷害、隱私和尊嚴(yán)等非物理傷害;2019年4月澳大利亞工業(yè)創(chuàng)新和科技部發(fā)布的《人工智能:澳大利亞的倫理框架》(Artificial Intelligence: Australias Ethics Framework)提出,算法可能有損公平、透明、基本權(quán)利保護(hù)等法益Dawson,D.et al.,Artificial Intelligence: Australias Ethics Framework,Data61 CSIRO,Australia,40-41(2019).,甚至瓦解作為法治根基的正當(dāng)程序原則。Danielle Keats Citron,Technological Due Process,85 Washington University Law Review 1249(2007).而從實(shí)踐來(lái)看,由人工智能技術(shù)所引發(fā)的訴訟案件已然出現(xiàn),算法失能和技術(shù)風(fēng)險(xiǎn)帶來(lái)的道德失范成為裁判的焦點(diǎn)。例如,在2019年Lynch v.State該案中,被告人威利·林奇(Willie Lynch)被訴八年監(jiān)禁,證據(jù)是一張從傾斜角度拍攝的較為模糊的犯罪嫌疑人照片。由于無(wú)人能夠辨認(rèn)該名黑人男子,警方通過(guò)面部識(shí)別算法“人臉?lè)治霰容^測(cè)試系統(tǒng)”進(jìn)行識(shí)別,并在匹配結(jié)果中選定被告人。詳見(jiàn)Lynch v. State,No.SC2019-0298 (Fla.Sup.Ct.2019)。一案中,警方運(yùn)用“人臉?lè)治霰容^測(cè)試系統(tǒng)”(FACES)辨認(rèn)犯罪嫌疑人,F(xiàn)ACES通過(guò)處理和分析被匹配圖像,將其與數(shù)據(jù)庫(kù)中圖像進(jìn)行比對(duì),并將識(shí)別出的圖像根據(jù)匹配度的高低進(jìn)行排序。法庭認(rèn)為FACES所應(yīng)用的算法并非完全中立、可靠、準(zhǔn)確的描述,法庭所援引的研究報(bào)告甚至指出,相比白人、老人和男人,面部識(shí)別算法更容易誤認(rèn)黑人、年輕人和婦女。
第二,人工智能技術(shù)缺乏有效的治理范式。在應(yīng)對(duì)人工智能技術(shù)失序的過(guò)程中,無(wú)論是傳統(tǒng)的人文主義進(jìn)路,還是新興的技術(shù)主義進(jìn)路,都面臨著一定程度的困境。一方面,傳統(tǒng)的人文主義范式被打破。人文主義視角以人類(lèi)權(quán)利為邏輯起點(diǎn),以人類(lèi)的尊嚴(yán)和福祉為導(dǎo)向,要求技術(shù)表現(xiàn)出一定的人文關(guān)懷和人文精神。然而,道德具有抽象性和非單一性,以法律的可規(guī)制性為標(biāo)準(zhǔn),可以發(fā)現(xiàn)道德的法律支持包含兩個(gè)層次:一是基礎(chǔ)的層次,基本的道德義務(wù)在長(zhǎng)期的社會(huì)發(fā)展中演化為普遍共識(shí),并通過(guò)法律形式得以固化和執(zhí)行;二是超越的層次,即更高階的“善”,受制于不同國(guó)家和地區(qū)文化傳統(tǒng)、法治水平、民眾選擇等因素的影響。唐凱麟、曹剛:《論道德的法律支持及其限度》,載《哲學(xué)研究》2000年第4期,第67頁(yè)?;A(chǔ)層次的道德雖然更易獲得法律的支持,但不同法制體系對(duì)于道德的解讀和實(shí)踐亦有差異;而超越層次的道德存在多元性,法律無(wú)法對(duì)此課以過(guò)于嚴(yán)格的規(guī)范要求。
另一方面,新興的技術(shù)主義范式亦有局限。技術(shù)主義視角是從技術(shù)出發(fā),將道德問(wèn)題還原為技術(shù)問(wèn)題,認(rèn)為技術(shù)的設(shè)計(jì)與開(kāi)發(fā)應(yīng)當(dāng)承載道德價(jià)值,并有利于實(shí)現(xiàn)人類(lèi)的目標(biāo)。人們對(duì)運(yùn)用人工智能模仿人類(lèi)理性活動(dòng)抱有極高的期待,新近技術(shù)已經(jīng)從簡(jiǎn)單的形式推理向不精準(zhǔn)推理和非單調(diào)推理發(fā)展,人工智能打破了人類(lèi)與理性之間的親歷關(guān)系,被視為技術(shù)可以依靠自身解決道德問(wèn)題的重要標(biāo)志。簡(jiǎn)單的計(jì)算主義和技術(shù)主義思潮將“技術(shù)主義”作為歸正道德失范的“萬(wàn)能解”,認(rèn)為技術(shù)風(fēng)險(xiǎn)源于科學(xué)也應(yīng)求解于科學(xué),通過(guò)技術(shù)方案或者技術(shù)專(zhuān)家實(shí)現(xiàn)“技術(shù)治理”。然而,在客觀(guān)方面,人類(lèi)的理性活動(dòng)不可能完全通過(guò)機(jī)械的數(shù)據(jù)呈現(xiàn)為一種“規(guī)范的作業(yè)”;在主觀(guān)方面,技術(shù)產(chǎn)業(yè)化使科學(xué)界在事實(shí)上無(wú)法完全擺脫資本的俘獲。鄭戈:《如何為人工智能立法》,載《檢察風(fēng)云》2018年第7期,第16-17頁(yè)。技術(shù)專(zhuān)家作為理性經(jīng)濟(jì)人存在的逐利性,并不會(huì)因其受制于職業(yè)道德的約束就自發(fā)地趨向完全理性。根據(jù)馬克思主義哲學(xué)辯證唯物主義,主客觀(guān)相統(tǒng)一是正確認(rèn)識(shí)事物的一項(xiàng)基本原則。技術(shù)作為一種客觀(guān)事物需要與人的作用相結(jié)合,本身無(wú)法脫離人而單獨(dú)存在。技術(shù)主義無(wú)法為人工智能的道德性提供自洽的范式,人工智能仍要接受法律的規(guī)訓(xùn)和道德的指引,承載起良好的價(jià)值理念。
(二)人工智能道德失范的辯證認(rèn)知:消極效應(yīng)與積極效應(yīng)
技術(shù)的發(fā)展催生了關(guān)于人工智能道德問(wèn)題的廣泛討論。從國(guó)外研究來(lái)看,Edmond Awad等從233個(gè)國(guó)家和地區(qū)數(shù)百萬(wàn)人次超過(guò)4000萬(wàn)條的決策中發(fā)現(xiàn),自動(dòng)駕駛汽車(chē)的決策遵循人類(lèi)的道德偏好,并受到人類(lèi)文化差異的影響。Edmond Awad,et al.,The Moral Machine Experiment,563 Nature 59-64(2018).Anna Jobin等發(fā)現(xiàn),全球范圍內(nèi)人工智能的道德準(zhǔn)則在透明、公平正義、無(wú)害、責(zé)任和隱私五個(gè)方面出現(xiàn)融合,但具體實(shí)踐和概念內(nèi)涵仍有較大分歧。Anna Jobin,Marcello Ienca,Effy Vayena,The Global Landscape of AI Ethics Guidelines,9 Nature machine intelligence 389-399(2019).Brent Mittelstadt認(rèn)為,相較于醫(yī)學(xué)倫理原則,人工智能倫理原則在概念化和體系化的表述中,缺乏共同目標(biāo)和信任關(guān)系、專(zhuān)業(yè)的歷史和規(guī)則體系、將原則轉(zhuǎn)化為實(shí)踐的可行性方法、健全的法律和問(wèn)責(zé)機(jī)制等要素。Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 501-507(2019).國(guó)內(nèi)關(guān)于人工智能道德性實(shí)現(xiàn)的研究亦是碩果稇載:例如,王東浩認(rèn)為應(yīng)當(dāng)培育智能體的自主決策能力和道德控制力王東浩:《人工智能體引發(fā)的道德沖突和困境初探》,載《倫理學(xué)研究》2014年第2期,第68-73頁(yè)。;李倫認(rèn)為人工智能需要一顆“良芯”,“行有德之事,做有德之機(jī)器”李倫主編:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018年版。;孫那提出應(yīng)在立法、司法裁判和法律效果評(píng)價(jià)等環(huán)節(jié)嵌入道德的考量因素孫那:《人工智能的法律倫理建構(gòu)》,載《江西社會(huì)科學(xué)》2019年第2期,第15-23頁(yè)。;楊慶峰認(rèn)為應(yīng)當(dāng)通過(guò)透明性和關(guān)聯(lián)性構(gòu)建人工智能倫理原則。楊慶峰:《從人工智能難題反思AI倫理原則》,載《哲學(xué)分析》2020年第2期,第137-150頁(yè)??梢园l(fā)現(xiàn),現(xiàn)有研究主要集中于倫理學(xué)、哲學(xué)、信息科學(xué)等學(xué)科范疇,雖有交叉學(xué)科的廣度,但整體呈現(xiàn)為較為零散和碎片化的學(xué)術(shù)場(chǎng)域樣態(tài)。而法學(xué)領(lǐng)域尚未形成專(zhuān)門(mén)針對(duì)人工智能道德性實(shí)現(xiàn)的規(guī)范分析,亦未尋找到技術(shù)主義、人文主義等不同范式相互融合的可行路徑。
人們對(duì)人工智能從擁抱之姿向?qū)徤髦畱B(tài)轉(zhuǎn)變,關(guān)注焦點(diǎn)從靜態(tài)的技術(shù)本身向動(dòng)態(tài)的技術(shù)應(yīng)用轉(zhuǎn)向,希望人工智能的自主決策能夠與人類(lèi)的道德觀(guān)念相一致。Rossi,How do You Teach a Machine to be Moral?,The Washington Post,November 5 (2015),https://www.washingtonpost.com/news/in-theory/wp/2015/11/05/how-do-you-teach-a-machine-to-be-moral/.然而,目前人工智能產(chǎn)業(yè)缺乏共同的價(jià)值標(biāo)準(zhǔn),從業(yè)者缺乏識(shí)別和應(yīng)對(duì)道德問(wèn)題的敏感認(rèn)知和專(zhuān)業(yè)能力,導(dǎo)致技術(shù)出現(xiàn)失控或脫離規(guī)范的約束。在這種道德失范的未來(lái)圖景中,人工智能與人類(lèi)的發(fā)展、幸福和自我實(shí)現(xiàn)并不趨同。而對(duì)于這一話(huà)題的探討需要回歸到最基礎(chǔ)的問(wèn)題,即如何認(rèn)識(shí)人工智能的道德失范,并在辯證唯物論基本規(guī)律的框架中展開(kāi)討論。人工智能道德失范的判定隱含著一個(gè)大前提,即某種特定的道德標(biāo)準(zhǔn)先于技術(shù)而存在。高兆明:《簡(jiǎn)論道德失范的范疇》,載《道德與文明》,1999年第4期,第9頁(yè)。因此,在人工智能的道德性如何實(shí)現(xiàn)、實(shí)現(xiàn)的必要性、實(shí)現(xiàn)的限度等具體問(wèn)題上,就必須考量既有道德價(jià)值是否正當(dāng)、合理和必要。從這一角度而言,人工智能的道德失范是客觀(guān)現(xiàn)象與主觀(guān)判斷的統(tǒng)一。一方面,人工智能的道德失范具有客觀(guān)性和必然性。隨著信息技術(shù)的創(chuàng)新和發(fā)展,社會(huì)規(guī)范體系無(wú)法滿(mǎn)足技術(shù)演變所產(chǎn)生的制度需求,人工智能的道德失范是復(fù)雜社會(huì)技術(shù)系統(tǒng)中必然存在的客觀(guān)現(xiàn)象。另一方面,人工智能的道德失范具有主觀(guān)性和變化性。事實(shí)上,應(yīng)對(duì)人工智能的社會(huì)規(guī)范并非固定不變,本身亦處于不斷否定之否定的過(guò)程狀態(tài),并在矛盾與沖突中改變、適應(yīng)和提升。由此,人工智能的道德失范是伴隨技術(shù)發(fā)展的一種正常的社會(huì)現(xiàn)象,其既有矛盾沖突的消極效應(yīng),也存在創(chuàng)新更替的積極效應(yīng):對(duì)于前者而言,人工智能道德失范是技術(shù)處于一種風(fēng)險(xiǎn)失序和規(guī)范失效的過(guò)程狀態(tài);對(duì)于后者而言,人工智能道德失范也代表著規(guī)范轉(zhuǎn)向和價(jià)值重塑的過(guò)渡階段。因此,人工智能道德性的實(shí)現(xiàn)既需要激勵(lì)其積極的一面,又需要審慎其消極的一面,在法治的框架中實(shí)現(xiàn)積極效應(yīng)與消極效應(yīng)的博弈均衡。
二、人工智能道德性的實(shí)然應(yīng)對(duì)與應(yīng)然需求
(一)實(shí)然應(yīng)對(duì):人工智能道德性實(shí)現(xiàn)的全球探索
從全球范圍來(lái)看,人工智能的道德性難題并非中國(guó)所特有,而是各國(guó)人工智能法律治理的共同話(huà)題。通過(guò)檢索和梳理可以發(fā)現(xiàn),自2016年1月1日至2020年6月30日,以公共部門(mén)為發(fā)布主體,針對(duì)人工智能道德性進(jìn)行專(zhuān)門(mén)規(guī)定的政策文件有13件(表1)。檢索方式:以“道德”(ethic/moral)、“人工智能“(AI)、“政策”(policy)、“準(zhǔn)則”(guidelines)作為關(guān)鍵詞,通過(guò)Google進(jìn)行搜索和人工篩選。檢索時(shí)間:2020年6月30日。需要說(shuō)明的是,本文在整理中也重點(diǎn)參考了Jobin、Ienca和Vayena《人工智能道德準(zhǔn)則的全球圖景》(The Global Landscape of AI Ethics Guidelines)一文的相關(guān)數(shù)據(jù)和文獻(xiàn)目錄??紤]到檢索的局限性和篩選的主觀(guān)性,本文的樣本必然存在著一定的偏差,但是根據(jù)大數(shù)法則,這種偏差不會(huì)對(duì)分析的客觀(guān)性和準(zhǔn)確性產(chǎn)生實(shí)質(zhì)影響。整體而言,自2017年開(kāi)始,各國(guó)公共部門(mén)就高度關(guān)注人工智能的道德問(wèn)題,對(duì)于人工智能道德準(zhǔn)則的期待多集中于公平公正、責(zé)任安全、透明可信、隱私保護(hù)、以人為本、效益等方面(圖1)。人工智能道德性實(shí)現(xiàn)的全球探索整體呈現(xiàn)出技術(shù)主義、降維虛化、內(nèi)核分歧的特點(diǎn)。第一,在范式選擇上,帶有濃厚的技術(shù)主義色彩,通過(guò)將道德問(wèn)題還原為技術(shù)問(wèn)題,要求人工智能技術(shù)在開(kāi)發(fā)、應(yīng)用和創(chuàng)新中承擔(dān)起捍衛(wèi)道德倫理的責(zé)任。第二,在文本表述上,主要由宣示性或倡導(dǎo)性條款組成,在規(guī)則向?qū)嵺`的轉(zhuǎn)化過(guò)程中出現(xiàn)了降維虛化。各國(guó)人工智能道德性的實(shí)現(xiàn)方案多停留于更高階的“原則”層面,既沒(méi)有與現(xiàn)行規(guī)范進(jìn)行接軌和協(xié)調(diào)Thilo Hagendorf,The Ethics of AI Ethics: An Evaluation of Guidelines,30 Minds and Machines 99-120(2020).,也無(wú)法為在道德價(jià)值、技術(shù)要求和法律語(yǔ)言之間形成科學(xué)、合理、規(guī)范的“轉(zhuǎn)錄”提供規(guī)范性的工具選擇,最終“始于原則”而“終于原則”。第三,在具體內(nèi)核上,人工智能的道德準(zhǔn)則雖然出現(xiàn)趨同,但在重要概念、基本框架、實(shí)現(xiàn)方式等方面尚未形成共識(shí)。
由此觀(guān)之,目前全球人工智能道德準(zhǔn)則的實(shí)踐探索并不能為道德性的實(shí)現(xiàn)提供可行方案。人工智能道德性實(shí)現(xiàn)的困境源于技術(shù)性與道德性之間的沖突難以調(diào)和,無(wú)法達(dá)致技術(shù)與道德的均衡支點(diǎn)。人工智能的道德失范源于其原生性的技術(shù)基因。技術(shù)與社會(huì)的深度結(jié)合成為公共事務(wù)的重要表達(dá)方式,對(duì)基本的道德理念和人類(lèi)的主體性產(chǎn)生沖擊,模糊作為主體的人與作為客體的人造物之間的界限,消解人們對(duì)于道德倫理的普遍共識(shí)。而人工智能的道德性意味著技術(shù)需要承擔(dān)起權(quán)利保護(hù)、效率激勵(lì)、公共利益等多重價(jià)值,彌合從業(yè)者、監(jiān)管者、社會(huì)公眾之間的利益訴求。這種價(jià)值的背負(fù)表明人工智能的道德性實(shí)現(xiàn)不可能是完全中立的,而必然隱含著對(duì)某種價(jià)值標(biāo)準(zhǔn)的偏好。因此,人工智能的法律治理需要在技術(shù)性與道德性之間尋找利益的均衡支點(diǎn),如果過(guò)于宏觀(guān)則會(huì)喪失規(guī)范的意義,如果過(guò)于微觀(guān)又會(huì)禁錮技術(shù)邁進(jìn)的步伐。
(二)應(yīng)然需求:人工智能技術(shù)性與道德性的激勵(lì)相容
學(xué)界對(duì)于人工智能的治理范式已有不同學(xué)說(shuō)。張守文教授認(rèn)為,人工智能產(chǎn)業(yè)應(yīng)當(dāng)在“技術(shù)-制度”的分析框架內(nèi),因循“人工智能技術(shù)—人工智能產(chǎn)業(yè)—經(jīng)濟(jì)法規(guī)制”的邏輯主線(xiàn)。張守文:《人工智能產(chǎn)業(yè)發(fā)展的經(jīng)濟(jì)法規(guī)制》,載《政治與法律》2019年第1期,第2-10頁(yè)。龍衛(wèi)球教授認(rèn)為,人工智能的法律治理需要考慮其強(qiáng)社會(huì)面向,構(gòu)建“技術(shù)—社會(huì)+經(jīng)濟(jì)”的新立法范式。龍衛(wèi)球:《人工智能立法的“技術(shù)-社會(huì)+經(jīng)濟(jì)”范式——基于引領(lǐng)法律與科技新型關(guān)系的視角》,載《武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020年第1期,第65-76頁(yè)。曹建峰研究員認(rèn)為,人工智能的治理范式可以選擇科技人文協(xié)作為進(jìn)路,實(shí)現(xiàn)科技與人文的平衡。曹建峰:《人工智能治理:從科技中心主義到科技人文協(xié)作》,載《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020年第5期,第98-107頁(yè)。張文顯教授提出應(yīng)以“未來(lái)法治”為科學(xué)范式,實(shí)現(xiàn)“面向未來(lái)”“走向未來(lái)”和“引領(lǐng)未來(lái)”的法治,構(gòu)建以科學(xué)、人本、包容、普惠、共治為元素的智能社會(huì)法律秩序。張文顯:《構(gòu)建智能社會(huì)的法律秩序》,載《東方法學(xué)》2020年第5期,第4-19頁(yè)??梢园l(fā)現(xiàn),人工智能的治理范式始終圍繞著技術(shù)和人文社會(huì)是人類(lèi)相互行動(dòng)所形成的抽象化關(guān)系體系,因此對(duì)于人工智能社會(huì)面向的關(guān)注,本質(zhì)上屬于人文主義視角的解讀方式。這兩個(gè)關(guān)鍵詞,區(qū)別在于面向的維度或選擇的側(cè)重點(diǎn)有所不同。
正如前文所述,僅憑單一的人文主義或技術(shù)主義范式無(wú)法有效應(yīng)對(duì)人工智能的道德失范。人工智能的道德性實(shí)現(xiàn)涉及倫理、觀(guān)念、法感情等因素,這使技術(shù)與道德之間的博弈存在著一定的張力。技術(shù)性與道德性之間的均衡需要依托人類(lèi)的理性思辨,而非將道德價(jià)值、技術(shù)語(yǔ)言與既有法律進(jìn)行簡(jiǎn)單的拼接。對(duì)此,“技術(shù)—法治—人文”可以成為人工智能道德性實(shí)現(xiàn)的新范式,即以法治為媒,連結(jié)技術(shù)與道德,既規(guī)范技術(shù)的應(yīng)用邊界,促進(jìn)其道德性的實(shí)現(xiàn),又為技術(shù)預(yù)留包容審慎的空間。由此,推動(dòng)技術(shù)主義與人文主義的范式融合,調(diào)適地、漸進(jìn)地化解技術(shù)與道德之間的沖突,在法治的框架中實(shí)現(xiàn)價(jià)值的均衡與歸正,探索人工智能道德性實(shí)現(xiàn)的激勵(lì)相容之道。
“技術(shù)—法治—人文”的范式進(jìn)路是將憲法和法律作為人工智能道德性實(shí)現(xiàn)的框架秩序韓大元:《當(dāng)代科技發(fā)展的憲法界限》,載《法治現(xiàn)代化研究》2018年第5期,第1-12頁(yè)。,對(duì)科技可能帶來(lái)的非理性后果保持審慎觀(guān)察,以法治手段均衡技術(shù)創(chuàng)新與人類(lèi)權(quán)利之間的關(guān)系。然而,成文法的規(guī)范體系具有滯后性,亦不可能絕對(duì)完備,無(wú)法調(diào)整所有形態(tài)的社會(huì)矛盾。正如梅因所言,“社會(huì)的需要和社會(huì)的意見(jiàn)常常是或多或少地走在法律的前面,……因?yàn)榉墒欠€(wěn)定的,而我們談到的社會(huì)是前進(jìn)的?!盵英]梅因:《古代法》,沈景一譯,商務(wù)印書(shū)館1959年版,第15頁(yè)。對(duì)此,原則主義(principlism)可以為“技術(shù)—法治—人文”三路向的融合提供一個(gè)均衡的支點(diǎn),提高治理方案的適用性和周延性?;谠瓌t主義,通過(guò)法律原則的確立達(dá)成一定范圍的道德共識(shí),將道德要求轉(zhuǎn)化為具體的責(zé)任形式,以期道德性在現(xiàn)實(shí)層面得以實(shí)踐和呈現(xiàn)。
三、人工智能道德性的實(shí)現(xiàn)路徑與理論證成
(一)原則導(dǎo)向治理的引入與評(píng)價(jià)
原則導(dǎo)向是相對(duì)于規(guī)則導(dǎo)向而言的,兩者的根本區(qū)別并不在于是否包含具體的規(guī)則,而是規(guī)則的使用方法:規(guī)則導(dǎo)向監(jiān)管通過(guò)一系列的法律法規(guī)實(shí)現(xiàn)盡可能的全面覆蓋,以確保市場(chǎng)活動(dòng)的合規(guī)性,但由于規(guī)則過(guò)于具體和細(xì)致,市場(chǎng)主體和監(jiān)管機(jī)構(gòu)的能動(dòng)空間較為有限;李有星等:《互聯(lián)網(wǎng)金融監(jiān)管的探析》,載《浙江大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)》2014年第4期,第94頁(yè)。原則導(dǎo)向治理強(qiáng)調(diào)規(guī)則的出發(fā)點(diǎn)或目的,明確被監(jiān)管者需要遵守的根本性義務(wù),以結(jié)果為導(dǎo)向,以更高位階的原則而非具體的規(guī)則為工具FSA,Principles-based regulation-Focusing on the Outcomes That Matter,http://www.fsa.gov.uk/pubs/other/principles.Pdf.,但不對(duì)被監(jiān)管者如何達(dá)到這一目標(biāo)進(jìn)行具體要求Julia Black,F(xiàn)orms and paradoxes of principles-based regulation,3 Capital Markets Law Journal 425-457(2008).,在語(yǔ)言表述上多為定性術(shù)語(yǔ)而非定量術(shù)語(yǔ),為市場(chǎng)主體提供充分的發(fā)展空間。原則導(dǎo)向監(jiān)管的邏輯在于,從業(yè)者作為最直接的市場(chǎng)主體應(yīng)當(dāng)有能力在市場(chǎng)競(jìng)爭(zhēng)中精準(zhǔn)地推演和量化風(fēng)險(xiǎn),相較而言,監(jiān)管者容易出現(xiàn)拖滯和官僚等傾向,產(chǎn)生阻滯效應(yīng)。因此,2008年金融危機(jī)爆發(fā)之前,原則導(dǎo)向監(jiān)管被視為激活金融市場(chǎng)的“催化劑”和培育金融創(chuàng)新的“溫室”,并在各國(guó)實(shí)踐中發(fā)展出了“最少的監(jiān)管就是最好的監(jiān)管”“輕觸式監(jiān)管”(light touch regulation)等多種形態(tài)。但是2008年金融危機(jī)爆發(fā)后,原則導(dǎo)向監(jiān)管被認(rèn)為是次貸危機(jī)釀成的制度根源。理由在于,原則導(dǎo)向的監(jiān)管認(rèn)為,從業(yè)者都是謹(jǐn)慎并且負(fù)責(zé)的,因此市場(chǎng)也具有了自我修正和調(diào)整的能力。然而事實(shí)是,市場(chǎng)并非萬(wàn)能,從業(yè)者也并非完全理性。原則導(dǎo)向監(jiān)管過(guò)于依賴(lài)金融機(jī)構(gòu)的理性,只能對(duì)“有原則”的從業(yè)者產(chǎn)生約束,卻變相地為“無(wú)原則”的從業(yè)者提供了漠視風(fēng)險(xiǎn)、套取紅利的尋租通道。
從法治的思維觀(guān)之,人工智能的道德性實(shí)現(xiàn)若以原則導(dǎo)向治理參考借鑒金融監(jiān)管中的原則導(dǎo)向監(jiān)管理論,在人工智能法治中表述為“原則導(dǎo)向治理”更為妥當(dāng)。不同于金融領(lǐng)域已有較為成熟的市場(chǎng)秩序和制度基礎(chǔ),人工智能產(chǎn)業(yè)仍然處于發(fā)展階段,由此產(chǎn)生的許多問(wèn)題暫時(shí)不宜全以“監(jiān)管”論之,而是更多地體現(xiàn)出“治理”的特點(diǎn)。為徑,尚需回答三個(gè)問(wèn)題:第一,人工智能原則導(dǎo)向治理能否在技術(shù)和道德之間實(shí)現(xiàn)可行的“轉(zhuǎn)錄”。雖然原則導(dǎo)向治理更多體現(xiàn)為更高階的法律原則,但同樣需要將道德的要求、理念和精神進(jìn)行概念化和規(guī)范化,成為能夠應(yīng)用于個(gè)案判斷的法律語(yǔ)言,而不能為道德困境和價(jià)值取舍等難題提供逃遁的空間。K.Danner Clouser,Bernard Gert, A Critique of Principlism,15 The Journal of Medicine and Philosophy 219-236(1990).第二,人工智能原則導(dǎo)向治理是否會(huì)導(dǎo)致道德的簡(jiǎn)單化。有觀(guān)點(diǎn)認(rèn)為,人工智能的道德要求僅僅是一種“美德信號(hào)”(virtue-signalling)Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 501-507(2019).,對(duì)人工智能的技術(shù)性和道德性實(shí)現(xiàn)法律歸化,最終恐淪為一種烏托邦式的治理。人工智能涉及諸多各異的專(zhuān)業(yè)領(lǐng)域,為了適應(yīng)學(xué)科交叉的多元性,法律(包括法律原則)似乎唯有不斷簡(jiǎn)化內(nèi)涵、模糊定義才能滿(mǎn)足應(yīng)用的需要。但這種為了適用性而進(jìn)行的妥協(xié),亦使規(guī)范過(guò)于抽象而喪失了良好治理的價(jià)值,甚至可能產(chǎn)生道德相對(duì)主義。關(guān)于道德相對(duì)主義的負(fù)面效應(yīng),可見(jiàn)于美國(guó)學(xué)者艾倫·布盧姆(Allan Bloom)的《美國(guó)精神的封閉》(The Closing of the American Mind)一書(shū)。布盧姆認(rèn)為,價(jià)值多元主義、文化相對(duì)主義使美國(guó)人以開(kāi)放、多元之名,喪失了對(duì)善惡是非的判斷和對(duì)自然權(quán)利的關(guān)懷,最終結(jié)出虛無(wú)主義的惡果。第三,人工智能原則導(dǎo)向治理是否會(huì)違反法治原則。法治的基本要求是規(guī)則在表述上應(yīng)當(dāng)明確、清晰,滿(mǎn)足所有主體對(duì)規(guī)則確定性的需求,而模糊的開(kāi)放性標(biāo)準(zhǔn)和不確定的法律概念都可能加重被監(jiān)管者的義務(wù),是用“簡(jiǎn)單的外衣”覆蓋“復(fù)雜的身軀”。
(二)人工智能原則導(dǎo)向治理的合理性論證
原則導(dǎo)向監(jiān)管并不等于“放任監(jiān)管”,事實(shí)上,即使是在后危機(jī)時(shí)代,金融監(jiān)管也并未摒棄高級(jí)監(jiān)管原則的應(yīng)用。[荷]喬安妮·凱勒曼、雅各布·德汗、費(fèi)姆克·德弗里斯:《21世紀(jì)金融監(jiān)管》,張曉樸譯,中信出版社2016年版,第45頁(yè)。原則導(dǎo)向與規(guī)則導(dǎo)向之間并無(wú)絕對(duì)的優(yōu)劣之分,只有相對(duì)的適合與否,代表著不同的監(jiān)管理念:原則導(dǎo)向監(jiān)管更尊重市場(chǎng)競(jìng)爭(zhēng)、產(chǎn)業(yè)創(chuàng)新和從業(yè)者自律,弱化政府的功能和作用,保持政府干預(yù)的謙抑性;規(guī)則導(dǎo)向監(jiān)管則展現(xiàn)了“父愛(ài)主義”的規(guī)制色彩,強(qiáng)調(diào)市場(chǎng)主體應(yīng)當(dāng)遵循各類(lèi)規(guī)范的具體要求。相較而言,原則導(dǎo)向治理在人工智能道德性實(shí)現(xiàn)的議題上更具適用性和合理性。
第一,原則導(dǎo)向治理的靈活性和包容性更有利于調(diào)和人工智能技術(shù)性與道德性之間的矛盾。人工智能的道德性實(shí)現(xiàn)需要在不斷變化的技術(shù)語(yǔ)境與相對(duì)確定的規(guī)則要求之間尋求可行路徑。規(guī)則導(dǎo)向治理強(qiáng)調(diào)被監(jiān)管者的合規(guī)性,其定量要求的列舉雖然有利于提高效率和統(tǒng)一標(biāo)準(zhǔn),但對(duì)于發(fā)展中的人工智能產(chǎn)業(yè)而言,亦存在著過(guò)于滯后、僵化和割裂的局限性,而為應(yīng)對(duì)新問(wèn)題、新風(fēng)險(xiǎn)頻繁地立改廢釋亦會(huì)使規(guī)范體系越發(fā)臃腫龐雜。人工智能原則導(dǎo)向治理則是確定制度目標(biāo)和預(yù)期結(jié)果,通過(guò)概要性的基本準(zhǔn)則以及相應(yīng)的工具手段規(guī)定從業(yè)者的基本義務(wù),形成預(yù)見(jiàn)性、前瞻性和基準(zhǔn)性的治理框架。這種靈活性和包容性使人工智能原則導(dǎo)向治理在應(yīng)對(duì)技術(shù)創(chuàng)新和風(fēng)險(xiǎn)演化時(shí),可以較少地依賴(lài)于靜態(tài)或固定的量化指標(biāo)和行為要求,為協(xié)調(diào)人工智能技術(shù)性和道德性的兩難困境提供博弈空間。
第二,原則導(dǎo)向治理是人工智能實(shí)現(xiàn)“技術(shù)-法治-人文”重構(gòu)型立法的重要方式。智能時(shí)代打通了技術(shù)與生命的雙向通道從技術(shù)到生物智能的方向表現(xiàn)為修剪甚至制造生命,從生物智能到技術(shù)的方向表現(xiàn)為智能算法的深度模仿。,科技極大地沖擊了人類(lèi)作為唯一智能生命的神圣性和不可操縱性,深刻地改變著傳統(tǒng)法學(xué)的面相,引發(fā)了人們對(duì)于賽博朋克之下社會(huì)基本價(jià)值失序的深切擔(dān)憂(yōu)。人工智能的道德性實(shí)現(xiàn),既需要解放思想,也需要警惕片面的技術(shù)理性論的滲透,將技術(shù)價(jià)值和道德價(jià)值整合納入法律的價(jià)值體系之中,實(shí)現(xiàn)人工智能的重構(gòu)型立法。而在這樣一個(gè)復(fù)雜多變的新興技術(shù)領(lǐng)域?qū)崿F(xiàn)制度重構(gòu),原則導(dǎo)向治理能夠促進(jìn)形成更具道德性的治理方案,彰顯法治之精神。在現(xiàn)代信息社會(huì),原則導(dǎo)向治理可以成為緩釋監(jiān)管者、從業(yè)者和社會(huì)公眾之間的利益沖突,探尋最大限度的共識(shí)并重建協(xié)作與信任的有益通路。
第三,原則導(dǎo)向治理是過(guò)渡階段人工智能立法的務(wù)實(shí)選擇。2017年國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(國(guó)發(fā)〔2017〕35號(hào)),提出到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,到2030年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。2020年10月,中共中央辦公廳、國(guó)務(wù)院辦公廳發(fā)布《深圳建設(shè)中國(guó)特色社會(huì)主義先行示范區(qū)綜合改革試點(diǎn)實(shí)施方案(2020-2025年)》,強(qiáng)調(diào)要“支持深圳擴(kuò)寬經(jīng)濟(jì)特區(qū)立法空間,在新興領(lǐng)域加強(qiáng)立法探索,依法制定經(jīng)濟(jì)特區(qū)法規(guī)規(guī)章”,賦予深圳在人工智能等領(lǐng)域的先行先試權(quán)。我國(guó)人工智能立法已蓄勢(shì)待發(fā),然而其現(xiàn)實(shí)的立法條件卻尚不成熟。人工智能技術(shù)遠(yuǎn)未成熟,諸如人工智能的法律責(zé)任、主體地位、權(quán)利內(nèi)容等基礎(chǔ)理論問(wèn)題仍存在較大爭(zhēng)議,客觀(guān)上很難在短期內(nèi)制定出科學(xué)合理、完備可行的法律規(guī)范體系。對(duì)此,有觀(guān)點(diǎn)提出,可以選擇諸如自動(dòng)駕駛等技術(shù)相對(duì)成熟、產(chǎn)品應(yīng)用存在需求的領(lǐng)域,先行展開(kāi)地方性、試驗(yàn)性的立法。鄭戈:《如何為人工智能立法》,載《檢察風(fēng)云》2018年第7期,第16-17頁(yè)。但這仍未回答人工智能如何體系化立法、如何構(gòu)建頂層制度等問(wèn)題。原則導(dǎo)向治理與規(guī)則導(dǎo)向治理并非二選一的排斥關(guān)系,而是在完備性和不確定性之間,根據(jù)技術(shù)、社會(huì)、法治發(fā)展的客觀(guān)規(guī)律,結(jié)合產(chǎn)業(yè)特點(diǎn)和治理場(chǎng)景因勢(shì)選擇:規(guī)則導(dǎo)向治理更適合實(shí)現(xiàn)高效、重復(fù)、統(tǒng)一規(guī)制的領(lǐng)域;原則導(dǎo)向治理則更適合能夠允許從業(yè)者發(fā)揮主觀(guān)能動(dòng)性,實(shí)現(xiàn)“創(chuàng)造性”合規(guī)的領(lǐng)域。因此,原則導(dǎo)向治理對(duì)于過(guò)渡階段的人工智能立法具有更高的適用性,以先發(fā)展后規(guī)范、先原則后規(guī)則為進(jìn)路,化解人工智能立法的現(xiàn)實(shí)困境。
四、人工智能道德性實(shí)現(xiàn)的原則框架及其解釋
原則導(dǎo)向治理中的“原則”并非簡(jiǎn)單的治理“底線(xiàn)”或“基本原則”,從抽象層面而言,是指追求一種治理目標(biāo)或治理結(jié)果的過(guò)程和方式。從前文可知,全球人工智能的道德性實(shí)現(xiàn)在公平公正、責(zé)任安全、透明可信、隱私保護(hù)、以人為本、效益等方面出現(xiàn)趨同。但是并非所有原則都適合作為人工智能道德性的原則框架,例如隱私保護(hù)原則更多是個(gè)人信息保護(hù)維度的要求,而以人為本原則應(yīng)是所有原則的最終指向,是更為抽象的“元理念”。對(duì)此,人工智能的道德性實(shí)現(xiàn)可以構(gòu)建由透明可信原則、公平公正原則、責(zé)任和安全原則、效益原則組成框架體系,在此基礎(chǔ)上實(shí)現(xiàn)人工智能的原則導(dǎo)向治理。
(一)透明可信原則
透明可信原則是人工智能道德性實(shí)現(xiàn)的“帝王原則”,從原則導(dǎo)向治理的角度而言,人工智能的道德性實(shí)現(xiàn)旨在尋求一種調(diào)適性的“透明可信”。
第一,透明可信原則并非“全面的、簡(jiǎn)單的、絕對(duì)的公開(kāi)”。一方面,代碼等技術(shù)內(nèi)容難以為非專(zhuān)業(yè)人士所理解和認(rèn)知,要求人工智能絕對(duì)公開(kāi)和透明缺乏實(shí)際意義。另一方面,國(guó)家安全、知識(shí)產(chǎn)權(quán)和商業(yè)秘密保護(hù)通常會(huì)成為對(duì)抗這一原則的理由,使其流于形式而無(wú)法實(shí)現(xiàn)。透明可信原則的意旨在于打破技術(shù)壁壘所帶來(lái)的道德失范,在法律治理與產(chǎn)業(yè)激勵(lì)之間尋求信任與合作的平衡點(diǎn)。因此,原則導(dǎo)向治理中的透明可信原則應(yīng)當(dāng)理解為一種包容審慎的調(diào)適性監(jiān)管:對(duì)于風(fēng)險(xiǎn)較高的人工智能應(yīng)用,將透明可信原則納入資質(zhì)審查的范圍,進(jìn)行預(yù)先解釋或公開(kāi)備案;對(duì)于風(fēng)險(xiǎn)較低的人工智能應(yīng)用,可以采取信息披露、消費(fèi)者主體限定等方式,避免過(guò)度倚重指令式的規(guī)則導(dǎo)向治理。
第二,透明可信原則與可解釋原則例如2020年8月,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology,NIST)發(fā)布《可解釋AI草案》,提出可解釋人工智能的四項(xiàng)要求:一是解釋?zhuān)╡xplanation),是指系統(tǒng)應(yīng)當(dāng)為輸出的結(jié)果附隨證據(jù)或理由,但是解釋并非追求極致的精細(xì)和全面,過(guò)于清晰地表達(dá)決策的過(guò)程反而可能有損解釋的準(zhǔn)確性;二是有意義(meaningful),是指系統(tǒng)應(yīng)當(dāng)提供可為用戶(hù)所理解的解釋?zhuān)A(yù)期結(jié)論和共識(shí)形成兩個(gè)方面;三是準(zhǔn)確性(explanation accuracy),是指解釋能夠準(zhǔn)確地反映系統(tǒng)輸出的過(guò)程,但準(zhǔn)確性并不等于正確性,前者是一種客觀(guān)描述,而后者是一種主觀(guān)評(píng)價(jià);四是知識(shí)極限(knowledge limits),是指系統(tǒng)應(yīng)當(dāng)僅在設(shè)定的條件下或達(dá)到足夠可信度的條件下進(jìn)行輸出。是不同范式對(duì)同一問(wèn)題的表達(dá)。有觀(guān)點(diǎn)認(rèn)為,對(duì)于技術(shù)的規(guī)制正在從透明性向可解釋性轉(zhuǎn)化,要求從業(yè)者對(duì)決策的過(guò)程、結(jié)果和原因提供“與利益攸關(guān)者的專(zhuān)業(yè)程度相適應(yīng)”的解釋。Claude Castelluccia,Daniel Le Métayer,Understanding Algorithmic Decision-making: Opportunities and Challenges,Study,Panel Future Sci.Technol.,Eur.Parliamentary Res.Service 18(2019).“解釋對(duì)于關(guān)乎它們的行動(dòng)、行為和決策透明與否是重要的,尤其是在人類(lèi)需要基于AI系統(tǒng)結(jié)果決策的場(chǎng)景中更加重要。一種合適的解釋能夠提升人們對(duì)于系統(tǒng)的信任,在交互關(guān)系中能夠更好的合作?!盤(pán)rashan Madumal,et al.,Towards a Grounded Dialog Model for Explainable Artificial Intelligence.轉(zhuǎn)引自:楊慶峰:《從人工智能難題反思AI倫理原則》,載《哲學(xué)分析》2020年第2期,第143頁(yè)??尚排c可解釋是人文主義進(jìn)路和技術(shù)主義進(jìn)路對(duì)同一問(wèn)題不同視角的表達(dá)楊慶峰:《從人工智能難題反思AI倫理原則》,載《哲學(xué)分析》2020年第2期,第143頁(yè)。,都意在降低因技術(shù)所產(chǎn)生的信息不對(duì)稱(chēng)程度,兩者并不矛盾。
第三,透明可信原則與可溯源、可問(wèn)責(zé)之間并非互斥關(guān)系。有觀(guān)點(diǎn)認(rèn)為,對(duì)于人工智能可能產(chǎn)生的錯(cuò)誤或風(fēng)險(xiǎn),法律應(yīng)當(dāng)要求其可溯源而非透明。邏輯在于,算法透明原則在可行性方面無(wú)法應(yīng)對(duì)國(guó)家安全、社會(huì)秩序和私主體權(quán)利,在必要性方面無(wú)法等于可知,缺乏規(guī)制的有效性,因此,相較于算法透明的事前規(guī)制,以算法問(wèn)責(zé)為代表的事后規(guī)制更加妥當(dāng)。沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評(píng)論》2019年第6期,第20-39頁(yè)。但在人工智能的道德性實(shí)現(xiàn)中,仍應(yīng)堅(jiān)持透明可信的“帝王原則”地位。一方面,透明可信與可溯源、可問(wèn)責(zé)之間的區(qū)別在于階段的不同,前者以算法為起點(diǎn),著力于應(yīng)用階段,后兩者以結(jié)果為起點(diǎn),著力于后算法階段。事實(shí)上,可溯源和可問(wèn)責(zé)更多體現(xiàn)于責(zé)任和安全原則,與透明可信原則并不沖突。另一方面,算法可溯源、可問(wèn)責(zé)在人工智能道德問(wèn)題上的適用性尚需進(jìn)一步商榷。人工智能技術(shù)對(duì)于道德價(jià)值的沖擊是深層次的、結(jié)構(gòu)性的,這種影響無(wú)法通過(guò)事后階段的溯源或問(wèn)責(zé)實(shí)現(xiàn)彌補(bǔ)和覆蓋。對(duì)于透明可信原則的局限性,需要通過(guò)細(xì)化限度范圍、優(yōu)化工具選擇等方式增強(qiáng)其科學(xué)性和合理性,而非否定或摒棄。
(二)公平公正原則
公平公正原則是人工智能道德性實(shí)現(xiàn)的基礎(chǔ)性原則。公共部門(mén)與私營(yíng)部門(mén)在如何實(shí)踐公平公正原則這一問(wèn)題上分歧較大:公共部門(mén)強(qiáng)調(diào)技術(shù)的應(yīng)用與結(jié)果應(yīng)有助于減輕偏見(jiàn)、避免歧視White House,Guidance for Regulation of Artificial Intelligence Applications(draft),(2020),https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf.;私營(yíng)部門(mén)則希望通過(guò)標(biāo)準(zhǔn)、編碼等技術(shù)的修正或升級(jí)形成解決方案。分歧的原因在于,公平公正原則的實(shí)踐頗為困難,盡管各國(guó)普遍“收錄”其作為人工智能道德性的重要組成部分,但“對(duì)于公平的討論往往流于文字修辭,缺乏嚴(yán)謹(jǐn)性和準(zhǔn)確性”。Claude Castelluccia,Daniel Le Métayer,Understanding Algorithmic Decision-making: Opportunities and Challenges,Study,Panel Future Sci.Technol.,Eur.Parliamentary Res.Service 43(2019).而極端的技術(shù)主義進(jìn)路用統(tǒng)計(jì)學(xué)的方法實(shí)現(xiàn)數(shù)學(xué)意義上的公平,但卻忽視了公平公正本身亦是一個(gè)公共政策問(wèn)題,仍然需要人文主義視角下的溝通與對(duì)話(huà),以及規(guī)范主義視角下程序和權(quán)利的保障。
第一,公平公正原則是貫穿人工智能全生命周期的基本原則。一方面,應(yīng)警惕技術(shù)應(yīng)用的結(jié)果可能對(duì)社會(huì)和人類(lèi)發(fā)展帶來(lái)不平等、歧視等問(wèn)題;另一方面,在人工智能開(kāi)發(fā)階段(例如訓(xùn)練數(shù)據(jù)、訓(xùn)練方式等),應(yīng)當(dāng)在源起時(shí)明確其是否存在偏見(jiàn),設(shè)定相應(yīng)的措施手段。
第二,公平公正原則是動(dòng)態(tài)的持續(xù)性要求。公平公正原則旨在促進(jìn)平等、正義和多樣性的實(shí)現(xiàn),然而神經(jīng)科學(xué)證明人們無(wú)法全面認(rèn)知自身的意識(shí)過(guò)程,這種認(rèn)知偏差同樣會(huì)影響人工智能道德性的實(shí)現(xiàn)。因此,需要對(duì)人工智能全生命周期設(shè)定公平性的監(jiān)測(cè)、審核和反饋機(jī)制,避免因機(jī)器的無(wú)意識(shí)偏見(jiàn)或從業(yè)者的“內(nèi)省錯(cuò)覺(jué)”(introspection illusion)減損道德價(jià)值。
第三,公平公正原則是一種實(shí)質(zhì)正義。公平公正原則本身就帶有一定的“偏見(jiàn)”,隱含著對(duì)弱勢(shì)群體的傾斜性保護(hù)。因此,公平公正原則并非絕對(duì)的“去偏見(jiàn)”化,亦非形式公平或技術(shù)公平,而應(yīng)以實(shí)質(zhì)公平為導(dǎo)向。這也導(dǎo)致人工智能的道德性實(shí)現(xiàn)在工具選擇中必然會(huì)表現(xiàn)出一定的“弱父愛(ài)主義”色彩,通過(guò)規(guī)則構(gòu)建增強(qiáng)個(gè)體的理性條件。
第四,公平公正原則是一種程序正義?!吧啤钡挠懻摬⒎切∪后w的智識(shí)判斷,而是關(guān)乎最廣泛普通人的價(jià)值選擇。無(wú)論是依據(jù)科學(xué)敘事還是監(jiān)管邏輯進(jìn)行立法,都容易使風(fēng)險(xiǎn)判斷和工具選擇出現(xiàn)內(nèi)循環(huán)的局限性。因此,人工智能公平公正原則的實(shí)踐需要程序正義的保障,即在系統(tǒng)開(kāi)發(fā)、程序應(yīng)用、算法設(shè)計(jì)和政策決策的過(guò)程中,涉及到重大道德倫理問(wèn)題時(shí),需充分咨詢(xún)公眾、專(zhuān)家、企業(yè)等群體的意見(jiàn),在最大范圍內(nèi)達(dá)成社會(huì)共識(shí)。
(三)責(zé)任和安全原則
責(zé)任和安全原則是人工智能道德性實(shí)現(xiàn)的保障性原則。責(zé)任原則一般是指,人工智能從業(yè)者應(yīng)當(dāng)對(duì)系統(tǒng)的正常運(yùn)作以及相關(guān)的道德準(zhǔn)則負(fù)責(zé)。而安全原則一般是指,人工智能需要避免產(chǎn)生傷害,同時(shí)防止和減少風(fēng)險(xiǎn)的產(chǎn)生。責(zé)任原則和安全原則一體兩面,安全原則是責(zé)任原則的目的和指向,責(zé)任原則是安全原則的工具和結(jié)果,兩者不宜分立討論,而是應(yīng)當(dāng)納入同一框架內(nèi),根據(jù)“安全-風(fēng)險(xiǎn)-責(zé)任”的邏輯脈絡(luò)實(shí)現(xiàn)規(guī)制。參考借鑒《人工智能:澳大利亞的倫理框架》(討論稿)中的“算法影響評(píng)估”Dawson,D.et al.,Artificial Intelligence: Australias Ethics Framework,Data61 CSIRO,Australia,63-65(2019).,可以對(duì)人工智能的道德性影響展開(kāi)評(píng)估,并采取不同的應(yīng)對(duì)措施:首先,根據(jù)人工智能在影響范圍、所涉領(lǐng)域、失范類(lèi)型等因素,以程度大小分為不重要、輕微、重要、重大、至關(guān)重要等五級(jí)道德性影響等級(jí);其次,在道德性影響等級(jí)的基礎(chǔ)上,針對(duì)不同的人工智能道德失范問(wèn)題分別采取應(yīng)對(duì)措施,屬于不重要級(jí)別、輕微級(jí)別人工智能道德性影響的,以?xún)?nèi)部控制和測(cè)試、行業(yè)標(biāo)準(zhǔn)、企業(yè)自律等方式為主;屬于重要級(jí)別人工智能道德性影響的,應(yīng)相應(yīng)增設(shè)影響評(píng)估、風(fēng)險(xiǎn)控制、信息披露等方式;屬于重大級(jí)別人工智能道德性影響的,還需通過(guò)專(zhuān)家咨詢(xún)、專(zhuān)員設(shè)置、資格審查等方式予以規(guī)范;至關(guān)重要級(jí)別人工智能道德性影響的人工智能應(yīng)當(dāng)嚴(yán)格審查,必要時(shí)禁止應(yīng)用。同時(shí),人工智能原則導(dǎo)向治理中的責(zé)任和安全原則,既包括物理意義上的技術(shù)安全,也包括抽象意義上的安全可控。人工智能技術(shù)應(yīng)當(dāng)避免直接或間接地?fù)p害用戶(hù)以及利益相關(guān)方的權(quán)益,而決策者和從業(yè)者都應(yīng)對(duì)人工智能在社會(huì)穩(wěn)定、價(jià)值觀(guān)念、法情感等方面可能產(chǎn)生的沖擊保持審慎,選擇更為成熟而非冒進(jìn)甚至激進(jìn)的方案。
(四)效益原則
效益原則是人工智能道德性實(shí)現(xiàn)的激勵(lì)性原則。效益原則通常關(guān)注人類(lèi)社會(huì)的福祉、繁榮、和平和幸福,包括繁榮經(jīng)濟(jì),為社會(huì)創(chuàng)造更多的機(jī)會(huì),促進(jìn)人們對(duì)科學(xué)的理解等內(nèi)容。原則導(dǎo)向治理中的效益原則既是公益與私益的統(tǒng)一,也是一國(guó)與全球的統(tǒng)一。一方面,效益原則不僅僅是宏觀(guān)層面的公共利益,同樣是微觀(guān)層面的私益。目前對(duì)于人工智能道德性的規(guī)范思考多以“監(jiān)管”作為邏輯起點(diǎn),尚未形成產(chǎn)業(yè)激勵(lì)層面的制度考量。原則導(dǎo)向治理有助于在產(chǎn)業(yè)激勵(lì)層面提供一定的包容審慎空間,意即,這種效益不僅僅是社會(huì)或人類(lèi)視角下的公共利益,同樣包含了每個(gè)人工智能產(chǎn)業(yè)的從業(yè)者、企業(yè)等主體的私益訴求。另一方面,效益原則不僅僅是一國(guó)之福祉,同樣是人類(lèi)社會(huì)的整體利益。根據(jù)人工智能原則導(dǎo)向治理的和諧發(fā)展理念,這種效益不能局限于一國(guó)之內(nèi),不應(yīng)是國(guó)家性的效益,而應(yīng)當(dāng)是全人類(lèi)(包括代際之內(nèi)和代際之間)范圍內(nèi)的共同利益。
五、人工智能原則導(dǎo)向治理的工具選擇
(一)建立人工智能倫理咨詢(xún)與審查機(jī)制,強(qiáng)化公眾參與和民主決策
首先,通過(guò)人工智能倫理咨詢(xún)與審查機(jī)制為人工智能立法和公共政策提供廣泛意見(jiàn)。一方面,形成日常性的人工智能倫理咨詢(xún)機(jī)制,并在中央層面建立人工智能政策委員會(huì)。人工智能倫理咨詢(xún)機(jī)制負(fù)責(zé)為行業(yè)監(jiān)管部門(mén)提供信息、更新知識(shí),持續(xù)跟蹤科技風(fēng)險(xiǎn)的新發(fā)展,建立人工智能風(fēng)險(xiǎn)評(píng)估體系,并為行業(yè)監(jiān)管部門(mén)提供關(guān)于人工智能道德問(wèn)題的專(zhuān)業(yè)意見(jiàn),推動(dòng)形成具有動(dòng)態(tài)性、漸進(jìn)性和調(diào)適性的行業(yè)監(jiān)管。人工智能政策委員會(huì)負(fù)責(zé)宏觀(guān)審慎監(jiān)管和政策協(xié)調(diào)工作,就人工智能道德問(wèn)題向行業(yè)監(jiān)管部門(mén)提出建議。另一方面,確立具有約束力的人工智能倫理審查機(jī)制,以行業(yè)監(jiān)管為基礎(chǔ)構(gòu)建具體的實(shí)施流程和規(guī)范體系。人工智能倫理審查機(jī)制需要進(jìn)一步規(guī)范化、制度化、普遍化,由行業(yè)監(jiān)管部門(mén)與審慎監(jiān)管部門(mén)通過(guò)監(jiān)管備忘錄等形式形成信息共享機(jī)制,并在此基礎(chǔ)上定期更新,明確不同行業(yè)監(jiān)管部門(mén)在人工智能道德性實(shí)現(xiàn)方面的職責(zé)范圍。在人工智能可能涉及重大倫理或道德問(wèn)題時(shí),行業(yè)監(jiān)管部門(mén)應(yīng)在充分咨詢(xún)信息科學(xué)、倫理學(xué)和法學(xué)等領(lǐng)域?qū)I(yè)意見(jiàn)的基礎(chǔ)上,與人工智能政策委員會(huì)就重大議題的信息、建議、知識(shí)等方面展開(kāi)溝通和合作。
其次,推動(dòng)形成對(duì)于人工智能道德性實(shí)現(xiàn)的公共討論和民主決策過(guò)程。無(wú)論是由科技專(zhuān)家主導(dǎo)的技術(shù)規(guī)范,還是由法律專(zhuān)家主導(dǎo)的司法裁判,在涉及社會(huì)公眾重大利益的決策中,人工智能法治應(yīng)當(dāng)為普通民眾預(yù)留充分的意見(jiàn)空間。具體而言,在憲制框架中依循法定程序進(jìn)行充分的討論和審議,將人工智能決策相關(guān)的重大倫理和道德問(wèn)題交由更具廣泛代表性的集體展開(kāi)商討,在技術(shù)、法治、人文三路向的基礎(chǔ)上凝練社會(huì)共識(shí),體現(xiàn)人民群眾普遍認(rèn)同的道德、情感和價(jià)值判斷,標(biāo)明人工智能道德性實(shí)現(xiàn)的底線(xiàn)。
(二)構(gòu)建人工智能領(lǐng)域的主體適當(dāng)性制度與避風(fēng)港規(guī)則
從業(yè)者往往被視為人工智能道德性實(shí)現(xiàn)的關(guān)鍵,甚至有觀(guān)點(diǎn)提出應(yīng)當(dāng)建立高風(fēng)險(xiǎn)人工智能系統(tǒng)開(kāi)發(fā)人員的許可制度Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 503-505(2019).,以從業(yè)者的準(zhǔn)入門(mén)檻為工具,將技術(shù)的道德難題交托于具有較高道德標(biāo)準(zhǔn)的主體進(jìn)行解決,并在有限的主體范圍內(nèi)落實(shí)道德原則的實(shí)踐要求。但其中存在著一定的邏輯錯(cuò)位,人工智能的風(fēng)險(xiǎn)必須結(jié)合應(yīng)用場(chǎng)景展開(kāi)討論,主體資格的篩選并不能保證技術(shù)能符合更高的道德要求。風(fēng)險(xiǎn)的討論應(yīng)當(dāng)回到其對(duì)應(yīng)的概念之上,即風(fēng)險(xiǎn)的承擔(dān),讓能夠承擔(dān)高風(fēng)險(xiǎn)的主體承擔(dān)高風(fēng)險(xiǎn)、獲取高收益,讓無(wú)法承擔(dān)高風(fēng)險(xiǎn)的主體承擔(dān)低風(fēng)險(xiǎn)、獲取低收益,這才是符合成本收益理論的制度選擇。
因此,相較于從業(yè)者許可制度而言,更加合理的工具選擇應(yīng)當(dāng)是以“從業(yè)者有責(zé),消費(fèi)者自慎”的主體適當(dāng)性制度為主,以“避風(fēng)港規(guī)則”為輔,形成人工智能法律治理的雙重責(zé)任規(guī)則。根據(jù)近代民法契約自由的法治精神,交易達(dá)成,嚴(yán)格執(zhí)行何勤華:《美國(guó)法律發(fā)達(dá)史》,上海人民出版社1998年版,第181頁(yè)。,“成年人應(yīng)當(dāng)自己照拂自己。他無(wú)須法律的家長(zhǎng)主義來(lái)庇護(hù)自己。在他行動(dòng)之時(shí),他就應(yīng)當(dāng)已經(jīng)意識(shí)到了行為的風(fēng)險(xiǎn),就必須承擔(dān)相應(yīng)的后果?!盵美]伯納德·施瓦茨:《美國(guó)法律史》,工軍等譯,法律出版社2007年版,第65頁(yè)。但是受到技術(shù)、理性、信息等約束條件的影響,特別在新興的人工智能領(lǐng)域,消費(fèi)者在客觀(guān)上無(wú)法真正了解和確知技術(shù)的后果,主體的理性條件與風(fēng)險(xiǎn)承擔(dān)之間存在不對(duì)等,需要借助法律的意旨補(bǔ)充和扶助消費(fèi)者的意思表示行為。具言之,對(duì)于具有技術(shù)高風(fēng)險(xiǎn)性或是涉及重大倫理道德問(wèn)題的人工智能應(yīng)用,應(yīng)當(dāng)作為特殊場(chǎng)景,適用“從業(yè)者有責(zé),消費(fèi)者自慎”的主體適當(dāng)性規(guī)則。一方面,從業(yè)者對(duì)于技術(shù)可能帶來(lái)的風(fēng)險(xiǎn)予以充分的預(yù)期、披露和告知,同時(shí)根據(jù)消費(fèi)者在技術(shù)與理性方面的不同認(rèn)知水平進(jìn)行主體分類(lèi),確保技術(shù)應(yīng)用與使用者的主體適當(dāng)性相匹配;另一方面,消費(fèi)者應(yīng)當(dāng)保持自慎的理性姿態(tài),保證其在主體適當(dāng)性審查中所提供的信息準(zhǔn)確并且全面,為從業(yè)者展開(kāi)主體適當(dāng)性的分類(lèi)和匹配提供判斷依據(jù)。由此,通過(guò)不同主體應(yīng)用不同風(fēng)險(xiǎn)條件的人工智能技術(shù),在一定程度上呈現(xiàn)法律對(duì)于弱者實(shí)現(xiàn)傾斜保護(hù)的立法取向。與此同時(shí),構(gòu)建激勵(lì)人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展的“避風(fēng)港規(guī)則”作為人工智能從業(yè)者責(zé)任承擔(dān)的平衡砝碼,避免對(duì)人工智能系統(tǒng)的提供者課以過(guò)于嚴(yán)格的法律責(zé)任,人工智能技術(shù)提供者在被告知技術(shù)應(yīng)用存在違背道德要求時(shí),應(yīng)當(dāng)及時(shí)啟動(dòng)審查程序并采取相應(yīng)措施。對(duì)于因消費(fèi)者未盡到真實(shí)告知義務(wù)而產(chǎn)生的損害、已盡到法定義務(wù)但在現(xiàn)有技術(shù)條件確實(shí)無(wú)法預(yù)判的風(fēng)險(xiǎn)等特殊情形,應(yīng)減輕或免除技術(shù)提供者的責(zé)任。
(三)將人工智能的道德性實(shí)現(xiàn)納入企業(yè)社會(huì)責(zé)任的范疇
人工智能具有高度的專(zhuān)業(yè)性和技術(shù)性,“在法制定層面與法適用層面都需要有足夠的專(zhuān)業(yè)知識(shí)來(lái)構(gòu)架、填充、認(rèn)知、運(yùn)作行為規(guī)范與評(píng)價(jià)規(guī)范”。高秦偉:《社會(huì)自我規(guī)制與行政法的任務(wù)》,載《中國(guó)法學(xué)》2015年第5期,第75頁(yè)。人工智能從業(yè)者的“良好行為”一方面需要依靠主體的道德信念和職業(yè)操守,另一方面也需要以治理結(jié)構(gòu)為基礎(chǔ),以企業(yè)社會(huì)責(zé)任為依托,搭建人工智能道德性實(shí)現(xiàn)的責(zé)任機(jī)制,進(jìn)而提高原則導(dǎo)向治理的可執(zhí)行性。科技企業(yè)對(duì)于示范性規(guī)則、準(zhǔn)則、標(biāo)準(zhǔn)等治理方案的探索非?;钴S,特別是大型的科技企業(yè),既是原則治理的接受者,也是重要的參與者和制定者。Anna Jobin,Marcello Ienca,Effy Vayena,The Global Landscape of AI Ethics Guidelines,9 Nature Machine Intelligence 389-399(2019).企業(yè)的自我規(guī)制在本質(zhì)上而言是社會(huì)自我規(guī)制的一種,但在鼓勵(lì)企業(yè)充分發(fā)揮技術(shù)優(yōu)勢(shì)、實(shí)現(xiàn)自我規(guī)制的同時(shí),也需要對(duì)市場(chǎng)主體的脆弱性保持警醒,避免原則導(dǎo)向治理僅呈現(xiàn)為一種虛化的假象。自我規(guī)制的脆弱性來(lái)源于兩個(gè)方面的影響:一是技術(shù)人員作為個(gè)人的脆弱性,二是企業(yè)作為集體的脆弱性。有觀(guān)點(diǎn)曾經(jīng)嘗試從信義義務(wù)的角度證成企業(yè)的社會(huì)責(zé)任例如,鄭佳寧:《目標(biāo)公司董事信義義務(wù)客觀(guān)標(biāo)準(zhǔn)之構(gòu)建》,載《東方法學(xué)》2017年第4期,第42-51頁(yè)。,其原理在于,由于技術(shù)壁壘的存在,消費(fèi)者處于易受技術(shù)主體影響的弱勢(shì)地位,對(duì)企業(yè)形成了合理的、特殊的依賴(lài),由此產(chǎn)生企業(yè)的信義義務(wù)。但是傳統(tǒng)的公司治理結(jié)構(gòu)要求企業(yè)應(yīng)當(dāng)對(duì)股東負(fù)責(zé),相較而言,消費(fèi)者利益以及社會(huì)公共利益并不具備邏輯上或法律上的優(yōu)先性。意即,人工智能企業(yè)(包括其技術(shù)人員)可能出于增加收益的目的,選擇為了企業(yè)利益而忽略風(fēng)險(xiǎn),甚至拋棄技術(shù)應(yīng)用背后的道德考量。Manders-Huits,Michael Zimmer,Values and Pragmatic Action: the Challenges of Introducing Ethical Intelligence in Technical Design Communities,10 International Review of Information Ethics 37-44(2009).因此,人工智能原則導(dǎo)向治理需要將道德性實(shí)現(xiàn)契入企業(yè)的治理結(jié)構(gòu),推動(dòng)企業(yè)自上而下形成具體規(guī)范,通過(guò)實(shí)例、示例、標(biāo)準(zhǔn)等多種形式,探索不同道德原則實(shí)現(xiàn)“轉(zhuǎn)錄”的具體方案。
與此同時(shí),人工智能企業(yè)的類(lèi)型、規(guī)模、技術(shù)、信息等條件,同樣會(huì)影響企業(yè)承擔(dān)社會(huì)責(zé)任的條件和能力。因此,對(duì)于人工智能道德性實(shí)現(xiàn)課以社會(huì)責(zé)任的要求,需要根據(jù)技術(shù)條件和責(zé)任能力進(jìn)行分類(lèi),形成梯度設(shè)計(jì),避免因缺少對(duì)不同人工智能企業(yè)特殊性的觀(guān)察而產(chǎn)生規(guī)制的失衡。具體而言,對(duì)于一般性的人工智能企業(yè),可以要求其公司治理目標(biāo)包含其他利益相關(guān)者的訴求,這些利益相關(guān)者包括監(jiān)管機(jī)構(gòu)、政府以及消費(fèi)者等主體;對(duì)于技術(shù)風(fēng)險(xiǎn)較高或涉及重大道德倫理問(wèn)題的人工智能企業(yè),則應(yīng)當(dāng)將這一治理目標(biāo)嵌入公司的具體結(jié)構(gòu)和管理制度之中,例如,設(shè)立專(zhuān)任的技術(shù)風(fēng)險(xiǎn)安全官或倫理道德審查委員會(huì),將安全與道德問(wèn)題納入內(nèi)部監(jiān)督和審查的范圍,完善技術(shù)風(fēng)險(xiǎn)與安全問(wèn)題的信息披露機(jī)制等。
(四)擴(kuò)大司法裁判在人工智能道德性實(shí)現(xiàn)中的能動(dòng)空間
通過(guò)原則導(dǎo)向治理實(shí)現(xiàn)人工智能道德性的最終環(huán)節(jié),即為糾紛的解決。這需要依托于法官作為“人”的理性思辨。據(jù)檢索,現(xiàn)有涉及人工智能技術(shù)應(yīng)用糾紛的案件已有四例檢索方式:以中國(guó)裁判文書(shū)網(wǎng)為數(shù)據(jù)庫(kù),關(guān)鍵詞為“事實(shí)”部分包含“人工智能”,案由為民事侵權(quán)或刑事案件。檢索時(shí)間:2020年10月26日。通過(guò)檢索共獲得80篇裁判文書(shū),經(jīng)人工篩選后選取4篇關(guān)聯(lián)度較高的司法案例。,兩例為民事侵權(quán),兩例為刑事犯罪:李××與廣州網(wǎng)易計(jì)算機(jī)系統(tǒng)有限公司網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案[(2019)桂0802民初3026號(hào)],原告起訴被告的人工智能客服造成其游戲賬號(hào)產(chǎn)生財(cái)產(chǎn)損失;黃××與北京百度網(wǎng)訊科技有限公司網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案[(2018)粵0192民初1322號(hào)],原告起訴被告的人工智能圖片搜索技術(shù)從第三方網(wǎng)站抓取圖片,相關(guān)搜索結(jié)果侵犯其名譽(yù)權(quán);裴×犯提供侵入、非法控制計(jì)算機(jī)信息系統(tǒng)程序、工具罪案[(2018)川13刑終240號(hào)],被告人通過(guò)人工智能訓(xùn)練提高打碼平臺(tái)識(shí)別驗(yàn)證碼的能力,增加他人QQ號(hào)被盜取的風(fēng)險(xiǎn);張×、陳××、張××等提供侵入非法控制計(jì)算機(jī)信息系統(tǒng)程序工具罪案[(2018)浙0602刑初101號(hào)],被告利用識(shí)別圖片驗(yàn)證碼的AI人工智能程序,提高打碼平臺(tái)識(shí)別驗(yàn)證碼的能力,幫助他人批量注冊(cè)或盜取QQ賬號(hào)。從未來(lái)的趨勢(shì)來(lái)看,人工智能糾紛通過(guò)司法途徑進(jìn)行解決的情形必然持續(xù)增加。
事實(shí)上,從美國(guó)人工智能的治理實(shí)踐來(lái)看,法官在化解人工智能所帶來(lái)的倫理難題和道德?tīng)?zhēng)議中扮演著非常重要的角色。除了技術(shù)專(zhuān)家之外,研究者希望通過(guò)司法過(guò)程推動(dòng)人工智能活動(dòng)中不同利益訴求的競(jìng)爭(zhēng)、訴辨與對(duì)抗,由法官?gòu)闹辛⒌慕嵌韧瓿扇斯ぶ悄芗夹g(shù)性與道德性的價(jià)值衡量。Jerry L.Mashaw,Reasoned Administration and Democratic Legitimacy: How Administrative Law Supports Democratic Government,Cambridge University Press,2018,p.82.未來(lái)我國(guó)人工智能糾紛也需要向司法解決途徑進(jìn)一步推動(dòng)。在這一背景下,為了彌合技術(shù)與法律之間的鴻溝,訴訟法中的專(zhuān)家輔助人制度也許可以成為一個(gè)適用的接口。我國(guó)現(xiàn)有專(zhuān)家輔助人制度(“有專(zhuān)門(mén)知識(shí)的人”)見(jiàn)于《民事訴訟法》第79條,是指具有專(zhuān)業(yè)知識(shí)的人,經(jīng)當(dāng)事人申請(qǐng)并經(jīng)人民法院允許,代表當(dāng)事人對(duì)鑒定意見(jiàn)進(jìn)行質(zhì)證,或者對(duì)案件事實(shí)所涉及的專(zhuān)業(yè)問(wèn)題提出意見(jiàn),是對(duì)鑒定人制度的補(bǔ)益。目前,我國(guó)法律還沒(méi)有明確專(zhuān)家輔助人意見(jiàn)的性質(zhì)及其法律效力參見(jiàn)竇淑霞:《法官對(duì)專(zhuān)家輔助人意見(jiàn)的采信與心證形成的路徑分析》,載《法學(xué)雜志》2018年第2期,第108-123頁(yè)。,對(duì)于人工智能糾紛中專(zhuān)家輔助人意見(jiàn),可以參考美國(guó)《聯(lián)邦證據(jù)規(guī)則》第702條“專(zhuān)家證人證言采信規(guī)則”,基于以下因素予以綜合制定:該意見(jiàn)是否建立在充足的事實(shí)和資料基礎(chǔ)上;是否是可靠的科學(xué)方法或原理的產(chǎn)物;該科學(xué)方法或原理是否可靠地運(yùn)用于案件事實(shí)。
六、結(jié)語(yǔ):面向未來(lái)的人工“善智”
人類(lèi)社會(huì)總是處在發(fā)展和演進(jìn)之中,在智能時(shí)代不斷前進(jìn)的滾滾車(chē)輪之上,法律亦在不斷調(diào)整、適應(yīng)和更新。人工智能作為一項(xiàng)新興科技,已然成為國(guó)家競(jìng)爭(zhēng)的新場(chǎng)域。2016年以來(lái),世界各國(guó)高度關(guān)注人工智能的發(fā)展與治理,相關(guān)的政策規(guī)范頻頻出臺(tái),出現(xiàn)了共同沖擊人工智能制度高地的競(jìng)爭(zhēng)樣態(tài)。對(duì)于人工智能的道德性實(shí)現(xiàn),同樣應(yīng)該遵循國(guó)內(nèi)與國(guó)際相聯(lián)系、歷史與現(xiàn)實(shí)相關(guān)聯(lián)的發(fā)展思維。一方面,人工智能治理的全球探索是一個(gè)借鑒樣本。通過(guò)借鑒,可以在較短時(shí)間內(nèi)學(xué)習(xí)和掌握有益經(jīng)驗(yàn),降低因調(diào)查、論證、試錯(cuò)等過(guò)程產(chǎn)生的成本。但是,人工智能的道德性實(shí)現(xiàn)應(yīng)充分尊重我國(guó)在社會(huì)、經(jīng)濟(jì)、技術(shù)發(fā)展中的階段性和客觀(guān)性,鋪設(shè)符合科學(xué)精神、法治理念、人文關(guān)懷的治理進(jìn)路,避免“無(wú)前提的移植,無(wú)邊界的應(yīng)用,無(wú)定性的普及”。參見(jiàn)馮顏利:《新時(shí)代哲學(xué)的使命:范式創(chuàng)新、思維革命、方法論自覺(jué)》,載《中國(guó)人民大學(xué)學(xué)報(bào)》2018年第6期,第33-41頁(yè)。另一方面,在原則導(dǎo)向治理的框架內(nèi)謀求人工智能道德性的共識(shí),避免出現(xiàn)惡性制度競(jìng)爭(zhēng)。新興制度的不斷出現(xiàn)強(qiáng)化了制度的聚合效應(yīng),產(chǎn)生制度服從(institutional deference)現(xiàn)象。參見(jiàn)劉瑋:《兼容性制度競(jìng)爭(zhēng):雙層對(duì)沖與地區(qū)制度的嵌套設(shè)計(jì)》,載《世界經(jīng)濟(jì)與政治》2020年第2期,第67頁(yè)。未來(lái)全球數(shù)字經(jīng)濟(jì)的競(jìng)爭(zhēng)將會(huì)從要素競(jìng)爭(zhēng),進(jìn)入長(zhǎng)期的以法治為核心的制度競(jìng)爭(zhēng)階段。在這一階段,如果對(duì)于人工智能的道德性缺乏共識(shí)作為秩序框架,可能會(huì)產(chǎn)生不正當(dāng)?shù)闹贫雀?jìng)爭(zhēng)行為。
因此,在全球范圍內(nèi)實(shí)現(xiàn)人工智能的道德性是當(dāng)下與未來(lái)人類(lèi)社會(huì)的共同議題。人工智能的全球治理仍處于共識(shí)性規(guī)則框架的探索階段,從競(jìng)爭(zhēng)到合作,從單一到多元,對(duì)于人工智能道德問(wèn)題的審慎考量和進(jìn)路探索,使其呈現(xiàn)為一種過(guò)程(process),而不是簡(jiǎn)單的目標(biāo)(destination)。Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 505(2019).人工智能的道德性可以成為人工智能全球治理的基礎(chǔ),穿越科技、經(jīng)濟(jì)、文化的差異最終落腳于文明與文明之間的合作。人工智能的道德性實(shí)現(xiàn),既是一個(gè)國(guó)家人工智能法治的重要組成部分,也是全球治理框架的共同敘事,使人工智能“善智”的宏大藍(lán)圖高奇琦:《全球善智與全球合智:人工智能全球治理的未來(lái)》,載《世界經(jīng)濟(jì)與政治》2019年第7期,第24-48頁(yè)。真正有助于人類(lèi),有益于未來(lái),有益于人類(lèi)命運(yùn)共同體的建構(gòu)。ML
How is the Morality of Artificial Intelligence Possible?
——An Legal Approach Based on Principle-oriented Governance
XU Jiu-jiu
(Institue of Law, China Academy of Social Science,Beijing 100720,China)
Abstract:Artificial Intelligence is a newly emerging technology which stimulates,extends and expands human intelligence,thus its moral practice is particularly important.The moral anomie of artificial intelligence is not only an objective description of phenomena,but also a subjective judgment of value,with both positive and negative effects.From the practical response of the moral practice of global artificial intelligence,the exploration on the moral principles of Artificial Intelligence shows technicism,and the phenomenon of suspension and blur appears in the process of transformation from high-level principles to specific norms.Also some of the principles are inconsistent with each other.The essence of the moral anomie of artificial intelligence is the interest imbalance brought by the game relationship between innovation and safety in the technological development.While the approach of “technology-rule of law-humanity” to explore the incentive compatibility between technology and morality should be the necessary and key to the moral practice of artificial intelligence.Based on this,the introduction of the principle-oriented governance theory creates an inclusive and prudent institutional space between ideal orientation of moral practice and realistic norms,and set up a system of principle-oriented governance consists of structure of core principle and the choice of tools to transcribe the morality of Artificial Intelligence among moral values,technological requirements and legal language.
Key Words:artificial intelligence;morality;principle-oriented governance;rule of law;incentive compatibility
本文責(zé)任編輯:林士平
青年學(xué)術(shù)編輯:孫 瑩