摘要:依賴于大數(shù)據(jù)的人工智能技術(shù)存在算法黑箱的固有缺陷,構(gòu)建具有可解釋性的人工智能是保障用戶實(shí)現(xiàn)相關(guān)權(quán)益的前提,是促進(jìn)社會(huì)形成人工智能準(zhǔn)確認(rèn)知和良好信心的必然選擇,是實(shí)現(xiàn)透明、可控、負(fù)責(zé)任人工智能發(fā)展的基礎(chǔ),也是人工智能成為一門科學(xué)的內(nèi)在要求。任何人工智能都不是完全不具有可解釋性的,它們都在一定范圍內(nèi)具有相當(dāng)程度的可解釋性的。私法上的算法解釋權(quán)屬于事后救濟(jì)權(quán),是用戶請(qǐng)求網(wǎng)絡(luò)運(yùn)營(yíng)者對(duì)個(gè)人權(quán)益有重大影響的自動(dòng)化決策予以解釋的權(quán)利,限于調(diào)整基于連接主義的黑盒算法,解釋的水平應(yīng)當(dāng)符合現(xiàn)有科學(xué)技術(shù)水平。在潛在風(fēng)險(xiǎn)發(fā)生之前和存在損害普遍多數(shù)用戶利益的情況下,應(yīng)當(dāng)引入算法影響評(píng)估、告知義務(wù)、外部算法問(wèn)責(zé),從而以積極的方式促進(jìn)人工智能的可解釋性,提高算法透明度以構(gòu)建公共信任的基礎(chǔ)。我國(guó)《個(gè)人信息保護(hù)法(草案)》已經(jīng)為個(gè)人信息處理領(lǐng)域的人工智能可解釋性提供了充分的法律依據(jù),未來(lái)還需要通過(guò)專門的人工智能立法圍繞“可解釋性”作出合理制度安排。
關(guān)鍵詞:人工智能;可解釋性;算法黑箱;算法解釋權(quán);算法評(píng)估
基金項(xiàng)目:國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“互聯(lián)網(wǎng)經(jīng)濟(jì)的法治保障研究”(18ZDA149)
中圖分類號(hào):D910? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? 文章編號(hào):1003-854X(2020)12-0113-07
隨著新一代人工智能技術(shù)的發(fā)展和應(yīng)用,其已經(jīng)在消費(fèi)、信貸、就業(yè)、教育、交通、司法、行政決策等許多領(lǐng)域?qū)θ祟惖钠降?、隱私、安全等權(quán)益產(chǎn)生了重大的影響。為此,建立負(fù)責(zé)任的人工智能為許多學(xué)者和公民社會(huì)團(tuán)體所呼吁,近年來(lái)相關(guān)的戰(zhàn)略、政策、標(biāo)準(zhǔn)和法規(guī)也對(duì)人工智能的治理給予了高度關(guān)注。在人工智能成為社會(huì)焦點(diǎn)的背景之下,出現(xiàn)了對(duì)于人工智能技術(shù)積極樂(lè)觀而認(rèn)為該技術(shù)將通過(guò)優(yōu)秀的表現(xiàn)取代當(dāng)前大部分人類工作的聲音,或者是對(duì)于人工智能技術(shù)消極悲觀認(rèn)為該技術(shù)存在缺陷而難以被我們信任和使用的觀點(diǎn)。在討論人類和機(jī)器孰優(yōu)孰劣或者是人工智能技術(shù)是否值得信任之際,人工智能技術(shù)被社會(huì)投機(jī)力量宣傳濫用而泛起了“迷霧”,人工智能技術(shù)的范圍和邊界都開(kāi)始變得越來(lái)越模糊。因此,需要通過(guò)一種制度安排構(gòu)建可科學(xué)理解的人工智能發(fā)展環(huán)境,從而增強(qiáng)人工智能的透明度,實(shí)現(xiàn)負(fù)責(zé)任的人工智能發(fā)展目標(biāo)。需要說(shuō)明的是,歐洲和我國(guó)越來(lái)越多的立法文件使用“自動(dòng)化決策”來(lái)代替“人工智能”,以增強(qiáng)法規(guī)調(diào)整對(duì)象的確定性,本文所討論的人工智能主要是指自動(dòng)化決策。
一、相關(guān)性取代因果性的人工智能技術(shù)存在不確定性
根據(jù)歐盟高級(jí)別專家組通過(guò)法定形式對(duì)人工智能的定義,人工智能系統(tǒng)是由人類設(shè)計(jì)的軟件(也可能還是硬件)系統(tǒng),它給定一個(gè)復(fù)雜的目標(biāo),通過(guò)在物理或數(shù)字維度上感知其環(huán)境,通過(guò)數(shù)據(jù)采集、對(duì)采集到的結(jié)構(gòu)化或非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行解釋、知識(shí)推理或者信息處理,并基于這些數(shù)據(jù),決定最好的行動(dòng)以實(shí)現(xiàn)特定的目標(biāo)。人工智能系統(tǒng)既可以使用符號(hào)規(guī)則,也可以學(xué)習(xí)數(shù)字模型,它們還可以通過(guò)分析他們以前的行動(dòng)如何影響環(huán)境來(lái)調(diào)整自己的行為?!雹?在這一定義中,總結(jié)了人工智能的三大技術(shù)路線,分別是符號(hào)主義、連接主義和行為主義。其中,符號(hào)主義的歷史最為悠久,也被稱之為規(guī)則驅(qū)動(dòng)(Rule-Driven)的人工智能技術(shù),其典型的算法模型包括決策樹(shù)、貝葉斯推理等,因?yàn)樗麄儽旧砭褪腔诿鞔_的因果規(guī)則所構(gòu)建的,故而天然地具有較高的可解釋性。然而,近年來(lái)繁榮發(fā)展起來(lái)的人工智能以連接主義為主流,也被稱之為數(shù)據(jù)驅(qū)動(dòng)(Data-Driven)的人工智能技術(shù),其典型的算法模型包括深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、隨機(jī)森林、支持向量機(jī)等,這些算法模型的本質(zhì)是通過(guò)大量數(shù)據(jù)的相關(guān)性積累構(gòu)建認(rèn)識(shí)規(guī)律,此基于經(jīng)驗(yàn)主義的調(diào)參式深度學(xué)習(xí)也被稱之為“煉丹”,故而因其最終的輸出具有不確定性而難以進(jìn)行解釋。
連接主義的人工智能系統(tǒng)可以運(yùn)用無(wú)監(jiān)督的學(xué)習(xí)算法提供支持,這些機(jī)器自主學(xué)習(xí)是在沒(méi)有腳本的情況下回答概率問(wèn)題,由此也可使得機(jī)器能夠在更高的維度識(shí)別一些人類無(wú)法識(shí)別的關(guān)系模型,故而它們只能知道答案而無(wú)法對(duì)其解答的過(guò)程提供解釋。有觀點(diǎn)據(jù)此認(rèn)為,強(qiáng)制要求解釋的結(jié)果可能是技術(shù)上無(wú)法做到的,或者是通過(guò)勉強(qiáng)的辦法得到不真實(shí)的解釋答案。② 之所以出現(xiàn)這種結(jié)論,是因?yàn)樾乱淮斯ぶ悄芨叨纫蕾囉诖髷?shù)據(jù)進(jìn)行模型訓(xùn)練,這種基于大數(shù)據(jù)的人工智能模型實(shí)際上是用相關(guān)性取代因果性,通過(guò)大數(shù)據(jù)的相關(guān)關(guān)系分析方法來(lái)適應(yīng)計(jì)算機(jī)處理的需求。“相關(guān)性”的哲學(xué)本質(zhì)是經(jīng)驗(yàn)主義認(rèn)識(shí)論,黑格爾就提出以絕對(duì)精神的自我運(yùn)動(dòng)方式,將經(jīng)驗(yàn)主義對(duì)知識(shí)學(xué)的建構(gòu)納入人類精神自我認(rèn)知之整全性思考的過(guò)程當(dāng)中,休謨也主張用兩個(gè)現(xiàn)象前后相繼所構(gòu)筑的相關(guān)性來(lái)建構(gòu)一種因果性。這種用相關(guān)性構(gòu)建認(rèn)識(shí)論的方式承認(rèn)世界是普遍聯(lián)系的,可以為人工智能邏輯的解釋標(biāo)準(zhǔn)歸入到較為寬松的客觀環(huán)境之中;但是,這種認(rèn)識(shí)將人的主觀意識(shí)進(jìn)行純粹物質(zhì)化的還原,最終只會(huì)窄化對(duì)人的本質(zhì)理解。③ 與此同時(shí),這種相關(guān)性的認(rèn)識(shí)還存在一些無(wú)法解決的問(wèn)題:首先,可用數(shù)據(jù)本身存在重要?dú)埲钡那闆r下,人工智能得出的模型和結(jié)果也極有可能是存在局限性的;其次,可用數(shù)據(jù)量過(guò)大,極有可能帶來(lái)規(guī)律的喪失和嚴(yán)重失真,甚至形成一些違背常識(shí)的假規(guī)律。④ 此外,即便是數(shù)據(jù)量適度,但是實(shí)體要素、關(guān)系要素等算法構(gòu)建的缺陷和可計(jì)算性技術(shù)的局限性也會(huì)導(dǎo)致人工智能模型不能得出完整的規(guī)律。
依賴于大數(shù)據(jù)的人工智能技術(shù)存在相關(guān)性認(rèn)識(shí)論的固有缺陷,但是這種技術(shù)往往具有較低的召回率,這使得他們能夠避免“不會(huì)作答”的尷尬,在絕大多數(shù)輸入的情況下都能給出一個(gè)或者更多的結(jié)果,盡管其輸出的結(jié)果并不準(zhǔn)確。因果確定性屬于強(qiáng)相關(guān)性⑤,相比于因果關(guān)系要求具有嚴(yán)格的推理過(guò)程,根據(jù)相關(guān)性邏輯運(yùn)行的新一代人工智能產(chǎn)品能夠在較低相關(guān)性的情況下依然給出結(jié)果,這就大大降低了其落地應(yīng)用的門檻。在此背景之下,人工智能模型的訓(xùn)練過(guò)程及其輸出結(jié)果的置信度就容易成為 “黑箱”,故而我們也需要在相關(guān)性的科學(xué)認(rèn)識(shí)論下避免低質(zhì)量產(chǎn)品的應(yīng)用帶來(lái)的不確定性風(fēng)險(xiǎn)。
二、構(gòu)建可解釋性人工智能的意義
在信息大爆炸的現(xiàn)代社會(huì),通過(guò)技術(shù)可以利用的信息越來(lái)越多,但是人類能夠全面掌握的信息比例日益降低,“不確定性”成為社會(huì)安全最大的威脅,“算法黑箱”是人類對(duì)于人工智能技術(shù)產(chǎn)生恐懼和擔(dān)憂的根源。為了應(yīng)對(duì)人工智能技術(shù)發(fā)展的風(fēng)險(xiǎn),2019年6月,我國(guó)國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出“人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可信賴”,這是我國(guó)首個(gè)官方發(fā)布的人工智能治理框架和行動(dòng)指南,而“可解釋”成為其中的要求之一。此外,有學(xué)者認(rèn)為可解釋性的重要性遠(yuǎn)遠(yuǎn)超出了數(shù)據(jù)保護(hù)法,并深刻影響了使用機(jī)器學(xué)習(xí)模型的合同簽訂和侵權(quán)責(zé)任問(wèn)題。⑥ 從負(fù)責(zé)任人工智能實(shí)現(xiàn)的主次路徑而言,而“可解釋”的人工智能應(yīng)當(dāng)成為各項(xiàng)治理目標(biāo)得以實(shí)現(xiàn)的一項(xiàng)基石,因?yàn)槠涫潜U嫌脩魧?shí)現(xiàn)相關(guān)權(quán)益的前提,是促進(jìn)社會(huì)形成人工智能準(zhǔn)確認(rèn)知和建立良好信心的必然選擇,是實(shí)現(xiàn)透明、可控、負(fù)責(zé)任人工智能發(fā)展的基礎(chǔ),也是人工智能成為一門科學(xué)的內(nèi)在要求。
第一,“可解釋”的人工智能是保障用戶實(shí)現(xiàn)相關(guān)權(quán)益的前提。人工智能是服務(wù)于人類用戶的新技術(shù),為了避免用戶的個(gè)人數(shù)據(jù)被人工智能濫用,近幾年的個(gè)人數(shù)據(jù)保護(hù)相關(guān)立法特別強(qiáng)化了對(duì)自動(dòng)化處理相關(guān)的規(guī)制,建立了用戶對(duì)數(shù)據(jù)利用知情權(quán)和控制力相關(guān)的權(quán)利束。算法解釋請(qǐng)求權(quán)脫胎于知情權(quán)但超越了知情權(quán)的構(gòu)架,其重在保證算法決策的合理性和正當(dāng)性⑦,有利于保障自然人知情權(quán)、決定權(quán)、查詢權(quán)、刪除權(quán)、更正權(quán)等一系列權(quán)利的實(shí)現(xiàn)。受到算法影響的個(gè)人只有在真正理解人工智能“如何作出決定和基于什么基礎(chǔ)作出決定”的情況下,才能質(zhì)疑特定決定或表達(dá)自己的觀點(diǎn)。⑧ 信息不對(duì)稱會(huì)使用戶的基本權(quán)利基本無(wú)效⑨,如果一個(gè)人有改正的權(quán)利,他需要看到錯(cuò)誤;如果一個(gè)人有權(quán)利反對(duì)歧視,他需要看到在一個(gè)決定中使用了什么因素?!吨腥A人民共和國(guó)民法典》(以下簡(jiǎn)稱《民法典》)第1037條在繼承《中華人民共和國(guó)網(wǎng)絡(luò)安全法》(以下簡(jiǎn)稱《網(wǎng)絡(luò)安全法》)第43條的基礎(chǔ)上⑩,專門新增了“查閱權(quán)”,體現(xiàn)出知情權(quán)的重要意義,明確自然人可以向個(gè)人信息處理者查閱其信息內(nèi)容及其被處理情況。2020年10月發(fā)布的《中華人民共和國(guó)個(gè)人信息保護(hù)法(草案)》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)第25條進(jìn)一步新增自動(dòng)化決策解釋權(quán),即“個(gè)人認(rèn)為自動(dòng)化決策對(duì)其權(quán)益造成重大影響的,有權(quán)要求個(gè)人信息處理者予以說(shuō)明”,故而在個(gè)人信息處理領(lǐng)域?qū)崿F(xiàn)可解釋人工智能成為法律擬定的要求。
第二,“可解釋”是促進(jìn)社會(huì)形成人工智能準(zhǔn)確認(rèn)知和良好信心的必然選擇。在人工智能技術(shù)應(yīng)用快速發(fā)展的同時(shí),政策制定者、監(jiān)管者、消費(fèi)者等相關(guān)方均認(rèn)為高新技術(shù)是一把雙刃劍,警示我們?cè)谙硎苋斯ぶ悄軒Ыo人類巨大進(jìn)步與福利的同時(shí),也需要防止倫理風(fēng)險(xiǎn)、極化風(fēng)險(xiǎn)、異化風(fēng)險(xiǎn)、規(guī)制風(fēng)險(xiǎn)和責(zé)任風(fēng)險(xiǎn)。{11} 這種籠罩在人工智能發(fā)展過(guò)程中的陰霾,有時(shí)候會(huì)通過(guò)風(fēng)險(xiǎn)事故案例引發(fā)質(zhì)疑,這些事故是處于正常誤差范圍之內(nèi),還是系統(tǒng)缺陷,往往沒(méi)有各方認(rèn)可的結(jié)論。由于人工智能實(shí)踐應(yīng)用能力的提升和范圍的擴(kuò)大,不時(shí)引發(fā)社會(huì)對(duì)于就業(yè)機(jī)會(huì)乃至于人類主體身份認(rèn)知的擔(dān)憂,但是人工智能在未來(lái)社會(huì)到底是人機(jī)協(xié)作還是取代人類缺乏細(xì)致的考慮。由于社會(huì)缺乏對(duì)人工智能的準(zhǔn)確認(rèn)識(shí),我們對(duì)人工智能發(fā)展的擔(dān)憂很多時(shí)候是在特定領(lǐng)域尚未發(fā)生社會(huì)風(fēng)險(xiǎn)下產(chǎn)生的,導(dǎo)致整個(gè)社會(huì)對(duì)于人工智能運(yùn)行不確定性引發(fā)的“黑箱社會(huì)”{12} 和“機(jī)器人取代人”等問(wèn)題產(chǎn)生了巨大的擔(dān)憂,并存在風(fēng)險(xiǎn)類推蔓延的趨勢(shì)。與此同時(shí),由于對(duì)人工智能缺乏準(zhǔn)確認(rèn)知,社會(huì)對(duì)于人工智能發(fā)展速度的期望值在不斷提高,而一旦這些期望值不能滿足,我們可能再次進(jìn)入人工智能興趣和投資減少的時(shí)期,進(jìn)而出現(xiàn)另一個(gè)“人工智能的冬天”。{13} 在此背景下,對(duì)人工智能系統(tǒng)為什么以某種方式工作的解釋將有助于防止錯(cuò)誤使用和消除一些對(duì)人工智能的誤解,進(jìn)而建立起社會(huì)各界對(duì)人工智能產(chǎn)業(yè)發(fā)展的準(zhǔn)確認(rèn)知和良好信心。
第三,“可解釋”是實(shí)現(xiàn)透明、可控、負(fù)責(zé)任人工智能發(fā)展的基礎(chǔ)。國(guó)內(nèi)外對(duì)于人工智能的治理出現(xiàn)了很多立法呼吁,特別是算法問(wèn)責(zé)制成為整個(gè)國(guó)際社會(huì)津津樂(lè)道的研究話題,以至于人工智能的專門立法將成為與數(shù)據(jù)保護(hù)法并立的格局。美國(guó)加州消費(fèi)者隱私保護(hù)工作組組長(zhǎng)阿拉斯泰爾·麥克塔曾經(jīng)指出,數(shù)字化時(shí)代保護(hù)消費(fèi)者隱私的三項(xiàng)基本原則,分別是透明度(Transparency)原則、可控(Control)原則、負(fù)責(zé)任(Accountability)原則,這三大原則也已經(jīng)成為智能化社會(huì)通用的三項(xiàng)基本原則。在人工智能的技術(shù)環(huán)境中,我們所需要的透明度是為了獲得易懂的知識(shí)幫助用戶理解所處的智能空間正在發(fā)生什么,所需要的可控是為了保障人工智能的運(yùn)行處于監(jiān)管之下而能夠根據(jù)需要進(jìn)行人工干預(yù),所需要的負(fù)責(zé)任是為了明確人工智能各個(gè)相關(guān)方的職責(zé)從而讓風(fēng)險(xiǎn)后果能夠有效分擔(dān),通過(guò)“可解釋”的人工智能提供專業(yè)知識(shí)支撐是實(shí)現(xiàn)這些目標(biāo)的共同基礎(chǔ)。目前,可解釋性是人工智能技術(shù)在金融決策支持、自動(dòng)駕駛、醫(yī)療、司法等“高風(fēng)險(xiǎn)”領(lǐng)域應(yīng)用模型的基礎(chǔ){14},不具備可解釋性的人工智能技術(shù)將在很多領(lǐng)域無(wú)法轉(zhuǎn)化為實(shí)際應(yīng)用的產(chǎn)品。
第四,“可解釋”是人工智能成為一門科學(xué)的內(nèi)在要求。有觀點(diǎn)認(rèn)為,算法的“準(zhǔn)確性”和“可解釋性”始終負(fù)相關(guān),容易向人類解釋的算法的準(zhǔn)確性往往低于難以理解的算法{15},這一結(jié)論也在一些算法的測(cè)試中得到了驗(yàn)證。{16} 然而,可解釋性不僅僅是法律合規(guī)的需要,同時(shí)也是解決確認(rèn)和解決機(jī)器學(xué)習(xí)模型中的盲點(diǎn)的必然要求。{17} 愛(ài)因斯坦說(shuō):任何科學(xué)都是從世界的合理性和可理解性這種堅(jiān)定的信念出發(fā)的。{18} 自然界的因果規(guī)律是確實(shí)存在的,且這種規(guī)律是可以認(rèn)識(shí)的,具有可解釋性是自然科學(xué)成為先驗(yàn)認(rèn)識(shí)論的基礎(chǔ),否則那些關(guān)于實(shí)在的外部世界假設(shè)就毫無(wú)意義。面對(duì)當(dāng)代人工智能缺乏可解釋性的現(xiàn)狀,甚至有學(xué)者提出:當(dāng)前的人工智能并不能稱為科學(xué),也并未形成基礎(chǔ)堅(jiān)實(shí)的學(xué)科。{19}為了提高人工智能技術(shù)的科學(xué)理論水平,在近年來(lái)的計(jì)算機(jī)科學(xué)領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議中,關(guān)于可解釋性人工智能(Explainable Artificial Intelligence, XAI)的研究已經(jīng)成為重要議題,通過(guò)可解釋性研究可以檢測(cè)并糾正訓(xùn)練數(shù)據(jù)集中的偏差,通過(guò)對(duì)抗性干擾來(lái)促進(jìn)模型的魯棒性,確認(rèn)變量的意義并確保模型推理中存在潛在的真實(shí)因果關(guān)系。{20} 由于可解釋的人工智能存在法律和技術(shù)的正向促進(jìn)關(guān)系,構(gòu)建可解釋的人工智能制度也便具有更深層次的合理性和必要性。
總而言之,“可解釋”是權(quán)利保障、社會(huì)信任、市場(chǎng)安全和技術(shù)創(chuàng)新的共同需求,有助于確保機(jī)器決策過(guò)程的公正性,維護(hù)系統(tǒng)運(yùn)行的穩(wěn)定性,完善模型中變量和推理的科學(xué)性。算法可解釋的制度構(gòu)造是計(jì)算法學(xué)的基本命題之一{21},是人與機(jī)器之間進(jìn)行“對(duì)話”的橋梁,對(duì)于人工智能產(chǎn)品的生產(chǎn)者、使用者和被使用者均具有重要的意義。為了激勵(lì)可解釋的人工智能技術(shù)和管理方法發(fā)展,應(yīng)當(dāng)分別從用戶端構(gòu)建算法解釋權(quán),從運(yùn)營(yíng)端提升算法透明度以構(gòu)建公共信任基礎(chǔ)。
三、用戶端的可解釋:私法上的算法解釋權(quán)
私法上的算法解釋權(quán)是權(quán)利主體請(qǐng)求網(wǎng)絡(luò)運(yùn)營(yíng)者對(duì)自動(dòng)化決策予以解釋的權(quán)利,可以用法律賦權(quán)的方式讓受到人工智能影響的組織和個(gè)人避免陷入黑箱操控的不安境地。算法解釋權(quán)的內(nèi)容最早可追溯到1972年法國(guó)頒布的《關(guān)于信息技術(shù)、數(shù)據(jù)文件和公民自由的1978年1月6日第78—17號(hào)信息自由法案》。該法案第10條、第39條分別規(guī)定:無(wú)論是政府還是私人作出的涉及評(píng)價(jià)個(gè)人行為的決定,不能僅根據(jù)自動(dòng)化處理的與公民個(gè)性或側(cè)寫相關(guān)的數(shù)據(jù)作出;基于自動(dòng)化處理作出的決策對(duì)數(shù)據(jù)主體造成法律影響時(shí),數(shù)據(jù)主體有權(quán)知道該自動(dòng)化處理的邏輯信息并有權(quán)反對(duì)自動(dòng)化處理。隨后,1978年《法國(guó)數(shù)據(jù)保護(hù)法》延續(xù)了此類規(guī)定,同時(shí),該規(guī)定也被少數(shù)歐洲國(guó)家所采納,并影響了歐盟層面的數(shù)據(jù)保護(hù)規(guī)則。{22} 歐盟議會(huì)在審議歐盟委員會(huì)于2012年提交的《歐洲通用個(gè)人數(shù)據(jù)保護(hù)條例(草案)》中,曾提議規(guī)定個(gè)人請(qǐng)求解釋算法的權(quán)利,但是因反對(duì)意見(jiàn)而最終并未采納。2016年頒布的《歐洲通用個(gè)人數(shù)據(jù)保護(hù)條例》在序言第71段對(duì)第22條的自動(dòng)化決策規(guī)范做注解時(shí)提到“個(gè)人數(shù)據(jù)主體有權(quán)獲得對(duì)此類評(píng)估后達(dá)成的決定的解釋”。牛津大學(xué)網(wǎng)絡(luò)研究中心研究助理古德曼(Goodman)和倫敦帝國(guó)學(xué)院數(shù)學(xué)系講師弗萊斯曼(Flaxman)依據(jù)《歐洲通用個(gè)人數(shù)據(jù)保護(hù)條例》序言第71段的內(nèi)容,于2016年提出了算法解釋權(quán)(the right to explanation)的概念,此后經(jīng)過(guò)媒體報(bào)道而引起廣泛的關(guān)注和討論。{23} 但是,序言在歐盟法中并無(wú)直接的法律效力,故而在歐盟法中實(shí)際上沒(méi)有算法解釋權(quán)的規(guī)定。
我國(guó)《民法典》《網(wǎng)絡(luò)安全法》中均沒(méi)有算法解釋權(quán)的相關(guān)規(guī)定,《個(gè)人信息保護(hù)法(草案)》第25條第1款第2句首次規(guī)定了算法解釋權(quán):“個(gè)人認(rèn)為自動(dòng)化決策對(duì)其權(quán)益造成重大影響的,有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定”。這種私法上的算法解釋權(quán)源于并超越了《歐洲通用個(gè)人數(shù)據(jù)保護(hù)條例》的規(guī)定。有學(xué)者認(rèn)為,算法解釋權(quán)對(duì)于以深度學(xué)習(xí)為代表的人工智能算法根本不具備技術(shù)上實(shí)現(xiàn)的可能性;對(duì)于非深度學(xué)習(xí)算法,算法解釋權(quán)也有擾亂商業(yè)實(shí)踐的隱憂,算法解釋權(quán)應(yīng)為我國(guó)法律所拒絕。{24} 從技術(shù)的客觀情況而言,任何人工智能都不是完全不具有可解釋性的,都在一定范圍內(nèi)是具有相當(dāng)程度的可解釋性;而且人工智能相比于人類更加強(qiáng)調(diào)邏輯計(jì)算規(guī)則,故而其具有可驗(yàn)證性,通過(guò)特定輸入指標(biāo)的變化可以檢測(cè)其對(duì)輸出結(jié)果的影響,進(jìn)而驗(yàn)證系統(tǒng)的可信度。例如,美國(guó)法院采用過(guò)一款名為COMPAS的再犯風(fēng)險(xiǎn)量刑輔助系統(tǒng),其在數(shù)據(jù)輸入之時(shí)根本就沒(méi)有將種族作為參考指標(biāo),但是一家公益組織通過(guò)使用該軟件對(duì)1萬(wàn)多名刑事被告人實(shí)證統(tǒng)計(jì)分析發(fā)現(xiàn)其實(shí)際預(yù)測(cè)的結(jié)果歧視了黑人{(lán)25},這也可以作為系統(tǒng)設(shè)計(jì)者進(jìn)行解釋和驗(yàn)證的一種方法。值得注意的是,“可解釋”技術(shù)正在日益成為機(jī)器學(xué)習(xí)中的一項(xiàng)重要子領(lǐng)域,特定風(fēng)險(xiǎn)評(píng)估等一些專門的解釋工具正在被開(kāi)發(fā)出來(lái),未來(lái)可能出現(xiàn)專門提供“可解釋”服務(wù)的第三方機(jī)構(gòu)和交易市場(chǎng),甚至誕生進(jìn)行“可解釋”驗(yàn)證的專門執(zhí)法部門。
“法律不強(qiáng)人所難”是一條基本原則,法律對(duì)“可解釋”的要求也必然是符合技術(shù)發(fā)展階段的。事實(shí)上,法律只關(guān)心有關(guān)權(quán)利、義務(wù)或者利益、責(zé)任的問(wèn)題,故而法律上所需要的解釋只是對(duì)人工智能的部分重要內(nèi)容進(jìn)行解釋。例如,美國(guó)國(guó)防高級(jí)研究計(jì)劃局的一項(xiàng)研究列舉了需要解釋的七項(xiàng)主要問(wèn)題:(1)為什么會(huì)出現(xiàn)這種輸出?(2)為什么沒(méi)有其他輸出?(3)機(jī)器在哪些情況下會(huì)產(chǎn)生可靠的輸出?(4)能提供機(jī)器輸出的可信度得分嗎?(5)在什么狀態(tài)和輸入的情況下,機(jī)器的輸出是可信的?(6)哪些參數(shù)對(duì)輸出影響最大(負(fù)和正)?(7)可以做些什么來(lái)糾正錯(cuò)誤?{26} 這些問(wèn)題都是關(guān)涉人們利用人工智能可能受到重要影響的問(wèn)題,對(duì)于這些問(wèn)題都可以作出適應(yīng)現(xiàn)有技術(shù)發(fā)展階段的解釋。概而言之,可解釋的人工智能在技術(shù)上是可以實(shí)現(xiàn)的,只是法律對(duì)解釋范圍的要求需符合實(shí)際情況和負(fù)責(zé)任的人工智能法治目標(biāo),而技術(shù)的解釋能力也需要隨著技術(shù)的發(fā)展而不斷提高。
算法解釋權(quán)必須具有一定的適用范圍和條件,避免私權(quán)濫用損害人工智能技術(shù)應(yīng)用的正常秩序。根據(jù)《個(gè)人信息保護(hù)法(草案)》第25條和第67條的規(guī)定,算法解釋權(quán)應(yīng)當(dāng)限于對(duì)個(gè)人權(quán)益有重大影響的自動(dòng)化決策,此處的自動(dòng)化決策是指“利用個(gè)人信息對(duì)個(gè)人的行為習(xí)慣、興趣愛(ài)好或者經(jīng)濟(jì)、健康、信用狀況等,通過(guò)計(jì)算機(jī)程序自動(dòng)分析、評(píng)估并進(jìn)行決策的活動(dòng)”。值得注意的是,我國(guó)《個(gè)人信息保護(hù)法(草案)》第25條所調(diào)整的范圍大于《歐洲通用個(gè)人數(shù)據(jù)保護(hù)條例》第22條的內(nèi)容,有人工參與的自動(dòng)化決策也會(huì)落入本條的約束范圍。但是,如果網(wǎng)絡(luò)運(yùn)營(yíng)者在自動(dòng)化決策之外提供了顯而易用的人工替代途徑,應(yīng)當(dāng)認(rèn)定該自動(dòng)化決策不會(huì)成為對(duì)個(gè)人權(quán)益有重大影響的自動(dòng)化決策,不適用于算法解釋權(quán)。而且,自動(dòng)化決策的解釋應(yīng)當(dāng)限于基于連接主義的黑盒算法,基于符號(hào)主義的白盒算法具有直接的強(qiáng)因果關(guān)系而不應(yīng)當(dāng)納入單個(gè)解釋權(quán)的內(nèi)容,可以通過(guò)易獲取、概括性的解釋滿足用戶知情權(quán)的需求。此外,國(guó)外普遍將計(jì)算機(jī)代碼作為商業(yè)秘密予以保護(hù),強(qiáng)制要求公開(kāi)代碼一般會(huì)被認(rèn)定為違反國(guó)際慣例、侵犯知識(shí)產(chǎn)權(quán)的行為;算法解釋權(quán)的內(nèi)容應(yīng)當(dāng)限于基本、可理解的自動(dòng)化決策邏輯,符合現(xiàn)有技術(shù)的可解釋水平,尊重企業(yè)的商業(yè)秘密,不以代碼公開(kāi)為必要。算法解釋權(quán)屬于事后解釋,不需要在提供服務(wù)之前作出,用戶提出解釋權(quán)申請(qǐng)應(yīng)當(dāng)證明其個(gè)人權(quán)益遭受了自動(dòng)化決策程序的重大影響。為了避免用戶的算法解釋權(quán)被不正當(dāng)剝奪,自動(dòng)化決策者拒不提供解釋或沒(méi)有提供相對(duì)人滿意的解釋時(shí),用戶應(yīng)當(dāng)可以通過(guò)平臺(tái)或者第三方渠道獲得救濟(jì)。{27} 算法解釋權(quán)的救濟(jì)可以讓第三方參與到算法的審查之中,進(jìn)而與公法上的算法問(wèn)責(zé)制相銜接。
四、運(yùn)營(yíng)端的可解釋:維護(hù)公共信任的算法透明度
現(xiàn)代社會(huì)的主要風(fēng)險(xiǎn)是科技發(fā)展引發(fā)的不確定,新一代人工智能技術(shù)的算法黑箱必然也會(huì)引發(fā)社會(huì)普遍的焦慮,發(fā)生危害后果不僅會(huì)損害大量用戶的權(quán)利,還會(huì)引發(fā)社會(huì)普遍情感對(duì)人工智能技術(shù)的信任危機(jī),最終影響社會(huì)整體福利。{28} 算法解釋權(quán)是給予用戶個(gè)人的私法請(qǐng)求權(quán),該路徑可以通過(guò)個(gè)案的方式滿足個(gè)性化的需求。但是,算法解釋權(quán)的實(shí)現(xiàn)具有離散性特點(diǎn),在治理效率、行業(yè)發(fā)展、集體行動(dòng)和公共利益保護(hù)等層面存在局限,無(wú)法對(duì)算法系統(tǒng)有效問(wèn)責(zé),且偏誤糾正能力有限,需要引入外部問(wèn)責(zé)和網(wǎng)絡(luò)運(yùn)營(yíng)者義務(wù)的算法治理模式。{29} 在智能化社會(huì),需要在潛在風(fēng)險(xiǎn)發(fā)生之前就從運(yùn)營(yíng)端增強(qiáng)人工智能的可解釋性,通過(guò)網(wǎng)絡(luò)運(yùn)營(yíng)者義務(wù)和外部算法問(wèn)責(zé)維護(hù)公共信任秩序。網(wǎng)絡(luò)運(yùn)營(yíng)者義務(wù)主要是指算法影響評(píng)估和主動(dòng)的告知義務(wù),外部算法問(wèn)責(zé)主要是指第三方開(kāi)展的算法審計(jì)。
算法影響評(píng)估(Algorithmic Impact Assessments)源于隱私影響評(píng)估,是一種基于設(shè)計(jì)的安全保障措施,能夠及時(shí)發(fā)現(xiàn)風(fēng)險(xiǎn)并予以處理,盡可能避免或者減少風(fēng)險(xiǎn)的發(fā)生。美國(guó)國(guó)會(huì)眾議員Yvette Clarke在2019年4月提出了聯(lián)邦層面的《算法問(wèn)責(zé)法案》,該法案要求特定規(guī)模的商業(yè)實(shí)體對(duì)涉及個(gè)人信息或作出自動(dòng)決策的高風(fēng)險(xiǎn)系統(tǒng)進(jìn)行評(píng)估,適用于每年收入超過(guò)5000萬(wàn)美元、持有100萬(wàn)人或者設(shè)備信息的公司或者主要作為買賣消費(fèi)者數(shù)據(jù)的數(shù)據(jù)經(jīng)紀(jì)人公司。算法影響評(píng)估需要做到四項(xiàng)內(nèi)容:一是詳細(xì)描述系統(tǒng);二是評(píng)估系統(tǒng)的相對(duì)成本和收益;三是確定對(duì)個(gè)人信息隱私和安全的風(fēng)險(xiǎn);四是將潛在風(fēng)險(xiǎn)降至最低而采取的步驟。{30} 該法案由于存在落地困難的問(wèn)題,遭到美國(guó)研究機(jī)構(gòu)的批評(píng){31},短期內(nèi)沒(méi)有通過(guò)的可能?!八惴ㄓ绊懺u(píng)估”的關(guān)鍵因素應(yīng)該包括:(1)檢測(cè)自動(dòng)化決策系統(tǒng)對(duì)公平、正義、偏見(jiàn)或其他重要問(wèn)題的潛在影響;(2)設(shè)計(jì)有效的程序用以發(fā)現(xiàn)、測(cè)量或跟蹤自動(dòng)化決策的長(zhǎng)期影響;(3)向公眾披露其對(duì)自動(dòng)化決策系統(tǒng)的運(yùn)行邏輯,以及所有相關(guān)的自我評(píng)估、外部評(píng)估的評(píng)審過(guò)程;(4)為受影響的個(gè)人或群體提供完善的正當(dāng)程序機(jī)制,確保權(quán)利得到有效救濟(jì)。{32} 我國(guó)《個(gè)人信息保護(hù)法(草案)》第54條所規(guī)定的個(gè)人信息風(fēng)險(xiǎn)評(píng)估規(guī)則,可以作為算法影響評(píng)估的法律依據(jù)之一。然而,《個(gè)人信息保護(hù)法(草案)》第54條所規(guī)定的風(fēng)險(xiǎn)評(píng)估制度是一種內(nèi)部自行執(zhí)行的要求,此類規(guī)則在實(shí)踐落地時(shí)容易被敷衍,故而應(yīng)當(dāng)要求風(fēng)險(xiǎn)評(píng)估報(bào)告涉及用戶權(quán)益的內(nèi)容需向社會(huì)發(fā)布,其中涉及到商業(yè)秘密的內(nèi)容可以在對(duì)外發(fā)布時(shí)做合理的刪減。盡管普通消費(fèi)者不太可能查閱這些評(píng)估報(bào)告,但社會(huì)第三方機(jī)構(gòu)可能查閱這些評(píng)估報(bào)告并為消費(fèi)者提供易理解的建議,這種“自評(píng)+公開(kāi)”的方式可以提高算法問(wèn)責(zé)制的有效性。
有些算法應(yīng)用是從外觀就可以直接感知的,有些算法應(yīng)用則是非常隱蔽的使用方式。人工智能產(chǎn)品運(yùn)營(yíng)者應(yīng)當(dāng)積極履行告知義務(wù),通過(guò)管理措施提高算法的透明度。根據(jù)《個(gè)人信息保護(hù)法(草案)》第18條的規(guī)定,個(gè)人信息處理者在處理個(gè)人信息前,應(yīng)當(dāng)以顯著方式、清晰易懂的語(yǔ)言向個(gè)人告知“處理方式”。當(dāng)利用自動(dòng)化決策的方法處理個(gè)人信息的,該自動(dòng)化決策的基本方式也應(yīng)當(dāng)作為主動(dòng)告知的內(nèi)容。此外,《個(gè)人信息保護(hù)法(草案)》第44條規(guī)定:個(gè)人對(duì)其個(gè)人信息的處理享有知情權(quán)。知情權(quán)要求數(shù)據(jù)控制者必須確保它們向個(gè)人清楚而簡(jiǎn)潔地解釋用戶畫像或自動(dòng)決策過(guò)程是如何運(yùn)作的。{33} 在人工智能技術(shù)的應(yīng)用中,不同場(chǎng)景應(yīng)當(dāng)作出不同的告知內(nèi)容。例如,針對(duì)雇主在招聘中使用算法的問(wèn)題,伊利諾伊州在2020年1月通過(guò)了《人工智能視頻面試法》(Artificial Intelligence Video Interview Act),它要求雇主主動(dòng)履行告知義務(wù)來(lái)提高算法對(duì)相對(duì)人的可解釋性:面試前書面通知應(yīng)聘者人工智能可用于分析應(yīng)聘者的面部表情,并考慮其是否適合應(yīng)聘職位;向申請(qǐng)人說(shuō)明所應(yīng)用的人工智能技術(shù)是如何工作的,以及它用來(lái)評(píng)估他們的一般特征類型。
算法外部問(wèn)責(zé)也稱之為算法審計(jì),是引入外部專業(yè)力量評(píng)估人工智能產(chǎn)品的運(yùn)行程序,調(diào)查算法開(kāi)發(fā)人員如何制定決策規(guī)則以及所有數(shù)據(jù)的實(shí)際來(lái)源。對(duì)個(gè)人重大權(quán)益存在現(xiàn)實(shí)影響的人工智能產(chǎn)品,應(yīng)當(dāng)通過(guò)獨(dú)立的第三方監(jiān)督其背后的決策和流程,從而避免或者化解算法危機(jī)。不少網(wǎng)絡(luò)運(yùn)營(yíng)者的后端是錯(cuò)綜復(fù)雜、混亂無(wú)序的,甚至發(fā)明了行話“algorithm”來(lái)專門指代程序員不想解釋的內(nèi)容。在ProPublica有關(guān)算法黑箱報(bào)告的刺激下,紐約市于2017年12月通過(guò)了《算法問(wèn)責(zé)法案》(Algorithmic Accountability Bill),要求成立一個(gè)包括專業(yè)人士、受影響者代表組成的特別工作組,評(píng)估本地區(qū)公共機(jī)構(gòu)利用自動(dòng)化決策或者算法輔助決策的情況,審查城市公共機(jī)構(gòu)如何利用算法作出影響個(gè)人生活的決定,以及其中是否存在任何的歧視。華盛頓州于2019年2月也提出了關(guān)于算法問(wèn)責(zé)的法案,要求公共事業(yè)部門在采用自動(dòng)化決策系統(tǒng)之前創(chuàng)建系統(tǒng)和數(shù)據(jù)報(bào)告,提交給州首席隱私官并向公眾在不少于30天的時(shí)間內(nèi)廣泛征求意見(jiàn)。{34} 歐盟在2020年10月發(fā)布的《人工智能民事責(zé)任的立法建議報(bào)告》中也指出,委員會(huì)應(yīng)評(píng)估高風(fēng)險(xiǎn)的人工智能系統(tǒng)中收集、記錄或存儲(chǔ)的數(shù)據(jù),促進(jìn)改善此類數(shù)據(jù)的可追溯性和可審計(jì)性。算法審計(jì)高度依賴審計(jì)機(jī)構(gòu)的專業(yè)性和獨(dú)立性,英國(guó)倫敦大都會(huì)警察局一直使用實(shí)時(shí)面部識(shí)別(Live Facial-recognition)輔助執(zhí)法檢查,埃塞克斯大學(xué)人權(quán)中心的獨(dú)立審計(jì)報(bào)告則認(rèn)為該系統(tǒng)存在缺陷,可能導(dǎo)致歧視等問(wèn)題。{35} 然而,倫敦大都會(huì)警察局則拒絕認(rèn)可該報(bào)告的結(jié)論。為了避免算法審計(jì)的偏差,應(yīng)當(dāng)采取整體、跨學(xué)科的視角,融合計(jì)算機(jī)科學(xué)、社會(huì)科學(xué)和實(shí)踐領(lǐng)域的專家,按照科學(xué)公允的審計(jì)標(biāo)準(zhǔn)進(jìn)行審查。需要說(shuō)明的是,對(duì)人工智能的要求原則上應(yīng)等同于人類的可解釋水平,避免過(guò)高或者過(guò)低的要求而導(dǎo)致算法審計(jì)脫離技術(shù)的實(shí)際發(fā)展階段。此外,法律上強(qiáng)制審計(jì)的對(duì)象,重點(diǎn)是具有高風(fēng)險(xiǎn)的社會(huì)公共事業(yè)和人工智能商業(yè)應(yīng)用產(chǎn)品,通過(guò)算法審計(jì)的人工智能產(chǎn)品可作為符合法律要求的可信任對(duì)象,有利于在風(fēng)險(xiǎn)預(yù)防之外提供技術(shù)部署的確定性。
五、結(jié)語(yǔ)
人工智能在社會(huì)的各個(gè)領(lǐng)域取得了令人矚目的成績(jī),如果運(yùn)用得當(dāng),它可以為社會(huì)、組織和個(gè)人帶來(lái)最佳的預(yù)期??萍歼M(jìn)步帶來(lái)的社會(huì)效應(yīng)恰如一個(gè)硬幣擁有正反面。{36} 然而,當(dāng)代人工智能技術(shù)面臨算法黑箱的風(fēng)險(xiǎn),可解釋的人工智能是技術(shù)的發(fā)展方向,也應(yīng)當(dāng)成為法律的必然要求。在技術(shù)上,第三代人工智能正在致力于解決連接主義人工智能不可解釋性的問(wèn)題,綜合運(yùn)用知識(shí)、數(shù)據(jù)、算法、算力實(shí)現(xiàn)安全、可靠、可信的未來(lái)人工智能技術(shù)。{37}事實(shí)上,算法并非完全不可解釋,不存在絕對(duì)的黑箱算法;對(duì)于黑箱模型,要想方設(shè)法將其轉(zhuǎn)化為“灰箱”,盡可能將其中的“黑暗宇宙”壓縮到最小空間。{38} 與此同時(shí),即便算法的某些部分不具有可解釋性,但是這種不確定性應(yīng)當(dāng)通過(guò)技術(shù)和管理相協(xié)調(diào)的措施予以風(fēng)險(xiǎn)評(píng)估和處理,達(dá)不到安全、可控標(biāo)準(zhǔn)且對(duì)有關(guān)主體合法利益產(chǎn)生重大不利影響的,則不應(yīng)當(dāng)作為可以上線應(yīng)用的產(chǎn)品或者技術(shù)。目前,個(gè)人信息保護(hù)法(草案)已經(jīng)為個(gè)人信息處理領(lǐng)域的可解釋人工智能系統(tǒng)創(chuàng)造了良好的法律環(huán)境,未來(lái)還需要通過(guò)專門的人工智能發(fā)展法圍繞“可解釋性”的目標(biāo),對(duì)各類高風(fēng)險(xiǎn)人工智能作出體系化的制度設(shè)計(jì),對(duì)可解釋的適用范圍、實(shí)現(xiàn)方式、審查標(biāo)準(zhǔn)等作出周延的安排。
注釋:
① High-Level Expert Group on Artificial Intelligence, A Definition of AI: Main Capabilities and Disciplines, European Commission, April 2019.
② Finale Doshi-Velez, Mason Kortz, Accountability of AI Under the Law: The Role of Explanation, Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet & Society Working Paper, 2017, p.10.
③ 夏瑩:《人工智能話語(yǔ)體系的建構(gòu)》,《光明日?qǐng)?bào)》2019年4月1日。
④ 劉德寰、李雪蓮:《大數(shù)據(jù)的風(fēng)險(xiǎn)和現(xiàn)存問(wèn)題》,《廣告大觀》(理論版)2013年第3期。
⑤ 王中江:《強(qiáng)弱相關(guān)性與因果確定性和機(jī)遇》,《清華大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2020年第3期。
⑥ Philipp Hacker,Ralf Krestel, Stefan Grundmann, Felix Naumann, Explainable AI Under Contract and Tort Law: Legal Incentives and Technical Challenges, Artificial Intelligence and Law, January 2020, p.13.
⑦{22} 魏遠(yuǎn)山:《算法解釋請(qǐng)求權(quán)及其權(quán)利范疇研究》,《甘肅政法學(xué)院學(xué)報(bào)》2020年第1期。
⑧{33} Article 29 Data Protection Working Party, Guidelines on Automated Individual Decision-Making and Profiling For The Purposes of Regulation 2016/679, February, 2018.
⑨ Margot E. Kaminsk, The Right to Explanation, Explained, Berkeley Technology Law Journal, 2019, 1(34), p.25.
⑩ 《民法典》第1037條規(guī)定:自然人可以依法向信息處理者查閱或者復(fù)制其個(gè)人信息;發(fā)現(xiàn)信息有錯(cuò)誤的,有權(quán)提出異議并請(qǐng)求及時(shí)采取更正等必要措施。自然人發(fā)現(xiàn)信息處理者違反法律、行政法規(guī)的規(guī)定或者雙方的約定處理其個(gè)人信息的,有權(quán)請(qǐng)求信息處理者及時(shí)刪除?!毒W(wǎng)絡(luò)安全法》第43條規(guī)定:個(gè)人發(fā)現(xiàn)網(wǎng)絡(luò)運(yùn)營(yíng)者違反法律、行政法規(guī)的規(guī)定或者雙方的約定收集、使用其個(gè)人信息的,有權(quán)要求網(wǎng)絡(luò)運(yùn)營(yíng)者刪除其個(gè)人信息;發(fā)現(xiàn)網(wǎng)絡(luò)運(yùn)營(yíng)者收集、存儲(chǔ)的其個(gè)人信息有錯(cuò)誤的,有權(quán)要求網(wǎng)絡(luò)運(yùn)營(yíng)者予以更正。網(wǎng)絡(luò)運(yùn)營(yíng)者應(yīng)當(dāng)采取措施予以刪除或者更正。
{11} 馬長(zhǎng)山:《人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第6期。
{12} [美]弗蘭克·帕斯奎爾:《黑箱社會(huì):控制金錢和信息的數(shù)據(jù)法則》,趙亞男譯,中信出版社2015年版,第259頁(yè)。
{13} Bernhard Waltl & Roland Vogl, Explainable Artificial Intelligence: The New Frontier in Legal Informatics, Jusletter IT, February 2018.
{14} 吳飛、廖彬兵、韓亞洪:《深度學(xué)習(xí)的可解釋性》,《航空兵器》2019年第1期。
{15} 轉(zhuǎn)引自許可、朱悅:《算法解釋權(quán):科技與法律的雙重視角》,《蘇州大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2020年第4期。
{16} 吳暉、韓海庭等:《大數(shù)據(jù)征信算法的可解釋性研究》,《征信》2020年第5期。
{17} 劉勝軍、趙長(zhǎng)林:《可解釋的人工智能的好處只是合規(guī)嗎》,《網(wǎng)絡(luò)安全和信息化》2019年第5期。
{18} [美]愛(ài)因斯坦:《愛(ài)因斯坦文集》第1卷,許良英等編譯,商務(wù)印書館2010年版,第409—410頁(yè)。
{19} 熊紅凱:《人工智能技術(shù)下對(duì)真理和生命的可解釋性》,《探索與爭(zhēng)鳴》2017年10期。
{20} Alejandro Barredo Arrietaa, Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI, Information Fusion, 2020, 58(6), pp.82-115.
{21} 申衛(wèi)星、劉云:《法學(xué)研究新范式:計(jì)算法學(xué)的內(nèi)涵、范疇與方法》,《法學(xué)研究》2020年第5期。
{23}{24} 林洹民:《個(gè)人對(duì)抗商業(yè)自動(dòng)決策算法的私權(quán)設(shè)計(jì)》,《清華法學(xué)》2020年第4期。
{25} Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin,How We Analyzed the COMPAS Recidivism Algorithm,May 23, 2016.
{26} David Gunning,Explainable Artificial Intelligence,DARPA 2017.
{27} 張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第3期。
{28} 參見(jiàn)徐鳳:《人工智能算法黑箱的法律規(guī)制》,《東方法學(xué)》2019年第6期。
{29} 張欣:《算法解釋權(quán)與算法治理路徑研究》,《中外法學(xué)》2019年第6期。
{30} H.R.2231-Algorithmic Accountability Act of 2019.
{31} Joshua New, How to Fix the Algorithmic Accountability Act, Centre for Data Innovation, September 23, 2019.
{32} Dillon Reisman, Jason Schultz,Kate Crawford & Meredith Whittaker, Algorithmic Impact Assessments: A Practical Framework For Public Agency Accountability, April 2018.
{34} 張欣:《從算法危機(jī)到算法信任:算法治理的多元方案和本土化路徑》,《華東政法大學(xué)學(xué)報(bào)》2019年第6期。
{35} Peter Fussey and Dr Daragh Murray, Independent Report on the London Metropolitan Police Services Trials of Live Facial Recognition Technology, June 2019.
{36} 趙秉志、詹奇?zhèn)ィ骸冬F(xiàn)實(shí)挑戰(zhàn)與未來(lái)展望:關(guān)于人工智能的刑法學(xué)思考》,《暨南學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2019年第1期。
{37} 張鈸、朱軍、蘇杭:《邁向第三代人工智能》,《中國(guó)科學(xué)·信息科學(xué)》2020年第9期。
{38} 劉東亮:《技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏》,《比較法研究》2020年第5期。
作者簡(jiǎn)介:劉云,清華大學(xué)法學(xué)院助理研究員,北京,100084。
(責(zé)任編輯? 李? 濤)