許 可 朱 悅
(1.對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué) 法學(xué)院,北京 100029;2.圣路易斯華盛頓大學(xué),美國(guó)密蘇里州 圣路易斯市 63101)
作為在“有限的時(shí)間內(nèi)一步步完成某個(gè)任務(wù)的過(guò)程”[1]1,算法并不神秘。千百年來(lái),人們一直使用著算法:巴比倫人處理法律事務(wù)時(shí)會(huì)用到算法,拉丁語(yǔ)老師檢查語(yǔ)法時(shí)會(huì)用到算法,醫(yī)生預(yù)測(cè)病情時(shí)會(huì)用到算法[2]42,中國(guó)《易經(jīng)》更是可以“預(yù)測(cè)”未來(lái)的終極算法。可只有在大數(shù)據(jù)、人工智能、云計(jì)算等嶄新的信息技術(shù)爆發(fā)的當(dāng)代,算法才得以脫胎換骨,成為支配社會(huì)乃至人類(lèi)自身的權(quán)力。在這個(gè)“算法社會(huì)”中[3],算法為我們規(guī)劃道路,為我們篩選搜索結(jié)果;為我們做手術(shù);為我們推薦雇主;為我們選擇朋友;為我們吟詩(shī)作樂(lè);甚至還能為我們打出社會(huì)信用分值。在某種意義上,算法決定了我們是誰(shuí),我們看到什么,以及我們?nèi)绾嗡伎肌?/p>
然而,正如人類(lèi)并非完美一樣,算法也絕非完美無(wú)缺,它可能出錯(cuò),甚至還可能存在“惡意”。
算法失靈、算法歧視、算法欺詐、算法壟斷等威脅引發(fā)了算法可責(zé)的呼吁。算法可責(zé)的前提是算法可知,而算法可知的有力工具便是算法可解釋。為此,歐盟議會(huì)智庫(kù)2019年發(fā)布《算法決策:機(jī)遇與挑戰(zhàn)》報(bào)告,將“可解釋性”視為算法決策系統(tǒng)中的關(guān)鍵議題。(1)參見(jiàn)Understanding algorithmic decision-making:Opportunities and challenges,http://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2019)624261.在全球范圍內(nèi)影響深遠(yuǎn)的《伯克利對(duì)人工智能面臨挑戰(zhàn)的系統(tǒng)性觀點(diǎn)》,亦將“可解釋性”視為人工智能算法“適時(shí)、穩(wěn)健、安全”的核心要素。[4]人們?nèi)找嫦嘈牛骸皩?duì)即將到來(lái)的、人工智能協(xié)作的時(shí)代,如果希冀理解信任管理這一時(shí)代,可解釋的人工智能將至關(guān)重要?!盵5]基于此,法律上的“算法解釋權(quán)”浮出水面。2018年,歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)以1995年歐盟《數(shù)據(jù)保護(hù)指令》中“獲知算法內(nèi)部邏輯的權(quán)利”為藍(lán)本,在“鑒于”部分第71條和正文第22條針對(duì)基于算法的“自動(dòng)化決策”,賦予個(gè)人干預(yù)的權(quán)利,允許其表達(dá)其觀點(diǎn),在評(píng)估后獲得該決策的解釋?zhuān)约皩?duì)決策提出質(zhì)疑。(2)因“鑒于”部分(至少在理論層面)并不具備法律約束力,有關(guān)GDPR是否確實(shí)設(shè)有獲解釋權(quán)一事,爭(zhēng)論仍未停歇。參見(jiàn)Kuner,Christopher,Lee A.Bygrave,and Christopher A.Docksey,Commentary on the EU General Data Protection Regulation.Forthcoming, Oxford University Press,p.538.受此影響,法國(guó)《數(shù)字共和國(guó)法》(French loi pour une Rl’publique numl’rique)規(guī)定,個(gè)人受到基于算法的行政決定時(shí),有權(quán)要求行政機(jī)關(guān)提供算法相關(guān)信息,包括但不限于算法對(duì)行政決定的影響程度和方式、使用參數(shù)的權(quán)重和適當(dāng)性、處理的數(shù)據(jù)及其來(lái)源。[6]
但是,正如古老的法諺所言:“法律不強(qiáng)人所難?!彼惴ń忉寵?quán)在立法層面的確立,不得不面臨著大量實(shí)踐的質(zhì)疑——“將解釋權(quán)形諸文字,是一回事;將之付諸實(shí)踐,則是另一回事?!盵7]具言之,可解釋性的范圍相當(dāng)模糊:算法何時(shí)需要解釋?zhuān)唧w需要何種解釋?zhuān)y以充分明確[8];其次,即便“解釋”之范圍已經(jīng)明晰,立法者眼中的“解釋”,也時(shí)常超出當(dāng)前技術(shù)的邊界;最后,假設(shè)可解釋性得以理想方式實(shí)踐,提供解釋是否能保障個(gè)體相應(yīng)權(quán)益,同樣充滿爭(zhēng)議。不僅如此,可解釋性還有可能帶來(lái)便利惡意攻擊[9]、侵害商業(yè)秘密[10]等消極后果。因此,無(wú)論是在歐盟層面,還是法國(guó)國(guó)內(nèi),目前算法解釋權(quán)均無(wú)執(zhí)法實(shí)例,處于邊緣位置。
立法和實(shí)踐的背離使得我們深思:在我國(guó)邁向智慧城市、建構(gòu)數(shù)字中國(guó)的宏大背景下,是否以及如何設(shè)計(jì)我國(guó)的算法解釋權(quán)制度,這不但是確保人工智能安全、可靠、可控發(fā)展的基石,而且是數(shù)字時(shí)代社會(huì)、經(jīng)濟(jì)、文化、政治復(fù)合風(fēng)險(xiǎn)預(yù)防的關(guān)鍵??紤]到正在制定的《個(gè)人信息保護(hù)法》可能借鑒歐盟GDPR,引入對(duì)自動(dòng)化算法決策的解釋權(quán)。這一問(wèn)題顯得更為迫切。為此,本文試圖追根溯源,從科學(xué)解釋的基礎(chǔ)理論出發(fā),探尋解釋算法的技術(shù)邊界,最終構(gòu)造出理論性和操作性兼具的“算法解釋權(quán)”制度。
作為科學(xué)解釋(Scientific Explanation)的子類(lèi)別,把握算法解釋權(quán)離不開(kāi)既有解釋理論的支持。在此,我們將從傳統(tǒng)解釋理論開(kāi)始,嘗試著為算法解釋權(quán)奠定扎實(shí)的理論基礎(chǔ)。
傳統(tǒng)解釋理論中,值得算法解釋考慮者有三:“演繹-律則”(Deductive-nomological model)解釋、“因果機(jī)制”(Causal mechanical model)解釋及“統(tǒng)計(jì)相關(guān)”(Statistical-relevance model)解釋。
從“演繹-律則解釋”角度看,“解釋”分為“解釋項(xiàng)”與“被解釋項(xiàng)”,并需同時(shí)滿足以下條件:首先,由解釋項(xiàng)出發(fā),經(jīng)歷演繹論證,可推得被解釋項(xiàng);其次,解釋項(xiàng)中應(yīng)當(dāng)至少包含一條恒真定律;再次,對(duì)上述推理過(guò)程,相應(yīng)定律應(yīng)當(dāng)是“必不可少的”,或者說(shuō),脫離相應(yīng)定律,則上述演繹推理無(wú)法成立;最后,“解釋項(xiàng)”中應(yīng)當(dāng)包含可由經(jīng)驗(yàn)證實(shí)的成分。[11]這一解釋尚無(wú)法直接運(yùn)用于算法解釋中。這是因?yàn)椋M管算法已在“發(fā)現(xiàn)高維數(shù)據(jù)中的精細(xì)結(jié)構(gòu)”等復(fù)雜問(wèn)題上取得顯著成就,但仍無(wú)法達(dá)到理論上對(duì)“推理”的要求。[12]目前,算法幾乎完全“由統(tǒng)計(jì)學(xué)驅(qū)動(dòng)”,在因果推理方面仍“相當(dāng)缺乏”。[13]如此,則很難在算法場(chǎng)景下定位此處理論所需的“定律”。
“因果機(jī)制”解釋理論的核心是事物的“過(guò)程”。[14]該理論假定:事物具備特定的“恒量”(Invariant quantity)。由恒量出發(fā),事物可能經(jīng)歷“因果過(guò)程”,即在特定時(shí)空范圍內(nèi),連續(xù)地顯現(xiàn)相應(yīng)恒量,或者經(jīng)歷“因果交互”,即不同事物間發(fā)生恒量的轉(zhuǎn)移或交換。因果機(jī)制的直觀性無(wú)法在算法解釋中凸顯,實(shí)際上,我們往往無(wú)法在算法解釋中確定對(duì)應(yīng)的“事物”或“恒量”。誠(chéng)然,借助近年迅速發(fā)展的可視化理論,我們可以定義“變量”或“特征”,并觀察算法訓(xùn)練中相應(yīng)變量或指標(biāo)變動(dòng)的過(guò)程。(3)可參見(jiàn)Yosinski,Jason,et al.“Understanding neural networks through deep visualization.”arXiv preprint arXiv:1506.06579(2015)。值得注意的是,相關(guān)工作與下一部分提及的、嘗試打開(kāi)“黑盒”的解釋之間存在密切聯(lián)系。但這些高度依賴(lài)具體模型又隨時(shí)可能因相應(yīng)領(lǐng)域進(jìn)展發(fā)生變化的定義[15],恐怕很難(至少在一般的場(chǎng)景下)擔(dān)任類(lèi)似“恒量”的角色。
相比前兩種理論,“統(tǒng)計(jì)相關(guān)”解釋的含義更為清晰。給定群體A,個(gè)體a(a屬于A),以及群體成員可能具備的特征X、Y、Z,對(duì)“a為何具備X”的統(tǒng)計(jì)相關(guān)解釋?zhuān)韵氯糠郑浩湟唬豢紤]其他因素時(shí),a具備X的概率,此為無(wú)條件概率;其二,計(jì)算“a具備X”對(duì)Y的條件概率(記為i),計(jì)算“a具備X”對(duì)Z的條件概率(記為ii),并分別與計(jì)算“a具備X”對(duì)Y和Z的條件概率(記為iii,便利起見(jiàn),再假設(shè)i=iii且ii≠iii)。此時(shí),Y與X“統(tǒng)計(jì)無(wú)關(guān)”,Z與X“統(tǒng)計(jì)相關(guān)”;其三,以上,Z是X的一個(gè)統(tǒng)計(jì)相關(guān)解釋?zhuān)琘不是X的統(tǒng)計(jì)相關(guān)解釋。以下實(shí)例有助理解上述定義:記A為全體人群,X為“疾病是否痊愈”,Y為“是否曾祈神”(不考慮或有的安慰劑效應(yīng)),Z為“是否遵醫(yī)囑服藥”,按上述步驟,可知Z解釋X,Y不能解釋X。這一理論勾勒了解釋需滿足的必要條件——如Salmon所述:“……對(duì)解釋而言,無(wú)關(guān)足以致命”。[16]該理論尚有兩優(yōu)點(diǎn):一是它容易推廣至算法場(chǎng)景中的相應(yīng)問(wèn)題;二是這一對(duì)照性的理論易與個(gè)體對(duì)算法解釋的期待相協(xié)調(diào)。這是因?yàn)椋瑐€(gè)體總由比較角度看待解釋?zhuān)煌瑫r(shí),個(gè)體僅對(duì)所有解釋因素中的一部分感興趣。從這個(gè)意義上看,較之側(cè)重演繹推理或因果機(jī)制的解釋而言,凸顯少數(shù)特定特征的統(tǒng)計(jì)相關(guān)解釋?zhuān)臃蟼€(gè)體的相應(yīng)期待。
實(shí)用主義解釋理論與傳統(tǒng)解釋理論相對(duì)稱(chēng),其在追求“實(shí)證層面足矣”的同時(shí),也在一定程度上放棄了理論的精確性。實(shí)用主義解釋理論的特色在于它依賴(lài)于解釋所發(fā)生的場(chǎng)景,以及發(fā)出和接受解釋者的興趣、信念等心理因素。[17]
在實(shí)用主義解釋看來(lái),解釋的優(yōu)劣在于是否滿足接受解釋者的興趣,它是心理學(xué)的和場(chǎng)景論的。質(zhì)言之,解釋首先是對(duì)照性的,意即人們常問(wèn)“為什么結(jié)果是這樣,而非那樣?”其次,人選擇性地(以有認(rèn)知偏差的方式)采納解釋?zhuān)怕驶蛟S不重要;最后,解釋植根于現(xiàn)實(shí)場(chǎng)景。循此,有效的解釋?xiě)?yīng)一般具備以下結(jié)構(gòu):提供解釋者提出一種解釋方案,并提出其他方案作為對(duì)照,再說(shuō)明為何前者,而非后者,是合適的解釋。無(wú)論是對(duì)照方案的選取,還是對(duì)選取方案的說(shuō)明,都依賴(lài)于被接受者的期待和具體場(chǎng)景。雖然,場(chǎng)景這一概念已無(wú)法進(jìn)一步化約,但從心理學(xué)出發(fā),不妨分出三種加以闡釋?zhuān)?1)物之組成部分或運(yùn)行過(guò)程;(2)物的功用;(3)物的類(lèi)別屬性。Lombrozo曾舉出以下例子:在說(shuō)明“為何特定輪胎是圓的,而不是方的或其他形狀”時(shí),按照上述場(chǎng)景的分類(lèi),答案分別是:(1)“蓋因輪胎制造工序如此”;(2)“因?yàn)檫@樣車(chē)子運(yùn)行最方便”;(3)“因?yàn)檫@是個(gè)輪胎”。[18]總之,在實(shí)用主義立場(chǎng)下,解釋總包含“對(duì)照”與“說(shuō)明”,后者又包含部分特定的形式。
較諸傳統(tǒng)解釋理論,實(shí)用主義解釋與算法解釋權(quán)更為契合。這首先因?yàn)?,將解釋?quán)定位于個(gè)體權(quán)益,特別是面臨“無(wú)助、焦慮”個(gè)體的權(quán)益上。故而,無(wú)論是事前設(shè)計(jì)規(guī)制方案,還是事后對(duì)規(guī)制效果進(jìn)行評(píng)估,都難以回避關(guān)乎“心理學(xué)特征”的事實(shí),即使特定權(quán)益表面上與心理無(wú)關(guān),如在算法成為人格延伸之部分時(shí),維護(hù)個(gè)體權(quán)益;又或在個(gè)體不當(dāng)暴露脆弱性時(shí)。只要希望通過(guò)解釋保護(hù)相應(yīng)權(quán)益,實(shí)用主義的考慮均在所難免。其次,實(shí)用主義的引入可適應(yīng)“實(shí)證主義”的追求。如Miller之總結(jié),“解釋通常具備社會(huì)性”。[19]在實(shí)踐中評(píng)估特定解釋時(shí),個(gè)體既會(huì)考慮相應(yīng)行為的動(dòng)機(jī),也會(huì)考慮具體的道德與規(guī)范。前者關(guān)涉心理,后者涉及場(chǎng)景。最后,盡管解釋方案應(yīng)盡量“普適”,伴隨算法的迅速迭代和對(duì)社會(huì)生活的廣泛滲透,尋求通用性的解釋方案已十分困難。對(duì)相應(yīng)解釋要求,須以強(qiáng)調(diào)標(biāo)準(zhǔn)靈活性、設(shè)置差異化規(guī)定或?qū)TO(shè)例外等方式調(diào)節(jié)。最后,實(shí)用主義已經(jīng)成為數(shù)字時(shí)代法律的底色。以數(shù)據(jù)隱私保護(hù)為例,美國(guó)學(xué)者Solove將其追溯到特定侵犯造成的“痛苦和壓力”[20];Nissenbaum更是提出了影響深遠(yuǎn)的“場(chǎng)景融貫”理論,將尊重?cái)?shù)據(jù)隱私定義為尊重特定場(chǎng)景中的適當(dāng)性原則,并尊重特定場(chǎng)景中有關(guān)數(shù)據(jù)流動(dòng)的原則。[21]
但還需說(shuō)明的是,實(shí)用主義解釋的包容性使之并不排斥傳統(tǒng)解釋理論。事實(shí)上,由于其對(duì)實(shí)證層面的強(qiáng)調(diào),其完全可以借鑒“統(tǒng)計(jì)相關(guān)”解釋?zhuān)栽鰪?qiáng)其說(shuō)服力。另外,實(shí)用主義解釋亦并非是一時(shí)一地的,它還要求一定程度的普適性[22],即必須關(guān)注是否廣泛適用于不同類(lèi)別的算法,就此而言,它屬于弱版本的“模型無(wú)關(guān)可解釋”(Model-agnostic explainable)。
徒法不足以自行。在代碼統(tǒng)治的世界中,一種紙面上的權(quán)利能否轉(zhuǎn)化為真實(shí)的主張,必須具有技術(shù)可行性,否則只能淪為具文。正如歐盟GDPR實(shí)踐所顯示,無(wú)論是“在技術(shù)上很難實(shí)施”,還是“未能與算法的實(shí)際運(yùn)行掛鉤”,都被視為歐盟算法解釋權(quán)未具實(shí)效的原因。[23]事實(shí)上,早在20世紀(jì)70年代,計(jì)算機(jī)科學(xué)家就致力于解釋特定類(lèi)型的算法,但目前仍分歧重重。[24]就此而言,算法解釋權(quán)的技術(shù)路徑毋寧說(shuō)是決定性的。倘若連奮戰(zhàn)于技術(shù)前沿的研究者都未能弄清算法的具體工作機(jī)理,賦予個(gè)體清晰知曉內(nèi)部邏輯的權(quán)利,無(wú)異于緣木求魚(yú)。而在更加積極的面向上,明確技術(shù)邊界所在,并初步說(shuō)明介入或改善技術(shù)的可能性,應(yīng)是與法律攜手,落實(shí)算法解釋權(quán)的必由之路。
與傳統(tǒng)算法不同,當(dāng)前的主流算法(如深度學(xué)習(xí))并不遵循數(shù)據(jù)輸入、特征提取、特征選擇、邏輯推理、預(yù)測(cè)的過(guò)程,而是由計(jì)算機(jī)直接從事物原始特征出發(fā),自動(dòng)學(xué)習(xí)和生成高級(jí)的認(rèn)知結(jié)果。在其輸入的數(shù)據(jù)和輸出的答案之間,存在著我們無(wú)法洞悉的“隱層”,它被稱(chēng)為“黑盒”(black box)。這里的“黑盒”并不只意味著不能觀察,還意味著即使計(jì)算機(jī)試圖向我們解釋?zhuān)覀円矡o(wú)法理解。哥倫比亞大學(xué)的機(jī)器人學(xué)家 Hod Lipson把這一困境形象地描述為“這就像是向一條狗解釋莎士比亞是誰(shuí)”。
在黑盒難以打破的前提下,所謂“黑盒之內(nèi)的解釋”,即只針對(duì)模型輸出,而無(wú)須或只需要非常優(yōu)先的模型內(nèi)部信息所進(jìn)行的解釋。根據(jù)信息量的多少,解釋可進(jìn)一步劃分至三個(gè)不同層面[25]:(1)影響算法決策因素的信息;(2)在特定范圍內(nèi),相關(guān)相應(yīng)因素,如何影響算法決策的信息;(3)應(yīng)如何變動(dòng)對(duì)應(yīng)因素,使算法輸出特定決策的信息。
目前,第(1)層解釋方案仍存在大量問(wèn)題待解。[26]首先,如何在難以解釋的算法中挖掘出相應(yīng)影響因素,目前仍在持續(xù)研究之中。[27]其次,假設(shè)對(duì)特定算法,確實(shí)可以得出上述信息,但未必能當(dāng)然地為個(gè)體所理解。因?yàn)樵诤芏鄨?chǎng)景中,深度學(xué)習(xí)等算法的目的之一,本就是學(xué)習(xí)有效但常常難以為個(gè)體所發(fā)現(xiàn)或表征的影響因素。而在另一部分場(chǎng)景中,開(kāi)發(fā)者同樣有可能需要將易于為人所理解但不易處理的因素,轉(zhuǎn)化為對(duì)處理有效但不易于理解的特征,此謂“特征工程”。[28]最后,即使相關(guān)因素均可為人所理解,由于相應(yīng)模型通常十分復(fù)雜,可能涉及成千上萬(wàn)個(gè)高維因素,而個(gè)體通常偏好簡(jiǎn)潔的、有選擇的解釋?zhuān)瑑H僅機(jī)械地展示對(duì)決策有所影響的因素,很可能明顯超出個(gè)體的認(rèn)知能力,進(jìn)而導(dǎo)致解釋無(wú)法達(dá)到預(yù)期的效果。
第(2)層解釋方案同樣不易,但并非不現(xiàn)實(shí)。至少,在一部分算法中,現(xiàn)有技術(shù)可實(shí)現(xiàn)以下三類(lèi)功能:在局部或全局范圍內(nèi),展示不同因素與算法間的相關(guān)性;在局部或全局范圍內(nèi),展示不同因素影響算法決策的程度;以及用本身具備可解釋性的算法,在局部或全局范圍內(nèi)近似其他不可解釋算法。雖然如此,由于第(1)層面信息的限制,如果我們沒(méi)有盡曉為個(gè)體感興趣且影響算法決策的變量,上述功能的發(fā)揮,自然會(huì)打折扣。不僅如此,除“局部可解釋模型不可知論解釋”(Local Interpretable Model-agnostic Explanations, LIME)方法等少數(shù)方法外,其他各類(lèi)型解釋?zhuān)嚯y以普遍適用。(4)此處對(duì)LIME方法的實(shí)際操作稍微展開(kāi):首先,在意欲解釋的樣本(以下稱(chēng)原樣本)的附近取一定量樣本;其次,將樣本輸入算法,得到相應(yīng)輸出;再次,以相當(dāng)輸出,訓(xùn)練一個(gè)可解釋模型;最后,將新模型輸出按到原樣本的距離(“距離”的具體形式相當(dāng)靈活)加權(quán)平均。
第(3)層解釋方案即“反事實(shí)解釋”理論,相應(yīng)研究已經(jīng)成為法學(xué)與計(jì)算機(jī)科學(xué)交叉領(lǐng)域的熱點(diǎn)。然而,無(wú)論是相應(yīng)理論本身,還是后續(xù)跟進(jìn)的研究(5)可參見(jiàn)Ustun,Berk,Alexander Spangher,and Yang Liu.“Actionable recourse in linear classification.”P(pán)roceedings of the Conference on Fairness,Accountability,and Transparency.ACM,2019,Artelt,André,and Barbara Hammer.“Efficient computation of counterfactual explanations of LVQ models.”,都存在僅適用于特定模型、僅適用于特定數(shù)據(jù)和/或不穩(wěn)健等特性。在考慮相應(yīng)解釋方案時(shí),當(dāng)較前兩層面而言更加謹(jǐn)慎,也更為可行。
較諸模擬、近似或預(yù)測(cè)“算法將如何決策”的黑盒解釋?zhuān)|及模型內(nèi)在機(jī)理、探討“算法為何如此決策”的“打開(kāi)黑盒解釋”方案,可能更符合人們對(duì)“解釋權(quán)”的通常理解。在一些風(fēng)險(xiǎn)高度敏感的場(chǎng)景中,如果不能從原理層面解釋算法,必然被人詬病。因此,我們不妨大膽預(yù)測(cè),簡(jiǎn)要討論相應(yīng)研究,并在法律規(guī)制中為技術(shù)進(jìn)展預(yù)留空間。
打開(kāi)黑盒的解釋可分為:(1)不尋求完全揭示算法工作原理,而僅致力于以個(gè)體能夠理解的方式,展示算法部分內(nèi)在細(xì)節(jié)的解釋?zhuān)?2)尋求建立能夠充分解釋“算法為何正當(dāng)”的理論。[29]
第(1)層解釋方案固然迅速發(fā)展,但針對(duì)具體算法,則存有四個(gè)方面限制:首先,不具備相應(yīng)專(zhuān)業(yè)知識(shí)的個(gè)體,不太可能理解此類(lèi)解釋。其次,蓋因此類(lèi)解釋多用于協(xié)助研究者或開(kāi)發(fā)者訓(xùn)練、調(diào)試或加固模型,類(lèi)似方案常僅針對(duì)特定模型之參數(shù),未必具備普適性;再次,倘若解釋過(guò)度暴露算法的特定內(nèi)部細(xì)節(jié),算法安全性可能因此顯著下降。例如,有不少研究意在充分展示神經(jīng)網(wǎng)絡(luò)中的“梯度”(Gradient),以便利開(kāi)發(fā)者訓(xùn)練其間參數(shù);然而,借助梯度信息,攻擊者可能據(jù)此推斷用于訓(xùn)練算法的原始數(shù)據(jù),從而造成嚴(yán)峻的隱私風(fēng)險(xiǎn)。類(lèi)似信息,亦有可能用于構(gòu)造欺騙算法的對(duì)抗樣本,進(jìn)而帶來(lái)難以忽視的安全問(wèn)題??傊摻忉尫桨?,未必能有效地促進(jìn)個(gè)人權(quán)益,還有可能帶來(lái)幅度相當(dāng)不確定的負(fù)面影響。損益相權(quán),總體宜持保守態(tài)度。
至于第(2)層解釋方案,至今仍無(wú)實(shí)質(zhì)進(jìn)展。針對(duì)深度學(xué)習(xí)的工作原理,即使是近兩年來(lái)最具影響力的“信息瓶頸”理論,也無(wú)法很好地解釋其他學(xué)者對(duì)算法內(nèi)部運(yùn)行的觀察。[30]若將解釋權(quán)錨定在這一層面上,無(wú)疑是“不可能完成的任務(wù)”。不過(guò),在思考可解釋性的中長(zhǎng)期愿景時(shí),其可以是考量因素之一。
除上述以“黑盒”為中心的解釋分類(lèi)外,還有一些解釋屬于幫助個(gè)體理解的算法的輔助性方案,如可視化、可交互以及舉例解釋。[31]這些解釋方案均可與前述“黑盒之內(nèi)的解釋”和“打破黑盒的解釋”并行不悖,同時(shí),憑借著工具性質(zhì),它們還能更有效地實(shí)現(xiàn)擬議的解釋方案。
“可視化、可交互”使得算法解釋的輸出更顯“用戶友好”。在未經(jīng)恰當(dāng)方式展示前,信息和邏輯必然是“冷冰冰”的、難以為個(gè)體所釋讀的數(shù)字。為此,算法可以在適當(dāng)?shù)那樾蜗?,以圖像、動(dòng)畫(huà)、表格展示解釋?zhuān)粚?duì)滿足特定形式的解釋?zhuān)梢赞D(zhuǎn)化為自然語(yǔ)言,以談話形式與個(gè)體溝通算法解釋(6)有關(guān)“自然語(yǔ)言”部分,可參見(jiàn)Hendricks,Lisa Anne,et al.“Generating counterfactual explanations with natural language.”arXiv preprint arXiv:1806.09809(2018);有關(guān)“交互”部分,見(jiàn)于Sokol,Kacper,and Peter A.Flach.“Glass-Box:Explaining AI Decisions With Counterfactual Statements Through Conversation With a Voice-enabled Virtual Assistant”.IJCAI.2018.;至于老年人、殘障人士及兒童等通常需要特別關(guān)注的情形,更需要以特別方式予以交互。反觀個(gè)體層面,在感知并評(píng)估算法解釋時(shí),個(gè)體可能會(huì)考慮以下因素中的一種或多種:解釋是否令人滿意;解釋是否完整;解釋是否足夠細(xì)致;解釋是否便利操作;解釋是否具備足夠細(xì)節(jié);解釋是否有用;鑒于相應(yīng)解釋?zhuān)惴ㄊ欠裰档眯湃?;等等。同時(shí),亦有部分衡量個(gè)體“好奇”或“理解”特定算法程度的指標(biāo):是否希望理解算法;是否希望知曉自己的理解是否正確;是否為算法之決策感到驚奇;是否期待理解算法的后續(xù)決策;是否希望理解,算法如何對(duì)不同輸入做出反應(yīng);等等。研究者可以借鑒心理學(xué)中用以評(píng)估的量表,繪制出“解釋滿意度量表”。放寬視野看,如何增強(qiáng)解釋方案的“用戶友好化”和“場(chǎng)景化”,以及評(píng)估相應(yīng)趨勢(shì)指標(biāo)的“進(jìn)化”,理應(yīng)納入解釋方案的構(gòu)想之中。此外,“舉例解釋”是選取少量算法決策實(shí)例,并通過(guò)說(shuō)明相應(yīng)決策的方式解釋算法的方案,其優(yōu)勢(shì)在于充分契合了個(gè)體認(rèn)知規(guī)律。一個(gè)有效的舉例解釋?zhuān)瑧?yīng)當(dāng)與實(shí)用主義解釋類(lèi)似,具備“對(duì)照性”及“選擇性”。當(dāng)算法決策出現(xiàn)異常、不符合個(gè)體預(yù)期時(shí),個(gè)體對(duì)解釋的需求通常尤為迫切,相應(yīng)解釋效果如何,也會(huì)影響后續(xù)對(duì)算法的信任。因此,舉例也是解釋方案應(yīng)當(dāng)考慮的重要成分。
“黑盒之內(nèi)的解釋”是算法解釋權(quán)實(shí)現(xiàn)的最主要方案,這不但源于其落在個(gè)體理解能力和技術(shù)層面邊界,更由于其與實(shí)用主義解釋理論相吻合。其中,由揭示影響決策因素信息,至決策相關(guān)性信息,再到預(yù)測(cè)反事實(shí)的決策,三層方案層層遞進(jìn),困難也層層提升。至于各類(lèi)打開(kāi)黑盒的解釋?zhuān)b于其間風(fēng)險(xiǎn)及實(shí)現(xiàn)障礙,在出現(xiàn)根本性突破之前,暫可作為方案長(zhǎng)期設(shè)想的考慮因素之一。最后,無(wú)論是便利個(gè)體感知的各類(lèi)可視化或交互技術(shù),還是重點(diǎn)突出的舉例解釋?zhuān)膳c“黑盒之內(nèi)的解釋”手段互補(bǔ)運(yùn)用。
作為一項(xiàng)法律制度,算法解釋權(quán)的困境根植于科技層面的障礙,即沒(méi)有充分考量技術(shù)上的實(shí)現(xiàn)程度,或者即使承認(rèn)“在機(jī)器學(xué)習(xí)等算法中,使其向用戶提供自動(dòng)化決策及與個(gè)體畫(huà)像相關(guān)的信息變得十分困難”,但依然堅(jiān)持認(rèn)為“如此困難不應(yīng)成為拒絕提供相應(yīng)信息的正當(dāng)理由”。[32]其間邏輯聯(lián)系,可謂“跳躍”。為了化解實(shí)踐與理論的鴻溝,我們認(rèn)為,算法解釋權(quán)的構(gòu)造必須秉承實(shí)用主義解釋理論,回歸人和算法使用場(chǎng)景,同時(shí)在技術(shù)設(shè)定的條件下,促進(jìn)法律與科技的耦合。
當(dāng)今,準(zhǔn)確界定應(yīng)當(dāng)提供解釋的主體,正變得愈發(fā)困難。這首先因?yàn)?,作為算法輸入之?dāng)?shù)據(jù),相應(yīng)收集與標(biāo)注工作日益專(zhuān)業(yè)化,并可能與算法開(kāi)發(fā)工作相分離。其次,在算法開(kāi)發(fā)過(guò)程中,伴隨Github等專(zhuān)業(yè)平臺(tái)的興盛,調(diào)用已有算法實(shí)現(xiàn)的現(xiàn)象日益頻繁。[33]由此,即使是算法的開(kāi)發(fā)者,亦未必清楚算法的具體實(shí)現(xiàn)機(jī)理。最后,人工智能芯片等封裝算法硬件的發(fā)展,在使算法之實(shí)現(xiàn)日趨專(zhuān)業(yè)化、標(biāo)準(zhǔn)化、模塊化的同時(shí),也進(jìn)一步延長(zhǎng)了算法開(kāi)發(fā)者與實(shí)際的算法使用者間的距離。此時(shí),如果令算法開(kāi)發(fā)者提供解釋?zhuān)鄳?yīng)主體可能亦難與解釋對(duì)象直接溝通;而令算法使用者提供解釋?zhuān)蛳鄳?yīng)主體未必知曉算法原理,無(wú)法提供有意義的信息。這是一個(gè)兩難選擇。
算法解釋權(quán)的范圍,同樣尚未完全解決。如前所述,除“具備法律效應(yīng)的自動(dòng)化決策”外,歐盟GDPR第22條及鑒于71條還涵蓋“產(chǎn)生(與法律效應(yīng)相似的)顯著效應(yīng)的”“自動(dòng)化決策”。這里可以明確的是,“自動(dòng)化決策”意味著個(gè)人無(wú)法對(duì)該決策過(guò)程施加有意義的影響,無(wú)論這個(gè)決策由行政機(jī)關(guān)還是私人部門(mén)做出,均在所不問(wèn)。歐盟29條工作組進(jìn)一步指出,計(jì)算機(jī)輔助決策系統(tǒng)并不在該自動(dòng)化決策范圍內(nèi)。但另一方面,關(guān)于何為“顯著影響”,一直語(yǔ)焉不詳。29條工作組認(rèn)為,若自動(dòng)化決策長(zhǎng)期或永久地嚴(yán)重影響了個(gè)人所關(guān)切的環(huán)境、行為和選擇,或?qū)е聜€(gè)人遭受排斥或歧視,則構(gòu)成“顯著影響”。對(duì)此,GDPR的序言舉出在線信貸申請(qǐng)和數(shù)字招聘的例子,試圖明晰。造就這一困境的同樣是一對(duì)張力:一方面,算法日益包羅萬(wàn)象、滲透?jìng)€(gè)體生活各層面,本身是引入解釋的理?yè)?jù)之一;另一方面,以上倘若對(duì)各色算法均要求解釋?zhuān)鄳?yīng)信息之?dāng)?shù)量,恐足以構(gòu)成對(duì)個(gè)體腦海的“DDoS攻擊”。
針對(duì)上述難題,我們建議不妨將算法解釋權(quán)與現(xiàn)有個(gè)人信息保護(hù)實(shí)踐深度整合。具言之,提供解釋的主體,是在特定場(chǎng)景下以算法處理其個(gè)人信息的“個(gè)人信息控制者”;提供解釋的對(duì)象,是自動(dòng)化決策的相對(duì)人;提供解釋的范圍,則僅針對(duì)特定場(chǎng)景中的算法。此處的“特定場(chǎng)景”,應(yīng)由個(gè)人信息保護(hù)規(guī)制體系中已經(jīng)或?qū)?huì)列明的重要或敏感場(chǎng)景界定,包括但不限于健康醫(yī)療,特別是涉及基因遺傳的領(lǐng)域;社會(huì)信用;金融業(yè)務(wù);用戶畫(huà)像;新聞的個(gè)性化推送;(足以識(shí)別至個(gè)體的)音視頻合成;對(duì)相應(yīng)個(gè)體產(chǎn)生法律效力的情形;以及后續(xù)被界定為重要或敏感的、使用算法處理個(gè)人信息的情形。
既有案例彰顯了上述解釋主體和解釋范圍的正當(dāng)性。在盧米斯訴威斯康星州一案(Loomis v.Wisconsin)中,威斯康星懲教署引用了“罪犯矯正替代性制裁分析管理系統(tǒng)”(COMPAS)的風(fēng)險(xiǎn)評(píng)估結(jié)果,將盧米斯的危險(xiǎn)等級(jí)認(rèn)定為“高風(fēng)險(xiǎn)”。盧米斯不服,認(rèn)為被告人有權(quán)知道被控告的理由,法院依據(jù)COMPAS的評(píng)估對(duì)其加以判決侵犯其正當(dāng)程序權(quán)利。(7)可參見(jiàn)Loomis v.Wisconsin,Petition for certiorari denied on June 26,2017,http://www.scotusblog.com/case-files/cases/loomis-v-wisconsin/.在“個(gè)人信息控制者”和“個(gè)人信息處理者”二分架構(gòu)下,開(kāi)發(fā)COMPAS系統(tǒng)的Nortpointe公司并不負(fù)有解釋算法的義務(wù),其商業(yè)秘密得以保護(hù),而威斯康星懲教署作為決定盧卡斯個(gè)人信息使用方式和用途的控制者,應(yīng)說(shuō)明其算法原理。
算法解釋權(quán)和個(gè)人信息保護(hù)的整合,既避開(kāi)了在技術(shù)話語(yǔ)中精確界定主體的困難,又可直接參照個(gè)人信息保護(hù)中已相對(duì)成熟的概念體系,尚可循個(gè)人信息保護(hù)在“場(chǎng)景性”方面的擴(kuò)展而不斷調(diào)整。從實(shí)踐層面觀察,該等整合將顯著便利解釋主體及監(jiān)管機(jī)構(gòu)。對(duì)前者而言,算法解釋權(quán)可因此成為個(gè)人信息合規(guī)的一部分,而不必分別實(shí)施。對(duì)后者而言,監(jiān)管工作亦可自然納入現(xiàn)有個(gè)人信息違法違規(guī)治理實(shí)踐。誠(chéng)然,如此設(shè)想,可能在一定程度上限制了解釋權(quán)的范圍;不過(guò),相比理論層面之完備,基于實(shí)用主義的立場(chǎng),以及“于現(xiàn)有規(guī)制框架下以審慎態(tài)度探索”的經(jīng)驗(yàn)教訓(xùn),盡力使算法解釋權(quán)平滑“嵌入”現(xiàn)有規(guī)制思路與實(shí)踐,應(yīng)是更加務(wù)實(shí)的選擇。
圍繞著算法解釋權(quán)的權(quán)利配置,國(guó)內(nèi)學(xué)界已有相當(dāng)?shù)难芯?。例如,張恩典認(rèn)為,基于算法模型的建模階段和算法模型運(yùn)用于特定主體兩階段,可以將算法解釋權(quán)分為以“算法功能為中心”的解釋權(quán)和以“具體決策為中心”的解釋權(quán),前者要求提供的信息包括自動(dòng)化決策系統(tǒng)的邏輯、意義、設(shè)想后果和一般功能,后者提供的信息包括特定自動(dòng)化決策的基本原理、理由和個(gè)體情況。[34]而張凌寒則立足于具體決策的解釋?zhuān)瑢⒔忉寵?quán)分為“事后的具體解釋”“事后更新解釋”,以及對(duì)自動(dòng)化決策者拒不提供解釋或沒(méi)有提供充分解釋的救濟(jì)。[35]在本文的脈絡(luò)下,之前的研究或者忽視了技術(shù)條件對(duì)解釋權(quán)的強(qiáng)烈制約,或者忽視了解釋權(quán)普適性的要求。在此基礎(chǔ)上,本文試圖從“黑盒內(nèi)之解釋”出發(fā),貼合技術(shù)場(chǎng)景和個(gè)體需求,提出三層次的算法解釋權(quán)構(gòu)造。
1.算法所需個(gè)人信息的解釋權(quán)
個(gè)人有權(quán)要求信息控制者(一般為算法使用者)在合理范圍內(nèi),展示輸入算法變量(個(gè)人信息)的權(quán)利。詳言之,(1)此處輸入變量的“合理范圍”,由相應(yīng)算法所處理的個(gè)人信息所準(zhǔn)確界定。在某種意義上,這可視為個(gè)人信息保護(hù)中已有規(guī)定的延伸——解釋主體需告知用戶,收集或處理個(gè)人信息的目的,是用于優(yōu)化上述目標(biāo),并進(jìn)而達(dá)到采用算法的目的。如果算法之輸入包含非個(gè)人信息變量,解釋主體可靈活決定是否展示。(2)對(duì)需要展示的個(gè)人信息,可分為“個(gè)人敏感信息”和“其他個(gè)人信息”。對(duì)于后者,解釋主體可以靈活選擇展示方式。比如,對(duì)多個(gè)性質(zhì)詳盡的變量(如工作單位、社交網(wǎng)絡(luò)、關(guān)注與點(diǎn)贊清單等),以主成分分析或其他方式,概括為同一變量(“社交”)展示。對(duì)其間“個(gè)人敏感信息”,主體宜單獨(dú)展示每一變量。(3)展示過(guò)程中,主體既可以采取簡(jiǎn)單的文字列表方式,也可以采取符合認(rèn)知特點(diǎn)的可視化方式。對(duì)兒童、老年人或殘疾人等或有不便的群體,鼓勵(lì)專(zhuān)門(mén)設(shè)計(jì)符合認(rèn)知特點(diǎn)的展示方式。
這一層次的解釋權(quán)有助于個(gè)體對(duì)算法產(chǎn)生較為全面的理解,從而促進(jìn)人格尊嚴(yán)、知情信任和理性選擇。此外,要求算法主體全面展現(xiàn)算法所處理的個(gè)人信息與個(gè)人敏感信息,既有利于個(gè)體及時(shí)發(fā)現(xiàn)個(gè)人信息保護(hù)中的風(fēng)險(xiǎn),又有利于觀察算法中是否可能存在需要不合理的歧視現(xiàn)象。同時(shí),鑒于此處僅要求說(shuō)明主體很可能本來(lái)便需要展示的內(nèi)容,并對(duì)具體展示形式賦予了較高程度的靈活性,不太可能造成安全或侵犯秘密的風(fēng)險(xiǎn)。而在解釋理論層面,將要求限縮至個(gè)人信息,尤其是個(gè)人敏感信息層面,符合解釋的“選擇性”要求。
對(duì)此,近年判決的NJCM cs/De Staat der Nederlanden案可資佐證。(8)可參見(jiàn)The SyRI case:a landmark ruling for benefits claimants around the world,https://privacyinternational.org/news-analysis/3363/syri-case-landmark-ruling-benefits-claimants-around-world在該案中,荷蘭政府采取算法,根據(jù)工作、稅收、教育、住房、養(yǎng)老金等多種個(gè)人信息,預(yù)測(cè)個(gè)體在領(lǐng)取社會(huì)救濟(jì)時(shí)舞弊的概率,卻沒(méi)有公開(kāi)這一算法使用的任何具體信息。海牙地區(qū)法院在援引ECHR第8條后判決:由于這一系統(tǒng)不夠透明、無(wú)法驗(yàn)證,對(duì)算法可能造成的隱私侵害缺乏足夠防護(hù),荷蘭政府侵犯了公民的隱私權(quán),應(yīng)當(dāng)立即停用這一系統(tǒng)。
2.算法邏輯的解釋權(quán)
個(gè)人有權(quán)要求信息控制者(一般為算法使用者)在合理的范圍內(nèi),說(shuō)明相應(yīng)算法變量(個(gè)人信息)對(duì)自動(dòng)化決策結(jié)果產(chǎn)生何種影響的權(quán)利。在具體實(shí)施層面,可作如下四方面展開(kāi):(1)這里的“相應(yīng)變量”僅包括上一層次已經(jīng)涵蓋的個(gè)人信息中參與實(shí)際分析推斷的信息。(2)決策結(jié)果需要在具體場(chǎng)景中界定,包括但不限于診療結(jié)果、信用分?jǐn)?shù)、信貸決定,等等。(3)“影響”有必要進(jìn)一步細(xì)化。在輸入(個(gè)人信息)與輸出(決策結(jié)果)均可排序的場(chǎng)合(9)可以排序的情形并不少見(jiàn),至少包括:數(shù)字變量;二元變量(例如男女,可用一對(duì)數(shù)字量化,數(shù)字的具體大小不重要);以及其他具備自然排序的變量(例如信用評(píng)級(jí)的分等)。,個(gè)人信息控制者可以展示數(shù)字化變量間的“正相關(guān)”與“負(fù)相關(guān)”,說(shuō)明當(dāng)輸入信息(在一定范圍內(nèi))上升/下降時(shí),輸出結(jié)果的高低變化。而在輸入或輸出無(wú)法排序的場(chǎng)合,可允許其靈活處理,既能顯示全局相關(guān),也可展示局部相關(guān),只需說(shuō)明相應(yīng)相關(guān)性的作用范圍即可。(4)個(gè)人信息控制者應(yīng)選擇用戶友好形式解釋說(shuō)明。針對(duì)個(gè)人,信息控制者應(yīng)幫助其理解特定信息如何影響決策結(jié)果,從而成為后續(xù)知曉并對(duì)抗算法歧視問(wèn)題的重要依據(jù);針對(duì)公眾,信息控制者應(yīng)幫助其了解富含不同社會(huì)價(jià)值的信息類(lèi)型以何種方向影響輸出,有利于更精細(xì)地評(píng)估算法是否恰當(dāng)平衡了各方社會(huì)利益。在解釋理論層面,此處要求的統(tǒng)計(jì)相關(guān)解釋?zhuān)勺鳛檫^(guò)于靈活、難以準(zhǔn)確界定的實(shí)用主義解釋的補(bǔ)充。
在K.W.ex rel.D.W.v.Armstrong一案中,愛(ài)達(dá)荷州聯(lián)邦地區(qū)法院已采取了上述解釋進(jìn)路。(10)可參見(jiàn)K.W.ex rel.D.W.v.Armstrong,789 F.3d 962(2015).多年來(lái),愛(ài)達(dá)荷州政府對(duì)智力或發(fā)育殘疾的個(gè)體進(jìn)行評(píng)估,基于多項(xiàng)問(wèn)卷數(shù)據(jù),計(jì)算個(gè)體每年領(lǐng)取的救濟(jì)金數(shù)目。2012年前后,相關(guān)算法缺陷致使救濟(jì)金計(jì)算錯(cuò)誤,嚴(yán)重影響被救濟(jì)人生活,4 000余人由此發(fā)起集體訴訟。法院判定,州政府需要充分告知民眾救濟(jì)金數(shù)目發(fā)生變化的具體原因,如問(wèn)卷特定項(xiàng)目的答案發(fā)生變化,或者是其他解釋和根據(jù)(Explanation/Justification)。
3.算法審計(jì)的解釋權(quán)
“算法審計(jì)”要求個(gè)人信息控制者(一般為算法使用者)針對(duì)模型、數(shù)據(jù)和決策結(jié)果留有明確記錄,從而在變動(dòng)對(duì)應(yīng)因素后,使算法輸出特定決策,以備監(jiān)管部門(mén)、第三方機(jī)構(gòu)或法院的核查,最終判斷算法是否將會(huì)導(dǎo)致歧視性或其他不當(dāng)后果。[36]與之前兩個(gè)層次的權(quán)利不同,該權(quán)利更傾向于事后的驗(yàn)證、測(cè)試和問(wèn)責(zé)。為此算法主體應(yīng)當(dāng)建構(gòu)出一套具有交互診斷分析能力的系統(tǒng),通過(guò)檢視輸入數(shù)據(jù)和重現(xiàn)執(zhí)行過(guò)程,來(lái)化解人們可能的質(zhì)疑?!胺词聦?shí)解釋”成為這一層面解釋權(quán)的核心。具體而言,個(gè)人信息控制者應(yīng)根據(jù)“若非 A 則無(wú) B”的反事實(shí)解釋原則,允許個(gè)體選取希冀達(dá)到之決策結(jié)果,并告知個(gè)體如何變動(dòng)現(xiàn)有輸入信息,可以實(shí)現(xiàn)所選輸出結(jié)果。
若任一層次的算法解釋權(quán)無(wú)法實(shí)現(xiàn),個(gè)體即可不接受該等算法做出的決定,并有權(quán)要求相應(yīng)算法使用者采取人工方式重新做出。此外,考慮到許多經(jīng)由算法的決定系其他事務(wù)的中介環(huán)節(jié)或必要前提,遭受不利影響的個(gè)體還可另行提出其他權(quán)利主張,以彌補(bǔ)損失。例如,在征信領(lǐng)域,央行征信報(bào)告和科技金融公司的信用評(píng)分在風(fēng)險(xiǎn)控制中的作用日益凸顯,如個(gè)體認(rèn)為其在貸款發(fā)放過(guò)程中被不公正對(duì)待,且央行或科技金融公司未能充分履行算法解釋的義務(wù),則個(gè)體可以據(jù)此要求賠償因之產(chǎn)生的“純粹經(jīng)濟(jì)損失”。
在人工智能的決策中,“準(zhǔn)確性”(accuracy)和“可解釋性”(interpretability)始終負(fù)相關(guān),換言之,容易向人類(lèi)解釋的算法的準(zhǔn)確性往往低于難以理解的算法。(11)可參見(jiàn)Will Goodrum,Finding balance:Model accuracy vs.interpretability in regulated environments,https://www.elderresearch.com/blog/predictive-model-accuracy-versus-interpretability.例如,深度學(xué)習(xí)、隨機(jī)森林(Random Forests)、支援向量機(jī)(Support Vector Machines, SVMs)等準(zhǔn)確性高的算法可解釋性相對(duì)較低,而可解釋性較高的信念網(wǎng)路(Belief Nets/Bayesian)或決策樹(shù)(Decision Trees)卻有著較低的準(zhǔn)確性。這種“準(zhǔn)確性”和“可解釋性”兩難,何嘗不是科技與法律的兩難。我們生活在一個(gè)科技領(lǐng)先于法律的時(shí)代,這是科學(xué)家的幸運(yùn),但亦是法律人的不幸!面對(duì)人之尊嚴(yán)和人之完整性被算法侵蝕的威脅,算法解釋權(quán)是不可或缺的制度因應(yīng)。但同時(shí)必須承認(rèn),迄今為止,我們還很難為算法提供有意義、普適且自洽的解釋理論,它需要數(shù)學(xué)和哲學(xué)等基礎(chǔ)學(xué)科方面的積淀,需要心理學(xué)和社會(huì)學(xué)提供的經(jīng)驗(yàn),算法解釋權(quán)的法律之途任重而道遠(yuǎn)。
蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2020年2期