謝 琳 曾俊森
內(nèi)容提要:厘清個(gè)體賦權(quán)路徑在算法決策治理中的定位才能合理界定個(gè)人權(quán)利范圍和效能。算法決策治理具有雙重目標(biāo),即尊重人的主體性和解決算法決策的功能性問(wèn)題。個(gè)體賦權(quán)存在個(gè)體能力不足、解釋意義不足、個(gè)體權(quán)利絕對(duì)化等限制,不宜將其作為解決算法決策功能性問(wèn)題的主要路徑。個(gè)體賦權(quán)的定位主要在于尊重人的主體性,通過(guò)構(gòu)建算法“正當(dāng)程序”為使用算法提供正當(dāng)性基礎(chǔ)。個(gè)體賦權(quán)的內(nèi)容應(yīng)當(dāng)體現(xiàn)為通過(guò)透明權(quán)利適度提高算法透明度,以便于個(gè)人了解自動(dòng)化決策并提出觀點(diǎn)和質(zhì)疑。解決算法決策功能性問(wèn)題的重心應(yīng)當(dāng)轉(zhuǎn)向以“風(fēng)險(xiǎn)預(yù)防規(guī)則”和協(xié)同治理模式為核心的個(gè)人信息影響評(píng)估,形成全過(guò)程治理。
隨著算法技術(shù)的深入發(fā)展與廣泛應(yīng)用,算法權(quán)力擴(kuò)張到社會(huì)的各個(gè)方面。算法決策可能對(duì)個(gè)人產(chǎn)生約束效果并嚴(yán)重影響個(gè)人權(quán)利與自由,因此算法決策從最初的計(jì)算機(jī)概念轉(zhuǎn)變?yōu)樯鐣?huì)治理的對(duì)象。個(gè)體賦權(quán)路徑是算法決策治理中的重要路徑,我國(guó)《個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)保法》)與歐盟《通用數(shù)據(jù)保護(hù)條例》都規(guī)定了與算法決策有關(guān)的個(gè)體權(quán)利,但是相關(guān)研究對(duì)個(gè)體賦權(quán)路徑的權(quán)利范圍與效能爭(zhēng)議較大。①參見(jiàn)張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學(xué)》2019年第6期;沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評(píng)論》2019年第6期。如何理解和構(gòu)建算法決策治理中的個(gè)體權(quán)利需要綜合考量個(gè)體賦權(quán)路徑的定位與限度,本文通過(guò)反思針對(duì)算法決策的個(gè)體權(quán)利的規(guī)定,厘清個(gè)體賦權(quán)在算法決策治理中的定位,為我國(guó)未來(lái)算法治理提供借鑒。
算法決策,又稱自動(dòng)化決策,是指“通過(guò)計(jì)算機(jī)程序自動(dòng)分析、評(píng)估個(gè)人的行為習(xí)慣、興趣愛(ài)好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動(dòng)”。②《中華人民共和國(guó)個(gè)人信息保護(hù)法》第七十三條。在算法決策應(yīng)用于社會(huì)的過(guò)程中,算法妨害與算法黑箱問(wèn)題成為算法決策治理的重要?jiǎng)右?,其反映了算法治理的雙重目標(biāo),即解決算法決策的功能性問(wèn)題與尊重個(gè)體的主體性問(wèn)題。
在數(shù)學(xué)意義上,算法是指“通過(guò)特定計(jì)算將輸入數(shù)據(jù)轉(zhuǎn)換為輸出結(jié)果的編碼過(guò)程”。③Tarleton Gillespie,The Relevance of Algorithms,in Tarleton Gillespie et al.,Media Technologies:Essays on Communication,Materiality,and Society,Cambridge,The MIT Press,2014,p.167.然而,當(dāng)算法廣泛應(yīng)用于社會(huì)時(shí),就成了具有社會(huì)意義的技術(shù),社會(huì)生活的每個(gè)方面都可能受其影響。算法決策的普及化使我們生活在一個(gè) “評(píng)分社會(huì)”(Scored society)④See Danielle Keats Citron & Frank Pasquale,The Scored Society:Due Process for Automated Predictions,89 Washington Law Review 1(2014).或者 “黑箱社會(huì)”(Black box society)。⑤See Frank Pasquale,The Black Box Society:The Secret Algorithm That Control Money and Information,Harvard University Press,pp.10-11(2015).通過(guò)收集并分析我們的數(shù)據(jù),算法對(duì)我們生活的方方面面進(jìn)行評(píng)價(jià),如人們買了什么、做了什么,人們?nèi)绾嗡伎?、如何工作,人們的關(guān)系網(wǎng)如何以及他們?nèi)绾翁幚韨€(gè)人的關(guān)系。⑥這類信息是關(guān)乎特定個(gè)人的“預(yù)測(cè)個(gè)人信息”,個(gè)人對(duì)其有被他人操控的疑慮和恐慌,參見(jiàn)邢會(huì)強(qiáng):《大數(shù)據(jù)交易背景下個(gè)人信息財(cái)產(chǎn)權(quán)的分配與實(shí)現(xiàn)機(jī)制》,載《法學(xué)評(píng)論》2019年第6期。這類評(píng)價(jià)涉及我們生活的每個(gè)方面,如市場(chǎng)營(yíng)銷、保險(xiǎn)、教育、就業(yè)、行政、司法等,一旦自動(dòng)化決策過(guò)程存在歧視、偏見(jiàn)、錯(cuò)誤甚至操縱行為,其將對(duì)個(gè)體甚至某個(gè)群體帶來(lái)巨大的外部成本。舉例來(lái)說(shuō),普林斯頓大學(xué)的研究人員通過(guò)現(xiàn)有的算法AI軟件系統(tǒng)分析了220萬(wàn)個(gè)單詞,發(fā)現(xiàn)歐洲人的名字比非洲裔美國(guó)人的名字評(píng)分更高,“女人”和“女孩”這兩個(gè)詞更有可能與藝術(shù)聯(lián)系在一起,而不是與科學(xué)和數(shù)學(xué)有關(guān),科學(xué)和數(shù)學(xué)與男性的相關(guān)程度更高。⑦See Adam Hadhazy,Biased Bots:Artificial-Intelligence Systems Echo Human Prejudices,Princeton University,April 18,2017,https://www.princeton.edu/news/2017/04/18/biased-bots-artificial-intelligence-systems-echo-human-prejudices,December 15,2021.如果算法基于以上的發(fā)現(xiàn)決定就業(yè)機(jī)會(huì)或者教育機(jī)會(huì),非洲裔美國(guó)人和女性將受到不公平對(duì)待。實(shí)際上,亞馬遜平臺(tái)的在線招聘算法系統(tǒng)曾被發(fā)現(xiàn)存在性別歧視。⑧See James,Vincent,Amazon Reportedly Scraps Internal AI Recruiting Tool That Was Biased against Women,The Verge,October 10,2018.https://www.theverge.com/2018/10/10/17958784/ai-recruiting-tool-bias-amazon-report,December 15,2021.更有甚者,算法決策可能成為操縱特定個(gè)體或群體評(píng)價(jià)的手段。如果算法評(píng)價(jià)成為了社會(huì)活動(dòng)的重要評(píng)價(jià)標(biāo)準(zhǔn)甚至唯一標(biāo)準(zhǔn),人的弱點(diǎn)與缺陷將在算法面前暴露無(wú)遺,掌握技術(shù)優(yōu)勢(shì)的人很可能會(huì)改變?nèi)藗兊奶匦裕绺淖兤湎M(fèi)態(tài)度甚至是觀點(diǎn)立場(chǎng)。人的主體性將在算法技術(shù)中消失殆盡。隨著算法評(píng)價(jià)的增加與深入,社會(huì)上的人將形成屬于自己的數(shù)字畫像,每個(gè)數(shù)字畫像對(duì)應(yīng)著特定的評(píng)分、特征甚至是弱點(diǎn)?;诋嬒裨u(píng)分不斷增加的歧視、排斥與操縱將會(huì)加深人的脆弱性。在使用算法的過(guò)程中,算法歧視、算法錯(cuò)誤與算法操縱形成了對(duì)社會(huì)中的個(gè)體或群體的妨害。這類妨害具有典型的非競(jìng)爭(zhēng)性和非排他性的特征,如同污染一般是一個(gè)程度問(wèn)題,算法針對(duì)的可能不是特定的主體或者群體,而是所有人都或多或少受到影響。⑨[美]羅伯特·考特、托馬斯·尤倫:《法和經(jīng)濟(jì)學(xué)》(第6版),史晉川等譯,上海人民出版社2012年版,第156頁(yè)。
算法妨害源自其無(wú)法自洽的功能邏輯。算法廣泛應(yīng)用基于一種功能的邏輯,傳統(tǒng)的人類決策充滿著歧視、認(rèn)知偏差、錯(cuò)誤、效率低等缺陷,自動(dòng)化決策被寄予解決人類決策缺陷的厚望。算法作為一種技術(shù)仿佛是中立、客觀且不存在任何偏見(jiàn)的。⑩技術(shù)中立的含義主要包含了:功能中立、問(wèn)責(zé)中立與價(jià)值中立。價(jià)值中立是技術(shù)中立原則的核心部分。參見(jiàn)鄭玉雙:《破解技術(shù)中立難題——法律與科技之關(guān)系的法理學(xué)再思》,載《華東政法大學(xué)學(xué)報(bào)》2018年第1期。然而,算法并非如其所宣稱般中立。相反,算法可以使現(xiàn)有的刻板印象和社會(huì)隔閡永久存在。正如Cathy O’Neil所言,“算法模型只是鑲嵌在數(shù)學(xué)中的觀點(diǎn)”,算法實(shí)際上是現(xiàn)實(shí)世界的數(shù)學(xué)模型。?See Cathy O’Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown Publishing Group,2016,p.21.在算法設(shè)計(jì)上,算法的對(duì)象、輸入的內(nèi)容、數(shù)據(jù)的加權(quán)比重、算法的類型等方面無(wú)不由人類來(lái)決定。在數(shù)據(jù)輸入上,所有的數(shù)據(jù)均來(lái)自于現(xiàn)實(shí)社會(huì),這些數(shù)據(jù)本身就可能帶有偏見(jiàn)與刻板印象,例如:性別、膚色、種族等原生敏感數(shù)據(jù),在深度分析下,郵政編碼、IP地址等關(guān)聯(lián)數(shù)據(jù)有可能成為帶有歧視的敏感數(shù)據(jù)。?參見(jiàn)謝琳:《大數(shù)據(jù)時(shí)代個(gè)人信息邊界的界定》,載《學(xué)術(shù)研究》2019年第3期。即使在復(fù)雜甚至能夠產(chǎn)生“意識(shí)”的算法模型中,如機(jī)器自主學(xué)習(xí)、人工智能等,人類的觀點(diǎn)與選擇都貫穿于算法建構(gòu)、訓(xùn)練、監(jiān)管的全過(guò)程。?鄭智航教授歸納了算法歧視的三種基本類型,包括:偏見(jiàn)代理的算法歧視(“關(guān)聯(lián)歧視”)、特征選擇的算法歧視、大數(shù)據(jù)(算法)“殺熟”。參見(jiàn)鄭智航、徐昭曦:《大數(shù)據(jù)時(shí)代算法歧視的法律規(guī)制與司法審查——以美國(guó)法律實(shí)踐為例》,載《比較法研究》2019年第4期。在“技術(shù)中立”原則的庇護(hù)下,算法決策掩蓋了其所存在與人類決策一樣的問(wèn)題。算法決策并非價(jià)值中立,其不能擺脫存在歧視、錯(cuò)誤與偏差的問(wèn)題。算法模型不僅僅是由數(shù)據(jù)訓(xùn)練的,還需要人類進(jìn)行設(shè)計(jì)并有選擇性地對(duì)數(shù)據(jù)進(jìn)行分類和篩選,這些選擇不只是關(guān)于功能、利潤(rùn)和效率,它們本質(zhì)上是關(guān)乎道德的。
算法妨害實(shí)際上是一種不公正的算法技術(shù)使用,算法決策功能性問(wèn)題——歧視、錯(cuò)誤、操縱對(duì)無(wú)辜的主體施加了過(guò)高的成本,在沒(méi)有法律的介入下受到算法影響的主體難以通過(guò)協(xié)商排除算法妨害。因此,解決算法妨害問(wèn)題的核心是通過(guò)問(wèn)責(zé)制將算法決策的功能性問(wèn)題所帶來(lái)的外部成本內(nèi)部化。問(wèn)責(zé)制關(guān)鍵在于建立明確的責(zé)任鏈,個(gè)人或組織需要對(duì)法律和道德義務(wù)承擔(dān)責(zé)任,并以透明的方式披露結(jié)果。?See Jonathan Fox,The Uncertain Relationship Between Transparency and Accountability,17 Development in Practice 663(2007).算法問(wèn)責(zé)為算法外部成本設(shè)定相應(yīng)的責(zé)任,成為相關(guān)主體在使用算法決策時(shí)必須考慮的成本,有助于引導(dǎo)和激勵(lì)其采取措施減少算法決策功能性問(wèn)題。
算法黑箱所形成的信息不對(duì)稱導(dǎo)致算法決策問(wèn)責(zé)的難度加大。通過(guò)對(duì)知識(shí)形成排他性占有甚至自主生產(chǎn)知識(shí),算法制造了信息不對(duì)稱以獲得信息優(yōu)勢(shì),形成強(qiáng)大的算法權(quán)力,引發(fā)社會(huì)的不安與擔(dān)憂。?參見(jiàn)張凌寒:《權(quán)力之治:人工智能時(shí)代的算法規(guī)制》,上海人民出版社2021年版,第27—50頁(yè)。
算法黑箱是指人類無(wú)法理解算法作出的結(jié)果和決策,其指向算法的不透明特性。算法黑箱能夠減少外界對(duì)算法決策過(guò)程的影響,但是算法黑箱使得算法過(guò)程難以得到解釋。學(xué)者Bruell指出,算法不透明的原因主要有三種,包括:故意不透明、外行的不透明(Illiterate opacity)、內(nèi)在的不透明。?Jenna Burrell,How the Machine“Thinks”:Understanding Opacity in Machine Learning Algorithms,3 Big Data & Society 1(2016).故意不透明是指人類的算法系統(tǒng)的內(nèi)部運(yùn)作被故意隱藏起來(lái)。故意不透明可能基于商業(yè)秘密保護(hù)而存在,也可能是為了通過(guò)系統(tǒng)操縱他人。外行的不透明是指由于只有那些擁有專業(yè)技術(shù)知識(shí)的人才能理解這個(gè)體系的運(yùn)作方式,因此,對(duì)外行而言,該體系的內(nèi)部運(yùn)作是不透明的。外行不透明性意味著對(duì)于許多普通民眾來(lái)說(shuō)算法決策難以被知曉和預(yù)測(cè)。內(nèi)在的不透明是指由于人類和算法對(duì)世界的理解存在根本性的不匹配,算法自我運(yùn)作的內(nèi)部是不透明的。以往人類對(duì)算法的干預(yù)和解釋主要在特定任務(wù)型的算法,但是基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的算法解釋發(fā)展使得人類干預(yù)和解釋捉襟見(jiàn)肘,甚至專業(yè)人員也越來(lái)越難以解釋算法的運(yùn)作過(guò)程。?Celine Castets-Renard,Accountability of Algorithms in the GDPR and Beyond:A European Legal Framework on Automated Decision-Making,30 Fordham Intellectual Property,Media & Entertainment Law Journal 91,101(2019).這種技術(shù)允許算法搜索和分析大量的數(shù)據(jù),以發(fā)掘算法模式和相關(guān)性并成為決策的基礎(chǔ)。算法難以解釋使得相關(guān)性和推論取代了因果關(guān)系,算法問(wèn)責(zé)可能會(huì)舉步維艱。此外,在算法決策過(guò)程當(dāng)中,不透明度使得個(gè)人無(wú)法知曉算法對(duì)自己的影響,人在算法決策下可能會(huì)被物化,喪失其主體性和人格尊嚴(yán)。
算法權(quán)力擴(kuò)張本質(zhì)上是算法通過(guò)不透明特性制造信息不對(duì)稱形成優(yōu)勢(shì)地位。算法權(quán)力擴(kuò)張可能會(huì)導(dǎo)致算法問(wèn)責(zé)的困難和社會(huì)擔(dān)憂的加重。近年來(lái),對(duì)自動(dòng)化決策不透明性危機(jī)的擔(dān)憂逐漸凸顯,如2017年,“美國(guó)大數(shù)據(jù)審判第一案”——盧米斯上訴美國(guó)威斯康星州案(又稱“Compas案”)?Loomis v.Wisconsin,881 N.W.2d 749(Wis.2016),cert.denied,137 S.Ct.2290(2017).、“紐約大學(xué)法學(xué)院布倫南司法中心與紐約州警察部門案”。?Brennan Ctr.for Justice at N.Y.Univ.v.N.Y.C.Police Dep’t,2017 N.Y.Misc.LEXIS 5138,at*5(N.Y.Sup.Ct.Dec.22,2017).算法透明成為了解決算法信息不對(duì)稱的重要途徑。透明與問(wèn)責(zé)是一對(duì)相互聯(lián)系的概念,在實(shí)踐中,透明與問(wèn)責(zé)經(jīng)常被視為良好治理的基礎(chǔ)與支柱。提高透明度有助于確認(rèn)責(zé)任鏈條以實(shí)現(xiàn)有效的問(wèn)責(zé)制。此外,提高透明度有助于個(gè)人與組織參與算法治理以增強(qiáng)社會(huì)對(duì)算法決策的信任。明智地使用透明度能夠創(chuàng)造一個(gè)良性循環(huán),合法性、公民參與和信任將導(dǎo)致一場(chǎng)動(dòng)態(tài)的算法治理變革。
綜上,解決算法的功能性問(wèn)題與尊重人的主體性(人格尊嚴(yán))是算法決策治理的核心目標(biāo)。首先,算法決策如人類決策一般可能存在歧視、錯(cuò)誤、操縱等功能性問(wèn)題,“算法黑箱”進(jìn)一步掩蓋了這些問(wèn)題并加大了算法問(wèn)責(zé)的難度。其次,算法決策對(duì)個(gè)體產(chǎn)生負(fù)面影響,甚至可能使其被“物化”,“算法黑箱”導(dǎo)致個(gè)體難以發(fā)現(xiàn)算法的問(wèn)題并參與到對(duì)算法的質(zhì)疑當(dāng)中,加深了個(gè)體的擔(dān)憂與不安。算法決策治理的兩個(gè)目標(biāo)實(shí)際上與行政法領(lǐng)域中對(duì)政府決策的監(jiān)管目的相似。過(guò)去,政府決策也曾被視為“黑箱”決策,法律一方面需要監(jiān)管政府決策中的功能性問(wèn)題,如決策錯(cuò)誤、不公平對(duì)待、對(duì)民眾的操縱,另一方面需要通過(guò)提高透明度以實(shí)現(xiàn)有效的問(wèn)責(zé)制,同時(shí)增強(qiáng)個(gè)體對(duì)政府決策的理解和質(zhì)疑能力,以尊重個(gè)體的主體性,為政府決策提供正當(dāng)性基礎(chǔ)。當(dāng)然,技術(shù)的深入發(fā)展使算法決策的問(wèn)題可能比傳統(tǒng)的政府決策問(wèn)題更為突出。但是,算法決策治理的核心目標(biāo)同樣在于解決算法決策功能性問(wèn)題以及個(gè)體主體性問(wèn)題。為應(yīng)對(duì)算法決策風(fēng)險(xiǎn),我國(guó)《個(gè)保法》賦予了個(gè)體自動(dòng)化決策拒絕權(quán)、知情權(quán)與要求個(gè)人信息處理者解釋說(shuō)明權(quán),并規(guī)定了個(gè)人信息影響評(píng)估制度。
《個(gè)保法》第二十四條第三款賦予了個(gè)體自動(dòng)化決策拒絕權(quán),個(gè)人有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出對(duì)個(gè)人權(quán)益有重大影響的決定。通過(guò)行使該項(xiàng)積極權(quán)利,個(gè)體成為了算法決策治理中的主體。個(gè)體賦權(quán)強(qiáng)化個(gè)體應(yīng)對(duì)和控制技術(shù)風(fēng)險(xiǎn)的能力,增強(qiáng)個(gè)體在技術(shù)威脅中的主體性,有助于解決個(gè)體主體性問(wèn)題。?See Margot E.Kaminski,Binary Governance:Lessons from the GDPR’s Approach to Algorithmic Accountability,92 Southern California Law Review 1529,1553-1557(2019).但是,在解決算法決策功能性問(wèn)題上,個(gè)體存在感知風(fēng)險(xiǎn)能力與算法問(wèn)責(zé)能力不足的問(wèn)題。同時(shí),自動(dòng)化決策拒絕權(quán)面臨權(quán)利絕對(duì)化的問(wèn)題,可能會(huì)阻礙信息的合理流通。自動(dòng)化決策拒絕權(quán)的核心定位在于通過(guò)賦予個(gè)體控制權(quán)利解決尊重個(gè)體主體性問(wèn)題,而非解決算法決策功能性問(wèn)題。
縱觀《個(gè)保法》第二十四條,處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策被加以保證透明度和結(jié)果公平公正的義務(wù),這意味著處理者需要告知個(gè)人其正在使用自動(dòng)化決策。當(dāng)自動(dòng)化決策對(duì)個(gè)人權(quán)益有重大影響時(shí),個(gè)人有權(quán)要求說(shuō)明以及拒絕僅基于自動(dòng)化決策方式作出的決定(以下簡(jiǎn)稱“全自動(dòng)化決策”)。在個(gè)體沒(méi)有行使拒絕權(quán)時(shí),《個(gè)保法》并未賦予個(gè)體其他質(zhì)疑自動(dòng)化決策的權(quán)利或者要求信息控制者實(shí)施保障個(gè)體提出質(zhì)疑的措施。因此,個(gè)人信息處理者在保證決策的透明度和結(jié)果公平、公正并保障個(gè)人的提供解釋說(shuō)明權(quán)而個(gè)體沒(méi)有行使拒絕權(quán)的情形下,即可對(duì)個(gè)體作出有重大影響的全自動(dòng)化決策。歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡(jiǎn)稱“GDPR”)第22條第1款同樣針對(duì)自動(dòng)化決策作出類似“自動(dòng)化決策拒絕權(quán)”的規(guī)定,基于全自動(dòng)化過(guò)程進(jìn)行決策且對(duì)數(shù)據(jù)主體產(chǎn)生法律效力或類似的重大影響時(shí),數(shù)據(jù)主體有權(quán)不受該決定約束。?Regulation(EU)2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data,and repealing Directive 95/46/EC(General Data Protection Regulation),Art.22.只有符合第22條第2~4款的例外情形時(shí),數(shù)據(jù)控制者才能使用上述的自動(dòng)化決策。?例外情形包括:(1)該決策為訂立合同或履行合同所必需;(2)獲得歐盟或成員國(guó)法律授權(quán),且提供了適當(dāng)?shù)谋U洗胧?;?)決策基于數(shù)據(jù)主體的明確同意。在前述第一和第三項(xiàng)例外情形下,數(shù)據(jù)控制者至少保障數(shù)據(jù)主體有權(quán)獲得人為干預(yù),表達(dá)其觀點(diǎn)與質(zhì)疑該決定。在使用個(gè)人敏感信息的情形下,還需要符合第9條第2款(a)項(xiàng)或(g)項(xiàng)的相關(guān)規(guī)定并輔以適當(dāng)?shù)谋U洗胧?。我?guó)有學(xué)者稱其為“反自動(dòng)化決策權(quán)”或“脫離自動(dòng)化決策權(quán)”。?張建文、李錦華:《歐盟個(gè)人數(shù)據(jù)保護(hù)法上的反自動(dòng)化決策權(quán)研究》,載《重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第3期;唐林垚:《“脫離算法自動(dòng)化決策權(quán)”的虛幻承諾》,載《東方法學(xué)》2020年第9期。然而,歐盟第29條數(shù)據(jù)保護(hù)工作組制定的《自動(dòng)化個(gè)人決策與識(shí)別指南》(以下簡(jiǎn)稱《自動(dòng)化決策指南》)明確指出,該款中的“權(quán)利”一詞并不意味著在數(shù)據(jù)主體主動(dòng)援引時(shí)才適用。第22條第1款規(guī)定了基于全自動(dòng)處理進(jìn)行決策的一般禁止原則,無(wú)論數(shù)據(jù)主體是否就其個(gè)人數(shù)據(jù)的處理采取行動(dòng),此禁止條款都普遍適用。?Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,WP251.rev.01,pp.19-23.早在歐盟通過(guò)1995年《數(shù)據(jù)保護(hù)指令》(以下簡(jiǎn)稱“95指令”)進(jìn)行規(guī)制時(shí),歐盟委員會(huì)就對(duì)全自動(dòng)決策過(guò)程的質(zhì)量表示擔(dān)憂,擔(dān)心這樣的過(guò)程會(huì)使人們認(rèn)為所達(dá)成的決策是理所當(dāng)然的,從而降低控制者調(diào)查和確定所涉事項(xiàng)的責(zé)任。?European Community,Amended Proposal for a Council Directive on the Protection of Individuals with Regard to the Processing of Personal Data and on the Free Movement of Such Data:COM(92)422 Final-SYN 287,p.26.全自動(dòng)化決策具有較大的潛在風(fēng)險(xiǎn),因此GDPR普遍禁止對(duì)數(shù)據(jù)主體產(chǎn)生法律效力或類似的重大影響的全自動(dòng)化決策。
《個(gè)保法》第二十四條第三款關(guān)于自動(dòng)化決策拒絕權(quán)的規(guī)定與GDPR第22條第1款在字面上具有相似性,兩部法律都賦予了信息主體相關(guān)的“權(quán)利”,同時(shí)設(shè)置了一定的義務(wù),但是《個(gè)保法》的“自動(dòng)化決策拒絕權(quán)”屬于賦權(quán)條款,GDPR的“權(quán)利”屬于禁止條款。兩種不同的條款代表兩種不同運(yùn)行邏輯的治理模式——“個(gè)體賦權(quán)”模式與“原則禁止+例外允許”模式。自動(dòng)化決策拒絕權(quán)的治理邏輯是一般情況下允許使用自動(dòng)化決策,在個(gè)體積極行使拒絕權(quán)時(shí),處理者才被禁止進(jìn)行對(duì)個(gè)人權(quán)益產(chǎn)生重大影響的全自動(dòng)化決策。換言之,自動(dòng)化決策拒絕權(quán)賦予了個(gè)體積極的控制性信息權(quán)利,這項(xiàng)權(quán)利與威斯丁將隱私權(quán)界定為個(gè)人對(duì)自身信息的控制,?Alan F.Westin,Privacy and Freedom,Atheneum,1968.以及“信息自決權(quán)理論”——“個(gè)人主體具有控制、發(fā)布、適用個(gè)人數(shù)據(jù)的權(quán)利”一脈相承。?謝琳、曾俊森:《數(shù)據(jù)可攜權(quán)之審視》,載《電子知識(shí)產(chǎn)權(quán)》2019年第1期?!霸瓌t禁止+例外允許”模式的治理邏輯是原則上禁止進(jìn)行對(duì)個(gè)人權(quán)益產(chǎn)生重大影響的全自動(dòng)化決策,在滿足例外情形時(shí)處理者方可使用。因此,在使用自動(dòng)化決策時(shí),處理者必須證明其不符合禁止條款的規(guī)定或者滿足例外條款的要求。GDPR第22條第1款的“權(quán)利”并不像“信息獲取權(quán)”(第15條)、“刪除權(quán)”(第17條)或“數(shù)據(jù)可攜權(quán)”(第20條)一般賦予個(gè)體可以積極行使支配和控制個(gè)人信息的權(quán)利,第22條第1款只是賦予個(gè)體不受自動(dòng)化決策約束的消極權(quán)利(Right not to be subject)。這項(xiàng)“權(quán)利”類似于霍菲爾德權(quán)利理論中的“豁免”(Immunity),自動(dòng)化決策的處理者因此沒(méi)有“權(quán)力”(Power/Ability)將“責(zé)任”(Liability/Subjection)施加于個(gè)人,而不是賦予個(gè)體一種狹義的“權(quán)利”(Right/Claim)。?參見(jiàn)[美]霍菲爾德:《基本法律概念》,張書友編譯,中國(guó)法制出版社2009年版,第26-78頁(yè)。“禁止條款+例外允許”模式通過(guò)處理者義務(wù)映射出個(gè)體的權(quán)利,屬于一種消極的防御型信息權(quán)利,與沃倫和布蘭代斯將隱私權(quán)界定為“獨(dú)處權(quán)利”有異曲同工之妙。?See Samuel D.Warren & Louis D.Brandeis,The Right to Privacy,4 Harvard Law Review 193,195-196(1890).當(dāng)然,“原則禁止+例外允許”模式不僅僅包含消極的防御型信息權(quán)利,例如GDPR第22條要求處理者提供保障措施,最起碼保障主體有權(quán)獲得人為干預(yù),表達(dá)其觀點(diǎn)與質(zhì)疑該決定。因此,賦權(quán)條款實(shí)際上是通過(guò)賦予個(gè)體積極權(quán)利,讓個(gè)體自我決定和控制自動(dòng)化決策對(duì)個(gè)人信息的處理;禁止條款則通過(guò)對(duì)處理者施加相應(yīng)的義務(wù)映射出個(gè)體的權(quán)利,無(wú)論個(gè)體是否行使權(quán)利,處理者都必須設(shè)置具體的保障措施,履行保障義務(wù)。
“個(gè)體賦權(quán)”與“原則禁止+例外允許”對(duì)應(yīng)兩種不同的治理邏輯,將會(huì)帶來(lái)差異的治理效果。自動(dòng)化決策拒絕權(quán)與“原則禁止+例外情形”模式同樣保護(hù)了個(gè)體的人格尊嚴(yán)、體現(xiàn)人的主體性以及防止人的“物化”。但是,在解決算法決策功能性問(wèn)題上,“個(gè)體賦權(quán)”模式的限度較大。此外,自動(dòng)化決策拒絕權(quán)面臨權(quán)利絕對(duì)化的問(wèn)題,可能會(huì)影響信息的合理流通與利用。
自動(dòng)化決策拒絕權(quán)給個(gè)體配置了一種積極的控制性權(quán)利,這項(xiàng)權(quán)利類似消費(fèi)者保護(hù)法和勞動(dòng)法對(duì)弱勢(shì)群體的保護(hù),糾正信息處理者與個(gè)人之間的不平等關(guān)系。但是,與傳統(tǒng)的消費(fèi)者保護(hù)法和勞動(dòng)法不同,自動(dòng)化決策的復(fù)雜性與不透明性加劇了個(gè)人的弱勢(shì)地位,通過(guò)個(gè)體行使控制性權(quán)利進(jìn)行算法規(guī)制的效果有限。首先,一般個(gè)體對(duì)風(fēng)險(xiǎn)的認(rèn)知往往局限于熟悉的領(lǐng)域和風(fēng)險(xiǎn)較大的領(lǐng)域,個(gè)人對(duì)個(gè)人信息保護(hù)的風(fēng)險(xiǎn)感知往往比較遲鈍。?丁曉東:《個(gè)人信息保護(hù):原理與實(shí)踐》,法律出版社2021年版,第90頁(yè)。這種風(fēng)險(xiǎn)感知一方面源于個(gè)體的能力,另一方面源于算法的黑箱特性。這可能導(dǎo)致個(gè)體難以感知自動(dòng)化決策是否對(duì)其有重大影響。其次,即使處理者主動(dòng)告知個(gè)體其僅通過(guò)自動(dòng)化決策作出對(duì)個(gè)人有重大影響的決策,個(gè)體也沒(méi)有能力實(shí)現(xiàn)有意義的控制和問(wèn)責(zé)。如前文所述,自動(dòng)化決策從設(shè)計(jì)、輸入數(shù)據(jù)、算法運(yùn)行到最終產(chǎn)生決策的每個(gè)階段都可能導(dǎo)致算法歧視和算法操縱等問(wèn)題的出現(xiàn),由于缺乏相應(yīng)的專業(yè)能力,個(gè)體無(wú)法控制自動(dòng)化決策的全過(guò)程。當(dāng)然,GDPR第22條為處理者規(guī)定的“知情同意”例外條款以及“主體有權(quán)獲得人為干預(yù),表達(dá)其觀點(diǎn)與質(zhì)疑該決定”的保障措施面臨與個(gè)體賦權(quán)相似的困境。?See Jakub Mí?ek,Consent to Personal Data Processing-The Panacea or the Dead End?,8 Masaryk University Journal of Law &Technology 69(2014).但是,“原則禁止+例外允許”模式是通過(guò)處理者義務(wù)映射個(gè)體的權(quán)利,并非賦予個(gè)體積極權(quán)利,個(gè)體的積極行權(quán)不是自動(dòng)化決策規(guī)制的唯一方式。處理者需要主動(dòng)證明決策不屬于對(duì)個(gè)體產(chǎn)生重大影響的全自動(dòng)化決策,或者證明決策符合例外情形并提供適當(dāng)?shù)谋U洗胧@實(shí)際上是通過(guò)提高處理者的合規(guī)成本將算法外部成本內(nèi)部化。因此,“原則禁止+例外允許”模式在解決功能性問(wèn)題上比自動(dòng)化決策拒絕權(quán)更有效。在個(gè)人信息保護(hù)法已經(jīng)規(guī)定了自動(dòng)化決策拒絕權(quán)的背景下,“自動(dòng)化決策拒絕權(quán)”應(yīng)當(dāng)理解為信息處理者在使用具有重大影響的全自動(dòng)化決策時(shí)應(yīng)當(dāng)提供的保障措施。例如,信息處理者應(yīng)當(dāng)主動(dòng)向個(gè)體提供拒絕的機(jī)制,即使個(gè)體沒(méi)有行使拒絕權(quán),也應(yīng)當(dāng)為個(gè)體提供質(zhì)疑自動(dòng)化決策的途徑,并保證決策的公平性與合理性。
在促進(jìn)信息合理流通方面,由于缺乏其他的例外情形,自動(dòng)化決策拒絕權(quán)可能面臨權(quán)利絕對(duì)化的問(wèn)題。個(gè)人信息的流通價(jià)值指向個(gè)人信息的公共屬性,無(wú)論是企業(yè)合理使用信息所形成的聚合效益,還是個(gè)人信息作為言論自由對(duì)象的價(jià)值,都應(yīng)當(dāng)受到保護(hù)。?參見(jiàn)前引?,丁曉東書,第109頁(yè)。個(gè)體賦權(quán)如果走向絕對(duì)化,將會(huì)影響信息的合理流通從而影響公共利益?!秱€(gè)保法》第二十四條并未規(guī)定相應(yīng)的例外情形,這意味著只要個(gè)體行使拒絕權(quán),處理者無(wú)法基于其他理由進(jìn)行對(duì)個(gè)體權(quán)益產(chǎn)生重大影響的全自動(dòng)化決策。GDPR第22條第2款為“禁止條款”提供了例外情形,例外情況包括:(1)該決策為訂立合同或履行合同所必需;(2)獲得歐盟或成員國(guó)法律授權(quán),且提供了適當(dāng)?shù)谋U洗胧唬?)決策基于數(shù)據(jù)主體的明確同意。在使用個(gè)人敏感信息的情形下,還需要符合第9條第2款(a)項(xiàng)或(g)項(xiàng)的相關(guān)規(guī)定并輔以適當(dāng)?shù)谋U洗胧?。這意味著“禁止條款”并不必然導(dǎo)致過(guò)于嚴(yán)格的規(guī)制。使用自動(dòng)化決策有益于提高商業(yè)效率和促進(jìn)公眾利益。如果個(gè)體行使拒絕權(quán)即可禁止使用對(duì)個(gè)體權(quán)益產(chǎn)生重要影響的全自動(dòng)化決策,將會(huì)導(dǎo)致更為嚴(yán)格的自動(dòng)化決策規(guī)制。盡管GDPR第22條的例外情形條款也存在不足與爭(zhēng)議,但是其背后的治理邏輯可能更能促進(jìn)信息的合理利用和流通。
綜上所述,自動(dòng)化決策拒絕權(quán)賦予了個(gè)體積極的控制性權(quán)利,通過(guò)增強(qiáng)個(gè)體參與算法決策治理的能力,糾正信息處理者與個(gè)人之間的不平等關(guān)系。自動(dòng)化決策拒絕權(quán)有助于解決個(gè)體主體性問(wèn)題。但是,自動(dòng)化決策拒絕權(quán)無(wú)法有效解決算法決策功能性問(wèn)題,甚至?xí)璧K信息的合理利用與流通,其治理效能不如以信息控制者義務(wù)為中心的“原則禁止+例外允許”模式。
為了應(yīng)對(duì)算法黑箱導(dǎo)致的權(quán)力擴(kuò)張,算法解釋成為了重要的治理手段?;趯?duì)權(quán)利話語(yǔ)路徑的依賴,《個(gè)保法》賦予了個(gè)體知情權(quán)、要求個(gè)人信息處理者解釋說(shuō)明權(quán),GDPR則賦予了數(shù)據(jù)主體知情權(quán)(Right to be informed)與數(shù)據(jù)訪問(wèn)權(quán)(Right of access)。?基于第22條的定義進(jìn)行自動(dòng)化決策時(shí),控制者必須告知數(shù)據(jù)主體他們正在從事此類活動(dòng)、提供涉及自動(dòng)化決策邏輯的有意義的信息以及解釋處理的重要性和設(shè)想的后果。眾多學(xué)者爭(zhēng)論歐盟是否存在算法解釋權(quán)并基于GDPR的相關(guān)規(guī)定建構(gòu)起不同版本的算法解釋權(quán)。然而,在沒(méi)有確定算法解釋權(quán)的實(shí)質(zhì)內(nèi)涵之前,對(duì)于歐盟是否存在算法解釋權(quán)的爭(zhēng)論以及是否應(yīng)當(dāng)將我國(guó)的相關(guān)權(quán)利解釋為算法解釋權(quán)并沒(méi)有意義。算法解釋權(quán)的關(guān)鍵在于如何建構(gòu)與算法決策治理目標(biāo)相適應(yīng)的透明權(quán)利,如何建構(gòu)需要思考透明權(quán)利的定位。
主流觀點(diǎn)中的算法解釋權(quán)是指數(shù)據(jù)主體有權(quán)要求控制者對(duì)特定決策進(jìn)行具體且有意義的解釋。?See Bryce Goodman & Seth Flaxman,European Union Regulations on Algorithmic Decision Making and a“Right to Explanation”,3 AI Magazine 50,50-57(2017);Wachter et al.,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation,7 International Data Privacy Law 76,76-99(2017).算法解釋權(quán)被認(rèn)為是實(shí)現(xiàn)算法透明的高度體現(xiàn)。?參見(jiàn)汪慶華:《算法透明的多重維度和算法問(wèn)責(zé)》,載《比較法研究》2020年第6期。不同于知情權(quán)與訪問(wèn)權(quán)要求事前提供系統(tǒng)的一般性信息,?《自動(dòng)化決策指南》規(guī)定控制者只需要向數(shù)據(jù)主體提供一般性信息(特別是有關(guān)決策過(guò)程中考慮的因素,以及它們各自在總體上的“權(quán)重”),并不需要進(jìn)行特定解釋。算法解釋權(quán)屬于事后解釋,個(gè)人有權(quán)要求控制者對(duì)特定決策提供更為具體的信息,如特定決策中的輸入數(shù)據(jù)與輸出結(jié)果、考量因素與因素的比重等等。許多學(xué)者在提及歐盟規(guī)制路徑時(shí)都將算法解釋權(quán)(Right to explanation)作為路徑的核心,算法解釋權(quán)仿佛成了自動(dòng)化決策規(guī)制的關(guān)鍵。然而,歐盟并未闡明GDPR是否存在算法解釋權(quán),GDPR規(guī)定的知情權(quán)(第13~14條)與數(shù)據(jù)訪問(wèn)權(quán)(第15條)中的“為數(shù)據(jù)主體提供涉及自動(dòng)化決策邏輯的有意義的信息”與緒言第71條中的“為數(shù)據(jù)主體提供在相關(guān)評(píng)估后獲得對(duì)該決定的解釋并質(zhì)疑該決定的權(quán)利”成為了眾多學(xué)者建構(gòu)算法解釋權(quán)的基礎(chǔ)。?GDPR在緒言第71條中為算法解釋權(quán)留下了適用空間:“適當(dāng)?shù)谋U洗胧瓚?yīng)包括提供給數(shù)據(jù)主體具體的信息、(數(shù)據(jù)主體)獲得人為干預(yù)并表達(dá)其觀點(diǎn)的權(quán)利,在相關(guān)評(píng)估后獲得對(duì)該決定的解釋并質(zhì)疑該決定的權(quán)利?!钡蔷w言在歐盟法律中并無(wú)法律效力,緒言作為對(duì)法律規(guī)則的解釋本身不能構(gòu)成規(guī)則。See Casa Fleischhandels-GmbH v Bundesanstalt für landwirtschaftliche Marktordnung,Case215/88,ECLI:EU:C:1989:331,https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A61988CJ0215,December 15,2021.
這場(chǎng)論戰(zhàn)最早由學(xué)者Bryce Goodman與Seth Flaxman引發(fā),他們將“提供涉及自動(dòng)化決策邏輯的有意義的信息”擴(kuò)張解釋為算法解釋權(quán)。?See Bryce Goodman & Seth Flaxman,supra note ?.這種主張被Wachter教授等學(xué)者所批判,他們認(rèn)為GDPR僅要求對(duì)系統(tǒng)的功能(系統(tǒng)如何運(yùn)行)進(jìn)行事前解釋(Ex ante explanation),而無(wú)需對(duì)決定背后的原因進(jìn)行事后解釋(Ex post explanation)。?See Wachter et al.,supra note ?.Edwards教授與Veale博士則從機(jī)器學(xué)習(xí)算法的角度指出了行使算法解釋權(quán)的實(shí)際困難,不同的是,他們接受算法解釋權(quán)的可能性。?See Lilian Edwards & Michael Veale,Slave to the Algorithm:Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For,16 Duke Law & Technology Review 18(2017-2018).盡管相關(guān)的批駁觀點(diǎn)獲得了大量的追隨,但是支持算法解釋權(quán)的學(xué)者并不在少數(shù)。Powles教授與Selbst助理教授明確反對(duì)Wachter教授等學(xué)者的觀點(diǎn),他們認(rèn)為對(duì)系統(tǒng)的事后解釋是可行且應(yīng)當(dāng)?shù)?,算法解釋?quán)應(yīng)源自GDPR第13~15條。?See Andrew D.Selbst&Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law 233(2017).Bygrave教授與Mendoza研究員認(rèn)為GDPR條款中關(guān)于訪問(wèn)權(quán)(第15條)的規(guī)定并未排除事后解釋的可能性,這種權(quán)利可以視為GDPR第22條第3款的“質(zhì)疑自動(dòng)化決策權(quán)”(Right to contest)的默示條款。?See Isak Mendoza&Lee A.Bygrave,The Right Not to be Subject to Automated Decisions Based on Profiling,EU Internet Law(2017).Casey等學(xué)者從GDPR的執(zhí)法層面進(jìn)行分析,聲稱GDPR引入了明確的算法解釋權(quán)。?See Bryan Casey,Ashkon Farhangi & Roland Vogl,Rethinking Explainable Machines:The GDPR’s“Right to Explanation”Debate and the Rise of Algorithmic Audits in Enterprise,34 Berkeley Technology Law Journal 143(2019).Brkan教授則認(rèn)為,上述所有的支持與批駁觀點(diǎn)都桎梏于名義上的算法解釋權(quán),算法解釋權(quán)的內(nèi)容遠(yuǎn)比其名稱更為重要,在肯定需要算法解釋權(quán)的基礎(chǔ)上,她綜合GDPR相關(guān)條文分析算法解釋權(quán)的必要性與內(nèi)容。?See Maja Brkan,Do Algorithms Rule the World?Algorithmic decision-making and Data Protection in the Framework of the GDPR and Beyond,27 International Journal of Law and Information Technology 91(2019).Kaminski教授則從GDPR的治理模式和《自動(dòng)化決策指南》對(duì)算法解釋權(quán)的隱喻進(jìn)行分析,她認(rèn)為GDPR屬于協(xié)作治理模式(即監(jiān)管機(jī)構(gòu)與企業(yè)之間的互動(dòng)),隨著法律的發(fā)展,緒言第71條作為重要的資源為企業(yè)提供了清晰的信息。而《自動(dòng)化決策指南》多次直接引用緒言第71條的內(nèi)容,足見(jiàn)算法解釋權(quán)的重要性。?Margot E.Kaminski,The Right to Explanation,Explained,34 Berkeley Technology Law Journal 143,189(2019).
可見(jiàn),算法解釋權(quán)只是學(xué)者建立在歐盟透明權(quán)利之上的擴(kuò)張解釋,如前文所述,GDPR并沒(méi)有明確規(guī)定算法解釋權(quán)。?雖然英國(guó)沒(méi)有在法律中規(guī)定類似的算法解釋權(quán),但是英國(guó)信息專員辦公室(ICO)發(fā)布的《人工智能決策解釋指南》卻肯認(rèn)了算法解釋權(quán)的存在以及其必要性。Information Commissioner’s Office & The Alan Turning Institute,Explaining decisions made with AI,20 May 2020,https://ico.org.uk/for-organisations/guide-to-data-protection/key-data-protection-themes/explainingdecisions-made-with-ai/,December 15,2021.無(wú)論學(xué)者們通過(guò)什么進(jìn)路論證算法解釋權(quán),其實(shí)質(zhì)都是為了實(shí)現(xiàn)自動(dòng)化決策的高度透明。但是算法解釋權(quán)在GDPR中是否存在并不重要,關(guān)鍵是算法解釋權(quán)的實(shí)質(zhì)內(nèi)容,即實(shí)現(xiàn)何種程度的算法解釋。算法解釋權(quán)內(nèi)涵受到多種要素影響,包括:算法解釋的標(biāo)準(zhǔn)、算法解釋的時(shí)機(jī)、算法解釋可理解性,以及解釋的詳細(xì)程度。?See Wachter et al.,supra note ?.對(duì)于算法解釋權(quán)內(nèi)涵要素的不同選擇將構(gòu)成內(nèi)涵迥異的算法解釋權(quán),這些內(nèi)涵要素可能與現(xiàn)行法律規(guī)定的透明權(quán)利相一致,也可能相去甚遠(yuǎn)。實(shí)際上,緒言第71條所指的解釋并非建立高度透明的算法解釋權(quán)?!蹲詣?dòng)化決策指南》指出,數(shù)據(jù)控制者應(yīng)當(dāng)采取簡(jiǎn)單的方式向數(shù)據(jù)主體解釋,只有數(shù)據(jù)主體了解決策的依據(jù),他們才能對(duì)決策提出異議或發(fā)表意見(jiàn)。僅當(dāng)數(shù)據(jù)主體可以理解特定決策所基于的因素和考慮時(shí),自動(dòng)化決策所涉及的邏輯才是“有意義的”。解釋的重點(diǎn)在于為數(shù)據(jù)主體質(zhì)疑和發(fā)表意見(jiàn)提供信息。
《個(gè)保法》與GDPR都沒(méi)有明確規(guī)定飽受爭(zhēng)議的算法解釋權(quán),但是應(yīng)當(dāng)看到算法解釋權(quán)的核心定位實(shí)際上是通過(guò)提高自動(dòng)化決策的透明度,為數(shù)據(jù)主體質(zhì)疑和發(fā)表意見(jiàn)提供解釋。因此,適當(dāng)?shù)乃惴ń忉尵哂斜匾浴?duì)我國(guó)而言,闡明《個(gè)保法》中的知情權(quán)與要求個(gè)人信息處理者解釋說(shuō)明權(quán)的內(nèi)涵和算法解釋的范圍具有必要性。為了數(shù)據(jù)主體能實(shí)質(zhì)地提出觀點(diǎn)并質(zhì)疑自動(dòng)化決策,處理者至少需要提供自動(dòng)化決策的輸入數(shù)據(jù)、輸出結(jié)果并對(duì)決策依據(jù)進(jìn)行合理的解釋。?See Maja Brkan,supra note ?.at 114.
透明權(quán)利體現(xiàn)了通過(guò)透明原則對(duì)自動(dòng)化決策進(jìn)行規(guī)制。歐盟《條例透明原則指南》?Article 29 Data Protection Working Party,Guidelines on transparency under Regulation 2016/679,WP260.與《個(gè)保法》都闡明了透明原則是個(gè)人信息保護(hù)的基本要求。歐盟數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)(EDPS)進(jìn)一步指出,不是由個(gè)人來(lái)尋求自動(dòng)化決策邏輯的公開(kāi),而是各組織與機(jī)構(gòu)必須主動(dòng)尋求這種透明性。?European Data Protection Supervisor,Opinion 7/2015.Meeting the challenges of big data.A call for transparency,user control,data protection by design and accountability,https://edps.europa.eu/sites/edp/files/publication/15-11-19_big_data_en.pdf,December 15,2021.透明原則并非自動(dòng)化決策規(guī)制的唯一原則,卻是備受關(guān)注與推崇的“金科玉律”。參見(jiàn)前引①,沈偉偉文。誠(chéng)然,提高透明度有助于自動(dòng)化決策規(guī)制,但是過(guò)度依賴于透明權(quán)利無(wú)法實(shí)現(xiàn)有效規(guī)制。
首先,個(gè)體賦權(quán)容易導(dǎo)致私益之間的沖突,透明權(quán)利受制于其他合法權(quán)利?!瓣?yáng)光是最好的消毒劑”,透明原則被視為建設(shè)透明法治政府、問(wèn)責(zé)制和限制濫用權(quán)力的堡壘之一。對(duì)公共機(jī)構(gòu)的透明權(quán)利使公眾可以進(jìn)行可視化的辯論,為政府贏得信任和合法性。See Lilian Edwards & Michael Veale,supra note ?.如Zarsky教授強(qiáng)調(diào):“所有政府行動(dòng)都默認(rèn)應(yīng)當(dāng)是透明的。”Tal Zarsky,Transparency in Data Mining:From Theory to Practice,Discrimination and Privacy in the Information Society 301,310(2013).然而,私人行為卻恰恰相反,在私人行為中,包括對(duì)個(gè)人隱私、商業(yè)秘密和知識(shí)產(chǎn)權(quán)的保護(hù)實(shí)際上已成為準(zhǔn)則。自由進(jìn)行商業(yè)活動(dòng)是歐盟的一項(xiàng)基本權(quán)利,參見(jiàn)Art.15,Charter of Fundamental Rights of the European Union(CFEU)2012/C 326/02。透明權(quán)利的適用必然會(huì)受到商業(yè)秘密和知識(shí)產(chǎn)權(quán)保護(hù)的沖擊。有學(xué)者通過(guò)對(duì)比GDPR與《歐盟商業(yè)秘密指令》Directive(EU)2016/943 of the European Parliament and of the Council of 8 June 2016 on the protection of undisclosed know-how and business information(trade secrets)against their unlawful acquisition,use and disclosure.的相關(guān)條款認(rèn)為歐盟傾向于保護(hù)個(gè)人信息,See Gianclaudio Malgieri & Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law 243,262-265(2017).且《自動(dòng)化決策指南》也明確提出:“控制者不能以保護(hù)其商業(yè)秘密為借口來(lái)拒絕訪問(wèn)或拒絕向數(shù)據(jù)主體提供信息”,但是透明原則與商業(yè)秘密、知識(shí)產(chǎn)權(quán)保護(hù)間的利益沖突仍是不容忽視的。GDPR緒言第63條也明確指出,數(shù)據(jù)訪問(wèn)權(quán)“不應(yīng)不利地影響他人的權(quán)利或自由,包括商業(yè)秘密或知識(shí)產(chǎn)權(quán),尤其是保護(hù)軟件的版權(quán)”。不同于歐盟GDPR直接賦予個(gè)體透明權(quán)利,美國(guó)《公平信用報(bào)告法》Federal Trade Commission,Fair Credit Reporting Act(FCRA),https://www.ecfr.gov/current/title-16/chapter-I/subchapter-F,December 15,2021.為算法決策使用者規(guī)定了一系列的透明義務(wù),包括“不利行動(dòng)通知”(Adverse action notice)、為消費(fèi)者提供訪問(wèn)和機(jī)會(huì)來(lái)更正用于作出有關(guān)他們的決策的信息、調(diào)查消費(fèi)者和報(bào)告機(jī)構(gòu)對(duì)信息準(zhǔn)確性的質(zhì)疑。舉例說(shuō)明,當(dāng)AI模型使用關(guān)于消費(fèi)者的數(shù)據(jù)形成報(bào)告或者評(píng)分會(huì)對(duì)消費(fèi)者產(chǎn)生不利影響時(shí),例如將評(píng)分或者報(bào)告作為拒絕用戶貸款或向租客收取更高租金的基礎(chǔ),使用算法決策的機(jī)構(gòu)必須向該消費(fèi)者提供不利行動(dòng)通知。不利行動(dòng)通知告訴消費(fèi)者他們有權(quán)查看有關(guān)他們的信息并糾正不準(zhǔn)確的信息。美國(guó)《算法正義和在線平臺(tái)透明度法案》Representative Doris O.Matsui,Algorithmic Justice and Online Platform Transparency Act.則提出,在線平臺(tái)在使用算法時(shí)應(yīng)以顯著的、通俗易懂的、不具有誤導(dǎo)性的語(yǔ)言向在線平臺(tái)的用戶披露相關(guān)信息。盡管美國(guó)沒(méi)有通過(guò)法律直接賦予個(gè)體權(quán)利,但是為使用算法的相關(guān)主體設(shè)置透明義務(wù)讓個(gè)體參與到算法決策治理當(dāng)中,同樣具有尊重個(gè)體主體性的效果。實(shí)際上,這類似于將透明義務(wù)作為霍菲爾德權(quán)利理論中的“責(zé)任”(Liability/Subjection)來(lái)理解,部分映射了個(gè)體支配和控制某項(xiàng)法律關(guān)系的權(quán)力(Power/Ability)。相較于賦予個(gè)體積極行使的“權(quán)利”(Right/Claim)而要求處理者履行“義務(wù)”(Duty),可能更有助于減少個(gè)體賦權(quán)導(dǎo)致不同私權(quán)之間的沖突。參見(jiàn)前引?,霍菲爾德書。
其次,從算法解釋對(duì)個(gè)體的意義來(lái)看,透明權(quán)利同樣存在較大局限。人工智能、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)等技術(shù)發(fā)展使得輸入數(shù)據(jù)與輸出結(jié)果之間的因果關(guān)系難以解釋,算法的解釋更多是一種相關(guān)性或者推論。See Celine Castets-Renard,supra note ?,at 101.個(gè)體難以感知或者證明算法決策存在歧視等問(wèn)題。此外,發(fā)現(xiàn)歧視等系統(tǒng)功能性問(wèn)題需要關(guān)注系統(tǒng)的整體行為,個(gè)體賦權(quán)與算法決策監(jiān)管時(shí)機(jī)不適應(yīng)。在使用機(jī)器學(xué)習(xí)算法的場(chǎng)景下,個(gè)人對(duì)特定決定的挑戰(zhàn)并不如在算法設(shè)計(jì)階段建立良好的標(biāo)準(zhǔn)或在算法運(yùn)作過(guò)程中持續(xù)監(jiān)測(cè)算法對(duì)規(guī)則的遵從有效。See Deven R.Desai & Joshua A.Kroll,Trust but Verify:A Guide to Algorithms and the Law,31 Harvard Journal of Law &Technology 1,5-6(2017).人類創(chuàng)造機(jī)器學(xué)習(xí)算法的工作主要在設(shè)計(jì)和訓(xùn)練階段,評(píng)估和糾正運(yùn)行中的機(jī)器學(xué)習(xí)算法將會(huì)非常困難。某些算法甚至?xí)S著時(shí)間而發(fā)展,通過(guò)個(gè)體挑戰(zhàn)這些系統(tǒng)幾乎是不可能的。只有當(dāng)算法不當(dāng)行為易于觀察且懲罰易于執(zhí)行,即解決算法系統(tǒng)性功能的成本小于發(fā)現(xiàn)幾率乘以處罰成本執(zhí)行時(shí),算法設(shè)計(jì)者才會(huì)選擇糾正算法系統(tǒng)錯(cuò)誤。這意味著透明權(quán)利無(wú)法有效解決算法決策系統(tǒng)的功能性問(wèn)題。
最后,從救濟(jì)效果來(lái)看,透明權(quán)利同樣存在較大局限。Pasquale教授指出,面對(duì)制度化的權(quán)力或金錢,僅憑透明度并不總會(huì)產(chǎn)生補(bǔ)救或公眾信任。See Frank Pasquale,supra note⑤.過(guò)度依賴透明處理原則使我們陷入一種“透明陷阱”(Transparency fallacy),個(gè)體往往缺乏必要的專業(yè)知識(shí)來(lái)有意義地行使這些個(gè)人權(quán)利。See Lilian Edwards & Michael Veale,supra note ?,at 75-76.大部分的個(gè)體在時(shí)間和資源上都過(guò)于貧乏,無(wú)論是在技術(shù)、行為、法律還是經(jīng)濟(jì)實(shí)力等層面,個(gè)人都處于弱勢(shì)地位。歸根結(jié)底,數(shù)據(jù)主體需要的不是獲得相關(guān)信息與解釋,而是確保不利結(jié)果永遠(yuǎn)不會(huì)發(fā)生。有學(xué)者對(duì)近年相關(guān)案例進(jìn)行分析,發(fā)現(xiàn)被侵權(quán)人根本沒(méi)有尋求獲取相關(guān)信息與解釋的救濟(jì),他們需要的是實(shí)際行動(dòng),如岡薩雷斯訴谷歌案,原告要求谷歌刪除其姓名搜索中的頂部鏈接(數(shù)據(jù)),他對(duì)Google的搜索算法為何繼續(xù)將過(guò)時(shí)的結(jié)果繼續(xù)放在其排名的首位并沒(méi)有興趣。See Lilian Edwards & Michael Veale,supra note ?.單純提高透明度不能提供足夠的救濟(jì)。
綜上所述,透明權(quán)利的核心定位在于為數(shù)據(jù)主體質(zhì)疑和發(fā)表意見(jiàn)提供有意義的解釋,賦予個(gè)體透明權(quán)利有助于緩解個(gè)體與處理者之間的信息不對(duì)稱,讓處理者充分了解自動(dòng)化決策并行使質(zhì)疑和問(wèn)責(zé)的權(quán)利。因此,在構(gòu)建算法解釋權(quán)時(shí),應(yīng)當(dāng)首先考慮算法解釋的標(biāo)準(zhǔn)、算法解釋的時(shí)機(jī)、算法解釋可理解性,以及解釋的詳細(xì)程度能否為數(shù)據(jù)主體質(zhì)疑和發(fā)表意見(jiàn)提供有意義的解釋。例如,在一般情況下,信息主體有權(quán)要求控制者以可理解的方式解釋系統(tǒng)的通用信息;面對(duì)復(fù)雜系統(tǒng)時(shí),數(shù)據(jù)主體有權(quán)要求進(jìn)一步公開(kāi)特定決策的處理過(guò)程信息和結(jié)果信息,以便數(shù)據(jù)主體提出質(zhì)疑和觀點(diǎn)。但是,囿于個(gè)體賦權(quán)和透明度救濟(jì)效果的限制,僅依賴透明權(quán)利無(wú)法實(shí)現(xiàn)有效的算法問(wèn)責(zé)。建構(gòu)適當(dāng)?shù)耐该鳈?quán)利還應(yīng)當(dāng)綜合考量手段的合目的性、成本和有效性,平衡自動(dòng)化決策的風(fēng)險(xiǎn)與效率。過(guò)寬的透明權(quán)利將無(wú)法實(shí)現(xiàn)制度成本與算法決策治理效率的平衡。
基于權(quán)利路徑依賴和尊重個(gè)體主體性的需要,個(gè)體賦權(quán)成了算法決策治理的重要手段。然而,在技術(shù)深入發(fā)展、利益保護(hù)多元化的背景下,個(gè)體賦權(quán)無(wú)法有效解決算法決策的功能性問(wèn)題,這體現(xiàn)為自動(dòng)化決策拒絕權(quán)與透明權(quán)利的治理效能不足。個(gè)體賦權(quán)的定位僅在于建立算法的正當(dāng)程序,體現(xiàn)對(duì)個(gè)體主體性與人格尊嚴(yán)的保護(hù)。相關(guān)研究對(duì)于個(gè)體賦權(quán)的權(quán)利范圍與效能的爭(zhēng)議忽視了算法決策治理具有雙重目標(biāo),在解決算法決策的功能性問(wèn)題上,個(gè)體賦權(quán)路徑具有較大的局限性,但是個(gè)體賦權(quán)在尊重個(gè)體主體性上有著不可替代的作用。理解和建構(gòu)關(guān)于算法決策治理的個(gè)體權(quán)利應(yīng)當(dāng)著眼于算法的正當(dāng)程序。解決算法決策功能性問(wèn)題的重心應(yīng)當(dāng)置于信息控制者的責(zé)任,強(qiáng)化信息控制者的風(fēng)險(xiǎn)預(yù)防規(guī)則。參見(jiàn)前引?,丁曉東書,第113頁(yè)。
如前文所述,透明權(quán)利與自動(dòng)化決策拒絕權(quán)具有較大的局限性,其核心原因都與個(gè)體賦權(quán)模式在解決算法決策功能性問(wèn)題的有效性相關(guān)。由于個(gè)體行權(quán)能力有限、算法解釋對(duì)個(gè)體的意義不足,包括:(1)私權(quán)的沖突導(dǎo)致算法解釋范圍狹窄;參見(jiàn)前引?,汪慶華文。(2)人工智能、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)等技術(shù)發(fā)展使得輸入數(shù)據(jù)與輸出結(jié)果之間的因果關(guān)系難以解釋,算法的解釋更多是一種相關(guān)性或者推論;See Celine Castets-Renard,supra note ?,at 101.(3)發(fā)現(xiàn)系統(tǒng)功能問(wèn)題需要關(guān)注系統(tǒng)的整體行為,個(gè)體賦權(quán)與算法決策監(jiān)管時(shí)機(jī)不適應(yīng),個(gè)體賦權(quán)無(wú)法有效解決算法決策功能性問(wèn)題。此外,僅通過(guò)個(gè)體賦權(quán)進(jìn)行算法決策治理而忽略了算法的合理利用將面臨權(quán)利絕對(duì)化的風(fēng)險(xiǎn),可能會(huì)阻礙信息的合理流通。
因此,個(gè)體賦權(quán)路徑并非治理算法決策功能性問(wèn)題的核心手段,其定位在于對(duì)個(gè)體主體性和人格尊嚴(yán)的尊重,為算法決策的合理使用提供正當(dāng)性基礎(chǔ)。個(gè)體獲取算法決策相關(guān)信息與解釋的權(quán)利、要求人工干預(yù)決策權(quán)、發(fā)表觀點(diǎn)和質(zhì)疑等一系列權(quán)利被稱為算法決策的“正當(dāng)程序”(DueProcess)。See Danielle Keats Citron & Frank Pasquale,supra note④;Kate Crawford & Jason Schultz,Big Data and Due Process:Toward a Framework to Redress Predictive Privacy Harms,55 Boston College Review 93(2014).算法正當(dāng)程序的概念并非新鮮事物。在傳統(tǒng)的行政決策方面,程序正當(dāng)要求向被剝奪重大利益的個(gè)人提供獲取通知、相關(guān)信息和解釋,以及在中立裁決者前提出觀點(diǎn)和質(zhì)疑的機(jī)會(huì)。算法正當(dāng)程序?qū)㈩愃频囊笠浦驳剿惴Q策的場(chǎng)景中。我國(guó)《個(gè)保法》為個(gè)人規(guī)定了知情權(quán)、要求說(shuō)明解釋權(quán),以及自動(dòng)化決策的拒絕權(quán),這些應(yīng)當(dāng)被理解為算法的“正當(dāng)程序”。如前文所言,算法黑箱制造的信息不對(duì)稱擴(kuò)張了算法權(quán)力,個(gè)體如果無(wú)法知悉決策、獲得決策的解釋并提出自己的質(zhì)疑,個(gè)體的主體性將在算法權(quán)力面前消失殆盡,從而徹底被物化。人的權(quán)利實(shí)際上代表了—種反對(duì)權(quán)力濫用和權(quán)力專橫的立場(chǎng),是對(duì)個(gè)人尊嚴(yán)以及對(duì)人們自由、自決能力進(jìn)行認(rèn)同。[美]瑪麗·安·格倫頓:《權(quán)利話語(yǔ):政治言辭的窮途末路》,周威譯,北京大學(xué)出版社2006年版,第14頁(yè)。此外,個(gè)體賦權(quán)在解決算法歧視與決策錯(cuò)誤等算法決策功能性問(wèn)題上也有一定的作用,它有助于數(shù)據(jù)主體發(fā)現(xiàn)和糾正系統(tǒng)錯(cuò)誤、偏見(jiàn)和歧視。算法設(shè)計(jì)者集“運(yùn)動(dòng)員”與“裁判員”于一身,其既是使用算法決策的人,又是創(chuàng)設(shè)算法規(guī)則的人,這將導(dǎo)致沒(méi)有任何制衡制度來(lái)確保系統(tǒng)中不存在偏見(jiàn)。算法正當(dāng)程序的一個(gè)核心功能是將編寫規(guī)則的人與使用該法律法規(guī)的裁決人員分開(kāi)。個(gè)人對(duì)算法決策的挑戰(zhàn)與糾正使得算法規(guī)則接觸到符合法律原則和社會(huì)規(guī)范的外部評(píng)價(jià),從而減少偏見(jiàn)和歧視。因此,為個(gè)體設(shè)定透明權(quán)利,要求數(shù)據(jù)控制者披露信息,并允許個(gè)人參與和糾正分析和決策,尊重了人的尊嚴(yán)與主體性。算法正當(dāng)程序?yàn)樗惴Q策提供了正當(dāng)性的理由,有助于緩解社會(huì)對(duì)算法黑箱的擔(dān)憂。
在建構(gòu)個(gè)體權(quán)利時(shí)應(yīng)當(dāng)認(rèn)識(shí)到個(gè)體賦權(quán)的定位。如前文所述,透明權(quán)利的核心定位在于為數(shù)據(jù)主體質(zhì)疑和發(fā)表意見(jiàn)提供有意義的解釋,自動(dòng)化決策拒絕權(quán)的核心定位在于賦予個(gè)體積極的控制性權(quán)利,增強(qiáng)個(gè)體參與算法決策治理的能力。然而,在解決算法決策功能性問(wèn)題上,個(gè)體賦權(quán)的效果不佳。因此,只要涉及通過(guò)個(gè)體解決算法決策功能性問(wèn)題,無(wú)論是要求提高算法透明度以實(shí)現(xiàn)個(gè)體問(wèn)責(zé),如通過(guò)高度透明的算法解釋權(quán)實(shí)現(xiàn)算法問(wèn)責(zé),還是通過(guò)個(gè)體賦權(quán)直接對(duì)算法進(jìn)行問(wèn)責(zé)和控制,如通過(guò)自動(dòng)化決策拒絕權(quán)來(lái)實(shí)現(xiàn)算法決策治理,都會(huì)受到治理效能不足的質(zhì)疑與挑戰(zhàn)。但是,個(gè)體賦權(quán)有助于構(gòu)建算法“正當(dāng)程序”以解決人格尊嚴(yán)保護(hù)問(wèn)題。適度使用透明度工具并提高個(gè)體的參與度,能夠緩解個(gè)體的不安,增強(qiáng)個(gè)體對(duì)算法決策的信任。因此,個(gè)體賦權(quán)的構(gòu)建應(yīng)當(dāng)著眼于建立算法“正當(dāng)程序”,而非個(gè)體對(duì)算法決策功能性問(wèn)題的問(wèn)責(zé)與控制。在構(gòu)建算法正當(dāng)程序上,個(gè)體賦權(quán)的內(nèi)容應(yīng)當(dāng)體現(xiàn)為通過(guò)透明權(quán)利適度提高算法透明度,以便于個(gè)人在參與算法問(wèn)責(zé)中了解自動(dòng)化決策,并提出觀點(diǎn)和質(zhì)疑。在解決算法決策功能性問(wèn)題上,算法決策治理的重點(diǎn)應(yīng)當(dāng)從個(gè)體賦權(quán)轉(zhuǎn)移到對(duì)信息控制者施加義務(wù)。
從個(gè)人信息保護(hù)的制度起源——“公平信息實(shí)踐”的發(fā)展歷程來(lái)看,個(gè)人信息保護(hù)早期主要依賴個(gè)體賦權(quán)與個(gè)人信息的控制者責(zé)任,囿于個(gè)體賦權(quán)的局限性,后期版本的公平信息實(shí)踐對(duì)信息控制者施加了更多的風(fēng)險(xiǎn)防范與治理義務(wù)。例如,2004年的《APEC隱私框架》將風(fēng)險(xiǎn)預(yù)防原則作為公平信息實(shí)踐的首要原則。歐盟第29條工作組認(rèn)為風(fēng)險(xiǎn)路徑值得提倡且已體現(xiàn)于GDPR的立法中,《個(gè)保法》第五十一條與GDPR第32條規(guī)定了與風(fēng)險(xiǎn)相稱的措施;《個(gè)保法》第五十六條與GDPR第35條規(guī)定了風(fēng)險(xiǎn)評(píng)估;《個(gè)保法》第六十四條與GDPR第36條規(guī)定了風(fēng)險(xiǎn)監(jiān)管責(zé)任。參見(jiàn)前引?,丁曉東書,第113-114頁(yè)。個(gè)體能力不足意味著算法決策治理需要從個(gè)體賦權(quán)轉(zhuǎn)向信息控制者的“風(fēng)險(xiǎn)預(yù)防規(guī)則”。此外,由于算法的深入發(fā)展帶來(lái)監(jiān)管和問(wèn)責(zé)困難,算法決策治理已經(jīng)不能局限于某一階段,需要建立事前、事中、事后的全過(guò)程監(jiān)管。在治理過(guò)程中,政府、市場(chǎng)、社會(huì)和個(gè)人等單一主體治理都存在較大的局限性,算法治理需要由單一主體監(jiān)管轉(zhuǎn)向協(xié)同治理路徑。風(fēng)險(xiǎn)評(píng)估既屬于“風(fēng)險(xiǎn)預(yù)防規(guī)則”,又體現(xiàn)了協(xié)同治理。
首先,風(fēng)險(xiǎn)評(píng)估類似軟性的市場(chǎng)準(zhǔn)入機(jī)制。公共機(jī)構(gòu)與私營(yíng)部門協(xié)同控制算法風(fēng)險(xiǎn)的合理范圍體現(xiàn)了協(xié)同治理模式。風(fēng)險(xiǎn)評(píng)估的時(shí)機(jī)在進(jìn)行自動(dòng)化決策之前,體現(xiàn)了風(fēng)險(xiǎn)防范的原則。在使用算法系統(tǒng)之前,信息處理者必須針對(duì)風(fēng)險(xiǎn)評(píng)估履行一系列的合規(guī)義務(wù),確保自動(dòng)化決策的風(fēng)險(xiǎn)在可控范圍內(nèi)?!秱€(gè)保法》第五十六條規(guī)定個(gè)人信息保護(hù)影響評(píng)估應(yīng)當(dāng)包括下列內(nèi)容:個(gè)人信息的處理目的、處理方式等是否合法、正當(dāng)、必要,對(duì)個(gè)人權(quán)益的影響及安全風(fēng)險(xiǎn),所采取的保護(hù)措施是否合法、有效并與風(fēng)險(xiǎn)程度相適應(yīng)。GDPR要求評(píng)估的內(nèi)容包括: (1)系統(tǒng)描述處理的具體流程和處理目的,以及控制人所追求的合法利益;(2)處理過(guò)程的必要性和相稱性;(3)為數(shù)據(jù)主體的權(quán)利和自由帶來(lái)的風(fēng)險(xiǎn);(4)為處理風(fēng)險(xiǎn)而設(shè)想的措施,并在考慮到數(shù)據(jù)主體和其他有關(guān)人員的權(quán)利和合法利益的情況下,證明遵守本條例;(5)行為準(zhǔn)則。此舉有助于在事前控制算法風(fēng)險(xiǎn),防止算法風(fēng)險(xiǎn)的擴(kuò)散。歐盟《自動(dòng)化決策指南》就曾建議企業(yè)經(jīng)常對(duì)其處理的數(shù)據(jù)集進(jìn)行評(píng)估,以檢查是否存在任何偏見(jiàn),并開(kāi)發(fā)解決任何偏見(jiàn)因素的方法以防止數(shù)據(jù)處理中的錯(cuò)誤或歧視。事前數(shù)據(jù)影響評(píng)估的要求同樣體現(xiàn)了協(xié)同治理:在評(píng)估的過(guò)程中,監(jiān)管機(jī)構(gòu)負(fù)責(zé)指引和監(jiān)管,而信息控制者可以根據(jù)評(píng)估結(jié)果部署與風(fēng)險(xiǎn)相適應(yīng)的保障措施,并證明其履行了合規(guī)義務(wù)。我國(guó)《個(gè)保法》嚴(yán)格規(guī)定所有類型的自動(dòng)化決策都需要進(jìn)行個(gè)人信息安全評(píng)估。信息控制者根據(jù)《個(gè)保法》和工信部制定的《信息安全技術(shù) 個(gè)人信息安全影響評(píng)估指南》國(guó)家市場(chǎng)監(jiān)督管理總局、國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)《信息安全技術(shù) 個(gè)人信息安全影響評(píng)估指南》,GB/T 39335-2020,2020年11月19日發(fā)布,2021年6月1日實(shí)施。(以下簡(jiǎn)稱《評(píng)估指南》)落實(shí)風(fēng)險(xiǎn)評(píng)估?!对u(píng)估指南》規(guī)定,組織需要根據(jù)評(píng)估結(jié)果部署相應(yīng)的保障措施并持續(xù)跟蹤風(fēng)險(xiǎn)處置的落實(shí)情況。在組織自行進(jìn)行算法影響評(píng)估時(shí),主管的監(jiān)管部門可以要求獨(dú)立審計(jì)來(lái)核證評(píng)估報(bào)告的合理性與完備性。通過(guò)對(duì)信息控制主體施加事前進(jìn)行風(fēng)險(xiǎn)評(píng)估的義務(wù),并由個(gè)人信息保護(hù)機(jī)構(gòu)進(jìn)行監(jiān)管和指引,解決了個(gè)體賦權(quán)路徑中個(gè)體風(fēng)險(xiǎn)感知和風(fēng)險(xiǎn)控制能力不足的問(wèn)題。GDPR僅要求對(duì)具有高風(fēng)險(xiǎn)的自動(dòng)化決策進(jìn)行事前評(píng)估。在進(jìn)行數(shù)據(jù)評(píng)估時(shí),控制者必須咨詢相關(guān)的數(shù)據(jù)保護(hù)機(jī)構(gòu),數(shù)據(jù)保護(hù)機(jī)構(gòu)必須向控制者提供書面建議,并可以行使其權(quán)力暫時(shí)或永久禁止使用該系統(tǒng)??刂普呷绻麩o(wú)法合規(guī)而投入使用該系統(tǒng),其將面臨相應(yīng)的懲罰(罰款最高可達(dá)全球營(yíng)業(yè)額的4%)。
其次,風(fēng)險(xiǎn)評(píng)估是提高透明度和增強(qiáng)問(wèn)責(zé)制的重要工具,既有助于個(gè)人信息保護(hù)機(jī)構(gòu)對(duì)算法進(jìn)行事后問(wèn)責(zé),也能激勵(lì)信息控制者參與算法的事中治理與監(jiān)督。風(fēng)險(xiǎn)評(píng)估中的透明度與問(wèn)責(zé)制不同于個(gè)體賦權(quán),參與協(xié)同治理的主體比個(gè)人更具有理解和監(jiān)管算法決策以及進(jìn)行事后問(wèn)責(zé)的能力。在提高透明度方面,算法影響評(píng)估允許公共機(jī)構(gòu)和第三方的介入,有助于相關(guān)主體了解并監(jiān)管算法的運(yùn)作過(guò)程,提高相關(guān)主體的問(wèn)責(zé)能力。此外,風(fēng)險(xiǎn)評(píng)估還是集存檔、監(jiān)測(cè)和審查于一體的問(wèn)責(zé)工具?!秱€(gè)保法》第五十六條與歐盟《數(shù)據(jù)影響評(píng)估指南》Article 29 Data Protection Working Party,Guidelines on Data Protection Impact Assessment(DPIA)and determining whether processing is“l(fā)ikely to result in a high risk“for the purposes of Regulation 2016/679,WP 248.均規(guī)定了評(píng)估報(bào)告和處理情況記錄需要存檔的要求,以便于相關(guān)機(jī)構(gòu)進(jìn)行監(jiān)測(cè)、審查和問(wèn)責(zé)。公共機(jī)構(gòu)無(wú)法在事前提供精確的法律規(guī)范,需要私營(yíng)機(jī)構(gòu)發(fā)揮其專業(yè)能力參與到算法的協(xié)同治理中。為了保證私營(yíng)主體的治理不偏離公共治理目標(biāo),公共機(jī)構(gòu)需要進(jìn)行事后問(wèn)責(zé)與監(jiān)督,要求算法設(shè)計(jì)者或使用者設(shè)置可溯源的措施有助于保證事后的追責(zé)。參見(jiàn)[美]約叔華·A.克魯爾、喬安娜·休伊、索倫·巴洛卡斯、愛(ài)德華·W.菲爾頓、喬爾·R.瑞登伯格、大衛(wèi)·G.羅賓遜、哈蘭·余:《可問(wèn)責(zé)的算法》,沈偉偉、薛迪譯,載《地方立法研究》2019年第4期。這實(shí)際上建立起了風(fēng)險(xiǎn)評(píng)估的“雙重問(wèn)責(zé)制”,即基于信息控制者合規(guī)義務(wù)的問(wèn)責(zé),如要求控制者設(shè)置與風(fēng)險(xiǎn)相對(duì)應(yīng)的措施和可溯源的措施,以及基于算法決策不利后果的問(wèn)責(zé),有助于激勵(lì)控制者在算法運(yùn)行過(guò)程中持續(xù)監(jiān)測(cè)和控制算法的風(fēng)險(xiǎn),形成算法治理的事中規(guī)制。
最后,風(fēng)險(xiǎn)評(píng)估有助于促進(jìn)規(guī)則的形成。雖然風(fēng)險(xiǎn)評(píng)估目前并沒(méi)有形成統(tǒng)一的行業(yè)標(biāo)準(zhǔn)。然而,隨著時(shí)間的推移,公共機(jī)構(gòu)反復(fù)評(píng)估將形成一定的經(jīng)驗(yàn)而影響一般的合規(guī)標(biāo)準(zhǔn)。例如,形成需要進(jìn)行風(fēng)險(xiǎn)評(píng)估的負(fù)面清單、相應(yīng)風(fēng)險(xiǎn)所需的保障措施等。這正是協(xié)同治理路徑的核心,在公私合作規(guī)制的過(guò)程中形成動(dòng)態(tài)、有效、與風(fēng)險(xiǎn)相匹配的自動(dòng)化決策規(guī)制。
個(gè)體賦權(quán)在算法決策治理中的定位是實(shí)現(xiàn)算法正當(dāng)程序,相當(dāng)于個(gè)體權(quán)利建構(gòu)的最低閾值,但是由于個(gè)體賦權(quán)在解決功能性問(wèn)題上的效能不足,治理效能限制了個(gè)體權(quán)利在算法決策治理中的最高閾值。因此,未來(lái)在算法決策治理中的權(quán)利建構(gòu)與適用應(yīng)當(dāng)著眼于如何構(gòu)建算法正當(dāng)程序,不應(yīng)苛求通過(guò)構(gòu)建過(guò)于寬泛的個(gè)體權(quán)利來(lái)解決算法決策功能性問(wèn)題。在解決算法決策功能性問(wèn)題上,以風(fēng)險(xiǎn)評(píng)估為核心的協(xié)同治理路徑為實(shí)現(xiàn)有效的算法治理提供了可能性。