• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      算法決策規(guī)制

      2020-04-10 07:00:14解正山
      現(xiàn)代法學(xué) 2020年1期
      關(guān)鍵詞:解釋權(quán)

      摘 要:算法決策正成為經(jīng)濟(jì)與社會體系的一部分,一方面,它創(chuàng)造了顯著的社會與經(jīng)濟(jì)價值,但另一方面,不公不義的預(yù)測或推斷會損及個人自主與尊嚴(yán)從而使算法備受質(zhì)疑。由于算法無法解決自身導(dǎo)致的妨害問題,且算法控制者與數(shù)據(jù)主體間存在明顯的信息或權(quán)力不對稱,因此,有必要賦予個人一項具體的數(shù)據(jù)權(quán)利——算法“解釋權(quán)”,以強(qiáng)化其對于己不利的算法決策提出異議的權(quán)利,進(jìn)而促進(jìn)算法正義、保護(hù)個人自主與尊嚴(yán)。不過,利用“解釋權(quán)”對抗算法妨害雖然必要但并不充分,其在技術(shù)上面臨可解釋性難題,且與商業(yè)秘密存在緊張關(guān)系。因此,算法決策需要統(tǒng)合規(guī)制,需要進(jìn)一步增強(qiáng)算法決策的社會控制,優(yōu)化算法應(yīng)用監(jiān)管。

      關(guān)鍵詞:算法決策;算法妨害;解釋權(quán);算法正義

      中圖分類號:DF52 ?文獻(xiàn)標(biāo)志碼:A

      DOI:10.3969/j.issn.1001-2397.2020.01.13 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

      一、引言

      何謂算法,目前并無統(tǒng)一定義。嚴(yán)格地說,它也不是法律上的概念。從技術(shù)角度看,可將算法理解為一種數(shù)學(xué)結(jié)構(gòu)以及這一結(jié)構(gòu)轉(zhuǎn)化而來的程序、或?qū)⑵湟曌鳛閷崿F(xiàn)特定任務(wù)的技術(shù)應(yīng)用。①它具有形式化特征,包括大規(guī)模收集個人或環(huán)境數(shù)據(jù),且借由數(shù)據(jù)分析從而揭示特征與結(jié)果之間的相關(guān)性。②這也揭示了算法與數(shù)據(jù)之間的緊密關(guān)系——“沒有數(shù)據(jù)的算法是空洞的,沒有算法的數(shù)據(jù)則是盲目的”。毫不夸張地說,在數(shù)據(jù)驅(qū)動的社會與經(jīng)濟(jì)體系中,數(shù)據(jù)就是“全新的貨幣”。 對它們進(jìn)行系統(tǒng)加工或闡釋,算法控制者(算法使用者、設(shè)計者等,下同)即可對算法決策相對人(本文亦稱“數(shù)據(jù)主體”)及其行為進(jìn)行預(yù)測或推斷。因此,如果說算法起初是指基本的運(yùn)算,那么隨著大規(guī)模數(shù)據(jù)采集及分析能力的提升尤其是機(jī)器學(xué)習(xí)的崛起,算法開始超越其初始含義,具有了明顯的社會及經(jīng)濟(jì)意義,其已被廣泛地用于解決社會或經(jīng)濟(jì)問題,諸如個人的期望、觀點以及工作表現(xiàn)、健康狀況、行為偏好、信用評級等重要事項正在從人類之手轉(zhuǎn)至算法之手,進(jìn)而形成各式各樣的自動化區(qū)分、評級、排序和決策,以至于越來越多的商業(yè)機(jī)構(gòu)或公共部門開始依托算法解決一些復(fù)雜問題,包括雇傭、借貸、定價以及量刑、福利資格認(rèn)定、國家安全審查等商業(yè)及司法或行政決策。此即“算法決策”或“自動化決策”(本文所稱的“算法決策”或“自動化決策”系指依據(jù)自動化處理/算法作出的且對相對人產(chǎn)生法律或類似重大影響的決策,這些決策一般不包含人為干預(yù),或者即便有人為干預(yù)但不對決策結(jié)果本身產(chǎn)生實質(zhì)性影響)。

      公平地說,大多數(shù)算法應(yīng)用有益而無害。它們能帶來顯著的社會或經(jīng)濟(jì)價值,包括效率的顯著提高、更加便捷的消費(fèi)體驗以及技術(shù)中立論者所認(rèn)為的客觀公正等。因此,在不少人看來,“算法只是簡單的數(shù)學(xué)原理。”然而,另一方面,算法決策的客觀公正并非完全如我們所預(yù)期,對它的一系列疑問尚存我們腦海之中。算法決策真的能排除人類偏見從而能保持公平或中立嗎?當(dāng)它們懷著不可告人的目的尋求隱性利益或涉嫌對個人作出歧視性甚至是錯誤的評估時,如何向算法決策相對人提供救濟(jì)?算法控制者應(yīng)在何種程度上對其算法或算法生成的不良結(jié)果負(fù)責(zé)?所有這些都是人們普遍擔(dān)心的問題。鑒此,如何讓“那些對結(jié)果抱有懷疑的人可以掀開‘引擎蓋子看個究竟”是人類立法者或裁判者面臨的嚴(yán)峻挑戰(zhàn)。

      二、算法妨害——算法“解釋權(quán)”的緣起

      算法雖被認(rèn)為是客觀且中立的,即致力于在數(shù)學(xué)規(guī)則和事實基礎(chǔ)之上而非基于社會輿論、價值觀或主觀判斷來組織并呈現(xiàn)信息,但事實上,它們也時常給當(dāng)事人帶來損害。

      其一,算法“操縱”妨礙數(shù)據(jù)主體的自主且有損他們的尊嚴(yán)以及經(jīng)濟(jì)利益。目前,商業(yè)機(jī)構(gòu)正利用各種建?;蛩惴ň傻貙⑷藗兊纳钷D(zhuǎn)化成他人的商機(jī),致使參與數(shù)據(jù)化生活的個人幾乎都成了“被算法定義的人”。通過追蹤用戶的日?;顒訑?shù)據(jù)或其經(jīng)常前往的商業(yè)場所,這些商業(yè)機(jī)構(gòu)便能識別出潛在消費(fèi)者的個人偏好、生活方式或消費(fèi)習(xí)慣等,繼而進(jìn)行精準(zhǔn)的市場推廣或廣告投放。這種數(shù)據(jù)畫像使得定向廣告無比精準(zhǔn)地在特定時間和場景達(dá)到目標(biāo)客戶,誘發(fā)沖動消費(fèi)……這不啻是一種消費(fèi)操縱。此時,受益的往往只是算法控制者,被誘導(dǎo)的個人卻無利可圖甚至?xí)馐芾鏈p損。例如,在滴滴與攜程等公司接連爆發(fā)的“大數(shù)據(jù)殺熟”事件中,那些被認(rèn)定為“高價值”的目標(biāo)客戶就被動或盲目地接受算法控制者推薦的更高價格商品或服務(wù),從而承擔(dān)額外成本。此外,臉書公司與劍橋分析公司爆發(fā)的“算法丑聞”再次表明,算法控制者完全有能力左右某個網(wǎng)站或服務(wù)的排名,而用戶卻渾然不知。不得不說,無形的“算法之手”正以一種難以覺察的方式塑造或左右我們的言行或選擇。雖然“它們聲稱在向我們‘展現(xiàn)世界的原貌,但其實這個世界是由它們創(chuàng)造出來的”。諸如此類的“操縱”意在誤導(dǎo)或左右被操縱者做出并非基于自己自由意志的某些決定。最終,這些不明就里的數(shù)字產(chǎn)品與服務(wù)的消費(fèi)者/數(shù)據(jù)主體恐將淪為他人意志的工具。

      其二,無形的“算法之手”對特定個人或群體進(jìn)行不公平推斷或?qū)⑺麄儭皹?biāo)簽化”?,F(xiàn)今,大數(shù)據(jù)分析技術(shù)已經(jīng)賦予了算法控制者超乎想象的預(yù)測能力,它們極可能基于分類篩選而形成所謂的“大數(shù)據(jù)黑名單”,從而不恰當(dāng)?shù)貙€人或群體標(biāo)記為具有某種風(fēng)險或傾向,進(jìn)而限制或排除他們的權(quán)利或機(jī)會。加之,算法“黑箱”以及數(shù)據(jù)買賣使得上述分類篩選得以便利化甚至秘密化,以至于那些被列入“黑名單”的當(dāng)事人很多時候既無從知曉亦無法擺脫。此種不公平或隱性歧視并不鮮見。美國法院廣泛采用的評估罪犯再犯風(fēng)險的算法工具(COMPAS)就被認(rèn)為將黑人被告貼上了再犯風(fēng)險高的標(biāo)簽。另如,在保險實務(wù)中,借助大數(shù)據(jù)分析能力,汽車保險公司基于投保人畢業(yè)學(xué)校的等級與汽車事故之間的相關(guān)性分析,從而向那些受教育程度低的司機(jī)收取更高保費(fèi),即便這些駕駛?cè)藫碛辛己玫鸟{駛記錄且大數(shù)據(jù)分析所考慮的因素與保險風(fēng)險并無邏輯及直接的關(guān)系。不得不說,許多算法模型就“像上帝一樣隱晦不明……它們得出的結(jié)論往往懲罰社會中的窮人和其他受壓迫的人,而富人卻因此更加富有”。

      其三,算法所謂的客觀公正存在某種程度上的迷惑性或虛幻性,而且,較之于人類決策,其不僅缺乏自我糾錯能力,而且更具系統(tǒng)性影響。乍一看,算法決策似乎更可靠,因為它被認(rèn)為不受人類判斷中非理性因素的影響。然而,算法系出自容易犯錯的人類設(shè)計者,他們可能忽視數(shù)據(jù)中的系統(tǒng)性偏見或結(jié)構(gòu)性歧視??v使這些都是無心之過,仍將導(dǎo)致更大范圍的不公。而且,很多時候,即便存在系統(tǒng)不準(zhǔn)確的證據(jù),算法控制者仍會相信這一自動決策系統(tǒng)生成的評估結(jié)論。因為,我們中的大多數(shù)人都是認(rèn)知的吝嗇者——多愿選擇只需付出最小認(rèn)知努力的路徑甚或選擇相信直覺而放棄對每項決策進(jìn)行系統(tǒng)分析。研究表明,在有其他合作者共同擔(dān)責(zé)的情形下,人們會表現(xiàn)出松懈的一面。因此,一旦人們把自動決策系統(tǒng)視為“團(tuán)隊成員”,上述“社會惰化效應(yīng)”將會出現(xiàn),他們就會把完成任務(wù)的重?fù)?dān)交給自動決策系統(tǒng),而自己也就放松懈怠了。不僅如此,人們甚至?xí)炎詣踊惴ㄒ暈椤皼Q策權(quán)威”,從而盲目遵從。更重要的是,與個人偏見只會影響少數(shù)人不同,算法偏見可能對成千上萬人產(chǎn)生影響。一旦如此,算法決策將導(dǎo)致更大范圍的不公或歧視,算法控制者與用戶間的信息與權(quán)力不對稱也將隨之加劇。美國廣泛采用的自動化信用評分系統(tǒng)就被認(rèn)為對女性與少數(shù)族裔等弱勢群體構(gòu)成了系統(tǒng)性負(fù)面影響。

      綜上可見,算法很難不偏不倚,它們總包含著一定的價值判斷或特定的價值立場,即便是根據(jù)最佳技術(shù)實踐編寫的代碼或程序也會在某些情形下失靈。于此情形之下,算法決策也就難免會置算法決策相對人于不利地位。不可否認(rèn),算法能夠提升效率并在一定范圍或程度上實現(xiàn)客觀公正,包括消除人為錯誤,從而使越來越多的人受益。然而,“重點不是有沒有人受益,而是有很多人受害”,算法應(yīng)用已經(jīng)為一些新的形式或種類的錯誤創(chuàng)造了機(jī)會。接連發(fā)生的“算法丑聞”表明,算法的隱性歧視或操縱在雇傭、借貸、定價、教育乃至司法量刑等多種算法應(yīng)用場景中普遍存在。這些“數(shù)學(xué)殺傷性武器”有時只是因為一些微不足道的理由從而關(guān)閉了人們的機(jī)會之門,且不予他們申訴的機(jī)會。這似乎“是一場無聲之戰(zhàn),窮人首當(dāng)其沖,中產(chǎn)階級也難逃一劫”,而人們卻無法“指望自動化系統(tǒng)自行解決問題。盡管機(jī)器功能強(qiáng)大,但它們目前還不能照顧到公平,至少它們自己不能。篩選數(shù)據(jù)并且判斷什么是公平對它們來說是完全陌生且極其復(fù)雜的”。尤令人擔(dān)心的是,算法并未把“我們”當(dāng)作權(quán)利主體,而是可計算、可預(yù)測、可控制的客體。因此,當(dāng)算法被廣泛運(yùn)用于“人”的領(lǐng)域之時,就需建立一個適當(dāng)?shù)牡赖屡c法律框架,以維護(hù)“人”的主體性、自主性以及自由與權(quán)利。

      三、對抗算法妨害:域外算法“解釋權(quán)”立法考察

      作為算法決策的一項規(guī)制手段,算法“解釋權(quán)”已與其他新型數(shù)據(jù)權(quán)利一樣漸入立法視野,其中以歐盟與美國較具代表性,下文即以歐盟及美國法為樣本進(jìn)行分析。

      (一)歐盟“一般性禁止”例外下的算法“解釋權(quán)”

      1. 歐盟法對算法決策的“一般性禁止”

      對于算法決策,歐盟《一般數(shù)據(jù)保護(hù)條例》( GDPR,2018年5月生效)第22條第1款規(guī)定:“個人有權(quán)不受完全依據(jù)自動化處理作出的且對其產(chǎn)生法律或類似重大影響的決策的約束”。從語義上理解,這一規(guī)定要么意味著算法決策相對人被賦予了一項針對完全算法決策的“反對權(quán)”,要么那些對個人具有重大影響的算法決策將被“一般性禁止”。若將第22條第1款解釋為“反對權(quán)”,那么算法控制者將被允許完全依賴算法進(jìn)行決策,直至算法決策相對人提出反對;相反,若將該條解釋為“一般性禁止”,那么算法控制者就應(yīng)該對禁止之外的例外情形進(jìn)行評估,并采取“適當(dāng)措施”保護(hù)例外情形下算法決策相對人的自由或權(quán)利。針對上述歧義,GDPR“解釋性指南”明確將第22條第1款界定為對完全自動化決策的“一般性禁止”,而非僅僅是“反對權(quán)”。較之于“反對權(quán)”,“一般性禁止”或能更好地保護(hù)算法決策相對人利益,使其免受自動化數(shù)據(jù)處理的可能侵害,這也意味著算法控制者不得在例外情形之外進(jìn)行完全的自動化決策。

      文義上,GDPR第22條第1款并未指明何謂“完全根據(jù)”及“法律或類似的重大影響”。因此,“完全根據(jù)”既可解釋為自動化處理不包含任何的人為干預(yù)或影響,也可解釋為雖有人為干預(yù)但對自動化處理結(jié)果本身不產(chǎn)生實質(zhì)性影響。對此,歐盟立法者強(qiáng)調(diào),算法控制者不得通過編造的人為干預(yù)而規(guī)避對自動化決策的一般性禁止,任何名義上或象征性的人工干預(yù)均不對自動化決策構(gòu)成實質(zhì)性影響。所謂“法律影響”,則指純粹的自動化決策對個人與他人交往、投票或參加選舉、采取法律行為的自由以及個人的法律地位或合同權(quán)利等法律權(quán)利構(gòu)成了影響,如合同撤銷、社會福利喪失、被拒絕給予公民身份等;“類似重大影響”則指,即使個人法律權(quán)利或義務(wù)未因自動化決策而改變,但如果該決策對個人的境遇、行為或選擇產(chǎn)生顯著影響,或?qū)е缕浔慌懦谀撤N機(jī)會之外而受到歧視(如金融服務(wù)、就業(yè)或教育機(jī)會喪失),那么該決策即可視為構(gòu)成了“類似重大影響”。據(jù)此,備受質(zhì)疑的在線行為廣告或價格歧視、涉嫌消費(fèi)操縱的誘導(dǎo)性廣告以及根據(jù)用戶“畫像”作出的差異化定價等,都被涵蓋在一般性禁止之列了,以便保護(hù)個人權(quán)利或其尊嚴(yán)及自主等重要利益不因自動化決策而受到損害。

      2. 例外情形下的規(guī)制——算法“解釋權(quán)”

      為緩和“一般性禁止”之規(guī)定,同時也為促進(jìn)數(shù)據(jù)利用尤其是算法決策的合理應(yīng)用,GDPR第22條第2款規(guī)定了“一般性禁止”的例外情形,一是“合同例外”,即算法決策為數(shù)據(jù)主體與算法/數(shù)據(jù)控制者訂立合同或履行該合同所不可或缺;二是“同意例外”,即算法決策已獲得數(shù)據(jù)主體的明確同意;三是“法律授權(quán)例外”,即算法決策獲得法律授權(quán)且算法控制者已采取適當(dāng)措施保護(hù)數(shù)據(jù)主體的權(quán)利、自由及正當(dāng)利益。值得注意的是,GDPR第22條第3款進(jìn)一步規(guī)定:在“合同例外”或“同意例外”情形之下,算法控制者更應(yīng)采取適當(dāng)措施,確保公正、非歧視與準(zhǔn)確性,以保障數(shù)據(jù)主體的權(quán)利、自由及正當(dāng)利益,且至少應(yīng)保證數(shù)據(jù)主體有權(quán)請求對算法決策進(jìn)行人工干預(yù)、表達(dá)其觀點以及對決策提出異議的權(quán)利?!爸辽佟币辉~的語義表明,GDPR第22條第3款賦予算法決策相對人請求人工干預(yù)并就對其不利的算法決策表達(dá)意見或提出異議的權(quán)利只是歐盟立法者對算法控制者提出的最低要求,這也為要求算法控制者采取進(jìn)一步措施(包括向算法決策相對人提供相應(yīng)解釋)以保護(hù)數(shù)據(jù)主體權(quán)益提供了立法解釋的空間。

      除上述“至少”應(yīng)履行的義務(wù)外,歐盟立法者還要求算法控制者根據(jù)GDPR第13條第2款(f)項、第14條第2款(g)項之規(guī)定,向相對人提供關(guān)于算法決策的具體信息。尤為重要的是,算法決策相對人“有權(quán)獲得算法決策的解釋并據(jù)此提出異議”。此即GDPR“序言”第71條規(guī)定的算法“解釋權(quán)”。與此相比,GDPR第22條第3款之規(guī)定則顯得“委婉含蓄”。盡管如此,該條款仍被認(rèn)為包含了針對算法決策的事后“解釋權(quán)”。畢竟,算法決策相對人享有的請求人工干預(yù)、表達(dá)意見或提出異議等權(quán)利與其充分理解算法決策是如何以及根據(jù)何種基礎(chǔ)作出的密不可分。只有這樣,相對人才能針對于己不利的算法決策有效地行使異議權(quán)或發(fā)表意見。這也正是GDPR“解釋性指南”的基本立場。況且,GDPR第22條第3款中“適當(dāng)措施”與“至少”之表述,與“序言”第71條規(guī)定的算法“解釋權(quán)”具有體系上的一致性與完整性。不過,應(yīng)予注意的是,GDPR第13條第2款(f)項、第14條第2款(g)項只是規(guī)定了數(shù)據(jù)處理開始前應(yīng)向數(shù)據(jù)主體提供的信息,意在創(chuàng)建算法控制者的“通知義務(wù)”,從而使數(shù)據(jù)主體了解預(yù)期或未來的自動化處理,以便他們決定是否允許自己的個人數(shù)據(jù)被處理、評估自動化處理的合理性或行使更正權(quán)與反對權(quán)等其他數(shù)據(jù)權(quán)利。然而,與之不同,GDPR第15條第1款(h)項之規(guī)定,不僅包括算法系統(tǒng)功能的一般性事前解釋,包括算法目的、架構(gòu)與功能以及基礎(chǔ)數(shù)據(jù)與算法輸出之間的相關(guān)性說明等,而且還內(nèi)含著針對具體算法決策的事后“解釋權(quán)”。更重要的是,鑒于GDPR的目的在于增強(qiáng)對數(shù)據(jù)及數(shù)據(jù)主體權(quán)利的保護(hù),因此,在立法邏輯上,也應(yīng)對GDPR第15條第1款(h)項所規(guī)定的數(shù)據(jù)處理開始后算法控制者應(yīng)提供的“有意義的信息”作寬泛解釋,它意味著“相當(dāng)高標(biāo)準(zhǔn)的可理解性”,對具體算法決策進(jìn)行解釋則是實現(xiàn)這種“可理解性”的最佳途徑。

      綜上,歐盟GDPR第22條第3款以及第15條第1款(h)項雖都未在字面上規(guī)定算法“解釋權(quán)”,但目的解釋加上體系解釋,以及對歐盟立法中“序言”解釋性功能的正確理解,已使算法決策相對人享有這一權(quán)利變得清晰可見。

      (二)美國法中的算法解釋問題——兼與歐盟比較

      整體上看,源自歐洲人權(quán)公約與基本權(quán)利憲章的人的尊嚴(yán)、自由與自我決定等“權(quán)利話語”已深深植根于歐盟數(shù)據(jù)保護(hù)立法之中,因此,即便如信息自由這一如此重要的價值也得讓位于它們。不難看出,“權(quán)利話語”下的歐盟數(shù)據(jù)保護(hù)立法賦予了數(shù)據(jù)主體對其個人數(shù)據(jù)較強(qiáng)的控制力,以尊重他們的尊嚴(yán)及自主性。鑒此,歐盟“一般性禁止”完全算法決策也就不難理解了。不過,為促進(jìn)大數(shù)據(jù)產(chǎn)業(yè)的發(fā)展,歐盟立法并非絕對禁止算法決策,而是允許存在例外。只是,例外情形之下,歐盟立法者仍要求算法控制者確保數(shù)據(jù)主體免受操縱、歧視或不公平對待。這也是立法者賦予相對人算法“解釋權(quán)”的根本出發(fā)點。與歐盟“‘一般性禁止+例外”式算法決策規(guī)制思路不同,美國法律并未對算法決策作出嚴(yán)格限制,而是采用市場主義的開放數(shù)據(jù)觀,即在“市場話語”下,將個人數(shù)據(jù)視為一種應(yīng)受保護(hù)的市場利益,立法著眼點在于數(shù)據(jù)公平交易,并將個人視為數(shù)據(jù)的交易者進(jìn)而由聯(lián)邦貿(mào)易委員會等執(zhí)法機(jī)構(gòu)保護(hù)其不受市場欺詐和不公平對待。實踐中,除一般性要求算法決策不得違反平等原則外,美國法還要求在算法決策中排除種族、性別、膚色、信仰、國籍等可能構(gòu)成歧視的敏感因素,這與歐盟法的要求相似。

      更值得注意的是,與歐盟綜合式立法不同,美國數(shù)據(jù)保護(hù)及算法規(guī)制立法呈現(xiàn)“碎片化”狀態(tài),其針對不同行業(yè)或領(lǐng)域單獨(dú)立法,算法解釋亦因此而有所不同。其中,最突出的要數(shù)金融領(lǐng)域的信用評分與量刑領(lǐng)域的風(fēng)險評估兩類算法決策的解釋問題。

      對于信用評分算法,美國《信貸機(jī)會均等法》(ECOA)與《公平信用報告法》(FCRA)專門規(guī)定了“不利行動告知”條款,其要求貸方就不利的算法評分向金融消費(fèi)者進(jìn)行解釋,包括拒絕提供信貸、拒絕錄用或提供保險服務(wù)等其他信用評估輸出結(jié)果的具體原因,并告知消費(fèi)者有權(quán)就信用報告中不準(zhǔn)確或不完全的信息提出質(zhì)疑。這一規(guī)定授予了那些受算法評分不利影響的個人“自動獲知被拒絕的原因的權(quán)利”。關(guān)于拒絕原因的通知,美國聯(lián)邦儲備委員會B條例進(jìn)一步規(guī)定:該通知必須是具體的且應(yīng)指明采取不利行動的主要原因,僅僅表明不利行動建基于內(nèi)部標(biāo)準(zhǔn)/政策、或僅表明申請人未能獲得信用評分系統(tǒng)中的合格評分都是不充分的。就其目的而言,“不利行動告知”力圖實現(xiàn):第一,警示消費(fèi)者一項對其不利的決策已然作出,以便消費(fèi)者知曉他們的個人數(shù)據(jù)正在被自動處理系統(tǒng)使用;第二,教育消費(fèi)者未來如何改變該不利結(jié)果;第三,防止歧視。所有這些恰恰也是歐盟GDPR創(chuàng)建算法“解釋權(quán)”的部分目的。然而,美國法上的“不利行動告知”僅著眼于對特定輸入如何產(chǎn)生特定輸出進(jìn)行解釋,旨在提供與算法決策相關(guān)的事實而非對支配決策的算法規(guī)則本身進(jìn)行描述。與之不同的是,歐盟GDPR采用“基于邏輯的解釋”模式,即對自動決策系統(tǒng)的邏輯而非僅僅對決策結(jié)果本身進(jìn)行解釋說明,希望借此幫助個人理解算法決策并為其向于已不利的算法決策提出質(zhì)疑,或確保個人獲得更好的算法結(jié)果奠定基礎(chǔ)。比較而言,美國法上的“不利行動告知”之要求或能對傳統(tǒng)的線性算法輸出進(jìn)行解釋,但對非線性的機(jī)器學(xué)習(xí)算法也許就無能為力了。因為,當(dāng)前的信用預(yù)測因大數(shù)據(jù)分析的加持從而轉(zhuǎn)向相關(guān)性分析而非因果關(guān)系判斷,簡單的原因列舉自然就無法對基于機(jī)器學(xué)習(xí)的自動化決策之成因進(jìn)行解釋了。這意味著如果缺乏對系統(tǒng)邏輯的理解,那么算法決策相對人就無法審視決策進(jìn)而判別是否存在歧視。

      至于盛行于量刑領(lǐng)域的風(fēng)險評估算法,美國并無成文法要求對該類算法決策進(jìn)行解釋。實踐中,對是否以及如何對風(fēng)險評分算法進(jìn)行解釋存在爭議,“盧米斯案”就是最好例證。案中被告認(rèn)為:法院裁判借助了再犯風(fēng)險評估算法報告(該算法全稱為“以替代性制裁為目標(biāo)的懲教犯管理畫像”,其利用個人犯罪記錄等公共數(shù)據(jù)以及當(dāng)事人對137項問題所作回答而提供的信息,預(yù)測其再犯風(fēng)險從而為其量刑或假釋提供依據(jù)),且該算法作出的風(fēng)險評估不充分并侵犯了他的正當(dāng)程序權(quán)利。被告因此提出了“打開”再犯風(fēng)險評估算法之請求。然而,上訴法院(威斯康星最高法院)并不認(rèn)同盧米斯的訴請,相反,“在算法公平與商業(yè)秘密之間,法院……站在了商業(yè)秘密一邊”,拒絕支持盧米斯“打開”算法的請求,并最終駁回了他的上訴。即便如此,其中有多數(shù)派法官還是坦承:對再犯風(fēng)險評估算法缺乏理解仍是本案一個重大問題,雖經(jīng)法庭反復(fù)詢問,但當(dāng)事人對再犯風(fēng)險評估算法的原理或功能要么三緘其口、要么片言只語;事實上,對這一算法進(jìn)行解釋仍是必要的。批評者更是指出:“正當(dāng)程序權(quán)利不僅包含知情權(quán)……而且還包括一項真正的‘解釋權(quán)——被告毫無限制地獲取源代碼以及算法結(jié)果所依賴的邏輯的權(quán)利”,因此,如果“法庭承認(rèn)‘解釋權(quán),那么被告將能獲知到底是何種機(jī)制在支配這一量刑算法?!比欢?,縱觀“盧米斯案”,無論是初審法院還是上訴法院,均未對再犯風(fēng)險評估算法的使用作出任何實質(zhì)性限制或采取措施要求算法控制者讓渡其算法所有權(quán),包括公開量刑算法的源代碼或用簡樸語言對算法的原理、功能及目的進(jìn)行解釋。顯然,這難讓公眾真正地信服利用算法作出的某項決定是公平公正的。畢竟,算法到底是“徹底根除了人類偏見,還是只不過用技術(shù)包裝了人類偏見”尚存疑問,而且,與人類證詞的易讀性與可解釋性相比,“再犯模型的運(yùn)作完全由算法獨(dú)立完成,頂多只有極少數(shù)專業(yè)人士才能夠理解?!?/p>

      四、作為規(guī)制手段的算法“解釋權(quán)”理論畫像

      通過上文分析,可以看出算法“解釋權(quán)”已初步被歐美立法者接納(較之于歐美,我國正式立法雖尚未涉及算法“解釋權(quán)”,但2018年5月實施的《個人信息安全規(guī)范》第7條第10-11款初步規(guī)定了這一內(nèi)容:即數(shù)據(jù)主體有權(quán)對“僅依據(jù)信息系統(tǒng)自動決策而做出顯著影響個人信息主體權(quán)益的決定”提出申訴,數(shù)據(jù)控制者應(yīng)于30天內(nèi)或法定期限內(nèi)給予“答復(fù)及合理解釋”)。此外,司法裁判者亦逐漸意識到算法解釋的重要性。例如,在“Patel訴Zillow案”中,美國聯(lián)邦第七巡回法院即要求案中被告Zillow公司對其房屋估價算法進(jìn)行解釋,且強(qiáng)調(diào)算法決策過程應(yīng)能被有效解釋。同樣,我國亦有法院在審理與算法決策有關(guān)的侵權(quán)糾紛案件時,對算法解釋給予了足夠的重視。只不過,在理論層面,立法者或司法裁判者尚未對算法“解釋權(quán)”進(jìn)行充分論證。為此,有必要進(jìn)一步對算法“解釋權(quán)”的內(nèi)涵及價值等進(jìn)行闡釋,以強(qiáng)化其在立法或司法上的正當(dāng)性基礎(chǔ)。

      (一)算法“解釋權(quán)”的內(nèi)涵

      數(shù)據(jù)時代,算法控制者基于海量數(shù)據(jù)運(yùn)算從而配置社會資源并逐漸掌握了一種新興的“算法權(quán)力”。為對抗這種復(fù)雜而又難以理解的技術(shù)權(quán)力,一個行之有效的途徑就是增強(qiáng)算法決策的透明度進(jìn)而提高其可理解性與問責(zé)性。算法“解釋權(quán)”就是通過賦予個人對算法決策的解釋權(quán)利進(jìn)而實現(xiàn)對“算法權(quán)力”濫用的適度制約。不過,作為一項規(guī)制不當(dāng)算法決策的法律工具,算法“解釋權(quán)”應(yīng)被理解為個人數(shù)據(jù)“權(quán)利束”的一部分,其內(nèi)含于“個人數(shù)據(jù)保護(hù)權(quán)”(“個人數(shù)據(jù)保護(hù)權(quán)”不是絕對權(quán),它強(qiáng)調(diào)本人對其個人數(shù)據(jù)及其處理的控制,但這種控制利益反過來不得阻礙信息自由、公眾知情等其他權(quán)利;實現(xiàn)方式上,“個人數(shù)據(jù)保護(hù)權(quán)”主要通過賦予個人對其個人數(shù)據(jù)的訪問權(quán)、更正權(quán)、刪除權(quán)等一組具體的權(quán)利來保障個人對其個人數(shù)據(jù)使用的合理控制),且可從以下三個方面來認(rèn)識這一權(quán)利:

      第一,本質(zhì)上,算法“解釋權(quán)”是一種請求權(quán),即當(dāng)一項算法決策對相對人構(gòu)成法律或其他類似重大影響時,該相對人即有權(quán)向算法控制者提出異議,并可要求其提供關(guān)于算法決策的解釋進(jìn)而請求更正錯誤或不當(dāng)?shù)乃惴Q策等。另根據(jù)歐盟立法經(jīng)驗,“法律或其他類似重大影響”主要指純粹的算法決策對相對人法律地位、權(quán)利或自由構(gòu)成了不利影響,或者在此之外,對算法決策相對人個人境遇、行為或選擇、社會評價等產(chǎn)生不利影響,并因而使其受到歧視或被限制/剝奪某種權(quán)利或機(jī)會。這一限制性要求旨在提高權(quán)利行使門檻,避免“解釋權(quán)”被濫用,從而保障算法決策的合理利用,實現(xiàn)個人權(quán)利保護(hù)與大數(shù)據(jù)產(chǎn)業(yè)發(fā)展的平衡。進(jìn)一步而言,算法“解釋權(quán)”與個人其他數(shù)據(jù)權(quán)利,例如知情權(quán)、更正權(quán)、反對權(quán)、刪除權(quán)等緊密關(guān)聯(lián):首先,作為知情權(quán)的一部分,算法控制者應(yīng)于數(shù)據(jù)收集階段以及數(shù)據(jù)處理啟動后,告知數(shù)據(jù)主體是否存在算法決策;其次,若因數(shù)據(jù)錯誤導(dǎo)致不利算法決策,那么相對人可要求算法控制者根據(jù)其提供的準(zhǔn)確數(shù)據(jù)或在刪除錯誤數(shù)據(jù)后重新進(jìn)行決策,此時,算法“解釋權(quán)”與數(shù)據(jù)更正權(quán)或刪除權(quán)發(fā)生交錯;若不利決策系由不當(dāng)?shù)幕蝈e誤的算法所致,那么相對人既可要求算法控制者修正算法,亦可拒絕進(jìn)行該項算法決策,從而與數(shù)據(jù)主體的反對權(quán)發(fā)生交錯。

      第二,就權(quán)利義務(wù)主體而言,算法“解釋權(quán)”權(quán)利主體為受算法決策不利影響的相對人(該相對人僅為自然人,法人不在此列);相應(yīng)地,新興的網(wǎng)絡(luò)服務(wù)提供者以及保險公司、信貸機(jī)構(gòu)等傳統(tǒng)的算法應(yīng)用平臺等系義務(wù)主體。另外,若算法非這些算法使用者自行設(shè)計,那么它們可請求算法設(shè)計者承擔(dān)相應(yīng)的協(xié)助解釋之義務(wù)。

      第三,算法“解釋權(quán)”中最核心的問題當(dāng)屬解釋的標(biāo)準(zhǔn)與內(nèi)容。通常,向幾乎等同“算法文盲”的數(shù)據(jù)主體披露源代碼或算法工作原理的復(fù)雜數(shù)學(xué)解釋幾乎沒有實際意義,要求算法控制者以簡明的自然語言解釋算法決策相關(guān)信息才是關(guān)鍵所在。正如歐盟《一般數(shù)據(jù)保護(hù)條例》第12條第1款所規(guī)定的,算法控制者有義務(wù)以“簡潔、透明、易懂和易獲取的形式并以清晰直白的語言”向數(shù)據(jù)主體提供必要的信息。簡言之,算法控制者應(yīng)以易于理解的信息向算法決策相對人作出解釋說明,以便后者能自主地理解算法決策。這些信息包括算法決策所需數(shù)據(jù)及其類別、權(quán)重、相關(guān)性解釋,以及個人“畫像”如何建立、它與決策過程相關(guān)性的說明以及是如何被用于涉及個人的算法決策等。算法控制者還應(yīng)考慮采用可視化與交互技術(shù)等技術(shù)手段來增進(jìn)算法透明度,保證這些信息既是充分的也是可被理解的。總之,算法控制者應(yīng)以簡便方式將算法決策背后的基本原理及依賴的標(biāo)準(zhǔn)告知算法決策相對人,雖然這些信息不一定是對算法的復(fù)雜解釋或?qū)⑺惴ǖ娜坑枰耘?,但至少它們?yīng)能保證相對人充分理解決策的原因。這也意味著算法“解釋權(quán)”力圖實現(xiàn)的并非算法的完全透明而是一種適當(dāng)?shù)母哔|(zhì)量透明度。

      (二)算法“解釋權(quán)”的價值

      算法“解釋權(quán)”之于算法決策相對人乃至算法控制者自身而言,均具重要意義:

      其一,它關(guān)乎個人的自主、尊嚴(yán)及人格。如上所言,人類決策者往往會過于強(qiáng)調(diào)自動化決策的客觀性,進(jìn)而依賴甚或盲目遵從這一所謂的“決策權(quán)威”,直至放棄自己本應(yīng)承擔(dān)的審查責(zé)任。但另一方面,人們對缺乏解釋的系統(tǒng)的擔(dān)憂通常都是發(fā)自內(nèi)心的,尤其是將解決問題或作出決策的任務(wù)托付給算法系統(tǒng)將導(dǎo)致人際關(guān)系凍結(jié)、人類自由與自主被剝奪以及人類最終將被排除在勞動力市場及決策任務(wù)之外。質(zhì)言之,對自動化決策“缺乏任何有意義的參與將導(dǎo)致人們的無力感與脆弱感”,從而產(chǎn)生丹尼爾·索洛夫所稱的“非人化”狀態(tài)。通常,人格某些方面的不可計量性更多是人類狀態(tài)使然而非僅僅是算法建模不足的結(jié)果,這在很大程度上決定了自動化決策通常只是建基于自然人不完整的“畫像”。因而,有必要讓那些受算法決策影響的個人對算法所呈現(xiàn)或塑造的生活方式保留某種程度的控制,從而“確保人類在建構(gòu)自身的過程中由其自己而非他的‘?dāng)?shù)據(jù)陰影發(fā)揮關(guān)鍵作用”。概言之,既然算法控制者可能利用優(yōu)勢地位操縱或歧視數(shù)據(jù)主體,導(dǎo)致他們無從知曉或參與算法決策以至于無法提出異議,那么立法上就應(yīng)賦權(quán)他們,以使這些“數(shù)據(jù)化”的個人了解自己如何被算法評價或排名,且有權(quán)要求算法控制者放棄或修改對其不利的自動化決策,這不僅是算法解釋的應(yīng)有之義,也是算法正義的內(nèi)在要求,更是對人的自主、尊嚴(yán)及自由人格的尊重。

      其二,算法“解釋權(quán)”便于個人對算法決策是否公平公正提出質(zhì)疑,是實現(xiàn)算法正義的重要途徑。一般認(rèn)為,正義觀念包含程序正義(關(guān)注決策過程及邏輯)、分配正義(根據(jù)個人的環(huán)境、表現(xiàn)或貢獻(xiàn)公平地分配積極或消極的決策后果)、互動正義(人們受到有尊嚴(yán)的對待、獲得決策者的尊重)以及信息正義(就決策程序及結(jié)果向當(dāng)事人提供相應(yīng)的信息與解釋)等具體方面。很多時候,人們不僅僅關(guān)心決策結(jié)果是否惠及于自己,更在意決策結(jié)果是否符合公平正義標(biāo)準(zhǔn),而決策過程信息在證明結(jié)果是否公正方面發(fā)揮著異常重要作用??梢?,算法控制者提供算法的解釋符合信息正義的要求,也有助于人們對系統(tǒng)邏輯(即程序)是否公正進(jìn)行評估。一旦某項決策被認(rèn)為符合程序正義,那么該決策更大可能也會被認(rèn)為符合分配正義。其實,無論機(jī)器學(xué)習(xí)能力有多強(qiáng),希望它能理解公平正義的概念都為時尚早。因為,公平正義是一個抽象的、難以量化的概念。這不僅意味著公平正義概念難以被置入算法之中,而且更難以指望算法決策系統(tǒng)自身提供用以判斷正義與否的信息。因此,唯有依靠算法控制者輸入公平公正的數(shù)據(jù)來實現(xiàn)正義,且在必要時對算法輸入與輸出進(jìn)行解構(gòu)。正所謂:“如果我有更正權(quán),那么我就需要看得出錯誤;如果我有權(quán)反對歧視,那么我就需要知道哪些要素被用于決策。否則,信息不對稱就會使這些重要的法律權(quán)利變得毫無意義?!?/p>

      其三,算法“解釋權(quán)”有助于消弭個人與算法控制者之間的數(shù)字鴻溝,不僅是個人對抗“算法霸權(quán)”的有效工具,而且也是算法控制者贏得消費(fèi)者信任的重要手段。算法社會中,算法控制者不僅設(shè)計算法、進(jìn)行編程,而且還能決定如何使用、何時使用以及出于何種目的使用算法。他們掌控著“算法權(quán)力”,并利用這一權(quán)力對個人進(jìn)行分析、預(yù)測進(jìn)而作出分類、篩選或其他重要決策,提供算法“燃料”的數(shù)據(jù)主體將因此受到顯著影響以及那些難以覺察的算法妨害,但很多時候他們對此卻無能為力。這種由算法塑造的新興社會關(guān)系已非單純的市場關(guān)系,而是一種支配關(guān)系。很大程度上,這是因為算法這種極為復(fù)雜的技術(shù)拉開了個人與算法控制者之間的能力差距,且后者享有某種獨(dú)有的知識性權(quán)威。因此,賦權(quán)個人在遭遇不當(dāng)算法決策時請求算法控制者進(jìn)行解釋的權(quán)利,能有效彌補(bǔ)個人面對算法控制者時的弱勢地位,進(jìn)而實現(xiàn)兩者之間的權(quán)力再平衡。相反,若無從了解算法決策“有意義的信息”,那么相對人也就難以對于己不利的算法決策提出質(zhì)疑,從而無法尋求損害救濟(jì),包括要求算法控制者更正決策結(jié)果、停止自動化處理等。隨之而來的,將是他們逐漸喪失對智能算法的信任,直至以拒絕使用那些數(shù)據(jù)驅(qū)動的產(chǎn)品或服務(wù)的方式主動化解可能遭遇的權(quán)利或隱私危機(jī)。這意味著算法應(yīng)用平臺賴以生存的基礎(chǔ)——“數(shù)字信任”——行將崩潰,最終受損的終將是算法控制者自身。很多時候,人們訪問網(wǎng)站、搜索查詢、網(wǎng)上購物并提供他們的個人數(shù)據(jù)時,是因為他們相信這些交易相對方在提供數(shù)字商品或服務(wù)時不會損及他們的利益。若算法控制者過度利用甚至違背這種信任,消費(fèi)者顯然就會“用腳投票”。因此,可以肯定地說,公眾的信任關(guān)系到智能算法這一顛覆性技術(shù)應(yīng)用的未來走向,而要求算法控制者承擔(dān)解釋說明義務(wù)正是建構(gòu)此種信任關(guān)系的途徑之一。

      五、算法“解釋權(quán)”的限度

      誠然,通過對算法決策背后的邏輯或決策過程乃至決策背后的原因與理由進(jìn)行解釋說明有助于防止錯誤并增加信任,而且發(fā)生爭議時,還可通過這一解釋來確定所適用的某種標(biāo)準(zhǔn)是否適當(dāng)。然而,較之于一般性對象的解釋,算法的解釋有其特殊性,其受技術(shù)及法律的雙重影響,這將對算法“解釋權(quán)”功能的發(fā)揮產(chǎn)生一定程度的制約。

      (一)技術(shù)挑戰(zhàn)——動態(tài)算法的可解釋性難題

      與公開源代碼相比,以自然語言對算法預(yù)測所依賴的邏輯以及算法輸出等進(jìn)行解釋才是真正有意義的。這是個人就對其不利的算法決策發(fā)表意見或提出異議的基本前提。本質(zhì)上,算法“解釋權(quán)”建基于算法的可解釋性。后者可分為兩類:一是算法模型是如何運(yùn)行的,此謂“功能解釋”;二是算法行為的事后解釋,即算法模型到底帶來了什么,包含自然語言的解釋、算法模型的可視化并能通過舉例進(jìn)行解釋。一定程度上,算法可解釋性乃至可視化是一個可以用技術(shù)解決的問題。谷歌公司最近公布的一項研究成果表明,算法可解釋性至少在技術(shù)上是可行的。研究人員指出,由于神經(jīng)網(wǎng)絡(luò)正在不斷取得成功,所以,能夠解釋它們的決策就變得至關(guān)重要。為此,研究人員探討了如何運(yùn)用可視化技術(shù)以及其他可解釋性技術(shù)來解構(gòu)神經(jīng)網(wǎng)絡(luò)如何進(jìn)行決策,初步解決了這種難以捉摸的算法的可視化問題。盡管如此,仍不能忽視算法尤其是機(jī)器學(xué)習(xí)等動態(tài)算法可解釋性的技術(shù)挑戰(zhàn)。

      正如我們所知,解構(gòu)“算法黑箱”是如此不易,即使數(shù)據(jù)控制者愿意披露他們的算法,現(xiàn)代互聯(lián)網(wǎng)也為我們理解這些算法設(shè)置了巨大障礙……不管是職員的工作績效、網(wǎng)絡(luò)相關(guān)性還是投資回報率,都是基于工程師們設(shè)計出的復(fù)雜算法并由大量律師保駕護(hù)航。由于透明度本身,包括算法的運(yùn)行規(guī)則、創(chuàng)建及驗證過程的完全公開,并不等同算法解釋,因此,有時即便所有這些信息都被公開,仍可能無法理解算法過程的結(jié)果,披露源代碼雖有助于對系統(tǒng)設(shè)計進(jìn)行審計,但對系統(tǒng)輸出可能就無能為力了。如果是動態(tài)算法,那么可解釋性問題將更趨復(fù)雜。因具有自我學(xué)習(xí)能力,機(jī)器學(xué)習(xí)等動態(tài)算法一定程度上能自行“感知—思考—行動”,這將構(gòu)成算法可理解性的障礙或增加算法的解釋難度。此時,即便最初公開的代碼與數(shù)據(jù)是可解釋的,也將不再有意義。然而,無論如何,算法的復(fù)雜性不應(yīng)成為算法控制者不提供任何解釋的借口,更不意味應(yīng)該放棄承認(rèn)或授予個人算法“解釋權(quán)”。所謂“機(jī)器學(xué)習(xí)模式下根本不可能要求算法控制者‘解釋具體決定的邏輯和個人數(shù)據(jù)的權(quán)重”的看法過于悲觀。相反,如果算法過于復(fù)雜以至于無法用簡易語言進(jìn)行解釋,那么這一點就應(yīng)披露,只有這樣,人們才可了解這是一個可能與任何明確解釋或因果理論無關(guān)的黑箱。而且,即使無法具體解釋算法是如何產(chǎn)生結(jié)果的,算法控制者也應(yīng)對其所使用的算法決策負(fù)責(zé)。

      (二)法律挑戰(zhàn)——“解釋權(quán)”與知識產(chǎn)權(quán)的緊張關(guān)系

      不可否認(rèn),披露算法決策系統(tǒng)“有意義的信息”面臨著商業(yè)秘密保護(hù)的法律挑戰(zhàn)。實踐中,幾乎所有的算法系統(tǒng)都被算法控制者視作為商業(yè)秘密,它們一般會拒絕將算法決策系統(tǒng)得以運(yùn)行的方法與邏輯公之于眾。正如索尼婭·卡塔爾指出的,“算法雖已在不同群體之間造成了大規(guī)模歧視,但因算法被認(rèn)為具有客觀性且蘊(yùn)含著商業(yè)秘密,所以法律對此無能為力……這已成為增強(qiáng)算法問責(zé)制與透明度的主要障礙之一?!绷⒎ㄕ呱踔烈渤姓J(rèn),毫無限制地要求算法控制者披露自動化決策系統(tǒng)的信息可能會對它們的知識產(chǎn)權(quán)構(gòu)成不利影響。因此,有立法者強(qiáng)調(diào):作為例外,數(shù)據(jù)主體行使知情權(quán)或訪問權(quán)不應(yīng)對其他當(dāng)事人的權(quán)利或自由構(gòu)成不利影響。但矛盾的是,立法者也不忘指出:算法控制者不得以保護(hù)商業(yè)秘密為借口拒絕數(shù)據(jù)主體的訪問或向其提供信息。顯然,立法者正竭力緩和數(shù)據(jù)主體的知情權(quán)以及算法“解釋權(quán)”與算法控制者享有的知識產(chǎn)權(quán)之間的緊張關(guān)系。

      不得不承認(rèn),某種程度上的算法秘密具有合理理由。然而,較之于知識產(chǎn)權(quán),保護(hù)個人隱私與數(shù)據(jù)權(quán)利等不因算法決策而受到減損則更為重要,因為它們關(guān)乎個人的自主及尊嚴(yán)。況且,也沒有證據(jù)表明算法的“失密”一定會阻礙創(chuàng)新;因此,至少應(yīng)該向受算法決策不利影響的當(dāng)事人進(jìn)行充分且有意義的說明,使其有機(jī)會介入算法評估過程,了解算法預(yù)測類型、輸入數(shù)據(jù)以及算法邏輯等信息,以便他們對阻礙其獲得信貸、工作、住房或其他重要機(jī)遇的算法決策提出質(zhì)疑或挑戰(zhàn)。這也是“技術(shù)正當(dāng)程序”的必然要求。相較于算法控制者,一般公眾幾乎都是“算法文盲”,很多時候,他們都是在被動接受算法控制者推薦的服務(wù)、產(chǎn)品或某種對其構(gòu)成重大影響的評估結(jié)論。顯然,這與正當(dāng)性原則相悖,并將因此引發(fā)算法的合法性危機(jī)。因為,如我們所知,合法性一般以正當(dāng)性為基礎(chǔ),這樣,合法性信念就退縮成為一種正當(dāng)性信念,滿足于訴諸作出一種決定的正當(dāng)程序。

      進(jìn)一步而言,若算法源代碼及其功能的大范圍披露會損害商業(yè)秘密,那么僅在個案中向單個數(shù)據(jù)主體披露并不會對算法控制者的商業(yè)利益構(gòu)成影響,況且,個案中的當(dāng)事人還會被要求遵守保密規(guī)定。更重要的是,算法“解釋權(quán)”意在使算法決策相對人有機(jī)會在充分知情的情形下主張自己的權(quán)利,其只是要求算法控制者以自然語言或可視化技術(shù)對算法邏輯尤其是輸入數(shù)據(jù)與輸出結(jié)果之間的相關(guān)性進(jìn)行解釋,而非將包含商業(yè)秘密的算法工作原理或源代碼直接向當(dāng)事人公開。事實上,這樣做也無實際意義,因為普通人幾乎都無法理解高度專業(yè)的源代碼或算法工作原理的復(fù)雜數(shù)學(xué)解釋,且算法固有的模糊性亦非披露源代碼這種簡單透明度要求所能完全解決。正因如此,立法上并未簡單要求算法控制者披露其源代碼或限制他們可以使用的算法類型。而且,就證明決策過程是否公平而言,披露源代碼既不必要也不充分。當(dāng)然,為回應(yīng)因公開源代碼或算法邏輯而引起的知識產(chǎn)權(quán)、數(shù)據(jù)隱私以及安全原因等方面的擔(dān)憂,可考慮通過可信的第三方作為數(shù)據(jù)仲裁者介入算法的決策過程,由其對可能造成隱私或其他權(quán)利損害的算法進(jìn)行核查并對算法決策提出質(zhì)疑。如此一來,既可回應(yīng)算法控制者對商業(yè)秘密或數(shù)據(jù)庫權(quán)利的關(guān)切,也能兼顧公眾尤其是受算法決策不利影響的當(dāng)事人的正當(dāng)權(quán)利。

      毋庸諱言,行使算法“解釋權(quán)”面臨一定挑戰(zhàn):一是以人類可理解的形式表達(dá)機(jī)器邏輯仍存在一定困難;二是算法控制者還有強(qiáng)烈動機(jī)拒絕披露更多的算法信息,以保障權(quán)自身商業(yè)秘密或避免損害其他當(dāng)事人的隱私等權(quán)利與自由。此外,若無外部法律或?qū)I(yè)援助,那么僅靠算法“解釋權(quán)”來保護(hù)數(shù)據(jù)主體權(quán)利意味著他們在質(zhì)疑算法決策時要承擔(dān)首要且繁重的義務(wù)。然而,這些挑戰(zhàn)并非不可克服,更不能因此而放棄或拒絕賦予個人要求算法控制者提供算法解釋的請求權(quán)。整體上看,算法“解釋權(quán)”仍是一種用于質(zhì)疑算法決策的重要法律工具,既能為相對人反駁于已不利的算法決策提供法律支撐,而且還將增進(jìn)他們乃至整個社會對算法技術(shù)與算法決策的信任??傊?,算法“解釋權(quán)”雖存在上述挑戰(zhàn),但賦予相對人這一權(quán)利的社會及倫理價值并未受到影響,它不僅“符合公平正義的價值取向,也符合人工智能時代的需求和特征”,更是實現(xiàn)算法正義的重要路徑。

      六、結(jié)語

      與一般決策相比,那些可能對個人自由或權(quán)利產(chǎn)生重大影響的決策,如法庭裁決、雇傭或解雇、入學(xué)、升職、金融服務(wù)供給等,經(jīng)常飽受爭議,因此,它們需要更高水平的問責(zé)制。人類決策尚且如此,算法決策就更不例外了。然而,那些旨在避免人類武斷決策并保證該決策可信與正當(dāng)?shù)膫鹘y(tǒng)制度安排,包括資質(zhì)要求等聲譽(yù)機(jī)制以及通知、參與、異議、救濟(jì)等決策約束程序,在算法決策面前均顯失靈。加之,人類大腦一定程度上雖也是“黑箱”,但較之于冰冷的“算法黑箱”,人們更可能容忍前者。畢竟,人類決策的“黑箱”往往是隨機(jī)而非系統(tǒng)的。而且,人類的道德感使之具有一定程度的自我糾錯與反省能力,而冰冷的算法則不然。就此而言,立法上賦予個人對一項于己不利的算法決策的解釋請求權(quán)也是理所應(yīng)當(dāng)。只是,賦予數(shù)據(jù)主體法律上的“解釋權(quán)”只是一個好的開始,但絕非結(jié)束,其必要但并不充分。因此,不僅需要圍繞算法“解釋權(quán)”建構(gòu)知情、參與、異議等新型的數(shù)據(jù)“權(quán)利束”,還需要更多元的算法決策規(guī)制手段,其中包括:

      第一,建立算法決策事前評估機(jī)制。鑒于事后救濟(jì)的滯后性,因此,加強(qiáng)事前評估可能更有助于保護(hù)個人免受算法妨害。可資借鑒的立法例是歐盟GDPR第35條之規(guī)定。該條款要求算法控制者進(jìn)行事前的“數(shù)據(jù)保護(hù)影響評估”:即當(dāng)數(shù)據(jù)處理尤其是適用新技術(shù)進(jìn)行的數(shù)據(jù)處理,包括建立在自動化處理基礎(chǔ)之上的個人評價或評分且對個人產(chǎn)生法律或類似重大影響的數(shù)據(jù)處理、大規(guī)模個人敏感數(shù)據(jù)處理以及系統(tǒng)性數(shù)據(jù)監(jiān)控,可能妨礙個人行使權(quán)利、阻止其訂立合同或獲得服務(wù)時,算法控制者即應(yīng)提前對數(shù)據(jù)處理行為對個人數(shù)據(jù)保護(hù)造成的影響進(jìn)行評估。作為一項關(guān)鍵的問責(zé)工具,“數(shù)據(jù)保護(hù)影響評估”可促使算法控制者對所有的算法決策,包括完全依賴自動處理而進(jìn)行的決策以及部分的自動化決策可能導(dǎo)致的風(fēng)險進(jìn)行評估,進(jìn)而將算法決策及其適用邏輯告知數(shù)據(jù)主體、解釋自動化處理的意義及可能后果并為他們提供反對算法決策的方法或手段,包括允許其表達(dá)意見。

      A29WP: A29 WP, Guidelines on Automated Individual Decision-making and Profiling for the Purposes of Regulation 2016/679, 17/EN. WP 251rev.01 (Feb. 6, 2018).

      第二,授權(quán)算法監(jiān)管機(jī)構(gòu)訪問算法控制者的自動化決策系統(tǒng),通過官方力量而非完全依賴個人對算法決策系統(tǒng)的偏見、隨意性以及不公平性進(jìn)行監(jiān)督或監(jiān)測,包括對算法控制者用于算法決策的數(shù)據(jù)庫、源代碼以及被嵌入算法系統(tǒng)的那些變量、相關(guān)性以及推論等進(jìn)行審查。為使該等審查更具意義,算法監(jiān)管者或其技術(shù)專家須能有效地對算法的邏輯進(jìn)行評估,并能查驗與群組區(qū)分緊密相關(guān)的模式與相關(guān)性是否不適當(dāng)?shù)乜紤]了種族、國籍、性別以及性取向等涉嫌歧視或造成不公平的因素,

      Danielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1, 24-25 (2014). 并且具有適當(dāng)?shù)臋?quán)力與能力改變不當(dāng)?shù)淖詣踊瘺Q策。尤其是,鑒于算法評估的敏感性以及對弱勢人群的負(fù)面影響,因此,算法決策應(yīng)用于就業(yè)、保險以及醫(yī)療衛(wèi)生等領(lǐng)域時可要求其符合許可與審計要求,而非僅依靠算法控制者自律。

      Danielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1, 20-22 (2014).

      第三,當(dāng)發(fā)生算法決策系統(tǒng)性歧視等大規(guī)模侵害事件時,可考慮由代表機(jī)構(gòu)代替?zhèn)€人行使救濟(jì)權(quán)利。例如,歐盟GDPR第80條第1款、第2款規(guī)定:數(shù)據(jù)主體有權(quán)委托第三方機(jī)構(gòu)提出申訴、行使司法救濟(jì)權(quán)以及獲得賠償?shù)臋?quán)利,成員國法律也可規(guī)定第三方機(jī)構(gòu)無須獲得數(shù)據(jù)主體同意即可向數(shù)據(jù)監(jiān)管機(jī)構(gòu)提出申訴,行使司法救濟(jì)權(quán)。另外,在算法決策侵權(quán)訴訟中,

      當(dāng)事人因算法決策而遭遇歧視或其他類型算法妨害時,可將導(dǎo)致妨害的算法決策行為作為權(quán)益侵害類型而主張權(quán)利。參見丁宇翔:《跨越責(zé)任鴻溝——共享經(jīng)營模式下平臺侵權(quán)責(zé)任的體系化展開》,載《清華法學(xué)》2019年第4期,第118-119頁。 還可借鑒上海金融法院針對群體性證券糾紛而采用的“示范案例”判決機(jī)制(“示范案例”判決機(jī)制的核心在于:“示范案例”認(rèn)定的共通事實和確立的共通的法律適用標(biāo)準(zhǔn)對平行案件具有擴(kuò)張效力),以降低算法決策相對人維權(quán)成本、提高算法決策糾紛解決的效率。

      總之,為確保算法控制者以理性方式將算法運(yùn)用到各種場景之中,在算法“解釋權(quán)”之外,還應(yīng)要求其增強(qiáng)內(nèi)部治理、強(qiáng)化算法決策監(jiān)管或第三方的監(jiān)督檢查等,以實現(xiàn)最大程度的算法正義,這也是算法驅(qū)動的大數(shù)據(jù)產(chǎn)業(yè)可持續(xù)發(fā)展的客觀要求。

      Regulating Algorithmic Decision:

      Focusing on the Right to Explanation of Algorithm

      XIE Zhengshan

      (Law School, Shanghai University of International Business and Economics, Shanghai 201620, China)

      Abstract:

      As a part of economic and social system, algorithmic decisions are creating remarkable social and economic value; on the other hand, they are often questioned by the public, because some unjust predictions or deductions have been made by them, even individual autonomy and dignity have been impaired by their decisions. Seeing that algorithm cant resolve nuisance created by itself, and that there is information or power asymmetry between algorithm controller and data subject, it is necessary that right to explanation of algorithm should be granted to data subject, so as to strengthen its right to object adverse algorithmic decision, then to promote algorithmic justice and to protect individual autonomy and dignity. However, right to explanation may be necessary but insufficient, because its hard to be interpreted and there are tensions between right to explanation and trade secrets. Because of this, algorithmic decisionmaking should be synthetically regulated, including the enhancement to social control and optimization of algorithmic application regulation.

      Key Words: ?algorithmic decision; algorithmic nuisance; right to explanation; algorithmic justice

      本文責(zé)任編輯:李曉鋒

      收稿日期:2019-11-03

      作者簡介:解正山(1973),安徽六安人,法學(xué)博士,上海對外經(jīng)貿(mào)大學(xué)法學(xué)院副教授,法學(xué)博士。

      ①Brent Mittelstadt et al., The Ethics of Algorithms: Mapping the Debate, Big Data & Society, 2016, pp.1-21.

      ②Robert Brauneis & Ellen P. Goodman, Algorithmic Transparency for the Smart City, 20 Yale Journal of Law & Technology 103, 113 (2018).

      猜你喜歡
      解釋權(quán)
      黨內(nèi)法規(guī)解釋權(quán)授權(quán)的規(guī)范反思及完善
      法律方法(2022年1期)2022-07-21 09:20:40
      “最終解釋權(quán)”條款描述的現(xiàn)狀及其規(guī)范規(guī)制
      法制博覽(2020年3期)2020-04-30 06:42:45
      “商家最終解釋權(quán)”的法理分析
      “最終解釋權(quán)”合法嗎?
      『最終解釋權(quán)』合法嗎?
      黨的生活(2016年9期)2016-07-13 05:41:31
      論商家最終解釋權(quán)的違法性
      刑法立法解釋權(quán)與立法權(quán)和司法權(quán)的糾葛研究
      法制博覽(2016年19期)2016-02-01 05:11:07
      理解我國法律解釋權(quán)的“監(jiān)督”向度
      法律方法(2013年1期)2013-10-27 02:27:04
      最高院司法解釋權(quán)的經(jīng)濟(jì)分析
      法律方法(2013年1期)2013-10-27 02:27:00
      雜志有獎訂閱
      秀·美的(2013年4期)2013-07-02 03:54:48
      揭东县| 鸡东县| 六枝特区| 岳西县| 苏尼特左旗| 泰来县| 青海省| 法库县| 闻喜县| 勃利县| 突泉县| 颍上县| 额敏县| 县级市| 永城市| 湘阴县| 孝感市| 东兰县| 濮阳县| 满城县| 瑞昌市| 沭阳县| 贺州市| 渭南市| 孟村| 北辰区| 灵武市| 柯坪县| 凉山| 枣强县| 温泉县| 金乡县| 湘潭市| 尉氏县| 弋阳县| 巩义市| 龙泉市| 望江县| 封丘县| 南召县| 中方县|