• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      論個人信息處理者的算法說明義務

      2021-09-05 08:22呂炳斌
      現(xiàn)代法學 2021年4期

      摘 要:告知同意系個人信息保護的基本要求和核心規(guī)范。告知中的“明示”要求和充分性要求均蘊含著說明義務。在應用算法的自動化決策場合,個人信息處理者也應承擔相應的“算法說明義務”。算法說明義務在理論上具有正當性,不僅共享著個人信息處理者的說明義務的正當理論,還具有若干額外的補強理由,但同時也面臨一些抵觸性的理由;這些理由相互作用,決定了算法說明義務的限度。算法說明義務的目的在于保障個人知情,該義務指向關于算法技術(shù)及其應用方面的有用信息,但無需涵蓋算法的技術(shù)細節(jié)和復雜的數(shù)學解釋。為彌補算法說明義務的不足,可輔之以算法問責制,對算法進行協(xié)同治理。

      關鍵詞:個人信息處理;算法決策;告知同意;說明義務;算法說明義務

      中圖分類號:DF52 文獻標志碼:A

      文章編號:1001-2397(2021)04-0089-13

      DOI:10.3969/j.issn.1001-2397.2021.04.08

      一、問題的提出

      告知同意系個人信息保護的基本要求,并作為核心規(guī)范被納入《中華人民共和國民法典》(以下簡稱《民法典》)之中。其中,“告知”又處于前置地位,是個人信息保護的首要規(guī)范要求。網(wǎng)絡服務商、數(shù)據(jù)企業(yè)等個人信息處理者①必須滿足“公開處理信息的規(guī)則”和“明示處理信息的目的、方式和范圍”這兩項前提條件,這是《民法典》第1035條明文施加的告知義務,《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第7條也對此進行了重申。這兩項條件看似明確,實則由于法律規(guī)范的高度抽象性,存在許多有待解釋的問題。比如,立法者有意區(qū)分使用“公開”和“明示”,“公開”的內(nèi)涵相對清晰,“明示”具有什么特殊內(nèi)涵和規(guī)范要求卻值得探討?!懊魇尽钡囊?guī)范要求中是否存在說明義務?說明的程度是否又意味著充分說明?又如,處理信息的方式屬于“明示”的內(nèi)容,其中是否包括自動化決策的算法?為聚焦討論對象,本文將以應用算法的自動化決策(后文將之簡稱為“算法決策”)為視角,分析和明確個人信息處理者的算法說明義務及其限度。

      隨著大數(shù)據(jù)和人工智能技術(shù)的發(fā)展,算法決策正在興起?;趥€人信息處理,繪制自然人的人格畫像,進行個人性格、行為偏好、身份特質(zhì)等個人特征分析,將之用于定向廣告、精準營銷、保險評估、貸款管理等不同領域,正在逐漸普遍。數(shù)字化的個人信用評分系統(tǒng)也在不斷發(fā)展??梢哉f,一個“空前規(guī)模的‘評分社會或者說等級化的‘排序社會”正在形成季衛(wèi)東:《數(shù)據(jù)、隱私以及人工智能時代的憲法創(chuàng)新》,載《南大法學》2020年第1期,第3頁。。

      在上述背景下,算法決策場合中個人信息處理者的說明義務成為一個非常值得研究的時代命題。個人信息保護問題在廣泛應用算法決策的大數(shù)據(jù)技術(shù)背景下也更為突出,學者也已提出算法解釋權(quán)的概念并對之展開了探討解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,載《現(xiàn)代法學》2020年第1期,第179-193頁;張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學》2019年第6期,第1425-1445頁;張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學》2018年第3期,第65-74頁,等。。就我國現(xiàn)有法律而言,立法者未采納“個人信息權(quán)”一詞,相應地,個人是否享有“算法解釋權(quán)”這種“權(quán)利”也會產(chǎn)生爭議。然而,如下文將詳細展開,盡管我國個人信息保護規(guī)范在整體上未使用權(quán)利化表達,卻確立了相應的義務性規(guī)則,其中蘊含著“算法說明義務”。為跳出權(quán)利和權(quán)益之爭,在學術(shù)研究上也可切換視角,從義務角度展開研究,使用“算法說明義務”的概念。如果說個人是否享有“算法解釋權(quán)”存在爭議,個人信息處理者的算法說明義務在我國法下卻實實在在地存在。本文將首先從規(guī)范分析上論證算法說明義務,認為該項義務扎根于個人信息處理者的首要義務和基本義務即告知義務,孕育并脫胎于后者。其次,在規(guī)范證成之后,本文將從理論上為算法說明義務作正當性證成。最后,本文將探討和明確算法說明義務的范圍及其限度。

      二、算法說明義務的規(guī)范推演路徑

      (一)從個人信息處理者的告知義務到說明義務

      我國個人信息保護方面的立法未采納“個人信息權(quán)”的權(quán)利化表達,但明確規(guī)定了信息處理者的相應義務。個人信息處理者的首要義務是告知義務。并且,比起可以存在“法律、行政法規(guī)另有規(guī)定的除外”的同意要求《民法典》第1035條第1款第1項。,告知義務不僅是個人信息處理者必須滿足的前提條件,還具有普適性,是通常情況下個人信息處理者必須滿足的義務。

      依據(jù)《民法典》第1035條第1款第2、3項確立的基本規(guī)則,個人信息處理者必須滿足“公開處理信息的規(guī)則”和“明示處理信息的目的、方式和范圍”的前提要件。其實,這種告知義務中包含著說明義務。該條款的第2、3項分別以“公開”和“明示”開頭,也體現(xiàn)了立法者對告知義務的程度要求存在區(qū)別。處理信息的規(guī)則只要公開即可。即使規(guī)則中信息混雜、用語晦澀、令人費解,前述公開要求已經(jīng)得到滿足。然而,對于“處理信息的目的、方式和范圍”這些重要事項,僅僅包含在規(guī)則之中予以公開尚且不夠,其告知需要達到“明示”的程度要求。

      個人信息處理者的說明義務正是蘊含在法律上的“明示”要求之中。在文義上,“明示”中的“明”的一種主要含義是明白、清楚,而“示”字也含有表明之意新華辭書社:《新華字典》,商務印書館1971年版,第301、393頁。。由此,“明示”的含義應該是明白、清楚地表明某些信息內(nèi)容,使別人知道?!懊靼住⑶宄乇砻鳌碧N含著說明之意。其實,“明”字在日常使用中也有說明之意。使對方明白、清楚,應該通過解釋說明的手段來實現(xiàn)。因此,從文義上可以解釋得出,《民法典》第1035條中的“明示”一詞意味著該條確立了個人信息處理者的說明義務。

      此外,告知的充分性要求也蘊含著說明義務。告知義務不是一種形式要求,而是一種實質(zhì)要求,其中包含著充分性要求。如此方能實現(xiàn)告知義務的宗旨,促進用戶的知情同意。我國立法機構(gòu)部分工作人員編寫的民法典釋義書藉在解讀《民法典》第1035條時,也認為“只有讓信息主體充分知悉和了解個人信息的規(guī)則、目的、方式和范圍,了解個人信息被處理的后果和可能影響,才可以保護信息主體的意思判斷是自主、真實和合理的”,并在闡述時將該條中的“明示”一詞替換為“用通俗易懂、簡潔明了的語言說明”黃薇主編:《中華人民共和國民法典人格權(quán)編解讀》,中國法制出版社2020年版,第218頁。。其中不僅提出了告知的“充分性”要求,也明確地提出了說明要求。其實,這兩點是相通的,充分告知也意味著信息處理者應當將相關內(nèi)容說明清楚。

      為避免“告而不知”,使知情同意淪為空話,在“告知”的規(guī)范要求中應當內(nèi)含著說明的成分。說明義務的存在,有助于縮小從“告知”到“知情”之間的間距。誠然,告知義務、說明義務的判斷包含著充分性、合理性等不確定概念。何為合理的方式、合理的充分程度在實踐中難免發(fā)生分歧。對此,判斷的基準應當是通常理性人標準,在網(wǎng)絡空間即為普通網(wǎng)絡用戶標準呂炳斌:《個人信息保護的“同意”困境及其出路》,載《法商研究》2021年第2期,第95頁。。網(wǎng)絡服務商、數(shù)據(jù)企業(yè)在收集個人信息時,應當將其目的、方式和范圍明確地向用戶告知說明,以通常用戶能夠理解為準。

      (二)從個人信息處理者的說明義務到算法說明義務

      在基于個人信息處理的算法決策場合,個人信息實際上是通過算法的方式予以處理和分析的,信息處理者也應當有相應的說明義務。本文將之稱為“算法說明義務”,而不是迎合學理上的“算法解釋權(quán)”,從而使用“算法解釋義務”一詞。這主要是為了保持本文術(shù)語使用的一致性和連貫性。說明的基本含義是“解說明白”,和解釋的涵義幾乎相同。因此,本文所謂算法說明義務亦可謂算法解釋義務,與學者所謂“算法解釋權(quán)”相對應。算法說明義務的存在意在保護個人權(quán)益。個人需要獲得關于算法決策的解釋說明,意味著決策對個人將會產(chǎn)生或者已經(jīng)產(chǎn)生實質(zhì)性影響。對個人有實質(zhì)性影響的決策一般也是基于個人信息的處理,在信用評分、刑事量刑等典型情形皆是如此。因此,算法說明義務可謂一般意義上的個人信息處理者說明義務在算法決策場合的推演。

      至于算法說明義務的定義,此處只能先籠統(tǒng)地將之概括為關于利用個人信息進行自動化決策的算法進行說明的義務,具體內(nèi)涵尚待下文探討算法說明義務的范圍和限度之后再行明確。

      (三)算法說明義務在《個人信息保護法》實施后的雙重規(guī)范依據(jù)

      在《民法典》中,個人信息處理者的說明義務源于其明確規(guī)定的告知義務,算法說明義務的淵源也正是告知義務。《個人信息保護法》進一步確立了算法決策相關的說明義務?!秱€人信息保護法》第24條第1款前半句規(guī)定“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結(jié)果公平、公正”,第3款規(guī)定“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定?!薄秱€人信息保護法》第24條。此條第1款規(guī)定的透明度原則其實也蘊含著算法說明義務,第3款確立了一種應要求的說明義務、事后的說明義務。對此條款,本文有兩點評價:第一,該條是否賦予了個人以“算法解釋權(quán)”仍然可能存在爭議。該條在體系上位于“個人信息處理規(guī)則”一章,而不是位于集中規(guī)定個人權(quán)利的“個人在個人信息處理活動中的權(quán)利”一章。在如此體系安排之下,個人是否享有“算法解釋權(quán)”難免產(chǎn)生分歧。但毋庸置疑的是,個人信息處理者需要履行算法說明義務。正是因為權(quán)利和權(quán)益都對應著義務,并且權(quán)利和權(quán)益都要通過對方履行義務來實現(xiàn),研究義務對法律的實施而言更為重要。第二,即使承認該條款規(guī)定了所謂“算法解釋權(quán)”,這也是一種非常有限的“解釋權(quán)”,一方面在時間上僅針對作出決定后的解釋說明,另一方面又有著“重大影響”的條件限制,適用范圍極為有限。而本文提出和論證的“算法說明義務”的范圍將可囊括事前說明和事后說明,且不拘泥于“重大影響”的條件限制,其范圍廣于《個人信息保護法》第24條的規(guī)定。因此,在《個人信息保護法》出臺后,更有必要提倡使用“算法說明義務”這一含義較廣的術(shù)語,如果提倡使用“算法解釋權(quán)”的術(shù)語,則可能僅僅指向前述第24條規(guī)定的有限版本。

      本文認為,在我國《個人信息保護法》出臺并實施后,算法說明義務將有兩處規(guī)范依據(jù):其一是《民法典》確立、《個人信息保護法》予以強化的個人信息處理者的告知義務;其二是《個人信息保護法》引入的自動化決策的透明度原則和特定條件下的事后說明義務。這種雙重規(guī)范依據(jù)與歐盟法律極為類似。歐盟《通用數(shù)據(jù)保護條例》(GDPR)也沒有專門規(guī)定“算法解釋權(quán)”。歐洲學者就“算法解釋權(quán)”是否存在曾展開激烈爭論See Sandra Wachter, Brent Mittelstadt, Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, 7(4) International Data Privacy Law 76-99 (2017); Gianclaudio Malgieri, Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, 7(4) International Data Privacy Law 243-265 (2017).。歐盟官方咨議機構(gòu)發(fā)布的相關適用指南認可了“算法解釋權(quán)”,其主要是依據(jù)GDPR中有關個人知情權(quán)以及個人針對自動化決策的保障措施的規(guī)定進行解釋See Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP251rev.01, 6 February 2018, p.27, p.31.,也類似地存在雙重法律依據(jù)。

      從適用范圍上看,從告知義務中推導得出的算法說明義務可適用于算法決策的全過程,即可包括事前的說明義務,也可包括事后的說明義務;而從個人針對自動化決策的保障措施條款中解釋得出的算法說明義務,僅為一種事后的說明義務。兩者的范圍大小有別,前者大于后者,并可包含后者。盡管后者將更為明確,但算法說明義務的法律淵源和法律依據(jù)并不限于后者,還可源于更廣泛意義上的告知義務。并且,基于《個人信息保護法》第24條規(guī)定的針對自動化決策的事后說明義務存在較高門檻要求,該條包含的算法說明義務的適用范圍非常有限。更為廣泛意義上的算法說明義務還是需要從個人信息處理者的告知義務和說明義務去推導,這可能也是歐洲專家在GDPR專門規(guī)定個人針對自動化決策的保障措施條款的前提下,仍然需要從知情權(quán)條款去推導算法解釋權(quán)的原因所在。概言之,在我國,算法說明義務不應當限于決策生成之后的解釋說明,而應當囊括事前和事后的不同階段,兩者可以分別存在不同的規(guī)范依據(jù)。

      三、算法說明義務的正當性證成

      (一)個人信息處理者說明義務的正當性

      1.說明義務的正當性論證框架:動態(tài)體系論的視角

      無論是一般意義上的個人信息處理者說明義務,還是特定意義上的算法說明義務,都不是一項可以具備明確構(gòu)成要件的義務。此時,在理論上可以求援于動態(tài)體系論,通過對若干關鍵要素的動態(tài)權(quán)衡、綜合考量來論證和確立這種說明義務。動態(tài)體系論有別于秉持“全有全無”原則的構(gòu)成要件論,也不是賦予裁判者無限的自由裁量權(quán),而是一種由不同要素組成的模型王利明:《民法典人格權(quán)編中動態(tài)系統(tǒng)論的采納與運用》,載《法學家》2020年第4期,第2、7頁。。各該要素具有不同的強度,互相協(xié)作,從而提供一種法律上的判斷和論證方法。動態(tài)體系論實際上是一種處于嚴格的構(gòu)成要件論和寬泛的自由裁量論之間的中間道路,可避免過于嚴格和過于自由,尋得一種折中又不失理性的選擇。當然,相比直接適用的構(gòu)成要件而言,動態(tài)體系的運用需要更多的說理論證。在方法論上,動態(tài)體系論的應用過程,也正是一種理性的說理論證過程。

      德國學者構(gòu)建的用于論證說明義務的動態(tài)體系的要素包括信息需求、信息可能性和職責范圍三個要素,我國有學者將之修正為信息重要性、披露可能性、期待合理性和信賴緊密度四個要素尚連杰:《締約過程中說明義務的動態(tài)體系論》,載《法學研究》2016年第3期,第103頁。。從本質(zhì)上看,三要素說和四要素說具有一致性。因為,所謂信息需求,實為站在信息需求方立場,依信息重要程度判斷該信息需求應否得到法律上的承認,將此要素修正為“信息重要性”可謂更為直觀。信息可能性和披露可能性主要是表述上的差異。所謂職責范圍,也與潛在信息接收方的信賴相關。依四要素說,“義務人的‘職責是確立合理信賴的進一步的出發(fā)點和標準”尚連杰:《締約過程中說明義務的動態(tài)體系論》,載《法學研究》2016年第3期,第108頁。。我國學者將“職責范圍”要素分解為期待合理性和信賴緊密度主要是針對締約過程中的說明義務,于此而言,締約過程中存在一方的合理期待和雙方的信賴關系,期待合理性和信賴緊密度兩個要素可謂“職責范圍”要素在締約領域的進一步細化。在論證個人信息處理者的說明義務以及進一步的算法說明義務時,此項義務的產(chǎn)生未必基于契約,雙方未必存在信賴,因此,信賴緊密度該項要素不大適合。從而,筆者仍以德國學者提出的三要素說為論證基準。同時,為便于理解,合理汲取我國學者對前兩個要素的修正表述,將需要討論的要素表述為信息需求(信息重要性)、信息可能性(披露可能性)和職責范圍。

      2.個人信息處理者說明義務的正當性證成

      在個人信息處理場合,被處理的個人信息可能影響人格尊嚴和自由發(fā)展,對個人而言具有重要性,在算法決策場合更是如此。自然人需要知道個人信息被處理的方式、目的和范圍,存在信息需求。個人信息處理者也存在披露可能性,且基于法律上的職責要求有義務去維護自然人的人格利益。初步來看,上述三個要素皆應滿足。其實,動態(tài)體系論有別于構(gòu)成要件論,各要素并非皆需滿足,而是一種互相協(xié)作的關系,“如其中之一的強度特別高,其亦得代替其他要素?!盵德]卡爾·拉倫茨:《法學方法論》,陳愛娥譯,商務印書館 2003年版,第351頁。即使是依據(jù)前述四要素說,信息重要性、披露可能性、期待合理性這三個要素在個人信息處理場合均較為強烈。唯信賴緊密度這個要素較弱,但不影響說明義務的存在。因此,依據(jù)動態(tài)體系論下說明義務的論證框架,無論是三要素說,還是四要素說,個人信息處理者的說明義務都可以得到證成。

      當然,上述動態(tài)體系論下的要素不僅可以證成說明義務,也相應地限定了說明義務的范圍,尤其是前兩個要素。其一,說明的信息內(nèi)容應當具有重要性,若是不重要的信息,個人信息處理者只需要滿足一般的告知義務,無需進一步地滿足說明要求。其二,可予說明的信息內(nèi)容還應當具有披露可能性,在算法場合,尤為如此。隨著人工智能和機器學習的發(fā)展,算法的專業(yè)性和復雜性在不斷增加,有些具體的技術(shù)細節(jié)可能不具有披露可能性。這對于后文構(gòu)建算法說明義務的限度和范圍具有重要意義。

      進一步而言,動態(tài)體系論的要素并非憑空運作,而是構(gòu)建在基本價值的基礎之上,不同要素之間權(quán)重的確定也取決于規(guī)則蘊含的基本價值[奧] 海爾穆特·庫齊奧:《動態(tài)系統(tǒng)論導論》,張玉東譯,載《甘肅政法學院學報》2013年第4期,第43頁。。個人信息保護的基本價值取向于尊重人格尊嚴及自由發(fā)展。這具有比較法和法哲學上的足夠底蘊。在康德的哲學思想中,人具有獨立價值,應作為目的,而不能成為其他人實現(xiàn)其利益的手段。這種倫理學上的人格主義是德國《民法典》的精神基礎[德]卡爾·拉倫茨:《德國民法通論(上冊)》,王曉曄等譯,法律出版社2013年版,第34頁。。我國《民法典》更為強調(diào)人格權(quán)的保護,專設人格權(quán)編,更是體現(xiàn)了倫理學上的人格主義思想。說明義務是告知義務的升級版和強化版,這一升級強化的價值基礎正是為了更好地維護人格尊嚴及自由發(fā)展。說明義務的存在有利于維護自然人的決定自由劉勇:《締約信息提供義務論》,江蘇人民出版社2019年版,第18-21頁。,可更好地保護個人信息。除此之外,告知義務還旨在解決信息提供者和處理者之間的信息不對稱問題。為了實現(xiàn)這兩個目的,告知義務絕不能流于形式,有賴于告知者對重點事項的解釋說明,否則個人信息保護的價值取向和規(guī)范意旨就會落空。

      說明義務不僅在規(guī)范和價值層面可以得到證成,也反映著實踐需求。在大數(shù)據(jù)時代,有別于數(shù)據(jù)財產(chǎn)權(quán)益的保護,個人信息的保護并不存在自發(fā)和內(nèi)在的技術(shù)驅(qū)動機制陳璞:《論網(wǎng)絡法權(quán)構(gòu)建中的主體性原則》,載《中國法學》2018年第3期,第87頁。。反而,技術(shù)發(fā)展具有內(nèi)在的動力去過度使用個人信息。個人信息處理者的說明義務是針對個人信息保護的技術(shù)驅(qū)動機制缺乏的一種彌補措施。說明義務的存在,有助于避免個人信息的盲目和過度使用。在這方面,法律干預、義務設定是對技術(shù)發(fā)展中可能出現(xiàn)的失衡狀態(tài)的一種糾正措施。

      (二)算法說明義務的補強理由

      算法說明義務的理論證成,除了共享前述個人信息處理者說明義務的正當理論之外,還具有額外的補強理由,具體如下:

      第一,算法決策具有權(quán)力內(nèi)涵,算法說明義務旨在保障算法的可責性和透明度,是落實權(quán)力問責機制的需要。在大數(shù)據(jù)時代,算法是數(shù)據(jù)技術(shù)中的“基礎語言”,有著舉足輕重的作用。算法決策也有效率上的優(yōu)勢,可提高人類社會的運轉(zhuǎn)效率,促進社會福利。算法決策也可排除人為的情感干擾,更為理性,更具邏輯性?;谶@些優(yōu)勢,算法決策有著廣泛的應用空間,將日益普遍。在實際應用中,算法決策不僅僅是一種技術(shù)工具,它還產(chǎn)生了權(quán)力內(nèi)涵,可對個人產(chǎn)生實質(zhì)性的影響。即使運用算法的是私主體,騰訊、阿里、百度等網(wǎng)絡平臺已經(jīng)日益嵌入人們生活,其商業(yè)屬性和公共屬性已經(jīng)難解難分丁曉東:《論算法的法律規(guī)制》,載《中國社會科學》2020年第12期,第151頁。。這些平臺已成為公共生活空間,其算法將對不特定多數(shù)人的生活產(chǎn)生影響。依萊斯格的網(wǎng)絡法理論,互聯(lián)網(wǎng)和網(wǎng)絡空間在本質(zhì)上受到代碼的規(guī)制,人們在代碼的規(guī)制下生活[美]勞倫斯·萊斯格: 《代碼 2. 0: 網(wǎng)絡空間中的法律》(修訂版),李旭、沈偉偉譯,清華大學出版社2018年版,第91-92頁。。在大數(shù)據(jù)時代,算法具有了同樣的規(guī)制內(nèi)涵,產(chǎn)生了規(guī)制人們生活之力。有學者更是直接認為,算法權(quán)力是“一種準國家權(quán)力的權(quán)力”陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當程序?》,載《比較法研究》2020年第2期,第129頁。。從而,對算法的規(guī)制也應按照規(guī)制公權(quán)力的思路展開。在當代社會,權(quán)力的行使普遍奉行透明和信息公開原則。由此角度,算法說明義務的存在,并不僅僅是對技術(shù)性事項的解釋說明,也是對權(quán)力行使的邏輯及理由的必要說明。如無算法說明義務,算法決策中就會布滿黑箱,決策權(quán)力將不受限制。此外,算法說明義務不僅體現(xiàn)著維護權(quán)力問責機制的實質(zhì)正義,也體現(xiàn)著維護當事人問責和救濟權(quán)利的程序正義。在算法得以解釋和說明的基礎上,當事人才能提出反駁或要求重新審查。算法的解釋說明是這些相應程序的基礎,可從實質(zhì)和程序兩方面保障和落實權(quán)力問責機制。

      第二,算法說明義務的存在是解決算法信任危機的需要。傳統(tǒng)上,決策的方式包括個人決策、集體決策等。集體決策是一種緩解個人決策壓力的制度,也是一種逃避決策者個人責任的制度。與以犧牲效率為代價的集體決策相比,算法決策不僅可以提高效率,還可以轉(zhuǎn)嫁決策風險、規(guī)避錯誤決策責任。通過集體決策在當代社會的盛行可以預見,算法決策在未來科技社會也將得到普遍實施。然而,算法決策和其他類型的決策一樣,都會面臨信任危機。集體決策的基本邏輯是精英決策,一般是由某團體內(nèi)部的精英分子和權(quán)威人士組成小型決策機構(gòu)。受決策影響者對決策結(jié)果的信服建立在對決策者的信賴基礎之上。而算法決策由機器執(zhí)行,人類對之的信任危機將更為突出。在訴諸權(quán)威之外,解決信任危機的主要方法是解釋說明。由此,對算法的解釋說明也是算法信任危機的解決方案中不可或缺的重要組成部分。

      第三,算法說明義務還具有制度激勵功能,可促進更為透明、更為可靠的算法的研發(fā)和誕生。若無此義務,算法就會朝著黑暗的方向前行,“算法黑箱”不僅可能會因此合法化,而且還會得到持續(xù)的制度支撐和發(fā)展動力。恰當?shù)姆梢?guī)范和義務配置有助于促進技術(shù)的良性發(fā)展。若要使“科技向善”,不僅需要科技產(chǎn)業(yè)界將之作為一種理念和口號,也需要作為行為規(guī)范的法律規(guī)則尤其是義務規(guī)則的指引。

      總之,算法說明義務具有十足的正當性理由,足以證成。然而,在另一方面,它也面臨著一些障礙。算法說明義務正是在正反兩方面的理由碰撞之中生存,這些理由的相互碰撞也決定了該項義務的范圍和限度。

      四、算法說明義務的范圍和限度

      (一)算法說明義務面臨的障礙

      1.算法說明的技術(shù)障礙和成本問題

      算法說明義務存在的直接目的是使受算法決策影響者理解算法。然而,受眾理解算法,存在不少障礙,這一方面受制于算法本身的專業(yè)性和復雜性,另一方面也受制于受眾在技術(shù)方面的理解能力。AlphaGo戰(zhàn)勝柯潔即是人工智能算法無法解釋的典型例證。如果程序員可以理解AlphaGo的算法,程序員也將成為杰出的棋手,甚至可以預測和破解其算法,從而戰(zhàn)勝它。計算機算法往往由復雜的代碼構(gòu)成,絕非“1+1=2”那么簡單。誠如學者所言,在外行眼里,“代碼即亂碼,算法像魔法?!鄙騻ィ骸端惴ㄍ该髟瓌t的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評論》2019年第6期,第29頁。應用于商業(yè)決策和社會決策的算法更是如此,其往往是大型的算法設計,其中包含的參數(shù)和變量極多,且可能經(jīng)歷了數(shù)任程序員的修改與更新,其中還可能存在一些不能輕易修改、程序員自己都未必理解的“祖?zhèn)鞔a”,算法的解釋說明在技術(shù)上的確存在種種障礙蘇宇:《算法規(guī)制的譜系》,載《中國法學》2020年第3期,第168頁。。在機器深度學習的背景下,人工智能的神經(jīng)網(wǎng)絡層數(shù)和決策參數(shù)在不斷增加和變化,算法也在不斷的更新發(fā)展之中,算法的動態(tài)化、智能化更是加劇了算法解釋說明的難度??梢哉f,對于人工智能算法而言,任何解釋說明都難以達到充分性的要求。

      由上可知,在算法說明義務的程度和范圍的構(gòu)造中,需要充分考慮算法設計者或應用者的解釋成本問題,并將之與公眾的潛在收益進行大致的衡量。從技術(shù)上而言,算法的解釋說明的確存在“易讀性”、可解釋性或可說明性的問題?;诩夹g(shù)障礙和說明成本的考量,一個初步的結(jié)論是算法設計者或應用者只需要解釋說明到邏輯思路層面,而不是解釋說明具體的運算方法,更不必提供復雜的數(shù)學解釋。

      2.商業(yè)秘密的限制問題

      作為一種技術(shù)方案,知識產(chǎn)權(quán)保護對算法的研發(fā)具有重要的激勵作用。然而,算法在現(xiàn)行知識產(chǎn)權(quán)法律框架下很難獲得專利權(quán)、著作權(quán)的保護,從而需要尋求商業(yè)秘密保護。第一,在專利權(quán)保護方面,智力活動的規(guī)則和方法不屬于專利保護的的客體,這是公認原理。我國《專利法》第25條也是如此規(guī)定,而算法正是一種智力活動的規(guī)則和方法,其本身并不能獲得專利。但是,包含算法的技術(shù)方案是一種技術(shù)領域的發(fā)明,應當可以獲得專利。在大數(shù)據(jù)和人工智能發(fā)展背景下,國家知識產(chǎn)權(quán)局于2019年12月31日專門修改了《專利審查指南》,明確了抽象的算法本身不能獲得專利,但包含算法的技術(shù)方案在滿足新穎性、創(chuàng)造性、實用性等可專利性條件下可以獲得專利《國家知識產(chǎn)權(quán)局關于修改〈專利審查指南〉的決定》,國家知識產(chǎn)權(quán)局公告第343號,2019年12月31日。。據(jù)此,算法可以通過納入整體技術(shù)方案的形式間接地獲利專利保護,但將算法作為整體技術(shù)方案的一部分的保護方式有一定的局限性,他人的侵權(quán)也限于對整體技術(shù)方案或等同方案的侵權(quán)。他人對其中算法的使用完全可以提出抗辯,認為其使用的是不受法律保護的部分。此外,從商業(yè)競爭的角度而言,公開算法、申請專利也非良策。因此,即使是通過專利制度來間接保護算法也具有很大的缺陷。第二,在著作權(quán)(版權(quán))保護方面,算法可以分解為一系列的數(shù)字化的代碼和命令,猶如其他語法字符串,這些代碼和命令可以獲得版權(quán)保護。但著作權(quán)法僅僅保護算法的表達層面,即代碼和命令的符號組合,而不是算法本身。綜上,專利保護和版權(quán)保護在算法保護上都存在不足,并非算法保護的首選之策。從而,商業(yè)秘密成了算法及其源代碼的默認保護方式See Sonia K. Katyal,Private Accountability in the Age of Artificial Intelligence, 66 UCLA Law Review 54, 125 (2019).。美國一起典型判例即認為用于裁判量刑的算法屬于商業(yè)秘密,無需披露State v. Loomis, 881 N.W.2d 749 (Wis. 2016).。在我國,已有案例涉及算法系統(tǒng)的商業(yè)秘密保護和算法披露之間的沖突問題。在某案中,阿里媽媽公司基于算法系統(tǒng),認定原告在推廣中涉嫌違規(guī),給予處罰,但以算法保密為由拒絕披露具體的處罰依據(jù)。法院從格式合同的規(guī)制著眼,認為單方免責的規(guī)定顯失公平參見“陳魚與杭州阿里媽媽軟件服務有限公司網(wǎng)絡服務合同案”,杭州鐵路運輸法院(2017)浙8601民初3306號民事判決書。。其實,從算法的商業(yè)秘密保護角度看,阿里媽媽公司拒絕披露具體的處罰依據(jù),也有一定的道理。畢竟,其中算法可能的確享有商業(yè)秘密保護。除了技術(shù)層面的算法之外,算法運用的數(shù)據(jù)也可能構(gòu)成商業(yè)秘密。基于商業(yè)秘密的特性,算法及其數(shù)據(jù)的商業(yè)秘密保護將對算法披露和說明構(gòu)成實質(zhì)性的限制。

      以商業(yè)秘密保護之由,拒絕算法的披露和說明,無疑會產(chǎn)生一定的負面效應。商業(yè)秘密保護缺乏明確的邊界,也不像權(quán)利化的著作權(quán)、專利權(quán)那樣存在法定的限制和例外,從而缺乏明確的權(quán)利保護的平衡機制,需要在個案中進行利益衡量,這就導致了算法商業(yè)秘密保護的復雜性。更為重要的是,商業(yè)秘密缺乏也不可能具有公示制度,故而號稱受到商業(yè)秘密保護的算法到底能否構(gòu)成商業(yè)秘密,旁人無從得知。正如學者指出,如果不先公開和檢查源代碼,他人就不可能知道一種算法是否可以作為商業(yè)秘密See Charles Short,Guilt by Machine: The Problem of Source Code Discovery in Florida DUI Prosecutions,61 Florida Law Review 177, 190 (2009).。因此,即使決策程序使用的軟件代碼和算法來自公有領域,算法所有人或使用人仍可能聲稱其屬于商業(yè)秘密,以此名義,不予披露,拒絕解釋。算法的商業(yè)秘密保護實際上是認可“算法黑箱”,并在一定程度上將之合理化,與權(quán)力行使的透明原則相悖。

      如何解決算法的解釋說明和商業(yè)秘密保護之間的沖突,是一個較為棘手的問題。第一種思路是個人信息保護優(yōu)先于商業(yè)秘密保護。歐洲有學者認為,與保護商業(yè)秘密相比,GDPR更傾向于強化對個人數(shù)據(jù)權(quán)利的保護,因此,建立在個人數(shù)據(jù)權(quán)利基礎上的算法解釋權(quán)相較于商業(yè)秘密具有優(yōu)先地位See Gianclaudio Malgieri, Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, 7(4) International Data Privacy Law 243, 262-264 (2017).。在中國法的語境之下,個人信息和商業(yè)秘密屬于等階的權(quán)益,盡管不少學者主張對這兩項客體予以權(quán)利化的保護,但立法上并沒有明確地采取權(quán)利化的表述。因此,權(quán)利化的個人數(shù)據(jù)利益高于非權(quán)利化的商業(yè)秘密利益,這在歐盟法的語境下可能成立,但在中國法的語境下并不當然成立。另一種思路仍然是尋求比商業(yè)秘密位階更高的利益。在這方面,公共利益的概念無疑可以出場。我國有學者即認為,公共利益的存在可以在特定情形下否定算法的商業(yè)秘密保護陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當程序?》,載《比較法研究》2020年第2期,第127頁。。的確,公共利益可以構(gòu)成對民事權(quán)益的限制,但其適用空間也極為有限。只有當算法披露涉及公共利益時,才能動用這個理由。顯然,并不是所有的算法決策都涉及公共利益;反而,大多數(shù)基于個人信息處理的算法決策可能只涉及個人利益,而不是公共利益。

      綜上所述,我們很難找出一個普適性的理由,來使算法說明義務凌駕于算法的商業(yè)秘密保護之上,后者的確將構(gòu)成對前者的限制。據(jù)此,可以說明的主要是系統(tǒng)功能以及算法的一般邏輯和主要參數(shù),而不包括詳細的參數(shù)和權(quán)重,后者往往落入商業(yè)秘密的保護范疇。需強調(diào)的是,商業(yè)秘密保護對算法解釋說明可以起到限制作用,但不是絕對的拒絕。在兩項沖突的利益面前,探討某項旨在保護其中一種利益的措施之程度是否合理時,可借鑒比例原則的思想。比例原則的本質(zhì)在于“禁止過度”,在民事領域也有著廣泛的應用空間鄭曉劍:《比例原則在民法上的適用及展開》,載《中國法學》2016年第2期,第143-165頁。?;诒壤瓌t的思想,為了保護個人權(quán)益,要求算法的解釋說明,可符合適當性的要求;只要將對算法商業(yè)秘密保護的影響控制在最小范圍之內(nèi),也可符合必要性的要求。但狹義比例原則也要求以最緩和的手段來實現(xiàn)算法說明的目的。由此,算法說明義務需要以最為緩和的方法進行,減少和避免對商業(yè)秘密的侵害。

      3.決策系統(tǒng)的人為干擾和濫用問題

      面對技術(shù)日漸深入人類生活各個領域,有人會對技術(shù)進行博弈,這是可以預見的。這種博弈可能導致對算法決策系統(tǒng)的干擾和濫用。在現(xiàn)實中,針對主流的信用評分系統(tǒng),黑市中的“刷分”產(chǎn)業(yè)鏈已然形成謝宛霏、徐楚霖:《芝麻信用刷分背后暗藏套現(xiàn)產(chǎn)業(yè)鏈》,載《中國青年報》2017年8月4日第06版。。

      在防止算法的博弈和作弊方面,算法保密具有獨特的內(nèi)在價值。匿名和保密可促進公平,這似乎是不證自明的公理。學術(shù)期刊普遍推行的同行專家匿名評審即是一個典型的例證。同理,將算法保密,可避免算法博弈、數(shù)據(jù)作弊等人為干擾,有利于所有人都在公平的狀態(tài)下獲得分析和評價。這對正在形成的算法社會的秩序構(gòu)建具有不可忽視的社會價值。正因為如此,某些決策的過程和依據(jù)必須保持晦澀不明,以免他人博弈See Joshua A. Kroll, Joanna Huey, Solon Barocas et al.,Accountable Algorithms, 165 University of Pennsylvania Law Review 633, 639 (2017).。若信用評分系統(tǒng)的算法完全公開和透明,刷分和博弈現(xiàn)象將更加猖獗。

      4.產(chǎn)業(yè)競爭和技術(shù)發(fā)展需要算法保持復雜和晦澀

      就產(chǎn)業(yè)競爭而言,算法越是復雜和晦澀,就越是難以被反向工程所破解,其競爭優(yōu)勢也會越明顯。從競爭的角度看,算法開發(fā)者具有內(nèi)在動力去保持算法的復雜性和晦澀性,這會致使算法難以得到充分的解釋。

      就技術(shù)發(fā)展而言,算法只有超越人類智慧,才能給人類帶來更多益處。如果要求算法決策的方法必須為人類所理解,這不僅可能與事實不符,也可能會阻礙算法技術(shù)的創(chuàng)新發(fā)展。由此角度而言,算法是不能被人類所充分說明的。若法律對算法開發(fā)者或使用者施加充分公開和完全透明的說明義務,可能會阻礙科技的創(chuàng)新發(fā)展,不利于社會的進步。

      總之,從算法披露和說明的可能性和成本問題、保護商業(yè)秘密的需要、防止決策系統(tǒng)受到人為干擾和濫用的需要以及產(chǎn)業(yè)競爭與技術(shù)發(fā)展的需要等不同角度,都可以發(fā)現(xiàn)算法說明義務面臨著各種阻力。這種抵制性理由與算法說明義務的正當性理由相互作用,只能導向有限的算法說明義務。

      (二)算法說明義務的說明范圍及其限度

      算法說明義務的說明范圍及其限度其實是一個問題,可歸結(jié)為:信息處理者需要就哪些事項進行說明?回答這一問題時,自然也會明確信息處理者不需要就哪些事項進行說明。

      在比較法上,算法說明義務的范圍和限度也是個棘手的問題,在個人數(shù)據(jù)保護領域較為領先的歐盟也缺乏明確的答案。歐洲學者近年來展開的“算法解釋權(quán)”之爭,其中不僅涉及該項權(quán)利是否存在,也涉及該項權(quán)利的范圍和限度問題。如前提及,歐盟官方咨議機構(gòu)發(fā)布的相關適用指南認可了“算法解釋權(quán)”,但對于自然人如何行使這些權(quán)利,該指南卻語焉不詳。在比較法經(jīng)驗不足的情況下,我們還是需要根據(jù)算法說明義務的基本原理去明確和限定其范圍。

      首先需要分析和明確的問題是,算法說明的對象是限于一般意義上的系統(tǒng)功能,還是可以包括對特定決定的算法決策過程所作的解釋說明?與之相關,可進一步澄清和明確算法說明義務是事前的說明義務抑或是事后的說明義務。事前解釋側(cè)重于解釋系統(tǒng)功能,而無法就一個特定決定的理由依據(jù)進行說明。事后解釋的內(nèi)容則可囊括系統(tǒng)功能和特定決定的理由依據(jù)See Sandra Wachter, Brent Mittelstadt, Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, 7(4) International Data Privacy Law 76, 78 (2017).。比如,就采用算法決策的信用評分系統(tǒng)而言,個人信息處理者在事前能解釋和說明的是系統(tǒng)的一般邏輯、使用的數(shù)據(jù)類型、算法決策的目的以及預期用途;事后解釋則可進一步說明一個特定的評分是如何形成的,這就需要結(jié)合信息主體的個體情況對其數(shù)據(jù)和權(quán)重進行說明??梢?,事后解釋是一種更傾向于個體主義的解釋,也將會透露出更多的有助于理解算法決策的信息,具有一定優(yōu)勢,應予肯定。從個人信息保護立場出發(fā),透明度原則應當貫穿于個人信息的使用、分析等不同階段,以使個人獲得算法決策的準確性、有效性和不歧視的保障Tal Z. Zarsky,Transparent Predictions,2013 University of Illinois Law Review 1503,1548 (2013).。

      我國《個人信息保護法》第24條關于個人針對自動化決策的保障措施條款中規(guī)定的算法說明義務針對的是已經(jīng)作出決定的自動化決策,是一種事后說明。盡管事后說明對于保護個人信息權(quán)益而言非常重要,但同樣不能忽視事前說明的重要性。我國法律對“個人信息的處理”進行了極為廣義的界定,不限于狹義上的加工處理,還包括收集、提供、公開等,并且法律沒有進行窮盡列舉。相應地,個人信息處理的告知義務和說明義務也可貫穿于個人信息“處理”的全過程。因此,我國法下的個人信息處理者的說明義務不限于事后說明,也包括加工處理、使用中的說明,還可以是事前對系統(tǒng)功能等事項的說明。相應地,算法說明義務既包括事后說明,也包括事前說明,既涉及面向特定對象、就特定決策進行的解釋說明,也涉及就一般意義上的系統(tǒng)功能等事項的說明。只有這種覆蓋個人信息處理全階段的說明義務,才能充分保障個人在算法決策中的權(quán)益。

      其次,從技術(shù)角度而言,算法的解釋說明到底應該解釋到什么程度?復雜的數(shù)學解釋往往超出了普通人的理解能力,既不必要,也不可行。歐盟的態(tài)度也是如此,信息處理者只需提供關于算法邏輯的有用信息。至于何為有用信息,這一判斷具有事實依賴性,法律上難以形成明確的標準。歐盟指南在附件中也只是提供了一份“良好做法建議”,建議個人信息處理者以明白易懂的方式向自然人提供諸如以下信息:在生成用戶畫像和分析決策過程中已經(jīng)或?qū)⒁褂玫臄?shù)據(jù)類別;這些數(shù)據(jù)類型具有相關性的原因;自動化決策中使用的用戶畫像是如何生成的,包括自動化決策中使用的統(tǒng)計信息;為何此畫像與自動化決策相關以及如何將其用于針對某個自然人的決策Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP251rev.01, 6 February 2018, p.31.。筆者認為,在算法解釋說明的技術(shù)層面,重點不應該放在算法的具體技術(shù)細節(jié),而應該是整體方案、技術(shù)本質(zhì)、基本邏輯、主要參數(shù)、大致權(quán)重和潛在風險等關鍵信息。但是,只是籠統(tǒng)地披露整體方案和技術(shù)本質(zhì)尚無濟于事,不能滿足算法說明義務的程度要求。比如,我國最為著名的信用評分系統(tǒng)——芝麻信用——公開披露的算法是“運用云計算及機器學習等技術(shù),通過邏輯回歸、決策樹、隨機森林等模型算法,對各維度數(shù)據(jù)進行綜合處理和評估”參見芝麻信用網(wǎng)站關于“芝麻分”的介紹,https://www.zmxy.com.cn/#/detail/1-2,2021年7月20日訪問。,這就顯得不足。什么是邏輯回歸、決策樹和隨機森林?這些術(shù)語根本不便普通人理解和知情,“綜合處理和評估”更是模糊且籠統(tǒng)的表述。個人信息處理者的披露說明應不限于此,算法技術(shù)的基本邏輯和主要參數(shù)應可披露,技術(shù)的潛在風險也可加以說明,這并不會對信息處理者帶來過多的成本,也不會影響其對算法的商業(yè)秘密保護。畢竟,商業(yè)秘密保護的是秘密點,這些模型算法的基本邏輯和主要參數(shù)很難落入商業(yè)秘密保護范疇。只是披露基本邏輯和主要參數(shù),而不披露具體的參數(shù)和權(quán)重,也很難被用戶用于博弈,造成濫用,也不會影響產(chǎn)業(yè)競爭和技術(shù)發(fā)展。其實,個人通過廣泛檢索,還是可以弄清邏輯回歸、決策樹和隨機森林等模型算法的基本邏輯的,但會面臨較高的查找和學習成本。既然信息處理者可以以較低成本披露這些算法的基本邏輯,就應當基于告知義務的基本宗旨,予以披露,以便促進個人知情。此外,技術(shù)層面的算法披露的一個障礙是一般的自然人未必能夠理解,這就要求在風險和敏感度較高的決策領域,使用人類可以解釋和理解的技術(shù)方案和決策方法,從而規(guī)避不可控制的風險。

      最后是算法說明的范圍限于算法本身,還是包括算法的應用?其實,技術(shù)本身是無害的,對個人權(quán)益造成侵害的往往是算法應用,而不是算法本身。因此,算法說明的重點之一應當是算法的具體應用方式。比如,算法決策的結(jié)果是用于信用評分、工作評估、定向廣告還是其他用途?在應用過程中,是否存在人工干預?如果存在,人工干預的程度如何?決策結(jié)果是否可以受到重新審查?其條件和程序如何?當然,從算法應用著手進行解釋,仍然難以回避對算法技術(shù)方案的解釋,兩者應當相輔相成。同樣以國內(nèi)最為著名的芝麻信用評分為例,其在算法應用方面僅僅說明了“較高的芝麻分可以幫助用戶獲得更高效、更優(yōu)質(zhì)的服務”參見芝麻信用網(wǎng)站關于“芝麻分”的介紹,https://www.zmxy.com.cn/#/detail/1-2,2021年7月20日訪問。,這也顯得不夠。這些評分到底作何用途,會對個人產(chǎn)生什么影響,應當予以較為清晰的說明。

      (三)算法說明義務“有限版”的有益補充

      個人信息保護原則上奉行私法自治。當私法自治存在不足時,則需動用公私法協(xié)同規(guī)制的方案。在算法決策場合,這也是由算法本身的特征決定的。算法風險高度分散、形態(tài)多樣,充滿著很多不確定性,需要構(gòu)建從不同的風險鏈條節(jié)點介入、由不同主體參與的規(guī)制譜系蘇宇:《算法規(guī)制的譜系》,載《中國法學》2020年第3期,第177-184頁。。

      算法說明可以打開“算法黑箱”,最大程度地促使關于算法的基本邏輯、主要參數(shù)、大致權(quán)重、具體用途及潛在風險等關鍵信息和有用信息的披露,以最大程度地保障個人知情。為此目的,這些信息應當以通常理性人可以理解的方式進行說明。另一方面,具體的技術(shù)細節(jié)和復雜的數(shù)學解釋往往超出了普通大眾的理解能力,通常也超出了保障個人知情同意的需要。有關具體參數(shù)和權(quán)重的技術(shù)細節(jié)還可能構(gòu)成商業(yè)秘密保護的秘密點,因此,一些“算法黑箱”可能無法被徹底打破。前文也已論及,要求算法的徹底公開和完全披露也不盡合理。故而,出于商業(yè)秘密保護等限制因素,算法說明義務難免存在不足。如果算法決策可能存在的歧視和偏見恰好是由算法中的秘密點造成的,出于保護商業(yè)秘密的考慮而放棄對算法的監(jiān)督,并不合理。此時,以第三方審計和監(jiān)督的方式進行的算法問責制成為一個替補的合理選擇,這既可以避免算法中的秘密點的公開,也可以促使算法受到專業(yè)人士的監(jiān)督和控制,化解算法中的秘密點的潛在風險和危機。當然,算法問責制也存在外部監(jiān)督成本較高、有效性也未必得到保障等問題。也正是因為如此,本文提倡的首要算法治理措施是算法說明義務。一般而言,算法的基本邏輯、主要參數(shù)、大致權(quán)重、具體用途及潛在風險等關鍵信息的披露可以確保個人的知情同意,也可以基本保障算法的透明度原則。當算法說明義務無法充分實現(xiàn)算法治理的目標、無法確定受決策的個人是否得到公平合理的對待時,才需要第三方審計和監(jiān)督的介入。

      在比較法上,歐盟傾向于以個人數(shù)據(jù)權(quán)利為基礎開展算法治理,美國則傾向于通過算法審計和問責機制促進算法治理張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學》2019年第6期,第1425頁。。兩種模式各具優(yōu)劣。中國可以汲取不同模式的優(yōu)勢,打造出算法治理的升級版和優(yōu)化版。在方法論上,算法解釋權(quán)或算法說明義務主要采取個體主義方法論,而算法問責制主要采取整體主義方法論。在算法說明義務之外,輔之以算法問責制,實際上是選擇個體主義和整體主義兼具的算法治理之道。包括算法治理在內(nèi)的社會治理均要從整體和個體兩方面入手,方能不偏不倚,實現(xiàn)綜合治理、協(xié)同治理。

      五、結(jié)論

      在應用算法的個人信息自動化決策場合,個人信息處理者(同時也是算法決策者)需要承擔相應的說明義務,本文將之稱為算法說明義務。這在規(guī)范上和理論上均可得到解釋和證成,但同時也面臨著障礙。因此,算法說明義務有一定限度。算法說明義務的目的在于提供算法的有用信息,主要包括技術(shù)和應用兩大方面。在技術(shù)上,可以說明的是系統(tǒng)功能、技術(shù)本質(zhì)、整體方案、基本邏輯、主要參數(shù)及大致權(quán)重、使用的數(shù)據(jù)類別和范圍、數(shù)據(jù)的相關性、自動化決策的用戶畫像如何生成等有用信息??刹挥枵f明的是算法的技術(shù)細節(jié)、具體運算方式、詳細的參數(shù)和權(quán)重;動態(tài)化、智能化的人工智能神經(jīng)網(wǎng)絡層數(shù)和決策參數(shù)更是無需說明,在事實上也無法說明。在算法應用上,應當說明的是算法的用途和目的、算法決策可能存在的不足和風險、是否存在人工干預、對決策結(jié)果進行重新審查的條件和程序等信息。算法說明義務既包括事前說明,也包括面向特定對象、就特定決策進行的事后說明。該義務主要圍繞算法這種個人信息的處理方式而展開,同時涉及個人信息處理的目的和范圍,與一般意義上的信息處理者的說明義務在本質(zhì)上具有一致性,可謂一脈相承。

      本文從義務角度研究個人信息保護規(guī)范不僅具有學術(shù)上的轉(zhuǎn)向作用,也具有重要的實踐意義。我國學界對個人信息是權(quán)利還是權(quán)益存在理論爭議。其實,無論是權(quán)利,還是權(quán)益,都存在對應的義務,違反義務才會產(chǎn)生法律責任。明確義務的內(nèi)涵和范圍,對法律的實施至關重要。因此,在理論上繼續(xù)探討個人信息權(quán)利(權(quán)益)的性質(zhì)和地位之余,加強個人信息的保護義務研究,可深化對個人信息保護規(guī)范的理解,促進法律規(guī)則的實施。

      本文責任編輯:林士平

      瓦房店市| 白银市| 天祝| 婺源县| 平乡县| 宝山区| 简阳市| 奇台县| 巩留县| 海阳市| 紫云| 河津市| 普格县| 永清县| 繁峙县| 大宁县| 红桥区| 襄垣县| 苏尼特右旗| 蓬溪县| 电白县| 临武县| 遂平县| 遵义市| 青浦区| 晋江市| 孝感市| 高密市| 霍山县| 荣昌县| 遂昌县| 油尖旺区| 八宿县| 吴川市| 邯郸县| 贵阳市| 岐山县| 利津县| 泊头市| 丹棱县| 彰武县|