• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      重解個人信息的本質特征:算法識別性

      2023-06-21 19:46:43彭誠信
      關鍵詞:個人信息權個人信息

      彭誠信

      摘? ?要: 個人信息的可識別定性引發(fā)了個人信息權與傳統(tǒng)人格權的區(qū)分難題,司法裁判中既存在以傳統(tǒng)人格權保護個人信息,也存在以個人信息權裁判傳統(tǒng)人格權糾紛的現象??勺R別不宜作為個人信息的本質特征,因為其脫離了個人信息制度產生的數字社會基礎,忽視了數字社會與傳統(tǒng)社會中的識別差異,混淆了個人信息在各部門法中的不同內涵。算法識別性才是個人信息的本質特征,個人信息權的客體范圍、法律屬性、權利內容等均產生于算法識別性。正是根據個人信息之算法識別性,方能把傳統(tǒng)人格權與個人信息權案件至少在民法領域中區(qū)分開來。當信息處理方式在事實層面難以查明時,仍應歸入傳統(tǒng)人格權侵權案件;當算法技術程度不同時,需根據個案衡量能否適用個人信息權。盡管文章是以個人信息權與傳統(tǒng)人格權的區(qū)分作為例證來揭示該定性的理論價值和實踐意義,但個人信息算法識別性其實關涉數字空間中可計算個人信息所有法律制度的設計。

      關鍵詞: 數字社會;個人信息;個人信息權;傳統(tǒng)人格權;算法技術;算法識別性

      中圖分類號: TP18? 文獻標識碼:A 文章編號:1004-8634(2023)03-0068-(14)

      DOI:10.13852/J.CNKI.JSHNU.2023.03.008

      隨著《中華人民共和國民法典》(以下簡稱《民法典》)、《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)等法律的頒布,個人信息權1 已成為我國實證法上的一項權利。盡管對個人信息權的權利屬性,尤其是如何理解其財產屬性尚存在分歧,2 但個人信息權作為一項具體人格權已基本形成共識。在我國立法規(guī)定個人信息權之前,學界的研究聚焦于論證個人信息權與傳統(tǒng)人格權的差異,即傳統(tǒng)人格權難以解決,需新增個人信息權才能予以解決的情形。3 而在我國立法規(guī)定個人信息權后,理論上的問題轉變?yōu)槿绾谓鉀Q個人信息權與傳統(tǒng)人格權的重疊問題。因為就客觀表現而言,傳統(tǒng)非物質性人格權客體亦以個人信息的形式呈現,姓名、肖像、名譽、隱私等,概莫能外。對傳統(tǒng)非物質性人格權的侵害,必然也會同時表現為對個人信息的違法處理。故如何解決傳統(tǒng)人格權與個人信息權的重疊問題,成為立法確立個人信息權后面臨的難題。而這一問題的解決,在根本上有賴于厘清何為個人信息。本文將從司法實踐出發(fā),展示個人信息權與傳統(tǒng)人格權在司法實踐中“相互交織”的適用關系,進而分析這一現象出現的原因,從而提出厘清二者關系的關鍵在于重解個人信息的本質特征,即算法識別性,最后展示算法識別性在司法裁判中的實踐價值。

      一、可識別定性下個人信息權與傳統(tǒng)人格權的區(qū)分難題

      自2017年《中華人民共和國民法總則》(以下簡稱《民法總則》)第111條規(guī)定“自然人的個人信息受法律保護”以來,我國司法裁判中既出現了以傳統(tǒng)人格權保護個人信息的案件,也出現了以個人信息權解決傳統(tǒng)人格權糾紛的案件。這些案件表明,如何區(qū)分二者已是擺在司法實務面前的現實難題。

      1.以傳統(tǒng)人格權保護個人信息

      在能適用傳統(tǒng)人格權保護個人信息的場合,是否還有必要強調適用個人信息權?是否還有適用個人信息權的空間?對此,被最高人民法院列入“第一批涉互聯網典型案例”的龐某信息泄露案1是典型。原告龐某委托魯某在去哪兒網平臺購買東航機票一張,訂票使用的是魯某的手機號。兩天后龐某收到航班取消的詐騙短信,他據此認為停航騙局是由于東方航空公司、去哪兒網公司泄露其個人購票信息所致,遂訴請兩被告賠禮道歉,并賠償其精神損失1000元。一審法院認為,兩被告并非掌握原告?zhèn)€人信息的唯一主體,原告提供的以往與東航公司的通話記錄以及購票憑證,不足以證明兩被告泄露其個人信息,駁回了原告的訴訟請求。但二審法院做出了截然不同的判決:法院首先依照《民法總則》第111條的規(guī)定,認定案涉信息受法律保護;進而指出,盡管學界對個人信息保護的立法例存在爭議,但是無論采用何種保護路徑都不妨礙法律對個人信息的保護;法院因此依據《最高人民法院關于審理利用信息網絡侵害人身權益民事糾紛案件適用法律若干問題的規(guī)定》第12條,認定自然人的行程信息屬于隱私信息,并認為姓名、手機號碼雖具有身份識別與社會交往的功能,但當這些信息和行程信息(隱私信息)結合形成整體信息時,就屬于隱私信息;在確定案涉信息屬于隱私信息后,法院采用高度蓋然性的證明標準,認定兩被告具有泄露信息的高度可能性,且被告未能證明其履行了確保信息安全的義務,因其疏于防范導致了信息泄露的發(fā)生,具有過錯,故改判兩被告侵害原告隱私權。

      本案二審法院的裁判邏輯典型地反映了個人信息權與隱私權(傳統(tǒng)人格權)在法律適用上的諸多疑問。其一,本案原告以隱私權為請求權基礎,法院最終也以被告構成侵害隱私權做出判決。既然如此,為何法院在裁判說理中不從隱私權的構成要件展開分析,遵循所涉信息是否屬于隱私來判斷隱私權侵權成立與否的推理邏輯,而是將絕大多數筆墨用于討論個人信息的侵權問題?這一“文題不符”現象本身便表明了個人信息權與隱私權間的“交織”關系。其二,本案審判長曾指出,“如果本案發(fā)生在2021年11月1日《個人信息保護法》施行之后,則本案的判決理由就可能不一樣了”。2 其本意似乎是,該案本應適用個人信息權裁判,奈何當時的法律對個人信息未能提供詳細的保護規(guī)則,故退而求其次,采用隱私權以間接實現對個人信息的保護。但這一裁判思路令人困惑,因為從歷史視角看,隱私權的產生遠早于個人信息權,只有對隱私權無法適用的案件,才有適用個人信息權來提升保護受害人。正如《民法典》第1034條第3款規(guī)定,“個人信息中的私密信息,適用有關隱私權的規(guī)定;沒有規(guī)定的,適用有關個人信息保護的規(guī)定”。若本案所代表的案型可通過隱私權保護個人信息,那應否在個人信息的界定中做出限制,從而實現排除適用此類案型的目標呢?否則,將導致無所不包的個人信息權概念與傳統(tǒng)人格權的頻繁重疊,這既無助于個人信息權理論體系的構建,也將造成司法裁判的困擾。其三,就適用邏輯而言,二審法院以侵害個人信息的方式證成侵害隱私權的說理也難有說服力。侵害隱私權本就是以侵害個人信息的方式呈現,但并不能認為只要侵害了個人信息就侵害了隱私權,因為侵害隱私權需要達到的損害標準往往更高,無法以侵害個人信息這一“舉輕”方式來推論出侵害隱私權這一“明重”的結論。作為最高人民法院發(fā)布的典型案例,本案并未厘清個人信息權與傳統(tǒng)人格權的關系,而是充分展示了二者之間混雜不清的司法現狀。

      2.以個人信息權裁判傳統(tǒng)人格權糾紛

      隨著以侵害個人信息權為由的糾紛逐漸增多,一些傳統(tǒng)上以侵害名譽權、姓名權、隱私權等人格權為由的糾紛,逐漸出現了以侵害個人信息權做出裁判的案件。茲舉兩類糾紛說明如下:

      第一類是小區(qū)張貼判決書案。被告因將涉原告的裁判文書張貼于小區(qū)而引發(fā)訴訟,是司法實務中的一種常見糾紛,早在個人信息權出現之前便已存在。傳統(tǒng)上一般適用名譽權、隱私權做出裁判。比如在“澳龍物業(yè)案”中,趙某某因拖欠物業(yè)費而被澳龍物業(yè)公司起訴,法院判決后,澳龍物業(yè)公司將法院判決書張貼于小區(qū)多處,后趙某某以侵害名譽權為由對物業(yè)公司提起訴訟,法院判決被告未侵害原告名譽權。1 類似的,在“國榮物業(yè)案”中,陳某某因拖欠物業(yè)費被國榮物業(yè)公司起訴,法院判決后,國榮物業(yè)公司以“通告”的方式將起訴的情況、判決書文號、生效及執(zhí)行的時間、陳某某的房號、姓名、聯系電話及公司告誡的內容張貼在小區(qū)入口處、通告欄、電梯入口處。原告陳某某以侵害名譽權、隱私權為由提起訴訟。法院判決被告未侵害原告名譽權,但侵害了原告隱私權。2

      在《民法總則》第111條規(guī)定個人信息受法律保護后,有法院開始以個人信息為由裁判小區(qū)張貼判決書案。如在“愛家物業(yè)案”中,翟某與徐某系夫妻關系,愛家物業(yè)公司起訴翟某拖欠物業(yè)費,徐某作為翟某的委托訴訟代理人參與訴訟。判決后,物業(yè)公司將判決書張貼于小區(qū)門口等位置。張貼時物業(yè)公司已將判決書中翟某和徐某字樣用“3-14-4”予以替代,但并未隱去二人的出生日期、身份證號碼和居住地址。徐某因此對愛家物業(yè)公司提起訴訟。一審法院延續(xù)了此類案件的傳統(tǒng)裁判思路,以被告未侵害原告名譽權為由駁回了原告的訴訟請求。但二審法院認為,依據《民法總則》第111條的規(guī)定,自然人的個人信息受法律保護。被告張貼判決書時未隱去原告身份證號碼、出生日期和地址的行為侵害了原告?zhèn)€人信息受法律保護的權利。據此,二審法院改判被告向原告賠禮道歉。3

      本案與傳統(tǒng)的小區(qū)張貼判決書案在案情上并無二致,二審法院棄傳統(tǒng)人格權而改采個人信息權加以裁判,無疑改變了此類案件的傳統(tǒng)裁判思路。問題在于,這一轉變是否妥當?其一,在此類案件中若被告構成侵權,傳統(tǒng)上多以侵害隱私權為由(身份證號碼等信息屬于隱私信息)進行裁判;若改采侵害個人信息權,那么隱私權與個人信息權在此類案件中的關系為何?其二,若可以個人信息權來裁判,那么根據《個人信息保護法》第69條第1款應適用過錯推定原則,此類案件有必要適用過錯推定責任嗎?其三,自《民法總則》頒布以來,關于小區(qū)張貼判決書案型,除了本案改采適用個人信息權的判決外,也有案件延續(xù)了傳統(tǒng)裁判思路,4 還有案件同時對隱私權和個人信息權做出分析。5 這表明,個人信息權與隱私權等傳統(tǒng)人格權間的適用關系,目前司法裁判尚未有清晰、統(tǒng)一的認識。

      第二類是冒名擔保案。銀行貸款時常要求借款人提供擔保,實踐中冒名擔保現象時有發(fā)生。多數情況下被冒名者對此并不知情,直到因貸款購房等原因查詢個人征信時,才發(fā)現自己因擔保的債權未依約定還款而導致征信不佳,進而被銀行拒絕放貸或被收取較高的貸款利率。被冒名者因此對冒名者或相關金融機構提起訴訟,主張消除不良征信記錄、恢復名譽、賠禮道歉以及損害賠償等。傳統(tǒng)上此類糾紛多以侵害名譽權、姓名權等做出判決。如在“陽新農商行案”中,原告劉某某購房向中國農業(yè)銀行申請放貸被拒,因為其在陽新農商行有擔保的貸款未還,而該貸款系石某某私拿原告身份證復印件辦理。原告遂起訴石某某、陽新農商行等,主張賠禮道歉、消除影響和損害賠償。法院以侵害名譽權為由,支持了原告的主張。1 在“武岡市農村信用合作聯社案”中,原告肖某某對被冒名擔保不知情,故以侵害姓名權為由起訴被告武岡市農村信用合作聯社,主張賠償損失等,法院最終以《中華人民共和國侵權責任法》第2條為依據,判決被告承擔賠償責任。2

      在個人信息被納入我國實證法后,冒名擔保案出現了以侵害個人信息為由的判決。如在“魯山農信社案”中,原告孫某某被他人冒名擔保,導致個人征信擔保貸款被列為“次級”,因此難以從銀行獲得購房貸款。原告以侵害個人信息權為由起訴被告魯山縣農村信用合作聯社,要求消除影響、賠禮道歉并賠償損失。法院認為,“被告工作人員違規(guī)辦理貸款時,冒用原告?zhèn)€人信息擔保貸款,導致原告被納入征信不良記錄,侵犯了其個人信息,給原告造成一定的精神痛苦和物質損失”,故依據《民法總則》第111條等判決被告恢復原告的征信系統(tǒng)信用等級,并賠償其精神損失和物質損失3萬元。法院在裁判邏輯上的這一轉變無疑又引發(fā)了如何區(qū)分個人信息權與傳統(tǒng)人格權的疑問。如果涉?zhèn)€人信息的糾紛都能適用個人信息權加以裁判,那么傳統(tǒng)人格權將在很大限度上被個人信息權所取代,這是立法者所欲追求的目標嗎?如果不是,那要如何區(qū)分二者呢?

      二、誤將可識別作為個人信息本質特征的成因

      由于非物質性人格權必然以“個人信息”的方式加以呈現,若僅以可識別界定個人信息,則個人信息權取代傳統(tǒng)人格權現象的出現將“勢所必然”,“可識別”正是引發(fā)二者難以區(qū)分的癥結所在。誤將可識別作為個人信息的本質特征,原因在于未能從歷史變遷角度認識到個人信息制度產生的時空背景,故而也就無法真正把握民法領域中個人信息的本質特征究竟為何。在此意義上,我們首先應厘清誤將“可識別”作為個人信息本質特征的根源,具體來說,有如下三個方面。

      1.脫離了個人信息制度產生的數字社會基礎

      若以可識別界定個人信息,并不能凸顯其特殊性所在。個人信息自人類社會產生之初便已存在,但數千年以來,個人信息并未成為法律保護的客體。故對個人信息本質特征的把握,離不開對個人信息法律制度產生及其發(fā)展歷史的考察。個人信息保護的提出始于20世紀70年代,主要源于信息技術的應用引發(fā)個人信息安全問題的全球性擔憂。為強化對個人信息(隱私)的保護,世界諸多國家、地區(qū)以及國際組織出臺了一系列規(guī)制自動化技術處理個人信息的相關制度。

      在歐洲,德國黑森州1970年出臺了世界首部個人數據保護法——《數據保護法》,隨后瑞典于1973年頒布了世界首部國家層面的數據保護法——《數據法》,這些都是當時立法的典型代表。由于當時計算機技術剛剛興起,法律規(guī)制的信息處理主體雖涵蓋公私部門,但主要針對的是政府部門對個人電子檔案的自動化處理行為。3 這些法律為后續(xù)立法提供了參考。在國際組織方面,世界經合組織(OECD)1980年公布了《隱私保護和個人數據跨境流通指南》(以下簡稱《隱私指南》),以規(guī)范個人數據的自動處理行為為目的,首次確立了個人信息保護的八項基本原則。4 2013年,世界經合組織對《隱私指南》做出重大修訂,旨在應對自動化技術廣泛應用對個人帶來的新威脅,進一步強化了對個人信息的保護。1 歐洲委員會緊隨其后,于1981年公布了《個人數據自動化處理中的個人保護公約》(以下簡稱《108公約》),2 作為全球首部個人數據保護的國際公約,《108公約》從名稱到適用范圍均體現出其規(guī)制自動化處理行為的特定性,即“適用于所有公共和私人領域的自動化個人數據文檔和個人數據的自動處理行為”。隨后,歐盟以《108公約》為藍本,在1995年制定了《數據保護指令》,該指令第3條將適用范圍限定在“全部或部分自動方式對個人數據的處理行為,以及通過自動方式以外的其他方式旨在形成個人數據存檔系統(tǒng)部分內容的個人數據處理”。其中“存檔系統(tǒng)中的個人數據”便是指“可按照特定標準訪問或獲取的結構化個人數據集合”,3 排除了個人以純粹私人或家庭活動為目的的數據處理活動。4 2016年歐盟在《數據保護指令》的基礎上進行修訂、補白,出臺了在全球具有廣泛影響力的《一般數據保護條例》(General Data Protection Regulations,縮寫為GDPR,以下簡稱《條例》),其在適用范圍上與歐盟《數據保護指令》一致。5

      在美國,個人信息的概念最早由阿蘭·威斯汀提出,之后在“大隱私”的概念下被廣泛討論。但與沃倫、布蘭代斯最初提出的物理性隱私產生的背景不同,美國個人信息保護制度立足于計算機興起的技術背景。由于信息技術的創(chuàng)新與發(fā)展,傳統(tǒng)收集、存儲、利用個人信息的方式發(fā)生巨變,私人領域的隱私事務開始直接或間接地外溢到公共領域。但受美國第三方原則6 的限制,公共領域的隱私將不再受隱私權的保護。在此背景下,阿蘭·威斯汀提出“信息控制理論”,旨在強化個人對其信息的控制,之后該理論成為美國“公平信息實踐原則”的理論基礎。7 “公平信息實踐原則”最初主要針對的是美國政府采用自動化技術大規(guī)模處理個人信息而確立的,這一原則賦予了個人一系列的權利,并課以信息處理者一系列的義務和責任,后成為美國信息隱私保護立法的核心框架。8 比如,美國1974年的《隱私法》、1998年的《兒童在線隱私保護法》、2020年的《加州消費者隱私法》等,分別針對政府機構、教育機構、商事企業(yè)等主體的信息處理行為做出了規(guī)定。這些立法都以自動化信息處理技術為背景,以規(guī)制收集、利用、披露、關聯等信息處理行為為目的,“將個人信息保護的范圍限定在由自動化技術導致的持續(xù)性不平等信息關系的主體之間”。9

      與比較法背景相似,我國個人信息保護制度也發(fā)端于數字社會的到來和自動化信息處理技術的應用。2012年《全國人民代表大會常務委員會關于加強網絡信息保護的決定》是我國首個對個人信息保護做出詳細規(guī)定的法律。該法的制定源于信息網絡發(fā)展引發(fā)的信息安全擔憂,尤其是為應對因新型信息技術和移動終端的發(fā)展而加劇的信息保護問題。10 之后,2013年修正的《中華人民共和國消費者權益保護法》、2015年的《中華人民共和國刑法修正案(九)》、2016年的《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)等,逐漸豐富了個人信息保護規(guī)則。2017年《民法總則》第五章“民事權利”項下首次規(guī)定了“自然人的個人信息受法律保護”(第111條第1句)。該條款立足現代信息社會,其確定的個人信息權是保護公民人格尊嚴、維護社會秩序的應有權利。1 2021年的《個人信息保護法》是我國對個人信息保護做出全面、系統(tǒng)規(guī)定的綜合性法律,該法的制定仍以信息化時代為背景,旨在最大限度地保障公民的個人信息利益。2 可見,我國涉?zhèn)€人信息保護的立法動因,皆源于信息技術帶來的社會變革。

      綜上,個人信息制度發(fā)端于信息技術的發(fā)明,個人信息制度的發(fā)展伴隨自動化信息處理技術的升級,這說明數字社會才是個人信息制度產生和存在的時空基礎。對個人信息本質特征的認識,不可脫離數字社會和自動化信息處理技術這一前提。換言之,個人信息的“可識別”特征,應打上“數字社會”的烙印。

      2.忽視了個人信息在社會形態(tài)中的識別差異

      個人信息是已識別或可識別的個人信息,但數字社會中對個人的“識別”與傳統(tǒng)社會并不相同。傳統(tǒng)社會中信息的記錄“平臺”是自然人的大腦,故其系通過“人腦”來識別,傳播多通過紙張、竹簡乃至口頭,多限于少量的、難以規(guī)?;氖褂?。但進入數字社會后,在信息技術的應用下,信息通過計算機系統(tǒng)加以記錄,網絡中與個人關聯不大、價值甚微的零碎信息都被事無巨細地記錄下來,對個人的識別也是通過計算機系統(tǒng)來實現的,因此,運用智能算法分析和利用個人信息成為數字社會中的常態(tài)。

      如果把傳統(tǒng)社會識別個人的方式界定為一種自然識別或物理識別,那么數字社會識別個人的方式可理解為一種算法識別或技術識別。在傳統(tǒng)線下社會,個人信息的通用功能是熟人之間根據人格標識進行相互驗證的身份符號,是通過人之大腦予以辨認的物理識別方式。而在數字社會,數字化使得個人信息的載體發(fā)生重大變化,除傳統(tǒng)的人腦、紙質外,個人信息更多地被存儲于互聯網中。數字化記憶代替熟人之間的“頭腦記憶”“文字記錄”,成為新的信息記憶方式。信息獲取也從人人交換的物理方式變成了人機交互的自動化方式,個人信息由此具有了可計算性特征。此時,個人信息的可算性與數字技術的互聯性相結合,將人們帶入快速運轉的網絡之中,算法技術取代人腦,將分散在網絡各處的個人信息進行歸攏和分析,如將具有明顯算法特征的IP地址、廣告ID、人臉識別信息等進行識別、關聯和分析。至此,算法技術改變了傳統(tǒng)識別個人的方式,實現“從個人‘認出來到技術‘看出來的轉變升級”。3 準確地說,數字社會中的識別是通過算法“算出來”的。

      同時,數字社會中個人信息的“識別”具有更強的“關聯性”。在傳統(tǒng)社會中,由于信息記錄、傳播方式有限,信息之間的關聯相對較弱,不同場合中獲取的個人信息多僅局限于該場合被利用。而在數字社會,面對自動化技術的持續(xù)升級,信息處理者借助算法技術對個人的特定行為、興趣愛好分析預測,使碎片化信息也可能因為自動化技術分析而勾勒出“數字畫像”,4 以此推測出個人的需求偏好,進而制定精準的營銷計劃或對產品優(yōu)化升級。5 在此意義上,“可鏈接性”成為個人信息的重要特點。6 關聯信息累積越多,勾勒的“數字畫像”越精確。因此,處理個人信息的主要目的與其說是識別個人身份,不如說是“識別具體個人的個性特征”。1 在數字環(huán)境下,以技術識別為中心帶來的一連串蝴蝶效應都與傳統(tǒng)線下社會的自然識別存在本質差異。算法的關聯性大大延伸了關聯信息的效用性,2 使個人信息與土地、石油一樣成為商業(yè)爭相追逐的資源,凸顯出巨大的財產價值。在此背景下,所有可識別的個人信息都變得重要,個人信息普遍成為法律保護的客體。

      3.混淆了個人信息在各部門法中的不同內涵

      數字社會引起了生活形態(tài)、行為規(guī)律、社會秩序的變革,并通過數據和算法得以實現。算法重塑著人與世界、人與人之間的關系,使人打破在物理意義上的時空限制,在現實空間之外可以虛擬出與之平行的世界。個人信息作為數字社會中的基本元素,在智能算法的“加持”下有了新的用途,同時也觸發(fā)了諸多新的法律問題,需要聯動各個部門法進行多元救濟,這決定了法律對個人信息的規(guī)范應該是全方位、綜合性的,即憲法、行政法、刑法、民法、國際法等部門法都嘗試基于其各自的問題意識、制度關懷和規(guī)范進路等,對個人信息做出相應的調整。第一,憲法和行政法對個人信息的規(guī)范目的主要有二:一是為個人提供法律上的權利來對抗作為信息處理者的國家,防范國家利用個人信息而侵害公民的合法權益。就此而言,國家應避免過度侵入個人信息領域,應尊重私人生活及其安寧。如經歷過納粹時期的德國對此便尤為謹慎,在人口普查案中,法院面臨的正是如何平衡國家對公民的信息收集和個人權益保護之間的難題。3 二是為個人對抗日漸強大的數據企業(yè)提供法律上的支撐。就此而言,個人享有“個人信息受保護權”,國家則負有通過制度性保障、組織與程序保障以及侵害防止義務的體系化,營造個人信息保護的制度生態(tài),支援個人對抗個人信息處理中尊嚴減損的風險。4 第二,刑法對個人信息的保護,主要是為了打擊利用個人信息而開展的刑事犯罪,尤其是電信網絡詐騙犯罪行為,從而保護個體的個人信息權益和社會公共利益。5 事實上,利用個人信息實施刑事犯罪早已有之,各種類型的詐騙罪(包括信用卡詐騙罪、票據詐騙罪等)、私自開拆、隱匿、毀棄郵件、電報罪等,都與個人信息相關。但在刑法領域,真正以數字社會為背景確立的關于非法利用個人信息的罪名,是以打擊電信網絡詐騙犯罪為目的而從傳統(tǒng)的詐騙罪中獨立出來的“侵害公民個人信息罪”。它將傳統(tǒng)上已經被包含于詐騙罪等罪名中被評價的出售、提供公民個人信息等“預備”行為“正犯化”,從而更好地預防電信網絡詐騙等犯罪行為。6 第三,民法對個人信息的保護,是基于傳統(tǒng)人格權不足以保護數字時代個人信息所蘊含的人格尊嚴和人格自由等權益,故而將個人信息權作為一項獨立于傳統(tǒng)人格權的具體人格權予以確認和保護。7 具體而言,算法技術的介入改變了個人信息之于個人的意義。在數字領域,個人信息不僅呈現出巨大的經濟價值,也因此招致信息安全、人格尊嚴的威脅等問題。據此,所有的個人信息都產生了被法律保護的必要。但傳統(tǒng)人格權制度卻無力承擔這項重任,這不僅體現在其權利客體范圍無法覆蓋個人信息的所有利益形態(tài),更為關鍵的是,其制度規(guī)則難以有效應對算法技術對信息雙方帶來的利益失衡問題。第四,國際法對個人數據保護的提出,則有著強烈的統(tǒng)一各國數據保護規(guī)則的目的,以免各國各自為政,阻礙數據跨境流通和數字經濟發(fā)展的目標。如歐盟在個人數據保護問題上的積極立法,其重要動因來自建立歐洲統(tǒng)一市場,增強歐洲數字產業(yè)的競爭力,削弱美國在歐洲市場中的主導地位。8

      基于各部門法在保護個人信息規(guī)范目的上的差異,決定了個人信息的適用范圍也應有所不同。如刑法在認定“侵犯公民個人信息罪”時,對個人信息的理解便無須局限于數字社會中電子化的個人信息。根據《中華人民共和國刑法》第253條,構成該罪的行為包括向他人出售或者提供公民個人信息、竊取或者以其他方法非法獲取公民個人信息。為了有效打擊“后續(xù)”的電信網絡詐騙行為,將以未經計算機自動化處理的電子文檔形式提供個人信息,甚至以傳統(tǒng)紙質形式提供的個人信息,都納入“個人信息”范圍之內,是本條規(guī)范的應有之義。相反,若在民事領域界定如此寬泛的“個人信息”范圍,將導致個人信息權與傳統(tǒng)人格權難以區(qū)分,進而引發(fā)人格權制度體系的混亂。就理論而言,公法對個人信息的界定通常要比私法寬泛,這是因為公法對個人信息的規(guī)范多體現在抽象意義上對人格自由和尊嚴的保護等,而無須細分諸多具體人格權間的體系關聯和邊界?;蛟S是個人信息法律制度史上先公后私、先刑后民的歷史“慣性”使然,我國民事領域對個人信息的理解一直與公法領域保持了一致。但鑒于各部門法規(guī)范目的的差異,不應認為各部門法探討的“個人信息”有著完全相同的內涵,也不宜將公法上界定相對寬泛的個人信息概念當然地也適用于民事私法領域。

      綜上,個人信息權發(fā)端于數字社會的到來,對個人信息特征的概括應立足于數字社會。算法技術使得個人信息的識別方式發(fā)生了重大變化,數字社會中個人信息的算法識別和自動化處理,與傳統(tǒng)社會的自然識別和人腦處理有著顯著差別,這成為區(qū)分個人信息權與傳統(tǒng)人格權的關鍵因素。誤認為個人信息在各部門法中有著統(tǒng)一的內涵會成為阻礙民事領域準確界定個人信息的障礙之一。就民事領域而言,脫離數字社會這一時空背景研究與適用個人信息權,正是當前個人信息權與傳統(tǒng)人格權難以有效區(qū)分的重要原因。唯有認識到這些要點,才能準確認識作為權利客體的個人信息,才能準確適用個人信息權。

      三、個人信息的本質特征:算法識別性

      數字社會中的個人信息不僅要滿足“可識別”的要求,而且還應圍繞算法技術加以限定,即通過算法識別出的個人信息,才是典型的個人信息權客體。據此,個人信息應同時滿足識別性和算法性特征,即算法識別性才應是個人信息的本質特征。

      1.個人信息權的客體范圍取決于算法識別

      無論從各國立法對個人信息的定義還是個人信息保護的理論基礎來看,作為權利客體意義上的個人信息都是算法限定下的可識別信息。目前,大部分國家和地區(qū)對個人信息的定義都包含對“自動化處理”和“識別”的限定。以歐盟《條例》為例,一方面,其第4條第1款規(guī)定:“個人數據指與已識別或可識別的自然人相關的數據”,其中列舉的“定位數據、網絡標識數據”體現了個人數據的電子化特征;該條第2款對“數據處理”(對數據的收集、記錄、存儲、改編、刪除、銷毀等自動或非自動方式進行的處理)以及第4款對“識別分析”(對個人數據采取的任何自動化處理的方式)的定義,1 則從行為規(guī)范層面勾勒出算法處理個人信息的場景,體現了立法通過算法從正向層面確定個人信息范圍的設計架構。另一方面,《條例》第5條將識別性標準內化到算法技術中,因而規(guī)定了“假名化機制”,即采用適當的技術和措施使他人無法將數據連接到具體個人,從反向層面限定了個人數據的范圍。美國立法對個人信息的定義也體現了算法性特征。以美國《消費者隱私權保護法案(草案)》為例,該法案定義個人信息為“能夠直接識別或合理關聯到特定個人或設備的信息”,相較于歐盟《條例》概括性的識別定義,這種“關聯到設備”的具體規(guī)定體現了算法技術的可關聯性,比較準確地把握了辨別個人信息的算法特質。同時,《消費者隱私權保護法案(草案)》也從反向層面將“去識別化處理”的信息從個人信息的保護范圍內排除。2 與歐美立法相似,我國立法對個人信息的定義也帶有一定的算法色彩。《民法典》《網絡安全法》《個人信息保護法》都采用識別路徑定義個人信息,還在定義中明確使用“電子記錄”這種具有明顯技術特征的術語。

      個人信息保護的理論基礎也體現了算法技術對個人信息范圍的限定。個人信息權制度的核心理念是個人對其信息的處理具有自主決定權,無論是歐盟法中的個人信息自決權還是美國法中的個人信息控制權,均將個人對其信息的控制限定在算法技術處理的情境中。首先,個人信息自決權的確立源于德國“人口普查案”,但德國聯邦憲法法院并未承認這一權利的普適性,而是對適用信息自決權的義務主體和處理場景進行了限制,即脫離了公權力機構和個人信息自動化處理行為這兩個限制因素,個人信息自決權就失去了正當化基礎。1 其次,即便是信息控制理論的提出者威斯汀,也是以計算機技術對個人隱私產生威脅為背景的,更確切地說這種信息控制主要針對的是自動化處理行為。2 由此可見,并非所有的個人信息皆可納入個人信息權的客體范圍,只有能被算法處理的個人信息,方能作為個人信息權的客體。

      綜上,在數字社會,識別性僅是個人信息的自然特征,算法性則是其技術特征。個人信息應同時符合這兩個特征,才能成為個人信息權的客體,亦即算法識別性才是個人信息的本質特征。

      2.個人信息權的法律屬性根植于算法識別

      個人信息之所以能夠成為一項獨立的民事權利,源于當下的新型社會形態(tài)——數字社會的到來。3 以算法為代表的信息技術不僅改變了個人信息的表現形式(電子化),更是在根本上重塑了個人信息的人格本質和財產屬性,使個人信息蛻變?yōu)橐豁椬陨頁碛刑厥鈱傩缘木唧w人格權。

      一方面,算法強化了個人信息的人格屬性。傳統(tǒng)社會中的個人信息,除了涉姓名、名譽、隱私等之外,多數與人格關聯較弱,而未被作為人格權客體予以保護。然而,數字社會中以算法技術為媒介的個人信息則顯示出特有的時代特征,即信息數字化、數字信息的可計算化、數字網絡化以及數字智能化。4萬物數字化改變了處理個人信息的方式,自動化技術的持續(xù)整合分析成為個人信息處理的新型工具,“數字畫像”和以此為基礎的自動化決策成為個人信息利用的常態(tài)?;谥悄芩惴ǖ膽茫瑐€人信息與人格利益的關聯更為密切。在該技術背景下,數字社會中侵害個人信息呈現出三個不同于傳統(tǒng)社會的特征,即侵權主體主要為信息處理者(組織),侵權方式具有技術性、隱蔽性,以及侵害結果具有高風險性。5 因此,傳統(tǒng)上具有消極、被動特點的人格權很難適應社會發(fā)展的需要,6 這就需要立法以一種更為積極的方式保護數字社會中的個人信息。個人信息權作為一項獨立的權利形態(tài)便應運而生。

      另一方面,算法催生了個人信息的財產屬性。一般而言,傳統(tǒng)社會中的個人信息很難生發(fā)出財產價值。雖然諸如肖像等信息能夠帶來財產價值,但這些財產價值與其說是肖像本身生發(fā)的財產利益,不如說是肖像權人通過自身努力而獲得的財產利益,只不過該財產利益附著于其肖像之上。7 在數字社會,個人信息財產價值的外化方式則不同,在算法技術的“加持”下,個人信息天然具有財產性基因。算法技術將個人信息的收集形式固定化,使其具有可控性;將個人信息的傳播形式豐富化,使其具有流通性;將個人信息的利用方式多樣化,使其具有效用性;將個人信息的匯聚方式規(guī)?;?,使其具有稀缺性。因此,個人信息釋放的財產價值決定了其權利屬性中天然內含財產利益,也決定了個人信息權的權利屬性是內含財產利益的人格權利。8 這與傳統(tǒng)人格權顯著不同,雖然法律主要保護個人信息權中的人格利益,但其內含的財產利益也不應忽視。甚至可以說,恰是數字社會中個人信息的財產性價值才催生了個人信息受法律保護的必要,而恰是算法識別性決定了個人信息權是一項天然內含財產價值的具體人格權。

      3.個人信息權的權利內容產生于算法識別

      從個人信息權的基本原理可以看出,強化個人對其信息的控制是對個人賦權的邏輯起點。在數字社會,掌握了數據,就意味著掌握了資本和財富;掌握了算法,就意味著掌握了話語權和規(guī)制權。1 但事實上,技術優(yōu)勢產生的“算法權力”實質造就了信息處理者與個人在信息能力、權力之間的鴻溝。由于技術受制于人類認知偏見、技術水平等,導致以中立為特征的算法成為公私機構推諉責任的工具。2 掌握算法權力的信息處理者,“既可能利用個人信息為個體提供更好的服務,也可能利用信息及技術優(yōu)勢而算計與支配個人”。3 算法權力打破了義務對算法行為的約束,而規(guī)制算法權力的根本在于恢復義務的在場狀態(tài)?;诖耍砸?guī)制算法權力為目的生成的算法權利,代表了算法活動中的基本價值立場,可以恢復個人對算法義務履行的預期,滿足個人的正當利益需求。4 即通過賦予個人知情權、選擇權、拒絕權等使個人進行積極的風險控制,由此實現個人自治以及信息的持續(xù)供給。5 這組權利都是為了約束算法處理行為生成的,不僅帶有明顯的技術性特征,而且權利的行使亦以算法處理個人信息為前提。

      以歐盟《條例》規(guī)定的具體權利內容為例,6 一方面,這組權利以可識別的個人信息為客體,圍繞個人信息從收集、存儲、分析、利用到刪除整個處理過程賦予個人相應的權利,確保個人在各處理階段的參與力度。如在事前防范中個人享有知情權、決定權,事中監(jiān)督中個人享有訪問權、限制處理權、反自動化決策權等,事后救濟中享有更正權、刪除權,同時規(guī)定算法解釋權、數據攜帶權等賦予個人積極參與信息處理的權利。這組權利旨在實現信息主體有能力通過自己的行為改變自己與他人、他人與他人之間規(guī)范關系的“權力”要素。7 另一方面,這組權利是為規(guī)制算法行為設立的,具有權利上的算法性特征。算法解釋權即是算法性特征的典型表現。該權利由知情權和反自動化決策權衍生,主要為規(guī)制信息處理者利用算法對個人進行大數據殺熟、大數據歧視而設,旨在賦予個人可要求信息處理者對運算結果進行解釋的權利。8 再如數據攜帶權是個人信息自我控制得以實現最為重要的權利機制,9 “在技術可行的情況下,個人有權將其個人信息轉移給另一個信息處理者”。10 從其定義可看出,個人信息的整體轉移依賴相應的技術標準來實現,顯示了權利的算法特征。

      個人信息權的行使邊界以算法處理的個人信息為限。同時,作為技術架構的算法在一定意義上生成了個人信息的權利空間。在實踐中,數據企業(yè)利用人臉識別技術識別出的人臉信息,Cookies技術追蹤個人網絡痕跡并由此形成的數字畫像,個人穿戴設備收集分析的行為軌跡信息等,都是由算法生成并由算法識別的。將算法技術嵌入個人信息權中是個人信息算法識別性的內在要求,即“經設計的隱私”。11 其中,風險最小化的算法設計標準可以從正面確定個人信息的保護范圍,“解決個人信息保護與數據權利的界分問題”,12 由此催生出相應的包含算法技術的權利,如拒絕權、反自動化決策權、算法解釋權等。如歐盟在《條例》中,將“經設計的隱私”技術標準納入保護規(guī)范中,并在數據處理中融入“采用數據最小化機制”,1 再配以問責機制和認證機制落地實施,2 成為技術入典的典型條款。而匿名算法技術亦可從反面排除個人行使信息權利的空間,3 如在“余某訴查博士二手車案”中,4 二手車況信息達到了匿名化規(guī)則的要求而不受“刪除權”的保護??梢?,個人信息的算法性決定了個人信息權的可計算性,而個人信息權的行使又以可識別為前提,并依賴算法來實現。

      四、算法識別性作為個人信息本質特征的實踐價值——以民事侵權為例

      個人信息算法識別性特征的提出,可以說對關涉數字空間中可計算個人信息的所有法律制度的設計都會帶來特定影響,此處僅以該定性能夠澄清侵害個人信息權與傳統(tǒng)人格權的理論差別為例。具體說來,個人信息算法識別性特征能夠基于侵害個人信息權或傳統(tǒng)人格權在規(guī)范目的、權利屬性和權利內容上的不同而將兩者區(qū)分開來,從而為兩種侵權糾紛確定具體的法律適用。

      1.個人信息權與傳統(tǒng)人格權的準確適用:算法性區(qū)分

      基于個人信息的算法識別性特征,個人信息權的適用以數字社會中算法技術的運用為前提,故傳統(tǒng)社會中的涉信息糾紛并不適用個人信息權。據此,無論是小區(qū)張貼判決書案,抑或冒名擔保案,都不應適用個人信息權。就小區(qū)張貼判決書案而言,該糾紛發(fā)生在小區(qū)這一線下場景,而非線上空間;所涉信息以紙質方式呈現,而非電子方式;處理信息的主體是物業(yè)公司,而非掌握算法技術的信息處理者;信息的處理方式是人工公開法院判決書,而非通過算法對信息自動化處理。同理,對冒名擔保案而言,此類糾紛也是發(fā)生在線下,受害人的姓名、身份證號等信息是被第三人(往往是自然人)冒用,糾紛的發(fā)生既無涉數字社會,亦無關算法。因此,無論是小區(qū)張貼判決書糾紛,還是冒名擔保糾紛,都可以通過傳統(tǒng)人格權予以解決,且適用傳統(tǒng)人格權解決此類糾紛已行之多年,并無必要在個人信息權產生后改變此類糾紛的解決途徑。

      進一步言,以適用個人信息權解決傳統(tǒng)線下糾紛不僅無益,而且有害,因為個人信息權的制度理念和規(guī)則設計不同于傳統(tǒng)人格權。傳統(tǒng)人格權的出發(fā)點是,原被告雙方之間在法律上是平等關系,規(guī)則設計以意思自治和平等對待為原則。但在個人信息權中,算法技術的應用導致原被告雙方在信息處理上存在事實上的不平等關系,基于此種不平等,法律對信息主體給予了傾斜性保護。個人信息權規(guī)則與傳統(tǒng)人格權規(guī)則因此存在顯著差別,適用個人信息權解決傳統(tǒng)糾紛會導致“張冠李戴”的匹配失調,影響法院裁判的妥當性。具體而言,二者在民事侵權救濟上存有如下差別:

      第一,歸責原則不同?!秱€人信息保護法》第69條第1款確立了侵害個人信息權采過錯推定責任,以此來緩解個人與信息處理者在舉證能力上的偏差,這與傳統(tǒng)人格權侵權的過錯責任不同。在數字環(huán)境中,由于算法的隱蔽性和專業(yè)性導致個人面臨無法證明“算法如何識別、如何歧視、如何殺熟”的舉證困境,為克服舉證能力的失衡,適用過錯推定責任成為立法者可取的選擇。5 一方面,個人信息處理者距證據較近,且專業(yè)較強,采用過錯推定有利于強化信息處理者的舉證義務,另一方面可以減輕個人的舉證負擔,對受害人提供有效的救濟。6 如在“微信讀書案”7 中,原告能夠提供的證據僅限于其可識別的信息——自動關注其微信好友并將其讀書信息公開。但該類信息的產生和利用屬于被告騰訊公司內部的技術行為,原告很難提供清晰的侵權鏈條證明騰訊公司的算法行為構成侵權。因此,法院適用過錯推定責任,將反駁原告主張的舉證責任移轉至騰訊公司。若將過錯推定責任適用于“小區(qū)張貼判決書案”等傳統(tǒng)人格權糾紛案件中,難有正當性可言。

      第二,違法性判斷不同?!秱€人信息保護法》第13條規(guī)定了處理個人信息的合法性基礎,除了少量例外情形,處理個人信息原則上須事先取得個人的同意,否則便可能構成違法。但傳統(tǒng)社會的信息流動并不遵循告知同意規(guī)則,如“德國法上傳統(tǒng)的信息秩序建立在信息自由的基礎之上,亦即,原則上人們可以任意獲取、處理和利用他人的信息?![私權訴求不過只是‘信息交流自由之海中的個別保護島嶼罷了”。1 若傳統(tǒng)社會采告知同意規(guī)則,信息流動無疑會凝固,社會將無法正常運轉。但在數字社會中,信息處理借助于算法技術可以無時不在、無處不在。如果不賦予個人對其信息的自我控制權,放任信息處理者對個人信息的處理,個人將在數字社會中成為透明人,個人的人格利益和財產利益都會面臨巨大的受侵風險。因此,傳統(tǒng)人格權糾紛中的受害人有義務證明相關信息收集和傳播的違法性;而在個人信息權糾紛中,則應由信息處理者來證明其信息處理行為的合法性、正當性、必要性。

      第三,損害認定不同。在數字社會,個人信息因算法技術的客觀記錄產生“社會典型公開性”,符合侵權損害的“客觀真實性”要求,2 但其損害后果具有潛在性和不確定性。3 信息處理者侵害個人信息權可能發(fā)生在任何處理環(huán)節(jié)。算法的循環(huán)分析還可能導致損害的衍生和可持續(xù)性,“以往的污點跟蹤技術無法有效識別處理個人信息造成損害的潛在風險”。4 個人不僅難以應對這種風險,更難以就損害進行舉證。據此,規(guī)制算法并“對強勢主體施加義務”5 成為調整信息處理者與個人之間強弱關系的必要選擇,這是個人信息傾斜保護的典型運作機制。在個人信息權糾紛中,判斷個人信息權是否受到損害是通過合法性原則反向確定的,即處理行為是否合法或是否履行了法律義務成為連接風險與損害認定的關鍵。6 在“微信讀書案”中,微信讀書自動生成原告的讀書時長、讀書內容等信息,并進行持續(xù)的識別分析,有勾勒出其人格側面的風險,這些損害及風險皆由算法計算并以客觀形式呈現。騰訊公司未向原告充分告知并取得同意就自動為其關注讀書好友并公開讀書信息,顯然違反了處理個人信息的合法性原則,侵害了原告的個人信息權。而在傳統(tǒng)人格權糾紛中,損害的認定更多地依賴受害人的主觀感受,需借助“社會評價降低、生活安寧受到威脅”等因素做出判斷,與數字環(huán)境中的客觀性和可計算性特征不同。

      2.個人信息權與傳統(tǒng)人格權的模糊地帶:個案衡量

      除了純粹發(fā)生于傳統(tǒng)線下社會和完全有賴于算法加以處理的場景外,實踐中也存在適用傳統(tǒng)人格權抑或個人信息權的模糊地帶。一方面,以數為媒的社會與以人為媒的社會之間不存在一條界線清晰的鴻溝,而是彼此交織地混雜在一起。7 另一方面,算法技術也有強弱之分,根據個人特征進行個性化推薦固然屬于算法,依字母順序排序和展現也未嘗不是一種算法。面對現實的復雜性和多樣性,對于適用中的模糊地帶需個案衡量。

      第一,信息處理事實不明時的個案衡量。在“龐某信息泄露案”中,原告航班等信息如何泄露難以查明。由于兩被告是個人信息的實際控制者,從被告處泄露原告信息有著較高可能性,但該泄露既可能是因傳統(tǒng)方式(如被告工作人員口頭告知他人)而泄露,也可能是因計算機系統(tǒng)被侵而泄露。鑒于對信息的處理是被告的內部行為,原告難以舉證證明其信息如何被泄露,故此時認定何種案件事實,或者說適用何種權利判決更多取決于法律的價值判斷。若選擇適用個人信息權,主要是出于更好地保護受害人的角度,體現了優(yōu)先保護受害人利益的價值理念;若選擇適用傳統(tǒng)人格權,則是選擇了優(yōu)先保護行為自由,避免社會交往因寬泛的個人信息權保護而動輒得咎?;谇謾喾ㄔ?,優(yōu)先保障行為自由是侵權法的邏輯起點,即“損害原則上應停留于其發(fā)生之處”1。因此,除非有足夠充分且正當的理由,否則應堅持行為自由。所謂“足夠充分且正當的理由”,最主要的便是行為人的“過錯”。具體到個人信息糾紛,在信息泄露途徑和方式不明時,不宜認定企業(yè)存在“過錯”。否則,若僅以信息泄露的事實便徑直認定企業(yè)構成“過錯”,便在事實上令企業(yè)承擔了無過錯責任,因為企業(yè)基本上無從證明自己不存在過錯。在司法裁判和學理充分證成此類場合應適用個人信息權之前,基于侵權法的基本理念,適用傳統(tǒng)人格權解決此類糾紛應是較為穩(wěn)妥的解決方案?;诖?,“龐某信息泄露案”便不應適用個人信息權來判決。該案兩審法院都是基于傳統(tǒng)人格權侵權做出的判決,表明適用傳統(tǒng)人格權完全能夠解決此類糾紛。只不過二審法院在說理中過于強調對個人信息的保護,導致在論證過程中舍本逐末,偏離了傳統(tǒng)隱私權的適用邏輯。

      第二,算法技術程度不同時的個案衡量。數字社會是適用個人信息權的前提,但并非所有發(fā)生于數字空間中的涉?zhèn)€人信息糾紛都可適用個人信息權。若個人信息只是單純地被發(fā)布于數字空間,未必需要適用個人信息權,如在網絡上發(fā)布侮辱誹謗他人內容的糾紛,一般應適用傳統(tǒng)人格權。我國人肉搜索第一案“王菲案”中,被告在網站上公布了原告的姓名、工作單位、婚外情等信息。法院認為,“在社會生活中,公民為了交往的需要,常常主動將姓名、工作單位、家庭住址等個人信息告知他人,這些個人信息有時也會被他人通過一定途徑知曉和利用。這些個人信息的披露、使用等行為是否構成侵犯隱私權,應當視行為人對這些信息的取得方式、披露方式、披露范圍、披露目的及披露后果等因素綜合認定”。2 此類糾紛中,被告并未采用算法技術對原告信息進行自動化分析,適用隱私權等傳統(tǒng)人格權便可有效解決,無須適用個人信息權。

      此外,若案涉算法只是依字母、發(fā)布時間排序等簡單的處理技術時,也可能無須適用個人信息權。以“線上發(fā)布判決書案”為例,“貝爾塔案”與“匯法正信案”是典型。3 兩案的案情相似:被告都是提供信息查詢等服務的公司,它們將源自中國裁判文書網的法院裁判文書上傳到自己網站,供客戶查詢。被告網站的裁判文書中包括了原告與第三人間的訴訟文書,文書中涉及原告姓名、糾紛過程等信息。原告以侵害個人信息權、名譽權、隱私權等為由提起訴訟,“貝爾塔案”法院判決被告侵害了原告的個人信息權,“匯法正信案”(以侵害隱私權為由)法院則駁回了原告的訴訟請求。此類案件中,能否適用個人信息權與被告所采取的技術密切相關。若企業(yè)爬取了中國裁判文書網上公開的判決文書并收錄于自己網站,而沒有做出更多的技術處理,或只是做了案件名、案號、審級等分類編排上的處理,此時便不應適用個人信息權。若企業(yè)通過技術手段提取了判決書、企業(yè)工商注冊信息、行政處罰文書、失信被執(zhí)行人名單中的當事人信息,并將這些信息相關聯,如在查看企業(yè)工商注冊信息時能看到該企業(yè)股東的判決書或行政處罰文書,對被納入失信被執(zhí)行人名單的股東做出重點標注,并在數據分析基礎上提供企業(yè)或個人信用等級、交易風險預警等“增值”服務,此時適用個人信息權的可能性便明顯加大。因為企業(yè)實施了對個人信息的自動化處理行為,導致個人信息具有“可鏈接性”。據此,“貝爾塔案”中被告提供的是企業(yè)征信、企業(yè)信用評估、信用管理咨詢、企業(yè)管理咨詢等服務,用戶可以通過其網站查詢企業(yè)工商登記、涉訟裁判文書等,即被告將企業(yè)(包括股東)信息與裁判文書等做了關聯,使用戶在查看企業(yè)信息時能同時看到和鏈接到與之相關的裁判文書,可適用個人信息權。相反,“匯法正信案”中被告是法律資訊信息網站,其僅提供法律法規(guī)、司法案例、合同文本、律所律師、司法院校等信息,對司法案例的編排采取的是案由、文書類型、審理機構等常見的編排方式,故該案無須適用個人信息權。因此,涉?zhèn)€人信息糾紛能否適用個人信息權不應一概而論,而是要視企業(yè)所采取的技術、所運用的數據處理方式以及所提供的產品和服務等而定,其中核心的判斷標準在于,企業(yè)是否運用了算法等自動化信息處理技術。

      五、結語

      數字社會是個人信息權產生的生態(tài)環(huán)境,也是討論、研究個人信息法律保護的前提。1 算法技術的運用導致個人信息之于個人的意義發(fā)生了巨變,個人信息權發(fā)端于算法處理的特定領域,其權利客體、法律屬性和權利內容等都體現出數字社會特有的算法性。算法識別性由此成為個人信息的本質特征。盡管本文是以個人信息權與傳統(tǒng)人格權的區(qū)分作為例證來揭示該定性的理論價值和實踐意義,但是個人信息算法識別的定性其實關涉數字空間中可計算個人信息的所有法律制度的設計。最為重要的就是數據的處理、數據權屬確定及數據利益的分配問題,所有這些都跟個人信息的算法識別性本質密切相關。因為,從根源上說,正是基于個人信息的算法識別性,才改變了個人信息的人格意義,更催生了個人信息中內含的財產價值。這也使得傳統(tǒng)人格權制度已無法有效解決個人信息利用帶來的新問題,從而為個人信息權被法律確認為一項獨立于傳統(tǒng)人格權的新型人格權奠定了理論根基,而有關數字社會中一切有關數據、個人信息的討論都由此開始。

      Abstract: The identifiable character of personal information has given rise to the difficult problem of distinguishing between personal information rights and traditional personality rights. Judicial decisions have been made both to protect personal information with traditional personality rights and to adjudicate disputes over traditional personality rights with personal information rights. Identifiability is not appropriate as an essential characteristic of personal information because it detracts from the foundations of the digital society from which the personal information system emerged, ignores the differences in identification between the digital society and the traditional society, and confuses the different connotations of personal information in the various sectoral laws. Algorithmic identification is the essential characteristic of personal information, and the scope of the object, legal properties and content of the right to personal information all arise from algorithmic identification. It is on the basis of the algorithmic identification of personal data that a distinction can be made between traditional personality rights and cases of personal data rights, at least in the field of civil law. When information processing is difficult to ascertain at a factual level, it should still be classified as a traditional personality rights infringement case; when the degree of algorithmic technology varies, the applicability of the right to personal information needs to be weighed on a case-by-case basis. Although the paper uses the distinction between the right to personal information and traditional personality rights as an example to reveal the theoretical value and practical significance of this characterization, the algorithmic identifiability of personal information is in fact about the design of all legal systems for countable personal information in the digital space.

      Key words: digital society; personal information; personal information rights; traditional personality rights; algorithmic technology; algorithmic identifiability

      (責任編輯:蘇建軍)

      猜你喜歡
      個人信息權個人信息
      如何保護勞動者的個人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      個人信息保護進入“法時代”
      主題語境九:個人信息(1)
      警惕個人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      試析我國公民個人信息權民法保護
      試析我國公民個人信息權民法保護
      從個人信息權切入談精準性電信詐騙
      法制與社會(2017年5期)2017-03-14 19:05:03
      互聯網金融監(jiān)管的“扶助之手”
      東方法學(2016年5期)2016-09-28 15:39:13
      論個人信息權
      商情(2016年11期)2016-04-15 07:59:05
      試析我國民法對個人信息權的保護探究
      泸西县| 龙山县| 天水市| 青州市| 林州市| 彭泽县| 育儿| 鱼台县| 和林格尔县| 宣化县| 封开县| 襄汾县| 台山市| 大安市| 汶上县| 闽侯县| 丁青县| 大丰市| 曲沃县| 永宁县| 绩溪县| 肇源县| 永康市| 堆龙德庆县| 宁河县| 商水县| 陕西省| 昌邑市| 疏勒县| 穆棱市| 上饶市| 保康县| 中宁县| 清流县| 资兴市| 阿克| 宁城县| 广昌县| 遂宁市| 屏山县| 壤塘县|