杜永欣,周茂君
(1.北京大學新聞與傳播學院,北京100871;2.武漢大學新聞與傳播學院,湖北武漢430072)
在信息技術發(fā)展日新月異的數(shù)字時代,信息資源作為社會運行的“原料”,已成為商業(yè)競爭中不可或缺的關鍵要素。隨著數(shù)據(jù)信息在行業(yè)發(fā)展中的價值日益凸顯,個人信息(1)個人信息、個人隱私、個人數(shù)據(jù)是當前較?;煊玫母拍?,美國習慣使用“個人隱私”,如1974年頒布的《隱私法案》(Privacy Act of 1974);歐盟多使用“個人數(shù)據(jù)”,如最新頒布的《通用數(shù)據(jù)保護條例》(GDPR);我國多采用“個人信息”的概念,如《個人信息保護法》,并且在學術研究中也多采用“個人信息”保護的概念討論隱私問題,本文亦采用這一概念框架探討個人隱私問題。獲取與利用成為網(wǎng)絡服務平臺提升經(jīng)濟效益、獲得競爭優(yōu)勢的有效途徑。當前網(wǎng)絡行為追蹤、智能推薦算法等技術的應用,使得大規(guī)模的信息獲取、儲存和分析成為可能,技術的全面滲透為用戶網(wǎng)絡行為處理提供了前所未有的可量化維度。在一切網(wǎng)絡行為都可被記錄的數(shù)字化社會,數(shù)據(jù)洪流所引發(fā)的信息安全問題和隱私風險與日俱增。
隨著信息商業(yè)化應用進程加快,基于個人信息采集和利用的算法推薦服務模式,為網(wǎng)絡服務提供者帶來了可觀收益。然而頻繁出現(xiàn)的數(shù)據(jù)信息泄露事件也引發(fā)了普遍的隱私擔憂,借由網(wǎng)絡服務對于個人敏感信息的操控更是不斷挑戰(zhàn)隱私“紅線”,數(shù)字時代的個人信息與隱私保護呼聲日益高漲。早在2016年,《中國個人信息安全和隱私保護報告》(2)參見互聯(lián)網(wǎng)法治研究中心:中國個人信息安全和隱私保護報告.http://www.199it.com/archives/540836.html。公布的一項針對全國范圍的100多萬份問卷調(diào)查結(jié)果中,就有超七成的被訪者認為個人信息泄露問題嚴重,因網(wǎng)頁搜索、瀏覽等泄露個人信息,而遭受廣告持續(xù)侵擾的比例達53%,其中60%的受訪者不知如何維權。鑒于數(shù)字時代個人信息與隱私保護問題愈發(fā)緊迫,研究者們從法律保護、技術保護、行業(yè)自律以及自我防范四大方面,探討了如何應對日益嚴峻的隱私危機,[1][2]其中以行業(yè)自律為主導的美國模式,以及訴諸嚴苛法律保護的歐盟模式,在保護個人信息及隱私領域具有廣泛影響力。隨著世界范圍內(nèi)個人信息保護立法潮流的興起,2018年歐洲《通用數(shù)據(jù)保護條例》(GeneralDataProtectionRegulation,簡稱GDPR)、2020年《加利福尼亞州消費者隱私保護法案》(CaliforniaConsumerPrivacyAct, 簡稱CCPA)相繼實施,旨在進一步規(guī)范互聯(lián)網(wǎng)時代迅速發(fā)展的個人信息收集和使用行為。在我國,2012年全國人大常委會通過《關于加強網(wǎng)絡信息保護的決定》,開啟了我國個人信息保護的立法之路,此后我國關于個人信息保護的規(guī)定在《網(wǎng)絡安全法》《消費者權益保護法》等法律法規(guī)中有所體現(xiàn),至2021年《個人信息保護法》出臺,以及2022年3月國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》正式施行,網(wǎng)絡信息安全和隱私保護在國家層面的法律制度保護規(guī)范逐漸確立并日益完善。
依托大數(shù)據(jù)與智能算法提供精準推薦的網(wǎng)絡服務模式,其核心邏輯在于深度的個人信息挖掘與定制化的信息需求滿足,由此也必然面臨個人信息商業(yè)化利用與信息隱私保護之間的權衡問題。例如當前幾乎無處不在的精準推薦廣告,網(wǎng)絡服務提供者能夠通過實時數(shù)據(jù)獲取,精準定位目標用戶及其需求特征,以有效提升廣告?zhèn)鞑バЧ籟3]但隨著個人隱私保護意識的增強,網(wǎng)絡服務提供者的信息操控行為一旦被用戶感知,則往往會觸發(fā)個人隱私規(guī)避心理,從而對精準推薦內(nèi)容產(chǎn)生“抗拒”,傳播效果也將大打折扣,[3][4]隱私關注成為用戶網(wǎng)絡行為與傳播效果研究的重要影響因素。[5]然而,倘若對個人信息收集和使用加以限制,則可能導致廣告效果下降,[6]缺乏針對性的廣告不僅難以奏效,而且容易造成廣告侵擾。另外,信息規(guī)范與算法規(guī)制體系的構建,也面臨相應的監(jiān)管成本增加問題,同時也可能阻礙網(wǎng)絡服務平臺的數(shù)據(jù)驅(qū)動發(fā)展能力,增加其運行成本,從而影響企業(yè)創(chuàng)新發(fā)展的方向。[7][8]因此,如何有效應對由個人信息商業(yè)化利用而引發(fā)的信息權益沖突,是算法推薦模式持續(xù)發(fā)展而亟待解決的問題。如今智能算法技術已深度嵌入數(shù)字化社會,個人信息是算法推薦不可或缺的數(shù)據(jù)基礎,而隱私問題更是觸及算法推薦邏輯的核心,信息權益的合理權衡成為技術風險應對的重要命題。新時期我國對個人信息與隱私的保護進入精細化發(fā)展階段。鑒于該問題涉及多元主體以及多方利益關系博弈,探討算法推薦中的個人信息與隱私問題,有助于進一步厘清技術變革背景下個人信息商業(yè)化利用過程中所蘊含的風險,進而尋求應對個人信息與隱私危機的有效路徑。這對于推進算法推薦模式的規(guī)范發(fā)展乃至信息安全領域治理體系的完善具有重要意義。
信息與隱私密不可分?!墩撾[私權》一書提出了“隱私權”概念,其強調(diào)個人免受打擾的“獨處權”,來源于不受侵犯的人格權范疇。[9]桑德拉·佩特羅尼奧將“隱私邊界”視為人們管理公共領域與私人領域的界限,認為它并不是固定的,而是可滲透和可伸縮的。[10]隨著媒介技術的變革發(fā)展,信息的收集、傳播、利用和交換方式也發(fā)生改變,傳統(tǒng)時期界限分明的隱私觀,逐漸轉(zhuǎn)向數(shù)字化社會以個人信息自控為核心的隱私內(nèi)涵,普遍的信息流動也導致了前所未有的隱私風險。
任何一種新技術的出現(xiàn),往往伴隨著人們生存與生活方式的變遷。信息技術對隱私保護的沖擊,首先表現(xiàn)為大量的個人網(wǎng)絡行為被持續(xù)地記錄、保存和利用,私人領域逐漸向公共領域延伸,公共領域不斷向私人領域滲透,二者的界限日益模糊,由此隱私邊界漸趨消融。在早期以“場所”為導向的隱私界定中,“公共”和“隱私”被視為天然對立的概念,“公共”則意味著公開,非私密空間不存在任何隱私。[11]正如阿倫特所說,任何在公共場合所見、所聞的東西,都有最大程度的公開性。[12]“公共場所無隱私”的主張也一度成為法律實踐中的隱私判定標準。然而在以數(shù)據(jù)為基礎、由算法建構的數(shù)字化社會,一方面,人們的社交活動實現(xiàn)了以“圈子”為核心向以“關系”為紐帶的網(wǎng)絡交往轉(zhuǎn)向,個人信息范圍逐漸向外延伸,信息的公私邊界漸趨消融;[13]另一方面,媒介技術的變革極大增強了“萬物皆可追蹤”的可能性和海量數(shù)據(jù)長期儲存的便利性,這使得用戶成為被數(shù)據(jù)化、符號化的透明個體。個人信息被廣泛用于信息的精準匹配與傳播效果達成的目的,這意味著私人信息也成為可以被開發(fā)利用的“公共資源”。例如無論是具有公共屬性的網(wǎng)站搜索、留言評論行為,還是在私人網(wǎng)絡空間進行的朋友聊天、動態(tài)發(fā)布、好友互動與分享等,都能以數(shù)據(jù)的形式加以留存和使用。網(wǎng)絡虛擬世界與現(xiàn)實生活密切交織,信息流動與共享使得公共領域與私人領域的邊界變得模糊而難以區(qū)分,以往被視為私人領域的個人信息,如今也以“數(shù)字記憶”的方式進入公共空間。因此,數(shù)字化社會的個人信息正被賦予更多的公開性和公共屬性,用戶對其不愿公開的私密信息逐漸失去控制,作為私人領域“不受干擾”的私域空間正逐漸消失。
在傳統(tǒng)的隱私觀念范疇,隱私所代表的私密性是與公共空間所具有的公開性相區(qū)分的概念,隱私內(nèi)涵的相對性決定了其通常是社會主體間利益協(xié)商的結(jié)果,基于不同時期社會公共利益的考量,對于隱私保護難免有所取舍。傳統(tǒng)時期個人信息的核心功能在于可交流屬性,它是個體參與社會生活用以標識自身的工具,[14]客觀上難以通過共享個人信息來獲取經(jīng)濟利益。由于隱私權代表著人格權范疇的合法權利,其強調(diào)個體自由與個人尊嚴的不容侵犯性,這意味著私人信息的商業(yè)化利用是不被允許的。數(shù)字時代個人信息呈現(xiàn)出普遍的流動性特征,技術賦能使得個人信息的商業(yè)價值得以充分挖掘,由此也引發(fā)了隱私內(nèi)涵的嬗變。信息的流動與交換所創(chuàng)造的價值增益是數(shù)字經(jīng)濟發(fā)展的根本動因,數(shù)據(jù)成為蘊含巨大商業(yè)價值的社會資源,而技術變革則為個人信息獲取和使用提供了手段。在商業(yè)邏輯的助推下,作為隱私的個人信息逐漸從人格權中剝離,并能夠加以商業(yè)化利用,由此個人信息的交換價值和商品屬性得以充分發(fā)掘,其財產(chǎn)價值逐漸顯現(xiàn)。在大數(shù)據(jù)與人工智能技術應用日益成熟的背景下,個人信息也被推至商業(yè)化應用與增值的快車道,其中算法推薦廣告行業(yè)集中體現(xiàn)了個人信息的商業(yè)化利用過程。以實時競價(Real Time Bidding)廣告為例,數(shù)據(jù)分析與需求匹配是精準投放的關鍵,實際上在整個廣告投放流程中,個人信息在各類數(shù)據(jù)處理和廣告交易平臺上為網(wǎng)絡服務提供者所利用和消費。[15]盡管個人信息關涉人格尊嚴,但現(xiàn)實中又具有可交易的財產(chǎn)性特征,[14]數(shù)字化社會頻繁出現(xiàn)的隱私爭議,究其原因,也主要在于個人信息與隱私的保護和利用沖突。一方面,在這場以個人信息價值挖掘為核心的交易活動中,網(wǎng)絡服務提供者能夠通過新技術手段深入洞察用戶網(wǎng)絡行為特征,依據(jù)其所獲得的個人信息進行內(nèi)容推薦決策,以滿足用戶個性化的信息需求,信息傳播的運行效率得以極大提升,并且服務雙方都在一定程度上有所增益。而就個人信息與隱私保護而言,當用戶網(wǎng)絡行為信息成為網(wǎng)絡服務提供者理解和滿足用戶需求的基礎,更多具有敏感性的私人信息也流向了公共空間,隱私信息不再是人格權范疇完全不容侵犯的領域,而成為能在合理預期范圍之內(nèi)進行流轉(zhuǎn)的“商品”。信息隱私的這種“流動”狀態(tài)下的財產(chǎn)屬性,也在一定程度引發(fā)了用戶在人格權益層面的讓渡或受損風險。
信息技術的發(fā)展為更高效地釋放個人信息價值提供了可能。鑒于網(wǎng)絡服務提供者與用戶個體之間所掌握的信息資源差異懸殊,這種信息持有的不對稱也導致了信息價值收益的失衡。首先,數(shù)字化社會由網(wǎng)絡平臺主導的信息流動模式,從根本上顛覆了傳統(tǒng)時期以個人為導向的信息分享機制,網(wǎng)絡服務提供者成為個人信息的持有者和使用者,用戶則成為被算法“操控”的對象,個人信息權益越來越難以保障。借助于各種數(shù)據(jù)追蹤技術,網(wǎng)絡服務提供者能夠源源不斷地獲取用戶網(wǎng)絡行為信息,從而形成無形的“監(jiān)控”網(wǎng)絡,通過數(shù)據(jù)資源與算法程序的結(jié)合,網(wǎng)絡服務提供者能夠?qū)⑺@得的個人信息充分用于提升自身效益和市場競爭力,而用戶則逐漸淪為網(wǎng)絡服務中被動的信息資源提供者,無法充分享有應有的信息價值收益。另一方面,算法技術的“排他性”也帶來了“算法黑箱”問題,即由于算法的不透明性所引發(fā)的令人難以理解的狀態(tài),[16]本質(zhì)上反映了算法服務的使用者對其中原理以及意圖的不知情。由于算法技術作為數(shù)據(jù)輸入、數(shù)據(jù)處理以及數(shù)據(jù)輸出的一套運作程序系統(tǒng),普通用戶很難明確其中復雜的技術原理,算法的不透明性與不可解釋性特征,使得網(wǎng)絡服務提供者與用戶之間存在著嚴重的信息不對等,[17]前者憑借充分的信息資源持有優(yōu)勢,更容易滋生算法偏見、利益操控等問題。因此,在由網(wǎng)絡服務提供方主導的這場資源差距懸殊的“協(xié)商”中,雙方巨大的“信息鴻溝”使得網(wǎng)絡服務提供者占據(jù)絕對優(yōu)勢,信息資源持有失衡讓用戶更容易淪為精準傳播中一擊即倒的“靶子”。[15]數(shù)字時代的隱私憂患席卷而來,網(wǎng)絡服務提供者通過信息資源占有與價值開發(fā)而廣泛受益,而用戶則在算法黑箱面前無能為力,既無從知曉哪些個人信息被收集,也無法明確個人信息的使用和流向。這種信息不對稱助長了算法推薦中網(wǎng)絡服務雙方權利不平等局面,用戶的弱勢地位造成無可避免的隱私讓渡,隱私顧慮沖擊著網(wǎng)絡服務雙方的信任機制,由此難以建立持續(xù)而良好的協(xié)作溝通關系。
隱私意味著自我與他人之間的界限,是自我意識發(fā)展的前提,“沒有一定程度的隱私,就不可能有文明的生活”。[18]隱私權的保護旨在使得個人有所隱藏、保留和獨處, 得為自主而擁有一定范圍的內(nèi)在自我。[19]數(shù)字化社會的算法建構無處不在,我們猶如身處透明化的社會環(huán)境之中,個人隱私卻無處遁形。由媒介技術變革所引發(fā)的隱私風險,核心在于人們無法有效控制個人信息的流動范圍,且信息自控和自決受到算法邏輯的沖擊,而當前無論是法律規(guī)約還是自律規(guī)范,都難以在個人信息的普遍商業(yè)化應用中提供有效的信息與隱私安全保障,個人信息自主性正受到全面數(shù)字化建構的侵蝕。
個人信息是一切可以識別本人的信息的總和,其中“識別”是構成個人信息的實質(zhì)要素,包括直接識別和間接識別的信息。[20]個人信息的“識別性”是界定個人信息的核心以及信息賦權的基礎,[21]目前已成為世界多數(shù)國家制定個人信息或隱私保護法所采用的個人信息范圍界定依據(jù)。[22]例如歐盟1995 年《數(shù)據(jù)保護指令》、我國2021年實施的《個人信息保護法》,都將“與已識別或可識別的自然人有關的任何信息”界定為個人信息范疇。在實際的隱私糾紛案中,如“朱燁訴北京百度網(wǎng)訊科技有限公司隱私權糾紛案”“英國谷歌定向行為廣告案”等,能否準確識別具體個人都是重要的判定標準。
伴隨著互聯(lián)網(wǎng)與大數(shù)據(jù)技術的變革發(fā)展,信息的“識別性”邊界日益泛化,可識別信息范圍趨于模糊而引起諸多爭議,技術變遷背景下的個人信息與隱私保護也面臨新的挑戰(zhàn)。一方面,信息技術的發(fā)展引發(fā)了關于信息“識別性”的質(zhì)疑,“可識別”與“不可識別”的信息范圍存在相對性,以往不具備識別性的個人信息,隨著新技術的應用也極有可能變得能夠進行準確識別。例如以往難實現(xiàn)的地理位置、面部表情識別等,如今都能通過技術手段加以精準識別。除此之外,關聯(lián)性信息因素使得信息識別變得更為復雜,因為即使是初始階段無法識別的個人信息,借助于數(shù)據(jù)關聯(lián)算法仍能夠準確識別出個體,“整合型隱私”衍生出更為復雜的隱私問題。[23]另一方面,匿名化處理是個人信息“去標識化”所廣泛采用的技術保護手段,并且我國相關法律規(guī)定也將匿名化處理后的信息排除在個人信息范圍之外,但實際上匿名化處理也可能面臨失效問題。由于信息“匿名化”主要是將精細化的個人信息進行模糊處理,使得信息在一般情況下難以識別具體個人,從而達到對數(shù)據(jù)庫中具有敏感性的個人信息加以保護的目的。然而由于信息技術不斷迭代,匿名化處理后的信息也會面臨“再識別”風險,通過強大的關聯(lián)算法、反加密技術等同樣能描繪出個體的“數(shù)字畫像”,匿名化的技術保護效力在實際應用中難以保證。因此,從法律中個人信息識別性的內(nèi)涵變遷,到技術實踐中匿名化、數(shù)據(jù)加密等“反識別”方法的保護局限,技術變革不斷沖擊著基于“識別性”而建立的個人信息權益基礎。
當前網(wǎng)絡服務提供者實現(xiàn)精準推薦主要依賴大規(guī)模的數(shù)據(jù)資源與算法分發(fā)機制,且對個人信息收集與使用的精細化程度直接影響其收益。算法推薦對用戶個性化需求的滿足,需要在個人信息挖掘基礎上,實現(xiàn)用戶行為的精準預測,這個過程需要依賴大規(guī)模的原始數(shù)據(jù),因此盡可能多地獲取大量的個人信息,是促成推薦內(nèi)容“千人千面”的必然選擇。為了避免網(wǎng)絡服務提供者肆意進行用戶信息收集和使用,“授權同意”機制成為當前法規(guī)中信息與隱私保護的普適機制,[24]這意味著需要在用戶知情的情況下,授權允許網(wǎng)絡服務提供者收集和使用必要的個人信息。為此網(wǎng)絡服務提供者須以隱私條款的形式公開其信息收集和使用情況,以確保用戶知情后根據(jù)自身意愿做出合理選擇。雖然授權許可機制為個人信息與隱私保護提供了靈活保障,但實際上由于其中存在明顯的權利不均衡和話語不對等問題,多數(shù)情況下用戶既無法實現(xiàn)有效知情,也無法做出遵從其真實意愿的選擇決策。
首先,知情是用戶同意授權的基礎,而網(wǎng)絡服務提供者通過隱私聲明予以公開承諾的方式,既缺乏詳盡說明信息收集的動機,也無法充分告知數(shù)據(jù)處理及使用的真實情況。用戶的授權決策主要依據(jù)已發(fā)布的隱私條款,而網(wǎng)絡服務提供者作為信息收集和持有方,對個人信息的充分獲取與價值挖掘關乎其核心利益,擁有更多的個人信息資源即意味著更強的競爭優(yōu)勢,這就導致其既沒有限制采集個人信息的動機,也缺乏有效保護隱私信息的內(nèi)在動力。作為信息價值收益的獲益方,網(wǎng)絡服務提供者更期待的是用戶主動披露更多信息,即便是隱私聲明中的保護承諾,通常也只是出于法規(guī)限制的考慮,而為了達到“合規(guī)”的目的,所以隱私條款要么形式隱蔽難以發(fā)覺,要么內(nèi)容晦澀難懂,用戶很難實現(xiàn)有效知情。在多數(shù)情況下,用戶并不清楚自己的哪些行為被追蹤,更不知道哪些信息、什么時候被收集以及怎樣被使用,[25]技術手段的不斷更迭使得網(wǎng)絡服務提供者的信息收集和使用變得更加隱蔽且難以察覺,個人信息權益侵犯也往往是在用戶“無感”狀況下發(fā)生的。另一方面,數(shù)字時代的信息流動性特征,也決定了網(wǎng)絡服務提供者難以實現(xiàn)充分告知,由于用戶授權機制所依據(jù)的隱私聲明是網(wǎng)絡服務提供者關于信息收集、處理和使用的事先預判,因而通常只能涵蓋常規(guī)的信息處理環(huán)節(jié),而在個人信息的“下游”處理中,尤其是涉及第三方信息共享和交易時,信息流轉(zhuǎn)中蘊含著難以預判的未知性。除此之外,一些并不敏感的個人信息片段經(jīng)過有目的排列、組合后,可能成為具有重要商業(yè)價值的信息要素,復雜的整合型隱私問題也加劇了隱私保護困難,[26]普通用戶很難充分了解其中的技術運作原理,因此更無從得知個人信息收集和使用的真實情況。
其次,個人有效同意的核心在于自主選擇,而由于網(wǎng)絡服務提供者與用戶之間的不平等協(xié)商,用戶授權同意往往是不得已而為之。網(wǎng)絡服務提供者收集和使用個人信息需要獲得用戶授權,主要借助隱私聲明的方式予以說明,用戶據(jù)此做出“同意”或“不同意”的選擇。這種協(xié)商方式本身建立于雙方信息不對稱基礎之上,處于弱勢地位的用戶難以明確網(wǎng)絡服務提供者自我揭示的保護規(guī)則是否合理,只能參與這場“接受或是離開”的游戲。[27]部分隱私條款甚至不被重視,且內(nèi)容往往流于形式,存在語句不通、重復等明顯錯誤。[28]由此觀之,隱私聲明反而淪為網(wǎng)絡服務提供者“免于法律責任”的避風港,授權同意機制成為網(wǎng)絡服務提供者“合理”獲取個人信息、維護自身利益的另類途徑。因此,隱私聲明中“非同意即離開”的規(guī)則實際上所提供的唯一選擇就是“同意”。倘若因隱私顧慮而放棄使用某項網(wǎng)絡服務,則可能加劇“數(shù)字鴻溝”而淪為網(wǎng)絡時代的“信息隱民”,所以用戶只能參與到這場不平等的個人信息交換機制之中,[29]在此情況之下授權保護機制難有實效。
除此之外,“授權同意”機制還面臨用戶隱私?jīng)Q策成本問題。充分理解各項隱私政策,需要用戶投入大量的時間和精力去解讀各項晦澀難懂的隱私規(guī)定,若內(nèi)容條款適時更新,則意味著用戶需要持續(xù)關注隱私條款的變動,才能獲得必要的知情信息。但如果因不滿隱私政策而選擇退出,尋求其他替代性網(wǎng)絡服務時又必然需要新的成本投入。當前過高的隱私管理成本同樣限制了用戶的自主選擇。事實上,用戶授權通常是只是在有限理性或者無意識情況下做出的選擇,諸多限制性因素使得授權同意保護機制面臨“失靈”危機。在尚未有效建立相應規(guī)范體系的情況下,算法推薦機制可以說是以個人信息乃至隱私的商業(yè)化利用為代價的。
人的自主性建立于自由意志發(fā)揮的基礎之上,而在由數(shù)據(jù)和算法技術打造的透明化生存環(huán)境中,算法推薦在很大程度上限制了用戶的真實選擇,個人信息自主性實現(xiàn)的基礎正逐漸被算法推薦邏輯所消解。Solove認為“數(shù)據(jù)庫中的信息通常只是抓住一些刻板印象和非理性行為,而無法對人們的個性做出細致入微的刻畫,因此難以反映我們的真實生活”。[30]算法推薦機制基于個人信息展開定制化服務,在此過程中網(wǎng)絡服務提供者根據(jù)其所獲得的用戶網(wǎng)絡行為信息,對個體進行數(shù)字化建構,進而理解和預測其需求及偏好,從而有針對性地推出滿足用戶需求的信息內(nèi)容。由此,差異化個體被建構成為承載各種標簽的“數(shù)字畫像”,網(wǎng)絡服務提供者基于其捕獲的碎片化信息,不斷塑造更趨近其預期的“理想角色”,而用戶的自主決策則成為依附于算法程序的異化結(jié)果。借助算法程序的信息篩選與需求匹配,網(wǎng)絡服務提供者可以利用其所掌握的數(shù)據(jù)信息來推動、勸服、影響、甚至限制用戶認同,[31]數(shù)據(jù)驅(qū)動下個性化信息內(nèi)容的精準觸達,實際上是網(wǎng)絡服務提供者對個人自主決策的“理想化”塑造,這種信息過濾和精準推薦往往并非用戶真實情況的體現(xiàn),而是經(jīng)由網(wǎng)絡服務提供者事先預設的算法邏輯的結(jié)果呈現(xiàn)。
網(wǎng)絡服務提供者對個人信息的充分占有,也為其追求自身利益最大化提供了有效途徑,而越是對用戶有更加充分的了解,網(wǎng)絡服務提供者就更容易找出能夠說服其進行理想化決策的理由,從而促進網(wǎng)絡服務交易達成。例如為追求更好的廣告效果和營銷收益,網(wǎng)絡服務提供者通過對個人生活習慣及需求動向的長期關注,預測用戶喜好、分析產(chǎn)品購買率、推測產(chǎn)品使用場景,為其“量身定制”滿足其特定需求的產(chǎn)品或服務。[32]另外,根據(jù)用戶信息而采用算法推薦技術對用戶實施差別定價,“大數(shù)據(jù)殺熟”行為侵害了用戶的合法權益,也破壞了互聯(lián)網(wǎng)市場的交易秩序。[33]根據(jù)北京消費者協(xié)會2022年發(fā)布的《大數(shù)據(jù)“殺熟”問題調(diào)查報告》(3)參見北京市消協(xié)發(fā)布大數(shù)據(jù)“殺熟”問題調(diào)查報告.http://www.bj315.org/xxyw/xfxw/202209/t20220909_35059.shtml。數(shù)據(jù),七成多受訪者認為存在大數(shù)據(jù)“殺熟”現(xiàn)象,其目的在于獲取更多的經(jīng)濟利益,有66.47%的受訪者認為大數(shù)據(jù)“殺熟”侵犯了個人信息保護權。此外,基于情感定向的精準推薦也在不斷突破用戶消費的心理防線,個人信息披露往往能帶來即時的好處(如:注冊會員即享優(yōu)惠),但當對方太了解我們時,我們就失去了自主權。[34]總而言之,與網(wǎng)絡服務提供者所掌握的信息和技術優(yōu)勢相比,用戶的劣勢地位導致了其在風險感知和預判上的滯后。所以在與網(wǎng)絡服務提供者的協(xié)商溝通中,用戶更容易被所謂的個性化內(nèi)容觀點所裹挾,從而成為數(shù)字建構中被“捕獲”的個體。
“自主性”來源于希臘詞中表達自我管理、自我支配的概念,其哲學范疇的內(nèi)涵指代人根據(jù)自由意志進行自主活動的狀態(tài)。[35]數(shù)字時代算法推薦機制對人的自主性沖擊主要表現(xiàn)為個人信息的“失權”危機,而當前的信息“賦權”機制尚未有效確立與落實,由此個人信息自由受到算法權力的操控。算法權力反作用于人類甚至統(tǒng)治支配人的現(xiàn)象被視為算法權力的異化,[36]這構成算法推薦機制全面內(nèi)嵌于人們社會生活的現(xiàn)實背景下,應對技術風險需要解決的緊迫議題。概而言之,算法推薦模式引發(fā)的個人信息自主性沖擊體現(xiàn)在對信息獲取與信息分發(fā)的深度介入,作為信息輸入端的算法能夠?qū)崿F(xiàn)個人信息的獲取與分析處理,而作為輸出端的算法則控制著信息需求匹配,由此建立用戶與信息服務之間的精準連接。在此過程中,算法推薦機制替代了人的自主選擇,商業(yè)利益驅(qū)動個人信息價值的釋放,程序規(guī)則的全面嵌入更加助推了人的主體性危機。基于智能算法的精準推薦模式蘊含著與個人信息自由乃至信息自主相悖離的異化力量,這集中體現(xiàn)了數(shù)字時代算法推薦所帶來的技術風險。
在以信息要素為基礎的數(shù)字化社會,信息資源的獲取與價值挖掘是網(wǎng)絡服務提供者提升自身競爭力的關鍵,個人信息自主性問題由算法推薦機制所引發(fā)的信息與隱私權益受損而起。因而應對算法共生時代個人信息自主性危機,首先需要圍繞信息與隱私的保護規(guī)范展開。個人信息作為算法系統(tǒng)運行的基礎資源,決定了算法推薦機制的實際效力,而用戶對個人信息的自控與自決則決定了其能在多大程度上實現(xiàn)信息自主。在基于“數(shù)據(jù)—算法”邏輯建構的信息流動機制中,自主性構建有賴于從兩方面重塑用戶的主體性:一是用戶對其信息的自控,即個人依據(jù)其自身意志決定透露個人信息的行為,這是數(shù)字時代個人信息與隱私管理的核心內(nèi)涵;二是個人自主決定信息觸達,即意味著用戶能夠根據(jù)自身需求進行信息選擇。這種“由內(nèi)而外”的信息使用權和“由外而內(nèi)”的信息選擇權,共同構成了數(shù)字化社會中個人信息自主性的兩大維度。因此,當前如何規(guī)范管理個人信息及隱私是關涉自主性構建的關鍵范疇,它既觸及數(shù)字時代個人與其信息要素的所屬關系問題,也關乎實際運作中信息價值收益的合理分配,集中體現(xiàn)了技術風險語境下如何處理人的主體性問題需要思考的時代命題。
在與算法共生的時代,“信息賦權”旨在通過保障個人在其信息獲取、處理以及使用過程中的主體性權益,形成用戶主導的信息流動機制,以個人信息的自控與自決“倒逼”算法機制與信息處理的透明公開。早在20世紀90年代,歐盟就開啟了個人信息的立法保護規(guī)定,(4)1995年7月24日歐盟部長會議制定的《關于涉及個人信息處理的個人保護以及此類信息自由流動的第95/46號指令》(簡稱《個人信息保護指令》)以應對互聯(lián)網(wǎng)時代隨之而來的個人信息權益問題。如今法律規(guī)制已成為數(shù)字化生存中應對個人信息與隱私問題的普遍選擇,就現(xiàn)實路徑而言,法律規(guī)制中合理界定個人信息范圍是基礎依據(jù),相應的行業(yè)自律規(guī)約是有效落實的關鍵,形成多方協(xié)同的精細化規(guī)范體系是目標追求。
1.推進差異化場景中的信息分類與風險分級
信息的實時流動使得動態(tài)場景下個人信息范圍界定變得困難,信息識別性邊界的模糊成為個人信息賦權亟待解決的問題。技術變革帶來的個人信息與隱私保護挑戰(zhàn),主要在于動態(tài)的信息場景取代了以往靜態(tài)模式下“二元化”的信息預判。信息賦權基礎與構建自主性的現(xiàn)實路徑,首先在于實現(xiàn)信息流動中的個人信息分類與隱私風險分級,推進動態(tài)場景導向的個人信息與隱私保護機制的構建?!皥鼍皩颉钡睦砟钤从谀嵘U姆的“情景脈絡完整性”理論,[37]意在強調(diào)“尊重個人信息原始收集的具體場景,其后續(xù)傳播利用不得超出原初的情景脈絡”。[38]這種動態(tài)的個人信息保護理論框架在現(xiàn)有法律中已有所體現(xiàn),例如GDPR 在授權許可的基礎上,增加了被遺忘權、數(shù)據(jù)攜帶權等,為個人提供了更加靈活的隱私信息管理方式;CCPA引入了“選擇退出”(opt-out)的方法作為授權原則的協(xié)同機制,只有在合理授權范圍內(nèi)的信息處理無需經(jīng)由個人再次同意,而超出此范圍則用戶有權依據(jù)其合理隱私期待而選擇退出,由此體現(xiàn)出差異化情景導向的隱私保護機制在信息流動場景中的適用性。
不同信息流動場景下的個人信息進行分類和風險分級,關涉到當前我們應該保護哪些個人信息這一核心問題,構成信息流動中個人信息與隱私保護機制趨于精細化的基礎。例如我國《個人信息保護法》就針對敏感信息處理做出了專門規(guī)定,對于“一旦泄露或者非法使用,容易導致人的人格尊嚴受到侵害或者人身、財產(chǎn)安全受到危害”的敏感信息,不僅需要充分必要的獲取目的,還需要有嚴格的保護措施,并且要獲得個人單獨同意,除此之外還需考慮未成年人敏感信息處理的特殊性;(5)參加《個人信息保護法》第二十八條. http://www.customs.gov.cn/kjs/zcfg73/4265285/index.html。GDPR也對涉及九類個人敏感數(shù)據(jù)信息做出了“禁止處理”的特殊規(guī)定。(6)參見“General Data Protection Regulation”第 9 條,第 1 款. https://gdpr-info.eu/art-9-gdpr/。伴隨信息與通信技術的發(fā)展,個人數(shù)據(jù)信息類型變得更加豐富,敏感信息的范圍也在不斷拓展,更多的信息類型被納入其中,由此被用以處理哪些信息需要進行保護的問題。[2]這也表明,信息技術的進步也使得個人信息的內(nèi)涵與外延發(fā)生變化,個人信息與隱私保護的理論框架也需要不斷拓展和持續(xù)更新,未來需要基于動態(tài)場景理念,結(jié)合利益權衡原則,圍繞信息內(nèi)容、信息主體和信息價值等多維度,制定個人信息分類的細化標準,為信息流動中的隱私風險評估提供詳細依據(jù),從而推動制定個人信息與隱私保護的針對性方案。
2.技術賦能行業(yè)自律與隱私管理
隱私管理是人們對其分享信息時機、對象以及內(nèi)容等方面的考慮,[39]當前由技術變革帶來的個人隱私風險問題,也有賴于借助技術手段予以解決。既有的“授權同意”保護機制之所以淪為形式條款的核心問題在于:一是脫離差異化使用場景的“全有或者全無式”預判,以及同意或者退出的選擇模式,用戶難以在有效知情的情況下做出自主決策;二是面對過高的隱私管理成本和有限的用戶理性,用戶很難充分理解網(wǎng)絡服務提供者發(fā)布的隱私條款,既無從判斷其內(nèi)容規(guī)則的合理性,也無法進行實現(xiàn)常態(tài)化的隱私風險評估與決策。因此,個人信息保護實踐的推進有待于融入技術管理手段,完善差異化場景中分類信息的風險等級評估機制,以技術工具規(guī)避用戶隱私管理的非理性誤區(qū),實現(xiàn)個人信息與隱私風險的實時監(jiān)測與評估,并根據(jù)實際情況提供相應的解決方案建議。
首先,行業(yè)應加快構建個人信息保護的技術規(guī)范系統(tǒng),依據(jù)動態(tài)場景差異為用戶提供多元化的選擇,從而為個人信息權益提供實質(zhì)性的保護措施。例如美國互聯(lián)網(wǎng)協(xié)會推出的“個人隱私選擇平臺”(personal privacy preference platform,簡稱“P3P”),為個人的隱私管理提供了靈活的選擇空間, 在一定程度上彌補了選擇或退出的單向決策缺陷。其次,應運用技術手段為用戶提供個性化的隱私風險評估與管理方案,鑒于網(wǎng)絡服務提供者對個人信息的收集和使用涉及多個環(huán)節(jié),個人信息與隱私保護應從信息流動的全流程予以考量,根據(jù)“信息生命周期”的不同和用戶網(wǎng)絡行為的差異,提供分階段、分場景以及分類信息的隱私風險評估報告,既要說明其中的隱私風險,也要明確信息使用為用戶帶來的價值收益,從而根據(jù)利益權衡原則為用戶提供相應的優(yōu)化建議。另外,當用戶遇到高隱私風險的網(wǎng)絡服務應用時,應及時發(fā)布敏感信息泄露風險預警,從而提升用戶的隱私風險意識。由此,通過技術賦能為個人信息與隱私管理提供科學合理的研判機制,用切實可行的簡化操作方式,真正為個人信息與隱私保護帶來實效。
3.法律規(guī)制與自治協(xié)同構建精細化的規(guī)范體系
隨著智能算法推薦成為社會運行的常態(tài),構建相應的個人信息與隱私問題的規(guī)制體系已刻不容緩。由于算法推薦中的隱私問題關涉多主體、多環(huán)節(jié)和多方利益,且隨著技術變革其動態(tài)化和復雜性與日俱增,個人信息與隱私保護機制的完善有賴于法律規(guī)制與自治的多方協(xié)同,推進理論框架與保護實踐的有機融合。這不僅需要從歐盟的法律規(guī)制路徑和美國行業(yè)自律模式中獲得啟發(fā)借鑒,而且要依據(jù)我國數(shù)字行業(yè)的發(fā)展階段,逐漸完善我國個人信息與隱私保護的多方協(xié)同治理體系,規(guī)范網(wǎng)絡服務中的個人信息收集和使用,從而打造良好的信息生態(tài)環(huán)境。
具體而言,首先需要從法律層面進一步完善行業(yè)個人信息保護特別法規(guī)體系,在以《個人信息保護法》為核心的綜合性法律保護基礎上,逐步構建更具針對性的行業(yè)特別法規(guī)體系。雖然綜合性法律具有系統(tǒng)而全面的優(yōu)勢,但也可能會面臨細化層面的行業(yè)適應性問題,過于概括和抽象的內(nèi)容難免存在實際應用的局限,這就需要針對行業(yè)特點制定相應的法律條款。我國《民法典》在個人信息保護與利用方面構成特別法;[40]歐盟的《電子通信數(shù)據(jù)保護指令》、美國的《電子通信隱私權法》《家庭教育權利與隱私法》等[41]都是針對特殊行業(yè)領域的專門法。我國各相關行業(yè)也需要依據(jù)法律規(guī)定,構建個人信息保護的行業(yè)自律規(guī)約機制和通用標準,這有賴于以中國互聯(lián)網(wǎng)協(xié)會等為代表的行業(yè)力量,積極推動個人信息保護行業(yè)規(guī)范體系的建立,例如借鑒美國的行業(yè)自律機制,實施行業(yè)指引(suggestive industry guidelines)和在線隱私認證在線隱私認證(online privacy program),[20]由行業(yè)聯(lián)盟根據(jù)法律要求制定整個行業(yè)適用的隱私保護自律規(guī)范,并要求行業(yè)成員遵守和執(zhí)行,同時也可以通過網(wǎng)絡隱私認證機制,為符合隱私保護規(guī)范要求的網(wǎng)絡服務提供者提供隱私認證標志,以便用戶選擇更能保障信息隱私安全的網(wǎng)絡服務。再者,就個人信息保護的用戶自治而言,在為用戶提供相應的隱私風險監(jiān)測、評估、解決及溯源問責路徑的同時,也要注重個人信息素養(yǎng)的不斷提升,增強個人信息與隱私保護的自我管理意識與自主性??傊?,智能算法推薦時代的個人信息與隱私保護,有賴于從基礎法律規(guī)制、行業(yè)自律和個人自治層面協(xié)同推進,構建有機融合的多元并行框架,從而為信息商業(yè)價值應用與個人信息及隱私權益保護的合理權衡提供可行路徑,以期促進透明化生存時代個人信息自主性構建。
信息要素作為一種社會資源已經(jīng)成為當前數(shù)字化社會運行的必要基礎,信息流動不斷革新傳統(tǒng)的個人信息與隱私內(nèi)涵,算法機制的深度內(nèi)嵌使得透明化生存中如何構建個人信息自主性成為新的時代命題。伴隨著信息技術發(fā)展潮流,數(shù)據(jù)和算法愈發(fā)成為行業(yè)創(chuàng)新發(fā)展的核心驅(qū)動力量,數(shù)字化社會的矛盾與沖突也日益圍繞信息資源及其價值挖掘展開。個人信息與隱私的商業(yè)化利用中所顯現(xiàn)的個人自主性危機,集中反映了算法技術的工具理性所帶來的人文價值的沖擊。由于個人信息與隱私保護關乎個體人格權益、經(jīng)濟效益以及社會的長足發(fā)展,其不僅涉及技術、經(jīng)濟、法律等多元社會議題,且相應保護機制的建立也面臨多方社會主體利益的調(diào)和與博弈。如今我國的個人信息與隱私保護制度體系的構建進入關鍵時期,在結(jié)合國際經(jīng)驗,基于法制框架和行業(yè)自律路徑,探討信息商業(yè)價值挖掘與個人信息權益保護之間的有效平衡之外,未來更需要納入多元主體視角展開研究,為技術變革背景下的個人自主性構建提供理論與實踐指引。