林嘉 羅寰昕
【摘要】個(gè)性化推薦主要面臨威脅人類主體自主性、“信息繭房”與“回音室”效應(yīng)、大數(shù)據(jù)“殺熟”方面的質(zhì)疑?!耙绘I關(guān)閉”功能因能夠?qū)崿F(xiàn)隱私個(gè)人控制、促進(jìn)信息自由流通和預(yù)防價(jià)格歧視而被推崇。然而,用戶往往缺少隱私自治能力,個(gè)性化推薦造成群體極化之前首先具有議程凝聚、促進(jìn)交往的價(jià)值,以關(guān)閉個(gè)性化推薦來(lái)解決價(jià)格歧視存在目標(biāo)和手段的錯(cuò)位。“一鍵關(guān)閉”不僅難以符合規(guī)制預(yù)期,其自身還存在可操作度低和所承載公共價(jià)值模糊的弊端。個(gè)性化推薦的治理應(yīng)以算法向善為方向,通過打造以信任為中心的透明可解釋、用戶交互友好的算法推薦,發(fā)揮個(gè)性化推薦的公共價(jià)值,增進(jìn)社會(huì)福利。
【關(guān)鍵詞】個(gè)性化推薦 算法規(guī)制 可信算法 隱私個(gè)人控制 “信息繭房”
【中圖分類號(hào)】G206 【文獻(xiàn)標(biāo)識(shí)碼】A 【文章編號(hào)】1003-6687(2024)3-079-10
【DOI】 10.13786/j.cnki.cn14-1066/g2.2024.3.011
2021年12月,國(guó)家網(wǎng)信辦等四部門聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法推薦規(guī)定》),為算法推薦服務(wù)提供了規(guī)范指引。其中,《算法推薦規(guī)定》第17條第一、二款分別規(guī)定:“算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)”“用戶選擇關(guān)閉算法推薦服務(wù)的,算法推薦服務(wù)提供者應(yīng)當(dāng)立即停止提供相關(guān)服務(wù)”。該規(guī)定在實(shí)踐中演化為“一鍵關(guān)閉”功能,備受關(guān)注。2022年國(guó)際消費(fèi)者權(quán)益日到來(lái)之際,《經(jīng)濟(jì)日?qǐng)?bào)》發(fā)布一則名為《微信、抖音、淘寶、微博等頭部APP已允許用戶一鍵關(guān)閉個(gè)性化推薦》的報(bào)道, 經(jīng)各大主流媒體轉(zhuǎn)發(fā),引發(fā)很大反響。[1]
“一鍵關(guān)閉”功能廣受好評(píng),被認(rèn)為是推動(dòng)個(gè)人信息保護(hù)、消費(fèi)者權(quán)益保護(hù)的有益舉措。正如《人民日?qǐng)?bào)》評(píng)論稱,“算法”不能變“算計(jì)”,“一鍵關(guān)閉”個(gè)性化推薦功能有助于壓實(shí)平臺(tái)責(zé)任,“進(jìn)一步推動(dòng)解決近年來(lái)人們反映強(qiáng)烈的信息繭房、算法歧視、大數(shù)據(jù)殺熟等問題”。[2]
基于上述背景,本文將回顧“一鍵關(guān)閉”個(gè)性化推薦作為算法規(guī)制措施的由來(lái),即立法者對(duì)其功能有著怎樣的預(yù)期?這些功能預(yù)期是否順利實(shí)現(xiàn)?通過回溯“為何要一鍵關(guān)閉個(gè)性化推薦”,力圖說明“我們追求怎樣的個(gè)性化推薦”是比單純拒絕個(gè)性化推薦更具現(xiàn)實(shí)意義的命題。校準(zhǔn)對(duì)于算法推薦系統(tǒng)的規(guī)制目標(biāo)后,本文試圖從打造透明可解釋和交互友好的可信算法推薦等方面提供規(guī)制新解。
一、個(gè)性化推薦的“原罪”
對(duì)個(gè)性化推薦的質(zhì)疑主要來(lái)自三方面,這些質(zhì)疑分別從隱私保護(hù)、群體極化和偏見歧視角度對(duì)個(gè)性化推薦技術(shù)展開批評(píng)。[3]
1. 算法過濾取代用戶判斷
個(gè)性化推薦中,算法過濾取代用戶判斷,損害個(gè)人的信息自主權(quán),進(jìn)而威脅人類主體的自由與自主。個(gè)性化推薦的實(shí)現(xiàn)需要對(duì)用戶的設(shè)備信息、位置信息以及在使用產(chǎn)品時(shí)的行為信息進(jìn)行自動(dòng)分析和計(jì)算,根據(jù)計(jì)算結(jié)果從信息候選池中篩選出用戶可能感興趣的內(nèi)容進(jìn)行推送。由此,個(gè)性化推薦算法取代用戶自身,決定了用戶所獲信息的內(nèi)容和范圍,并因此被譴責(zé)威脅到人類的自主價(jià)值。關(guān)于人的自主選擇能力對(duì)于人類尊嚴(yán)和價(jià)值的重要性以康德有關(guān)自由的學(xué)術(shù)思想為代表,在康德看來(lái),人類擁有某種意志并且能夠自由地實(shí)踐自己的意志,有能力自律地行動(dòng),正是這種能力,而非運(yùn)用這種能力的結(jié)果,對(duì)人類來(lái)說最為重要。[4]康德的主體理論對(duì)近現(xiàn)代自由主義思想影響深遠(yuǎn),當(dāng)代數(shù)據(jù)隱私領(lǐng)域持續(xù)強(qiáng)調(diào)的個(gè)人信息自主、自治、自決概念,正是康德理性主義精神的體現(xiàn)。[5]對(duì)個(gè)性化推薦的批判符合古典自由主義傳統(tǒng)?;ヂ?lián)網(wǎng)以及操控互聯(lián)網(wǎng)的大型平臺(tái),決定了信息如何呈現(xiàn)給世界,搜索引擎、社交媒體、電子商務(wù)等大型平臺(tái)決定了用戶可以獲得哪些信息以及以何種形式獲得信息。個(gè)性化算法推薦過濾掉它認(rèn)為與用戶愛好不相關(guān)的信息,即用算法過濾取代用戶有意識(shí)的自主選擇。通過塑造用戶接收信息及與信息交互的方式,個(gè)性化推薦控制了人與信息以及人與人之間的互動(dòng),通過控制用戶在線互動(dòng)的內(nèi)容和對(duì)象,個(gè)性化推薦限制了用戶主動(dòng)選擇信息內(nèi)容和信息來(lái)源的能力,因而被批評(píng)。
2.“信息繭房”與“回音室”
“信息繭房”與“回音室”效應(yīng)是對(duì)個(gè)性化推薦的常見批判,亦可描述為數(shù)字權(quán)力的濫用,批評(píng)者表達(dá)了定制信息服務(wù)對(duì)言論自由和協(xié)商民主的危害。[6]“信息繭房”與“回音室”的概念由美國(guó)學(xué)者桑斯坦提出,其通過21世紀(jì)初出版的著作《信息烏托邦:眾人如何生產(chǎn)知識(shí)》《網(wǎng)絡(luò)共和國(guó)》《網(wǎng)絡(luò)共和國(guó)2.0》和《標(biāo)簽共和國(guó)》系統(tǒng)論述了信息通信的民主功能,并引入了“信息繭房”與“回音室”效應(yīng)等概念。“信息繭房”與“回音室”效應(yīng)形象地描述了過去傳播學(xué)研究中提出的“選擇性心理”及其結(jié)果,在桑斯坦看來(lái),“信息繭房”意味著人們只聽他們選擇和愉悅他們的東西。作為一名憲法學(xué)者,桑斯坦把對(duì)社交媒體的研究和政治民主結(jié)合,他認(rèn)為,一個(gè)運(yùn)轉(zhuǎn)良好的民主社會(huì)中,人們不會(huì)生活在“回音室”或“信息繭房”之中,并進(jìn)一步提出審議民主質(zhì)量應(yīng)作為信息通信的評(píng)價(jià)標(biāo)準(zhǔn),一個(gè)好的通信系統(tǒng)應(yīng)有助于促進(jìn)“協(xié)商”。正如有學(xué)者評(píng)價(jià),“與其說桑斯坦關(guān)注的是民主,不如說他關(guān)注的是‘協(xié)商”。[7]桑斯坦對(duì)“信息繭房”與“回音室”效應(yīng)的批判源于對(duì)審議、反思及問責(zé)的民主制度的追求,擔(dān)憂預(yù)先過濾會(huì)威脅到網(wǎng)絡(luò)用戶作為公民獲取信息、溝通協(xié)商、表達(dá)觀點(diǎn)的空間。在《標(biāo)簽》中,桑斯坦提出兩個(gè)更為具體的促進(jìn)觀點(diǎn)流動(dòng)和民主秩序的標(biāo)準(zhǔn):不期而遇的機(jī)會(huì)與共享經(jīng)驗(yàn)。[8]個(gè)性化推薦技術(shù)被認(rèn)為是數(shù)字時(shí)代阻礙信息流通局面和觀念市場(chǎng)繁榮的“元兇”,可能會(huì)導(dǎo)致信息窄化和用戶價(jià)值觀的封閉,進(jìn)一步加劇群體極化和社會(huì)黏性喪失,最終造成社會(huì)分裂的不良后果,并且不利于區(qū)域化和全球化進(jìn)程。
3. 用戶信息與瀏覽數(shù)據(jù)的貨幣化
對(duì)個(gè)性化推薦的批評(píng)之三源于用戶信息與瀏覽數(shù)據(jù)貨幣化造成的價(jià)格歧視風(fēng)險(xiǎn)。19世紀(jì)初,西方報(bào)業(yè)新聞界“黃色新聞”風(fēng)靡一時(shí),“黃色新聞”以大量漫畫和煽情報(bào)道吸引受眾眼球,采用以低售價(jià)、高發(fā)行量贏取高利潤(rùn)的經(jīng)營(yíng)方式;如今進(jìn)入新媒體時(shí)代,同樣是為了盡可能獲取受眾的注意力資源,個(gè)性化推薦和定向廣告也成為信息領(lǐng)域一種劃時(shí)代的象征?;ヂ?lián)網(wǎng)企業(yè)一方面提供免費(fèi)信息服務(wù),另一方面則通過用戶數(shù)據(jù)的貨幣化、商品化盈利。個(gè)性化算法推薦中蘊(yùn)含的用戶畫像、定向廣告、“大數(shù)據(jù)殺熟”,引發(fā)消費(fèi)者對(duì)于隱私與個(gè)人信息權(quán)益的擔(dān)憂, 并進(jìn)一步演化為對(duì)算法歧視與偏見的控訴,價(jià)格歧視即為最受關(guān)注的一種。[9]當(dāng)一家公司出于與供應(yīng)成本無(wú)關(guān)的原因,對(duì)相同或類似的商品或服務(wù)向不同消費(fèi)者群體收取不同的價(jià)格時(shí),就會(huì)發(fā)生價(jià)格歧視。[10]經(jīng)濟(jì)學(xué)文獻(xiàn)傳統(tǒng)上認(rèn)為,個(gè)性化定價(jià)的發(fā)生需要四個(gè)條件:一是對(duì)消費(fèi)者個(gè)人支付意愿的評(píng)估能力;二是消費(fèi)者的套利能力有限;三是市場(chǎng)支配力的存在;四是通過隱藏這種商業(yè)行為來(lái)對(duì)抗消費(fèi)者對(duì)個(gè)性化定價(jià)可能產(chǎn)生的負(fù)面看法的能力。[11]隨著大型互聯(lián)網(wǎng)平臺(tái)數(shù)據(jù)收集與分析能力的提高,個(gè)性化推薦算法的行為預(yù)測(cè)愈加準(zhǔn)確,可以實(shí)現(xiàn)更有效和有針對(duì)性的個(gè)性化定價(jià),而在網(wǎng)絡(luò)世界中,隱藏這種商業(yè)實(shí)踐相對(duì)更加容易,消費(fèi)者很難通過定價(jià)和廣告機(jī)制辨別出有競(jìng)爭(zhēng)力的替代方案,這使得個(gè)性化定價(jià)可以順利實(shí)施。
二、“一鍵關(guān)閉”的魅力
針對(duì)上述個(gè)性化推薦的數(shù)條罪狀,“一鍵關(guān)閉”作為算法治理手段具有充分的魅力。這種魅力從原理而言源于三方面:其一,數(shù)據(jù)隱私保護(hù)的“個(gè)人信息控制論”傳統(tǒng);其二,信息自由流通對(duì)社會(huì)分裂與群體極化的免疫;其三,“一鍵關(guān)閉”呼應(yīng)了互聯(lián)網(wǎng)用戶對(duì)“大數(shù)據(jù)殺熟”的反感與抗拒情緒。上述規(guī)制效果直覺性地理順了“一鍵關(guān)閉”的規(guī)制邏輯。
1. 隱私個(gè)人控制論
歐美數(shù)據(jù)隱私保護(hù)的智慧長(zhǎng)久以來(lái)建立在一種自由主義范式之上,可稱之為“隱私控制”。[12]1890年,美國(guó)學(xué)者沃倫和布蘭代斯提出“隱私權(quán)”的概念,主張隱私權(quán)意味著“獨(dú)處的權(quán)利”。20世紀(jì)70年代,為了回應(yīng)計(jì)算機(jī)數(shù)據(jù)庫(kù)處理個(gè)人信息時(shí)伴生的問題,公平信息實(shí)踐在美國(guó)應(yīng)運(yùn)而生,其歷經(jīng)各個(gè)版本的演化,而核心命題之一始終是賦予個(gè)體以隱私自我管理的權(quán)利。歐盟《一般數(shù)據(jù)保護(hù)條例》(GDPR)于2016年通過,作為一部基本權(quán)利保障法,其制定的總體思路是基于“個(gè)人數(shù)據(jù)關(guān)系個(gè)人尊嚴(yán)”“賦予個(gè)人對(duì)自身數(shù)據(jù)的控制權(quán)以抗衡數(shù)據(jù)處理行為”的價(jià)值認(rèn)知,進(jìn)而創(chuàng)設(shè)個(gè)人數(shù)據(jù)保護(hù)權(quán)以保護(hù)個(gè)人權(quán)利不因個(gè)人數(shù)據(jù)處理而受侵害。可見,經(jīng)過多年的發(fā)展,數(shù)據(jù)隱私法的價(jià)值總是以自主控制的理想為中心。[13]
延續(xù)“隱私控制論”的邏輯,個(gè)人信息保護(hù)領(lǐng)域個(gè)人信息權(quán)和算法有關(guān)權(quán)利作為控制個(gè)人信息利用的個(gè)體權(quán)利,一直是數(shù)據(jù)隱私保護(hù)的核心。隱私法通常被稱為“以權(quán)利為基礎(chǔ)”的法律。盡管歐盟和美國(guó)存在人權(quán)保護(hù)傾向和市場(chǎng)規(guī)制傳統(tǒng)的差異,但可以說二者都發(fā)展出了以權(quán)利和控制為本位的隱私保護(hù)機(jī)制。正如上文所述,在這種保護(hù)范式中,可以清楚地看到康德式的自由主義政治理論根源,圍繞個(gè)人對(duì)其數(shù)據(jù)的權(quán)利,自由自主原則已經(jīng)被確定并概念化。
我國(guó)的《個(gè)人信息保護(hù)法》出臺(tái)時(shí)間較晚,亦受英美等國(guó)隱私控制范式的影響,從近年來(lái)本土研究中有關(guān)個(gè)人信息“權(quán)”與個(gè)人信息自決的大規(guī)模討論中可窺一斑。[14]“一鍵關(guān)閉”個(gè)性化推薦是算法規(guī)制領(lǐng)域隱私控制保護(hù)范式的典型代表,它要求互聯(lián)網(wǎng)信息服務(wù)提供者向用戶提供不針對(duì)其個(gè)人特征的選項(xiàng),即賦予用戶對(duì)個(gè)性化推薦的拒絕權(quán)。通過拒絕系統(tǒng)對(duì)用戶瀏覽、購(gòu)買、點(diǎn)擊等行為的跟蹤,用戶得以控制其個(gè)人信息,主要是控制算法對(duì)其個(gè)人信息的數(shù)據(jù)分析,從而緩解對(duì)個(gè)人自主的威脅。
2. 信息自由市場(chǎng)
“一鍵關(guān)閉”在信息傳播和傳媒通信領(lǐng)域的重大魅力在于其刺破了為個(gè)人用戶專屬定制的“泡泡”,促進(jìn)更廣泛和完整的信息在用戶處展現(xiàn)及流通。在有關(guān)表達(dá)自由以及媒介責(zé)任的論述中,一直存在所謂“觀念市場(chǎng)”的類比,它借用了經(jīng)濟(jì)學(xué)相關(guān)概念,在這樣的一個(gè)市場(chǎng)中,真理和謊言相互競(jìng)爭(zhēng),人們期待前者終會(huì)戰(zhàn)勝后者。[15]觀念市場(chǎng)成為如黑格爾所追求的以“真理”構(gòu)成人的“現(xiàn)實(shí)自我意識(shí)”的前提。
3.“殺熟”的歧視感知
“大數(shù)據(jù)殺熟”概念自創(chuàng)生起,即被社會(huì)公眾理解為一種負(fù)面現(xiàn)象。目前能檢索到的含“大數(shù)據(jù)殺熟”關(guān)鍵詞的20余篇閱讀量“10萬(wàn)+”微信文章中,均對(duì)其使用否定評(píng)價(jià),文章標(biāo)題關(guān)聯(lián)了“被宰”“潛規(guī)則”“網(wǎng)友親測(cè)后氣炸”等容易激發(fā)消費(fèi)者反面情緒的概念。在英文語(yǔ)境中,“大數(shù)據(jù)殺熟”即價(jià)格歧視,或稱差異化定價(jià)、個(gè)性化定價(jià),是一種常見的經(jīng)濟(jì)現(xiàn)象,在經(jīng)濟(jì)學(xué)里作為中性詞,本質(zhì)是彈性定價(jià)策略,根據(jù)消費(fèi)者的消費(fèi)意愿、消費(fèi)行為和消費(fèi)模式等因素收取不同的價(jià)格。在中文語(yǔ)境下,“歧視”則更容易傳遞否定性評(píng)價(jià)信息。
對(duì)“大數(shù)據(jù)殺熟”的負(fù)面情緒一方面來(lái)自大數(shù)據(jù)時(shí)代公眾對(duì)技術(shù)黑箱的恐慌;另一方面則源自天然的消費(fèi)者直覺,“殺熟”的用詞從直覺看破壞了消費(fèi)者的關(guān)系期待。對(duì)“殺熟”的抗拒情感可以從中國(guó)傳統(tǒng)人倫秩序方面進(jìn)行理解。費(fèi)孝通先生把中國(guó)社會(huì)結(jié)構(gòu)特點(diǎn)歸納為“差序格局”,旨在描述親疏遠(yuǎn)近的人際圈層。[16]以關(guān)系作為社會(huì)基礎(chǔ)的中國(guó)人偏重由關(guān)系或交情建立的信任, 盡管當(dāng)前的網(wǎng)絡(luò)關(guān)系很難說仍維持了這種社會(huì)交往結(jié)構(gòu),但“殺熟”這樣的話術(shù)安排還是隱含了消費(fèi)者與平臺(tái)及其算法系統(tǒng)之間信任關(guān)系的破裂。[17]傳統(tǒng)社會(huì)關(guān)系網(wǎng)的處罰機(jī)制通過聲譽(yù)效應(yīng)實(shí)現(xiàn),處在關(guān)系網(wǎng)中的個(gè)人難以承擔(dān)破壞信賴之后對(duì)聲譽(yù)的損壞?;ヂ?lián)網(wǎng)語(yǔ)境下,這種處罰機(jī)制依然若隱若現(xiàn),大數(shù)據(jù)“殺熟”被廣泛報(bào)道后,往往喚醒了消費(fèi)者對(duì)平臺(tái)企業(yè)的警覺和防范心理狀態(tài),造成了大數(shù)據(jù)技術(shù)的低信任局面。在這種對(duì)抗情緒占主導(dǎo)的互動(dòng)關(guān)系中,“一鍵關(guān)閉”自然成為一把利器,對(duì)于擔(dān)心被“殺熟”的消費(fèi)者來(lái)說,關(guān)閉算法對(duì)其行為的跟蹤無(wú)疑是一劑安心藥。
三、“一鍵關(guān)閉”個(gè)性化推薦的迷思
“一鍵關(guān)閉”作為個(gè)性化推薦算法的治理手段,對(duì)其的各項(xiàng)質(zhì)疑是否可以得到妥善解決?下文將從隱私個(gè)人控制悖論,個(gè)性化推薦的議程凝聚價(jià)值和“一鍵關(guān)閉”是否能夠作為價(jià)格歧視規(guī)制手段三方面進(jìn)行分析,揭示以“一鍵關(guān)閉”治理個(gè)性化推薦所存在的手段與目標(biāo)之間的錯(cuò)位。
1. 隱私個(gè)人控制悖論
在個(gè)性化推薦場(chǎng)景中,“一鍵關(guān)閉”的隱私個(gè)人控制的規(guī)制范式存在兩方面疑問:其一,用戶是否有意愿行使控制權(quán);其二,“一鍵關(guān)閉”后,用戶真的能控制自己的信息隱私嗎?即使平臺(tái)設(shè)計(jì)了便捷的“一鍵關(guān)閉”功能,用戶也可能對(duì)其熟視無(wú)睹。即使在“一鍵關(guān)閉”后,用戶也可能因體驗(yàn)不佳又重新啟用個(gè)性化推薦。再者,即使用戶關(guān)閉個(gè)性化推薦,也并不意味著推薦的減少或者定向廣告的減少,向用戶撲面而來(lái)的可能是雜亂無(wú)章的信息和隨機(jī)且精確性大幅下滑的推薦,進(jìn)而造成信息過載。用戶當(dāng)然可以通過自己設(shè)置興趣標(biāo)簽或者關(guān)鍵詞檢索的方式瀏覽信息,這看似是一種完美控制個(gè)人信息暴露環(huán)境和隱私利益的方式,但實(shí)際上又陷入了另一種形式的“信息繭房”——由于信息過載和用戶認(rèn)知有限,這種信息繭房的桎梏效應(yīng)可能比個(gè)性化推薦情境更加嚴(yán)重。
個(gè)人信息控制論的流行始終伴隨著爭(zhēng)議,體現(xiàn)為個(gè)人信息個(gè)體性和流通性的二律背反。在爭(zhēng)議的聲音中,最有力的兩條線索來(lái)自個(gè)人信息的場(chǎng)景化理解和行為主義規(guī)制。[18]1989年,耶魯大學(xué)法學(xué)院第16任院長(zhǎng)波斯特發(fā)表一篇題為《隱私權(quán)的社會(huì)基礎(chǔ):普通法侵權(quán)中的共同體與自我》的論文,由此奠基了未來(lái)20年以社群主義理解隱私的思潮。[19]國(guó)內(nèi)近十年來(lái)發(fā)端的數(shù)據(jù)隱私研究中,康奈爾大學(xué)法學(xué)院教授尼森鮑姆的“場(chǎng)景融貫”理論可謂引用率最高的西方學(xué)術(shù)資源之一。根據(jù)尼森鮑姆的說法,對(duì)于人類而言,在一系列可能的關(guān)系和角色中相互交往,在特定的上下文中建立和協(xié)商“部分公開”的“隱私”概念是完全合適的,即共享第三空間介于嚴(yán)格的個(gè)人隱私概念和完全公共的非私人空間之間。[20]尼森鮑姆的思想內(nèi)核亦源于對(duì)個(gè)人信息的社群主義理解,“場(chǎng)景”可以被認(rèn)為是社群架構(gòu)的具體化闡釋。醫(yī)患關(guān)系之間的信息關(guān)系常被用于生動(dòng)形容場(chǎng)景化的隱私保護(hù):醫(yī)生和患者之間構(gòu)成了醫(yī)療信息使用的特定場(chǎng)景,病人當(dāng)然地希望有關(guān)其醫(yī)療細(xì)節(jié)的某些隱私得到尊重,然而,這并不意味著患者或醫(yī)生絕對(duì)控制患者的健康信息,醫(yī)療細(xì)節(jié)往往會(huì)被適當(dāng)?shù)胤窒斫o其他關(guān)心該病例或相關(guān)的醫(yī)護(hù)人員,患者不會(huì)因此而感受到被冒犯。但如果醫(yī)生向藥物公司或廣告公司售賣患者醫(yī)療信息,患者當(dāng)然地會(huì)感覺到隱私受到侵犯。
在社群主義隱私觀的哲學(xué)背景與場(chǎng)景理論指導(dǎo)下,進(jìn)一步發(fā)展出隱私的行為主義規(guī)制進(jìn)路,即個(gè)人信息保護(hù)應(yīng)當(dāng)根據(jù)不同行為所可能侵犯的個(gè)體與社會(huì)的不同權(quán)益而進(jìn)行不同程度的規(guī)制。[21]這種對(duì)個(gè)人信息保護(hù)作為“行為法”而非“權(quán)利法”的理解,超越了個(gè)人信息保護(hù)的權(quán)利話語(yǔ),成為個(gè)人信息控制論思想的有力競(jìng)爭(zhēng)。運(yùn)用“行為法”理解我國(guó)個(gè)人信息保護(hù),《個(gè)人信息保護(hù)法》“旨在保護(hù)個(gè)人信息處理中的個(gè)人權(quán)益不受侵犯”,是“圍繞個(gè)人信息處理展開”的規(guī)范,而非關(guān)于個(gè)人信息權(quán)的法律。[22]依循行為主義規(guī)制的邏輯,對(duì)于如何規(guī)制個(gè)性化推薦,是行為限度問題,而非對(duì)個(gè)人信息的控制權(quán)行使問題。
2. 公共領(lǐng)域與交往理性
個(gè)性化推薦確實(shí)有加重“信息繭房”或“回音室”效應(yīng)的可能,但從大眾媒體作為公共基礎(chǔ)設(shè)施的角度來(lái)看,“一鍵關(guān)閉”并不能直擊問題所在。促進(jìn)協(xié)商民主的前提是議程凝聚。從議程設(shè)置理論發(fā)展出來(lái)的議程融合(Agenda Melding)理論,從深層次說明了公共議程對(duì)于社會(huì)整合的意義,麥庫(kù)姆斯和唐納德·肖認(rèn)為, 媒體設(shè)置的議程之所以能作用于公眾,是因?yàn)樗鼈兙哂芯奂鐣?huì)群體的功能, 而這是源于人們都有一種對(duì)于“群體的歸屬感”的需要。[23]議題凝聚是觀念沖撞的前提。我們彼此需要了解我們?cè)谟懻撘粋€(gè)什么樣的問題,我們是否在討論同一個(gè)問題,然后才是觀點(diǎn)的分享,結(jié)果有可能是和諧也可能是對(duì)立,最終的目標(biāo)才是尋找共識(shí)。“交談”本身就是一件非比尋常的事。[24]個(gè)性化推薦在造成群體極化和社會(huì)分裂之前,首先具有形成阿倫特、哈貝馬斯等學(xué)者所稱“公共領(lǐng)域”的重大意義,即促成主體之間合理的“交往”?!敖煌硇浴钡倪\(yùn)用條件之一“言談的有效性”要求可理解、真實(shí)、正當(dāng)和真誠(chéng)?!耙绘I關(guān)閉”看似避免了信息的單一聚集,但有可能傷害在激化群體極化之前的討論場(chǎng)域、理性交談行動(dòng)的形成以及一定程度共識(shí)的凝聚。數(shù)字時(shí)代的“文字失語(yǔ)”現(xiàn)象愈發(fā)普遍,個(gè)性化推薦讓用戶發(fā)現(xiàn)相似的觀點(diǎn)和那些表達(dá)相似觀點(diǎn)的人,首先應(yīng)當(dāng)肯定其增進(jìn)溝通、鼓勵(lì)表達(dá)的重要價(jià)值。至于觀點(diǎn)的多元?jiǎng)t需要合理的算法設(shè)計(jì),“一鍵關(guān)閉”后并非就意味著能夠擁有一個(gè)理想、中立、多元的信息環(huán)境。
3. 議程、框架與“殺熟”誤解
議程設(shè)置和框架理論都是傳播學(xué)效果研究的經(jīng)典理論,兩者都描述了媒介通過新聞報(bào)道構(gòu)建出的“擬態(tài)環(huán)境”來(lái)影響受眾的議程和認(rèn)知。議程設(shè)置理論由麥庫(kù)姆斯提出,講述大眾媒介對(duì)公共議程的影響,以及其塑造大眾對(duì)報(bào)道客體的屬性印象,簡(jiǎn)單地說就是媒體不僅能決定人們想什么,還能決定人們?cè)趺聪搿?蚣芾碚撘话阏J(rèn)為來(lái)自社會(huì)學(xué),戈夫曼將貝特森提出的“框架”概念引入文化社會(huì)學(xué),指出人們借助框架來(lái)識(shí)別和理解事件,對(duì)生活中出現(xiàn)的行為賦予一定的意義。議程設(shè)置理論注重媒介效果,強(qiáng)調(diào)新聞媒介對(duì)形成公眾意見的焦點(diǎn)施加的影響;框架理論注重研究媒介話語(yǔ),重點(diǎn)在于意義的建構(gòu)和文化共鳴。作為傳播學(xué)的經(jīng)典理論,議程設(shè)置和框架理論試圖闡釋傳播和受眾的相互關(guān)系,講述大眾傳播塑造受眾認(rèn)知的規(guī)律。正如李普曼在其著作《公眾輿論》一書中介紹的“虛擬環(huán)境”和“真實(shí)環(huán)境”的概念,外部世界是通過媒介呈現(xiàn)在我們每個(gè)人面前的,因此媒介如何選擇和報(bào)道事件將影響我們對(duì)外部世界的看法。[25]議程設(shè)置和框架理論有助于我們較好理解從大數(shù)據(jù)“殺熟”術(shù)語(yǔ)概念的產(chǎn)生到傳播,這一過程如何塑造了大眾對(duì)個(gè)性化定價(jià)的反感情緒與偏見態(tài)度。通常情況下,看到“價(jià)格歧視”的字眼,人們就會(huì)習(xí)慣性地?fù)]舞起道德大棒,得出痛打大數(shù)據(jù)“殺熟”的結(jié)論。[26]
那么,大數(shù)據(jù)“殺熟”確實(shí)如其名號(hào)一般惡劣嗎?通過處理消費(fèi)者個(gè)人數(shù)據(jù)實(shí)現(xiàn)的價(jià)格可塑性涉及法律和政策的許多領(lǐng)域:反壟斷、競(jìng)爭(zhēng)、隱私、合同、消費(fèi)者保護(hù)和反歧視,其知識(shí)體量之龐雜非本文所能容納。在此僅力圖說明一項(xiàng)有關(guān)價(jià)格歧視的共識(shí),以解釋大多數(shù)消費(fèi)者長(zhǎng)久以來(lái)的誤解——價(jià)格歧視并不必然損害消費(fèi)者福祉。①學(xué)術(shù)研究普遍認(rèn)為,信息、價(jià)格歧視和消費(fèi)者福祉之間的關(guān)系非常復(fù)雜,當(dāng)企業(yè)擁有更多關(guān)于消費(fèi)者偏好的信息時(shí),總消費(fèi)者剩余可能增加也可能減少。即使是在對(duì)個(gè)人信息保護(hù)采用較嚴(yán)格的人權(quán)保護(hù)模式的歐盟,價(jià)格歧視也更多被看作競(jìng)爭(zhēng)法問題。[27]
以我國(guó)目前的規(guī)制實(shí)踐來(lái)看,對(duì)價(jià)格歧視的規(guī)制集中在競(jìng)爭(zhēng)法領(lǐng)域,除了價(jià)格歧視與濫用市場(chǎng)支配地位、價(jià)格串通等壟斷行為相結(jié)合外,監(jiān)管機(jī)構(gòu)在個(gè)性化定價(jià)問題上的態(tài)度是謹(jǐn)慎和保守的。審判實(shí)踐中常見法院認(rèn)為動(dòng)態(tài)調(diào)價(jià)行為屬于正常經(jīng)營(yíng)行為、不構(gòu)成價(jià)格欺詐的案例。從法律文本上看,立法所涉要件包括“不合理的差別待遇”“不公平的交易條件”,可以看出立法為差異化定價(jià)留有正當(dāng)性空間。國(guó)務(wù)院反壟斷委員會(huì)最新發(fā)布的《關(guān)于平臺(tái)經(jīng)濟(jì)領(lǐng)域的反壟斷指南》更是明確列舉了平臺(tái)經(jīng)濟(jì)領(lǐng)域經(jīng)營(yíng)者實(shí)施差別待遇的正當(dāng)理由。甚至有學(xué)者指出,完全的非個(gè)性化結(jié)果幾乎沒有可能,應(yīng)把拒絕個(gè)性化推薦理解為一種“用戶感知標(biāo)準(zhǔn)”,即使經(jīng)營(yíng)者在提供搜索結(jié)果時(shí)無(wú)法避免利用與消費(fèi)者個(gè)人特征相關(guān)的信息,其在呈現(xiàn)結(jié)果時(shí)也不應(yīng)讓消費(fèi)者有明顯的正遭受不利差別對(duì)待(歧視)的感覺,以此增加關(guān)閉個(gè)性化推薦的可操作性。②
可見,大數(shù)據(jù)“殺熟”并非如其名字一般的兇神惡煞,立法與司法的審慎態(tài)度在壓倒性的反“殺熟”報(bào)道聲音中鮮少受到關(guān)注。再者,“一鍵關(guān)閉”與價(jià)格歧視的競(jìng)爭(zhēng)法規(guī)制并無(wú)手段與目標(biāo)之間的相關(guān)性,且不論大數(shù)據(jù)殺熟本身是正效應(yīng)還是負(fù)效應(yīng)消費(fèi)者并不清楚,關(guān)閉之后還有可能降低消費(fèi)者福利。對(duì)于恐懼“殺熟”的消費(fèi)者們,“一鍵關(guān)閉”或許是一劑抓錯(cuò)的藥。
四、從“一鍵關(guān)閉”到“算法向善”
上文分析了對(duì)個(gè)性化算法推薦的常見質(zhì)疑,并進(jìn)一步闡釋了“一鍵關(guān)閉”功能可能無(wú)法達(dá)到預(yù)期的規(guī)制效果或并不適配所要解決的法律問題的理由?;氐健耙绘I關(guān)閉”功能本身,除了用來(lái)解決個(gè)性化算法推薦的弊端,這種選擇機(jī)制本身能否給用戶帶來(lái)價(jià)值?更深一層的問題是,我們需要怎樣的個(gè)性化推薦?
1. 關(guān)閉個(gè)性化推薦之后
算法推薦無(wú)處不在。推薦系統(tǒng)的任務(wù)是聯(lián)系用戶和信息,一方面幫助用戶發(fā)現(xiàn)對(duì)自己有價(jià)值的信息,另一方面讓信息能夠展現(xiàn)在對(duì)它感興趣的用戶面前,從而實(shí)現(xiàn)信息消費(fèi)者和信息生產(chǎn)者的雙贏。[28]推薦系統(tǒng)和網(wǎng)絡(luò)時(shí)代早期的分類目錄、搜索引擎一樣,都是幫助用戶篩選信息的工具,但它們滿足的需求不同。搜索引擎滿足了用戶有明確目的時(shí)的主動(dòng)查找需求,而推薦系統(tǒng)能夠在用戶沒有明確目的的時(shí)候幫助他們發(fā)現(xiàn)感興趣的新內(nèi)容。分類目錄、搜索引擎、算法推薦都可以作為緩解信息過載的工具,算法推薦還具有發(fā)掘物品“長(zhǎng)尾”的功能,推薦系統(tǒng)通過發(fā)掘用戶的行為,找到用戶的個(gè)性化需求,從而將長(zhǎng)尾商品準(zhǔn)確地推薦給需要它的用戶,幫助用戶發(fā)現(xiàn)那些他們感興趣但很難發(fā)現(xiàn)的商品。[29]
個(gè)性化推薦是推薦系統(tǒng)的一種,主要作用是通過分析大量用戶行為日志,向不同用戶展示不同的個(gè)性化頁(yè)面,來(lái)提高網(wǎng)站的點(diǎn)擊率和轉(zhuǎn)化率。盡管不同的網(wǎng)站使用不同的推薦系統(tǒng)技術(shù),但總體來(lái)說,幾乎所有的推薦系統(tǒng)應(yīng)用都是由前臺(tái)的展示頁(yè)面、后臺(tái)的日志系統(tǒng)以及算法推薦系統(tǒng)三部分構(gòu)成的。可以說,算法推薦無(wú)法關(guān)閉,它總是存在。不妨進(jìn)行這樣一場(chǎng)思想實(shí)驗(yàn):無(wú)論打開任何網(wǎng)站,首頁(yè)都需要根據(jù)一定邏輯陳列內(nèi)容?!耙绘I關(guān)閉”個(gè)性化推薦,并沒有關(guān)閉推薦系統(tǒng)。那么,關(guān)閉了個(gè)性化推薦,留下的是何種推薦?
算法推薦的分類標(biāo)準(zhǔn)有很多,按傳統(tǒng)的分類方法一般分為基于內(nèi)容的推薦、協(xié)同過濾推薦和混合算法推薦。
其一,基于內(nèi)容的推薦為用戶推薦項(xiàng)目的依據(jù)是該項(xiàng)目與用戶之前偏好的項(xiàng)目有一定相似之處。其二,協(xié)同過濾推薦又可以分為基于用戶的推薦和基于項(xiàng)目的推薦。基于用戶的協(xié)同過濾推薦在算法推薦中應(yīng)用最廣泛,其基本邏輯是分析大量用戶對(duì)項(xiàng)目的評(píng)分以發(fā)現(xiàn)用戶偏好的相似性,然后向用戶推薦符合其偏好的項(xiàng)目??梢姡趦?nèi)容的推薦和基于用戶的協(xié)同過濾推薦均可以劃入個(gè)性化推薦范疇,前者需要分析用戶的歷史偏好以及產(chǎn)品標(biāo)簽和用戶行為標(biāo)簽之間的相關(guān)度;后者屬于典型的個(gè)性化算法推薦,其不僅需要分析特定用戶的偏好,還需要分析與用戶偏好項(xiàng)目相似的群體與該用戶之間的相關(guān)性。其三,混合算法推薦是指通過混合兩種或者兩種以上的推薦方法進(jìn)行推薦,包括加權(quán)式、切換式、混雜式、層疊式和級(jí)聯(lián)式等形式。[30]最新的綜合性推薦系統(tǒng)還有基于深度神經(jīng)網(wǎng)絡(luò)的算法推薦,深度學(xué)習(xí)算法能夠從多個(gè)角度學(xué)習(xí)用戶與項(xiàng)目之間的交互,這種深度混合學(xué)習(xí)有助于更全面地反映用戶的偏好,并增強(qiáng)模型的泛化能力。[31]混合算法推薦是數(shù)種算法融合的系統(tǒng),其中只要涉及個(gè)性化算法推薦,其整體推測(cè)內(nèi)容就帶有個(gè)性化推薦的屬性,無(wú)法單獨(dú)分割出非個(gè)性化推薦結(jié)果。對(duì)于深度學(xué)習(xí)與機(jī)器學(xué)習(xí)模型結(jié)合后的推薦系統(tǒng),更是難以分割“個(gè)性化”與“非個(gè)性化”體驗(yàn),人們甚至不完全清楚模型中的“主要參數(shù)”是什么以及它們的效果是什么。
可見,上述三類常見的算法推薦都大體屬于個(gè)性化推薦范疇,一種可能符合“非個(gè)性化推薦”的算法是基于項(xiàng)目的協(xié)同過濾推薦,又被稱為項(xiàng)目對(duì)項(xiàng)目的推薦。[32]該系統(tǒng)不分析任何特定用戶的數(shù)據(jù),而是根據(jù)給定產(chǎn)品和其他用戶(那些同意個(gè)性化推薦的用戶)的行為之間的關(guān)系來(lái)生成這些建議,這種推薦形式類似于“像你一樣對(duì)項(xiàng)目X評(píng)價(jià)很高的人,也傾向于選擇項(xiàng)目Y,建議你可以嘗試下項(xiàng)目Y”,以及“購(gòu)買了 X的用戶,也購(gòu)買了Y”。盡管這種算法推薦符合非個(gè)性化算法推薦的范疇,但其數(shù)據(jù)集的基礎(chǔ)依然需要其他同意個(gè)性化推薦的用戶的行為數(shù)據(jù)。另一種非個(gè)性化推薦類似于搜索引擎,如消費(fèi)者直接填寫其偏好——“敏感肌”“混油皮”“無(wú)香款”“防曬指數(shù)”,根據(jù)這些信息,系統(tǒng)直接推薦定制化的建議,例如推薦一款粉底液。這種推薦系統(tǒng)從另一個(gè)角度看也屬于個(gè)性化推薦,只是個(gè)性化的信息是用戶主動(dòng)輸入的結(jié)果,而非算法基于日志的分析。
經(jīng)過上文的梳理可發(fā)現(xiàn),真正符合非個(gè)性化推薦的算法推薦數(shù)量稀少。有學(xué)者指出,與其說“一鍵關(guān)閉”賦予了用戶對(duì)抗數(shù)字權(quán)力的武器,不如說它更有可能創(chuàng)造一種虛假的選擇權(quán)。[33]“一鍵關(guān)閉”功能強(qiáng)調(diào)對(duì)用戶而言選擇的重要性,但對(duì)于這些選擇背后所承載的價(jià)值卻出奇的模糊——關(guān)閉了個(gè)性化推薦,之后呢?正如上文所述,強(qiáng)調(diào)選擇的重要性更像是延續(xù)了一種對(duì)隱私自治的堅(jiān)持,而隱私自治作為一種規(guī)制手段本身具有相當(dāng)?shù)木窒扌?。即使用戶能夠真正有效管理一個(gè)算法推薦系統(tǒng),設(shè)想一個(gè)熱衷于馴服算法的用戶,他/她果斷地關(guān)閉個(gè)性化推薦功能,并自主設(shè)計(jì)感興趣的標(biāo)簽,又將界面內(nèi)容按自己偏好進(jìn)行了排序,這難道不是恰恰印證了“信息繭房”和“回音室效應(yīng)”?反過來(lái)設(shè)想,一個(gè)并不知道有“一鍵關(guān)閉”功能的用戶,抑或怠于關(guān)閉推薦的用戶(可能大多數(shù)用戶屬于此類),在某日打開一款視頻軟件,首先瀏覽了首頁(yè)的推薦內(nèi)容,然后進(jìn)入自己的關(guān)注列表查看了博主的更新,接著又點(diǎn)進(jìn)了熱搜頁(yè)面閱讀今日熱點(diǎn),再在搜索欄上檢索了一個(gè)同事推薦的短視頻,最后關(guān)閉了這個(gè)視頻軟件,打開了另一款新聞軟件。這位用戶雖然沒有行使“一鍵關(guān)閉”的選擇權(quán),但可能更加滿足“一鍵關(guān)閉”功能預(yù)設(shè)的預(yù)防信息窄化的目標(biāo)。
究其根本,“一鍵關(guān)閉”作為一種規(guī)制工具,可能在工具所承載公共價(jià)值的設(shè)想上出現(xiàn)了錯(cuò)位。正如上文所言,“一鍵關(guān)閉”并不意味著用戶能夠控制其數(shù)據(jù)隱私,“信息繭房”“回音室效應(yīng)”與個(gè)性化推薦并沒有必然關(guān)聯(lián),價(jià)格歧視也非“一鍵關(guān)閉”所能夠解決的問題。再者,個(gè)性化推薦真的能夠“一鍵關(guān)閉”嗎?用戶一鍵關(guān)閉了哪些推薦要素?關(guān)閉之后的算法產(chǎn)品是怎樣的面貌?這些疑問都共同導(dǎo)向了一個(gè)算法推薦規(guī)制的更根本的命題——我們需要怎樣的算法推薦?
2. 校準(zhǔn)目標(biāo):算法向善
當(dāng)算法推薦乃至個(gè)性化推薦無(wú)法回避,探究“我們追求怎樣的算法推薦”是比“我們?nèi)绾侮P(guān)閉個(gè)性化推薦”更關(guān)鍵的命題。向用戶推薦其可能感興趣的商品可能會(huì)讓其感到隱私空間受到冒犯;但向用戶推薦其不感興趣的廣告,可能也是另一種低效。以向善的技術(shù)倫理觀引領(lǐng)個(gè)性化算法推薦,目標(biāo)是使其最大化為人類帶來(lái)福利,最小化可能的風(fēng)險(xiǎn)和危害。
不妨回顧一下個(gè)性化推薦的前世今生。在個(gè)性化推薦技術(shù)誕生以前,網(wǎng)絡(luò)平臺(tái)主要以受眾數(shù)量作為招攬廣告商資本的籌碼。為此,平臺(tái)公司需要不斷提高平臺(tái)的質(zhì)量和用戶體驗(yàn),如搜索引擎追求準(zhǔn)確的檢索結(jié)果,視頻平臺(tái)追求豐富的電影電視資源。個(gè)性化推薦誕生后,流量不再是一個(gè)終極標(biāo)準(zhǔn),廣告商更看重的是廣告投放后的效果和質(zhì)量,即算法推薦能否精確地分析出哪些用戶需要哪些廣告、哪些用戶更有機(jī)會(huì)被哪些廣告說服從而誘發(fā)購(gòu)買行為,這比“我有多少用戶”更加重要。由此,相較于“做出更好的互聯(lián)網(wǎng)產(chǎn)品”,平臺(tái)經(jīng)營(yíng)目標(biāo)向收集用戶行為數(shù)據(jù)和挖掘消費(fèi)意愿傾斜,這個(gè)過程可能會(huì)損害消費(fèi)者福利,引發(fā)對(duì)分配正義的擔(dān)憂。
對(duì)算法推薦的塑造應(yīng)兼顧對(duì)消費(fèi)者負(fù)責(zé)和廣告投放需求兩方面,平衡互聯(lián)網(wǎng)平臺(tái)的公共價(jià)值和經(jīng)濟(jì)激勵(lì)。個(gè)性化推薦不完全等同于平臺(tái)對(duì)數(shù)字權(quán)力的濫用,算法規(guī)制應(yīng)鼓勵(lì)與用戶利益一致的個(gè)性化推薦。有學(xué)者將這種個(gè)性化推薦規(guī)制目標(biāo)置于信義法框架之中,以忠誠(chéng)義務(wù)規(guī)范個(gè)性化推薦技術(shù)基礎(chǔ)上的用戶畫像、定向廣告等行為。[34]忠誠(chéng)的個(gè)性化推薦是指不以損害用戶利益的方式應(yīng)用算法推薦,即使存在經(jīng)營(yíng)的經(jīng)濟(jì)必要性沖突。[35]在一些紅線問題層面,忠誠(chéng)的個(gè)性化推薦是比較好理解的,如電商平臺(tái)根據(jù)特定用戶的閱讀偏好推薦新書被認(rèn)為是符合用戶利益的,但針對(duì)受保護(hù)、邊緣化或弱勢(shì)群體的個(gè)性化推薦是不被允許的,如包含地域歧視或民族歧視的招聘廣告投放。是否為忠誠(chéng)的個(gè)性化推薦需要根據(jù)特定信息的關(guān)系性質(zhì)和所承載的公共價(jià)值來(lái)進(jìn)行判斷,如雖然都是根據(jù)地理位置信息投放的行為廣告,但招聘廣告可能會(huì)被認(rèn)定為就業(yè)歧視行為,其他類型的廣告服務(wù)如美妝廣告則不在禁止范圍。①
如果說忠誠(chéng)的個(gè)性化推薦能為用戶提供防御型的保護(hù),那探究個(gè)性化推薦背后的公共價(jià)值則是力圖為用戶乃至公眾提供一種積極性的保護(hù),尤其是對(duì)于眾多大型平臺(tái)來(lái)說,履行社會(huì)責(zé)任和服務(wù)集體福利是我國(guó)數(shù)字經(jīng)濟(jì)發(fā)展戰(zhàn)略對(duì)其的內(nèi)在要求。作為不同的公共產(chǎn)品類型,個(gè)性化推薦承載了多元化的公共價(jià)值。作為大眾傳播的新聞媒體是公共服務(wù)型產(chǎn)品的代表,其以提供全面客觀、多元真實(shí)的訊息服務(wù)為使命,因此無(wú)論是傳統(tǒng)媒體平臺(tái)、資訊整合平臺(tái)還是新聞定制化平臺(tái),除履行忠誠(chéng)義務(wù)外,還具有信息交流、文化凝聚、民主參與和大眾教育等意義,平臺(tái)企業(yè)應(yīng)主動(dòng)承擔(dān)這些公共使命,以主流價(jià)值觀引領(lǐng)算法參數(shù)設(shè)計(jì)。個(gè)性化的信息服務(wù)通常具有積極意義,尤其是促進(jìn)了無(wú)數(shù)小眾知識(shí)、興趣市場(chǎng)的崛起,但信息的意外邂逅和共同經(jīng)驗(yàn)也很重要,算法參數(shù)的開發(fā)應(yīng)致力于對(duì)兩方面的統(tǒng)籌,如有關(guān)某社會(huì)事件的評(píng)論,可以同時(shí)推薦各方意見,而非限于一方觀點(diǎn)刺激群體極化,以創(chuàng)造一個(gè)交換評(píng)論與批評(píng)的場(chǎng)所,帶來(lái)去極化效應(yīng)。[36]
無(wú)論是否“一鍵關(guān)閉”,忠誠(chéng)義務(wù)和公共價(jià)值追求都應(yīng)該成為個(gè)性化推薦的內(nèi)在品格。“一鍵關(guān)閉”的制度安排當(dāng)然很有意義,但只有在明確其制度目的和價(jià)值追求的基礎(chǔ)上才能夠更好發(fā)揮該制度的意義。相較于作為一種隱私和信息控制工具,個(gè)性化推薦更適合被當(dāng)作一種關(guān)于信息服務(wù)的多樣化的選擇。對(duì)于用戶而言,不是“一鍵關(guān)閉”才能享受安全的個(gè)性化推薦,無(wú)論平臺(tái)提供何種算法推薦,其應(yīng)當(dāng)都是安全可靠的。個(gè)性化推薦可能是一種更便捷、更直觀的選擇,但并不一定是最好的選擇,信息產(chǎn)品市場(chǎng)應(yīng)允許并鼓勵(lì)不同用戶的不同信息獲取偏好。即使個(gè)性化推薦是安全的,也會(huì)有用戶選擇“一鍵關(guān)閉”,使用自己的“大腦算法”。從這個(gè)意義上來(lái)說,“一鍵關(guān)閉”是為了滿足瀏覽的個(gè)性化審美而存在的,也是為了滿足多樣化偏好而存在的。
五、邁向信任的算法個(gè)性化推薦
對(duì)于個(gè)性化推薦技術(shù)的功過評(píng)判,并非如“一鍵關(guān)閉”功能那樣直接果斷,評(píng)價(jià)任何一種通信系統(tǒng)是可取還是不可取都過于簡(jiǎn)單。在飽受批評(píng)以前,個(gè)性化推薦也曾被認(rèn)為是互聯(lián)網(wǎng)媒體時(shí)代的偉大發(fā)明,極大優(yōu)化了用戶體驗(yàn),滿足了人民群眾日益增長(zhǎng)的新聞媒體需要。無(wú)論是對(duì)“一鍵關(guān)閉”的規(guī)制還是公眾對(duì)個(gè)性化推薦的擔(dān)憂,在更大層面上都體現(xiàn)了公眾對(duì)科技行業(yè)的不信任。讓個(gè)性化推薦更好服務(wù)于人類社會(huì),需要打造可信推薦,在為用戶提供高質(zhì)量信息服務(wù)的同時(shí)增進(jìn)社會(huì)福利。以可信算法為目標(biāo)塑造個(gè)性化推薦,可從劃定個(gè)性化程度的法律限度和構(gòu)建透明可解釋、交互友好的算法方面著力。①
首先,政府監(jiān)管應(yīng)為個(gè)性化推薦劃定紅線。我國(guó)有關(guān)算法推薦的法律紅線由來(lái)已久,2016年“魏則西事件”促使醫(yī)療信息的競(jìng)價(jià)排名模式納入醫(yī)療廣告監(jiān)管范圍。在國(guó)外,“劍橋分析事件”后,美國(guó)眾議院通過了《誠(chéng)實(shí)廣告法》,要求所有社交媒體披露線上的政治競(jìng)選相關(guān)數(shù)據(jù)。歐盟最新《數(shù)字服務(wù)法案》明確限制數(shù)字巨頭的在線廣告行為,阻止平臺(tái)利用基于性別、種族或宗教等數(shù)據(jù)的算法來(lái)針對(duì)用戶,也禁止針對(duì)兒童投放廣告,試圖將人們推向某些產(chǎn)品和服務(wù)的欺騙性策略也被禁止。個(gè)性化推薦中,無(wú)論是行為廣告還是內(nèi)容推薦,都需要法律劃定一定限度。如針對(duì)青少年,應(yīng)鼓勵(lì)使用防沉迷的個(gè)性化算法推薦;針對(duì)醫(yī)療、求職等敏感信息的個(gè)性化推薦,應(yīng)遵守倫理與道德邊界。除法律劃定紅線以外,不同場(chǎng)景的個(gè)性化推薦系統(tǒng)還應(yīng)注意培養(yǎng)用戶與算法之間的信任關(guān)系,避免超出隱私期待的推薦內(nèi)容導(dǎo)致用戶的恐慌和猜疑情緒,在全社會(huì)營(yíng)造健康可持續(xù)的算法推薦生態(tài)。有研究指出,消費(fèi)者有兩類非常反感的定向廣告類型,分別是利用從第三方網(wǎng)站而不是廣告出現(xiàn)的網(wǎng)站獲得的信息制作的廣告,以及在用戶沒有主動(dòng)披露的情況下推斷出的相關(guān)敏感信息(如懷孕)。[37]避免引起用戶不滿的算法推薦,有助于消除懷疑和反感,培育平臺(tái)與用戶之間的信任互惠關(guān)系,在平臺(tái)經(jīng)濟(jì)健康發(fā)展的同時(shí),使用戶也不斷受益。
其次,采用透明可解釋的算法推薦并增強(qiáng)平臺(tái)與用戶之間的互動(dòng)反饋,培養(yǎng)用戶對(duì)算法的信任。打造可信任和受歡迎的個(gè)性化推薦,不能僅注重算法推薦獲取用戶注意力和推測(cè)用戶偏好的定制化服務(wù),還應(yīng)發(fā)揮推薦系統(tǒng)作為大眾傳播的政治、經(jīng)濟(jì)和社會(huì)功能。
有關(guān)透明與可解釋的算法治理由來(lái)已久,就個(gè)性化推薦而言,透明與可解釋不是簡(jiǎn)單的信息披露或者賦予用戶隱私控制權(quán),而應(yīng)致力于以保障知情權(quán)的方式培養(yǎng)用戶信任,打造安全可靠的個(gè)性化推薦系統(tǒng)。盡管完全的隱私個(gè)人控制在信息時(shí)代并不可能,但算法推薦可以努力讓用戶感受到對(duì)信息與隱私的一定掌控力,以達(dá)到增進(jìn)信任關(guān)系和互動(dòng)關(guān)系的目的。平臺(tái)增強(qiáng)自身的可信賴性,不僅對(duì)用戶有利,對(duì)其自身也有利。有研究指出,當(dāng)用戶信任一個(gè)平臺(tái)時(shí),算法透明有助于增加定向廣告的效率。[38]除了傳統(tǒng)的算法透明規(guī)定明確的告知義務(wù)外,以信任為中心的算法推薦還可嘗試向用戶解釋其為什么要收集這些個(gè)人信息,以及這些信息將如何產(chǎn)生更恰當(dāng)、高效的廣告。扎克伯格在美國(guó)參議院接受質(zhì)詢時(shí)談道:“盡管有些人不喜歡廣告,但人們也不想要無(wú)關(guān)緊要的廣告……我們從社區(qū)得到的壓倒性反饋是,人們寧愿我們展示相關(guān)性內(nèi)容?!痹诳山忉尫矫妫瑯右孕湃侮P(guān)系為中心,算法解釋應(yīng)針對(duì)特定場(chǎng)景用戶最關(guān)心和擔(dān)憂的問題。如谷歌的英語(yǔ)搜索增加了信息評(píng)估功能,對(duì)于特定搜索結(jié)果附加在線評(píng)估信息提示,提醒用戶可以檢查某個(gè)主題的信息來(lái)源是否受信任,或者稍后在有更多可用信息時(shí)再行檢索,除此以外,還提供了來(lái)自獨(dú)立事實(shí)核查機(jī)構(gòu)的事實(shí)核查功能,以及其他提升信息檢索質(zhì)量的措施。
如果說透明可解釋的個(gè)性化算法推薦系統(tǒng)為用戶提供了基礎(chǔ)性的安全保障,交互友好的算法推薦設(shè)計(jì)則力圖挖掘和拓展用戶的興趣與偏好,為用戶打造一個(gè)多元信息溝通格局?!耙绘I關(guān)閉”功能內(nèi)含了對(duì)“選擇權(quán)”的追求,但這種目標(biāo)內(nèi)嵌在隱私自治的邏輯中,具有相當(dāng)?shù)木窒扌?。建立交互友好的個(gè)性化推薦系統(tǒng)同樣是對(duì)選擇權(quán)的強(qiáng)調(diào),但其背后所承載的價(jià)值目標(biāo)是信息多元化,致力于挖掘用戶興趣的“長(zhǎng)尾”,而非一味圈住用戶的特定興趣。以用戶興趣和傳播信息的完整性和多樣性為目標(biāo),平臺(tái)應(yīng)從用戶和物品角度設(shè)計(jì)多樣化算法推薦,以更精準(zhǔn)并且多元的方式為用戶做推薦,破除信息繭房。在克服用戶“選擇性心理”方面,平臺(tái)可以通過交互界面的“助推”來(lái)實(shí)現(xiàn)目標(biāo), 同時(shí),國(guó)家應(yīng)注重對(duì)數(shù)字公民媒介信息素養(yǎng)的教育,促使用戶建立多元化理解信息的意識(shí)。[39]“賦能過濾泡泡”和“反過濾泡泡”是打造交互友好系統(tǒng)的經(jīng)典工具。[40]一方面,“賦能過濾泡泡”意味著提高用戶定制算法推薦的能力,如鼓勵(lì)新用戶在進(jìn)入平臺(tái)前選擇某些關(guān)注標(biāo)簽,并告知隨時(shí)可在特定位置修改個(gè)人偏好。提高用戶定制化能力旨在消除用戶對(duì)被數(shù)據(jù)操控的擔(dān)憂,培養(yǎng)用戶的信任感。另一方面,“反過濾泡泡”則故意讓人們看到與他們的觀點(diǎn)和偏好相反的信息,以避免同質(zhì)化推薦導(dǎo)致的群體極化和信息級(jí)聯(lián)。
“用戶比大多法學(xué)學(xué)者想象中更喜歡算法決策?!盵41]一旦基于代碼的決策在成本、速度、準(zhǔn)確性方面更具優(yōu)勢(shì),消費(fèi)者對(duì)算法的偏好就會(huì)增加,在許多案例中,人們表現(xiàn)出更喜歡公式而不是人類。個(gè)性化推薦具有增進(jìn)人類福祉,創(chuàng)造更好世界的充分潛力,它需要具有信息素養(yǎng)的專業(yè)群體的積極作為、主動(dòng)塑造,而非簡(jiǎn)單交給用戶“一鍵關(guān)閉”的權(quán)利。正如習(xí)近平總書記在網(wǎng)絡(luò)安全和信息化工作座談會(huì)上強(qiáng)調(diào)的,“辦網(wǎng)站的不能一味追求點(diǎn)擊率,開網(wǎng)店的要防范假冒偽劣,做社交平臺(tái)的不能成為謠言擴(kuò)散器,做搜索的不能僅以給錢的多少作為排位的標(biāo)準(zhǔn)”?!耙绘I關(guān)閉”功能于時(shí)代的意義應(yīng)當(dāng)與特定的公共價(jià)值目標(biāo)結(jié)合,我們有理由期待一個(gè)以可信賴個(gè)性化推薦增進(jìn)人類福祉的社會(huì)。
參考文獻(xiàn):
[1] 佘穎. 把算法開關(guān)交給消費(fèi)者,好![N]. 經(jīng)濟(jì)日?qǐng)?bào),2022-03-16(5).
[2] 人民日?qǐng)?bào)評(píng)論:一鍵關(guān)閉“個(gè)性化推薦”,避免“算法”變“算計(jì)”[EB/OL]. [2022-03-17]. https://mp.weixin.qq.com/s/yNnZ_2vL4b1lhxRU1VfIgw.
[3] 林洹民. 個(gè)性化推薦算法的多維治理[J]. 法制與社會(huì)發(fā)展,2022(4):166.
[4] 史蒂芬·繆哈爾,亞當(dāng)·斯威夫特. 自由主義者與社群主義者[M]. 孫曉春,譯. 長(zhǎng)春:吉林人民出版社,2011:9.
[5] Daniel J. Solove. Understanding Privacy[M]. Cambridge: Harvard University Press, 2008: 85.
[6] 林嘉,羅寰昕. 數(shù)字權(quán)力治理中的社會(huì)法定位與進(jìn)路[J]. 東南學(xué)術(shù),2023(6):228-236.
[7] 孫競(jìng)超. 社交媒體能為民主做什么?——讀桑斯坦的《標(biāo)簽共和國(guó)》[J]. 北大法律評(píng)論,2019(1):275-292.
[8] 凱斯·桑斯坦. 標(biāo)簽[M]. 陳頎,孫競(jìng)超,譯. 北京:中國(guó)民主法制出版社,2021:55.
[9] Sandra Wachter. Affinity Profiling and Discrimination by Association in Online Behavioral Advertising[J]. Berkeley Technology Law Journal, 2020(2): 367-430.
[10] Inge Graef. Algorithms and Fairness: What Role for Competition Law in Targeting Price Discrimination Towards End Consumers[J]. Columbia Journal of European Law, 2018(3): 541-559.
[11] Pascale Chapdelaine. Algorithmic Personalized Pricing[J]. New York University Journal of Law and Business, 2020(1): 1-47.
[12] Paul M. Schwartz. Privacy and Democracy in Cyberspace[J]. Vanderbilt Law Review, 1999 (6): 1610-1701.
[13] Neil Richards, Hartzog Woodrow. Taking Trust Seriously in Privacy Law[J]. Stanford Technology Law Review, 2016(3): 431-472.
[14] 梅夏英. 在分享和控制之間:數(shù)據(jù)保護(hù)的私法局限和公共秩序構(gòu)建[J]. 中外法學(xué),2019(4):845-870.
[15] 凱斯·桑斯坦. 網(wǎng)絡(luò)共和國(guó)[M]. 黃維明,譯. 上海:上海人民出版社,2003:21.
[16] 費(fèi)孝通. 鄉(xiāng)土中國(guó)[M]. 北京:人民出版社,2012:32.
[17] 翟學(xué)偉. 中國(guó)人的社會(huì)信任[M]. 北京:商務(wù)印書館,2022:167.
[18] 丁曉東. 個(gè)人信息私法保護(hù)的困境與出路[J]. 法學(xué)研究, 2018(6):194-206.
[19] Robert C Post. The Social Foundations of Privacy: Community and Self in the Common Law Tort[J]. California Law Review, 1989(5): 957-1010.
[20] Helen Nissenbaum. Privacy in context: Technology, policy, and the integrity of social life[M]. Palo Alto: Stanford University Press, 2010: 129-157.
[21] 丁曉東. 個(gè)人信息的雙重屬性與行為主義規(guī)制[J]. 法學(xué)家,2020(1):64-76.
[22] 高富平. 個(gè)人信息處理:我國(guó)個(gè)人信息保護(hù)法的規(guī)范對(duì)象[J]. 法商研究,2021(2):73-86.
[23] 彭蘭. 假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時(shí)代的新風(fēng)險(xiǎn)[J]. 西北師大學(xué)報(bào)(社會(huì)科學(xué)版),2018 (5):20-29.
[24] 劉擎. 劉擎西方現(xiàn)代思想講義[M]. 北京:新星出版社,2021:250.
[25] 沃爾特·李普曼. 公眾輿論[M]. 閻克文,江紅,譯. 上海:上海人民出版社,2002:13.
[26] 喻玲. 算法消費(fèi)者價(jià)格歧視反壟斷法屬性的誤讀及辨明[J]. 法學(xué),2020(9):83-99.
[27] Marco Botta, Klaus Wiedemann. To Discriminate or Not to Discriminate? Personalised Pricing in Online Markets as Exploitative Abuse of Dominance[J]. European Journal of Law & Economics, 2020(3): 381-404.
[28] 項(xiàng)亮. 推薦系統(tǒng)實(shí)踐[M]. 北京:人民郵電出版社,2012:2.
[29] 克里斯·安德森. 長(zhǎng)尾理論[M]. 喬江濤,譯. 北京:中信出版社,2006:35.
[30] Erion ?ano, Maurizio Morisio. Hybrid Recommender Systems: A Systematic Literature Review[J]. Intelligent Data Analysis, 2017(6): 1487-1524.
[31] 李孟浩,趙學(xué)健,余云峰,宋學(xué)永,孫知信. 推薦算法研究進(jìn)展[J]. 小型微型計(jì)算機(jī)系統(tǒng),2022(3):544-555.
[32] Linden, G, B. Smith, J. York. Amazon.Com Recommendations: Item-to-Item Collaborative Filtering[J]. IEEE Internet Computing, 2003(1): 76-80.
[33] Natali Helberger, Max Van Drunen, Sanne Vrijenhoek, Judith M?ller. Regulation of news recommenders in the Digital Services Act: empowering David against the Very Large Online Goliath[EB/OL].[2021-12-06].https://policyreview.info/articles/news/regulation-news-recommenders-digital-services-act-empowering-david-against-very-large.
[34] Hartzog Woodrow, Neil Richards. The Surprising Virtues of Data Loyalty[J]. Emory Law Journal, 2022(5): 985-1034.
[35] Hartzog Woodrow, Neil Richards. A Duty of Loyalty for Privacy Law[J]. Washington University Law Review, 2022(3): 961-1021.
[36] Lucien Heitz, Juliane A. Lischka, Alena Birrer, Bibek Paudel, Suzanne Tolmeijer, Laura Laugwitz, Abraham Bernstein. Benefits of Diverse News Recommendations for Democracy: A User Study[EB/OL].[2022-02-08].https://www.tandfonline.com/doi/full/10.1080/21670811.2021.2021804.
[37] Leslie K. John, Tami Kim, Kate Barasz. Ads That Don't Overstep How to Make Sure You Don't Take Personalization Too Far[J]. Harvard Business Review, 2018(1): 62-69.
[38] Tami Kim, Kate Barasz, Leslie K John. Why Am I Seeing This Ad? The Effect of Ad Transparency on Ad Effectiveness[J]. Journal of Consumer Research, 2019(5): 906-932.
[39] Judith Vermeulen. To Nudge or Not to Nudge: News Recommendation as a Tool to Achieve Online Media Pluralism[J]. Digital Journalism, 2022(10): 1671-1690.
[40] Derek E. Bambauer. From Platforms to Springboards[J]. Georgetown Law Technology Review, 2018(2): 417-431.
[41] Derek E. Bambauer, Michael Risch. Worse than Human? [J]. Arizona State Law Journal, 2021(4): 1093.
Trust-Based Algorithmic Personalized Recommendations:
Reflections on the Law of "One-Click-Off "
LIN Jia, LUO Huan-xin(Law School, Renmin University of China, Beijing 100872, China)
Abstract: Personalized recommendations have been challenged as a threat to human autonomy, the "information cocoon" and "echo chamber" effect as well as the "killing of familiarity" by big data. The "one-click-off" function is promoted as a way to achieve personal control over privacy, promote the free flow of information and prevent price discrimination. However, users often lack the capacity for privacy autonomy, and algorithmic recommendations have the value of cohesive agendas and facilitating interactions before causing group polarization. In addition, there is a misalignment of goals and means to solve price discrimination by turning off personalized recommendations. The "one-click-off" option does not only fail to fulfill the functional expectations of legislations, but also suffers from poor operability and the ambiguity of the public values it carries. The reform of personalized recommendations should be oriented towards algorithmic goodness, and through the creation of trust-centered, transparent and interpretable algorithmic recommendations that are user-friendly. In the meanwhile, the public value of personalized recommendations should be brought into play to enhance social welfare.
Key words: personalized recommendation; regulations on algorithm; trustworthy algorithm; personal control over privacy; “information cocoon”