侯東德 張麗萍
摘 要:作為個性化新聞分發(fā)的底層支撐技術,算法推薦的科學技術特質決定了其并非中立,而是具有一定的意識形態(tài)屬性。算法推薦的利用若不受監(jiān)管,將會對主流意識形態(tài)傳播、網(wǎng)絡信息環(huán)境和用戶的價值觀念帶來沖擊,引發(fā)意識形態(tài)安全風險:平臺流量至上的推送邏輯降低主流意識形態(tài)的引領力和凝聚力,以用戶偏好為中心的內容推薦加劇了價值分化和觀念隔離,過濾推薦引發(fā)價值迷失和信息操縱。有必要發(fā)揮法律的安全功能,通過強化網(wǎng)絡平臺的審核、監(jiān)督義務和信息披露義務促進主流意識形態(tài)傳播升級;通過賦予用戶算法知情權、算法解釋權打破信息繭房,建立多元信息環(huán)境;通過限制算法推薦的適用范圍和算法審計監(jiān)管構建“可信任”的算法,切實防范化解意識形態(tài)風險。
關鍵詞:算法推薦;意識形態(tài)風險;算法監(jiān)管;風險防范
基金項目:教育部哲學社會科學重大攻關項目“人工智能發(fā)展中的重大風險防范體系研究”(20JZD026)。
[中圖分類號] D35,D64 [文章編號] 1673-0186(2021)008-0077-014
[文獻標識碼] A? ? ? [DOI編碼] 10.19631/j.cnki.css.2021.008.007
隨著騰訊新聞、今日頭條、微博、微信等頭部網(wǎng)絡信息平臺的崛起,其背后的信息分發(fā)方式——算法推薦引起學界注意。資料顯示,早在2016年算法分發(fā)已成為互聯(lián)網(wǎng)新聞的主要分發(fā)方式①。算法分發(fā)具有提升新聞分發(fā)效率,緩解信息過載危機、供需危機等優(yōu)點。然而隨著信息傳播市場競爭加劇,平臺對它的利用目標逐漸從滿足用戶的個性化需求到謀求流量的最大化轉變,推薦算法逐漸成為平臺實現(xiàn)市場份額擴張的工具,由此引發(fā)技術理性和價值理性的失衡:它的廣泛使用給主流意識形態(tài)傳播帶來沖擊,影響著網(wǎng)絡空間的信息環(huán)境及信息傳播秩序,同時改變著用戶的信息獲取及閱讀習慣,蘊藏著意識形態(tài)安全風險?!耙庾R形態(tài)關乎旗幟、關乎道路、關乎國家政治安全?!盵1]我們必須正視、重視算法推薦給用戶信息獲取、閱讀習慣以及信息傳播秩序轉變帶來的影響,牢牢把守好意識形態(tài)建設的網(wǎng)絡空間陣地。
關于算法推薦引發(fā)意識形態(tài)風險的應對,學者們多從新聞傳播、技術倫理、政治安全等角度出發(fā)進行研究,鮮有從法學視角出發(fā)對算法推薦適用主體、適用對象、適用范圍的權責關系審視。本文以算法推薦與意識形態(tài)安全的關系為出發(fā)點,探討網(wǎng)絡平臺的商業(yè)價值與社會責任承擔、算法監(jiān)管等內容,提出算法引發(fā)意識形態(tài)風險的法律防范路徑。
一、算法推薦:一種意識形態(tài)視角
作為一種信息分發(fā)方式,算法推薦何以引發(fā)意識形態(tài)風險?在研究展開之前,我們首先厘清算法推薦與意識形態(tài)安全之間的關系,這是進行風險防范路徑探索的前提。
(一)科學技術的意識形態(tài)面向
科學技術是生產力的重要組成部分這一觀點已經深入人心。作為經濟基礎的一部分,其似乎與意識形態(tài)、上層建筑關系甚遠。然而,我們在認可馬克思主義經典作家觀點的同時不能據(jù)此否認科學技術與意識形態(tài)之間的關系。相反,科學技術與意識形態(tài)總是有意無意地相互影響,特定條件下科學技術甚至會間接履行意識形態(tài)相關職能[2]。
馬爾庫塞曾明確提出“科學與技術成為意識形態(tài)”的思想。在他看來,發(fā)達工業(yè)社會中日益精密的生產設備、日漸精進的生產技術已經不僅單純地作為工具性存在來影響社會,而是作為系統(tǒng)性存在對整個社會產生影響??茖W技術的發(fā)展不僅決定著社會發(fā)展需要的技能、工種,還影響著個人的職業(yè)發(fā)展規(guī)劃、個體發(fā)展的愿望和需要。它消除了社會需要和個人需要之間的矛盾,推動了個人與社會發(fā)展的一致化、推動社會控制和社會團結達到新的高度。“科學技術所引發(fā)的社會關系的變遷,外在的工具性掩蓋人的主體目的性成為一種常態(tài),主觀的原則日漸被客觀原則所取代,主體能動性、價值、訴求的多元化在這種常態(tài)中日益被抑制和消解?!盵2]67科學技術以它的生產效率和增長潛力來穩(wěn)定社會,在此過程中技術進步的合理性不僅體現(xiàn)在經濟、社會活動過程中,而且深入拓展到整個社會統(tǒng)治制度之中??茖W技術不再中立,而是具備了維護政治統(tǒng)治的功能。“技術的合理性已經變成政治的合理性。”[3]8在當代,技術控制體現(xiàn)出了“有益于整個社會集團和社會利益的理性”[3]10,它融入統(tǒng)治制度使自身永久化,并把思想意識吸收進社會現(xiàn)實之中,為統(tǒng)治制度中的其他權力提供合法性基礎。技術通過自身的發(fā)展,以解放雙手、減輕勞動、提高效率的名義合理滲透到社會生活和控制體制之中,為現(xiàn)存社會制度的合法性辯護。正是在這個角度,科學技術的運用使意識形態(tài)融入商品生產的各個環(huán)節(jié),使技術合理性成為發(fā)達工業(yè)社會中近乎唯一的評價向度;科學技術承擔了意識形態(tài)功能,而且也正成為一種意識形態(tài)[4]。
哈貝馬斯關于科學技術是一種意識形態(tài)的認識更為系統(tǒng)全面。他認為,與傳統(tǒng)意識形態(tài)相比,科技意識形態(tài)更具廣泛性、辯護性和透明性,它使“科學的物化模式”滲透進廣泛的社會生活,并借助自身力量訴諸客觀的合理性以反對對現(xiàn)實的反思和批判[5]69??茖W技術以一種高度合理化的方式在社會發(fā)展演進過程中將自身塑造成為“非政治化”的文明形象,以極隱蔽的方式模糊掉其所承擔的政治功能和自身攜帶的政治元素,讓個體簡單地相信自己能夠通過積極擁抱科技進步、創(chuàng)造科技成就實現(xiàn)自身價值?!叭藗円恢痹噲D以科學技術和理性對抗迷信和信仰,結果卻突然發(fā)現(xiàn),科學技術和理性本身也成了迷信,而蘊含在科學技術中的合理性則成了當代人普遍的信仰?!盵6]科學技術正是通過這種方式將大眾對科技的忠誠轉化成為對政治制度的擁護和支持。由是觀之,科學技術不僅是一種意識形態(tài),更是一種具有極強隱蔽性的意識形態(tài),它的客觀合理性、非政治性和對社會發(fā)展進步的巨大推動功能常常讓人忽視其為政治統(tǒng)治背書的工具性。隨著科學技術逐漸被公認為是推動社會進步的變革性力量,在社會生活領域甚至衍生出一種“偶像化的技治意識形態(tài)”[2]67,科技理性在某種程度上已經成為一種權威性力量。對此,哈貝馬斯尖銳地指出,“技術理性的概念,也許本身就是意識形態(tài)。不僅技術理性的應用,而且技術本身就是(對自然和人的)統(tǒng)治,就是方法的、科學的、策劃好了的和正在策劃著的統(tǒng)治”[5]39-40。
(二)算法推薦的意識形態(tài)屬性
算法推薦在各信息應用終端的使用已成主流。作為一項科學技術,其在數(shù)據(jù)話語體系中意味著客觀和科學;作為一種內容分發(fā)的邏輯方式,其與意識形態(tài)關系密切。就運作機理而言,算法推薦的本質是在海量信息與用戶主體間實現(xiàn)“用戶價值主導下的場景化適配”[7],其核心邏輯是基于歷史數(shù)據(jù)尋找目標信息產品與用戶之間的關聯(lián)關系,通過探究用戶與人、物、信息的相關性去擬合用戶現(xiàn)在的和潛在的興趣偏好,進而完成信息的個性化推薦。一個完整的算法推薦流程通常包括數(shù)據(jù)獲取—數(shù)據(jù)處理—數(shù)據(jù)輸出這樣三個環(huán)節(jié)[8]。
作為科學技術延續(xù)發(fā)展的產物,推薦算法的技術屬性、自然屬性決定了其具有一定的意識形態(tài)屬性。首先是算法推薦的技術特質使然。算法推薦以新興科學技術的身份進入內容分發(fā)市場,以其“中立性”表象承襲了科學技術在社會諸領域的公信力:隨著算法推薦的適用范圍不斷擴張,其作為一種隱性的意識形態(tài)力量當然地被大眾所接受并不斷深入滲透進人們的思想意識之中。算法推薦承襲了科學技術的意識形態(tài)功能并形成了一種技術依賴的意識形態(tài)語境。其次,算法推薦技術以人的理性建構為基礎。作為設計架構的產物,算法在開發(fā)過程中不可避免會被嵌入研發(fā)者個體的價值觀念,會被慎重或無意地嵌入一定的規(guī)范標準、常規(guī)慣例及社會形態(tài)之中。而這些觀念、標準、慣例又以算法為依托在各網(wǎng)絡平臺一次次的信息推送過程中變成傳播的媒介,持續(xù)不斷地為人們編織著信仰、價值和集體認同,潛移默化地影響著人們的價值觀念和意識形態(tài)認知。
推薦算法的應用價值、社會屬性決定了其將持續(xù)發(fā)揮意識形態(tài)影響功能。推薦算法具有提高傳播效率、優(yōu)化傳播結構的經濟屬性,其在參與信息內容分發(fā)過程中展現(xiàn)出巨大的生產力價值,內嵌在算法層面的價值偏向將在一次次的推送傳播過程中被不斷強化和放大。在應用層面,算法推薦結合用戶屬性進行精準化甚至引導性、傾向性內容推送,在人們每一次的瀏覽、轉發(fā)、評論等互動過程中,算法的推薦結果持續(xù)影響著人們對待事物的態(tài)度和習慣,影響著人們的思想、行為模式和生活方式。實踐中各平臺通常會出于某種目標導向或對傳播效果的把控而突出某種價值偏好或導向,在各平臺商業(yè)競爭的過程中推薦算法逐漸演變成為被資本、流量裹挾的工具,為特定的商業(yè)目的乃至政治目的服務的信息內容隱藏于信息收集、篩選、分發(fā)等環(huán)節(jié)和標準之中,展現(xiàn)出一定的價值導向和意識形態(tài)影響力。
二、算法推薦引發(fā)的意識形態(tài)風險
算法推薦的意識形態(tài)屬性決定了其在不受干預的自然狀態(tài)下蘊藏著一定的意識形態(tài)風險,這是對“技術中立”論的反駁和否定。
(一)主流意識形態(tài)引領力、凝聚力降低
主流意識形態(tài)引領力即主流意識形態(tài)“引導社會輿論和受眾的能力”,是主流意識形態(tài)在社會多層次思想認識的交流碰撞過程中逐漸打破認知差異,形成協(xié)調性、整體性認同的能力[9]。主流意識形態(tài)凝聚力是用馬克思主義、社會主義核心價值觀等主流意識形態(tài)思想標識來尋求價值認同、凝聚價值共識的能力。在傳統(tǒng)的中心化、自上而下的信息傳播結構中,官報、官媒占據(jù)強勢地位,依靠全方位、高頻次的曝光和推送給主流意識形態(tài)傳播提供了堅實基礎。算法推薦機制的引入帶來信息分發(fā)結構的改變,傳統(tǒng)官媒優(yōu)勢地位不在,主流意識形態(tài)面臨凝聚力、引領力降低的風險。
首先,算法推薦對內容把關權力的“收編”擠壓了主流意識形態(tài)傳播空間。在傳統(tǒng)的科層制信息分發(fā)結構中,依照自上而下的垂直分工,主流意識形態(tài)可以低成本、高效率地實現(xiàn)傳播。借助互聯(lián)網(wǎng)技術賦權,信息分發(fā)機制迎來從人工分發(fā)到算法分發(fā)的改變,內容把關權力的轉移使得傳統(tǒng)官媒的精英屬性不在,權力漸趨式微,各類自媒體、百家號“粉墨登場”?;ヂ?lián)網(wǎng)的賦權改變了傳統(tǒng)的權力結構,內容把關權力不再僅僅依靠行政力量,而是通過算法推薦開辟了新的實現(xiàn)方式:價值凝聚人心。在個性化的信息推送機制之下,用戶散落在各個“隱秘角落”的非主流、個人化的信息產品需求經過算法的數(shù)據(jù)分析和深層挖掘后逐漸顯露,原本被忽視的海量的“長尾需求”得以高度適配?!叭曛抑厶恰?,算法推薦極其高效地滿足了用戶的千萬種信息興趣需求,于是信息價值判斷的統(tǒng)一標準喪失,非主流信息傳播市場得以初步打開。借助新聞內容和用戶數(shù)據(jù)的精確導引,算法推薦能夠實現(xiàn)信息與用戶之間的高效適配,并且具備持續(xù)提升推薦結果、提高推送效率的能力。質言之,算法推薦具有持續(xù)滿足用戶需求的能力,同時也具備信息致癮的能力。當我們的目光在一則則“精彩”“絕妙”的信息之間流連忘返,當我們沉浸在信息消費、數(shù)字娛樂的世界中無法自拔,當我們的信息世界被碎片化、消耗性的信息無意識地填滿,這是算法推薦所支撐的“注意力經濟”的勝利,是以算法推薦為核心的信息分發(fā)機制市場份額不斷擴大、主流意識形態(tài)信息傳播空間不斷坍塌的結果。
其次,算法推薦機制下信息產品的微觀敘事方式消解了主流意識形態(tài)傳播效力,削弱了主流意識形態(tài)價值引領能力。缺乏人工編輯對信息產品的內容把關和質量篩選環(huán)節(jié),無限制的個性化算法推薦將緊緊圍繞滿足用戶需求這一宗旨進行發(fā)力,其最終目標是實現(xiàn)用戶引流、增加用戶活躍時間以達到流量的最大化[10]。借助信息傳播結構和信息分發(fā)方式的轉變,以互聯(lián)網(wǎng)和社交媒體平臺為依托,我們已經進入了資訊信息的全民創(chuàng)作、全民生產時代。信息傳播權利的普及本應帶來網(wǎng)絡空間文化的蓬勃發(fā)展和空前繁榮,然而事實卻并非如此。和相對正統(tǒng)、嚴肅的主流意識形態(tài)信息產品相比,無關公共事務、無涉知識增益的大眾傳媒因其通俗性、“趣味性”更容易得到普通民眾的青睞。各類震驚體、標題黨新聞層出不窮,動輒十萬加、百萬級的傳播效果已不鮮見。更有亂象叢生的網(wǎng)絡直播,利用用戶的獵奇心理頻繁突破內容傳播底線。若網(wǎng)絡平臺對此并不加以干涉、矯正而是默許虛假、低俗、反主流的價值偏向并據(jù)此進行個性化推薦,算法便會“被錯誤的價值觀所捕獲”,各類非主流意識形態(tài)內容充斥網(wǎng)絡空間,并在無邊界的傳播過程中產生劣幣驅逐良幣效應:由商業(yè)利益和流量驅動生產的通俗內容驅逐有關主流意識形態(tài)和公共事務的嚴肅話題內容,主流信息產品中承載的莊嚴價值與嚴肅意義被無情地解構、消解,主流文化的精神內涵和教化功能也隨之喪失[11]。
(二)同類推薦、偏好推薦加劇價值分化
所謂分化,是指事物由同一性向多樣性、由同質性向異質性發(fā)展的過程[12]。作為一種價值觀念演變過程,價值觀分化即社會意識形態(tài)結構從同質、單向走向異質、多元,并出現(xiàn)不同價值偏向的過程。算法推薦在滿足不同用戶個性化需求“痛點”的同時,對不同群體、不同圈層意識形態(tài)的影響同樣不容忽視。從信息分發(fā)機制的演變視角觀察,從人工把關到社交過濾再到算法推薦,信息分發(fā)的效率不斷提高的同時伴隨著網(wǎng)絡用戶信息視野的打開,人們更容易在網(wǎng)絡空間找到與自己興趣相投的小組社區(qū),但正是這種多元化小眾空間的存在在一定程度上加劇著社會價值和意識形態(tài)的分化和異化。
一方面,同類推薦編織的信息繭房加劇了圈層隔離,不同價值觀念之間的碰撞、交流漸趨減少。算法推薦圍繞用戶的興趣需求進行內容分發(fā),只有用戶感興趣的、同類別的或具有潛在興趣的信息才得以被篩選呈現(xiàn)?!耙磺€人眼中擁有一千個信息世界”,用戶不感興趣的信息將不會被看到。又囿于人的主觀性和局限性,每個人感興趣的領域注定是片面的,借助算法推薦技術加持,長時間曝光于同質化信息氛圍將使用戶身陷信息繭房困境,視野逐漸狹窄。封閉的信息空間隔絕了多元信息穿透傳播的可能,同時也隔絕了異質意識形態(tài)傳播的可能,阻絕了開放、包容價值觀念的形成。擁有相同價值觀念和意識形態(tài)立場的用戶很容易相互吸引進入同類社群,又通過社群的頻繁互動進一步強化著自身固有的意識形態(tài)。群體內部同質化的信息傳播保護著人們生活在信息舒適圈之內,任何與既有意見相異的信息在圈層內部都將喪失傳播可能。與此相伴隨的是社群內信息多樣性的日漸減少,信息隔離逐漸形成,不同社群的認知觀念差異逐漸演變成為用戶群體借以相互區(qū)分的身份符號標簽,最終造成觀念差異的進一步加深和溝通可能性的喪失。
另一方面,偏好推薦產生的回音室效應不斷強化用戶的既有價值觀念認同,容易誘發(fā)群體極化現(xiàn)象。單一的信息環(huán)境是群體極化現(xiàn)象的誘因之一。在算法推薦場域及其所實施的協(xié)同過濾機制下,人們不斷接收到與自己興趣和價值觀念相吻合、相印證的內容,它們似乎是一種反饋,能夠在主觀上使用戶得到來自網(wǎng)絡空間的“認同感”。正是這種認同感不斷建立起網(wǎng)絡用戶之間的情感聯(lián)接,增進了小范圍互聯(lián)網(wǎng)社群的內部團結。但事實上,這些內容或許擁有不同的表達形式或論證手段,卻也僅是能夠強化既有觀點、固化既有認知的來自網(wǎng)絡世界的“回音”而已。隨著回音不斷出現(xiàn),人們不斷接觸與自己價值偏好同質化的信息,并在這種情境中不斷反應延伸,用戶的認同逐漸增強并形成一個個相對封閉的信息回環(huán)空間,這便是回音室效應。來自網(wǎng)絡空間的認同感同時也是可能造成群體極化的傾向性因素之一,因為“如果互聯(lián)網(wǎng)上的人們主要是同與自己志趣相投的人進行討論,他們的觀點就會僅僅得到加強,因而朝著更為極端的方向轉移”[13]。推薦算法技術對于情感型群體的形成具有正向促進作用[14]。如于歡案、孫小果案無一不是經由大眾傳媒、主流媒體和活躍于各平臺的自媒體賬號在各自話語圈層范圍內多維度地討論、傳播后,不同的情感訴求和價值觀念碰撞加劇,對社會公平正義的關注和共同的情感傾瀉迅速凝聚起價值傾向性群體,群體極化現(xiàn)象開始出現(xiàn)。最近在網(wǎng)絡上引發(fā)廣泛討論的性別對立等熱點事件便是封閉的網(wǎng)絡信息環(huán)境滋生群體極化的最新例證。如今的互聯(lián)網(wǎng)似乎已不再是可以討論問題的場所,而只是情緒宣泄的空間而已。這也從另一個側面證實了在算法推薦主導而不加干涉的網(wǎng)絡環(huán)境中,群體極化現(xiàn)象的出現(xiàn)在一定程度上具有不可避免性。此外,如果不同社群間的觀念差異并非通過回音室效應自發(fā)形成,而是經由算法推薦被引導到越來越對立的方向,形成越來越極端的觀點,那么這種技術手段與信息的疊加不僅會推動群體極化形成,甚至還將滋生極端主義生長空間。
(三)算法過濾引發(fā)價值迷失和信息操縱
算法推薦對信息分發(fā)市場的介入是一場傳播領域的技術革命,傳播市場環(huán)境、市場格局隨之轉變,速度和流量成為新的最大利益追求。作為一種觀念的上層建筑,意識形態(tài)由經濟基礎決定并在很大程度上受到經濟基礎的影響。我們不能僅僅停留在意識形態(tài)層面尋找人們價值觀念相異的原因,因為價值觀念的分化更深層次源自不同經濟基礎利益主體的利益分化。有學者將價值觀的分化區(qū)分為差異、矛盾、沖突三種類型[12],當價值觀分化處于矛盾狀態(tài)時,人們在不同價值觀念間的選擇中容易出現(xiàn)價值錯亂、分辨力降低等諸多狀況,個體的迷失狀態(tài)給社會意識形態(tài)安全帶來巨大隱患。
其一,算法推薦及其所營造的過濾氣泡形塑網(wǎng)絡空間“單向度的人”,網(wǎng)絡空間意識形態(tài)面臨價值迷失風險。所謂過濾氣泡,是指算法推薦在進行數(shù)據(jù)處理和運作過程中實現(xiàn)了信息和內容的供需匹配,同時也幫助用戶篩選掉了興趣范圍外的大量異質信息,用戶處在推薦算法營造的信息和觀念的舒適氣泡當中。在這種過濾機制之下,“令人著迷的新聞娛樂產品帶來固定的態(tài)度和習慣,使消費者愉快地產生與生產者、進而與社會整體相聯(lián)結的思想和情緒上的反應。在這一過程中,產品起著思想灌輸和操縱的作用。”[3]12如今隨著算法推薦的廣泛使用我們人人處于算法統(tǒng)治確立的生活方式之中,算法過濾塑造著“單向度的思想和行為模式”,凡是超出既有價值和意識形態(tài)領域的思想和行為都將受到排斥或是被納入既有思想行為體系之中。尤其值得注意的是,這種二元對立的思想狀態(tài)在個體間出現(xiàn)了一致化的趨勢。當微信、微博、B站等頭部網(wǎng)絡平臺均被同質化的信息充斥,當我們每一次的瀏覽體驗均以探求新知開始而以理性喪失結束,網(wǎng)絡空間留給我們的將是一片貧瘠、狹隘、單調的精神荒原,這與我們融入網(wǎng)絡空間時懷抱的拓展、多元、交流的初衷不相吻合,與互聯(lián)網(wǎng)科技的開放、包容、共享精神背道而馳?!叭狈π判那也淮_信自己應當持何種觀點的人們,傾向于使自己的觀點變得溫和?!盵13]30長此以往,人們精神世界空泛,價值信仰萎縮,辨別是非的能力和抵御反主流、反體制、反智識思想和行為的能力下降,意識形態(tài)安全面臨嚴重威脅。
其二,算法推薦營造的單一信息環(huán)境使網(wǎng)絡空間意識形態(tài)面臨信息操縱風險。算法推薦對信息的過濾使不同意識形態(tài)屬性的人們置身相互隔絕的信息繭房之中,長時期處于同質化的信息氛圍,“容易使人將自己的偏見當作真理,拒絕接受其他合理性的觀點和意見”[15]。這恰恰給網(wǎng)絡謠言和陰謀論的傳播提供了間隙。網(wǎng)絡謠言通常伴隨著突發(fā)公共事件出現(xiàn),當有關職能部門的調查和信息公開不能滿足人們內心預期,就會有人利用信息不對稱和人們的固有認知框架及偏見或故意、或盲目地制造、傳播虛假信息,嚴重消減政府相關部門的權威性和公信力,擾亂網(wǎng)絡環(huán)境和公共秩序。尤其值得注意的是,算法的工具性特質讓有關主體利用算法對用戶的意識形態(tài)偏向實施影響成為可能[16]。算法推薦和社交媒體的技術偏向也給謠言傳播提供了天然的有利環(huán)境。在網(wǎng)絡空間已經成為意識形態(tài)斗爭的主陣地、主戰(zhàn)場的當下,我們必須高度警惕一些西方國家憑借其發(fā)達的科學技術優(yōu)勢,惡意利用算法推薦機制及新媒體的傳播特性,結合熱點話題發(fā)表一些傾向性言論,企圖通過陰謀論對我國民眾進行意識形態(tài)滲透和思想操縱,詆毀、批判我國主流意識形態(tài)的行為。
三、算法推薦引發(fā)意識形態(tài)風險的法律防范路徑
算法推薦引發(fā)的意識形態(tài)風險問題,可以放在風險社會理論的研究范疇內展開探索。貝克認為,“風險可被定義為以系統(tǒng)的方式應對由現(xiàn)代化自身引發(fā)的危險和不安”[17]。對風險的防范,其重點在于防范風險帶來的負面效應,包括防范風險發(fā)生的危害和風險發(fā)生的可能性?,F(xiàn)代法律通過發(fā)揮安全功能實現(xiàn)風險防范,此種安全功能的發(fā)揮不在于排除所有風險,而在于依照確定的防衛(wèi)和補償規(guī)則來防止風險后果的外部化[18]。具體而言,法律通過主體、權利、義務、責任等制度的構建及其相互作用來保障安全和穩(wěn)定。面對算法推薦應用領域的多樣性和意識形態(tài)風險分布的離散性、隱蔽性,我們要主動作為、積極應對,既要強化對意識形態(tài)風險的事后監(jiān)管,也要做好對意識形態(tài)風險的事前防范。這就要求我們從網(wǎng)絡平臺的權責關系入手,一方面強化網(wǎng)絡平臺責任,通過用戶權利的賦予和平臺義務的約束實現(xiàn)商業(yè)價值和社會責任的良性互動;同時又要刺破算法推薦的工具“面紗”,通過對算法的監(jiān)管和適用范圍的限制來實現(xiàn)技術理性和價值理性的平衡。
(一)平臺責任強化:促進主流意識形態(tài)傳播升級
網(wǎng)絡平臺作為算法推薦的利用者、受益方,作為互聯(lián)網(wǎng)信息傳播的把關人,在主流意識形態(tài)傳播引領方面應當有更大作為和更多擔當。網(wǎng)絡平臺責任的承擔有其理論基礎。其一,守門人理論。互聯(lián)網(wǎng)借助TCP/IP協(xié)議地址具備了數(shù)據(jù)傳輸功能,為信息傳播流動提供了物理基礎。事實上對信息流動擁有管理能力的是各個計算機終端的網(wǎng)絡平臺。換言之,網(wǎng)絡平臺利用其信息基礎設施、技術架構、服務形式等優(yōu)勢資源,掌握著信息流動的關鍵節(jié)點,同時平臺算法也影響著用戶對內容的獲取,可以說,網(wǎng)絡平臺已超越純粹的服務提供者的被動性、中立性角色,而是以把關人的角色參與到信息流動控制中去,成為網(wǎng)絡空間中“看不見的手”。其二,外部性理論。外部性是對個人或企業(yè)活動對其他人或其他企業(yè)產生外部影響的評價。在網(wǎng)絡平臺是否應當對其所利用的技術引起的外部影響承擔責任的論證過程中一直存在著平臺是否可以因為技術的工具性而免責的問題。相較于傳統(tǒng)媒體平臺以人工編輯為主導的信息審核分發(fā)模式,各網(wǎng)絡平臺的信息傳播過程展現(xiàn)出了更強的技術特質和自動屬性,技術中立也常常成為平臺責任豁免的論據(jù)之一。然而,外部性理論的適用并非著眼于企業(yè)是否對其行為的外部影響擁有實質性控制,而是作為市場機制對資源配置調節(jié)失靈的補充規(guī)則而存在。在信息傳播領域,各網(wǎng)絡平臺對算法推薦的利用在客觀上造成了主流意識形態(tài)傳播風險,這反映出算法推薦存在一定的技術局限性:“當市場機制或技術體系無法實現(xiàn)資源的最優(yōu)配置或社會福利的最大化時,應當由政府加以干預,要求受益的企業(yè)承擔一定的責任維護社會運行的公平性?!盵19]對各網(wǎng)絡平臺而言,其有義務、有責任為公眾提供更加廣泛的信息來源,避免公眾完全被興趣引導而走向更加逼仄的價值視野中去。
第一,強化網(wǎng)絡平臺的審核、監(jiān)督義務。網(wǎng)絡平臺既是信息服務的提供者,又是信息資源的調度者,在信息傳播、消費的各個節(jié)點均發(fā)揮重要作用。網(wǎng)絡平臺應當為其使用算法推送的信息盡到必要的審核和監(jiān)督義務,確保信息傳播符合主流意識形態(tài)。網(wǎng)絡平臺本身可被視為一個大型的公共圖書館,讀者可根據(jù)自己的興趣愛好依照圖書類別索引找到自己感興趣的書籍。作為圖書館方,不僅要能夠滿足不同層次、不同興趣讀者的閱讀需求,還要保證其所提供的書籍內容健康向上,符合法律法規(guī)和社會主義核心價值觀等主流意識形態(tài)精神,這樣才與公共圖書館的地位、功能、價值相匹配。
在內容上,社交平臺的審核、監(jiān)督義務包括信息傳播后果的預見義務和避免義務。前者要求平臺對其所分發(fā)信息的傳播效果有較為審慎、合理的認識;后者要求平臺在預見到其所推薦、分發(fā)的信息可能背離主流意識形態(tài)時,應積極采取措施縮減傳播范圍或斷開傳播路徑。在性質上,社交平臺的審核、監(jiān)督義務應當是一種高度的注意義務,類似于學校對學生、商場對消費者的安全保障注意義務。理由在于,其一,網(wǎng)絡服務平臺作為信息傳播的載體向眾多用戶開放,信息傳播的空間大、傳播范圍廣;其二,網(wǎng)絡平臺在技術手段、管理經驗上擁有更強的風險防范能力。
網(wǎng)絡平臺可通過用戶協(xié)議、社群規(guī)范等文件將“符合主流意識形態(tài)”作為信息內容傳播的底線性要求,用戶擅自發(fā)布、傳播背離主流意識形態(tài)內容的,平臺可視情況采取拒絕發(fā)布、停止傳輸、刪除內容、禁言、關閉賬號等措施。對于平臺利用算法制作、推薦的信息,平臺應充分利用其技術條件切實履行審核、監(jiān)督義務。平臺義務的履行應以技術可行性為基礎,如通過設置關鍵詞過濾檢索、引入機器學習算法進行語法語義分析、人工審核的經驗判斷等多維度的條件組合,讓非主流意識形態(tài)信息內容喪失傳播土壤。另一方面,對于未盡到合理的審核、監(jiān)督義務及違反法律法規(guī)、故意制造算法偏見、傳播虛假信息的網(wǎng)絡平臺及相關主體,應當承擔相應的行政責任。
第二,強化網(wǎng)絡平臺的信息披露義務。隨著算法逐漸在信息資源配置中占據(jù)主導地位,其所引發(fā)的意識形態(tài)風險不斷擴張。傳統(tǒng)的事后監(jiān)管路徑無法達到預期效果,我們的監(jiān)管思路應當從結果監(jiān)管向風險防范轉變[20]。對網(wǎng)絡平臺而言,數(shù)據(jù)內容輸出后傳播環(huán)節(jié)的審核、監(jiān)督作為一種監(jiān)管手段有其必要性,但我們不能忽視的是,網(wǎng)絡平臺作為連接用戶與信息間的媒介樞紐,作為媒介傳播結構中官方媒體和自媒體間的第二梯隊,其身份早已突破了單一的經營者角色,而是由于眾多用戶的選擇而具有了一定的管理和公共職能屬性。這就要求網(wǎng)絡平臺對意識形態(tài)風險的防范不能簡單停留在對信息內容的審核、監(jiān)督上,應更進一步轉向能夠有效促進主流意識形態(tài)傳播的信息環(huán)境塑造上來。強化網(wǎng)絡平臺的信息披露義務旨在通過充分的信息公開喚醒用戶的權利意識,在一定程度上松動算法推薦的適用基礎。
一方面,關于平臺利用算法進行個性化推薦相關信息的披露。平臺應將其使用算法的類型、目的、運作機理,抓取推薦算法基礎數(shù)據(jù)的種類、條目、范圍以及推薦內容的價值偏向等內容通過用戶協(xié)議等文件進行公開,同時明確提示用戶擁有拒絕算法推薦的權利。另一方面,推進主流意識形態(tài)傳播升級。網(wǎng)絡平臺可以在擁有一定觀點傾向性的信息內容后附上不同觀點內容的推薦,或者隨機推薦主流意識形態(tài)相關內容,促進用戶對異質內容觀點、異質社群的接觸曝光。針對不實內容、片面化信息,可以用“本條內容可能含有虛假內容”“本條內容可能含有片面化觀點”等標語進行提示,并適當增加辟謠信息、官方調查報告等內容的推薦和鏈接。針對西方國家在網(wǎng)絡平臺發(fā)表的傾向性言論和對網(wǎng)絡用戶進行的意識形態(tài)滲透,同樣可以通過鏈接推薦的方法進行反擊,如針對言論涉及的某項事實在網(wǎng)絡平臺和官方媒體網(wǎng)站、政務網(wǎng)站之間增強互連互通,以個性化推薦或設置鏈接的方式確保用戶及官方媒體相互都能夠知道對方的觀點及內容。
(二)用戶權利賦予:形塑開放多元的信息空間
算法推薦的使用不僅成功幫助網(wǎng)絡平臺增加了用戶黏性和忠誠度,實現(xiàn)了資訊產品服務升級,而且也在逐漸改變著人們的信息獲取方式,影響著人們的意識形態(tài)認知。算法推薦之所以成為信息傳播產業(yè)發(fā)展的結構性力量,算法推薦信息流之所以獲得諸多擁躉,是與注意力經濟的發(fā)展分不開的。從電視媒體的興起到文字、圖片、短視頻內容的迭代更新,網(wǎng)絡平臺依托算法、大數(shù)據(jù)等技術進行數(shù)據(jù)抓取,針對用戶的關注偏好、基礎信息等進行解構分析,用戶的注意力被當作數(shù)據(jù)分析的對象并被不斷整合進推薦算法之中[21]。應當說,算法推薦是注意力經濟的催化劑、助推器。在這種經濟模式中,用戶的每一次閱讀分享、每一個點贊評論都能夠讓算法對你的畫像更加精準、讓算法對你的了解更加深入??此泼赓M的信息獲取其實早已在暗中標好了價格:用戶即商品。但是我們的身份,應當是網(wǎng)絡平臺的消費者,是擁有獨立判斷能力、思辨能力、完整人格的自然人,是網(wǎng)絡空間的公民。我們懷抱著新知、交流的愿景融入網(wǎng)絡空間,卻在無意識的情況下進入了自我意識形態(tài)的回音室。對各平臺而言,其設立的初衷是幫助用戶“隨時隨地發(fā)現(xiàn)新鮮事”,致力于實現(xiàn)“文明、理性、友善、高質量的意見交流”①,塑造一種成長型的文化生活方式②,其既應在主流意識形態(tài)傳播引領上有所作為,更應在多元信息環(huán)境的構建上發(fā)力。
第一,用戶應享有算法推薦、算法編輯的知情權。知情權關乎合同自由、關乎公平正義。哈耶克認為,“自由是指一個人在多大程度上能夠自行其是,在多大程度上能夠自由確定其行為方式,以及在多大程度上可根據(jù)自己所執(zhí)著追求的目標,而不是根據(jù)別人為實現(xiàn)其意圖所設定的強制條件去行動”[22]。對用戶與網(wǎng)絡平臺間的關系稍加審視便會發(fā)現(xiàn),用戶對平臺服務協(xié)議的“同意”是其接收信息服務的前置條件,用戶協(xié)議并未經雙方協(xié)商締結,而是平臺方單邊規(guī)制的結果。從經濟、信息、知識等方面看雙方間均存在著巨大鴻溝,這種不平等使用戶極易因錯誤或令人誤解的信息內容而作出非理性的選擇判斷?;陔p方合意“瑕疵”訂立的合同并不能夠在實質上滿足合同成立中“意思表示真實”這一要件,這在一定程度上是對合同自由原則的背離和違反。在合同的履行階段雙方地位上的不平等同樣在延續(xù),用戶協(xié)議條款內容的改變、信息分發(fā)底層技術邏輯的更換等并未對用戶的知情權予以足夠保障,處于信息劣勢的用戶方的行為自由和意思自治并未得到充分尊重。在這個層面上,有必要賦予消費者即用戶一方以知情權,讓消費者在對相關內容充分理解、知悉的情況下自由判斷、自由選擇是否同意或接受信息服務,從而實現(xiàn)實質意義上的合同自由。
具體而言,其一,前述平臺信息披露義務中關于算法推薦的信息獲取、運作邏輯等內容應在用戶協(xié)議中以簡明、易懂的方式體現(xiàn)并獲得用戶的知情同意。其二,除用戶自主訂閱的偏好信息外,網(wǎng)絡平臺基于算法進行的個性化推薦內容應當逐條進行醒目提示,如在信息頂端或底部增加“本條內容由算法推薦”標簽,并設置關閉推薦、減少同類推薦按鈕,避免用戶陷入信息繭房而不自知。其三,如果某些信息內容中含有偏見、歧視、極端內容并經網(wǎng)絡平臺清除、編輯后向用戶呈現(xiàn),也應逐條對用戶進行明確告知,如通過設置“本條內容經編輯后呈現(xiàn)”標簽對用戶進行提示。
第二,用戶應享有算法解釋權。算法解釋權是通過增加算法決策的透明度以提高用戶對算法的可理解性和問責性的一種請求權[23]。在算法推薦的法律規(guī)制中引入算法解釋權,是基于合同意思自治原則所必然衍生的權利,是對平臺和用戶之間巨大身份鴻溝、信息不對稱的有效糾偏,其作用在于實現(xiàn)信息從優(yōu)勢一方向劣勢一方的流動而達到相對平衡的狀態(tài)。
其一,算法解釋權的主體和對象。在個性化新聞推送場景下,算法解釋權的權利主體是認為受到算法推薦不利影響的相對人,其往往在網(wǎng)絡平臺用戶中產生。算法解釋權的義務主體為推薦算法的使用者即網(wǎng)絡平臺,或在推薦算法使用者無法提供解釋時的推薦算法開發(fā)者。其二,關于算法解釋權的內容,不同學者擁有不同見解。張恩典聚焦于算法決策的形成過程,從算法決策的建模階段、自動決策階段的動態(tài)視角出發(fā)將算法解釋權區(qū)分為以算法系統(tǒng)功能為中心的解釋權模式和以具體決策為中心的解釋權模式兩種類型[24]。張凌寒則聚焦于信息披露和算法決策的事后救濟,認為算法解釋只能由算法決策的相對人在受到不利影響后提起,并認為算法解釋權的權利內容應當包括針對算法決策的具體解釋和事后的更新解釋兩個層次[25]。我們在此無意深究算法解釋權的一般內容設定,僅在前述觀點的啟發(fā)下結合信息個性化推薦場景下的算法解釋權利內容展開思考。具體而言,用戶有權知道其在使用網(wǎng)絡平臺期間的身份標簽、身份畫像等內容。畫像作為算法推薦的前置程序,用戶可以申請平臺解釋個人畫像形成的邏輯和進行畫像的依據(jù),如平臺會抓取的數(shù)據(jù)類型、展開畫像的具體維度,各項數(shù)據(jù)的特征、類型和權重占比,以及不同維度數(shù)據(jù)的改變對可能接收信息內容的影響等,讓用戶對自己處于或將要處于的內容環(huán)境擁有合理預期。此外,如果用戶認為自己因為網(wǎng)絡平臺的算法推薦已經或正在遭受不利影響,有權要求網(wǎng)絡平臺針對該算法的具體決策過程如數(shù)據(jù)處理邏輯、信息推送邏輯等作出解釋,網(wǎng)絡平臺應及時予以答復。
(三)算法監(jiān)管:建設“可信任”的算法
當前我國并未確立對算法的直接監(jiān)管機制,現(xiàn)有的監(jiān)管路徑更側重于對結果的審查,通過將算法產生的不利后果和法律責任分配給算法使用平臺以實現(xiàn)對算法的監(jiān)管。在技術批判理論者看來,這種“基于終端責任原則的規(guī)制技術,寄望通過終端責任威懾以防止技術研究與應用所造成的損害,只是對風險轉化為現(xiàn)實的一種事后補救路徑,它顯然與風險社會理論所指引的事先預防理論相?!盵26]。作為風險治理的重要手段,法律應對技術研究及技術應用的效用予以必要關注,對算法技術規(guī)制、算法責任等的探索仍任重道遠。“技術規(guī)制是風險治理的重要措施。”[27]對算法推薦引發(fā)意識形態(tài)風險的防范亦不應僅停留在對平臺的治理和監(jiān)管上,更應將監(jiān)管的觸角延伸到“算法”這一底層技術層面。算法作為網(wǎng)絡平臺運行的底層技術邏輯,應當被納入監(jiān)管范圍。
首先,可通過建立算法審計制度糾正用戶長期偏好性閱讀帶來的觀念極化。審計作為一種經濟監(jiān)督機制長期存在,我們通過對公司的財務管理、經濟效益等進行審查以維護金融市場穩(wěn)定和其他利益相關人的利益。這是因為對外界投資者而言公司的內部運營就像一個“黑箱”,給公司內部人員帶來巨大信息優(yōu)勢的同時也存在著被濫用的風險。這與算法的作用機理相類似。算法審計旨在通過建設“可信任”的算法并通過其合理利用為用戶構建開放、多元的信息空間?!秱€人信息保護法(草案)》第53條初步確立了網(wǎng)絡平臺的定期自我審計和必要時的第三方審計制度,標志著監(jiān)管部門穿透了網(wǎng)絡平臺的法人外殼,將監(jiān)管之手直接指向平臺的內部運營活動,將監(jiān)管對象擴大至平臺的算法運行層面[28]。這一監(jiān)管思路契合了風險社會的預防性監(jiān)管理念,平臺的自我審計有助于提前發(fā)現(xiàn)和預防算法可能產生的負面影響及風險,第三方專業(yè)機構審計又因其中立性對平臺產生一定的約束作用。這意味著平臺自我審計將構成監(jiān)督和問責的基礎性依據(jù)。以此為基礎,其一,網(wǎng)絡平臺的自我審計可以內部進行,采取法律法規(guī)和倫理規(guī)范相結合的審計模式,通過綜合考察平臺使用推薦算法的設計目的、理念、設計規(guī)則、技術原理、合法合規(guī)性、價值偏向性等內容形成審計報告,并報相關監(jiān)管部門備案。平臺應針對其使用算法可能產生的意識形態(tài)偏向及對用戶的價值觀念影響提供可行的解決方案。其二,政府部門可結合個性化新聞推薦的具體場景制定平臺使用推薦算法的技術標準作為推薦算法的市場準入要求,以打造政府監(jiān)管、平臺自我審計、第三方審計相結合的貫通性、多元化治理體系。其三,審計報告作為政府部門的監(jiān)督依據(jù),一旦發(fā)現(xiàn)網(wǎng)絡平臺違背審計報告相關內容,惡意利用或未合理使用算法造成相關信息異常呈現(xiàn)的,或者存在虛假審計、違規(guī)審計情形的,可要求網(wǎng)絡平臺立即整改或介入平臺運營。
其次,可通過限制算法推薦在信息推送過程中的適用范圍以打破信息窄化。一方面,有必要對信息分發(fā)場域算法推薦的事實“壟斷地位”進行干預。政府對市場競爭機制的介入是為了應對市場機制的不完善、失靈等導致的資源配置無效率現(xiàn)象。算法推薦借助網(wǎng)絡平臺發(fā)達的基礎設施在信息傳播市場占據(jù)事實上的支配地位,其所引發(fā)的信息繭房、群體極化、價值迷失等意識形態(tài)風險已經表露出來,在這種情況下,不能完全放任信息傳播市場的自由競爭,讓政府管制和市場競爭作為兩種手段協(xié)同發(fā)揮作用才能更好地發(fā)揮算法推薦對意識形態(tài)傳播的正向影響,實現(xiàn)經濟效益和社會效果的協(xié)同。另一方面,主流意識形態(tài)急需更加廣闊的傳播空間。國家層面,信息窄化最本質的危害在于其阻塞了主流意識形態(tài)傳播的上通下達,存在著巨大的政治安全隱患。對用戶而言,算法推薦廣泛適用的危害在于,用戶所接收到的信息看似經過了自由選擇,其實僅是由傳統(tǒng)主流意識形態(tài)傳播者的把控、篩選替換成了網(wǎng)絡平臺更劣質的精心挑選而已。當我們被剝奪了接觸異質信息的機會,我們的思想自由就喪失了。從這個角度來看,網(wǎng)絡平臺應當發(fā)揮公共論壇屬性并為公眾提供一個開放自由的討論空間,讓人們在意外獲取的信息中不斷反思完善自我,因為“慎思明辨的力量勝過獨斷專行”[29]。因此,有必要對算法推薦的適用范圍予以合理的限制。其一,以主流意識形態(tài)為主要內容的信息推送應當排除在算法推薦的適用范圍之外,確保主流意識形態(tài)傳播路徑暢通。實踐中監(jiān)管部門已嘗試實施這一舉措。例如,新浪微博曾因持續(xù)傳播炒作導向錯誤等違法違規(guī)有害信息被網(wǎng)信部門約談,其問題突出的熱搜榜、熱門話題榜等板塊被下線。整改后的熱搜榜新增“新時代”板塊及置頂功能,著重突出展示正向傳播導向內容①。其二,各網(wǎng)絡平臺除以用戶偏好為中心進行資訊推送外,以主流意識形態(tài)為主要內容的信息推送在用戶的有效接收內容中應當占有一定比例。網(wǎng)絡平臺可設定合理范圍(如5%~20%)并賦予用戶選擇權,確保主流意識形態(tài)傳播的廣泛性和有效性。
四、結語
算法推薦對個體、對社會、對國家的影響是全方位、多方面的,對其引發(fā)意識形態(tài)風險的防范也并非僅通過法律應對就能夠達致理想狀態(tài)。除法律途徑外,還迫切需要主流意識形態(tài)傳播理念、敘事方式、傳播方法的進一步轉變,迫切需要算法開發(fā)者及網(wǎng)絡平臺的倫理自律,迫切需要用戶的算法素養(yǎng)培育等多手段共同發(fā)力。我們身處數(shù)字社會的深度變革之中,算法經濟、平臺經濟的發(fā)展也在對社會治理方式產生著影響,社會治理效果的提升需要“軟硬協(xié)同”的共同治理模式,期待“政府與民間的相互賦權和相互塑造”[30]。期待本文的部分思考能夠在新發(fā)展階段為社會主義意識形態(tài)建設提供些微助益。
參考文獻
[1]? 中共中央文獻研究室.十八大以來重要文獻選編(中)[G].北京:中央文獻出版社,2016:301.
[2]? 沈江平.人工智能:一種意識形態(tài)視角[J].東南學術,2019(2):65-74+247.
[3]? 赫伯特·馬爾庫塞.單向度的人——發(fā)達工業(yè)社會意識形態(tài)研究[M].劉繼,譯.上海:上海譯文出版社,2006.
[4]? 田海艦.互聯(lián)網(wǎng)的意識形態(tài)屬性與我國社會主義意識形態(tài)建設研究[M].北京:人民出版社,2019:70.
[5]? 尤爾根·哈貝馬斯.作為“意識形態(tài)”的技術與科學[M].李黎,郭官義,譯.上海:學林出版社,1999.
[6]? 俞吾金.從科學技術的雙重功能看歷史唯物主義敘述方式的改變[J].中國社會科學,2004(1):132-143+208.
[7]? 喻國明,韓婷.算法型信息分發(fā):技術原理、機制創(chuàng)新與未來發(fā)展[J].新聞愛好者,2018(4):8-13.
[8]? 張萌.算法推薦的倫理困境:技術邏輯基礎上的社會價值規(guī)范[J].今日科苑,2019(10):43-51.
[9]? 張林.智能算法推薦的意識形態(tài)風險及其治理[J].探索,2021(1):176-188.
[10]? 佟英.個人信息保護與風險治理[J].人工智能法學研究,2019(1):167-183+212-213.
[11]? 李凌凌.網(wǎng)絡民粹主義:風險與治理[M].鄭州:鄭州大學出版社,2020:91-93.
[12]? 廖小平,周澤宇.價值觀的分化探析——以改革開放以來中國社會為背景[J].北京大學學報(哲學社會科學版),2013(3):15-21.
[13]? 凱斯·R.桑斯坦.極端的人群:群體行為的心理學[M].尹宏毅,郭彬彬,譯.北京:新華出版社,2010:103.
[14]? 盧增智,高翔.社交媒體平臺群體極化的形成機理與引導策略研究.情報理論與實踐.[EB/OL].https://kns.cnki.net/kcms/detail/11.1762.g3.20210225.1827.004.html.
[15]? 薛永龍,汝倩倩.遮蔽與解蔽:算法推薦場域中的意識形態(tài)危局[J].自然辯證法研究,2020(1):50-55.
[16]? ADAM D. I. KRAMER, JAMIE E. GUILLORY & JEFFREY T. HANCOCK: Experimental evidence of massive-scale emotional contagion through social networks[J]. Proceedings of the National Academy of Sciences, Jun 2014, 111(24): 8788-8790.
[17]? 烏爾里?!へ惪?風險社會:新的現(xiàn)代性之路[M].張文杰,何博聞,譯.南京:譯林出版社,2018:7.
[18]? 劉剛.風險規(guī)制:德國的理論與實踐[M].北京:法律出版社,2012:78-91.
[19]? 楊樂.網(wǎng)絡平臺法律責任探究[M].北京:電子工業(yè)出版社,2020:28.
[20]? 張凌寒.風險防范下算法的監(jiān)管路徑研究[J].交大法學,2018(4):49-62.
[21]? 馬俊峰,王斌.數(shù)字時代注意力經濟的邏輯運演及其批判[J].社會科學,2020(11):111-120.
[22]? 弗雷德里?!W古斯特·哈耶克.自由憲章[M].楊玉生,馮興元,陳榮,等譯.北京:中國社會科學出版社,1999:30-31.
[23]? 解正山.算法決策規(guī)制——以算法“解釋權”為中心[J].現(xiàn)代法學,2020(1):179-193.
[24]? 張恩典.大數(shù)據(jù)時代的算法解釋權:背景、邏輯與構造[J].法學論壇,2019(4):152-160.
[25]? 張凌寒.商業(yè)自動化決策的算法解釋權研究[J].法律科學(西北政法大學學報),2018(3):65-74.
[26]? 劉鐵光.風險社會中技術規(guī)制基礎的范式轉換[J].現(xiàn)代法學,2011(4):68-78.
[27]? 吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017(5):128-136.
[28]? 張凌寒.《個人信息保護法(草案)》中的算法問責制及其完善[J].經貿法律評論,2021(1):36-46.
[29]? 凱斯·桑斯坦.網(wǎng)絡共和國:網(wǎng)絡社會中的民主問題[M].黃維明,譯.上海:上海人民出版社,2003:28-31.
[30]? 馬長山.邁向數(shù)字社會的法律[M].北京:法律出版社,2021:271-301.
(責任編輯:易曉艷)