劉佳穎 符冰
【摘 要】在互聯(lián)網(wǎng)時代,算法成為新聞分發(fā)的核心。隨著算法推薦技術(shù)的快速發(fā)展,它背后造成的黑箱、信息繭房、群體極化事件也引起了人們的反思。新聞公共性是新聞專業(yè)主義的特征與理想,本文結(jié)合現(xiàn)實案例,總結(jié)算法推薦技術(shù)驅(qū)動下的新聞業(yè)的 “反公共性”表現(xiàn),探討上述表現(xiàn)形成的原因,展示對算法推薦技術(shù)的辯證思考,并提出突破算法推薦困境的可行性路徑。
【關(guān)鍵詞】算法推薦;新聞公共性;新聞倫理
一、新聞公共性與算法推薦
隨著算法推薦技術(shù)使用的不斷深化,它所造成的新聞倫理失范也成為業(yè)內(nèi)討論的焦點。2021年底,國家網(wǎng)信辦、工信部等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,對平臺的操作規(guī)程提出明確要求,規(guī)定平臺必須并且以顯著的方式告知用戶所使用的算法推薦技術(shù),同時要為用戶提供關(guān)閉算法推薦服務(wù)的選項。
公共性是新聞的專業(yè)性要求之一,是新聞的理想所在。公共性要求新聞媒體和新聞工作者必須將公共利益置于首位,肩負起服務(wù)公眾的社會責(zé)任,具體闡釋為三個要求:對私人利益的保護和對公共利益的維系;公開性,保障公民知情權(quán);公平性,強調(diào)普遍服務(wù)原則。算法技術(shù)嵌入新聞業(yè),不僅顛覆了新聞的生產(chǎn)實踐,推動了數(shù)字化新聞的發(fā)展,也促進了新聞理念的更新。算法推薦技術(shù)根據(jù)用戶的基本信息、興趣偏好、媒介使用習(xí)慣等因素來推送新聞,實現(xiàn)信息的精準投送,提高傳播效率,但也應(yīng)該兼顧公共信息的傳播。算法構(gòu)建的“擬態(tài)環(huán)境”“信息繭房”,強化了受眾對信息的“選擇性接觸”,影響人們對這個世界的認知。在算法的作用下,新聞媒體朝著智能化的方向發(fā)展,其作為“監(jiān)視者”的功能被放大,作為“論壇”和“教師”的功能被弱化,其公共責(zé)任部分讓位于個性化信息的滿足[1]。公眾的選擇權(quán)在其不知道的情況下讓渡給了新聞媒介和算法,侵害了新聞的公共性。有關(guān)算法對新聞業(yè)、對新聞公共性影響的討論也是近年熱議的話題。
本文將結(jié)合新聞業(yè)的現(xiàn)實案例來闡釋算法推薦造成的新聞公共性三個方面的失范,以及提供重塑新聞公共性的可行性路徑。
二、算法推薦的“反公共性”
(一)“黑箱”:公共利益受損
新聞的根本價值在于公共服務(wù),公眾的知情參與是實現(xiàn)新聞公共性的基礎(chǔ)??墒切侣勚谱髋c分發(fā)的算法化過程對用戶來說充滿著高度不透明性?!昂谙洹本褪菍@種不透明性批判的經(jīng)典隱喻。這主要體現(xiàn)在兩個方面:算法黑箱和利益黑箱。
算法黑箱,指的是算法運行的某個階段所涉及的復(fù)雜技術(shù),且部分人無法了解或得到解釋。因此,算法黑箱的本質(zhì)在于不透明、難解釋。在平臺經(jīng)濟的背景下,算法是各大新聞媒介進行信息推送的核心,是平臺實現(xiàn)商業(yè)變現(xiàn)的重要手段,所以各大互聯(lián)網(wǎng)平臺為了保障自身利益與競爭實力,都不會公開其后臺算法。從算法本身來看,現(xiàn)在的算法技術(shù)日趨復(fù)雜,用戶需要具備一定的專業(yè)知識才能理解。這也導(dǎo)致大多數(shù)用戶不知曉其隱私數(shù)據(jù)是如何被“看不見”的手運用的。比如Facebook(臉書)的用戶隱私大量泄露事件就說明算法推薦技術(shù)還是要受到馬克斯·韋伯的“工具理性”的審視。平臺為了追求利益嘗試一切手段,公共利益為商業(yè)利益讓渡,像Facebook這種違背公共性的傳播行為便是公共性受損的現(xiàn)實注解。
利益黑箱,則是媒介或者平臺背后不為人知的資本運作和商業(yè)變現(xiàn)過程。當下媒介平臺以流量為指標來衡量新聞帶來的效益,但是在現(xiàn)實操作中,熱榜和排行榜往往不是由真實流量決定的。譬如水軍和公關(guān)公司可以利用算法,將消息廣泛地分發(fā)出去,來為背后的金主服務(wù)。從這角度上看,第三方中介服務(wù)平臺完全把控新聞傳播效益的解釋權(quán),在資金投入上創(chuàng)造了灰色空間,因此,像流量造假事件就會層出不窮。例如,微博個性化推薦的熱搜,可以通過砸錢買熱搜的方式,讓其信息進入用戶視野,創(chuàng)造出某新聞?wù)诒粺嶙h的假象。比如,影視公司通常會通過創(chuàng)造詞條、買熱搜的方式,以達到宣傳旗下影視劇的目的??此剖莿?chuàng)造喜聞樂見的內(nèi)容,服務(wù)了公眾,其實是用廣泛的參與來虛構(gòu)公共性的表象。這是平臺通過嘩眾取寵的算法來獲取自己的利益,但是真正有意義的公共議題就被排除在外了,公共性在看似民主多樣的互聯(lián)網(wǎng)中悄然受損。
(二)“孤島”:公共性瓦解
新聞公共性并不是簡單粗暴的多數(shù)集合,必須在多樣與多元的信息基礎(chǔ)上才能成立。公共性首要的是平等,即對個人權(quán)利的尊重,公平、公正和公開不由數(shù)量的多少來定義[2]。用戶有權(quán)利聽見來自更多方面的聲音。眾所周知,算法推薦技術(shù)直接帶來的便利就是新聞分發(fā)個性化??墒沁@種個性化是受到算法左右的個性化,是“偽個性化”。
早在2016年,F(xiàn)acebook就廢除了人工編輯團隊,熱點話題全部通過算法實現(xiàn)自動化。在國內(nèi),“今日頭條”打出了“你關(guān)心的,才是頭條”的口號,通過分析用戶的瀏覽記錄,標記用戶感興趣的話題,實現(xiàn)每個用戶的首頁新聞“千人千面”的效果。隨著技術(shù)的進步,算法推薦技術(shù)對用戶信息的抓取范圍越來越廣泛,除了地理位置、性別這樣的基礎(chǔ)信息,還有用戶的使用習(xí)慣、消費偏好等,用戶的每一次點擊都影響平臺下一步的推薦內(nèi)容,久而久之,用戶便形成了如美國麻省理工學(xué)院教授尼古拉斯·尼葛洛龐帝所預(yù)言的“我的日報”的新局面[3]。算法推薦技術(shù)雖然不直接造成信息繭房,但是或多或少起著助推的作用。新聞因算法推薦技術(shù)而實現(xiàn)的高度個性化分發(fā),不斷給用戶推送同質(zhì)化信息,加深用戶的片面的認識,形成用戶的認知孤島。所以全方位迎合受眾偏好的算法并沒有彌合反而擴大了知識溝,忽視了新聞所肩負的公共使命與社會功能。曾經(jīng)新聞扮演的是聯(lián)結(jié)社會認知,塑造“共同體”的角色,但在算法時代,原來的生態(tài)正在土崩瓦解。
(三)“極化”:公共認識斷裂
在社會生活中,“極化”通常體現(xiàn)為一種極端化、兩極化的輿論或話語結(jié)構(gòu)[4]。詹姆斯·斯通最早提出了群體極化的概念:人們處于群體中所進行的決策通常會比作為個體時所做的決策具有更加冒險的特點,決策傾向于發(fā)展至某個極端,即“冒險性偏移”。正如古斯塔夫·勒龐在《烏合之眾:大眾心理研究》中所說: 獨立的個人絕無貿(mào)然打劫一家洗衣店的勇氣,群體則不同,群體是“天然合理”的,數(shù)量決定了真理[5]。
選擇性接觸理論也表明,人們對于信息的接收并不是全方位的,大部分人只愿意接觸和自己取向一致的信息,而拒絕接觸與自己意見和看法不一致的信息[6]。在算法推薦的作用下,平臺根據(jù)甄別出的用戶選擇性趨向的要素,不斷給公眾推送著和自身態(tài)度相似的信息,用戶的憤怒情緒不斷累積并形成了大規(guī)模的質(zhì)疑與批判,理性的對話空間也因為世界鏡像認知的嚴重碎片化而失去了現(xiàn)實基礎(chǔ),給極化言論的聚成提供了便利,產(chǎn)生“回音壁效應(yīng)”。
在“前算法時代”,傳統(tǒng)大眾共享的信息產(chǎn)品往往具有結(jié)構(gòu)化、標準化的特點,社會討論會在既定的框架和范圍中進行,因此,就算每個人本身持有既定的某些看法或者立場,極端觀點會因缺乏充分的話語資源而泯沒,所以未必會導(dǎo)致共識的斷裂。但是在算法時代,個性化推薦本身就是凝聚偏見與歧視的過程,網(wǎng)民圍繞某一熱點輕松找到與自己相同的觀點,從而凝結(jié)成一個群體進行交流與討論,甚至?xí)l(fā)現(xiàn)實沖突,公共利益難以有效實現(xiàn),這恰恰與新聞公共性理念背道而馳。
三、重建新聞公共性的路徑
(一)重塑媒體公共性
桑斯坦引入了“公共論壇”的概念來闡釋媒體的公共性?!肮舱搲弊畛醯男螒B(tài)是公民聚集、溝通思想并討論公共事務(wù)的街道和公園,隨著大眾傳媒的出現(xiàn),公共論壇是報紙、廣播、電視等[7]。在傳統(tǒng)的大眾媒體上,讀者可以看到不同的觀點,聽到不同的聲音,也會接觸到自己不喜歡的領(lǐng)域,理論上增加了人們置身于不同觀點中的可能,以實現(xiàn)公共論壇的目標。可以說大眾媒體天生就帶著提供公共論壇的責(zé)任,是算法推薦的天然破局者。
然而,隨著數(shù)字化媒體興起,傳統(tǒng)媒體式微,由傳統(tǒng)媒體構(gòu)建的媒體公共性也遭到了破壞,所以重塑新聞公共性的責(zé)任則落到了平臺身上。各類新聞聚合平臺需要給用戶提供了解異質(zhì)信息源的可能性,為用戶打造一個均衡的新聞環(huán)境,突破算法推薦帶來的信息繭房、群體極化等社會困境。
(二)優(yōu)化算法推薦
突破算法推薦的困境,最直接的方式就是訴諸技術(shù)。在個性化內(nèi)容推薦方面,算法不僅要順應(yīng)用戶的心理,提供與他們想法一致的聲音,也要提供與他們意見相左的聲音,展示事物的多面性,把選擇權(quán)真正地交還給用戶。算法的開發(fā)者也要不斷開發(fā)算法的可能性,讓其幫助具有公共價值的內(nèi)容傳播。在內(nèi)容生產(chǎn)方面,可以通過算法分析總結(jié)公眾的共同心理,為媒體內(nèi)容生產(chǎn)提供更多依據(jù);在內(nèi)容分發(fā)方面,可以通過算法推動具有公共價值的內(nèi)容到達更廣的人群[8]。這些都可能幫助個體減少繭房的束縛。通過落地化的實踐證明算法推薦和信息分發(fā)的多樣化是可以同時兼顧的,比如加強混合推薦算法技術(shù),將內(nèi)容、流行度等各項指標融合在一起,形成一種不僅包括個性化推薦,還保證公共信息的傳播性邏輯。簡言之,就是用戶在了解自己興趣內(nèi)容的同時,還能知曉身邊的人所關(guān)注的新聞,最重要的是可以讓用戶了解并參與公共事件的討論。
(三)加強監(jiān)管力度
一個行業(yè)、一項技術(shù)蓬勃發(fā)展的同時,政府需要作為規(guī)則制定者預(yù)防其發(fā)展走向無序。比如,國家網(wǎng)信辦、工信部等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,就是對算法推薦規(guī)制的說明。但同時也要注意處理好各方的關(guān)系,以包容審慎的態(tài)度,在不侵犯新聞公共性的前提下,滿足算法推薦技術(shù)創(chuàng)新發(fā)展的需求,助推安全健康的算法創(chuàng)新應(yīng)用。
彭增軍教授指出,現(xiàn)在社會的運行和治理,公共性是其根本。天下為公,公民通過公共知識獲得參與公共事務(wù)的權(quán)利?;ヂ?lián)網(wǎng)和社交媒體從誕生之初,就被寄予了民主理想的厚望,新聞的公共性是必然趨勢。而技術(shù)的不斷下放卻讓人們把“信息的豐富和公共的參與簡單量化”,將表面上廣泛的討論與參與等同于公共性。在算法這只“看不見的手”的作用下,信息繭房、網(wǎng)絡(luò)群體極化事件層出不窮。但是在算法時代,新聞媒體的職責(zé)所在依舊是保證公共傳播,提供理性討論的公共平臺,幫助社會整合。
四、結(jié)語
公共性是新聞的專業(yè)性要求之一,它要求新聞媒體和新聞工作者必須將公共利益置于首位,肩負起服務(wù)公眾的社會責(zé)任。如今,算法推薦造成新聞公共性三個方面的失范。個性化雖然已是大勢所趨,但平臺和媒體仍然要堅守新聞公共性,突破算法推薦帶來的信息繭房、群體極化等社會困境,為用戶打造一個均衡的新聞環(huán)境。算法開發(fā)者也要進一步優(yōu)化算法,將新聞價值判斷的權(quán)利交還給大眾,讓真正具有公共性的重要議題能夠進入大眾視野。政府則要繼續(xù)優(yōu)化相應(yīng)政策,保證算法推薦技術(shù)在一定的框架里運用。平臺、政府、用戶多方協(xié)作,才能保障算法推薦技術(shù)健康發(fā)展,重塑新聞公共性。
參考文獻
[1]葉秀端.算法時代新聞專業(yè)主義的理念重塑與實踐路徑[J].華僑大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(2):108-116.
[2]彭增軍.算法與新聞公共性[J].新聞記者,2020(2):48-52.
[3][4]常江,劉璇.數(shù)字新聞的公共性之辯:表現(xiàn)、癥結(jié)與反思[J].全球傳媒學(xué)刊,2021(5):93-109.
[5]孫孝科,高大偉,常桐琿.熱點公共事件群體極化:表征、影響及其應(yīng)對[J].南京郵電大學(xué)學(xué)報(社會科學(xué)版),2022(4):36-45.
[6]韋龍.重返對話:網(wǎng)絡(luò)群體極化現(xiàn)象化解路徑研究[J].新聞大學(xué),2021(10):30-43,118.
[7]劉友芝,胡青山.基于算法推薦模式的社會性反思:個體困境、群體極化與媒體公共性[J].傳媒經(jīng)濟與管理研究,2021(1):192-212.
[8]彭蘭.導(dǎo)致信息繭房的多重因素及“破繭”路徑[J].新聞界,2020(1):30-38,73.
作者簡介? ?劉佳穎,湖北文理學(xué)院文學(xué)與傳媒學(xué)院碩士研究生;符冰,湖北文理學(xué)院文學(xué)與傳媒學(xué)院副教授