陳 龍 王宇榮
內容提要 平臺傳播時代的傳播本體與傳播關系已然發(fā)生轉型,轉變?yōu)閭€性化信息推送與數(shù)據(jù)關系,“無數(shù)據(jù),不算法;無算法,不傳播”成為平臺傳播格局的真實寫照。傳播本體與傳播關系的轉型也帶來了相關信息認知的假象風險,而風險的背后實則反映出平臺傳播時代傳播本體轉型所遭遇的悖論,即“無算法,不傳播”的本體意涵對人的主體性的壓制。平臺傳播生態(tài)的治理需要以“陽光法案”作為支撐,以國家意志為主體,在承認算法作為多方利益代理人的前提下,對算法透明邊界、算法倫理等方面進行多方協(xié)調。
伴隨著永恒“在線”與“在場”的智能技術與日常生活場域深度的人機交互實踐,以算法為核心的數(shù)據(jù)計算系統(tǒng)因其科學性與專業(yè)性逐漸被“人們認為是值得信任與具有合理性的,算法程序計算的結果被描述為中立、客觀的決策”[1]Beer David,"The Social Power of Algorithms",Information,Communication&Society,2017,20(1),pp.1-13.。算法所形塑的數(shù)據(jù)關系以其科學性、專業(yè)性的真理權力,已然作為被普遍認同的機制與支配形式將“算法化生存”理念深深地植入社會勞動與個體的日常生活之中,深刻改變了人們的生活方式以及理解世界的方式?!盁o數(shù)據(jù),不算法;無算法,不傳播”成為描繪平臺傳播時代傳播模式的真實寫照,數(shù)據(jù)與算法成為構造平臺傳播核心的組件所在,也是個性化信息推送的基石與驅動力所在。對此,美國學者尼古拉斯·迪亞科普洛斯(N.Diakopoulos)不無擔心地指出:“我們現(xiàn)在生活在這樣一個世界里,算法和為它們提供信息的數(shù)據(jù),決定著我們生活中的一系列決定:算法可能會出錯,并帶有偏見。在規(guī)模上運行技術復雜的算法的不透明性使它們難以被仔細審查,導致公眾對它們如何行使權力和影響力缺乏明確認識?!盵1]Diakopoulos Nicholas, "Algorithmic Accountability: Journalistic Investigation of Computational Power Structures",Digital Journalism,2015,3(3),pp.398-415.智能傳播時代,傳媒生態(tài)的版圖已發(fā)生了翻天覆地的變化,以網(wǎng)絡平臺為代表的節(jié)點傳播成為主流,平臺間的競爭開啟了算法驅動的時代,平臺傳播力變成了算法技術的比拼。
傳播本體,意即傳播是什么,傳播作為什么存在與被感知,這深刻體現(xiàn)在每個時代占據(jù)主導地位的傳播工具的社會性應用及其總體效應上。而對傳播本體的探討,其邏輯存在于“傳播工具變革—傳播方式變革—生存方式變革+傳播關系變革+價值關系重構”[2]胡泳、陳磊:《網(wǎng)絡傳播研究述略:從本體研究到規(guī)范研究》,《現(xiàn)代傳播(中國傳媒大學學報)》2020年第1期。之中??梢钥闯?,這一邏輯實質指向的是媒介技術與社會和文化的互構關系,傳播本體亦在此關系中得以揭示與發(fā)展。在這個意義上,以本體之思追問傳播是什么這個元問題,有助于廓清當下智能化信息技術,特別是算法對傳播格局所形塑的樣態(tài)及其認知。
自19世紀30年代大眾化報業(yè)開始,報刊、無線電廣播、電影、電視等媒介形態(tài)在短短一百余年間密集登上歷史舞臺。大眾傳播的時代特點即是專業(yè)化的媒體組織運用傳播技術與產(chǎn)業(yè)化手段,以社會大眾為對象進行信息的大量生產(chǎn)、復制與傳播,突出表現(xiàn)為一種有組織的單向性傳播形式。從20世紀60 年代阿帕網(wǎng)問世,到20 世紀90 年代互聯(lián)網(wǎng)的廣泛運用與普及,標志著互聯(lián)網(wǎng)傳播時代的來臨。它以數(shù)碼化技術將我們帶入“新媒體”時代,其不僅具有傳統(tǒng)大眾傳播媒介的諸多功能,更為主要的是其所具有的即時性、交互性、全球性、多媒體性、海量性、便利性推動了傳統(tǒng)大眾傳播媒介的轉型,將人類的傳播活動推向Web1.0與Web2.0時代,且不斷向前發(fā)展。
自施拉姆(Schramm)在“四大先驅”的基礎上創(chuàng)立傳播學科以來,信息的共享、交流、溝通一直被視為傳播的本體,傳播即是兩個及兩個以上的信息系統(tǒng)之間進行信息交互的行為與過程,傳播主體彼此結成信息共享關系,共享一套信息符號以尋求信息、勸說、傳授、娛樂或其他[3]威爾伯·施拉姆、威廉·波特:《傳播學概論》第2版,何道寬譯,中國人民大學出版社2010年版,第57頁。。李金銓認為,傳播(communication)在中文示意中包含了溝通、交通、媒介的意涵,在拉丁文與community同一詞源,都是communis,即是要建立“共同性”——也就是透過社區(qū)內人們面對面的溝通,彼此分享“信息”和“情感”,以建立深刻的“了解”[4]李金銓:《傳播縱橫》,社會科學文獻出版社2019年版,第158頁。。從傳統(tǒng)的大眾傳播時代到以互聯(lián)網(wǎng)為平臺的數(shù)字傳播Web1.0、Web2.0時代,人類進行傳播活動的時空更廣、自主性更強、交互性也更強,表現(xiàn)為一種去中心化的網(wǎng)絡節(jié)點傳播模式,受眾變身為用戶,用戶成為網(wǎng)絡節(jié)點,突出了傳播關系中主體間的平等性與信息選擇、生產(chǎn)的自主性,傳播主體之間關于信息的共享、交流的本體意涵更為突出。但到了互聯(lián)網(wǎng)傳播的Web3.0智媒時代,傳播特性突出表現(xiàn)為智能化。其所彰顯的平臺傳播方式使傳播的本體發(fā)生了轉向,人的生存方式、傳播關系、價值連接方式也發(fā)生了改變,傳播格局亦被重構。
Web3.0智媒時代的傳播特性突出表現(xiàn)為智能化信息服務。大數(shù)據(jù)、物聯(lián)網(wǎng)、云計算極大地促進了人工智能技術的發(fā)展,而人工智能技術的發(fā)展又促進了媒介終端的具身性、智能化發(fā)展。人工智能的本質是算法模型[1]喻國明、耿曉夢:《算法即媒介:算法范式對媒介邏輯的重構》,《編輯之友》2020年第7期。,算法模型的技術性邏輯是一系列程序指令運行的規(guī)則,其以“可計算”邏輯將社會個體與個體、個體與環(huán)境互動囊括其中,并在此基礎上延展或生成諸多社會實踐關系(如文化、政治、經(jīng)濟關系)的規(guī)則或制度,國內有學者將其稱為一種算法化生存[2]孫萍:《算法化生存:技術、人與主體性》,《探索與爭鳴》2021年第3期。。而依靠算法技術進行決策與控制的新型傳播形態(tài)稱之為“平臺傳播”[3]全燕:《智媒時代算法傳播的形態(tài)建構與風險控制》,《南京社會科學》2020年第11期。,具體來說即是一種以數(shù)據(jù)為主要生產(chǎn)資料(原料)、經(jīng)由具身化、智能化媒介終端,依靠算法作為驅動力的傳播形態(tài)。
平臺傳播的內容、形式、對象及其效果皆被納入算法的“可計算”邏輯之下[4]全燕:《智媒時代算法傳播的形態(tài)建構與風險控制》,《南京社會科學》2020年第11期。。算法的“可計算”對象即是“數(shù)據(jù)”。信息時代,“數(shù)據(jù)”一詞不僅指代根據(jù)測量和計算而形成的數(shù)字,還統(tǒng)指“一切保存在媒介終端中的、經(jīng)由記錄環(huán)境而得到的文本、圖片、視頻的信息”[5]涂子沛:《數(shù)據(jù)之巔:大數(shù)據(jù)革命,歷史、現(xiàn)實與未來》,中信出版社2014年版,第256頁。,測量、計算、記錄是智媒時代數(shù)據(jù)的三大來源。在平臺傳播中,數(shù)據(jù)作為算法運行的“原料”而存在,而算法對數(shù)據(jù)的處理是以“數(shù)據(jù)”采集、分析、生產(chǎn)為邏輯主線,以“數(shù)據(jù)”個性化推送為邏輯終點,彼此之間互為邏輯,形成數(shù)據(jù)再生產(chǎn)結構。
首先,平臺傳播中的數(shù)據(jù)再生產(chǎn)結構以節(jié)點(node)數(shù)據(jù)采集為邏輯起點。數(shù)據(jù)是作為平臺傳播的生產(chǎn)資料而存在,平臺傳播的數(shù)據(jù)收集是經(jīng)由集各類傳感器、算法模型為一體的智能化媒介終端動態(tài)收集、分析、交互用戶的全息信息數(shù)據(jù)而形成的。這意味著當下的傳播,很多時候智能化媒介終端僭越或代替人來做出收集、分析信息數(shù)據(jù)的決策,而作為影響數(shù)據(jù)價值大小主要因素的算法則成為各大媒體平臺之間博弈和競爭的關鍵點。為此,各大平臺一方面會顯性或隱性地部署更多的傳感器,并賦予應用程序更大的權力以獲取用戶更多的數(shù)據(jù);另一方面會持續(xù)優(yōu)化與創(chuàng)新各類算法模型,提升算法對數(shù)據(jù)分析的效率與準確率。
其次,平臺傳播中的數(shù)據(jù)再生產(chǎn)結構以節(jié)點之間高密度的交互來維系。在平臺傳播模式下,脫離數(shù)據(jù)存在的算法無法運行,智能化傳播活動也就無從談起。作為各大媒體平臺必爭的資源,數(shù)據(jù)的產(chǎn)生與收集以用戶及其一體化智能終端設備節(jié)點之間的交互為基礎,節(jié)點之間的交互時間越長、頻率與效率越高,產(chǎn)生的數(shù)據(jù)就越多。而傳播節(jié)點在算法的加持下突破了以往“使用聯(lián)網(wǎng)設備的用戶及與其綁定的一體化信息”的認知框架,表現(xiàn)為智能、情景、去中心處理數(shù)據(jù),以“感知人在生理、認知、情感、社會、文化等方面屬性”[6]Fan,J.,Tian,F.,Yi,D.U.,Liu,Z.,&Dai,G.,"Thoughts on Human-computer Interaction in the Age of Artificial Intelligence",Sci Sin Inform,2018,48(4),pp.361-375.。為此,如何將節(jié)點與節(jié)點之間的交互效率提高、時間拉長、頻率增高成為獲取有效數(shù)據(jù)的重要關鍵點,而算法模型的設計成為打造節(jié)點與節(jié)點之間高密度交互圈的重要一環(huán)。以國內抖音與快手短視頻平臺為例,它們都是強興趣導向。抖音算法模型旨在形成一種以內容為核心的弱社交圈,重點提升優(yōu)質內容的傳播效力來突破社交壁壘,讓用戶感受更多樣式與風格屬性的內容;而快手則注重以用戶的社交需求為中心,為用戶匹配到相符的內容后,就對用戶的行為路徑進行固化,使他們形成穩(wěn)定的社交網(wǎng)絡。算法排布了節(jié)點之間的高密度交互性設計,而我們的社交互動的深度、廣度以及效率也是受算法控制的。
最后,平臺傳播中的數(shù)據(jù)再生產(chǎn)以信息的主動、個性化推送為目的。算法“通過一系列判斷架構來連接、匹配與調適價值關系,形塑認知、建構關系、整合社會”[1]喻國明、耿曉夢:《算法即媒介:算法范式對媒介邏輯的重構》,《編輯之友》2020年第7期。,其所強調的是一種基于數(shù)據(jù)而進行的價值關系連接,誠如尼克·庫爾德利(Nink Couldry)所描繪的“數(shù)據(jù)關系”(data relations),意即一種組織社會生活和社會關系,以優(yōu)化數(shù)據(jù)提取和創(chuàng)造經(jīng)濟價值的方法[2]常江、田浩:《尼克·庫爾德利:數(shù)據(jù)殖民主義是殖民主義的最新階段——馬克思主義與數(shù)字文化批判》,《新聞界》2020年第2期。。數(shù)據(jù)關系也成為當下UGC(用戶生成內容)進行內容生產(chǎn)、傳播的主導邏輯。一方面隨著平臺用戶數(shù)量的激增,內容市場仍具有相當?shù)膹V泛性和復雜性,它們既是龐大數(shù)據(jù)的來源,也是平臺的利潤所在;另一方面隨著手機設備的升級及視頻制作技術的加持,UGC 模式使得內容更加多元化和專業(yè)化,PGC(專業(yè)內容生產(chǎn))和UGC 的界限越來越模糊[3]陳龍:《轉型時期的媒介文化議題:現(xiàn)代性視角的反思》,上海三聯(lián)書店2019年版,第151頁。。此時內容制作水準的意義對于用戶自身利益以及平臺利益而言,遠不如處理內容如何有效率地匹配到有需求的用戶意義大。在這個意義上,數(shù)據(jù)關系成為當下傳播格局中的主導邏輯。通過海量、多元的用戶數(shù)據(jù)來訓練算法模型,以此持續(xù)描摹用戶的畫像,并最終對用戶進行個性化信息的推送與投喂,這既是平臺傳播中數(shù)據(jù)再生產(chǎn)結構的目的,也是平臺傳播的本體。
對生態(tài)脆弱度及生態(tài)敏感度評價結果進行加權矩陣分析,疊加得出研究區(qū)域鄉(xiāng)村生態(tài)系統(tǒng)固有屬性的綜合表征。之后與生態(tài)干擾度評價結果進行疊加[20],得出研究區(qū)域生態(tài)風險綜合評價結果及其空間分布,分為5個風險等級區(qū)域,包括低風險區(qū)(10.89%)、較低風險區(qū)(13.87%)、中風險區(qū)(24.21%)、較高風險區(qū)(25.11%)、高風險區(qū)(25.92),為景觀生態(tài)安全格局構建與生態(tài)空間分類發(fā)展引導提供依據(jù)(圖6)。
在當下的平臺傳播格局中,傳播的終極目的是基于算法模型向用戶進行信息的主動、個性化推送與投喂,傳播本體已然發(fā)生轉型,它以數(shù)據(jù)關系為邏輯,傳播本體從信息的共享、傳遞轉向信息的主動、個性化的推送。而當數(shù)據(jù)與算法成為各大平臺利益博弈競爭中取勝的關鍵點時,如果對數(shù)據(jù)、算法的理解與監(jiān)管不當,便會賦予算法更大的權力以攫取用戶數(shù)據(jù),很多時候會導致算法僭越或代替人來做出收集、分析信息數(shù)據(jù)的決策。不僅如此,為生成數(shù)據(jù),算法還排布了節(jié)點之間交互的深度、廣度與效率。很大程度上,用戶關于自身信息的隱私權、自主權、知情權都遭受到算法侵犯。總體上,伴隨著數(shù)據(jù)關系的根深蒂固與算法對社會卷入程度的不斷加深,對數(shù)據(jù)與算法的神話般的信仰或迷思也在一定程度上加劇了人類在算法生存世界中存在的危險性。
平臺傳播中的數(shù)據(jù)監(jiān)控是交由算法模型進行的,算法以一種“可計算”的信息產(chǎn)制模式將“數(shù)據(jù)轉換成可讀的故事”[4]Einav Gali(ed.), The New World of Transitioned Media: Digital Realignment and Industry Transformation, Switzerland,Springer International Publishing Press,2015,pp.65-66.。這種以監(jiān)視、計算為導向的信息產(chǎn)制模式不僅成為社會個體感知媒介信息的主要方式,也是人們參與監(jiān)視想象與實踐的通道??萍寂c互聯(lián)網(wǎng)公司不僅定義了如何將數(shù)據(jù)反饋到算法中的邏輯,而且還定義了算法模型如何加工數(shù)據(jù)、傳輸數(shù)據(jù)與消費數(shù)據(jù)的邏輯,而算法模型具體的運行邏輯并不是透明可見的。也就是說,在算法監(jiān)控之下,社會個體與外界的信息交換場景(議題設置與呈現(xiàn)、受眾認知態(tài)度、信息傳播情景)是被預先“算計”好的。在這個意義上,信息熵并不存在,或是說信息熵是在算法技術的掌控之中,它的存在與消失是被算法依據(jù)商業(yè)與政治利益導向提前設計的,這種信息所存在的假象被表面的個性化信息體驗以及數(shù)字、算法所具有的種種中立的客觀現(xiàn)象所遮蓋,主要表現(xiàn)為如下幾個方面。
所謂大數(shù)據(jù)的價值,是在數(shù)據(jù)來源多元化、海量化基礎上利用算法模型對數(shù)據(jù)進行自動挖掘與分析,發(fā)現(xiàn)數(shù)據(jù)當中隱藏的規(guī)律、趨勢及效應。當基于算法模型的量化維度成為社會個體與媒介信息感知交融的唯一中介時,它產(chǎn)生了一種強烈的誘惑向心力,使得復雜的行為與心理狀態(tài)等非結構化數(shù)據(jù)得以轉化成結構化數(shù)據(jù),做出“科學”意義上的廣泛概括與預測[1]Mosco Vincent.,To the Cloud:Big Data in a Turbulent World,New York,Routledge,2015,p.197,p.197.。然而需要指出的是,算法模型對于結構化與半結構化數(shù)據(jù)的唯量化處理方式存在不可調和的問題。首先,算法的唯量化數(shù)據(jù)處理方式本身就是數(shù)字實證主義的一種表征,易忽視數(shù)據(jù)的歷史與語境因素,并以大量的數(shù)據(jù)相關性取代日常生活敘事,導致信息與現(xiàn)實環(huán)境的不匹配甚至是錯誤描繪。其次,數(shù)據(jù)唯量化處理容易受控于網(wǎng)絡水軍與機器人背后的商業(yè)與政治利益。以網(wǎng)絡輿論為例,輿論凸顯即是多數(shù)人意見對少數(shù)人意見的絕對壓制,而輿論事件的“可見性”往往受限于傳播媒介的可供性。在大眾傳播時代,輿論事件的傳播能力與范圍較為有限,因大眾傳播媒介的可供性不足,往往受限在特定圈層,此時大多數(shù)人意見的表達通常是以媒介機構組織為代理。而在算法參與的傳播時代,輿論“可見性”在智能媒介的可供性下跨越了不同社會圈層,而此時大多數(shù)人的意見即是評論、轉發(fā)、點贊等可視化統(tǒng)計數(shù)字。這些數(shù)字即與輿論“可見性”范圍閾值的總人數(shù)畫等號,大多數(shù)人意見即是全體意見。更進一步講,關于輿論事件的評論、轉發(fā)、點贊等具體操作及統(tǒng)計數(shù)字,往往摻雜了諸多勢力以水軍、機器人方式偽造信息以控制輿論、攫取流量。例如在2016年,有調查研究認為,在英國第二次脫歐公投中,有77000名機器人“簽署”了第二次英國退歐公投的網(wǎng)上請愿書[2]BBC,"EU Referendum Petition Hijacked by Bots",June27,2016,http://www.bbc.com/news/technology-36640459,2021年5月5日訪問。,而這些虛假數(shù)字均被納入算法的“可計算”框架內,作為一組離散事件與數(shù)據(jù)加以處理,并將此數(shù)據(jù)投喂給意見相似的用戶。很大程度上,算法的“可計算”邏輯忽視了“人的行為以及心理活動是內嵌入歷史文化的序列當中的事實”[3]Mosco Vincent.,To the Cloud:Big Data in a Turbulent World,New York,Routledge,2015,p.197,p.197.,它僅以海量、多元的數(shù)據(jù)來計算相關性,并以此來取代日常生活敘事中的歷史與具體語境,造成一種大多數(shù)假象。
正如英國學者鮑伊德(D.Boyd)和克勞福德(K.Crawford)所言,“基于算法的大數(shù)據(jù)分析建立在長期存在的神話之上,它提供了一種更高形式的智能和知識,可以產(chǎn)生以前不可能的洞察,具有真相、客觀性和準確性的光環(huán)”[4]Boyd Danah, Kate Crawford, "Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon",Information,Communication&Society,2012,15(5),pp.662-679.?!白寯?shù)據(jù)說話”即表明數(shù)據(jù)就是真實的、客觀的、可靠的。在當下的監(jiān)視文化中,這些虛假的光環(huán)表現(xiàn)在人們不斷卷入算法的“可計算”的信息產(chǎn)制模式之中,并以此對客觀世界進行記錄、認知與分享。這不僅是一種數(shù)字實證主義,更進一步講,“當下一個事件的客觀現(xiàn)實是通過基于技術基礎的數(shù)字產(chǎn)物的權證來建立的”[5]Vatrapu Ravi, Scott Robertson, Wimal Dissanayake, "Are Political Weblogs Public Spheres or Partisan Spheres?",International Reports on Socio-informatics,2008,5(1),pp.7-26.。這也意味著,在數(shù)字實證主義下的主體間公共話語領域中,事件的客觀現(xiàn)實程度取決于數(shù)字人工制品的本體論存在,因為在大多數(shù)人看來,算法本身應該是嚴格理性的,它將“數(shù)學的確定性與技術的客觀性結合在一起”[6]Seaver Nick, "Knowing Algorithms", In J.Vertesi, D.Ribes (Eds.), DigitalSTS: A field Guide for Science & Technology Studies,Princeton:Princeton University Press,2019,pp.412-422.。然而需要指出的是,數(shù)字人工制品的本體論存在建立在算法模型及其運算邏輯的基礎之上。換句話說,事件的客觀程度取決于人們所建構的算法模型及其對數(shù)據(jù)的運算邏輯。從數(shù)據(jù)與算法的關系看,似乎數(shù)據(jù)是被動的,而算法是主動的,但是數(shù)據(jù)從來不是原始的、中立的、客觀的,算法的商業(yè)化運用也從來都不是純粹的。美國學者丹尼爾·羅森伯格(D.Rosenberg)基于數(shù)據(jù)概念的歷史考察,認為隨著社會現(xiàn)代性的發(fā)展,數(shù)據(jù)這個概念是作為一種人們用來建構現(xiàn)實的修辭而存在的,“數(shù)據(jù)先于事實,同時收集和傳輸?shù)臄?shù)據(jù)可能與數(shù)據(jù)幫助我們構建的現(xiàn)實的真相或現(xiàn)實毫無關系”[1]]Rosenberg Daniel,Travis D.Williams,Raw Data Is an Oxymoron,Cambridge:MIT Press,2013,pp.15-40.。列夫·馬諾維奇(Lev Manovich)也表達了同樣的觀點,在當下的監(jiān)視文化中“數(shù)據(jù)不只是存在,而是要生成”[2]Manovich Lev,The Language of New Media, Cambridge:MIT press,2002,p.198.,需要被想象成數(shù)據(jù)才能存在和發(fā)揮作用。而對數(shù)據(jù)的想象需要一個解釋基礎,算法即是一個解釋、想象數(shù)據(jù)的關鍵所在。當然,算法中的代碼也不是純粹抽象和數(shù)學的,它具有資本及其意識形態(tài)屬性。由此可見,數(shù)據(jù)結構與算法共同塑造著數(shù)字人工產(chǎn)品的本體存在,并決定著一個事件的客觀性程度。
在所謂的后真相社會,數(shù)字化建構與情感暴漲成為人們感知媒介信息的表面邏輯,并作為一種信息產(chǎn)制模式與話語修辭的風格樣式加強了民粹主義“薄”(thin)意識形態(tài)在政治、文化生活中的擴展。具體來說,在當下的算法塑造下,公共領域除了數(shù)字外,其內核已名存實亡。公共領域的數(shù)字化轉向與情感轉向[3]Arias-Maldonado,Manuel Jesus,"Rethinking Populism in the Digital Age:Social Networks,Political Affects and Post-Truth Democracies",The 13th AECPA Congress,GT1.8,Santiago de Compostela,Spain,September 2017.在平臺算法尋求滿足大多數(shù)人的趣味時,不知不覺在信息、知識生產(chǎn)、傳播的物質性與認知性上加強了民粹主義在政治、文化(文化產(chǎn)業(yè))生活中的傳播與部署。然而民粹主義是一種“薄”意識形態(tài),并不具有全面或完整意識形態(tài)的特征。這種公共性的目標取向,將“人民”作為招牌,從而使算法傳播看起來具有合法性。特別在算法傳播時代,民粹主義在數(shù)字媒體技術的支持下具有新的表達:一是信息在生產(chǎn)、傳播的物質性上轉向了數(shù)字化,二是在信息的認知性上轉向了情感化,數(shù)字化與情感化將人們裹挾在數(shù)字泡沫中,經(jīng)過算法進一步塑造、鞏固著特定信息來源于“人民性”的合法地位。
得益于人工智能、大數(shù)據(jù)與物聯(lián)網(wǎng)的融合發(fā)展,整個人類社會活動的范圍趨向算法化、數(shù)據(jù)化與超連通性發(fā)展。這種發(fā)展傾向的技術基于各類傳感器的監(jiān)視部署、算法模型不斷優(yōu)化、計算與數(shù)據(jù)儲存能力急速擴展,其主要功能是獲取個人信息、創(chuàng)建詳細的行為描述以及向人們銷售商品信息并安排好信息議程。這在某種程度上塑造了一個科學決策的假象。曼海姆(K.Manheim)與卡普蘭(L.Kaplan)認為:“隨著這些智能技術對社會的卷入程度不斷加深,它們在帶來好處的同時,人的隱私、自治能力成為人工智能在日常經(jīng)濟和政治民主決策中的主要受害者?!盵4]Manheim Karl, Lyric Kaplan, "Artificial Intelligence: Risks to Privacy and Democracy", Yale JL & Tech., 2019, 21,pp.106.最為典型的例子是歐美國家正在經(jīng)歷的“算法轉向”的選舉,其所表現(xiàn)出的行使民主權利的過程讓我們得以看到算法的可計算信息產(chǎn)制邏輯對人們民主決策的操控能力。例如意大利五星運動黨(5SM)及其創(chuàng)建的盧梭算法數(shù)字平臺,其核心是基于“盧梭”這種新形式的算法數(shù)字通信,通過實現(xiàn)公眾意愿的直接表達,來創(chuàng)建真正的、非中介的民主,并以算法框架來做出決策。這是一個極其取悅大眾的基于算法邏輯的公民投票系統(tǒng),當不透明的算法加上極右翼的政治主張,基于算法偏見而贏得選舉的領袖人物就出現(xiàn)了,五星運動黨領導人迪·馬約爾即是通過“盧梭”投票程序成為該黨領袖的。阿里蒙特(R.D.Alimonte)對此戲稱:“他的候選人資格從根本上說是直接民主的反映,但也是算法過程的反映,這可能是盧梭算法平臺基于他看似完美的討人喜歡的表現(xiàn)所選擇的?!盵5]D'Alimonte Roberto,"How the Populists Won in Italy",Journal of Democracy,2019,30(1),pp.114-127.政治選舉中的算法轉向帶來了一種算法民主,然而對于算法模型的透明性、數(shù)據(jù)處理的復雜性仍然是不可知的,這即是在政治生活領域產(chǎn)生民主性假象的根源之一。因為基于算法模型對數(shù)據(jù)闡釋的復雜邏輯代表了科學性、中立性,而人們對此通常是盲目的信任。由此觀之,算法傳播中最大的風險就是利用這種數(shù)字技術的科學面具蒙騙民眾。帕特里?!た柛ィ≒atrici Calvo)認為:“這是當今現(xiàn)代民主最大的問題,因為設計算法模型的人無法作出造福于所有人的決定,而且并沒有考慮到窮人對這種算法平臺的可接近性,很大可能擴大了不平等。”[1]Calvo Patrici, "Democracia algorítmica: consideraciones éticas sobre la dataficación de la esfera pública", Revista del CLAD Reforma y Democracia,2019,74(1),pp.5-30.因為數(shù)據(jù)并不是原生的,而是生成的。
上述所闡述的大多數(shù)假象、客觀性假象、公共性假象、民主性假象癥候是建立在算法模型規(guī)?;c情景化的運用基礎之上的。這些現(xiàn)象實質上反映了這樣一種現(xiàn)實境況,即在當下的算法監(jiān)視下,人們默認了算法對自身數(shù)據(jù)或信息權利的占據(jù)。它實際上彰顯出在人與媒介技術之間的關系從便利性到具身性演進的同時,人對媒介的認知也從工具論轉向本體論。便利性即是人們得到相關服務的容易程度和方便程度的特性。在數(shù)字化社會,傳統(tǒng)媒介終端只收發(fā)信息的便利性已然不能滿足社會對信息密集、高效流動的需求,因此媒介終端的具身化發(fā)展成為必然趨勢。以美國當代技術哲學家唐·伊德(Don Ihde)所闡述的人-技術具身關系理論[2]唐·伊德:《讓“事物”說話:后現(xiàn)象學與技術科學》,韓連慶譯,北京大學出版社2008 年版,第56頁。觀照當下智能化媒介技術與人的關系,我們可以發(fā)現(xiàn),當下智能化媒介終端的運用愈發(fā)成為人身體的延伸,尤為重要的是這其中包括了人的意識的延伸。智能化媒介技術在融入人與環(huán)境之間交互的過程中,不僅在塑造著環(huán)境本身,而且賦予人的身體在現(xiàn)世存在之能力。我們通過小型的智能化媒介終端,僅僅以手指操控屏幕界面即可以超時空、超感官認識世界與自身。然而要獲取這種智能化媒介終端的具身性服務,我們必須提供自身的全息數(shù)據(jù),因為只有數(shù)據(jù)才能讓智能媒介終端識別我們,才能運作它們。在這個意義上,用戶需要將自身信息權利讓渡出一部分,而當下權利讓渡的邊界并不明晰,在實際過程中具有很大的操作空間,有時會極大地損害用戶的權利。
首先是隱私權的讓渡。算法在媒體領域的關鍵作用即是對采集到的海量的、多元化的數(shù)據(jù)進行與用戶潛在、此在需求的相關性計算,從而構造個性化、智能化、社交化的信息服務架構。這意味著用戶在享受算法提供的個性化、智能化信息服務時,必須要讓渡自身個人隱私數(shù)據(jù)使用權利。而讓渡的形式有時是基于服務條款的同意而進行合法化利用,但是更多的是基于cookie日志調用或是直接從儲存用戶數(shù)據(jù)的各類服務器中暴力抽取,抓取遠遠超過應用程序正常所需的數(shù)據(jù)。例如2018 年Facebook因應用程序的漏洞導致近5000萬用戶的隱私數(shù)據(jù)泄露。隱私權是公民的一項基本權利,數(shù)據(jù)隱私權作為隱私權的一種延伸在大數(shù)據(jù)時代被架空,表現(xiàn)為人們貌似愿意以“隱私通貨交換算法提供的信息服務便利”[3]王俊秀:《數(shù)據(jù)監(jiān)控、隱私終結與隱私通貨》,《探索與爭鳴》2018年第5期。。
其次是知情權的讓渡。知情權原本是指知悉、獲取信息的自由與權利。隨著大數(shù)據(jù)時代的到來,知情權內涵已延展,它表示“任何被征集信用信息的民事主體,對于所征集的個人信息以及根據(jù)這些信息所加工的征信產(chǎn)品,都享有知情權,有權知道自己被征集的信息以及所加工成的征信產(chǎn)品的具體內容和形式”[4]江作蘇、張瑞希:《“算法”在智能化場域中的沖擊性及約束探討》,《湖北社會科學》2018年第10期。。在算法的“可計算”邏輯之下,其數(shù)學模型及其規(guī)則框架是絕大多數(shù)用戶不知情、也不了解的。用戶不了解算法對自身數(shù)據(jù)的采集、過濾、推薦過程及其用途(包括非法用途)。正是在這個意義上,算法的復雜性與技術的不透明性被描述為技術黑箱,但是即便如此也并沒有能夠阻止它們被接受和用作決策代理人。
最后是自主權的讓渡。當前的新型媒介實踐正是數(shù)字技術應用的深度實踐,其結果是形成以虛擬現(xiàn)實深度嵌入真實社會結構模式。在市場經(jīng)濟環(huán)境下,平臺無須采用強制措施捆綁用戶,因為軟件使用所帶來的便捷性具有足夠的吸引力,而軟件的使用與否決定權在于用戶。這就是一種“請君入甕”模式,因為用戶除了同意讓渡個人權利以換取某種服務或便利之外別無選擇。市場上的用戶被設定為總是有機會追求自主性,而這正是平臺算法在任何時候都要實現(xiàn)的策略。自主權的讓渡很大程度上建立在知情權讓渡之上。因算法黑箱的存在,人們無法透視與了解算法對數(shù)據(jù)進行個性化過濾、推薦的具體原則和過程。個性化信息推薦就意味著算法代替?zhèn)€人來做出信息過濾、推薦的決策。因為它過濾和優(yōu)先考慮信息的功能性,使推薦結果“適合”每個用戶的個人需求,這就達成了一種實用主義正當性,意即“組織與受眾之間直接利益關系的計算”,可以歸結為交換合法性[1]Suchman Mark C., "Managing Legitimacy: Strategic and Institutional Approaches", Academy of Management Review,1995,20(3),pp.571-610.。在實用主義這個意義上,用戶接受了算法作為把關人的合法化角色。然而需要注意的是,由數(shù)據(jù)及其算法模型作為驅動力的個性化在我們這個高度個性化的社會中對于資本來說是非常有吸引力的。這就對人們的自主權帶來了一定的威脅。德國學者奈爾·舍曼(N.Thurman)與斯蒂夫·希弗爾斯(S.Schifferes)認為:“往往受資本與政治的脅迫,算法趨向于挖掘人的潛意識行為偏好,引導用戶看到符合他們原有想法和優(yōu)先事項的信息?!盵2]Thurman Neil,Steve Schifferes,"The Future of Personalization at News Websites:Lessons From a Longitudinal Study",Journalism Studies,2012,13(5-6),pp.775-790.自主權的讓渡很大程度上會形成信息繭房,造成一種算法代替人,或者算法與人共同決定的信息生態(tài)環(huán)境。希爾德布蘭特(Hildebrandt)與庫普斯(Koops)則用一種基于算法知識構建的新范式來描述這個境況,“自主智能環(huán)境將為私人和公共利益作出前所未有的決策,不加監(jiān)管會導致增加特定類型的錯誤,喪失自治權和隱私權”[3]Hildebrandt Mireille,Bert-Jaap Koops,"The Challenges of Ambient Law and Legal Protection in the Profiling Era", The Modern Law Review,2010,73(3),pp.428-460.。
權利讓渡看似是用戶一種不得已的默認行為,實則反映了當下傳播本體轉向中所面臨的一種困境與悖論。斯科特·拉什(Scott Lash)曾于2007年提出“新媒體本體論”的說法,認為伴隨著網(wǎng)絡化社會的發(fā)展,在整個社會的認知領域及其系統(tǒng)中,人類不是唯一的參與者,機器認知者也是至關重要的參與者,而且很多時候比人類更具認知性,同時人類的意識活動中的數(shù)據(jù)流大部分發(fā)生在機器之間,且具體機制不為人所察覺[4]Hayles N.Katherine, "Unfinished Work: From Cyborg to Cognisphere", Theory, Culture & Society, 2006, 23(7-8),pp.159-166.。在這種轉變中,信息以及信息技術“包含”或“構成”了當代生活方式,而不是以往認為的“中介”這種橋梁與調節(jié)作用[5]Beer David, "Power Through the Algorithm? Participatory Web Cultures and the Technological Unconscious", New Media&Society,2009,11(6),pp.985-1002.。在當下平臺傳播格局中,算法將信息及信息技術構造人類生活實踐的能力推至新高度——“無算法,不傳播”!而人在算法化生存的社會中也面臨著新困境,表現(xiàn)為一種悖論。
雖然各種算法模型的邏輯與目的都不同,但是機器學習是其原理之一,這意味著算法具有生成規(guī)則的潛力。斯科特·拉什認為:“算法的生成性規(guī)則岌岌可危,它廣泛存在于我們當下的軟件中,產(chǎn)生各種各樣現(xiàn)實的虛擬物,它們被壓縮和隱藏,在后霸權秩序的社會和文化生活中越來越普遍,是資本主義權力運作的途徑?!盵1]Lash Scott,"Power After Hegemony:Cultural Studies in Mutation?",Theory,Culture&Society,2007,24(3),pp.55-78.生成性規(guī)則讓算法具有一種存在的能力,這是具有生成性的力量,它表現(xiàn)為通過內嵌于智能化媒體終端的各類軟件中的算法模型正在日益改變日常生活的構成和生產(chǎn)[2]Dodge Martin,Rob Kitchin,"Software,Objects,and Home Space", Environment and Planning A,2009,41(6),pp.1344-1365.,其所產(chǎn)制的信息成為我們生活的一部分,有力地“幫助個體塑造什么是可能的,什么是不可能的,什么是重要的,什么是不重要的,我們正在成為什么,我們留下了什么”[3]Slack Jennifer Daryl,Stefka Hristova,"Why We Need the Concept of Algorithmic Culture", Algorithmic Culture:How Big Data and Artificial Intelligence are Transforming Everyday Life,Lexington:Lexington Books,2020,p.15.。算法從離身的工具轉型到具身的本體常態(tài)化存在,我們會發(fā)現(xiàn)算法化生存社會下的權力愈發(fā)集中在算法技術之下。在大眾歡呼由技術驅動媒體具身化的今日,我們應該看到,這種超越的背后,算法所具有的生成性的力量有被資本與政治利益異化的風險,它以“新自由主義、市場驅動的世界秩序的名義來駕馭、馴服、計算和預測生活世界”[4]Slack Jennifer Daryl,Stefka Hristova,"Why We Need the Concept of Algorithmic Culture", Algorithmic Culture:How Big Data and Artificial Intelligence are Transforming Everyday Life,Lexington:Lexington Books,2020,p.15.。它讓用戶“合理地”讓渡信息權,在邊界模糊地帶或程序后臺對用戶全息數(shù)據(jù)進行暴力的攫取,在此基礎上的精準傳播與精準塑造侵犯了人的主體性。數(shù)據(jù)取代了用戶生理與心理的表達,人在由算法排布的高密度交互圈中埋頭、主動地進行數(shù)據(jù)再生產(chǎn)。算法無節(jié)制的發(fā)展與濫用帶來的是專制,是對人的全方位的壓制。人對媒介運用的主動性和算法對人的主體性的壓制即是悖論所在。
數(shù)據(jù)關系(以數(shù)據(jù)來組織社會生活和體現(xiàn)社會關系成為平臺傳播時代傳播的新型關系),改變了以往傳播關系是傳播主體間對符號意義的揣摩[5]威爾伯·施拉姆、威廉·波特:《傳播學概論》第2版,何道寬譯,中國人民大學出版社2010年版,第4頁。,算法對數(shù)據(jù)模糊、不透明的量化過程取代了對符號意義定性的遐想。信息的推送成為平臺傳播的邏輯終點,也成為平臺傳播時代傳播的本體,改變了以往傳播是信息的共享、交流的本體觀。
算法參與傳播的“可計算”邏輯帶來了更個性化的社交媒體體驗,更具針對性的政治話語,以及越來越多地通過算法交易和大數(shù)據(jù)引導的經(jīng)濟與文化活動實踐樣式[6]Zook Matthew A, Joe Blankenship, "New Spaces of Disruption? The Failures of Bitcoin and the Rhetorical Power of Algorithmic Governance",Geoforum,2018,96,pp.248-255.,這是社會現(xiàn)代性不斷發(fā)展的結果,也是一種技術選擇的結果。在平臺傳播時代,傳播本體已然發(fā)生變質,算法“可計算”邏輯及其“數(shù)據(jù)關系”對當下整個傳播生態(tài)既帶來了新的生產(chǎn)力與新的生產(chǎn)關系,也帶來了風險與挑戰(zhàn)。信息個性化推送的傳播目的意味著內容匹配與節(jié)點鏈接、互動的效率比內容本身更有價值,算法黑箱與流量市場、政治的合謀易滋生虛假信息,這期間還將伴隨著“數(shù)據(jù)關系”對人主體性侵蝕引發(fā)的道德倫理、法律問題。
本文強調構建平臺傳播體系的“陽光法案”,以促進平臺傳播生態(tài)走向健康發(fā)展之路。它以尊重各方的切實利益為基礎,承認算法是各方利益的代理人角色,而在規(guī)制的主體上仍是以國家意志為主,多方協(xié)同治理為基礎。所謂“陽光法案”即是以安全釋放平臺傳播中的算法生產(chǎn)力為目標,為此要明晰算法有序、合理透明的邊界,倡導文化細節(jié)即是技術細節(jié)的理念。
算法的透明度一直是算法治理研究中的熱點話題。算法模型的技術性門檻對于普通用戶的可理解性與可見性屏蔽被視為“黑箱”,它涉及對數(shù)據(jù)的采集、分析、分發(fā)的技術性機制。因算法黑箱不僅隱藏了算法編碼規(guī)則制定的價值和特權,也表示“通過代碼、實踐和規(guī)范的集合,以最低限度的可觀察、半自治的行動來創(chuàng)建、維持和表示人與數(shù)據(jù)之間的關系”[1]Ananny Mike, "Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness", Science,Technology,&Human Values,2016,41(1),pp.93-117.。算法黑箱的隱喻將批判的矛頭指向了算法自動化決策的所謂公平性、民主性。人們呼吁相關利益方披露算法模型的具體機制,保障人們對算法平臺的可追責性與用戶對信息的知情權。當然,我們對此仍需要辯證看待,并不是所有的算法透明均可帶來算法化生存下的公平與民主。
首先,平臺傳播中的算法模型既有公共產(chǎn)品屬性也有知識產(chǎn)權的法人屬性。例如諸多網(wǎng)絡信息提供商以知識產(chǎn)權屬于核心競爭力為由拒絕披露算法。同時,應用于諸多公共利益方的算法,例如搜索引擎、平臺新聞排序等,相關算法的披露會導致個性化信息推薦被操控,用戶自身隱私也會受到損害。因此在算法透明原則下,須以尊重各方的切實利益為基礎,一方面構建一個適應多場景、靈活性強的透明規(guī)則,另一方面倡導算法的“可解釋性”。美國公共政策委員會在2017年1月發(fā)布的《算法透明性和可問責性聲明》中提出了七項基本原則,其中一項即為“解釋”,“希望鼓勵使用算法決策的系統(tǒng)和機構,對算法的過程和特定的決策提供解釋,尤其在公共政策領域”[2]魏強、陸平:《人工智能算法面臨倫理困境》,《互聯(lián)網(wǎng)經(jīng)濟》2018年第5期。。
其次,在廣泛的在線或離線的智能數(shù)字化媒體終端所構成的監(jiān)視網(wǎng)絡中,算法攫取數(shù)據(jù)去建構可被量化、分類和監(jiān)控的社會規(guī)范行為是不透明、模糊且未被納入監(jiān)管之中的。而算法監(jiān)控邊界的模糊正是平臺傳播時代政府、企業(yè)、用戶之間權力范圍的重組表現(xiàn),政府作為外部監(jiān)管者的身份在數(shù)據(jù)控制上被削弱,而以利益最大化為追求的平臺依據(jù)海量數(shù)據(jù),貌似擁有了公共性管理的權力[3]易前良:《平臺中心化:網(wǎng)絡傳播形態(tài)變遷中的權力聚集——兼論互聯(lián)網(wǎng)賦權研究的“平臺”視角》,《現(xiàn)代傳播(中國傳媒大學學報)》2019年第9期。。所以在監(jiān)管的邊界需要國家意志的強勢介入,在相應的法律、法規(guī)框架內達成一致。具體來說,須明確平臺傳播中的算法模型對數(shù)據(jù)再生產(chǎn)結構運作的法律主體及權利、義務、責任的邊界。
“無算法,不傳播”的前提是“無數(shù)據(jù),不算法”。平臺傳播時代,數(shù)據(jù)關系成為傳播的新型關系,它以數(shù)據(jù)取代傳播主體的生理、社會屬性表達,傳播的主體在交互中被隱匿。在資本的異化下,伴隨著數(shù)字實證主義的擴張,人被沉降為生物性的物種而存在。因此針對平臺傳播生態(tài)的治理,須要強調文化細節(jié),意即“以經(jīng)驗的方式檢查環(huán)境——社會、文化、政治、經(jīng)濟、法律、制度等等——在這些環(huán)境中,算法被開發(fā)出來”[4]Seaver Nick,"Knowing algorithms", In J.Vertesi, D.Ribes (Eds.), DigitalSTS: A field guide for science & technology studies,Princeton:Princeton University Press,2019,pp.412-422.。一方面要針對平臺傳播的技術性人員開展跨學科、跨領域的人工智能倫理教育,建立算法模型處理數(shù)據(jù)的道德倫理規(guī)范,開發(fā)者需要知曉并告知用戶算法模型應用的道德倫理風險,確保算法符合社會的倫理道德標準;另一方面加強公眾的算法素養(yǎng)教育。算法素養(yǎng)的培育需要算法開發(fā)者、人文社會學者、用戶自身三者協(xié)力合作,除了算法開發(fā)者對算法模型的“可解釋性”與“可理解性”負責外,還應提升算法推薦模型對工程師與社會科學家開放的空間,共同批判性地參與算法系統(tǒng),使算法得到“技術”和“文化”的關注,以此在更廣泛的社會背景中跨越相關制度設置,向外界傳達算法工作機制的社會文化意涵。