鐘書平?劉慶振?牛媛媛?陳疆猛
【內容摘要】算法作為智能媒體時代的一種新型權力,正在解構和重構媒體傳播領域的版圖與秩序。算法接管了大量的媒體工作,給媒體從業(yè)者帶來的是機會還是威脅?算法參與信息生產、傳播和消費的決策過程,會不會像人類一樣存在種種偏見和歧視?算法解決了數(shù)據(jù)挖掘過程中的很多問題,但又給用戶的隱私保護帶來了哪些難題?算法是否強化了“信息繭房”現(xiàn)象?這一系列的問題需要我們在理性地用好算法技術的同時,增加一些人文關懷。
【關鍵詞】智能媒體;算法;大數(shù)據(jù);隱私
算法正在我們的日常生活、工作、學習、社交等活動中發(fā)揮著越來越重要的作用,它逐漸地成為我們與信息、數(shù)據(jù)、知識、內容等比特化的世界進行互動的中介,越來越多的傳播媒介在基本完成了數(shù)字化、數(shù)據(jù)化的工作之后快速邁入了算法化的新階段。在這樣的語境下,媒介進化歷史也從數(shù)字媒體時代過渡到了智能媒體時代:諸如亞馬遜、京東這樣的電商網站不斷地積累著我們每個人的消費數(shù)據(jù),并在此基礎上分析我們的偏好特點,從而使得它的推薦更加符合我們的興趣口味;諸如華為、三星這樣的手機硬件能夠借助機器學習提升對我們每個人所處的不同場景和不同狀態(tài)的判斷;諸如頭條、抖音這樣的內容平臺則將為我們匹配個性化新聞、資訊和娛樂的絕大部分任務讓渡給了算法,而不是人工編輯;在交通、治安、教育、醫(yī)療等越來越多的領域,算法已經成為不可或缺的重要工具……當然,這樣也并不意味著算法是萬能的。算法不可能處理所有的事情,而且,算法在處理很多問題的時候,也常常需要一定時間周期甚至不間斷地學習,并且在出現(xiàn)各類問題的時候接受人工糾錯機制的介入。
一、算法接管工作:通往自由之路?
智能媒體時代的典型特征就是算法逐漸接管原來屬于人類的大量基礎性工作和程序化勞動,在數(shù)據(jù)的收集、新聞的寫作、內容的排版、影像的后期、圖書的推薦、資訊的分發(fā)、廣告的投放等越來越多的媒體環(huán)節(jié),甚至在電影配樂、AI換臉①、新聞播報、節(jié)目主持②等方面,也都越來越自動化、智能化和算法化,這意味著原本由人類從事的大量媒體類工作崗位在未來會被機器或算法取代,從而釋放出大量的自由勞動力和自由時間。人們通常會認為,有相當大量的媒體工作需要人類的智力參與才能完成,但在今天的智能媒體視角下來看,恰恰相反,有相當大量的媒體工作壓根并不需要人類智力參與,事實上,人工智能完全能夠勝任。在技術加速變革和資金大力投入的前提下,更加高效、更加精準、更具現(xiàn)實解決能力的算法被研發(fā)出來并投入到了媒體產業(yè)的實踐應用中去。其好處在于這些智能媒體工具能夠客觀地按照算法設定的要求去完成相應的工作,從而把人類從無聊、枯燥、乏味的勞動中解放出來,但問題在于這樣做的同時也在很大程度上給被解放出來的人工造成了較大的就業(yè)壓力和經濟危機。對于這一點,現(xiàn)代西方著名經濟學家約翰·梅納德·凱恩斯(1930)在題為《我們后輩的經濟問題》的文章中創(chuàng)造性地提出了“技術性失業(yè)”(Technological Unemployment)的概念,這意味著,在采用越來越自動化和智能化的人工智能和算法工具的產業(yè)領域中所產生的更多失業(yè)現(xiàn)象是由技術的應用造成的,“是由于我們發(fā)現(xiàn)節(jié)省勞力的新方式的速度超過了我們發(fā)現(xiàn)勞力新用途的速度?!雹?/p>
如果某一項媒體工作無論在智力投入方面還是在情感投入方面的要求都不算太高,那么從事這份工作的人員就會非常容易被算法所取代。“在新的算法社會,計算機科學家與數(shù)學家將在文化決策方面發(fā)揮越來越重要的作用……最終可能實現(xiàn)幾代技術烏托邦主義者夢寐以求的目標:‘每周工作20小時,50歲退休’”④(盧克·多梅爾,2016)。這一方面意味著人們將擁有更多的時間和精力去思考文化、創(chuàng)造娛樂和關注生活,就像奧斯卡·王爾德(1891)所說的那樣,“希臘人的觀點是正確的。如果沒有奴隸去完成那些臟活兒、累活兒、不體面的活兒,文化與思考就無從談起。以人為奴隸是不合適、不安全的,也是不道德的。未來世界依靠的是機器奴隸,即把機器變成我們的奴隸?!雹萑缃瘢覀冇袡C會把這些所謂的臟活兒、累活兒、不體面的活兒、枯燥無聊的活兒一股腦兒地交給“算法奴隸”來完成,從而騰出更多的時間去體味文化、創(chuàng)造文明了。然而另一方面,大多數(shù)被“算法奴隸”所取代的人類勞動者卻陷入到了另一個尷尬的困境之中:他們賴以維持生存和生活的經濟收入將從什么地方獲得?畢竟被算法替換掉的大量勞動者是依賴一份工作而獲得經濟收入的,這種建立在工業(yè)時代的生產消費模式如果被算法時代的新思維和新工具摧毀,可能導致的嚴重后果就是那些看上去被解放為自由勞動力的人,有可能恰恰會因此被切斷經濟來源從而成為最不自由的人。
如果媒體不再需要廣告設計師、視頻剪輯師、圖文編輯人員,未來這方面的勞動者就會大量減少,但問題在于目前正在從事這些工作的人被排擠出現(xiàn)有工作崗位之后將怎樣快速完成他們的職業(yè)轉型呢?表面上看這僅僅只是一部分人的就業(yè)問題,但更深層次的問題在于如果越來越多的人被“算法奴隸”或者智能工具排擠出就業(yè)市場,我們要想生存下去,就必須對我們這個社會“目前賴以存在的但是已經過時的運營模式進行改革”⑥(Levitt,1960),必須對建立在工業(yè)經濟基礎之上的社會文化、生活方式和管理體制進行根本性的變革。而這樣的變革過程卻是相當漫長的,對于那些目前已經遭受或者即將遭受新的算法技術沖擊的勞動者而言,沒有誰有耐力和經濟能力經歷漫長的等待,就像凱恩斯(1923)在《貨幣改革論》中所說的那句經典名言一樣:“長遠是對當前事務錯誤的指導。從長遠看,我們都已經死了?!笔聦嵣希瑥拈L遠看,誰都不清楚算法進化的未來究竟會是一個理想國還是一個烏托邦,或者也有可能是地獄。如果幾百年后的人們利用算法獲得了真正的自由,那么是否值得我們犧牲當前正在遭受算法沖擊的大量勞動者的生存權利和發(fā)展權利來為后人的自由鋪路?事實上,解決自由悖論的鑰匙并不完全掌握在數(shù)據(jù)科學家、軟件工程師和算法設計員的手中,他們無論在職業(yè)層面還是在倫理層面的出發(fā)點都是要把人類從沉重、枯燥的勞動中拯救出來。但由此造成的問題則更多地需要勞動者自身去承受,并需要算法的使用者和社會的管理者綜合考量所有的可能因素來保障勞動者的生存要么免受算法的挑戰(zhàn),要么能夠在受到沖擊之后幫助他們找到更合適的工作。我們如何設計、使用和管理這些功能日益強大的算法,如何在機器奴隸和人類勞動之間尋找到某種平衡,將會直接影響到未來包括傳媒產業(yè)在內的所有經濟領域的本質,也將會直接決定未來的社會結構和社會形態(tài)最終會沿著什么樣的路徑發(fā)展下去。
二、算法參與決策:通往公正之路?
在現(xiàn)代社會,大數(shù)據(jù)和算法結合已經顛覆了傳統(tǒng)的決策方式⑦(Sch?nberger, Cukier, 2013)。對于幾乎99%以上的普通用戶而言,盡管算法給了人們以客觀公正的感覺,但實際上大家并不知道在算法的“黑盒子”里面究竟發(fā)生了什么,更不知道依賴算法作出的各種各樣的選擇和決策是否完全正確可靠。事實上,期待算法做到百分之百的公正這種想法本身就有些天真,例如,丁曉東(2017)曾選取了“Grutter案”“Gratsz案”和“Bakke案”等幾個典型的美國教育平權案來分析討論美國學校招生政策中算法的合理性,研究發(fā)現(xiàn)“算法并非一種完全價值中立的活動,算法總是隱含了價值判斷”⑧。再如,與面部識別相關的算法對男性的識別率要高于女性、對黑人的識別率要高于白人,與就業(yè)求職相關的算法向男性推薦的工作崗位整體工資要高于向女性推薦的崗位,與信息資訊相關的算法向受教育水平低的用戶群體推送的內容在質量和格調上都存在一些問題,與商品購物相關的算法會選擇向那些較少購買奢侈品的用戶發(fā)假貨……越來越多的案例提醒我們一個已經非常明顯的事實:算法并不像我們想象中的那樣客觀公正?!白詈诵牡膯栴}仍然要歸結于算法所承諾的虛無縹緲的客觀性……我們過于擔心人類的偏見與自相矛盾,同時又過于相信計算機的公正性。我們的錯誤在于我們信任算法,但事實上這些算法都是人編寫出來的,人們可以把所有的偏見與觀點植入其中”⑨(盧克·多梅爾,2016)。人類本身就是一種時常帶有偏見性的動物,這一點是顯而易見的,我們的偏見會影響我們的決策,也會影響我們對于算法的開發(fā)和應用,這一點也是毋庸置疑的。
但即便如此,《哈佛商業(yè)評論》的一篇文章仍然堅持認為如果你不想被偏見左右,那么算法依然是一個較好的選擇。作者 Alex P. Miller⑩(2018)認為,我們在指責算法可能帶來嚴重的不公平問題時,忽略了一些重要的因素,比如,算法的使用者可能不理解概率或置信區(qū)間(即使已經注明),并且在實際操作中可能也不愿去推翻算法的決定(即便這在技術上是完全可行的)。這也就是說,算法本身并沒有向任何用戶承諾自己完全公正、不會出錯,只是人們自己覺得它是公正客觀的;進一步地說,人們即使也意識到了或者接觸到了算法在參與決策過程中存在的問題,但這些決策所造成的負面影響并不明顯,因此也就不愿去推翻算法的決定。所以,Alex提醒我們與其把目光聚焦在這些不知是否真正公正的算法選項上而忽略了我們想要解決的真正問題是什么,不如好好考慮如何將人類和機器的優(yōu)勢相結合, 以便創(chuàng)造出更好的、偏見更少的決策工具。如果我們認真地觀察和思考目前流行的對于算法偏見的大量指責,就會發(fā)現(xiàn)一個非常有意思的現(xiàn)象:盡管表面上看這些批評的矛頭都指向了算法,但更本質的問題其實在于偏見?!岸鄶?shù)對于不公正的偏見的批評并不是反算法的,他們更多針對的是偏見,他們并不是真的憎恨算法”(Rachel Thomas,2018)。在這個角度來看,解決算法偏見問題的路徑將會從過去孤注一擲地聚焦于打造一種完美、公正和客觀的算法轉變?yōu)閮煞N比較切實可行的策略:一是不斷地優(yōu)化和改進現(xiàn)有的算法本身,使其能夠不斷地向公正客觀的理想狀態(tài)邁進;二是在算法之外尋找預防和應對可能出現(xiàn)的偏見的方法,“因為在所有案例中,算法都有人的參與,尤其是在搜集數(shù)據(jù)、制定決策、實現(xiàn)方式、解讀結果及因人而異的理解等方面,都會受到人為干預?!蓖ㄟ^什么樣的方式避免這種人為干預過程中可能產生的不公正問題,或許要比單純關注算法本身來得更有價值。
人類存在偏見,算法同樣存在偏見,而算法的偏見則更多的是人類偏見在算法世界中的另外一種寫照,計算機也好,軟件程序也好,復雜算法也好,都“只不過是一個使用了很多語法規(guī)則、速度很快的符號轉換機,機器缺少生物大腦擁有的東西——解釋語義的能力”(約翰·馬爾科夫,2015)。因此,算法世界存在的偏見問題本質仍然是人類社會自身的問題,而不是算法規(guī)則的問題。算法可以讀取數(shù)據(jù)并產出數(shù)據(jù),但這并不意味著它真的理解了那些數(shù)據(jù)之于現(xiàn)實社會的意義,它也無法真正理解皮膚的顏色、經濟的收入、職業(yè)的區(qū)分以及說話的語氣等具體內容所暗含的敏感信息,它更不會在意它所輸出的結果乃至結論是否會引發(fā)一場輿論爭端或現(xiàn)實沖突。所以解鈴還須系鈴人,算法偏見的解決最終要寄希望于開發(fā)、使用和管理它的人。這樣看來,人機結合或許是一個不錯的方案,理想的狀態(tài)應該是這樣的:當算法在參與決策的時候,利用神經網絡、人工智能、機器學習等工具將能夠推理出人類的對話,并據(jù)此判斷哪些問題可以直接幫助人類直接執(zhí)行任務,而哪些問題的處理權和決策權應該歸還給人類讓他們自己解決。這樣,我們就重新回到了沒有算法在場的老問題:怎樣確保人類自己作出的決策是不帶偏見的?而事實上,人類并沒有發(fā)明出一套完美的游戲機制和社會規(guī)則來保證這一點,這也就難怪很多人在談及算法偏見的時候會抱有“比人類強點就行了”的態(tài)度。在任何一個現(xiàn)代社會中,人們都不希望看到偏見的存在;但同樣在任何一個現(xiàn)代社會中,偏見卻隨處可見?;蛟S,從更長遠的時間來看,我們依然要寄希望于算法來減少偏見、促進公正。畢竟,只要我們確定的規(guī)則是合理的、公正的、無懈可擊的,那么算法就會嚴格的按照程序遵循并執(zhí)行它,“算法的尊重性,并不僅體現(xiàn)對那些強勢群體算法使用者的尊重,而更需要的是對弱勢群體算法使用者的包容和理解,即算法不因身份、地位、財富、性別等不同有任何區(qū)別?!痹谶@一點上,人卻未必能做到。
三、算法窺見隱私:通往透明之路?
英國哲學家杰里米·邊沁(1875)設計了這樣一種“圓形監(jiān)獄”:在其中,每一個囚徒的所有行為動作對于監(jiān)視者而言都是可見的,但監(jiān)視者的任何心理、表情和動作對于囚徒們而言則是無從得知的,他們甚至在根本上不知道監(jiān)視者的存在。法國哲學家米歇爾·福柯(1977)在其著名的《規(guī)訓與懲罰》一書中使用了“全景監(jiān)獄”的概念來表達了與邊沁類似的意思,但在這里囚徒們在一定程度上是意識到監(jiān)視者的存在的。無論何種說法,囚徒們所處的環(huán)境對于監(jiān)視者而言都是透明的,他們能夠清晰地掌握囚徒們的一舉一動。在當前的信息社會,每位用戶在數(shù)字終端上的瀏覽痕跡、跳轉路徑、消費記錄以及其他各種動作都被以不同的形式存儲和保存了下來,構成了所謂的大數(shù)據(jù)的一部分。這其中絕大部分數(shù)據(jù)是無意義無價值的,它們根本不會被誰注意到就淹沒在了浩浩蕩蕩的數(shù)據(jù)洪流之中;但是越來越多的機構,無論是出于商業(yè)目的還是政治目的,正在開發(fā)各種各樣的算法激活大數(shù)據(jù)中所蘊含的巨大價值。借助算法,我們在大數(shù)據(jù)的海洋中淘洗到了美麗的貝殼,甚至還發(fā)現(xiàn)了閃閃發(fā)光的珍珠,那就是數(shù)據(jù)中所蘊含的關于用戶個人的基本情況、興趣偏好、價值觀念、消費需求乃至政治傾向等有助于對用戶行為進行預測、引導和施加影響的重要信息。例如,2018年3月引起全球互聯(lián)網用戶極大關注的“臉書數(shù)據(jù)門”事件,事件的主角“劍橋分析”公司就涉嫌竊取超過5000萬臉書用戶的個人數(shù)據(jù),并在此基礎上利用數(shù)據(jù)挖掘工具和算法推薦系統(tǒng)來操縱美國大選及英國脫歐的投票。
盡管我們不能認定是算法操縱甚至決定了某些重大的公民決策行為,也無法給出算法對公民的政治理念和投票行為究竟產生了多大程度的影響,但有一點是明確的:算法能夠從我們遺留在網絡上的數(shù)字蹤跡中挖掘出更豐富的具體到每一位用戶的各類信息以服務于其商業(yè)目的或者其他目的,這其中當然包括大量的用戶隱私。在這種數(shù)據(jù)可以被實時收集、存儲和挖掘的語境下,波斯特從??碌摹叭氨O(jiān)獄”出發(fā),指出了“今天的傳播環(huán)路以及它們產生的數(shù)據(jù)庫,構成了一座超級全景監(jiān)獄,一套沒有圍墻、窗子、塔樓和獄卒的監(jiān)督系統(tǒng)”(波斯特,2000)。我們每個人則成為這個超級全景監(jiān)獄中的“囚徒”,盡管其中的絕大多數(shù)人并沒有時時刻刻自發(fā)地感知到這種“監(jiān)視”,當然,監(jiān)視也不是時時刻刻都存在。但這種由數(shù)據(jù)、算法和傳播權力編織起來的監(jiān)視與被監(jiān)視、傳播與被傳播、操縱與被操縱的虛擬關系確實產生著相應的影響??陀^而論,直到目前為止,每年都有層出不窮的數(shù)據(jù)泄露事件和隱私侵權事件,但用戶仍然并不知道自己的隱私會如何被侵犯,被侵犯到何種程度,因為數(shù)據(jù)和隱私這樣的概念對用戶而言太抽象了,除非有具體的且惡劣的行為嚴重傷害到了他們,否則他們就會覺得無關痛癢,更何況,“他們與那些掌握并利用甚至可能出賣他們的隱私數(shù)據(jù)的公司之間,天然是不平等的。在缺乏對自己數(shù)據(jù)的知情能力的情況下,隱私保護也就無從談起”(彭蘭,2018)。
但或許我們也不能因此而徹底悲觀甚至陷入絕望,情況可能沒有我們想象的那么糟糕,甚至還有可能是很多悲觀主義的研究者杞人憂天般地多慮了。比如《福布斯》雜志曾經就專門針對隱私這件事情撰文指出,“小孩子就是不在乎,或者不理解老一代人所指的‘隱私’一詞的意思……70%的千禧代人說沒有人有權接近他們的數(shù)據(jù)或線上行為;但51%的說,如果能被告知,他們愿意共享信息”(安德魯,2016)。Liana Brüseke(2016)就千禧一代和嬰兒潮一代對在線購物行為中的隱私認知情況進行的對比研究中也在一定程度上支持了上述說法,不同世代的人群對待數(shù)字世界中的隱私問題持有不同的態(tài)度和觀點。當然,年輕人對個人數(shù)據(jù)和隱私持有更加開放和樂觀的態(tài)度是完全可以理解的,他們是信息時代的互聯(lián)網原住民,他們更容易認可和支持數(shù)據(jù)共享行為,他們也還沒有受到過太多因為隱私泄露而產生的各種困擾,而且,任何一個國家、任何一個時代的年輕群體總是相對于年老群體對新出現(xiàn)的事物和問題保持激進態(tài)度。但這也并不一定就意味著年輕人一點兒都不關心他們的數(shù)據(jù)安全和隱私風險,例如Brien(2011)等人的研究就發(fā)現(xiàn)其實聰明的千禧一代非常清楚社交網站中的低隱私設置所存在的風險,并主動采取了一些保護措施以防自己信息的泄露。更何況,隨著年齡的逐漸增長,很多年輕人不怎么關注隱私問題的狀況還極有可能發(fā)生根本性的變化,誰會真的希望在看似匿名、自主、安全的網絡環(huán)境背后有一雙甚至無數(shù)雙眼睛盯著自己看呢?互聯(lián)網領域一直引以為豪的共享思維和共享技術塑造了年青一代的思想和行為,使得他們更愿意分享從經驗到知識、從數(shù)字產品到實體產品等所有非獨占性的東西,但這不是說他們愿意分享所有的一切,或許他們縮小了自己所認為的隱私應該涉及到的范圍,但他們肯定不會放棄隱私權。“數(shù)字化技術能使隱私侵犯更加絕對化,結果它威脅,甚至破壞了我們大家晚上帶回家的‘真正的自我’。在持續(xù)不斷的監(jiān)控下,我們的行為不像是我們自己的,我們有時甚至不是自己,我們會盡力掩飾自己,希望避免超級牢固的刺網的監(jiān)視”(安德魯,2016)?,F(xiàn)在,這種監(jiān)視、誘導以及操控行為正在把并非真正我們需要的信息和商品推送給我們,正在從更深層次改變我們對世界的認知、態(tài)度乃至行為,因為它看見了我們,于是它能預測、影響甚至改變我們的想法和做法。而我們中的大多數(shù),卻看不見、聽不到也感知不著它的存在。
四、算法改造視野:通往多元之路?
“算法對人是有目的傾向性的。例如,在決策支持系統(tǒng)中的算法,即通過某些預定的標準對一組備選動作進行排序來幫助決策者做出更好的決策。雖然算法在設計的階段不會對人產生影響,但是在算法設計剛開始時就已經負載價值,只不過價值要在算法的應用階段實現(xiàn)”(郭林生,2018)。這種傾向性表現(xiàn)在今天的新聞傳播領域就是根據(jù)用戶的個人興趣偏好向他們進行個性化的商品、廣告、資訊和娛樂推薦。隨著越來越多的互聯(lián)網企業(yè)將這種個性化算法推薦的方式應用到為用戶提供信息服務的不同場景之中,用戶也越來越明顯地感覺到算法的無處不在,他們在算法提供的各種選項之中汲取信息、數(shù)據(jù)、內容、知識乃至智慧,但隨之而來的除了表面的繁華熱鬧,還有很多更深層次的困擾和擔憂,最典型的就是對“信息繭房”“算法壟斷”的討論?!斑@種個人日報式的信息選擇行為會導致‘信息繭房’的形成。長期處于過度的自主選擇中,失去了解不同事物的能力和接觸機會,不知不覺間為自己制造了一個‘信息繭房’”(喻國明,2016)。事實上,算法推薦所造成的“信息繭房”問題的確是客觀存在而且是不容忽視的,例如,今日頭條曾經在一段時間以非常高的頻率向用戶推薦某一話題、某一人物、某一時間或某一類型相關的資訊,這在很大程度上造成了用戶的不良體驗和強烈反感。在一定程度上,這是一種用戶能夠感知到的“信息繭房”正在形成的過程,這個過程引起了用戶的不適、抗拒乃至沖突,因為這種頻率和密度帶來了某種壓抑感甚至窒息感。事實上,這只不過是推薦算法在其初級階段的拙劣表現(xiàn),更優(yōu)秀的算法已經能夠做到根據(jù)對用戶實時數(shù)據(jù)的分析向他推薦更符合他所在場景的個性化信息而不致引起用戶反感,但這并無法改變“信息繭房”的本質,而是進一步強化了“我所看到的都是我想看到的”這一現(xiàn)象,而那些不想看到的都已經在達到用戶之前就被算法屏蔽在所有可選項之外了,用戶需要做的只是從眾多想要看的內容中選擇此時最想看的那個選項而已。
長此以往,“這種‘信息繭房’導致的信息偏食往往使人局限在個體以及相似群體的行為活動中”(王秋旭,2015),還會“使個體獨立選擇與思考的空間不斷縮小,個體在算法推薦的滲透下逐漸失去自我的決斷權,這種信息偏向使受眾的視野逐漸變得狹窄,逐漸成為信息時代的井底之蛙”(陳昌鳳、張心蔚,2017)。當一個人長期沉浸在算法為自己打造的媒介環(huán)境中時,他對那些與自己價值觀和興趣點不一致的多樣化的信息就會接觸得越來越少,這有可能導致他不情愿或者根本沒有辦法主動走出“信息舒適區(qū)”,從而進一步禁錮了自己的視野,束縛了自身的成長。事實上,與“信息繭房”類似的問題由來已久,早在19世紀,法國思想家阿歷克西·德·托克維爾(1840)就在其風靡至今的社會學巨著《論美國的民主》中提到過類似的觀點,他的發(fā)現(xiàn)是民主社會更易于促進個人主義文化的滋生、形成和發(fā)展。哈佛大學法學院教授桑斯坦(2003)在《網絡共和國》一書中發(fā)展了這一觀點,并直接指出了網絡時代的信息爆炸看似給用戶帶來了更多的資訊和更民主的選擇,但實際上它蘊含著對多樣化生態(tài)和民主化選擇的巨大破壞力量,從而失去了接觸和了解不同事物的能力和動力。但也有另外的觀點認為,“信息繭房”是一種必然現(xiàn)象,過分擔心它可能對信息生態(tài)的多樣性造成巨大破壞,這件事是沒有太大必要的,因為一直以來用戶都是處在“信息繭房”之中的,而不是直到推薦算法出現(xiàn)之后才這樣的。在傳統(tǒng)媒體背景下,用戶是通過自主瀏覽報紙、電視和廣播的方式來選擇自己想獲取的信息;在PC互聯(lián)網環(huán)境下,用戶是借助搜索引擎這樣的工具來篩選和過濾他所查找的信息和商品;在移動互聯(lián)網場景下,用戶則利用人工智能、深度學習、數(shù)據(jù)挖掘等技術塑造的推薦系統(tǒng)來獲取相應的內容產品。盡管表面上看,隨著媒介的不斷進化,用戶的主觀能動性和選擇多樣性變得越來越低,但直到目前并沒有客觀可靠的數(shù)據(jù)來支撐這樣的論斷。
無論是傳統(tǒng)大眾媒體時代,還是PC互聯(lián)網、移動互聯(lián)網時代,用戶所獲取到的信息,都在很大程度上受到了“算法”的左右,只不過不同的媒介技術語境下的“算法”各不相同罷了。大眾傳播時代的編輯分發(fā)算法,更多地是基于編輯作為“把關人”對什么樣的信息應該呈現(xiàn)在受眾面前進行一種經驗主義的主觀“計算”或判斷,從而把他們認為受眾適合看到的信息通過報紙、電視等方式“推薦”給了受眾;PC互聯(lián)網則是利用搜索引擎的排序算法把它認為最符合用戶輸入的那個關鍵詞的信息以優(yōu)先劣后的方式“推薦”給用戶;移動應用場景下的各類App因為能夠采集和挖掘更多樣化的用戶數(shù)據(jù),因此能夠結合大數(shù)據(jù)技術、人工智能技術和機器學習技術不斷優(yōu)化其推薦系統(tǒng),以向用戶匹配更符合具體場景下的信息給他們。所以,媒體編輯分發(fā)、搜索引擎分發(fā)和推薦引擎分發(fā)三種信息分發(fā)方式雖然其“算法”有所不同,但它們的本質都是相同的——為用戶過濾掉那些與他們無關的或者他們不感興趣的信息。在這個意義上,凡是媒體都會形成“信息繭房”。更進一步地,對于用戶而言,媒體編輯個人的判斷標準是一種“信息繭房”,搜索引擎的排序算法是一種“信息繭房”,推薦系統(tǒng)的推薦規(guī)則也是一種“信息繭房”,而更難以沖破的“信息繭房”則是用戶個人的世界觀、價值觀、人生觀,是“三觀”決定了用戶會在媒體編輯分發(fā)、搜索引擎分發(fā)和推薦系統(tǒng)分發(fā)之后的所有信息選項中選擇閱讀或消費什么樣的信息產品。在一定意義上,不同的媒體進化階段和信息分發(fā)模式之間的確存在較大的思維方式和操作方法的差異,但在“信息繭房”這個視角下,并不意味著編輯分發(fā)時代用戶獲取信息和消費信息的多樣性就高于移動互聯(lián)網時代,而由于移動互聯(lián)網賦予了信息快速擴散和網絡化傳播的可能性,它反而使得海量用戶能夠有機會在較短的時間內獲取到一些在大眾媒體時代被“把關人”過濾掉的重要信息,這在一定程度上也增加了信息來源、輿論觀點和價值選擇的多樣性。目前來看,沖破“信息繭房”的關鍵有兩點:一是從當前的各類算法著手,根據(jù)對用戶數(shù)據(jù)的挖掘和洞察,在“用戶真正需要什么信息”和“用戶此時想要什么信息”之間進行綜合平衡,提升算法推薦選項的多樣化,“媒體算法追求信息的精準分享,這樣的設計理念并沒錯,前提是信息分享的方式是構建個體化的信息分享模式還是構建多樣化的信息分享模式”(劉海明,2019)。二是激發(fā)用戶在信息選擇方面的主觀能動性,主動走出“信息舒適區(qū)”,明確自己真正需要什么樣的信息,利用不同方式來獲取不同的信息,而不是單純地依賴某一類媒體、某一款應用或者某一種算法。
五、智能媒體中的算法權力與人文關懷
媒體的智能化和算法化是一種巨大的力量,它給傳媒產業(yè)和傳播研究帶來了源源不斷的紅利,但它也給當前處在轉型中的媒體傳播領域和中國當下的文化、經濟、社會乃至政治造成了諸多的難題。無論是機遇還是挑戰(zhàn),都強烈地沖擊著現(xiàn)有的信息生產模式、內容消費方式、生活工作狀態(tài)、傳播倫理觀念和社會管理制度?,F(xiàn)實的情況是,面對已經來臨的智能媒體社會,我們唯一的選擇只能是接受它、擁抱它、完善它和成就它。顯然,媒介的演化過程是不可逆的,幾乎很少有人會從內心真正愿意重新回到只有傳統(tǒng)四類大眾傳播媒介的20世紀。但盡管如此,我們在享受智能媒體帶來的所有紅利的時候也必須學會質疑,對它有可能給整個行業(yè)乃至整體用戶帶來的困擾、威脅乃至傷害進行全面的思考和妥善的處理。今天,“在一個媒體和代碼無處不在的社會,權力越來越存在于算法之中”(Scott,2007)。怎么樣對待這些算法以及算法權力,將直接決定著我們對于當前媒體領域所出現(xiàn)的各類問題的價值取向和處理方式?!叭绻麤]有算法,我們的生活將會大不一樣,很有可能遠不如現(xiàn)在,但這并不意味著我們無需考慮這些問題。在某些答案似乎唾手可得時,我們更應該小心謹慎”(吳軍,2016)。因此,除了對技術理性懷有必要的敬畏之心之外,更重要的一點就是在運用這些權力的時候要保持強烈的人文關懷——技術理性是可以不存在價值判斷的,但是人文關懷必須要在處理技術帶來的社會問題之時有著明確的價值取向,那就是——科技向善,算法向善,權力向善。
注釋:
①2019年2月,網絡上流傳著有位B站UP主“換臉哥”,用AI算法技術將1994版《射雕英雄傳》主演朱茵的面貌替換成了演員楊冪的面貌,無論是風格還是表情都沒有違和感。https://tech.sina.com.cn/csj/2019-02-26/doc-ihrfqzka9312468.shtml.
②在2018年舉辦的烏鎮(zhèn)第五屆世界互聯(lián)網大會上,新華社發(fā)布了國內首位“人工智能機器人”,能夠利用英語和漢語進行流利的語音播報。http://www.sohu.com/a/274442194_578982.
③John Maynard Keynes(1930). Economic Possibilities for our Grandchildren. Scanned from John MaynardKeynes, Essays in Persuasion, New York: W. W. Norton &Co., 1963, pp.358-373.
④⑨〔美〕盧克·多梅爾:《算法時代:新經濟的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第202頁、第138頁。
⑤Oscar Wilde(1891). The Soul of Man under Socialism. libcom. September 8, 2005. http://libcom.org/library/soul-of-man-under-socialism-oscar-wilde.
⑥Theodore Levitt(1960). Marketing Myopia, Harvard Business Review.
⑦Viktor Mayer-Sch?nberger, Kenneth Cukier. Big Data:A Revolution That Will Transform How We Live,Work and Think. New York: Mifflin Harcourt, 2013,pp.34-70.
⑧丁曉東:《算法與歧視:從美國教育平權案看算法倫理與法律解釋》,《中外法學》2017年第6期。
⑩Alex P. Miller(2018). Want Less-Biased Decisions? Use Algorithms. Harvard Business Review.July 26, 2018. https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms.
Rachel Thomas.What HBR Gets Wrong About Algorithms and Bias. Aug07, 2018. https://www.fast.ai/2018/08/07/hbr-bias-algorithms/.
《算法做出的決策能避免偏見嗎? 》,《數(shù)據(jù)分析與知識發(fā)現(xiàn)》2018年第9期。
〔美〕約翰·馬爾科夫:《與機器人共舞:人工智能時代的大未來》,郭雪譯,浙江人民出版社2015年版,第179頁。
郭林生:《論算法倫理》,《華中科技大學學報(社會科學版)》2018年第2期。
〔美〕馬克·波斯特:《信息方式》,范靜嘩譯,商務印書館2000年版,第127 頁。
彭蘭:《假象、算法囚徒與權利讓渡:數(shù)據(jù)與算法時代的新風險》,《西北師大學報(社會科學版)》2018年第9期。
〔美〕安德魯·愛德華:《數(shù)字法則:機器人、大數(shù)據(jù)和算法如何重塑未來》,鮮于靜、宋長來譯,機械工業(yè)出版社2016年版,第179頁。
Brüseke, L. (2016). The influence of privacy perceptions on online shopping behavior : a comparison between millennials and baby boomers. https://essay.utwente.nl/70179/.
S-O"Brien, L. , Read, P. , Woolcott, J. , & Shah, C. . (2011). Understanding privacy behaviors of millennials within social networking sites. Proceedings of the American Society for Information Science and Technology, 48(1), 1-10.
喻國明:《信息繭房禁錮了我們的雙眼》,《領導科學》2016年第12期(下)。
王秋旭:《信息繭房效應下微博群體極化現(xiàn)象分析》,《新聞研究導刊》2015年第7期。
陳昌鳳、張心蔚:《信息個人化、信息偏向與技術性糾偏——新技術時代我們如何獲取信息》,《新聞與寫作》2017年第8期。
劉海明:《媒體算法的價值糾纏與倫理誤區(qū)》,《湖南師范大學社會科學學報》2019年第1期。
Scott Lash(2007). Power after Hegemony:Cultural Studies in Mutation? Theory, Culture & Society, 24(3): pp.55-78.
吳軍:《算法時代:新經濟的新引擎》,中信出版社2016年版,第225頁。