姬廣緒
正如電子前線基金會的克里斯·帕莫所說,“你獲得的是免費服務(wù),你付出的是個人信息,而Google和Facebook很懂得如何將個人信息兌換成金錢?!?/p>
如果說獲取免費服務(wù)的代價僅僅是將個人信息用于商業(yè)性的廣告定制和更加精準(zhǔn)地推送給客戶,那其實也還好。但是隨著算法的不斷迭代,個人的信息搜集變得越來越普遍時,我們發(fā)現(xiàn)這種“個性化”左右的不僅僅是我們購買何種商品和服務(wù)。
隨著移動互聯(lián)網(wǎng)的發(fā)展及智能終端的普及,越來越多人的主要新聞和信息來源依賴于網(wǎng)絡(luò)新聞資訊平臺,從目前的趨勢來看,以今日頭條為代表的互聯(lián)網(wǎng)新聞平臺將是中國公眾未來主要的信息來源。在今日頭條這樣的平臺上,表面上,“你所關(guān)心的就是頭條”,平臺在迎合你的興趣愛好,給你推送“個性化定制”新聞。實際上,你能看見什么由平臺的算法所決定,算法在影響你的立場,進(jìn)而塑造你的價值觀。
目前多數(shù)的算法和信息過濾技術(shù),都是根據(jù)用戶的點擊內(nèi)容、文字輸入和搜索等動態(tài)行為來判斷你可能會感興趣的內(nèi)容。用戶在網(wǎng)上的行為會被詳細(xì)記錄、標(biāo)簽,以此來推斷你的好惡。只看想看的信息,聽起來是一件很愉快的事情,但長此以往,你就被隔離在信息的孤島上,喪失了理智選擇的權(quán)利。
在今天的互聯(lián)網(wǎng)上,所有的平臺和網(wǎng)站都不會告訴用戶其搜索到或被推送的信息是如何遴選出來的,用戶同樣不知道,算法在背后已經(jīng)對自己進(jìn)行了全方位的立體畫像。
帕斯奎爾將由于算法的秘密性所帶來的信息社會稱為“黑箱社會”,并且新媒體們可以逃避責(zé)任,不必像傳統(tǒng)媒體那樣直面公眾,所有公司都在最大化地隱藏算法設(shè)計方法,甚至隱藏算法的存在,“商業(yè)機密”成為隱藏的“合理”說辭。因此,索羅斯所聲稱的,“威權(quán)國家可能與擁有大量數(shù)據(jù)的公司結(jié)成聯(lián)盟,最終形成一個連奧威爾都未曾想象到的極權(quán)控制網(wǎng)絡(luò)”,并非是一個耄耋老人的囈語。
關(guān)于算法的原理,F(xiàn)acebook借助的是EdgeRank,以這種演算法來整理預(yù)設(shè)的賬號首頁,亦即頭條動態(tài)消息。EdgeRank的作用是為Facebook上的每一種互動排名,演算法很復(fù)雜,但基本概念相當(dāng)簡單,依據(jù)三種因素來計算:第一種因素是親近度,你在某人的賬號上逗留時間越長,表示你和這人的親近度越大,F(xiàn)acebook越有可能對你發(fā)布這人的近況;第二種因素是資訊類型的比重,以“感情狀態(tài)”為例,加權(quán)的比重非常高,因為大家都想知道誰正在和誰交往;第三種因素是時間,近期張貼的事項比舊事重要。
文化認(rèn)知結(jié)構(gòu)作用:人腦的認(rèn)知一方面要強化既有的認(rèn)知,另一方面要獲取新知,而人腦每天接觸到大量的信息,如何過濾掉無意義的信號,篩選出極小比率的重要資訊,以達(dá)到強化既有認(rèn)知和求取新知的平衡,這一點尤為重要。
在人腦中,這個最重要的機制就是壓縮資料。大腦通過壓縮信息量,捕捉所見所聞中的精髓概念,在認(rèn)知人類學(xué)中被稱為“認(rèn)知結(jié)構(gòu)”。認(rèn)知結(jié)構(gòu)的作用就是,一種事物如果反復(fù)出現(xiàn),人腦就沒有必要去重新認(rèn)識。人一旦認(rèn)出椅子的長相,就知道它的用途。認(rèn)知結(jié)構(gòu)一旦生成,我們本能上就會去強化這些結(jié)構(gòu)。心理學(xué)稱這種傾向為“確認(rèn)偏誤”,也就是人們更加愿意相信能夠佐證既有觀點的事物,往往只看到他們想看的東西。
個人化的文化認(rèn)知結(jié)果會以三種方式阻礙文化多樣性認(rèn)識:第一,過濾罩以人為的方式限制“異文化視野”;第二,過濾罩里的信息環(huán)境缺乏激發(fā)理解文化多樣性的特質(zhì)?;ヂ?lián)網(wǎng)本是人類接觸和了解多樣文化的最佳窗口,然而人工智能及算法營造出來的過濾罩環(huán)境卻將這扇大窗戶壓縮為一面小鏡子;第三,人工智能和算法 “推送”的是(它猜測)你會感興趣的信息,個人主動搜尋和探索異文化的機會被抑制。
基于算法的信息過濾所提供的對于特定問題的解答是一種人工解答,視域極其有限,但很有效。無論你想解決什么樣的問題,它都能夠給你提供一個高度關(guān)聯(lián)的信息環(huán)境。通常這樣的環(huán)境都很實用,例如當(dāng)你搜索“非洲黑人”時,搜索引擎會在下方推薦你可能會感興趣的相關(guān)話題,例如“非洲黑人為什么懶”、“廣州非洲黑人治理”、“廣州黑人兇”等。當(dāng)你點擊相關(guān)話題瀏覽信息時,算法就會將你的這個動態(tài)痕跡記錄下來,作為日后推薦更加符合你的閱覽偏好的信息的關(guān)聯(lián)數(shù)據(jù),但這時你看待問題的視野無形中就會被壓縮了。算法過濾帶來的最大問題就是它沒有“拉遠(yuǎn)鏡頭”的功能,使用者容易迷失方向,看不清楚事物的全貌,將自己置身于一座信息孤島上。
算法過濾的機制依循的是三步驟模式:首先,算法通過動態(tài)信息和靜態(tài)信息認(rèn)清用戶身份與喜好;其次,對用戶提供最合宜的信息;最后,把算法改良到恰到好處。簡言之,你的身份形塑你使用的媒體,反過來媒體也會形塑你的身份,最后就是個人和媒體高度互嵌。
當(dāng)個人化的媒介與特定的人的心理機制結(jié)合后,我們會發(fā)現(xiàn)身份塑造媒體的同時,媒體也在影響個體相信和關(guān)心的事物。當(dāng)你點擊一條關(guān)于非洲黑人的新聞的鏈接時,表示你對那鏈接表現(xiàn)出興趣,這代表你未來比較可能點擊同一主題的文章和新聞,媒體進(jìn)而暗中慫恿你繼續(xù)這個主題。個體就這樣被困在一個信息的閉環(huán),反復(fù)看見的都是自己想看的信息,陷入傳播學(xué)中經(jīng)常提到的“信息繭房”。
例如,瀏覽網(wǎng)上關(guān)于非洲黑人的負(fù)面評論,就會發(fā)現(xiàn)網(wǎng)友普遍認(rèn)為黑人都很懶惰、不遵守規(guī)則、在廣州一定是會擾亂社會治安。這是因為基于人工智能的算法推薦程序不斷把相關(guān)信息推送給本來就有誤解的讀者,他們看到的這些信息又驗證了已有偏見和假設(shè),成為“自我應(yīng)驗的預(yù)言”。
因此,盡管網(wǎng)上有海量信息,深居算法和過濾罩里的我們卻陷入了“信息繭房”。盡管網(wǎng)絡(luò)本可以解放知識、松綁控制,實際卻在逐漸收窄我們的視野,限制我們的機會,而網(wǎng)絡(luò)權(quán)力集中在幾個人身上,形成史上僅有的少數(shù)霸權(quán)??萍嫉某踔允亲屓祟惛芸刂迫粘I?,如今的結(jié)果卻是剝奪我們的權(quán)利。
針對上述問題,有幾個層面的問題需要思考。
首先,從國家和政府的層面,需要對信息時代的公共領(lǐng)域和資源有全新的認(rèn)識。隨著數(shù)字生活的全面開啟,公眾對于信息的消費需求越發(fā)強烈,商業(yè)性的力量先于政府介入其中并開始控制信息的供給。正常的競爭本無可厚非,既符合商業(yè)邏輯,也節(jié)約了公共資源。然而商業(yè)的逐利本性和壟斷操縱野心讓公共信息的供給走向歧途,甚至某些巨頭企業(yè)為了滿足投資者的需求開始在搜索引擎中置入非正當(dāng)、非正義的算法。這就需要政府的主動干預(yù)來矯正,合理控制企業(yè)在公共信息提供方面的任意性和商業(yè)性導(dǎo)向。例如,在承諾保密的前提下,政府可以要求占據(jù)壟斷地位的巨頭企業(yè)報備其算法模型,并由自己的專業(yè)監(jiān)管機構(gòu)或外部專家委員會加以審核。
其次,從企業(yè)來說,在保證商業(yè)利益的前提下,算法模型應(yīng)該強調(diào)“多元性”,例如瑞士的報紙Neue Zürcher Zeitung(NZZ)最近開發(fā)了一款A(yù)pp——the Companion。像大多數(shù)智能新聞終端一樣,這款A(yù)pp也通過機器學(xué)習(xí)生成個人算法,給用戶推送個性化的新聞信息流。但與眾不同的是,算法會確保這一系列新聞中包含一個“驚喜”,也就是超出讀者偏好范圍之外的內(nèi)容。
類似地,谷歌瀏覽器的“逃離泡沫”(Escape Your Bubble)插件也在做同樣的努力,這款插件可以根據(jù)用戶的閱讀習(xí)慣,反向推薦調(diào)性積極、易于接受的內(nèi)容。用戶每次訪問Facebook時,插件會將不同視角的文章自動導(dǎo)入用戶的信息流。多元提供了用戶逃離“信息舒適區(qū)”的可能性,更加多元和豐富的資訊有助于完善今天數(shù)字信息的生態(tài)。這就要求算法工程師在制作算法的時候應(yīng)該有意識地通過更加合理的技術(shù)增加奇遇、多添一些人性,對微妙的身份差異敏感一些、主動宣傳公共議題并培養(yǎng)公民精神,用更加多的“道德算法”解決之前的技術(shù)偏見問題。
而作為公共信息的重要來源,頭部搜索引擎公司和信息平臺公司需要繼續(xù)強化“信息把關(guān)人”的職能,肩負(fù)起社會責(zé)任、傳播人文精神,為用戶提供有價值的閱讀,真正讓重大新聞能看到、有人看,防止算法操控下劣質(zhì)信息的過度生產(chǎn)和分發(fā)。
最后,從用戶的角度來說,提升“網(wǎng)絡(luò)素養(yǎng)”不應(yīng)僅僅是體現(xiàn)在如何防止網(wǎng)絡(luò)詐騙,減少經(jīng)濟損失這樣直接的利害問題上。提高信息搜索、信息篩選的能力,更是未來融入數(shù)字世界的核心所在。良性信息已經(jīng)成為現(xiàn)代公民重要的生存資源,獲取資源能力的關(guān)鍵就在于網(wǎng)絡(luò)素養(yǎng)的提升,這也是技術(shù)賦權(quán)的重要方面。
(作者為中山大學(xué)移民與族群研究中心副研究員、互聯(lián)網(wǎng)人類學(xué)博士;編輯:馬克)