尹江滕
關(guān)鍵詞 算法分發(fā);價(jià)值觀;歧視與偏見;道德責(zé)任
中圖分類號(hào) G2 文獻(xiàn)標(biāo)識(shí)碼 A 文章編號(hào) 2096-0360(2021)05-0037-03
在算法當(dāng)?shù)赖臅r(shí)代,傳統(tǒng)的編輯分發(fā)逐漸被算法分發(fā)所取代,這無疑是一場(chǎng)深刻的信息變革。不可否認(rèn),算法分發(fā)能以極高的效率處理龐大的數(shù)據(jù),理智且客觀的利用必然會(huì)推動(dòng)人類社會(huì)的進(jìn)步。然而,人們對(duì)于技術(shù)的憧憬與樂觀往往只是故事的開始。近年來,機(jī)器算法對(duì)受眾、傳媒行業(yè)甚至社會(huì)秩序的沖擊力正不斷加大。因此,我們需要辯證地看待算法分發(fā)的利害,以重新審視新時(shí)代背景下人類的價(jià)值。
編輯分發(fā)在媒介資源短缺的傳統(tǒng)媒體時(shí)代最為普遍。彼時(shí),只有極少數(shù)的媒體負(fù)責(zé)收集、整合信息資源,然后各編輯根據(jù)媒體的方針政策、個(gè)人旨趣等進(jìn)行信息分發(fā),最終將精心挑選過的內(nèi)容呈現(xiàn)在讀者面前,在這個(gè)過程中,編輯就扮演了“把關(guān)人”的角色。而由于大多數(shù)的媒體政策和制度方針都以“潛網(wǎng)”的形式烙印在編輯和記者身上,所以這種分發(fā)方式便以最終的傳播節(jié)點(diǎn)——編輯命名,稱作編輯分發(fā)①。這種信息分發(fā)形式出現(xiàn)的時(shí)間遠(yuǎn)比我們想象的要早。早在口傳時(shí)代,由古希臘盲人詩(shī)人荷馬收集、整理的“荷馬史詩(shī)”就是編輯分發(fā)的典型范例。在彼時(shí)信息匱乏的年代,編輯分發(fā)模式發(fā)揮了重要的作用,在編輯們尚可以對(duì)有限的信息進(jìn)行精心挑選和處理的情況下,沒有直接獲取渠道的人們可以得到必要且優(yōu)質(zhì)的新聞。
經(jīng)過了僅僅短暫的幾年,人類便來到了互聯(lián)網(wǎng)時(shí)代,新的信息分發(fā)模式應(yīng)運(yùn)而生。互聯(lián)網(wǎng)時(shí)代的信息分發(fā)模式適用了其信息過載的時(shí)代特征,從以Yahoo為代表的分類索引模式,到以Google為代表的搜索引擎模式,再到以Facebook、YouTube為代表的推薦算法模式,每一種模式都可以說代表了一個(gè)互聯(lián)網(wǎng)發(fā)展的節(jié)點(diǎn),以及由其背后的商業(yè)巨頭主導(dǎo)的時(shí)代,而在這個(gè)過程中,真正起到變革性力量的,是時(shí)至今日風(fēng)靡全球的推薦算法模式。
算法是一種“指導(dǎo)計(jì)算機(jī)完成特定命令的指令集”[1]。早在20世紀(jì),就已經(jīng)有很多來自科學(xué)和工程領(lǐng)域的學(xué)者探索算法的概念、運(yùn)行機(jī)制、功能及其效果。直到Facebook經(jīng)過不斷發(fā)展創(chuàng)新,推出推薦算法-信息流(Feed)模式,才可以說真正開啟了一個(gè)全新的推薦算法時(shí)代。在那之后,許多公司都應(yīng)用了算法來進(jìn)行產(chǎn)品的革新,以適應(yīng)技術(shù)的發(fā)展與市場(chǎng)的擴(kuò)大。例如,Google使用算法進(jìn)行相關(guān)信息搜索,YouTube也使用算法進(jìn)行主頁(yè)視頻推薦。2012年,今日頭條客戶端成立,其以算法技術(shù)作為技術(shù)框架為用戶進(jìn)行新聞推送,由此標(biāo)志著算法正式進(jìn)入了中國(guó)新聞?lì)I(lǐng)域。
算法可以對(duì)大數(shù)據(jù)進(jìn)行有效的處理,算法把關(guān)則具有區(qū)別于編輯把關(guān)的數(shù)據(jù)化、程序化、自動(dòng)化特征[2],通過分析用戶畫像、文章畫像和算法模型,達(dá)到千人千面、私人定制的效果[3],毫無疑問,這對(duì)傳統(tǒng)的編輯把關(guān)模式構(gòu)成了巨大的威脅和挑戰(zhàn)。早期,今日頭條、一點(diǎn)資訊等軟件將算法引入新聞終端,實(shí)現(xiàn)了“無編輯化”的新聞發(fā)布模式[4]。而后,微博將算法引入熱搜榜使其成為網(wǎng)民獲取熱點(diǎn)新聞的主要來源、抖音將推薦算法應(yīng)用到極致引領(lǐng)短視頻新時(shí)代。在大數(shù)據(jù)時(shí)代代表著更高經(jīng)濟(jì)效益的推薦算法,開始從人們手中接手越來越多的工作,在此后的許多年里,算法文化持續(xù)影響著人類社會(huì)的方方面面。
2.1 算法分發(fā)的價(jià)值
根據(jù)國(guó)際數(shù)據(jù)公司的預(yù)測(cè),在2025年,全球每年產(chǎn)生的數(shù)據(jù)將從2018年的33ZB增長(zhǎng)到175ZB,即相當(dāng)于每天產(chǎn)生491EB的數(shù)據(jù)②。面對(duì)如此龐大的數(shù)據(jù)量,算法分發(fā)則有效地解決了大數(shù)據(jù)環(huán)境下的“信息爆炸”問題,同時(shí)也顯著提升了新聞業(yè)的運(yùn)作效率[5],構(gòu)建起了信息消費(fèi)者與信息生產(chǎn)者之間有效溝通的橋梁,實(shí)現(xiàn)了二者的雙贏。一方面,對(duì)于用戶來說,算法分發(fā)可以使用戶所需要的信息主動(dòng)“找上門來”,從而節(jié)省用戶的時(shí)間成本、提高閱讀效率,是一個(gè)以低成本獲取有價(jià)值信息的有效途徑;另一方面,這也給互聯(lián)網(wǎng)公司帶來了經(jīng)濟(jì)效益,算法分發(fā)通過精準(zhǔn)用戶畫像達(dá)到精準(zhǔn)分發(fā),提高用戶黏性,其利用個(gè)性化推薦帶來的“長(zhǎng)尾閱讀”激活了80%的沉淀價(jià)值,成為一條以技術(shù)優(yōu)勢(shì)為資本來獲取用戶“回頭率”與忠誠(chéng)度的捷徑[6]。
2.2 算法分發(fā)的批判
算法技術(shù)使人們對(duì)它的發(fā)展前途寄予了希望與期待。但是近來,隨著今日頭條、微博熱搜接連被要求整改,“信息繭房”“回音室效應(yīng)”以及“過濾氣泡”等問題深受各界爭(zhēng)議。此外,算法價(jià)值觀問題及算法偏見與歧視帶來的不公平性也日益受到人們的重視。
2.2.1 算法分發(fā)加劇認(rèn)知固化
凱斯?桑斯坦指出,公眾對(duì)信息的需求并不是全面的,他們通常都追隨自己的興趣,如果不積極尋求和接受負(fù)面評(píng)論,隨著時(shí)間的推移,他們會(huì)像繭一樣被關(guān)在“繭房”中。在這樣一個(gè)封閉的信息環(huán)境中,人們反復(fù)聽到相似的觀點(diǎn),接觸相對(duì)同質(zhì)化的人和信息,趨于將其視為事實(shí)的整體,這就導(dǎo)致了“回音室效應(yīng)”。此外,在社交媒體環(huán)境下,由伊萊?帕里澤提出的“過濾氣泡”效應(yīng)也愈發(fā)明顯?;诖髷?shù)據(jù)和算法推薦的搜索引擎可以在任何時(shí)候了解用戶喜好、過濾出異類信息,但卻造成了用戶認(rèn)知的隔離狀態(tài),使用戶周圍被由算法過濾的“氣泡”所包裹。隨著算法日益成為一個(gè)通行準(zhǔn)則,用戶的興趣和價(jià)值觀不斷被算法強(qiáng)化,這使用戶不易接收到與自己意見相左的信息,越來越被局限在同質(zhì)化信息的一方天地之中,被自身喜好不斷固化,從而造成群內(nèi)同質(zhì)化,加劇群體偏見。
值得注意的是,桑斯坦提出“信息繭房”和“回音室效應(yīng)”時(shí),算法還是個(gè)模糊的概念,它們一定程度上產(chǎn)生于人們的選擇性理解以及個(gè)人差異,即它們是一直客觀存在的,只簡(jiǎn)單地以為算法是導(dǎo)致一切的罪魁禍?zhǔn)?,是?duì)新技術(shù)負(fù)面影響的夸大。因此,從本質(zhì)上看,新媒體環(huán)境下的“信息繭房”“回音室效應(yīng)”“過濾氣泡”反映的是人們認(rèn)知固化的加劇。
2.2.2 算法分發(fā)顯露公共價(jià)值缺失
近年來,算法背后的商業(yè)巨頭如今日頭條、快手、抖音等公共性的缺失也備受詬病。在越來越追求效率的情況下,算法分發(fā)的把關(guān)標(biāo)準(zhǔn)逐漸片面化,許多迎合用戶獵奇心理的新聞不斷被推送,如標(biāo)題黨、低俗內(nèi)容等等,而優(yōu)質(zhì)內(nèi)容卻不斷被邊緣化,“劣幣驅(qū)逐良幣”效應(yīng)愈發(fā)顯著。無論是Facebook還是今日頭條,都將自己標(biāo)榜為科技、技術(shù)公司,極力與“媒體”撇清關(guān)系,否定價(jià)值觀的輸出,宣揚(yáng)算法無價(jià)值觀論,即當(dāng)技術(shù)與價(jià)值觀出現(xiàn)沖突時(shí),公司主張的是“技術(shù)先行”,這實(shí)則是對(duì)社會(huì)倫理問題的回避,將不可避免的帶來社會(huì)公共性的缺失。
在數(shù)據(jù)與價(jià)值之間,算法自然是以前者為主,這就可能會(huì)使用戶接收到與主流價(jià)值不符的內(nèi)容。以抖音為例,盡管有多個(gè)審查系統(tǒng),仍然會(huì)有大量庸俗內(nèi)容和無價(jià)值信息流向抖音用戶[7]。有學(xué)者對(duì)抖音的算法推薦模式做了這樣一個(gè)形象的描述:“抖音用豪放的流量和金錢刺激創(chuàng)作者,他們親手投遞一波又一波內(nèi)容,喂飽了算法,壯大了抖音流量帝國(guó)。在算法主宰的世界,就像抖音不那么需要靈魂人物,它也不需要頭號(hào)玩家?!雹鬯惴íq如一個(gè)“黑箱”般神秘莫測(cè),具有巨大的不確定性,其分發(fā)標(biāo)準(zhǔn)與操縱者的商業(yè)利益正在對(duì)社會(huì)公共價(jià)值構(gòu)成嚴(yán)重威脅。
張一鳴一直倡導(dǎo)“算法沒有價(jià)值觀”,但是,在算法日益決定著內(nèi)容展現(xiàn)、決定著受眾人群、決定著傳播規(guī)律的背景下,算法逐漸成為各技術(shù)公司追逐私利的產(chǎn)物,成為其商業(yè)價(jià)值與倫理規(guī)范在互聯(lián)網(wǎng)世界的體現(xiàn)。誠(chéng)然,算法分發(fā)技術(shù)本為中性,脫離社會(huì)現(xiàn)實(shí)而論其正向或負(fù)向的價(jià)值觀毫無意義,但是一旦其跟商業(yè)利益掛鉤,或者說被應(yīng)用于人類事務(wù)中時(shí),算法的某些價(jià)值弊端就會(huì)越發(fā)凸顯出來,并且無可回避。
2.2.3 算法分發(fā)放大偏見與歧視
除了上文所述商業(yè)資本力量之外,算法推薦還受到諸如政治權(quán)力、算法設(shè)計(jì)者價(jià)值判斷等主觀因素的隱姓干預(yù),不可避免的被各種價(jià)值標(biāo)準(zhǔn)所裹挾,造成數(shù)據(jù)解讀現(xiàn)實(shí)世界的失敗。因此,算法推薦不能完全客觀、中立地呈現(xiàn)信息,對(duì)少數(shù)群體及用戶形成了算法的歧視與偏見。
“算法偏見”即算法在信息生產(chǎn)和傳播中失去客觀性和中立性,從而使公眾不能全面的認(rèn)識(shí)信息。例如,谷歌的一個(gè)程序曾錯(cuò)誤地把一張黑人男子的照片標(biāo)記為“大猩猩”④。這種看似由于算法而帶來的種族歧視,被冠上算法歧視的稱號(hào)。此外,算法分發(fā)本身所具有的“過濾氣泡”特性會(huì)將某些內(nèi)容過濾、壓制,并優(yōu)先推薦其他內(nèi)容。比如,在2016年Facebook“偏見門”事件中,F(xiàn)acebook被揭露其熱門推送榜蓄意打壓保守派信息、保留自由派信息。這種信息分發(fā)方式嚴(yán)重?fù)p害了用戶接收內(nèi)容的平衡性,從而對(duì)用戶的知情權(quán)與信息權(quán)利構(gòu)成威脅。
隨著新聞?lì)I(lǐng)域智能化的加強(qiáng),“算法偏見”越發(fā)帶來新聞的專業(yè)性、客觀性地弱化,導(dǎo)致作為社會(huì)環(huán)境“瞭望者”的媒體日益偏離公眾的期望[8]。但是,正如前文所述,算法技術(shù)本身是中立的,它同樣并不帶有什么偏見與歧視?!蹲匀弧冯s志曾用BIBO表示Bias In,Bias Out——偏見進(jìn)、偏見出,即人類對(duì)社會(huì)某一群體的偏見,最終都會(huì)通過大數(shù)據(jù)折射出來,只是在網(wǎng)絡(luò)空間下,算法將這種偏見放大了。
在與算法治理的風(fēng)險(xiǎn)與挑戰(zhàn)相關(guān)的議題中,《人工智能與算法治理研究》中將其整理為了三個(gè)方面:不可解釋隱憂、自我強(qiáng)化困境以及主體性難題[9]。我們所討論的,主要集中于自我強(qiáng)化困境這一層面,即固化、偏差、歧視問題。通過探討我們發(fā)現(xiàn),無論是認(rèn)知固化、公共價(jià)值缺失,還是歧視與偏見,都與現(xiàn)實(shí)社會(huì)中人們的價(jià)值選擇有著不可分割的聯(lián)系。所以,處于爭(zhēng)議中的算法分發(fā),仍需要呼喚人及其價(jià)值觀的在位。但是,完全拋棄算法分發(fā)將把關(guān)權(quán)力強(qiáng)行轉(zhuǎn)移到人的手中已經(jīng)絕無可能,媒體數(shù)量的激增和消費(fèi)群體的龐大都需要更加高效的信息分發(fā)手段。因此,算法分發(fā)的趨勢(shì)是不可阻擋的。算法的難度在于體察人性,所以我們需要的,是在冰冷的機(jī)器分發(fā)中注入人類所特有的道德標(biāo)準(zhǔn),將公民的責(zé)任感編入一連串的代碼中。編輯分發(fā)代表了對(duì)人類價(jià)值觀的重視,其保證的是公平;算法分發(fā)則看重的是數(shù)據(jù),保證的是效率,未來我們要做的,就是要尋找這種公平和效率間的最佳平衡點(diǎn)。
詹姆斯?柯蘭在《互聯(lián)網(wǎng)的誤讀》中講到,互聯(lián)網(wǎng)有潛力幫助我們建構(gòu)一個(gè)更有凝聚力、更相互理解、更公平的世界,但變革的動(dòng)力來自社會(huì),而不是電腦芯片。因此我們要深刻意識(shí)到我們?cè)谂兴惴ǖ耐瑫r(shí),到底在批判什么。我們必須了解到,把數(shù)字和計(jì)算引入管理龐雜的、基于價(jià)值的人類事務(wù)之中,并不能帶來客觀性;相反,人類事務(wù)的復(fù)雜性會(huì)干擾算法。我們可以并且需要使用計(jì)算機(jī)來幫助我們做出更好的決定,但我們也需要在判斷中加入道德義務(wù),并在這個(gè)框架下使用算法,而不是像人們互相推卸責(zé)任那樣,把責(zé)任轉(zhuǎn)移給機(jī)器[10]。最終,統(tǒng)治我們世界的是人,而不是技術(shù)。拋開技術(shù)工具的本質(zhì)屬性而言,從中作祟的從來都是人性中的貪婪和投機(jī)。因此,人們最終應(yīng)該超越算法,始終保持自身對(duì)現(xiàn)實(shí)世界的洞察力與判斷力[11],在任何時(shí)候,技術(shù)都必須讓位于人的道德和理性,而一個(gè)正確的價(jià)值觀導(dǎo)向,也必須成為算法分發(fā)之上的力量。
注釋
①人人都是產(chǎn)品經(jīng)理.聊一聊信息分發(fā)的嬗變史.Internet。
②IDC.數(shù)據(jù)時(shí)代2025,2017。
③張珺.抖音內(nèi)幕:時(shí)間熔爐的誕生.公眾號(hào)“騰訊科技”,2020。
④http://www.bbc.com/news/technology-33347866。
參考文獻(xiàn)
[1]Ceruzzi,Paul. A History of Modern Computing, 1945-1995[M].MI T Press,1998:13-75.
[2]王茜.批判算法研究視角下微博“熱搜”的把關(guān)標(biāo)準(zhǔn)考察[J].國(guó)際新聞界,2020(7):26-48.
[3]吳晨光.自媒體之道[J].博覽群書,2018(9):18.
[4]白紅義,李拓.算法的“迷思”:基于新聞分發(fā)平臺(tái)“今日頭條”的元新聞話語研究[J].新聞大學(xué),2019(1):30-44.
[5]方師師.雙強(qiáng)寡頭平臺(tái)新聞推薦算法機(jī)制研究[J].傳播與社會(huì)學(xué)刊,2018(43):103-122.
[6]張強(qiáng).算法分發(fā)的效應(yīng)與憂思[J].青年記者,2019(18):38-39.
[7]李墨涵.抖音算法推薦機(jī)制的局限與對(duì)策分析[J].新媒體研究,2019,5(2):28-29.
[8]林愛珺,劉運(yùn)紅.智能新聞信息分發(fā)中的算法偏見與倫理規(guī)制[J].新聞大學(xué),2020(1):29-39.
[9]賈開.人工智能與算法治理研究[J].中國(guó)行政管理,2019(1):17-22.
[10]ZeynepTufekci:Machine intelligence makes human morals more important,TED,June 2016.
[11]彭蘭.機(jī)器與算法的流行時(shí)代,人該怎么辦[J].新聞與寫作,2016(12):25-28.