王仕勇,樊文波
(1.重慶工商大學(xué) 馬克思主義學(xué)院,重慶 400067;2. 中國(guó)人民大學(xué) 新聞學(xué)院,北京 100872;3.太原師范學(xué)院,山西 太原 030012)
數(shù)字化已經(jīng)成為社會(huì)的基本運(yùn)行方式,以數(shù)字化為基礎(chǔ)的算法已經(jīng)成為影響社會(huì)運(yùn)行的基礎(chǔ)性規(guī)則,也是人工智能發(fā)展的核心驅(qū)動(dòng)力和生產(chǎn)力。基于算法的數(shù)據(jù)收集與挖掘、分析與識(shí)別、處理與決策系統(tǒng)被廣泛應(yīng)用于社會(huì)各領(lǐng)域,極大地提高了社會(huì)的運(yùn)行效率。算法已深度介入了人們的日常生活,影響著人們的在世狀態(tài),個(gè)體、群體、組織與社會(huì)間的思考和行為模式、交往和決策方式,乃至于社會(huì)秩序的生成和演化機(jī)制都發(fā)生了全新的變化。
對(duì)于新聞傳播業(yè)而言,算法的興起帶來了一套完全區(qū)別于傳統(tǒng)新聞傳播業(yè)的結(jié)構(gòu)性變化,人工智能通過機(jī)器寫作重塑新聞生產(chǎn)流程,通過智能算法顛覆新聞分發(fā)方式,產(chǎn)生新的新聞傳播模式,基于算法的信息傳播機(jī)制已經(jīng)深刻改變了人們的信息接收方式和閱讀習(xí)慣?!敖裉斓乃惴ㄔ谝欢ǔ潭壬嫌绊懼侣剺I(yè)的各個(gè)方面,從新聞制作的初始階段到新聞消費(fèi)的后期”[1],算法對(duì)新聞傳播系統(tǒng)生態(tài)進(jìn)行著多方位重塑。
算法新聞是與大數(shù)據(jù)最直接相關(guān)的新聞[2],被稱為“新聞業(yè)的計(jì)算探索”,其創(chuàng)新本質(zhì)是新聞傳播業(yè)在算法工具和大數(shù)據(jù)環(huán)境下的流程再造和盈利模式重構(gòu)[3],學(xué)者們也使用機(jī)器人新聞、機(jī)器寫作新聞、自動(dòng)化新聞等諸多概念來描述這一現(xiàn)象。以算法軟件的引領(lǐng)性、數(shù)據(jù)資源的基礎(chǔ)性、智能操作的自主性為特征[4],算法新聞在一定程度上解決了個(gè)人信息多樣化需求與社會(huì)海量信息間的匹配性問題,提高了新聞傳播的效率。在算法新聞逐漸成熟、擁有算法技術(shù)的互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)成為連接“信息”與“人”的紐帶的同時(shí),算法在新聞傳播領(lǐng)域運(yùn)用的過程中暴露出諸多問題[5],人們對(duì)其帶來的如隱私侵犯、算法偏見、算法歧視、價(jià)值觀分化、社群區(qū)隔等倫理問題表示出擔(dān)憂[6],對(duì)算法新聞治理表現(xiàn)出高度關(guān)注。黨的十九屆四中全會(huì)通過的《中共中央關(guān)于堅(jiān)持和完善中國(guó)特色社會(huì)主義制度 推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化若干重大問題的決定》提出,要“建立健全網(wǎng)絡(luò)綜合治理體系”,“全面提高網(wǎng)絡(luò)治理能力,營(yíng)造清朗的網(wǎng)絡(luò)空間”[7]。2020年12月,中共中央印發(fā)的《法治社會(huì)建設(shè)實(shí)施綱要(2020—2025年)》提出,要制定完善對(duì)“算法推薦、深度偽造等新技術(shù)應(yīng)用的規(guī)范管理辦法”,“加強(qiáng)對(duì)大數(shù)據(jù)、云計(jì)算和人工智能等新技術(shù)研發(fā)應(yīng)用的規(guī)范引導(dǎo)”[8]。算法新聞治理無疑既是網(wǎng)絡(luò)綜合治理體系和網(wǎng)絡(luò)治理能力的重要內(nèi)容,也是法治社會(huì)建設(shè)的重要內(nèi)容。
算法正在對(duì)整個(gè)社會(huì)的空間、時(shí)間和權(quán)力關(guān)系進(jìn)行重構(gòu)?;诖耍惴ㄒ渤蔀閷W(xué)術(shù)界關(guān)注的熱點(diǎn)話題,多學(xué)科對(duì)算法展開了不同側(cè)面的研究。計(jì)算科學(xué)關(guān)注算法公式與統(tǒng)計(jì)模型,通過優(yōu)化不同場(chǎng)景和條件下的算法計(jì)算力以提高算法優(yōu)勢(shì)和增強(qiáng)算法預(yù)測(cè)力;法學(xué)一方面正視算法的法律化趨勢(shì),運(yùn)用法律來規(guī)制算法,另一方面聚焦促進(jìn)法律規(guī)范與算法代碼的有機(jī)融合,利用算法技術(shù)推動(dòng)法律的算法化;公共管理學(xué)科探究算法影響社會(huì)運(yùn)行的機(jī)制與過程;社會(huì)學(xué)聚焦算法設(shè)計(jì)者與技術(shù)參數(shù)、應(yīng)用者與社會(huì)之間的互動(dòng)關(guān)系和過程。正在形成的“算法社會(huì)”使得人們愈發(fā)對(duì)算法的“陰暗面”及其伴隨而生的一系列問題加以關(guān)注,拉澤爾和格溫納等學(xué)者總結(jié)歸納出算法所伴生的九種風(fēng)險(xiǎn)性問題,這些問題包括:操縱、多樣性減少、限制交流和表達(dá)自由、監(jiān)控以及對(duì)數(shù)據(jù)保護(hù)和隱私的威脅、社會(huì)歧視、侵犯知識(shí)產(chǎn)權(quán)、濫用市場(chǎng)支配力、對(duì)認(rèn)知能力和人腦的影響、越來越多的異質(zhì)性以及人類主權(quán)和技術(shù)可控性的喪失[9]。算法風(fēng)險(xiǎn)的顯現(xiàn)也引發(fā)了新聞傳播領(lǐng)域關(guān)于“信息繭房”“回音室”“過濾氣泡”“算法偏見”“版權(quán)侵犯”“算法共謀”等諸多關(guān)涉新聞傳播倫理的討論,這其中的核心是“算法黑箱”“算法霸權(quán)”和“算法操縱”問題。
算法將新聞生產(chǎn)、流通中的各個(gè)環(huán)節(jié)推入“黑箱”[10],我們能夠看到算法帶來的結(jié)果呈現(xiàn),但對(duì)其過程卻難以把握,正如博格斯特所言,算法就如同“黑箱”一般,我們能夠清晰地感受到它帶來的影響,但卻并不能對(duì)其內(nèi)部一窺究竟[11]。隱藏在數(shù)據(jù)背后的算法十分隱秘和復(fù)雜,弗蘭克·帕斯奎爾認(rèn)為這些算法可能決定了企業(yè)的命運(yùn),對(duì)個(gè)人聲譽(yù)有重要的影響,甚至對(duì)社會(huì)整體經(jīng)濟(jì)都會(huì)有所影響,盡管“企業(yè)參與者對(duì)我們的日常生活細(xì)節(jié)有前所未有的了解”,但我們自己“對(duì)他們?nèi)绾卫眠@些知識(shí)來影響我們以及他們做出的重要決定一無所知”[12]。算法的隱秘性源于算法是互聯(lián)網(wǎng)商業(yè)技術(shù)公司的高度商業(yè)機(jī)密[13],作為商業(yè)機(jī)密高度保密的算法自然不會(huì)輕易對(duì)外公布,即便是在互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)內(nèi)部,除極少數(shù)核心員工外,其他員工也很難了解算法究竟是如何運(yùn)作的[14]。算法的復(fù)雜性還在于算法的自主學(xué)習(xí)、決策能力的智能化,包括算法的編寫者也無法預(yù)測(cè)算法最終的輸出結(jié)果。對(duì)于普通用戶來說,基于知識(shí)的差異更是無法把握算法編碼的細(xì)節(jié),無法想象算法如何完成高度復(fù)雜的推理過程,以至于人們會(huì)對(duì)算法產(chǎn)生迷信甚至產(chǎn)生“崇拜”的心理[15]。
算法黑箱所引發(fā)的擔(dān)憂集中在互聯(lián)網(wǎng)商業(yè)平臺(tái)可能由于逐利性,借助用戶將平臺(tái)媒體的新聞視為客觀的、公正的認(rèn)識(shí),用虛假新聞建構(gòu)人們對(duì)社會(huì)的想象[16]。我們生活在“算法社會(huì)”中,算法構(gòu)造和塑造我們的社會(huì)和對(duì)社會(huì)的想象,對(duì)于算法呈現(xiàn)的社會(huì)圖景、對(duì)算法呈現(xiàn)內(nèi)容的真實(shí)性和可信度,我們卻鮮有能力、辦法和途徑去核實(shí)和驗(yàn)證,對(duì)平臺(tái)機(jī)構(gòu)的監(jiān)督束手無策。
作為公共事業(yè)的新聞傳播業(yè),維護(hù)公眾知情權(quán)和為公共服務(wù)是其基本的目標(biāo)。為實(shí)現(xiàn)這一基本目標(biāo),在幾百年的新聞實(shí)踐中,形成了要遵循真實(shí)性、客觀性、全面性等基本的新聞原則,遵循客觀、中立、公正的職業(yè)操守。從全球范圍看,媒體越來越受到公眾的質(zhì)疑,信任度在不斷下降,公眾越來越關(guān)心新聞界在報(bào)道什么,以及如何報(bào)道。科瓦齊和羅森斯蒂爾在《新聞的十大基本原則》中指出,“對(duì)公眾保密是一個(gè)錯(cuò)誤。當(dāng)公眾對(duì)新聞工作者和政府當(dāng)局越來越不信任時(shí),這種不利于公眾的行為只會(huì)讓新聞工作遭到更多質(zhì)疑”;“用核實(shí)加以約束,尤其是透明的觀念,是新聞工作者解決偏見問題的最有效方式之一”[17]。新聞透明要求新聞傳播主體公開新聞生產(chǎn)傳播的過程,讓公眾進(jìn)行監(jiān)督和參與[18]。盡管一些互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)并不承認(rèn)自身的媒體屬性[19],但事實(shí)上,這些平臺(tái)機(jī)構(gòu)已然成為新聞傳播活動(dòng)中極其重要的主體。新聞透明性的主體指向新聞傳播活動(dòng)的全部主體,平臺(tái)主體也不應(yīng)回避公眾的嚴(yán)苛審視[20]。
完整的透明才是透明,新聞透明原則要求算法的開發(fā)者將源代碼公開,以保證其可以被檢驗(yàn)、被監(jiān)督,封閉的算法黑箱將平臺(tái)機(jī)構(gòu)與傳統(tǒng)新聞機(jī)構(gòu)、平臺(tái)機(jī)構(gòu)與公眾置于不對(duì)等的地位。此外,具有獨(dú)創(chuàng)性的算法涉及知識(shí)產(chǎn)權(quán)問題,算法的隱秘性構(gòu)成透明理念和機(jī)制的障礙。而即便將算法透明化,算法的復(fù)雜性又使得算法也很難被檢驗(yàn)。同時(shí),算法本身并非客觀,還存在著“算法偏見”[21],由于計(jì)算系統(tǒng)自身存在偏見,編寫者在開發(fā)過程中可能自覺或不自覺地將個(gè)人的價(jià)值觀、興趣喜好等寫入代碼,造成的結(jié)果是在看似中立的算法規(guī)則中實(shí)則潛藏著由數(shù)據(jù)源、版權(quán)、監(jiān)管和編輯者的主觀因素產(chǎn)生的偏見問題[22]。可見,新聞透明原則在智媒時(shí)代如何得到保障是一個(gè)棘手的問題。
哈佛大學(xué)的數(shù)學(xué)博士凱西·奧尼爾在《算法霸權(quán)》一書中創(chuàng)造性地使用“數(shù)學(xué)殺傷性武器”一詞探討算法的大規(guī)模應(yīng)用對(duì)社會(huì)產(chǎn)生的負(fù)面影響,認(rèn)為“數(shù)學(xué)殺傷性武器”的特點(diǎn)在于不透明、規(guī)?;蜌缧??!霸S多數(shù)學(xué)殺傷性武器都是依靠自己的內(nèi)置邏輯來定義其所處理的情況,然后再以其自己的定義證明其輸出結(jié)果的合理性的。這種模型會(huì)不斷地自我鞏固、自我發(fā)展,極具破壞力——而且在我們的日常生活中很常見”[23]。
算法已經(jīng)越來越多地定義了我們的生活,算法的影響不僅在日常的生活調(diào)節(jié)方面,而且在社會(huì)根本性變化方面也是如此,正是因?yàn)椤案淖儽蝗魏问挛锔鼜V泛依賴的算法的結(jié)果可能會(huì)波及整個(gè)社會(huì)”[24],算法成為了一種權(quán)力[25]。英國(guó)學(xué)者拉什就此感嘆,“在一個(gè)媒體和代碼無處不在的社會(huì),權(quán)力越來越存在于算法之中”[26]。權(quán)力表現(xiàn)為控制,控制是技術(shù)革新導(dǎo)致的后果,其中的最基本面是信息處理的改進(jìn)。技術(shù)定義了一個(gè)社會(huì)能做什么的界限,技術(shù)的發(fā)展是控制權(quán)革命中社會(huì)變化的主要推動(dòng)力[27],算法技術(shù)控制了信息流向公眾的渠道,同時(shí)將傳統(tǒng)媒體視為平臺(tái)機(jī)構(gòu)內(nèi)容的供應(yīng)商,顛覆了新聞傳播業(yè)的傳統(tǒng)格局。
當(dāng)算法運(yùn)用到新聞傳播的各環(huán)節(jié),自然也會(huì)對(duì)人們所感知的“擬態(tài)環(huán)境”以及人們基于“擬態(tài)環(huán)境”的社會(huì)認(rèn)知產(chǎn)生影響。然而,算法建構(gòu)的“擬態(tài)環(huán)境”是“一種簡(jiǎn)化或扭曲”,算法主要是對(duì)復(fù)雜的新聞寫作過程的簡(jiǎn)化和提煉,是一種“以簡(jiǎn)御繁”的化約主義[28],它“從世界上獲取了一個(gè)復(fù)雜的系統(tǒng),并將其抽象為捕獲該系統(tǒng)某些邏輯并丟棄其他邏輯的過程”[29]。降低人們認(rèn)識(shí)世界的復(fù)雜性并不等同于讓人們認(rèn)識(shí)簡(jiǎn)單化的世界,這種對(duì)復(fù)雜社會(huì)的“簡(jiǎn)化”操作,并不能呈現(xiàn)社會(huì)的完整真實(shí)景觀,有悖新聞傳播所追求的通過及時(shí)、公開、透明再現(xiàn)新聞事實(shí),達(dá)到媒介公正的目的。按照算法的操作原則,平臺(tái)機(jī)構(gòu)以單篇內(nèi)容的點(diǎn)擊閱讀率來評(píng)判文章的價(jià)值,而忽略文章內(nèi)容本身帶來的社會(huì)效果。對(duì)于平臺(tái)媒體來說,對(duì)點(diǎn)擊流量的追求遠(yuǎn)勝過對(duì)新聞內(nèi)容質(zhì)量的重視。在這種模式下,用戶接收的信息只會(huì)越來越趨于窄化和同質(zhì)化,算法可能成為“扭曲的棱鏡”,導(dǎo)致公眾對(duì)真實(shí)社會(huì)的認(rèn)知偏差越來越大,“可能給公共生活造成難以彌合的分裂”[30]。
算法有損媒介公正的另一方面在于算法霸權(quán)產(chǎn)生的“算法歧視”。算法及其選擇機(jī)制可能以某種方式具有歧視性[31],這種歧視性源于算法自身的偏見,比如如果種族歧視嵌于算法,會(huì)給用戶推薦種族歧視的相關(guān)內(nèi)容,而與事件本身的事實(shí)發(fā)生偏離。新聞傳播的公正原則要求新聞傳播主體盡力消除傳播中的歧視行為,傳播權(quán)力為全社會(huì)所共有,傳播過程中不能無視弱勢(shì)群體以及貧困地區(qū)、偏遠(yuǎn)地區(qū)的利益和需求。而實(shí)際上,正如凱西在實(shí)踐中發(fā)現(xiàn)的那樣,“數(shù)學(xué)殺傷性武器的受害者幾乎沒有話語權(quán)”,他們中的大多數(shù)都在事實(shí)上被剝奪了公民的傳播權(quán),算法霸權(quán)客觀上造成了對(duì)弱勢(shì)群體的侵害。
傳統(tǒng)新聞機(jī)構(gòu)的把關(guān)由職業(yè)新聞工作者完成,他們以職業(yè)的精神、理念和操作獲得公眾信任,以新聞生產(chǎn)中提煉、總結(jié)的新聞價(jià)值為標(biāo)準(zhǔn),完成每天新聞的選擇、加工、制作的生產(chǎn)過程。算法改變新聞傳播機(jī)制表現(xiàn)在新聞分發(fā)過程中的把關(guān)主體發(fā)生變化:其一,將價(jià)值觀的判定權(quán)從記者、編輯這些傳統(tǒng)的新聞工作者手中轉(zhuǎn)移到算法編寫者手中,制定算法規(guī)則的工程師設(shè)定的算法原則決定每條新聞被接受的范圍和程度;其二,將媒介失范的決定權(quán)從媒介工作者傳遞給了受眾[32],受眾的選擇會(huì)直接影響到未來自身可以看到的新聞?lì)愋秃蛢?nèi)容。
與傳統(tǒng)媒體能夠?qū)崿F(xiàn)對(duì)公眾的議題關(guān)注和屬性判斷的強(qiáng)大議程設(shè)置效果一樣,平臺(tái)媒體對(duì)公眾輿論同樣具有操縱的能力[33]。憑借算法的排序與過濾建立的算法議程設(shè)置和框架結(jié)構(gòu),不僅建構(gòu)了用戶對(duì)于社會(huì)的想象,同樣會(huì)決定公眾想什么和如何處理這些議程,通過影響用戶的情感和態(tài)度,最終決定公眾的行動(dòng)方式[34]。
傳統(tǒng)媒體之所以能夠獲得公眾,在于公眾對(duì)其專業(yè)能力的認(rèn)可。專業(yè)水準(zhǔn)高的媒體能夠被信任。公眾選擇接觸和使用哪一種媒介、選擇關(guān)注哪一家媒體的報(bào)道本質(zhì)是公眾將獲取信息的來源、信息選擇的權(quán)利委托于該媒體,這是建立在公眾與媒體長(zhǎng)期互動(dòng)的結(jié)果之上的。在算法新聞時(shí)代,傳統(tǒng)的以編輯為中心的信息把關(guān)模式,也就是傳統(tǒng)媒體獲取公眾信任的職業(yè)素質(zhì),被算法程序取代,而算法程序并不天然擁有傳統(tǒng)編輯對(duì)于新聞價(jià)值的選擇判斷標(biāo)準(zhǔn),公眾和媒體間的委托信任關(guān)系被打破。這種關(guān)系的打破帶來了傳播權(quán)力的轉(zhuǎn)移,平臺(tái)機(jī)構(gòu)正在成為新的“信息把關(guān)人”和“議程設(shè)置者”,重構(gòu)了傳播權(quán)力[35],平臺(tái)機(jī)構(gòu)成為控制公共生活和媒介生態(tài)的決定性力量,這也反過來使互聯(lián)網(wǎng)公共領(lǐng)域呈現(xiàn)出“再封建化”的趨勢(shì)[36]。
解決算法新聞產(chǎn)生的問題,首先要解決的是“誰來負(fù)責(zé)”的問題,明確算法新聞治理倫理的責(zé)任主體,再基于此討論算法新聞治理的邏輯問題。
“技術(shù)中立論”認(rèn)為,算法只是一種技術(shù),技術(shù)是中性的,并無好壞的性質(zhì)分別。平臺(tái)機(jī)構(gòu)傾向于將自身描述成信息傳播的中介,只起到傳遞的作用,所以無需對(duì)信息進(jìn)行主觀性的判斷。與之相對(duì)的“平臺(tái)責(zé)任論”強(qiáng)調(diào),當(dāng)平臺(tái)機(jī)構(gòu)擁有足夠多的用戶數(shù)量時(shí),平臺(tái)機(jī)構(gòu)實(shí)際完成著公共傳播活動(dòng),天然地具備公共屬性,應(yīng)當(dāng)在算法應(yīng)用于內(nèi)容選擇和推送中體現(xiàn)社會(huì)公共價(jià)值觀念。這兩種關(guān)于算法和平臺(tái)機(jī)構(gòu)屬性觀點(diǎn)的爭(zhēng)論,實(shí)際上牽涉出了算法本身的倫理主體地位問題。
一些學(xué)者按照拉圖爾等人提出的“行動(dòng)者網(wǎng)絡(luò)理論”,將算法視為非人類的“網(wǎng)絡(luò)行動(dòng)者”[37],人和算法在網(wǎng)絡(luò)中是平等的參與者。拉圖爾的“行動(dòng)者網(wǎng)絡(luò)理論”的特點(diǎn)在于將人和“非人”的事物都視為具有能動(dòng)作用的“行動(dòng)者”,他們之間以“轉(zhuǎn)譯”為基本的連接方法,結(jié)成了相互作用的“網(wǎng)絡(luò)”。網(wǎng)絡(luò)指的是一種連接方法或狀態(tài),轉(zhuǎn)譯是連接行動(dòng)者之間溝通的語言,行動(dòng)者包括在相互結(jié)成的網(wǎng)絡(luò)之中具有能動(dòng)性的所有的“人”和“非人”。毋庸置疑,人天生具備行動(dòng)能力,而“非人”行動(dòng)者如果具有和人一樣的某種行動(dòng)能力,其前提是“非人”行動(dòng)者應(yīng)該和行動(dòng)的人一樣,具有某種能動(dòng)性或者說“活性”,這樣才能夠?qū)嵤┬袆?dòng),并在行動(dòng)中體現(xiàn)人的目的和意志[38]。算法的“活性”源自算法編寫者所設(shè)定的代碼和算法規(guī)則的激活,也就是說算法并非能夠天然地脫離人而獨(dú)立地成為網(wǎng)絡(luò)行動(dòng)者,只有當(dāng)編寫者完成對(duì)算法規(guī)則的設(shè)定,并將算法置于網(wǎng)絡(luò)連接,才能夠激發(fā)算法的“活性”,使算法具有行動(dòng)力。
弗洛里迪和桑德斯從行動(dòng)者之間互動(dòng)的關(guān)系角度,將交互性、自主性和適應(yīng)性確立為判定智能技術(shù)是否具備倫理責(zé)任主體地位的標(biāo)準(zhǔn)[39]。如果一個(gè)系統(tǒng)在沒有外部刺激的情況下,也能夠持續(xù)與環(huán)境發(fā)生交互關(guān)系,就可以認(rèn)為這一系統(tǒng)具有自主性、適應(yīng)性和交互性,才可以將能夠在不同環(huán)境中均發(fā)生行動(dòng)的系統(tǒng)視為行動(dòng)者。以此觀之,算法尚未滿足自主性和適應(yīng)性的要求,這也就意味著算法還不能稱之為獨(dú)立的倫理行動(dòng)者。
算法是非人類的“網(wǎng)絡(luò)行動(dòng)者”,并不是獨(dú)立的倫理行動(dòng)者,倫理行動(dòng)者作為責(zé)任主體要對(duì)行為負(fù)有必要的義務(wù)。對(duì)行動(dòng)主體產(chǎn)生的行為后果具有直接推動(dòng)作用的人或者組織,才需要承擔(dān)行為責(zé)任,才肩負(fù)有必要的義務(wù)。目前,算法作為新聞傳播的工具和手段,不具有獨(dú)立生產(chǎn)和傳播能力,其擬主體性只能承擔(dān)擬倫理角色,使用算法的人和平臺(tái)機(jī)構(gòu)才是責(zé)任的主體。算法新聞的倫理責(zé)任主體只能是人,而不是機(jī)器,也不是人—機(jī)混合體[40],算法新聞的責(zé)任主體應(yīng)為整個(gè)算法新聞活動(dòng)中各環(huán)節(jié)的參加者,包括算法的開發(fā)編寫者、推廣者、使用者,算法新聞的接受者和轉(zhuǎn)發(fā)者,以及在人工智能時(shí)代新聞倫理的一個(gè)重要的機(jī)構(gòu)行動(dòng)者——互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)[41]。
每一次新聞傳播技術(shù)的革命性更新,都會(huì)形成新的傳播格局,引發(fā)新的傳播時(shí)代的到來。傳播技術(shù)不僅決定著新聞圖景的呈現(xiàn)方式和結(jié)構(gòu)方式,決定著公眾對(duì)社會(huì)的認(rèn)知和把握情況,更從深層次上影響著人的思維和心理,以及人類社會(huì)的整體發(fā)展。同時(shí),新技術(shù)所帶來的變革,既會(huì)激發(fā)起關(guān)于技術(shù)烏托邦主義的幻想,也會(huì)引發(fā)對(duì)技術(shù)異化的擔(dān)憂。
新技術(shù)對(duì)媒介環(huán)境的巨大沖擊,形成一種多媒介混合的景觀。媒介環(huán)境學(xué)家麥克盧漢在提出“媒介雜交”理論的基礎(chǔ)上,進(jìn)一步擴(kuò)充提出了“媒介四元律”理論:新媒介突出了什么,削弱了什么,再現(xiàn)了什么,未來又會(huì)變成什么[42]。其弟子萊文森使用“提升”“過時(shí)”“再現(xiàn)”和“逆轉(zhuǎn)”四個(gè)詞語對(duì)這一規(guī)律進(jìn)行了新的概括?!懊浇樗脑伞辈粌H是對(duì)媒介發(fā)展規(guī)律的概括,它還是一個(gè)頗有價(jià)值的媒介分析工具。算法新聞突出并基本實(shí)現(xiàn)了“信息與人”的適配[43],傳統(tǒng)媒體“千人一面”的傳播樣態(tài)被“千人千面”接收情景所取代,個(gè)體的信息需求被再現(xiàn)和顯現(xiàn),人的個(gè)體價(jià)值被重新重視,傳統(tǒng)媒介和傳播方式變得過時(shí)和被遺忘。萊文森認(rèn)為,媒介進(jìn)化的規(guī)律是“人性化趨勢(shì)”[44],即媒介朝著增加人類功能的方向進(jìn)化和發(fā)展,算法新聞在一程度上是符合增加人類幸福需要的方向的。
算法新聞在朝著人性化方向發(fā)展的同時(shí),反過來也重新塑造人和控制著人和人的生活方式。對(duì)公眾而言,人們?cè)谒惴ㄐ侣劖h(huán)境下的閱讀選擇和閱讀習(xí)慣發(fā)生變化;對(duì)媒體機(jī)構(gòu)來說,算法重塑了新的生產(chǎn)關(guān)系,因?yàn)槠脚_(tái)機(jī)構(gòu)通常不具備信息內(nèi)容的生產(chǎn)能力,卻成為信息分發(fā)的把關(guān)人,掌握著信息分發(fā)的絕對(duì)優(yōu)勢(shì),傳統(tǒng)媒體被迫接入平臺(tái)機(jī)構(gòu),并把算法規(guī)則納入內(nèi)容生產(chǎn)的基本考量。波斯曼對(duì)技術(shù)壟斷的擔(dān)憂也在于此[45]。
縱觀新聞傳播的歷史,幾乎所有的技術(shù)變革,尤其是新技術(shù)應(yīng)用的早期,都會(huì)產(chǎn)生各種技術(shù)與人、與社會(huì)的不協(xié)調(diào)、不適應(yīng)問題。大眾報(bào)刊的普及帶來競(jìng)爭(zhēng)的結(jié)果卻是“黃色新聞潮”的發(fā)生;“火星人入侵地球”的廣播劇引發(fā)了極度恐慌和百萬人的大逃離;電視的流行出現(xiàn)了蜷在沙發(fā)上,只看電視不顧其他的沙發(fā)土豆;長(zhǎng)時(shí)間、習(xí)慣性和病態(tài)使用網(wǎng)絡(luò)的人被認(rèn)為患有網(wǎng)癮。這些問題產(chǎn)生并不僅僅是媒介或者技術(shù)自身的問題,問題的解決也不僅僅依靠媒介自身?!包S色新聞潮”的退去在于報(bào)人社會(huì)責(zé)任意識(shí)和職業(yè)共同體意識(shí)的確立;廣播、電視、網(wǎng)絡(luò)的合理使用和認(rèn)知除社會(huì)的進(jìn)步外,還依賴于公眾的媒介素養(yǎng)提高,以及對(duì)媒介、媒介規(guī)律的正確把握。
“技術(shù)的世界不是孤立的,也絕非自成一統(tǒng)。它與來自遙遠(yuǎn)的人類環(huán)境的各種因素相互作用”[46]。對(duì)新聞傳播業(yè)而言,技術(shù)以怎樣的觀念和方式構(gòu)建社會(huì)、構(gòu)建怎樣的社會(huì),并不單一取決于技術(shù)本身的屬性,更取決于能夠?qū)夹g(shù)產(chǎn)生影響、進(jìn)行操控的社會(huì)和人的力量,所以解決算法新聞的問題也要從各種相互作用的人與社會(huì)著手,探尋技術(shù)、人與社會(huì)的良性互動(dòng),這也符合媒介問題的解決邏輯。
美國(guó)著名未來學(xué)者奈斯比特在20世紀(jì)90年代網(wǎng)絡(luò)開始大放異彩的時(shí)候,對(duì)突飛猛進(jìn)的科技與人和社會(huì)及文化的關(guān)系進(jìn)行推測(cè)和分析,強(qiáng)調(diào)從人性的角度看待科技,高科技和高思維應(yīng)尋求一種“物質(zhì)奇觀與人性精神需求的平衡”[47]。高思維是人對(duì)高科技的反應(yīng),當(dāng)“科技越多地被引入到我們的生活,我們就越想尋求高思維的平衡,尋求人性的穩(wěn)定”。高科技和高思維這種“平衡”就是技術(shù)、人與社會(huì)的良性互動(dòng)狀態(tài)。
海德格爾認(rèn)為,“現(xiàn)代技術(shù)中起支配作用的解蔽乃是一種促逼,此種促逼向自然提出蠻橫要求,要求自然提供本身能夠被開采和貯藏的能量”[48]。也就是說,現(xiàn)代技術(shù)的特征在于可以迫使自然按照人所設(shè)定的目的做事。技術(shù)源自于人類對(duì)美好生活的追求,而在使用技術(shù)的過程中,人的目的存在是非、好壞、善惡的差異,存在方向性的區(qū)別。因此,技術(shù)必須成為倫理問題,人類必須學(xué)習(xí)如何自主地以我們的判斷力來約束自己[49]。
道義理論和哲學(xué)家康德認(rèn)為,“善”像“珠寶一樣閃耀光芒”。他提出,每個(gè)人天生就有良心,良心并不可違,良心的義務(wù)就是為了義務(wù)而履行義務(wù)[50]。亞里士多德德性倫理論優(yōu)先考慮的“善”不是抽象意義的善,而是對(duì)血肉之軀的人的善,是體現(xiàn)在我們實(shí)踐里的善[51]。亞里士多德的“善”是一種實(shí)踐智慧,麥金泰爾將“實(shí)踐”定義為“人的活動(dòng)內(nèi)聚而復(fù)雜的形式”,其內(nèi)在的“善”涉及鮮明的優(yōu)秀標(biāo)準(zhǔn),如果達(dá)到了這樣的標(biāo)準(zhǔn),內(nèi)在的“善”就能拓展我們?nèi)松k麗和優(yōu)秀的可能性[52]。所以,“善”是一種底線倫理,也是一種可行可為的底線倫理。在算法治理中,“向善”應(yīng)是一種底線堅(jiān)守。在“能做什么”和“應(yīng)做什么”的倫理選擇中,算法應(yīng)基于應(yīng)然邏輯走向自覺,把握好算法技術(shù)發(fā)展與人及社會(huì)需要的內(nèi)在聯(lián)系。
從“向善”的價(jià)值意義來看,“向善”至少包括四個(gè)方面的含義。其一,“向善”意味著“尊重”,尊重和關(guān)心人本身,尊重人的基本價(jià)值與倫理;其二,“向善”意味著“進(jìn)步”,提高效率與功用,提高人的物質(zhì)享用水平;其三,“向善”意味著“公平”,公開平等,發(fā)展的成果惠及社會(huì)各個(gè)階層;其四,“向善”意味著“責(zé)任感”,心系社會(huì),參與社會(huì)問題的解決。
“向善”在倫理道德中是一種希望被普遍實(shí)施的行為,算法新聞治理的“向善”底線在于維護(hù)算法的積極功能,反對(duì)不當(dāng)?shù)乃惴ㄊ褂眯袨椋圆蛔鲪?、不濫用為基礎(chǔ)性法則。“不作惡”要求算法新聞要以公共性和社會(huì)利益、社會(huì)道德、社會(huì)價(jià)值為評(píng)判標(biāo)準(zhǔn),不以對(duì)用戶的損害作為獲利的前提和手段,如不侵犯用戶隱私,不傳播低俗內(nèi)容;“不濫用”要求算法新聞的使用應(yīng)在有限范圍和有限尺度內(nèi),對(duì)用戶權(quán)益不僅要做到明示和告知,還要進(jìn)行確認(rèn)以確保用戶知悉。
70多年前,二戰(zhàn)后的美國(guó)出現(xiàn)了“大眾傳播工具對(duì)于公眾的重要性的提高、公眾對(duì)大眾傳播工具的依賴與大眾傳播工具和機(jī)構(gòu)被少數(shù)人掌握和壟斷之間的矛盾”。新聞界該如何應(yīng)對(duì)這一矛盾,哈欽斯委員會(huì)給出了總報(bào)告——《一個(gè)自由而負(fù)責(zé)的新聞界》,成為新聞媒介“社會(huì)責(zé)任論”的基礎(chǔ)[53]。當(dāng)今,算法改變社會(huì),算法已成為社會(huì)運(yùn)行的基本語法規(guī)則。算法的普及與廣泛應(yīng)用、公眾與算法聯(lián)系的緊密性與平臺(tái)機(jī)構(gòu)對(duì)算法的壟斷性之間形成了一對(duì)矛盾,這種矛盾與70多年前的情形非常類似。如何因應(yīng)這一矛盾,同樣需要強(qiáng)調(diào)算法新聞“向上”的社會(huì)責(zé)任擔(dān)當(dāng)。
其一,算法新聞應(yīng)該對(duì)人的自由全面發(fā)展負(fù)責(zé)。技術(shù)的發(fā)展不是最終目的,人的發(fā)展才是技術(shù)發(fā)展的本質(zhì)[54]。算法的發(fā)展必須有利于人的自由全面發(fā)展,離開了人的自由全面發(fā)展的算法就失去了靈魂。從各國(guó)、各機(jī)構(gòu)和組織制定頒布的人工智能發(fā)展倫理原則來看,一致將“保障人的權(quán)利”“以人為本的價(jià)值觀念”等相關(guān)性條例作為其中最重要也是最首要的原則。算法新聞也可以對(duì)人的自由全面發(fā)展負(fù)責(zé)。算法新聞為人的自由決策提供信息內(nèi)容,合理的算法機(jī)制為人們做出合乎理性的正確判斷提供保障。
其二,算法新聞應(yīng)該對(duì)社會(huì)健康有序運(yùn)行負(fù)責(zé),要自覺肩負(fù)社會(huì)責(zé)任,追求社會(huì)效益,服務(wù)社會(huì)福祉。“新聞在人類社會(huì)中占據(jù)極其核心的話語地位,是左右歷史發(fā)展的一種力量”[55]。在算法社會(huì),算法成為“創(chuàng)造世界的方式”,算法新聞對(duì)社會(huì)整體發(fā)展和社會(huì)各子系統(tǒng)的影響越來越主動(dòng)和顯著。一個(gè)不當(dāng)?shù)乃惴C(jī)制、一次不合理的算法新聞推薦,都可能產(chǎn)生極端的社會(huì)后果,改變社會(huì)運(yùn)行的良性狀態(tài)。算法新聞應(yīng)立足社會(huì)和諧進(jìn)步,在新聞信息的推薦機(jī)制、搜索機(jī)制、過濾機(jī)制等方面,把社會(huì)效益作為排序、分類、關(guān)聯(lián)和過濾的重要因素,以社會(huì)責(zé)任意識(shí)推動(dòng)算法技術(shù)發(fā)展,從技術(shù)層面也同時(shí)從人文層面解決網(wǎng)絡(luò)傳播內(nèi)容低俗化、劣質(zhì)化及社會(huì)價(jià)值淡化弱化問題,用主流價(jià)值導(dǎo)向發(fā)展“算法”,鞏固壯大主流思想輿論。
從人性的角度看,算法新聞治理需要“向善”;從社會(huì)的角度看,算法新聞治理需要“向上”?!跋蛏葡蛏稀钡膫惱碜非蟛皇亲柚顾惴ㄐ侣劦陌l(fā)展,而是表明實(shí)現(xiàn)算法新聞發(fā)展目標(biāo)需要建立有效的算法治理方法和模式。算法新聞治理涉及多個(gè)層面的倫理類別與問題,從倫理行動(dòng)者角度出發(fā),算法新聞治理需要建立多主體協(xié)同共進(jìn)的治理體系(表1)。
表1 算法新聞治理的主要倫理類別與問題
第一,政府在算法新聞治理中需要充當(dāng)好規(guī)則制定者、過程把控者和底線管控者的角色。政府在科技發(fā)展中起著引領(lǐng)作用,對(duì)新技術(shù)的使用需要加強(qiáng)研究,并根據(jù)發(fā)展過程中出現(xiàn)的新變化、新問題、新挑戰(zhàn),不斷進(jìn)行積極回應(yīng)和合理規(guī)范。2019年7月,我國(guó)出臺(tái)《國(guó)家科技倫理委員會(huì)組建方案》,對(duì)人工智能等前沿科技發(fā)展進(jìn)行統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),從國(guó)家層面建立保障人工智能健康發(fā)展的法律法規(guī)和制度體系。智能算法在不同層次的信息需求滿足上發(fā)揮著不同作用,算法的風(fēng)險(xiǎn)與規(guī)制需要在具體的價(jià)值期待下進(jìn)行具體分析[56]。政府應(yīng)以“法律紅線”明晰算法新聞的內(nèi)容底線,設(shè)定監(jiān)管標(biāo)準(zhǔn),給合格的內(nèi)容以流動(dòng)的區(qū)間。算法治理的理由是基于已經(jīng)識(shí)別的風(fēng)險(xiǎn)[57],政府除以法律規(guī)定對(duì)可預(yù)見的風(fēng)險(xiǎn)進(jìn)行制度化規(guī)定外,還需要加強(qiáng)對(duì)算法風(fēng)險(xiǎn)變化的可能及技術(shù)不確定性的研判。
算法新聞治理也是跨學(xué)科的挑戰(zhàn)[58],算法新聞背后的技術(shù)問題、文化問題和倫理問題涉及多領(lǐng)域的交叉性,需要在政府主導(dǎo)下,鼓勵(lì)形成容納社會(huì)科學(xué)、自然科學(xué)和產(chǎn)業(yè)界的跨學(xué)科多領(lǐng)域的多方對(duì)話機(jī)制。政府還應(yīng)加大算法新聞倫理宣傳和認(rèn)知教育,增強(qiáng)公眾對(duì)算法新聞的理解,培育公眾算法素養(yǎng),使人們能夠科學(xué)認(rèn)識(shí)算法應(yīng)用帶來的可能進(jìn)步及潛在風(fēng)險(xiǎn)[59],正確評(píng)估算法新聞的效能。
第二,平臺(tái)機(jī)構(gòu)要承擔(dān)起算法新聞治理的主體責(zé)任。平臺(tái)媒體算法的工具理性蘊(yùn)藏了其背后來自于平臺(tái)公司的數(shù)據(jù)商品化意識(shí)形態(tài)邏輯的支配[60],平臺(tái)媒體需明確自己的經(jīng)濟(jì)責(zé)任、法律責(zé)任、社會(huì)責(zé)任和道德責(zé)任,確保在算法新聞的發(fā)展過程中實(shí)現(xiàn)經(jīng)濟(jì)效益和社會(huì)效益的統(tǒng)一。算法規(guī)則背后體現(xiàn)的是平臺(tái)機(jī)構(gòu)的價(jià)值觀念,價(jià)值觀才是平臺(tái)機(jī)構(gòu)的靈魂。算法系統(tǒng)設(shè)計(jì)和運(yùn)行,應(yīng)該使其目標(biāo)和行為與人和社會(huì)的價(jià)值觀一致。很多平臺(tái)媒體已經(jīng)意識(shí)到價(jià)值觀引領(lǐng)發(fā)展的社會(huì)意義和價(jià)值。對(duì)于算法和人工智能的發(fā)展,IBM提出“信任、尊重與隱私保護(hù)”的三大原則;微軟提出的六大原則是“公平、透明、責(zé)任、無歧視、知情同意與法律控制”;2019年5月,騰訊宣布“科技向善”成為公司新的愿景和使命;快手堅(jiān)持“平等普惠、真實(shí)向善”的理念。
在注重價(jià)值引導(dǎo)的同時(shí),平臺(tái)機(jī)構(gòu)在算法新聞治理中可通過算法體系的設(shè)定,增設(shè)對(duì)普通公眾給予普惠流量曝光的機(jī)制,對(duì)符合社會(huì)倡導(dǎo)的正能量?jī)?nèi)容進(jìn)行優(yōu)先推薦的設(shè)置[61],以消減算法的歧視和偏差。平臺(tái)機(jī)構(gòu)擁有強(qiáng)大的分發(fā)能力,可與主流媒體擅長(zhǎng)的內(nèi)容生產(chǎn)能力相結(jié)合,在內(nèi)容層面與主流媒體進(jìn)行深度合作,聯(lián)合主流媒體,既保證算法新聞的質(zhì)量,也發(fā)揮好服務(wù)主流媒體的功能。
第三,公眾與傳統(tǒng)媒體也應(yīng)在算法新聞治理中發(fā)揮自己的責(zé)任。公眾需要提高自身的算法素養(yǎng),傳統(tǒng)媒體也需要與平臺(tái)機(jī)構(gòu)進(jìn)行合作。兩者的共同責(zé)任在于實(shí)現(xiàn)對(duì)算法新聞的監(jiān)督。算法素養(yǎng)應(yīng)作為公眾媒介素養(yǎng)的重要內(nèi)容。公眾應(yīng)學(xué)習(xí)了解必需的算法常識(shí),發(fā)揮自己的能動(dòng)性,做到在網(wǎng)絡(luò)上理性獲取信息和生產(chǎn)信息,保護(hù)好個(gè)人信息,同時(shí)能積極認(rèn)知和評(píng)判算法風(fēng)險(xiǎn),自覺避免新聞消費(fèi)中的盲從或被動(dòng)現(xiàn)象,及時(shí)反饋新聞消費(fèi)體驗(yàn),幫助改進(jìn)平臺(tái)新聞推薦中的不合理之處。傳統(tǒng)媒體需要發(fā)揮自己在新聞生產(chǎn)方面的公信力優(yōu)勢(shì)和新聞核查方面的專業(yè)優(yōu)勢(shì),嚴(yán)格職業(yè)把關(guān)和審核機(jī)制,拒絕生產(chǎn)迎合人性弱點(diǎn)及惰性的新聞,自覺生產(chǎn)和推廣優(yōu)質(zhì)內(nèi)容,自覺對(duì)算法新聞進(jìn)行糾偏,修正算法新聞的設(shè)計(jì)。更為重要的是,要把握算法技術(shù)和社會(huì)發(fā)展大勢(shì),努力打造自主可控平臺(tái),不斷積聚海量用戶,增強(qiáng)平臺(tái)黏性和影響力,占據(jù)互聯(lián)網(wǎng)輿論主導(dǎo)地位。
從以上分析可以認(rèn)為,算法新聞掀起了新聞傳播領(lǐng)域的一場(chǎng)革命,它不僅挑戰(zhàn)了傳統(tǒng)新聞的生產(chǎn)方式、分發(fā)模式和商業(yè)模式,也挑戰(zhàn)了傳統(tǒng)新聞的價(jià)值理念、倫理準(zhǔn)則與理論規(guī)范等。在算法新聞時(shí)代,必須把完善保障媒體社會(huì)責(zé)任的實(shí)現(xiàn)機(jī)制及“完善堅(jiān)持正確導(dǎo)向的輿論引導(dǎo)工作機(jī)制”,“抵制低俗庸俗媚俗的工作機(jī)制”納入社會(huì)治理的重要范疇,既充分發(fā)揮算法技術(shù)的工具理性造福人類,又切實(shí)避免“創(chuàng)新性破壞”維護(hù)公共價(jià)值,從而實(shí)現(xiàn)算法對(duì)人的價(jià)值關(guān)懷和推動(dòng)社會(huì)的良性發(fā)展。