摘要:本文從新聞生產(chǎn)的角度,分析了算法技術(shù)從傳統(tǒng)生產(chǎn)流程的革新、“把關(guān)人”身份的重新定義以及媒介與受眾的關(guān)系這三個(gè)方面對(duì)新聞業(yè)進(jìn)行的重構(gòu),旨在強(qiáng)化新聞生產(chǎn)中人的主體性,并進(jìn)一步優(yōu)化算法,在保障信息資料來源權(quán)威的情況下植入道德倫理觀念,避免出現(xiàn)隱私權(quán)的侵犯和文字模板化等現(xiàn)象。
關(guān)鍵詞:算法技術(shù);新聞倫理;新聞生產(chǎn);媒介素養(yǎng)
算法技術(shù)的運(yùn)用無疑為新聞業(yè)提供了一次范式變革,不但打破了以往的新聞報(bào)道制作的方法,而且沖擊了以往的新聞報(bào)道傳播的理念。這種改變深深地滲入新聞業(yè)的各個(gè)流程中。新聞報(bào)道內(nèi)容的生產(chǎn)模式開始由人工制作的 “手工作坊”變?yōu)樗惴ㄝo助的人機(jī)協(xié)同,新聞敘事的結(jié)構(gòu)由傳統(tǒng)的線性模式變?yōu)榇怪迸c深度互動(dòng)的形式,對(duì)媒體價(jià)值程度的衡量標(biāo)準(zhǔn)也由傳統(tǒng)的主觀實(shí)證的評(píng)估變?yōu)榭陀^的定量實(shí)證評(píng)估,新聞信息的推薦模式已經(jīng)由大眾推廣變?yōu)閭€(gè)性化定制。而在算法技術(shù)不斷擴(kuò)大運(yùn)用、提升新聞創(chuàng)作效率與準(zhǔn)確度的今天,對(duì)新聞倫理道德也提出了許多影響與挑戰(zhàn)。傳統(tǒng)模式下的新聞倫理觀點(diǎn)認(rèn)為,只有把倫理準(zhǔn)則視為客觀不變的準(zhǔn)則存在時(shí),才會(huì)使這一原則產(chǎn)生普遍有效性。新聞倫理規(guī)范的引入常常要求復(fù)雜的發(fā)展流程,這與連續(xù)、高速和顛覆性的信息創(chuàng)新的邏輯相沖突,使監(jiān)管制度和科技發(fā)展之間具有周期性差異。由于目前的新聞業(yè)道德規(guī)范在相當(dāng)程度上并不涉及或僅涉及在線的信息傳播活動(dòng),因此許多相應(yīng)的倫理責(zé)任主體均不受新聞業(yè)道德規(guī)范的制約,技術(shù)上產(chǎn)生了人文主義和工具理性之間的沖突與分裂。新聞本身就擔(dān)負(fù)著重塑媒介生態(tài)、營造用戶景觀、傳遞信息文化的責(zé)任,算法新聞也不例外。所以,有必要以新聞倫理的視角來看待算法技術(shù)。
一、算法技術(shù)對(duì)新聞業(yè)的重構(gòu)分析
(一)革新傳統(tǒng)生產(chǎn)流程
算法技術(shù)的參與充分實(shí)現(xiàn)了新聞信息生成、傳遞、信息反9p2zvz7bpm3G8S5Hmfx2ZA==饋全流程的工作效率最優(yōu)化,也提升了公眾掌握新聞信息的能力。在算法技術(shù)的運(yùn)用下,新聞制造流程與傳統(tǒng)制造模型相比出現(xiàn)了很大變革與創(chuàng)新。過去,新聞生產(chǎn)模式大多以人為基準(zhǔn),傳統(tǒng)的新聞采寫要經(jīng)過選擇、調(diào)查、撰寫文章、出版等一系列流程,隨著科技的進(jìn)步,由大數(shù)據(jù)驅(qū)動(dòng)的新聞生產(chǎn)業(yè)務(wù)是在預(yù)制的計(jì)算程序中產(chǎn)生的。算法新聞的編制流程大致分為四大階段:數(shù)據(jù)庫建設(shè)、計(jì)算機(jī)學(xué)習(xí)、新聞寫作和人工審查。機(jī)器學(xué)習(xí)所產(chǎn)生的數(shù)據(jù)獲取模式與內(nèi)容生成模式形成了當(dāng)前算法技術(shù)下的新聞生產(chǎn)模型的體系應(yīng)用。
算法技術(shù)從過去的新聞文章中學(xué)習(xí)、處理其中的數(shù)據(jù),并逐步對(duì)其加以結(jié)構(gòu)化處理,從而形成算法技術(shù)中能夠運(yùn)用的結(jié)構(gòu)化數(shù)據(jù),進(jìn)而將之引入提取模型。大數(shù)據(jù)分析為新聞業(yè)提供了全新的創(chuàng)作方法、經(jīng)營管理模式和傳播方法,讓推送新聞發(fā)布更加前所未有地簡便、快捷和廣泛。[1]一個(gè)事件或許僅需十幾分鐘就能夠從發(fā)生到被填寫進(jìn)新聞稿再到發(fā)布,之后再讓讀者瀏覽,這就使新聞報(bào)道的時(shí)效性不再只是相對(duì)而言的迅捷,而是真正意義的迅捷。為增強(qiáng)個(gè)性化新聞發(fā)布的預(yù)報(bào)有效性和精確度,數(shù)據(jù)服務(wù)提供商必須獲取豐富的消費(fèi)者信息來研究和分析消費(fèi)者的行為、價(jià)值觀和態(tài)度。
(二)重新定義“把關(guān)人”身份
盧因指出,群體傳播中的信息流動(dòng)是由含有 “門區(qū)”的渠道發(fā)生,只有達(dá)到群體標(biāo)準(zhǔn)或 “把關(guān)人”價(jià)值標(biāo)準(zhǔn)的消息方可流入宣傳渠道。算法技術(shù)在新媒體平臺(tái)中大大增強(qiáng)了傳播的有效和快捷,但也導(dǎo)致傳統(tǒng)模式下的 “把關(guān)人”在新媒體平臺(tái)海量的信息中難以進(jìn)行內(nèi)容的審核,傳統(tǒng)的 “把關(guān)人”模式正在受到?jīng)_擊。而在當(dāng)下的傳播環(huán)境中,內(nèi)容制造商、平臺(tái)運(yùn)營商和內(nèi)容消費(fèi)者都是視頻內(nèi)容把關(guān)流程中的 “把關(guān)人”。
“把關(guān)人”學(xué)說被視為傳播學(xué)的典型學(xué)說,在新媒介環(huán)境下引起普遍的懷疑。不少人提出,“把關(guān)人”的地位正在逐漸被削弱,甚至有人提出這一概念可能會(huì)消失。但隨著算法推薦模式在新媒體平臺(tái)中的作用,徹底改變了信息的傳播以及內(nèi)容的消費(fèi)模式,流程、層次、把關(guān)標(biāo)準(zhǔn)和影響也都出現(xiàn)了一定的改變,“把關(guān)人”功能減弱的假設(shè)顯然受到了挑戰(zhàn)。[2]作為承擔(dān)新聞宣傳的關(guān)鍵工作人員,他們必須評(píng)估和調(diào)整報(bào)道的價(jià)值觀、寫作品質(zhì)、媒體政策、受眾要求以及其他要求,只有符合標(biāo)準(zhǔn)要求的信息才能傳播。所以,“把關(guān)人”算法工具取代了傳統(tǒng)的 “把關(guān)人”形象身份。該系統(tǒng)主要負(fù)責(zé)過濾和管理信息。針對(duì)個(gè)性化內(nèi)容推送,算法在篩選用戶偏好和推薦用戶可能感興趣的內(nèi)容上也起到了很大作用。
新聞是利用網(wǎng)絡(luò)平臺(tái)宣傳的。當(dāng)公眾在網(wǎng)絡(luò)上訪問和查詢時(shí),會(huì)在網(wǎng)絡(luò)上產(chǎn)生痕跡。人工智能將以此為基準(zhǔn)解析各種用戶信息。新媒體平臺(tái)內(nèi)容量大、傳播速度快、去中心化的特征使傳統(tǒng)的把關(guān)模式早已不再適用。新媒體平臺(tái)上的新聞生產(chǎn)內(nèi)容對(duì) “把關(guān)人”的身份定義產(chǎn)生了前所未有的影響與挑戰(zhàn)。
(三)重塑媒體與受眾的關(guān)系
傳統(tǒng)媒體時(shí)代的受眾往往處于一種在平等的被動(dòng)接收的過程中,所有人都被無差別地投放著相同的信息。在算法技術(shù)的推薦之下,投送方式也在發(fā)生變化,從原先無差別地進(jìn)行廣泛的投送到有針對(duì)性地進(jìn)行感興趣話題的推送。
算法構(gòu)建的新聞生產(chǎn)模式中,大量的個(gè)人數(shù)據(jù)被挖掘、監(jiān)控和莫名其妙地跟蹤,互聯(lián)網(wǎng)技術(shù)企業(yè)的精確針對(duì)性內(nèi)容面臨輿論碎片化的潛在風(fēng)險(xiǎn)。受眾并未意識(shí)到,他們所認(rèn)為的客觀新聞其實(shí)是被算法操縱和人為控制的新聞信息。在算法技術(shù)的發(fā)展之下,受眾在不斷讓渡自己的權(quán)利,通過讓渡自己的隱私權(quán)來獲取感興趣信息的快速投喂,逐漸呈現(xiàn)出個(gè)體對(duì)于事件接收信息的差異化。
這種差異化的構(gòu)建底層邏輯是流量利益的驅(qū)動(dòng),在給受眾帶來相比于以往傳統(tǒng)媒體無差別投送更為舒適的瀏覽體驗(yàn)的同時(shí),也進(jìn)入了算法構(gòu)建的 “擬態(tài)環(huán)境”,對(duì)于真實(shí)環(huán)境理解的偏差也在算法的推薦中逐漸顯現(xiàn)。[3]媒體和受眾之間的關(guān)系變得更加緊密的同時(shí),媒體也更加了解受眾的喜好,算法中自然蘊(yùn)含的對(duì)于立場(chǎng)和信息的歧視態(tài)度和相對(duì)同質(zhì)化的內(nèi)容也隨著推送的內(nèi)容帶到了接收端。
二、算法技術(shù)應(yīng)用背后產(chǎn)生的倫理反思
算法技術(shù)在廣泛應(yīng)用的過程中也產(chǎn)生了諸多問題,以下將從新聞從業(yè)者的主體性問題、算法黑箱背后新聞的真實(shí)性問題以及新聞價(jià)值面臨削弱三個(gè)主要方面進(jìn)行探討。
(一)新聞“人”的主體性降低
算法新聞是指人工智能利用網(wǎng)絡(luò)獲取和組合資訊,從而以模擬人行為的方法來進(jìn)行撰寫的新聞。算法技術(shù)對(duì)所采集到的信息加以過濾,并由此建立新聞框架。在人工智能的驅(qū)使下,更多的算法新聞?wù)Q生,人類的主體性下降,新聞內(nèi)容的模板化現(xiàn)象愈發(fā)嚴(yán)重。內(nèi)容多為相似框架的重復(fù)內(nèi)容,機(jī)械且缺乏 “人”的主體性,存在文字冰冷等特點(diǎn)。
雖然人工智能的相應(yīng)程序在信息傳遞方面起到了很大效果,但也有很多不健全之處,特別是人工智能方法的缺陷與漏洞。社會(huì)已步入智能傳媒時(shí)代十多年,而人工智能在新聞傳播領(lǐng)域的問題直至最近幾年才引起重視。人工智能使用者往往缺乏媒體素養(yǎng),特別是缺乏完整的應(yīng)急規(guī)劃來處理人工智能算法產(chǎn)生的一些問題和負(fù)面影響。[4]人工智能設(shè)計(jì)者與使用者之間也存在巨大理解差異,由于人工智能算法的設(shè)計(jì)者并沒有新聞?lì)I(lǐng)域的專業(yè)知識(shí),而專業(yè)記者又很難迅速了解電腦專業(yè)知識(shí),使二者之間存在信息差,過時(shí)的媒體素養(yǎng)已趕不上科技轉(zhuǎn)型的腳步,傳媒工作者本身也很難意識(shí)到媒體倫理的危害。
雖然算法技術(shù)的發(fā)展前景巨大,但科技卻并非無所不能,提升全民媒介素質(zhì)的任務(wù)已迫在眉睫。在提升新聞工作者的技術(shù)使用能力和對(duì)新聞倫理觀念更新的同時(shí),也要兼顧算法技術(shù)發(fā)展的社會(huì)價(jià)值原則。平臺(tái)、用戶、行業(yè)內(nèi)部要互相監(jiān)督,政府監(jiān)管部門應(yīng)引導(dǎo)開展對(duì)具備主流價(jià)值觀的數(shù)據(jù)信息的研究與開發(fā),建立健全算法開發(fā)人員、媒體工作使用者與監(jiān)督部門間的交流協(xié)作機(jī)制,通過道德教育與培訓(xùn)提升算法開發(fā)人員的職業(yè)道德素質(zhì)。
(二)新聞?wù)鎸?shí)性受到挑戰(zhàn)
算法新聞可以在既定的語義結(jié)構(gòu)和規(guī)則內(nèi)進(jìn)行,而數(shù)據(jù)的品質(zhì)和完整性尤為重要。滲透到某些意識(shí)形態(tài)和思想中的看似 “價(jià)值中立”的算法,或許會(huì)造成虛假、有偏見和歧視性的問題新聞報(bào)道。在數(shù)據(jù)使用方面,算法技術(shù)導(dǎo)致信息安全問題頻繁發(fā)生,造成數(shù)據(jù)濫用現(xiàn)象。在整個(gè)新聞創(chuàng)作與傳播流程中,基于市場(chǎng)效益和不透明的設(shè)計(jì)程序,智能信息提取與算法技術(shù)獲取了大量數(shù)據(jù)并進(jìn)行了過度分析。例如,某新三板上市公司涉嫌違規(guī)盜取約30億個(gè)用戶信息,包括百度、騰訊、阿里等國內(nèi)96個(gè)互聯(lián)網(wǎng)公司,并違規(guī)控制了公眾賬號(hào)和粉絲的關(guān)注者。[5]因?yàn)檫x擇性的曝光,信息的多樣性是有限的,這或許會(huì)強(qiáng)化個(gè)人的看法或立場(chǎng),從而造成信息盲點(diǎn)的存在,侵蝕個(gè)人的自由選擇權(quán)利,最后造成用戶間的兩極分化,如 “過濾泡沫”“信息繭房”“回音室效應(yīng)”,從而縮窄了社交互聯(lián)網(wǎng)的對(duì)話空間。
算法黑箱掩飾了新聞的真實(shí)性,傳播某些意識(shí)形態(tài)和思想的算法還可能產(chǎn)生偽造的、嵌入偏見的和歧視性的新聞報(bào)道。針對(duì)當(dāng)前算法新聞倫理的問題,未來將確定算法新聞所堅(jiān)持的倫理使命,注重頂層設(shè)計(jì)形成良性循環(huán),建立科學(xué)合理的機(jī)器人撰寫 “產(chǎn)錯(cuò)糾錯(cuò)”體系,進(jìn)而完善算法新聞報(bào)道的基礎(chǔ)技術(shù)。
算法科技也需要?jiǎng)?chuàng)新,通過算法的不斷創(chuàng)新降低新聞倫理上的不良行為現(xiàn)象。這就要求制定更加規(guī)范的規(guī)則,更加規(guī)范地分解報(bào)道信息,并在根源上篩選新聞內(nèi)容,讓每一個(gè)新聞都真正有辦法可供使用、有信息可供檢查。人工智能制作的每一個(gè)新聞內(nèi)容都需要有具體的數(shù)據(jù)來源和新聞內(nèi)容制作方法,從根源上避免虛假新聞的產(chǎn)生。
(三)新聞價(jià)值受到削弱
智能算法推薦技術(shù)對(duì)新聞數(shù)據(jù)的處理造成決策誤差。為滿足新聞受眾的信息偏好,新聞平臺(tái)上的算法推薦系統(tǒng)在篩選過程中常常造成信息篩選的偏頗和不透明,從而建立可以固化傳統(tǒng)倫理價(jià)值觀的 “信息繭房”。算法技術(shù)雖然可以滿足受眾對(duì)熱點(diǎn)新聞關(guān)注的即時(shí)性和時(shí)效性的要求,讓新聞?dòng)浾邚目煨侣勚忻撋?,但總的來說,新聞內(nèi)容的品質(zhì)被降低,讓服務(wù)于社會(huì)的報(bào)道價(jià)值出現(xiàn)下降狀態(tài)。[6]
算法技術(shù)的管理就是注重對(duì)算法新聞?dòng)脩舻姆答伵c參與,并采取用戶賦權(quán)、用戶參與、社會(huì)交流等方法,把用戶的反饋和建議納入算法新聞的生產(chǎn),充分關(guān)注用戶對(duì)算法倫理的 “自下而上”治理。良性的生態(tài)系統(tǒng)構(gòu)建離不開融洽的互動(dòng)關(guān)系。平臺(tái)媒體或組織應(yīng)當(dāng)注重用戶評(píng)價(jià)研究,與用戶形成互利伙伴關(guān)系,并充分發(fā)揮其功能,主動(dòng)地為產(chǎn)品質(zhì)量提供意見與建議。在算法技術(shù)的有序發(fā)展當(dāng)中,人類保持其在使用過程中的主體性是至關(guān)重要的,與此同時(shí),新聞媒體的從業(yè)人員應(yīng)當(dāng)做好 “把關(guān)人”的工作,避免算法新聞在生產(chǎn)過程中由于數(shù)據(jù)來源的不透明而出現(xiàn)新聞失實(shí)等問題。當(dāng)出現(xiàn)不實(shí)新聞時(shí),從業(yè)人員需要根據(jù)事件的重要程度,及時(shí)消除謠言帶給公眾的不良影響。
在算法技術(shù)與社會(huì)公平之間實(shí)現(xiàn)道德平衡。在算法技術(shù)的研究與設(shè)計(jì)中要求算法公正,強(qiáng)調(diào)算法技術(shù)的建設(shè)性評(píng)價(jià)過程,在算法新聞的倫理設(shè)計(jì)中達(dá)到過程公正。強(qiáng)調(diào)計(jì)算流程的透明度與公平性,新聞編輯從嚴(yán)承擔(dān)新聞內(nèi)容監(jiān)管職能,不斷提升算法傳媒素質(zhì),注重算法新聞內(nèi)容的價(jià)值導(dǎo)向。
三、結(jié)束語
維納曾在 《控制論》中指出:“技術(shù)向善,人本逐利?!笨萍嫉陌l(fā)展是中立的,它就像把利刃,為善行與惡行都帶來了無盡的機(jī)會(huì),但是在利益凌駕于價(jià)值理性之上、人的主動(dòng)性缺乏的時(shí)候,人便會(huì)被工具裹挾,進(jìn)而缺乏能動(dòng)性。維護(hù)新聞產(chǎn)業(yè)的尊嚴(yán),把握新聞的底線,規(guī)范新聞倫理,才是新聞行業(yè)生產(chǎn)和可持續(xù)發(fā)展的前提條件。
參考文獻(xiàn):
[1] 張夢(mèng)溪.智媒時(shí)代新聞倫理失范問題與對(duì)策探究[J].中國報(bào)業(yè),2023(18):132-133.
[2] 鄭久良.人工智能時(shí)代算法新聞倫理治理范式研究[J].青年記者,2024(01):98-102.
[3] 趙凱星.博弈與合作:算法技術(shù)下體育新聞的倫理困境與重建路徑[C]//國家體育總局體育文化發(fā)展中心,中國體育科學(xué)學(xué)會(huì)體育史分會(huì).第三屆 “一帶一路”體育文化學(xué)術(shù)論壇知網(wǎng)檢索摘要集.武漢體育學(xué)院,2023:1.
[4] 牛靜,胡文韜.流動(dòng)的現(xiàn)代性社會(huì)中新聞倫理的理念反思與維度重構(gòu)[J].新聞界,2023(11):23-32.
[5] 孔祥倩.大數(shù)據(jù)精算背景下記者深采、編輯精編的重要性探析[J].科技傳播,2017,9(17):4-5.
[6] 劉耀華.治理算法黑箱:建構(gòu)算法科技與新聞倫理的道德智能體[J].大眾文藝,2023(18):59-61.