■ 尹凱民 梁 懿
康斯坦丁·多爾將算法新聞定義為,“從私人的或公共的數(shù)據(jù)庫(kù)中選擇電子數(shù)據(jù),對(duì)預(yù)選或未選數(shù)據(jù)進(jìn)行相關(guān)性分配,通過自然語(yǔ)言生成語(yǔ)義結(jié)構(gòu)并在特定范圍的線上或線下平臺(tái)中發(fā)布的最終文本”①??傮w而言,算法新聞是計(jì)算技術(shù)應(yīng)用于新聞業(yè)中的產(chǎn)物,但由于其具有復(fù)雜性、智能性、集成性等特點(diǎn),因此計(jì)算技術(shù)在應(yīng)用于傳統(tǒng)新聞行業(yè)時(shí)所產(chǎn)生的倫理問題具有重要的研究?jī)r(jià)值。
倫理問題始終是新聞學(xué)研究的重要組成部分,傳統(tǒng)倫理研究主要關(guān)注新聞組織的日常運(yùn)作與專業(yè)實(shí)踐,但由于新聞行業(yè)與技術(shù)發(fā)展連接緊密,因此技術(shù)不斷塑造著新聞研究的道德話語(yǔ)及倫理準(zhǔn)則。
進(jìn)入21世紀(jì),科學(xué)技術(shù)的快速發(fā)展使整個(gè)社會(huì)對(duì)于新聞時(shí)效性的要求提升到了前所未有的高度,傳統(tǒng)的“確證式新聞”開始逐漸被非專業(yè)化的新聞形式取代②,“斷言式新聞”成為當(dāng)今全球的主要新聞生產(chǎn)模式③。新聞?dòng)浾卟辉賹W⒂趯?duì)事實(shí)的調(diào)查,而傾向于采用已有的背景信息對(duì)現(xiàn)實(shí)進(jìn)行建構(gòu),以往確立的新聞應(yīng)該報(bào)道事實(shí)的價(jià)值規(guī)范受到?jīng)_擊。與此同時(shí),“肯定式新聞”的出現(xiàn)進(jìn)一步與新聞客觀性發(fā)生沖突;“聚合式新聞”將算法引入新聞業(yè),難以證明的數(shù)據(jù)來源、算法本身的客觀與否以及價(jià)值觀念的固有偏見等因素將這一矛盾激化,沖擊了新聞業(yè)本身樹立的倫理規(guī)范④,新聞業(yè)本身的合法性變得岌岌可危。
算法的出現(xiàn)顛覆了傳統(tǒng)新聞業(yè)的生產(chǎn)模式與組織架構(gòu)。搜集數(shù)據(jù)、生成文本、分發(fā)推送皆可交由計(jì)算機(jī)處理,這種方式極大地提高了新聞業(yè)的生產(chǎn)效率,改變新聞分發(fā)模式,進(jìn)一步滿足了受眾“及時(shí)”“個(gè)性”的信息需求,但卻引發(fā)了一系列倫理探討。從算法推薦上看,倫理風(fēng)險(xiǎn)最主要體現(xiàn)在“信息繭房”與“主流價(jià)值觀的缺乏”兩方面。⑤推送機(jī)制從表面上看能提高新聞內(nèi)容的分發(fā)效率,但其背后的價(jià)值邏輯卻是謀取用戶“注意力經(jīng)濟(jì)”的偽個(gè)性化推送。⑥例如,基于協(xié)同過濾的算法推送,目的在于反映群體偏好,并不完全依賴于目標(biāo)受眾的興趣⑦,閱讀的決定權(quán)反而轉(zhuǎn)移至算法及平臺(tái)當(dāng)中。此外,有學(xué)者認(rèn)為算法推送還會(huì)導(dǎo)致低俗化現(xiàn)象,為了迎合人的獵奇心理,大量的庸俗、低俗內(nèi)容充斥網(wǎng)絡(luò)平臺(tái)⑧,經(jīng)過算法推送其傳播得到加強(qiáng),最終導(dǎo)致優(yōu)質(zhì)的內(nèi)容無人問津,“劣幣驅(qū)除良幣”現(xiàn)象頻現(xiàn)。從算法生產(chǎn)上看,算法本身存在的固有缺陷以及人類對(duì)數(shù)據(jù)的盲目信任容易引發(fā)更大的危機(jī),例如新聞?wù)鎸?shí)性、偏見性⑨以及數(shù)據(jù)隱私等問題。由于算法的不透明性,其本身被視為“黑箱”存在,這對(duì)傳統(tǒng)的倫理判斷造成了極大干擾。同時(shí),當(dāng)前的算法技術(shù)還未達(dá)到完全的成熟,人工智能只能執(zhí)行命令,無法實(shí)現(xiàn)自我糾錯(cuò)也被視為挑戰(zhàn)了傳統(tǒng)編輯把關(guān)的倫理規(guī)范。⑩同時(shí),當(dāng)前我國(guó)算法新聞倫理研究存在兩項(xiàng)不足,一是研究體系零散,缺少對(duì)算法新聞倫理問題的詳細(xì)歸類;二是研究多局限于算法本身,偏重于考察影響,忽視算法新聞在不同環(huán)節(jié)可能產(chǎn)生的倫理風(fēng)險(xiǎn)。
根據(jù)多爾對(duì)于算法新聞的定義可以將自動(dòng)化新聞生產(chǎn)劃分為三個(gè)階段:輸入——從數(shù)據(jù)庫(kù)提取數(shù)據(jù);處理——用于預(yù)先設(shè)定的語(yǔ)言和統(tǒng)計(jì)規(guī)則處理數(shù)據(jù);生成——最終用自然語(yǔ)言輸出文本。在所有環(huán)節(jié)中,自然語(yǔ)言生成是關(guān)鍵,也即從數(shù)據(jù)庫(kù)中抓取數(shù)據(jù)并根據(jù)事先定義好的規(guī)則將其處理為自然語(yǔ)言文本是算法新聞的核心過程,而自然語(yǔ)言的起點(diǎn)是數(shù)據(jù)庫(kù),數(shù)據(jù)倫理問題由此成為對(duì)算法新聞倫理討論的開端。
1.數(shù)據(jù)來源:追溯難題與間接信源影響可信度
首先,“數(shù)據(jù)從何而來?”是倫理問題爭(zhēng)論的起點(diǎn)。由于數(shù)據(jù)由自然語(yǔ)言生成,是生產(chǎn)算法新聞的重要依據(jù),因此數(shù)據(jù)的來源明確與否對(duì)于新聞業(yè)而言至關(guān)重要。傳統(tǒng)的新聞生產(chǎn)由專業(yè)記者進(jìn)行調(diào)查采訪、搜集材料,雖然過程中不可避免地存在偏見或失實(shí)的問題,但能夠做到資料來源明確,主體清晰,新聞行業(yè)能夠?qū)?bào)道內(nèi)容負(fù)責(zé)。相比之下,算法新聞使用的數(shù)據(jù)很難追溯其確切來源,海量的數(shù)據(jù)內(nèi)容也使得對(duì)數(shù)據(jù)進(jìn)行逐一確認(rèn)難以實(shí)現(xiàn)。從我國(guó)的情況來看,商業(yè)數(shù)據(jù)庫(kù)中的數(shù)據(jù)是新聞業(yè)常用的數(shù)據(jù)來源,這類數(shù)據(jù)庫(kù)通常只集中在某一個(gè)方面,其所能描述的用戶特征也只是片面或單一的認(rèn)知,數(shù)據(jù)來源的片面性也是導(dǎo)致“信息繭房”的重要因素之一。其次,大多數(shù)新聞機(jī)構(gòu)都會(huì)選擇從第三方數(shù)據(jù)供應(yīng)商中購(gòu)買數(shù)據(jù),經(jīng)過多次交易的數(shù)據(jù)的來源更加撲朔迷離。如果算法新聞中的數(shù)據(jù)來源模糊不清,新聞內(nèi)容的真實(shí)性、可靠性也難以實(shí)現(xiàn),這違背了新聞行業(yè)最初設(shè)立的“提供信息”“報(bào)道事實(shí)”的行業(yè)目標(biāo),新聞業(yè)倫理問題隨之產(chǎn)生。
2.數(shù)據(jù)質(zhì)量:影響新聞內(nèi)容真實(shí)與否的關(guān)鍵
結(jié)構(gòu)化數(shù)據(jù)是自然語(yǔ)言生成的前提。原始數(shù)據(jù)需要被“清洗”,以算法能夠理解的結(jié)構(gòu)化形式輸入,因此數(shù)據(jù)本身的準(zhǔn)確性和可靠度對(duì)最終報(bào)道的真實(shí)準(zhǔn)確性具有決定性的影響。數(shù)據(jù)是否存在項(xiàng)目缺失或者信息不完整?如果不加驗(yàn)證地使用數(shù)據(jù)很難保證新聞內(nèi)容的真實(shí)性。當(dāng)前的人工智能并不具備自我糾錯(cuò)的能力,算法會(huì)不加區(qū)別地處理數(shù)據(jù)庫(kù)中顯示的數(shù)據(jù)信息,因而數(shù)據(jù)的缺失或不完整極易導(dǎo)致算法新聞產(chǎn)品的錯(cuò)誤與偏見。美聯(lián)社全球業(yè)務(wù)編輯麗薩·吉布斯說:“算法不會(huì)造成拼寫錯(cuò)誤或者算術(shù)計(jì)算錯(cuò)誤,錯(cuò)誤通常是由于數(shù)據(jù)有問題。如果數(shù)據(jù)不好,那么只會(huì)得到一個(gè)不好的故事。”因此,數(shù)據(jù)不但關(guān)系著算法新聞內(nèi)容質(zhì)量的高低,更關(guān)系新聞本身是否客觀、真實(shí),這是新聞組織不容忽視的倫理問題。
3.數(shù)據(jù)隱私與使用權(quán)利:提供新聞服務(wù)與保護(hù)用戶權(quán)利的困境
數(shù)據(jù)隱私同樣涉及到重要的倫理問題。算法新聞利用數(shù)據(jù)生產(chǎn)新聞,但在滿足公眾信息需求的同時(shí)也對(duì)公民個(gè)人的隱私造成極大風(fēng)險(xiǎn)。國(guó)內(nèi)外互聯(lián)網(wǎng)巨頭企業(yè)都掌握著龐大的用戶數(shù)據(jù)信息,包括用戶的瀏覽內(nèi)容、行為習(xí)慣、使用偏好等。2018年3月17日,媒體曝光了震驚世界的Facebook(全球用戶數(shù)量最多的社交平臺(tái))數(shù)據(jù)泄露事件,超過5000萬的用戶數(shù)據(jù)在使用者不知情的情況下被政治數(shù)據(jù)公司“劍橋分析”獲取并利用。在國(guó)內(nèi),許多互聯(lián)網(wǎng)公司以算法推薦的名義將用戶圈養(yǎng)在“信息繭房”之中,實(shí)現(xiàn)流量的商業(yè)變現(xiàn),這種服務(wù)模式在受到追捧的同時(shí)也引發(fā)很多網(wǎng)民的強(qiáng)烈反思,自己的數(shù)據(jù)究竟在何種程度上被算法新聞平臺(tái)獲?。坑脩粼诰W(wǎng)絡(luò)場(chǎng)域中如同身處于杰里米·邊沁所構(gòu)想的“圓形監(jiān)獄”之中,使用者不知道自己的數(shù)據(jù)是否被監(jiān)視、如何被監(jiān)視,更無法有效察覺自己的數(shù)據(jù)是否流失或者被濫用。目前來看,全世界缺少平衡算法新聞服務(wù)與用戶隱私邊界的統(tǒng)一規(guī)定,這也成為了新聞組織與互聯(lián)網(wǎng)企業(yè)需要共同面對(duì)的倫理難題。
此外,傳統(tǒng)新聞生產(chǎn)中曾屬于個(gè)人責(zé)任層面的問題現(xiàn)在也被轉(zhuǎn)移至整個(gè)媒體組織或是第三方數(shù)據(jù)提供商,因此衍生出的另一個(gè)問題則是誰有權(quán)使用這些數(shù)據(jù)以及能夠在多大程度上披露這些數(shù)據(jù)?數(shù)據(jù)的權(quán)限問題以往很少出現(xiàn)在新聞業(yè),但如今也不得不納入新聞倫理問題的考慮范圍。
1.算法中的新聞價(jià)值:代碼能否承載新聞價(jià)值?
新聞價(jià)值是新聞學(xué)研究的重點(diǎn)領(lǐng)域,至今仍存在較大爭(zhēng)議。西方對(duì)于新聞價(jià)值的理解傾向于商品意義上的“交換價(jià)值”,約翰·菲斯克等人在《關(guān)鍵概念:傳播與文化研究辭典》中對(duì)于新聞價(jià)值的定義為“在公司化造就的主流報(bào)刊與廣播中,用來選擇、建構(gòu)與表述新聞報(bào)道的專業(yè)化符碼”。因此,新聞價(jià)值在于滿足新聞業(yè)的生產(chǎn)要求,雖然遵循新聞應(yīng)當(dāng)真實(shí)、客觀的原則,但仍將滿足受眾需求放在首位。我國(guó)學(xué)者認(rèn)為,“現(xiàn)代新聞價(jià)值理論應(yīng)當(dāng)回歸價(jià)值的本義”,即應(yīng)以“新聞”為本位,而不是用“價(jià)值”限制新聞,并突出了新聞傳播活動(dòng)和事業(yè)對(duì)于人類社會(huì)的有用性。
兩種新聞價(jià)值的探討同樣適用于算法新聞帶來的爭(zhēng)議,算法新聞究竟是應(yīng)著眼于滿足受眾需求,還是凸顯媒體的社會(huì)責(zé)任?今日頭條創(chuàng)始人張一鳴曾表示“媒體是有價(jià)值觀的,但今日頭條不是媒體,我們更關(guān)注信息的吞吐量和信息的多元化。我們不能準(zhǔn)確判斷這個(gè)是好是壞,是高雅還是庸俗?!边@種說法遭到了業(yè)界的多方批評(píng),今日頭條本身已具備媒體屬性,卻披著技術(shù)外衣,公然忽視新聞價(jià)值,違背了新聞傳播活動(dòng)中的價(jià)值取向與品德規(guī)范。因此,算法新聞能否承擔(dān)諸如客觀性、透明性、責(zé)任感和真實(shí)性等新聞價(jià)值成為這一環(huán)節(jié)首先需要面對(duì)的倫理探討。
2.代碼中的價(jià)值觀預(yù)設(shè):算法如何體現(xiàn)社會(huì)價(jià)值觀
美國(guó)數(shù)學(xué)家凱西·奧尼爾曾言:算法是嵌入代碼中的觀點(diǎn)。算法新聞即便由算法生產(chǎn),也離不開人的設(shè)置,其本質(zhì)體現(xiàn)的仍是設(shè)計(jì)者的觀念。由于算法新聞的生產(chǎn)過程幾乎沒有人為干預(yù),所以代碼規(guī)則的預(yù)設(shè)顯得十分重要。但這引發(fā)了算法層面的又一倫理探討,即創(chuàng)作者如何通過代碼實(shí)現(xiàn)社會(huì)期待的價(jià)值與道德觀念。巴蒂亞·弗里德蘭曾提出“價(jià)值敏感性設(shè)計(jì)”技術(shù)哲學(xué)理論,這一方法將價(jià)值倫理、社會(huì)規(guī)則與技術(shù)設(shè)計(jì)結(jié)合,旨在將技術(shù)設(shè)計(jì)活動(dòng)中的人類價(jià)值嵌入計(jì)算機(jī)信息系統(tǒng)之中。弗里德蘭認(rèn)為可以從三個(gè)角度展現(xiàn)價(jià)值與技術(shù)的存在關(guān)系:內(nèi)含性觀點(diǎn)、外因性觀點(diǎn)和互動(dòng)性觀點(diǎn)。其中,內(nèi)含性觀點(diǎn)可以為代碼設(shè)計(jì)提供一定的指導(dǎo)意義,該觀點(diǎn)認(rèn)為,設(shè)計(jì)者將他們的意向和價(jià)值“刻入”到技術(shù)產(chǎn)品之中。因此,算法在設(shè)計(jì)之初就已包含設(shè)計(jì)者的價(jià)值傾向,算法負(fù)載的價(jià)值又將呈現(xiàn)在結(jié)果之中,一旦涉及價(jià)值傾向則有必要納入倫理問題的考量。
3.算法代碼本身的遮蔽性:技術(shù)不透明性遮蔽價(jià)值偏見
算法在被引入到新聞業(yè)之初時(shí)曾被視為推進(jìn)新聞更加客觀、真實(shí)的重要?jiǎng)恿?因?yàn)閼{借算法進(jìn)行數(shù)據(jù)抓取、新聞創(chuàng)作能夠避免人為干預(yù),也不會(huì)受到記者個(gè)人價(jià)值觀念的影響。但目前,更多人將其稱為“黑箱”,因?yàn)樗惴ǖ倪\(yùn)算過程更加不透明。傳統(tǒng)的新聞作品能夠通過記者的署名確認(rèn)其責(zé)任,但在算法新聞中,記者與算法的著作權(quán)歸屬本身就是尚待解決的重要法律問題,民眾更不了解數(shù)據(jù)的來源與計(jì)算機(jī)的計(jì)算邏輯,甚至無法區(qū)分一篇新聞報(bào)道究竟是由人類作者完成還是算法制作,這種技術(shù)本身所帶來的不透明性加劇了責(zé)任糾察難度。其次,一旦媒介組織將商業(yè)邏輯嵌入到算法模型之中,這種偏見將更加難以察覺。有學(xué)者質(zhì)疑,算法的所屬機(jī)構(gòu)是否會(huì)操縱算法權(quán)威,通過算法新聞的推送讓民眾看到其所屬機(jī)構(gòu)想讓大家看到的新聞內(nèi)容。目前國(guó)內(nèi)還沒有任何一家數(shù)據(jù)公司或媒介組織愿意公開自己的算法,因?yàn)樗惴夹g(shù)一旦公開就有遭受到外界篡改、攻擊的可能,也涉及到對(duì)于商業(yè)機(jī)密的保護(hù)。因此,算法本身不透明也難以透明的屬性與傳統(tǒng)新聞業(yè)的透明性、客觀性相沖突,成為新聞業(yè)難以平衡的倫理難題。
1.算法新聞生產(chǎn)者責(zé)任困境:多主體導(dǎo)致權(quán)責(zé)難以判定
在傳統(tǒng)的新聞行業(yè)中,記者個(gè)人被視為新聞業(yè)職業(yè)道德的代理人,應(yīng)具備專業(yè)素養(yǎng)、可靠的道德品格與極強(qiáng)的洞察能力,此類規(guī)范在大學(xué)開設(shè)的新聞教育中也反復(fù)被提及,但這種價(jià)值觀念在當(dāng)代卻逐漸變得局限且開始受到質(zhì)疑。隨著媒介系統(tǒng)的不斷分化,新聞生產(chǎn)參與的主體越來越多元,幾乎不可能只讓記者對(duì)新聞負(fù)責(zé)。在算法新聞生產(chǎn)的過程中,參與者至少包括媒體組織、專業(yè)記者、服務(wù)提供商、數(shù)據(jù)提供商、程序員等。在專業(yè)的算法新聞生產(chǎn)過程中,社會(huì)文化、組織結(jié)構(gòu)、新聞工作的專業(yè)要求以及記者個(gè)人的價(jià)值觀念被混雜在一起,共同嵌入代碼之中,因此需要新聞?dòng)浾吲c程序編碼員共同合作,使新聞產(chǎn)品符合新聞業(yè)的倫理標(biāo)準(zhǔn)。Just與Latzer認(rèn)為,這種新聞生產(chǎn)模式主要依靠授權(quán),即給予算法一定程度的自治,也正因如此,記者與算法代理之間合作的復(fù)雜程度會(huì)引發(fā)道德倫理挑戰(zhàn),如低透明度、低可控性與責(zé)任不明晰。例如,如果判定新聞在生產(chǎn)過程中出現(xiàn)了問題,誰應(yīng)對(duì)代碼/機(jī)器負(fù)責(zé)?由于大多數(shù)新聞機(jī)構(gòu)的算法服務(wù)需要外包給相應(yīng)的服務(wù)提供商或聘請(qǐng)計(jì)算機(jī)專業(yè)人員,那么代碼的編寫者和新聞?dòng)浾哒l的責(zé)任更大?多主體生產(chǎn)的情況無法改變,對(duì)于責(zé)任進(jìn)行分類歸屬是必由之路,但難以厘清的多層責(zé)任正是算法新聞帶來的新倫理問題。但這并不意味著記者責(zé)任的減弱,因?yàn)橛浾咝枰獙⒏嗟墓ぷ鬓D(zhuǎn)移到對(duì)最終產(chǎn)品的把控之中,記者個(gè)人的職業(yè)素養(yǎng)與道德水平仍不容忽視。
2.新聞產(chǎn)品把關(guān)難題:算法勞工與模糊且缺乏可操作性的把關(guān)標(biāo)準(zhǔn)
生產(chǎn)主體面臨的另一個(gè)問題是對(duì)于新聞產(chǎn)品的監(jiān)控。目前,世界上所有的新聞機(jī)構(gòu)均不會(huì)完全允許機(jī)器自我生產(chǎn)、自我發(fā)布,人為的監(jiān)控與把關(guān)是必要的,編輯需要核查上傳的內(nèi)容、時(shí)間、地點(diǎn)和上傳者身份等信息來判斷內(nèi)容源的真實(shí)性。Storyful作為世界可信度最高的信源調(diào)查和事實(shí)核查機(jī)構(gòu),雇傭的人工編輯團(tuán)隊(duì)占到了團(tuán)隊(duì)總?cè)藬?shù)的一半,創(chuàng)始人Mark Little表示:“一個(gè)已經(jīng)驗(yàn)證了的事情就是,在新聞?lì)I(lǐng)域,技術(shù)不可能完全取代編輯,純靠技術(shù)有時(shí)反而會(huì)產(chǎn)生讓人失望的結(jié)果。”在我國(guó),對(duì)于內(nèi)容審核編輯的需求也大大增加。2018年4月,國(guó)家互聯(lián)網(wǎng)信息辦公室對(duì)今日頭條、天天快報(bào)、鳳凰新聞、網(wǎng)易新聞四款新聞聚合類app下架整頓后,國(guó)內(nèi)算法新聞機(jī)構(gòu)以及互聯(lián)網(wǎng)公司開始大規(guī)模招聘內(nèi)容審核編輯,加強(qiáng)對(duì)于產(chǎn)品的內(nèi)容審核。
但是新聞內(nèi)容的審核要求無法一概而論,導(dǎo)致把關(guān)標(biāo)準(zhǔn)十分模糊,審核工作充滿盲目性與無序性。此外,隨著算法在新聞業(yè)的應(yīng)用越來越廣泛,算法生產(chǎn)的海量新聞文本為媒介組織帶來了難以負(fù)擔(dān)的監(jiān)控成本,對(duì)每一個(gè)新聞產(chǎn)品進(jìn)行監(jiān)控難以實(shí)現(xiàn),不僅耗費(fèi)大量的人力資源,審查效率還很緩慢,反而增加了媒介組織的工作負(fù)擔(dān),但如果不及時(shí)對(duì)發(fā)布的內(nèi)容把關(guān)又會(huì)衍生出一系列倫理問題。
此外,算法新聞的生產(chǎn)形式使得記者僅僅作為新聞產(chǎn)品的把關(guān)人而不需要在新聞生產(chǎn)過程中付出勞動(dòng),新聞從業(yè)者不得不被限制在算法技術(shù)主導(dǎo)的生產(chǎn)結(jié)構(gòu)之中,從業(yè)者的主體性被削弱,日益淪為替算法打標(biāo)簽的一種廉價(jià)勞動(dòng)力即“算法勞工”,這也是技術(shù)應(yīng)用于新聞業(yè)后對(duì)主體倫理地位的挑戰(zhàn)。
1.社會(huì)背景:過度依賴技術(shù)的工具理性
新聞業(yè)并非是人類社會(huì)唯一受到算法技術(shù)影響的行業(yè),算法作為一項(xiàng)計(jì)算技術(shù)早已滲透到社會(huì)各環(huán)節(jié)之中并承擔(dān)起愈發(fā)重要的角色,不同學(xué)科、不同行業(yè)內(nèi)部均呈現(xiàn)出一派急于與人工智能技術(shù)適配的慌亂景象,這些現(xiàn)象折射出的是人與技術(shù)關(guān)系的失衡,也是“工具理性”與“價(jià)值理性”間的博弈。隨著人工智能技術(shù)在世界的興盛,整個(gè)社會(huì)沉醉于科學(xué)技術(shù)帶來的前所未有的新體驗(yàn)之中,并將其帶入各行各業(yè),企圖實(shí)現(xiàn)全方位的革新與升級(jí)。算法技術(shù)也為新聞業(yè)帶來了多項(xiàng)益處,例如提升寫作效率、為調(diào)查事實(shí)提供了便利、使定制化得以實(shí)現(xiàn)。因此在享受到技術(shù)紅利的同時(shí),整個(gè)社會(huì)開始向工具理性主義傾斜,效率使新聞業(yè)讓渡價(jià)值,技術(shù)使媒體人讓渡真實(shí),數(shù)據(jù)使用戶讓渡隱私,人對(duì)技術(shù)的過度依賴使行為本身的后果被忽視,導(dǎo)致了一系列倫理問題。傳統(tǒng)的新聞倫理研究幾乎都是站在價(jià)值理性的視角對(duì)新聞業(yè)進(jìn)行批判思考,這也是為什么在工具理性觀念占據(jù)優(yōu)勢(shì)地位的今天,這些觀念不斷受到批評(píng)和質(zhì)疑的原因,傳統(tǒng)新聞倫理研究已無法完整覆蓋算法新聞倫理,需要與技術(shù)倫理學(xué)相結(jié)合。
2.傳播環(huán)境:受眾對(duì)信息體驗(yàn)的盲目追逐
每一種新媒介形式的應(yīng)用都將進(jìn)一步滿足人的信息需求,例如紙張滿足了人類對(duì)于信息傳輸?shù)男枨?廣播滿足了人類對(duì)于聲音的需求,電視滿足了人類對(duì)于視覺的需求,互聯(lián)網(wǎng)綜合了以往媒介的特點(diǎn)全方位滿足人們的信息體驗(yàn),但人類信息體驗(yàn)的標(biāo)準(zhǔn)也在盲目提高,甚至超過了對(duì)于信息本身的關(guān)注,這種盲目性主要體現(xiàn)在兩方面。一是信息的時(shí)效性。自然語(yǔ)言技術(shù)提升了新聞的撰寫效率,一則新聞只需數(shù)秒即可完成;大數(shù)據(jù)省去了記者調(diào)查和記錄的過程,足不出戶就可以生產(chǎn)新聞,這導(dǎo)致新聞的專業(yè)性不斷被削弱,專業(yè)新聞人員在行業(yè)內(nèi)的重要性不斷降低,數(shù)據(jù)來源、數(shù)據(jù)質(zhì)量、新聞價(jià)值、新聞?wù)鎸?shí)難以得到保證。二是信息的觀感,受眾對(duì)于私人化、定制化的追捧促使智能推薦算法成為當(dāng)前互聯(lián)網(wǎng)產(chǎn)品的主流應(yīng)用技術(shù),其代價(jià)是對(duì)用戶數(shù)據(jù)的攫取與利用??梢灶A(yù)見,隨著技術(shù)的進(jìn)一步發(fā)展,在算法技術(shù)基礎(chǔ)上疊加的VR/AR新聞以及5G技術(shù)對(duì)“物”的媒介性塑造而帶動(dòng)的傳感器新聞將使隱私泄漏風(fēng)險(xiǎn)達(dá)到前所未有的程度。
3.技術(shù)誘因:算法技術(shù)本身的不完善
雖然算法技術(shù)近年來發(fā)展的如火如荼,但從技術(shù)史的長(zhǎng)河來看,算法仍是一項(xiàng)年輕的技術(shù),其本身還存在很多缺陷與不完善之處,這也導(dǎo)致了一部分新聞倫理問題。上文論述的數(shù)據(jù)質(zhì)量問題正是由于算法技術(shù)目前無法實(shí)現(xiàn)數(shù)據(jù)自動(dòng)糾錯(cuò)所導(dǎo)致的,如果算法能夠快速且準(zhǔn)確地糾察海量數(shù)據(jù),這一環(huán)節(jié)引發(fā)的倫理問題風(fēng)險(xiǎn)也會(huì)大大降低。新聞價(jià)值問題同樣也是當(dāng)前技術(shù)局限的后果,目前的機(jī)器撰寫只能處理結(jié)構(gòu)化數(shù)據(jù),這也是財(cái)經(jīng)和體育類新聞?lì)I(lǐng)域算法新聞技術(shù)發(fā)展較快的重要原因。但即便處理結(jié)構(gòu)化數(shù)據(jù),算法產(chǎn)出的新聞文本也與人類記者撰寫的新聞?dòng)幸欢ú罹?在深度報(bào)道領(lǐng)域更是存在天壤之別,因此需要大量的人工監(jiān)控,造成對(duì)從業(yè)者主體性的消磨。隨著算法技術(shù)的發(fā)展,機(jī)器生成與人工撰寫內(nèi)容的差距將不斷縮小,新聞內(nèi)容的專業(yè)性也會(huì)逐漸提高,專業(yè)的新聞工作者也將能夠從算法勞工的窘境中得到解放,重新占據(jù)新聞創(chuàng)作的主導(dǎo)話語(yǔ)。此外,減少能夠避免的技術(shù)失誤也有助于降低算法新聞的倫理風(fēng)險(xiǎn),例如錯(cuò)誤的假設(shè)和判斷、不恰當(dāng)?shù)慕<夹g(shù)、錯(cuò)誤的編碼等,這可能需要建立對(duì)算法的審計(jì)機(jī)制,在有限的技術(shù)條件下盡可能將負(fù)面影響降到最低。
被譽(yù)為“第四次革命”的人工智能技術(shù)是人類社會(huì)進(jìn)步的重要標(biāo)志,也是未來社會(huì)的發(fā)展方向。所以盡管算法與新聞業(yè)的結(jié)合引發(fā)了諸多倫理風(fēng)險(xiǎn)問題,新聞業(yè)也不可能摒棄對(duì)算法技術(shù)的應(yīng)用。新聞傳播學(xué)科需要建立一套合適的原則來正確審視算法技術(shù)的應(yīng)用,因此本文嘗試從包容性、謹(jǐn)慎性與專業(yè)性角度提出對(duì)于算法新聞倫理的審視原則,為審視算法新聞的倫理問題提供一定參考。
1.包容原則:全面認(rèn)識(shí)算法新聞的作用
包容不意味著不加批判地接受,而是全面認(rèn)識(shí)算法新聞帶來的正負(fù)影響。在互聯(lián)網(wǎng)技術(shù)占據(jù)中心地位之前,其他媒介技術(shù)也都或多或少遭受過批判,例如電視曾被批判干擾受眾對(duì)信息的價(jià)值判斷,對(duì)正功能有阻斥、滯退等消極作用。電視的娛樂性也被認(rèn)為與新聞的嚴(yán)肅性相悖,不利于受眾對(duì)于重要信息的理解。著名學(xué)者格伯納曾認(rèn)為,“電視可以制造現(xiàn)實(shí),控制受眾對(duì)事件的理解,并達(dá)到特定的目標(biāo)”。如今看來,電視技術(shù)似乎并沒有造成如此強(qiáng)烈的負(fù)面效果,反而成為民眾獲取新聞的重要渠道,在互聯(lián)網(wǎng)成為批判的焦點(diǎn)后,人們的擔(dān)憂轉(zhuǎn)嫁到網(wǎng)絡(luò)技術(shù)之上。盡管對(duì)于媒介倫理的批判具有重要的學(xué)術(shù)價(jià)值,但也要看到許多研究存在過于放大倫理影響的一面。本文雖然重點(diǎn)研究算法新聞的倫理爭(zhēng)議,列舉了算法新聞的倫理問題,但同樣認(rèn)為面對(duì)算法新聞這樣一種新生事物,應(yīng)秉持包容的審視原則,全面看待其作用,給予技術(shù)一定的成長(zhǎng)空間,不能過分強(qiáng)調(diào)負(fù)面?zhèn)惱硇?yīng)而忽視算法新聞的重要益處。
2.謹(jǐn)慎原則:最大程度規(guī)避技術(shù)風(fēng)險(xiǎn)
在全面認(rèn)識(shí)到算法新聞的價(jià)值后,對(duì)其正向作用應(yīng)繼續(xù)保持并優(yōu)化,但對(duì)于倫理風(fēng)險(xiǎn)問題應(yīng)謹(jǐn)慎對(duì)待,盡量將倫理風(fēng)險(xiǎn)降至最低。應(yīng)當(dāng)看到,算法新聞的倫理問題一部分是新技術(shù)應(yīng)用增加的倫理風(fēng)險(xiǎn),另一部分則是傳統(tǒng)新聞倫理問題在技術(shù)環(huán)境下的加劇。對(duì)于技術(shù)引發(fā)的倫理問題,應(yīng)對(duì)算法技術(shù)的應(yīng)用保持足夠謹(jǐn)慎的態(tài)度。如上文所述,數(shù)據(jù)質(zhì)量、數(shù)據(jù)隱私等倫理問題根源于技術(shù)本身的缺憾,因?yàn)閷?duì)于新聞質(zhì)量、網(wǎng)民人身權(quán)利影響重大,新聞業(yè)必須謹(jǐn)慎對(duì)待。目前來看,算法技術(shù)對(duì)數(shù)據(jù)不加區(qū)分地利用容易產(chǎn)出有問題的新聞文本,這要求新聞組織必須謹(jǐn)慎對(duì)待組織采用的數(shù)據(jù),減少錯(cuò)誤新聞的產(chǎn)出。針對(duì)算法技術(shù)對(duì)網(wǎng)民數(shù)據(jù)的侵入也暫無行之有效的解決辦法,這也要求新聞機(jī)構(gòu)在搜集用戶數(shù)據(jù)時(shí)應(yīng)持有謹(jǐn)慎的態(tài)度,關(guān)鍵信息的獲取必須做到知情同意,不能乘技術(shù)之便而肆意侵犯用戶的數(shù)據(jù)隱私。
3.專業(yè)原則:回歸新聞價(jià)值本位
顯然,對(duì)新聞價(jià)值、新聞?wù)鎸?shí)的討論并非首見于算法新聞,這些問題作為新聞倫理研究的重點(diǎn)內(nèi)容早在傳統(tǒng)新聞時(shí)期就已屢見不鮮,但算法技術(shù)卻加劇了這些問題的倫理風(fēng)險(xiǎn)。面對(duì)算法邏輯下的傳統(tǒng)新聞倫理問題,新聞組織與新聞從業(yè)者應(yīng)持有專業(yè)原則進(jìn)行審視。具體而言,傳統(tǒng)新聞時(shí)期對(duì)新聞?wù)鎸?shí)的探討主要集中在新聞報(bào)道與客觀真相之間的區(qū)隔無法彌合的倫理反思,因?yàn)楸藭r(shí)的大多數(shù)新聞能夠滿足提供基本事實(shí)信息的要求。但在錯(cuò)誤的數(shù)據(jù)、代碼不完善下生產(chǎn)出的許多算法新聞已經(jīng)完全不貼合事實(shí),甚至引發(fā)誹謗情形,這種現(xiàn)象的出現(xiàn)概率遠(yuǎn)高于人工新聞,新聞的專業(yè)性已難以得到保證。與此同時(shí),新聞價(jià)值也在急劇喪失,算法生產(chǎn)的新聞常出現(xiàn)語(yǔ)句不通順、邏輯不連貫等問題,新聞應(yīng)承擔(dān)的社會(huì)關(guān)懷更無從談起,這些都與傳統(tǒng)的新聞倫理要求相差甚遠(yuǎn)。專業(yè)原則要求新聞從業(yè)者應(yīng)重回專業(yè)意識(shí),提升新聞質(zhì)量,不能將新聞生產(chǎn)放任給技術(shù),自身僅作簡(jiǎn)單把關(guān),新聞只滿足于能夠閱讀的低標(biāo)準(zhǔn),對(duì)新聞本身應(yīng)具備的真實(shí)性、客觀性、價(jià)值性仍應(yīng)存有敬畏之心,用專業(yè)性來消解技術(shù)加劇的倫理風(fēng)險(xiǎn)與新聞業(yè)和新聞學(xué)科面臨的危機(jī)。
注釋:
① D?rr,Konstantin.MappingtheFieldofAlgorithmicJournalism.Digital Journalism,no.10,2015.p.701.
② Kovach,Bill,and Tom Rosenstiel.TheElementsofJournalism:WhatNewsPeopleShouldKnowandthePublicShouldExpect.New York:Three Rivers Press.2007.p.113.
③ Debatin Bernhard.DasEndederJournalistischenEthik(TheEndofEthicsinJournalism).Neuvermessung der Medienethik.2015.p.65.
④ 陳嬿如、謝欣:《斷言式新聞——媒介技術(shù)驅(qū)動(dòng)下的新型新聞模式研究》,《國(guó)際新聞界》,2019年第5期,第90頁(yè)。
⑤ 張瀟瀟:《算法新聞個(gè)性化推薦的理念、意義及倫理風(fēng)險(xiǎn)》,《傳媒》,2017年第11期,第84頁(yè)。
⑥ 趙雙閣、岳夢(mèng)怡:《新聞的“量化轉(zhuǎn)型”:算法推薦對(duì)媒介倫理的挑戰(zhàn)與應(yīng)對(duì)》,《當(dāng)代傳播》,2018年第4期,第52頁(yè)。
⑦ 陳昌鳳、師文:《個(gè)性化新聞推薦算法的技術(shù)解讀與價(jià)值探討》,《中國(guó)編輯》,2018年第10 期,第12頁(yè)。
⑧ 任莎莎、田嬌:《算法新聞的倫理困境及其解決思路——以“今日頭條”為例》,《傳媒》,2018年第6期,第90頁(yè)。
⑨ 張超:《新聞生產(chǎn)中的算法風(fēng)險(xiǎn):成因、類型與對(duì)策》,《中國(guó)出版》,2018年第13期,第38頁(yè)。
⑩ 董天策、何旭:《算法新聞的倫理審視》,《新聞界》,2019年第1期,第31頁(yè)。