• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      向善向上:基于良性互動(dòng)的算法新聞治理倫理研究

      2021-07-11 22:42王仕勇樊文波
      關(guān)鍵詞:倫理算法

      王仕勇 樊文波

      摘要:算法新聞重構(gòu)了新的新聞傳播生態(tài),但也暴露出一些倫理問題,最核心的是算法黑箱與新聞透明原則的矛盾、算法霸權(quán)與媒介公正的對(duì)立和算法操縱與委托信任的沖突。解決算法新聞產(chǎn)生的倫理問題,必須明確算法是非人類的“網(wǎng)絡(luò)行動(dòng)者”,但并不是獨(dú)立的倫理行動(dòng)者,“人”才是算法新聞的責(zé)任主體。算法新聞治理的邏輯起點(diǎn)應(yīng)回到技術(shù)、人與社會(huì)的良性互動(dòng)關(guān)系。算法新聞治理應(yīng)將不作惡、不濫用的“向善”作為底線倫理,將對(duì)人的自由全面發(fā)展負(fù)責(zé)和對(duì)社會(huì)健康有序運(yùn)行負(fù)責(zé)的“向上”作為責(zé)任擔(dān)當(dāng)。算法新聞治理需要建立多主體協(xié)同共進(jìn)的治理體系:政府要充當(dāng)好規(guī)則制定者、過程把控者和底線管控者的角色;平臺(tái)機(jī)構(gòu)要承擔(dān)算法新聞治理的主體責(zé)任;公眾應(yīng)自覺避免新聞消費(fèi)中的盲從或被動(dòng)現(xiàn)象,傳統(tǒng)媒體應(yīng)嚴(yán)格職業(yè)把關(guān)和審核機(jī)制,拒絕迎合人性弱點(diǎn)及惰性的新聞生產(chǎn)。公眾與傳統(tǒng)媒體的共同責(zé)任在于實(shí)現(xiàn)對(duì)算法新聞的糾偏、改進(jìn)與監(jiān)督。

      關(guān)鍵詞:大數(shù)據(jù);向善向上;算法新聞;算法治理;算法倫理;治理能力現(xiàn)代化;社會(huì)治理;新聞學(xué)

      中圖分類號(hào):G2107?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):1008-5831(2021)02-0225-12

      數(shù)字化已經(jīng)成為社會(huì)的基本運(yùn)行方式,以數(shù)字化為基礎(chǔ)的算法已經(jīng)成為影響社會(huì)運(yùn)行的基礎(chǔ)性規(guī)則,也是人工智能發(fā)展的核心驅(qū)動(dòng)力和生產(chǎn)力。基于算法的數(shù)據(jù)收集與挖掘、分析與識(shí)別、處理與決策系統(tǒng)被廣泛應(yīng)用于社會(huì)各領(lǐng)域,極大地提高了社會(huì)的運(yùn)行效率。算法已深度介入了人們的日常生活,影響著人們的在世狀態(tài),個(gè)體、群體、組織與社會(huì)間的思考和行為模式、交往和決策方式,乃至于社會(huì)秩序的生成和演化機(jī)制都發(fā)生了全新的變化。

      對(duì)于新聞傳播業(yè)而言,算法的興起帶來(lái)了一套完全區(qū)別于傳統(tǒng)新聞傳播業(yè)的結(jié)構(gòu)性變化,人工智能通過機(jī)器寫作重塑新聞生產(chǎn)流程,通過智能算法顛覆新聞分發(fā)方式,產(chǎn)生新的新聞傳播模式,基于算法的信息傳播機(jī)制已經(jīng)深刻改變了人們的信息接收方式和閱讀習(xí)慣。“今天的算法在一定程度上影響著新聞業(yè)的各個(gè)方面,從新聞制作的初始階段到新聞消費(fèi)的后期” [1],算法對(duì)新聞傳播系統(tǒng)生態(tài)進(jìn)行著多方位重塑。

      算法新聞是與大數(shù)據(jù)最直接相關(guān)的新聞[2],被稱為“新聞業(yè)的計(jì)算探索”,其創(chuàng)新本質(zhì)是新聞傳播業(yè)在算法工具和大數(shù)據(jù)環(huán)境下的流程再造和盈利模式重構(gòu)[3],學(xué)者們也使用機(jī)器人新聞、機(jī)器寫作新聞、自動(dòng)化新聞等諸多概念來(lái)描述這一現(xiàn)象。以算法軟件的引領(lǐng)性、數(shù)據(jù)資源的基礎(chǔ)性、智能操作的自主性為特征[4],算法新聞在一定程度上解決了個(gè)人信息多樣化需求與社會(huì)海量信息間的匹配性問題,提高了新聞傳播的效率。在算法新聞逐漸成熟、擁有算法技術(shù)的互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)成為連接“信息”與“人”的紐帶的同時(shí),算法在新聞傳播領(lǐng)域運(yùn)用的過程中暴露出諸多問題[5],人們對(duì)其帶來(lái)的如隱私侵犯、算法偏見、算法歧視、價(jià)值觀分化、社群區(qū)隔等倫理問題表示出擔(dān)憂[6],對(duì)算法新聞治理表現(xiàn)出高度關(guān)注。黨的十九屆四中全會(huì)通過的《中共中央關(guān)于堅(jiān)持和完善中國(guó)特色社會(huì)主義制度 推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化若干重大問題的決定》提出,要“建立健全網(wǎng)絡(luò)綜合治理體系”,“全面提高網(wǎng)絡(luò)治理能力,營(yíng)造清朗的網(wǎng)絡(luò)空間”[7]。2020年12月,中共中央印發(fā)的《法治社會(huì)建設(shè)實(shí)施綱要(2020—2025年)》提出,要制定完善對(duì)“算法推薦、深度偽造等新技術(shù)應(yīng)用的規(guī)范管理辦法”,“加強(qiáng)對(duì)大數(shù)據(jù)、云計(jì)算和人工智能等新技術(shù)研發(fā)應(yīng)用的規(guī)范引導(dǎo)” [8]。算法新聞治理無(wú)疑既是網(wǎng)絡(luò)綜合治理體系和網(wǎng)絡(luò)治理能力的重要內(nèi)容,也是法治社會(huì)建設(shè)的重要內(nèi)容。

      一、三對(duì)矛盾或沖突:算法新聞倫理研究的核心問題

      算法正在對(duì)整個(gè)社會(huì)的空間、時(shí)間和權(quán)力關(guān)系進(jìn)行重構(gòu)?;诖?,算法也成為學(xué)術(shù)界關(guān)注的熱點(diǎn)話題,多學(xué)科對(duì)算法展開了不同側(cè)面的研究。計(jì)算科學(xué)關(guān)注算法公式與統(tǒng)計(jì)模型,通過優(yōu)化不同場(chǎng)景和條件下的算法計(jì)算力以提高算法優(yōu)勢(shì)和增強(qiáng)算法預(yù)測(cè)力;法學(xué)一方面正視算法的法律化趨勢(shì),運(yùn)用法律來(lái)規(guī)制算法,另一方面聚焦促進(jìn)法律規(guī)范與算法代碼的有機(jī)融合,利用算法技術(shù)推動(dòng)法律的算法化;公共管理學(xué)科探究算法影響社會(huì)運(yùn)行的機(jī)制與過程;社會(huì)學(xué)聚焦算法設(shè)計(jì)者與技術(shù)參數(shù)、應(yīng)用者與社會(huì)之間的互動(dòng)關(guān)系和過程。正在形成的“算法社會(huì)”使得人們愈發(fā)對(duì)算法的“陰暗面”及其伴隨而生的一系列問題加以關(guān)注,拉澤爾和格溫納等學(xué)者總結(jié)歸納出算法所伴生的九種風(fēng)險(xiǎn)性問題,這些問題包括:操縱、多樣性減少、限制交流和表達(dá)自由、監(jiān)控以及對(duì)數(shù)據(jù)保護(hù)和隱私的威脅、社會(huì)歧視、侵犯知識(shí)產(chǎn)權(quán)、濫用市場(chǎng)支配力、對(duì)認(rèn)知能力和人腦的影響、越來(lái)越多的異質(zhì)性以及人類主權(quán)和技術(shù)可控性的喪失[9]。算法風(fēng)險(xiǎn)的顯現(xiàn)也引發(fā)了新聞傳播領(lǐng)域關(guān)于“信息繭房”“回音室”“過濾氣泡”“算法偏見”“版權(quán)侵犯”“算法共謀”等諸多關(guān)涉新聞傳播倫理的討論,這其中的核心是“算法黑箱”“算法霸權(quán)”和“算法操縱”問題。

      (一)“算法黑箱”與新聞透明原則的矛盾

      算法將新聞生產(chǎn)、流通中的各個(gè)環(huán)節(jié)推入“黑箱”[10],我們能夠看到算法帶來(lái)的結(jié)果呈現(xiàn),但對(duì)其過程卻難以把握,正如博格斯特所言,算法就如同“黑箱”一般,我們能夠清晰地感受到它帶來(lái)的影響,但卻并不能對(duì)其內(nèi)部一窺究竟[11]。隱藏在數(shù)據(jù)背后的算法十分隱秘和復(fù)雜,弗蘭克·帕斯奎爾認(rèn)為這些算法可能決定了企業(yè)的命運(yùn),對(duì)個(gè)人聲譽(yù)有重要的影響,甚至對(duì)社會(huì)整體經(jīng)濟(jì)都會(huì)有所影響,盡管“企業(yè)參與者對(duì)我們的日常生活細(xì)節(jié)有前所未有的了解”,但我們自己“對(duì)他們?nèi)绾卫眠@些知識(shí)來(lái)影響我們以及他們做出的重要決定一無(wú)所知”[12]。算法的隱秘性源于算法是互聯(lián)網(wǎng)商業(yè)技術(shù)公司的高度商業(yè)機(jī)密[13],作為商業(yè)機(jī)密高度保密的算法自然不會(huì)輕易對(duì)外公布,即便是在互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)內(nèi)部,除極少數(shù)核心員工外,其他員工也很難了解算法究竟是如何運(yùn)作的[14]。算法的復(fù)雜性還在于算法的自主學(xué)習(xí)、決策能力的智能化,包括算法的編寫者也無(wú)法預(yù)測(cè)算法最終的輸出結(jié)果。對(duì)于普通用戶來(lái)說,基于知識(shí)的差異更是無(wú)法把握算法編碼的細(xì)節(jié),無(wú)法想象算法如何完成高度復(fù)雜的推理過程,以至于人們會(huì)對(duì)算法產(chǎn)生迷信甚至產(chǎn)生“崇拜”的心理[15]。

      算法黑箱所引發(fā)的擔(dān)憂集中在互聯(lián)網(wǎng)商業(yè)平臺(tái)可能由于逐利性,借助用戶將平臺(tái)媒體的新聞視為客觀的、公正的認(rèn)識(shí),用虛假新聞建構(gòu)人們對(duì)社會(huì)的想象[16]。我們生活在“算法社會(huì)”中,算法構(gòu)造和塑造我們的社會(huì)和對(duì)社會(huì)的想象,對(duì)于算法呈現(xiàn)的社會(huì)圖景、對(duì)算法呈現(xiàn)內(nèi)容的真實(shí)性和可信度,我們卻鮮有能力、辦法和途徑去核實(shí)和驗(yàn)證,對(duì)平臺(tái)機(jī)構(gòu)的監(jiān)督束手無(wú)策。

      作為公共事業(yè)的新聞傳播業(yè),維護(hù)公眾知情權(quán)和為公共服務(wù)是其基本的目標(biāo)。為實(shí)現(xiàn)這一基本目標(biāo),在幾百年的新聞實(shí)踐中,形成了要遵循真實(shí)性、客觀性、全面性等基本的新聞原則,遵循客觀、中立、公正的職業(yè)操守。從全球范圍看,媒體越來(lái)越受到公眾的質(zhì)疑,信任度在不斷下降,公眾越來(lái)越關(guān)心新聞界在報(bào)道什么,以及如何報(bào)道。科瓦齊和羅森斯蒂爾在《新聞的十大基本原則》中指出,“對(duì)公眾保密是一個(gè)錯(cuò)誤。當(dāng)公眾對(duì)新聞工作者和政府當(dāng)局越來(lái)越不信任時(shí),這種不利于公眾的行為只會(huì)讓新聞工作遭到更多質(zhì)疑”;“用核實(shí)加以約束,尤其是透明的觀念,是新聞工作者解決偏見問題的最有效方式之一”[17]。新聞透明要求新聞傳播主體公開新聞生產(chǎn)傳播的過程,讓公眾進(jìn)行監(jiān)督和參與[18]。盡管一些互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)并不承認(rèn)自身的媒體屬性[19],但事實(shí)上,這些平臺(tái)機(jī)構(gòu)已然成為新聞傳播活動(dòng)中極其重要的主體。新聞透明性的主體指向新聞傳播活動(dòng)的全部主體,平臺(tái)主體也不應(yīng)回避公眾的嚴(yán)苛審視[20]。

      完整的透明才是透明,新聞透明原則要求算法的開發(fā)者將源代碼公開,以保證其可以被檢驗(yàn)、被監(jiān)督,封閉的算法黑箱將平臺(tái)機(jī)構(gòu)與傳統(tǒng)新聞機(jī)構(gòu)、平臺(tái)機(jī)構(gòu)與公眾置于不對(duì)等的地位。此外,具有獨(dú)創(chuàng)性的算法涉及知識(shí)產(chǎn)權(quán)問題,算法的隱秘性構(gòu)成透明理念和機(jī)制的障礙。而即便將算法透明化,算法的復(fù)雜性又使得算法也很難被檢驗(yàn)。同時(shí),算法本身并非客觀,還存在著“算法偏見”[21],由于計(jì)算系統(tǒng)自身存在偏見,編寫者在開發(fā)過程中可能自覺或不自覺地將個(gè)人的價(jià)值觀、興趣喜好等寫入代碼,造成的結(jié)果是在看似中立的算法規(guī)則中實(shí)則潛藏著由數(shù)據(jù)源、版權(quán)、監(jiān)管和編輯者的主觀因素產(chǎn)生的偏見問題[22]??梢姡侣勍该髟瓌t在智媒時(shí)代如何得到保障是一個(gè)棘手的問題。

      (二)“算法霸權(quán)”與媒介公正的對(duì)立

      哈佛大學(xué)的數(shù)學(xué)博士凱西·奧尼爾在《算法霸權(quán)》一書中創(chuàng)造性地使用“數(shù)學(xué)殺傷性武器”一詞探討算法的大規(guī)模應(yīng)用對(duì)社會(huì)產(chǎn)生的負(fù)面影響,認(rèn)為“數(shù)學(xué)殺傷性武器”的特點(diǎn)在于不透明、規(guī)模化和毀滅性?!霸S多數(shù)學(xué)殺傷性武器都是依靠自己的內(nèi)置邏輯來(lái)定義其所處理的情況,然后再以其自己的定義證明其輸出結(jié)果的合理性的。這種模型會(huì)不斷地自我鞏固、自我發(fā)展,極具破壞力——而且在我們的日常生活中很常見”[23]。

      算法已經(jīng)越來(lái)越多地定義了我們的生活,算法的影響不僅在日常的生活調(diào)節(jié)方面,而且在社會(huì)根本性變化方面也是如此,正是因?yàn)椤案淖儽蝗魏问挛锔鼜V泛依賴的算法的結(jié)果可能會(huì)波及整個(gè)社會(huì)”[24],算法成為了一種權(quán)力[25]。英國(guó)學(xué)者拉什就此感嘆,“在一個(gè)媒體和代碼無(wú)處不在的社會(huì),權(quán)力越來(lái)越存在于算法之中”[26]。權(quán)力表現(xiàn)為控制,控制是技術(shù)革新導(dǎo)致的后果,其中的最基本面是信息處理的改進(jìn)。技術(shù)定義了一個(gè)社會(huì)能做什么的界限,技術(shù)的發(fā)展是控制權(quán)革命中社會(huì)變化的主要推動(dòng)力[27],算法技術(shù)控制了信息流向公眾的渠道,同時(shí)將傳統(tǒng)媒體視為平臺(tái)機(jī)構(gòu)內(nèi)容的供應(yīng)商,顛覆了新聞傳播業(yè)的傳統(tǒng)格局。

      當(dāng)算法運(yùn)用到新聞傳播的各環(huán)節(jié),自然也會(huì)對(duì)人們所感知的“擬態(tài)環(huán)境”以及人們基于“擬態(tài)環(huán)境”的社會(huì)認(rèn)知產(chǎn)生影響。然而,算法建構(gòu)的“擬態(tài)環(huán)境”是“一種簡(jiǎn)化或扭曲”,算法主要是對(duì)復(fù)雜的新聞寫作過程的簡(jiǎn)化和提煉,是一種“以簡(jiǎn)御繁”的化約主義 [28],它“從世界上獲取了一個(gè)復(fù)雜的系統(tǒng),并將其抽象為捕獲該系統(tǒng)某些邏輯并丟棄其他邏輯的過程”[29]。降低人們認(rèn)識(shí)世界的復(fù)雜性并不等同于讓人們認(rèn)識(shí)簡(jiǎn)單化的世界,這種對(duì)復(fù)雜社會(huì)的“簡(jiǎn)化”操作,并不能呈現(xiàn)社會(huì)的完整真實(shí)景觀,有悖新聞傳播所追求的通過及時(shí)、公開、透明再現(xiàn)新聞事實(shí),達(dá)到媒介公正的目的。按照算法的操作原則,平臺(tái)機(jī)構(gòu)以單篇內(nèi)容的點(diǎn)擊閱讀率來(lái)評(píng)判文章的價(jià)值,而忽略文章內(nèi)容本身帶來(lái)的社會(huì)效果。對(duì)于平臺(tái)媒體來(lái)說,對(duì)點(diǎn)擊流量的追求遠(yuǎn)勝過對(duì)新聞內(nèi)容質(zhì)量的重視。在這種模式下,用戶接收的信息只會(huì)越來(lái)越趨于窄化和同質(zhì)化,算法可能成為“扭曲的棱鏡”,導(dǎo)致公眾對(duì)真實(shí)社會(huì)的認(rèn)知偏差越來(lái)越大,“可能給公共生活造成難以彌合的分裂”[30]。

      算法有損媒介公正的另一方面在于算法霸權(quán)產(chǎn)生的“算法歧視”。算法及其選擇機(jī)制可能以某種方式具有歧視性[31],這種歧視性源于算法自身的偏見,比如如果種族歧視嵌于算法,會(huì)給用戶推薦種族歧視的相關(guān)內(nèi)容,而與事件本身的事實(shí)發(fā)生偏離。新聞傳播的公正原則要求新聞傳播主體盡力消除傳播中的歧視行為,傳播權(quán)力為全社會(huì)所共有,傳播過程中不能無(wú)視弱勢(shì)群體以及貧困地區(qū)、偏遠(yuǎn)地區(qū)的利益和需求。而實(shí)際上,正如凱西在實(shí)踐中發(fā)現(xiàn)的那樣,“數(shù)學(xué)殺傷性武器的受害者幾乎沒有話語(yǔ)權(quán)”,他們中的大多數(shù)都在事實(shí)上被剝奪了公民的傳播權(quán),算法霸權(quán)客觀上造成了對(duì)弱勢(shì)群體的侵害。

      (三)“算法操縱”與委托信任的沖突

      傳統(tǒng)新聞機(jī)構(gòu)的把關(guān)由職業(yè)新聞工作者完成,他們以職業(yè)的精神、理念和操作獲得公眾信任,以新聞生產(chǎn)中提煉、總結(jié)的新聞價(jià)值為標(biāo)準(zhǔn),完成每天新聞的選擇、加工、制作的生產(chǎn)過程。算法改變新聞傳播機(jī)制表現(xiàn)在新聞分發(fā)過程中的把關(guān)主體發(fā)生變化:其一,將價(jià)值觀的判定權(quán)從記者、編輯這些傳統(tǒng)的新聞工作者手中轉(zhuǎn)移到算法編寫者手中,制定算法規(guī)則的工程師設(shè)定的算法原則決定每條新聞被接受的范圍和程度;其二,將媒介失范的決定權(quán)從媒介工作者傳遞給了受眾[32],受眾的選擇會(huì)直接影響到未來(lái)自身可以看到的新聞?lì)愋秃蛢?nèi)容。

      與傳統(tǒng)媒體能夠?qū)崿F(xiàn)對(duì)公眾的議題關(guān)注和屬性判斷的強(qiáng)大議程設(shè)置效果一樣,平臺(tái)媒體對(duì)公眾輿論同樣具有操縱的能力[33]。憑借算法的排序與過濾建立的算法議程設(shè)置和框架結(jié)構(gòu),不僅建構(gòu)了用戶對(duì)于社會(huì)的想象,同樣會(huì)決定公眾想什么和如何處理這些議程,通過影響用戶的情感和態(tài)度,最終決定公眾的行動(dòng)方式[34]。

      傳統(tǒng)媒體之所以能夠獲得公眾,在于公眾對(duì)其專業(yè)能力的認(rèn)可。專業(yè)水準(zhǔn)高的媒體能夠被信任。公眾選擇接觸和使用哪一種媒介、選擇關(guān)注哪一家媒體的報(bào)道本質(zhì)是公眾將獲取信息的來(lái)源、信息選擇的權(quán)利委托于該媒體,這是建立在公眾與媒體長(zhǎng)期互動(dòng)的結(jié)果之上的。在算法新聞時(shí)代,傳統(tǒng)的以編輯為中心的信息把關(guān)模式,也就是傳統(tǒng)媒體獲取公眾信任的職業(yè)素質(zhì),被算法程序取代,而算法程序并不天然擁有傳統(tǒng)編輯對(duì)于新聞價(jià)值的選擇判斷標(biāo)準(zhǔn),公眾和媒體間的委托信任關(guān)系被打破。這種關(guān)系的打破帶來(lái)了傳播權(quán)力的轉(zhuǎn)移,平臺(tái)機(jī)構(gòu)正在成為新的“信息把關(guān)人”和“議程設(shè)置者”,重構(gòu)了傳播權(quán)力[35],平臺(tái)機(jī)構(gòu)成為控制公共生活和媒介生態(tài)的決定性力量,這也反過來(lái)使互聯(lián)網(wǎng)公共領(lǐng)域呈現(xiàn)出“再封建化”的趨勢(shì)[36]。

      二、技術(shù)、人與社會(huì)的良性互動(dòng):算法新聞治理的應(yīng)然邏輯

      解決算法新聞產(chǎn)生的問題,首先要解決的是“誰(shuí)來(lái)負(fù)責(zé)”的問題,明確算法新聞治理倫理的責(zé)任主體,再基于此討論算法新聞治理的邏輯問題。

      (一)“人”才是算法新聞的責(zé)任主體

      “技術(shù)中立論”認(rèn)為,算法只是一種技術(shù),技術(shù)是中性的,并無(wú)好壞的性質(zhì)分別。平臺(tái)機(jī)構(gòu)傾向于將自身描述成信息傳播的中介,只起到傳遞的作用,所以無(wú)需對(duì)信息進(jìn)行主觀性的判斷。與之相對(duì)的“平臺(tái)責(zé)任論”強(qiáng)調(diào),當(dāng)平臺(tái)機(jī)構(gòu)擁有足夠多的用戶數(shù)量時(shí),平臺(tái)機(jī)構(gòu)實(shí)際完成著公共傳播活動(dòng),天然地具備公共屬性,應(yīng)當(dāng)在算法應(yīng)用于內(nèi)容選擇和推送中體現(xiàn)社會(huì)公共價(jià)值觀念。這兩種關(guān)于算法和平臺(tái)機(jī)構(gòu)屬性觀點(diǎn)的爭(zhēng)論,實(shí)際上牽涉出了算法本身的倫理主體地位問題。

      一些學(xué)者按照拉圖爾等人提出的“行動(dòng)者網(wǎng)絡(luò)理論”,將算法視為非人類的“網(wǎng)絡(luò)行動(dòng)者”[37],人和算法在網(wǎng)絡(luò)中是平等的參與者。拉圖爾的“行動(dòng)者網(wǎng)絡(luò)理論”的特點(diǎn)在于將人和“非人”的事物都視為具有能動(dòng)作用的“行動(dòng)者”,他們之間以“轉(zhuǎn)譯”為基本的連接方法,結(jié)成了相互作用的“網(wǎng)絡(luò)”。網(wǎng)絡(luò)指的是一種連接方法或狀態(tài),轉(zhuǎn)譯是連接行動(dòng)者之間溝通的語(yǔ)言,行動(dòng)者包括在相互結(jié)成的網(wǎng)絡(luò)之中具有能動(dòng)性的所有的“人”和“非人”。毋庸置疑,人天生具備行動(dòng)能力,而“非人”行動(dòng)者如果具有和人一樣的某種行動(dòng)能力,其前提是“非人”行動(dòng)者應(yīng)該和行動(dòng)的人一樣,具有某種能動(dòng)性或者說“活性”,這樣才能夠?qū)嵤┬袆?dòng),并在行動(dòng)中體現(xiàn)人的目的和意志[38]。算法的“活性”源自算法編寫者所設(shè)定的代碼和算法規(guī)則的激活,也就是說算法并非能夠天然地脫離人而獨(dú)立地成為網(wǎng)絡(luò)行動(dòng)者,只有當(dāng)編寫者完成對(duì)算法規(guī)則的設(shè)定,并將算法置于網(wǎng)絡(luò)連接,才能夠激發(fā)算法的“活性”,使算法具有行動(dòng)力。

      弗洛里迪和桑德斯從行動(dòng)者之間互動(dòng)的關(guān)系角度,將交互性、自主性和適應(yīng)性確立為判定智能技術(shù)是否具備倫理責(zé)任主體地位的標(biāo)準(zhǔn)[39]。如果一個(gè)系統(tǒng)在沒有外部刺激的情況下,也能夠持續(xù)與環(huán)境發(fā)生交互關(guān)系,就可以認(rèn)為這一系統(tǒng)具有自主性、適應(yīng)性和交互性,才可以將能夠在不同環(huán)境中均發(fā)生行動(dòng)的系統(tǒng)視為行動(dòng)者。以此觀之,算法尚未滿足自主性和適應(yīng)性的要求,這也就意味著算法還不能稱之為獨(dú)立的倫理行動(dòng)者。

      算法是非人類的“網(wǎng)絡(luò)行動(dòng)者”,并不是獨(dú)立的倫理行動(dòng)者,倫理行動(dòng)者作為責(zé)任主體要對(duì)行為負(fù)有必要的義務(wù)。對(duì)行動(dòng)主體產(chǎn)生的行為后果具有直接推動(dòng)作用的人或者組織,才需要承擔(dān)行為責(zé)任,才肩負(fù)有必要的義務(wù)。目前,算法作為新聞傳播的工具和手段,不具有獨(dú)立生產(chǎn)和傳播能力,其擬主體性只能承擔(dān)擬倫理角色,使用算法的人和平臺(tái)機(jī)構(gòu)才是責(zé)任的主體。算法新聞的倫理責(zé)任主體只能是人,而不是機(jī)器,也不是人—機(jī)混合體[40],算法新聞的責(zé)任主體應(yīng)為整個(gè)算法新聞活動(dòng)中各環(huán)節(jié)的參加者,包括算法的開發(fā)編寫者、推廣者、使用者,算法新聞的接受者和轉(zhuǎn)發(fā)者,以及在人工智能時(shí)代新聞倫理的一個(gè)重要的機(jī)構(gòu)行動(dòng)者——互聯(lián)網(wǎng)平臺(tái)機(jī)構(gòu)[41]。

      (二)算法與人和社會(huì)

      每一次新聞傳播技術(shù)的革命性更新,都會(huì)形成新的傳播格局,引發(fā)新的傳播時(shí)代的到來(lái)。傳播技術(shù)不僅決定著新聞圖景的呈現(xiàn)方式和結(jié)構(gòu)方式,決定著公眾對(duì)社會(huì)的認(rèn)知和把握情況,更從深層次上影響著人的思維和心理,以及人類社會(huì)的整體發(fā)展。同時(shí),新技術(shù)所帶來(lái)的變革,既會(huì)激發(fā)起關(guān)于技術(shù)烏托邦主義的幻想,也會(huì)引發(fā)對(duì)技術(shù)異化的擔(dān)憂。

      新技術(shù)對(duì)媒介環(huán)境的巨大沖擊,形成一種多媒介混合的景觀。媒介環(huán)境學(xué)家麥克盧漢在提出“媒介雜交”理論的基礎(chǔ)上,進(jìn)一步擴(kuò)充提出了“媒介四元律”理論:新媒介突出了什么,削弱了什么,再現(xiàn)了什么,未來(lái)又會(huì)變成什么[42]。其弟子萊文森使用“提升”“過時(shí)”“再現(xiàn)”和“逆轉(zhuǎn)”四個(gè)詞語(yǔ)對(duì)這一規(guī)律進(jìn)行了新的概括?!懊浇樗脑伞辈粌H是對(duì)媒介發(fā)展規(guī)律的概括,它還是一個(gè)頗有價(jià)值的媒介分析工具。算法新聞突出并基本實(shí)現(xiàn)了“信息與人”的適配[43],傳統(tǒng)媒體“千人一面”的傳播樣態(tài)被“千人千面”接收情景所取代,個(gè)體的信息需求被再現(xiàn)和顯現(xiàn),人的個(gè)體價(jià)值被重新重視,傳統(tǒng)媒介和傳播方式變得過時(shí)和被遺忘。萊文森認(rèn)為,媒介進(jìn)化的規(guī)律是“人性化趨勢(shì)”[44],即媒介朝著增加人類功能的方向進(jìn)化和發(fā)展,算法新聞在一程度上是符合增加人類幸福需要的方向的。

      算法新聞在朝著人性化方向發(fā)展的同時(shí),反過來(lái)也重新塑造人和控制著人和人的生活方式。對(duì)公眾而言,人們?cè)谒惴ㄐ侣劖h(huán)境下的閱讀選擇和閱讀習(xí)慣發(fā)生變化;對(duì)媒體機(jī)構(gòu)來(lái)說,算法重塑了新的生產(chǎn)關(guān)系,因?yàn)槠脚_(tái)機(jī)構(gòu)通常不具備信息內(nèi)容的生產(chǎn)能力,卻成為信息分發(fā)的把關(guān)人,掌握著信息分發(fā)的絕對(duì)優(yōu)勢(shì),傳統(tǒng)媒體被迫接入平臺(tái)機(jī)構(gòu),并把算法規(guī)則納入內(nèi)容生產(chǎn)的基本考量。波斯曼對(duì)技術(shù)壟斷的擔(dān)憂也在于此[45]。

      (三)技術(shù)、人與社會(huì)的良性互動(dòng)

      縱觀新聞傳播的歷史,幾乎所有的技術(shù)變革,尤其是新技術(shù)應(yīng)用的早期,都會(huì)產(chǎn)生各種技術(shù)與人、與社會(huì)的不協(xié)調(diào)、不適應(yīng)問題。大眾報(bào)刊的普及帶來(lái)競(jìng)爭(zhēng)的結(jié)果卻是“黃色新聞潮”的發(fā)生;“火星人入侵地球”的廣播劇引發(fā)了極度恐慌和百萬(wàn)人的大逃離;電視的流行出現(xiàn)了蜷在沙發(fā)上,只看電視不顧其他的沙發(fā)土豆;長(zhǎng)時(shí)間、習(xí)慣性和病態(tài)使用網(wǎng)絡(luò)的人被認(rèn)為患有網(wǎng)癮。這些問題產(chǎn)生并不僅僅是媒介或者技術(shù)自身的問題,問題的解決也不僅僅依靠媒介自身?!包S色新聞潮”的退去在于報(bào)人社會(huì)責(zé)任意識(shí)和職業(yè)共同體意識(shí)的確立;廣播、電視、網(wǎng)絡(luò)的合理使用和認(rèn)知除社會(huì)的進(jìn)步外,還依賴于公眾的媒介素養(yǎng)提高,以及對(duì)媒介、媒介規(guī)律的正確把握。

      “技術(shù)的世界不是孤立的,也絕非自成一統(tǒng)。它與來(lái)自遙遠(yuǎn)的人類環(huán)境的各種因素相互作用”[46]。對(duì)新聞傳播業(yè)而言,技術(shù)以怎樣的觀念和方式構(gòu)建社會(huì)、構(gòu)建怎樣的社會(huì),并不單一取決于技術(shù)本身的屬性,更取決于能夠?qū)夹g(shù)產(chǎn)生影響、進(jìn)行操控的社會(huì)和人的力量,所以解決算法新聞的問題也要從各種相互作用的人與社會(huì)著手,探尋技術(shù)、人與社會(huì)的良性互動(dòng),這也符合媒介問題的解決邏輯。

      美國(guó)著名未來(lái)學(xué)者奈斯比特在20世紀(jì)90年代網(wǎng)絡(luò)開始大放異彩的時(shí)候,對(duì)突飛猛進(jìn)的科技與人和社會(huì)及文化的關(guān)系進(jìn)行推測(cè)和分析,強(qiáng)調(diào)從人性的角度看待科技,高科技和高思維應(yīng)尋求一種“物質(zhì)奇觀與人性精神需求的平衡”[47]。高思維是人對(duì)高科技的反應(yīng),當(dāng)“科技越多地被引入到我們的生活,我們就越想尋求高思維的平衡,尋求人性的穩(wěn)定”。高科技和高思維這種“平衡”就是技術(shù)、人與社會(huì)的良性互動(dòng)狀態(tài)。

      三、向善向上:算法新聞治理的倫理追求

      海德格爾認(rèn)為,“現(xiàn)代技術(shù)中起支配作用的解蔽乃是一種促逼,此種促逼向自然提出蠻橫要求,要求自然提供本身能夠被開采和貯藏的能量”[48]。也就是說,現(xiàn)代技術(shù)的特征在于可以迫使自然按照人所設(shè)定的目的做事。技術(shù)源自于人類對(duì)美好生活的追求,而在使用技術(shù)的過程中,人的目的存在是非、好壞、善惡的差異,存在方向性的區(qū)別。因此,技術(shù)必須成為倫理問題,人類必須學(xué)習(xí)如何自主地以我們的判斷力來(lái)約束自己[49]。

      (一)向善:算法新聞治理的底線倫理堅(jiān)守

      道義理論和哲學(xué)家康德認(rèn)為,“善”像“珠寶一樣閃耀光芒”。他提出,每個(gè)人天生就有良心,良心并不可違,良心的義務(wù)就是為了義務(wù)而履行義務(wù)[50]。亞里士多德德性倫理論優(yōu)先考慮的“善”不是抽象意義的善,而是對(duì)血肉之軀的人的善,是體現(xiàn)在我們實(shí)踐里的善[51]。亞里士多德的“善”是一種實(shí)踐智慧,麥金泰爾將“實(shí)踐”定義為“人的活動(dòng)內(nèi)聚而復(fù)雜的形式”,其內(nèi)在的“善”涉及鮮明的優(yōu)秀標(biāo)準(zhǔn),如果達(dá)到了這樣的標(biāo)準(zhǔn),內(nèi)在的“善”就能拓展我們?nèi)松k麗和優(yōu)秀的可能性[52]。所以,“善”是一種底線倫理,也是一種可行可為的底線倫理。在算法治理中,“向善”應(yīng)是一種底線堅(jiān)守。在“能做什么”和“應(yīng)做什么”的倫理選擇中,算法應(yīng)基于應(yīng)然邏輯走向自覺,把握好算法技術(shù)發(fā)展與人及社會(huì)需要的內(nèi)在聯(lián)系。

      從“向善”的價(jià)值意義來(lái)看,“向善”至少包括四個(gè)方面的含義。其一,“向善”意味著“尊重”,尊重和關(guān)心人本身,尊重人的基本價(jià)值與倫理;其二,“向善”意味著“進(jìn)步”,提高效率與功用,提高人的物質(zhì)享用水平;其三,“向善”意味著“公平”,公開平等,發(fā)展的成果惠及社會(huì)各個(gè)階層;其四,“向善”意味著“責(zé)任感”,心系社會(huì),參與社會(huì)問題的解決。

      “向善”在倫理道德中是一種希望被普遍實(shí)施的行為,算法新聞治理的“向善”底線在于維護(hù)算法的積極功能,反對(duì)不當(dāng)?shù)乃惴ㄊ褂眯袨?,以不作惡、不濫用為基礎(chǔ)性法則?!安蛔鲪骸币笏惴ㄐ侣勔怨残院蜕鐣?huì)利益、社會(huì)道德、社會(huì)價(jià)值為評(píng)判標(biāo)準(zhǔn),不以對(duì)用戶的損害作為獲利的前提和手段,如不侵犯用戶隱私,不傳播低俗內(nèi)容;“不濫用”要求算法新聞的使用應(yīng)在有限范圍和有限尺度內(nèi),對(duì)用戶權(quán)益不僅要做到明示和告知,還要進(jìn)行確認(rèn)以確保用戶知悉。

      (二)向上:算法新聞治理的責(zé)任擔(dān)當(dāng)

      70多年前,二戰(zhàn)后的美國(guó)出現(xiàn)了“大眾傳播工具對(duì)于公眾的重要性的提高、公眾對(duì)大眾傳播工具的依賴與大眾傳播工具和機(jī)構(gòu)被少數(shù)人掌握和壟斷之間的矛盾”。新聞界該如何應(yīng)對(duì)這一矛盾,哈欽斯委員會(huì)給出了總報(bào)告——《一個(gè)自由而負(fù)責(zé)的新聞界》,成為新聞媒介“社會(huì)責(zé)任論”的基礎(chǔ)[53]。當(dāng)今,算法改變社會(huì),算法已成為社會(huì)運(yùn)行的基本語(yǔ)法規(guī)則。算法的普及與廣泛應(yīng)用、公眾與算法聯(lián)系的緊密性與平臺(tái)機(jī)構(gòu)對(duì)算法的壟斷性之間形成了一對(duì)矛盾,這種矛盾與70多年前的情形非常類似。如何因應(yīng)這一矛盾,同樣需要強(qiáng)調(diào)算法新聞“向上”的社會(huì)責(zé)任擔(dān)當(dāng)。

      其一,算法新聞應(yīng)該對(duì)人的自由全面發(fā)展負(fù)責(zé)。技術(shù)的發(fā)展不是最終目的,人的發(fā)展才是技術(shù)發(fā)展的本質(zhì)[54]。算法的發(fā)展必須有利于人的自由全面發(fā)展,離開了人的自由全面發(fā)展的算法就失去了靈魂。從各國(guó)、各機(jī)構(gòu)和組織制定頒布的人工智能發(fā)展倫理原則來(lái)看,一致將“保障人的權(quán)利”“以人為本的價(jià)值觀念”等相關(guān)性條例作為其中最重要也是最首要的原則。算法新聞也可以對(duì)人的自由全面發(fā)展負(fù)責(zé)。算法新聞為人的自由決策提供信息內(nèi)容,合理的算法機(jī)制為人們做出合乎理性的正確判斷提供保障。

      其二,算法新聞應(yīng)該對(duì)社會(huì)健康有序運(yùn)行負(fù)責(zé),要自覺肩負(fù)社會(huì)責(zé)任,追求社會(huì)效益,服務(wù)社會(huì)福祉?!靶侣勗谌祟惿鐣?huì)中占據(jù)極其核心的話語(yǔ)地位,是左右歷史發(fā)展的一種力量”[55]。在算法社會(huì),算法成為“創(chuàng)造世界的方式”,算法新聞對(duì)社會(huì)整體發(fā)展和社會(huì)各子系統(tǒng)的影響越來(lái)越主動(dòng)和顯著。一個(gè)不當(dāng)?shù)乃惴C(jī)制、一次不合理的算法新聞推薦,都可能產(chǎn)生極端的社會(huì)后果,改變社會(huì)運(yùn)行的良性狀態(tài)。算法新聞應(yīng)立足社會(huì)和諧進(jìn)步,在新聞信息的推薦機(jī)制、搜索機(jī)制、過濾機(jī)制等方面,把社會(huì)效益作為排序、分類、關(guān)聯(lián)和過濾的重要因素,以社會(huì)責(zé)任意識(shí)推動(dòng)算法技術(shù)發(fā)展,從技術(shù)層面也同時(shí)從人文層面解決網(wǎng)絡(luò)傳播內(nèi)容低俗化、劣質(zhì)化及社會(huì)價(jià)值淡化弱化問題,用主流價(jià)值導(dǎo)向發(fā)展“算法”,鞏固壯大主流思想輿論。

      (三)協(xié)同共進(jìn)的算法新聞治理體系

      從人性的角度看,算法新聞治理需要“向善”;從社會(huì)的角度看,算法新聞治理需要“向上”?!跋蛏葡蛏稀钡膫惱碜非蟛皇亲柚顾惴ㄐ侣劦陌l(fā)展,而是表明實(shí)現(xiàn)算法新聞發(fā)展目標(biāo)需要建立有效的算法治理方法和模式。算法新聞治理涉及多個(gè)層面的倫理類別與問題,從倫理行動(dòng)者角度出發(fā),算法新聞治理需要建立多主體協(xié)同共進(jìn)的治理體系(表1)。

      第一,政府在算法新聞治理中需要充當(dāng)好規(guī)則制定者、過程把控者和底線管控者的角色。政府在科技發(fā)展中起著引領(lǐng)作用,對(duì)新技術(shù)的使用需要加強(qiáng)研究,并根據(jù)發(fā)展過程中出現(xiàn)的新變化、新問題、新挑戰(zhàn),不斷進(jìn)行積極回應(yīng)和合理規(guī)范。2019年7月,我國(guó)出臺(tái)《國(guó)家科技倫理委員會(huì)組建方案》,對(duì)人工智能等前沿科技發(fā)展進(jìn)行統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),從國(guó)家層面建立保障人工智能健康發(fā)展的法律法規(guī)和制度體系。智能算法在不同層次的信息需求滿足上發(fā)揮著不同作用,算法的風(fēng)險(xiǎn)與規(guī)制需要在具體的價(jià)值期待下進(jìn)行具體分析[56]。政府應(yīng)以“法律紅線”明晰算法新聞的內(nèi)容底線,設(shè)定監(jiān)管標(biāo)準(zhǔn),給合格的內(nèi)容以流動(dòng)的區(qū)間。算法治理的理由是基于已經(jīng)識(shí)別的風(fēng)險(xiǎn)[57],政府除以法律規(guī)定對(duì)可預(yù)見的風(fēng)險(xiǎn)進(jìn)行制度化規(guī)定外,還需要加強(qiáng)對(duì)算法風(fēng)險(xiǎn)變化的可能及技術(shù)不確定性的研判。

      算法新聞治理也是跨學(xué)科的挑戰(zhàn)[58],算法新聞背后的技術(shù)問題、文化問題和倫理問題涉及多領(lǐng)域的交叉性,需要在政府主導(dǎo)下,鼓勵(lì)形成容納社會(huì)科學(xué)、自然科學(xué)和產(chǎn)業(yè)界的跨學(xué)科多領(lǐng)域的多方對(duì)話機(jī)制。政府還應(yīng)加大算法新聞倫理宣傳和認(rèn)知教育,增強(qiáng)公眾對(duì)算法新聞的理解,培育公眾算法素養(yǎng),使人們能夠科學(xué)認(rèn)識(shí)算法應(yīng)用帶來(lái)的可能進(jìn)步及潛在風(fēng)險(xiǎn)[59],正確評(píng)估算法新聞的效能。

      第二,平臺(tái)機(jī)構(gòu)要承擔(dān)起算法新聞治理的主體責(zé)任。平臺(tái)媒體算法的工具理性蘊(yùn)藏了其背后來(lái)自于平臺(tái)公司的數(shù)據(jù)商品化意識(shí)形態(tài)邏輯的支配[60],平臺(tái)媒體需明確自己的經(jīng)濟(jì)責(zé)任、法律責(zé)任、社會(huì)責(zé)任和道德責(zé)任,確保在算法新聞的發(fā)展過程中實(shí)現(xiàn)

      經(jīng)濟(jì)效益和社會(huì)效益的統(tǒng)一。算法規(guī)則背后體現(xiàn)的是平臺(tái)機(jī)構(gòu)的價(jià)值觀念,價(jià)值觀才是平臺(tái)機(jī)構(gòu)的靈魂。算法系統(tǒng)設(shè)計(jì)和運(yùn)行,應(yīng)該使其目標(biāo)和行為與人和社會(huì)的價(jià)值觀一致。很多平臺(tái)媒體已經(jīng)意識(shí)到價(jià)值觀引領(lǐng)發(fā)展的社會(huì)意義和價(jià)值。對(duì)于算法和人工智能的發(fā)展,IBM提出“信任、尊重與隱私保護(hù)”的三大原則;微軟提出的六大原則是“公平、透明、責(zé)任、無(wú)歧視、知情同意與法律控制”;2019年5月,騰訊宣布“科技向善”成為公司新的愿景和使命;快手堅(jiān)持“平等普惠、真實(shí)向善”的理念。

      在注重價(jià)值引導(dǎo)的同時(shí),平臺(tái)機(jī)構(gòu)在算法新聞治理中可通過算法體系的設(shè)定,增設(shè)對(duì)普通公眾給予普惠流量曝光的機(jī)制,對(duì)符合社會(huì)倡導(dǎo)的正能量?jī)?nèi)容進(jìn)行優(yōu)先推薦的設(shè)置[61],以消減算法的歧視和偏差。平臺(tái)機(jī)構(gòu)擁有強(qiáng)大的分發(fā)能力,可與主流媒體擅長(zhǎng)的內(nèi)容生產(chǎn)能力相結(jié)合,在內(nèi)容層面與主流媒體進(jìn)行深度合作,聯(lián)合主流媒體,既保證算法新聞的質(zhì)量,也發(fā)揮好服務(wù)主流媒體的功能。

      第三,公眾與傳統(tǒng)媒體也應(yīng)在算法新聞治理中發(fā)揮自己的責(zé)任。公眾需要提高自身的算法素養(yǎng),傳統(tǒng)媒體也需要與平臺(tái)機(jī)構(gòu)進(jìn)行合作。兩者的共同責(zé)任在于實(shí)現(xiàn)對(duì)算法新聞的監(jiān)督。算法素養(yǎng)應(yīng)作為公眾媒介素養(yǎng)的重要內(nèi)容。公眾應(yīng)學(xué)習(xí)了解必需的算法常識(shí),發(fā)揮自己的能動(dòng)性,做到在網(wǎng)絡(luò)上理性獲取信息和生產(chǎn)信息,保護(hù)好個(gè)人信息,同時(shí)能積極認(rèn)知和評(píng)判算法風(fēng)險(xiǎn),自覺避免新聞消費(fèi)中的盲從或被動(dòng)現(xiàn)象,及時(shí)反饋新聞消費(fèi)體驗(yàn),幫助改進(jìn)平臺(tái)新聞推薦中的不合理之處。傳統(tǒng)媒體需要發(fā)揮自己在新聞生產(chǎn)方面的公信力優(yōu)勢(shì)和新聞核查方面的專業(yè)優(yōu)勢(shì),嚴(yán)格職業(yè)把關(guān)和審核機(jī)制,拒絕生產(chǎn)

      迎合人性弱點(diǎn)及惰性的新聞,自覺生產(chǎn)和推廣優(yōu)質(zhì)內(nèi)容,自覺對(duì)算法新聞進(jìn)行糾偏,修正算法新聞的設(shè)計(jì)。更為重要的是,要把握算法技術(shù)和社會(huì)發(fā)展大勢(shì),努力打造自主可控平臺(tái),不斷積聚海量用戶,增強(qiáng)平臺(tái)黏性和影響力,占據(jù)互聯(lián)網(wǎng)輿論主導(dǎo)地位。

      四、余論

      從以上分析可以認(rèn)為,算法新聞掀起了新聞傳播領(lǐng)域的一場(chǎng)革命,它不僅挑戰(zhàn)了傳統(tǒng)新聞的生產(chǎn)方式、分發(fā)模式和商業(yè)模式,也挑戰(zhàn)了傳統(tǒng)新聞的價(jià)值理念、倫理準(zhǔn)則與理論規(guī)范等。在算法新聞時(shí)代,必須把完善保障媒體社會(huì)責(zé)任的實(shí)現(xiàn)機(jī)制及“完善堅(jiān)持正確導(dǎo)向的輿論引導(dǎo)工作機(jī)制”,“抵制低俗庸俗媚俗的工作機(jī)制”納入社會(huì)治理的重要范疇,既充分發(fā)揮算法技術(shù)的工具理性造福人類,又切實(shí)避免“創(chuàng)新性破壞”維護(hù)公共價(jià)值,從而實(shí)現(xiàn)算法對(duì)人的價(jià)值關(guān)懷和推動(dòng)社會(huì)的良性發(fā)展。

      參考文獻(xiàn):

      [1]THURMAN N, LEWIS S C, KUNERT J.Algorithms, automation, and news[J].Digital Journalism, 2019, 7(8): 980-992.

      [2]HAMMOND P.From computer-assisted to data-driven: Journalism and big data[J].Journalism:Theory, Practice & Criticism, 2017, 18(4):408-424.

      [3]GYNNILD A.Journalism innovation leads to innovation journalism:The impact of computational exploration on changing mindsets[J].Journalism: Theory,Practice & Criticism, 2014,15(6):713-730.

      [4]吳鋒.發(fā)達(dá)國(guó)家“算法新聞”的理論緣起、最新進(jìn)展及行業(yè)影響[J].編輯之友,2018(5):48-54.

      [5]方師師.算法如何重塑新聞業(yè):現(xiàn)狀、問題與規(guī)制[J].新聞與寫作,2018(9):11-19.

      [6]王仕勇.算法推薦新聞的技術(shù)創(chuàng)新與倫理困境:一個(gè)綜述[J].重慶社會(huì)科學(xué),2019(9):123-132.

      [7]中共中央關(guān)于堅(jiān)持和完善中國(guó)特色社會(huì)主義制度 推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化若干重大問題的決定[N].人民日?qǐng)?bào),2019-11-06(01).

      [8]中共中央印發(fā)《法治社會(huì)建設(shè)實(shí)施綱要(2020-2025年)》[EB/OL].(2020-12-08)[2020-12-09].http://www.gov.cn/xinwen/2020-12/07/content_5567791.htm.

      [9]LATZER M,GEWINNER J,HOLLNBUCHNER K,et al.Algorithmische selektion im internet: konomie und politik automatisierter relevanzzuweisung in der informationsgesellschaft[R].Forschungsbericht, Universitt Zürich, IPMZ, Abteilung für Medienwandel & Innovation, 2014.

      [10]仇筠茜,陳昌鳳.黑箱:人工智能技術(shù)與新聞生產(chǎn)格局嬗變[J].新聞界,2018(1):28-34.

      [11]BOGOST I.The new aesthetic needs to get weirder[J].The Atlantic, 2012(13):1-8.

      [12]PASQUALE F.The black box society[M].Cambridge,MA and London, England: Harvard University Press, 2015:9.

      [13]NAPOLI P,CAPLAN R.Why media companies insist theyre not media companies, why theyre wrong,and why it matters[J].First Monday, 2017,22(5).

      [14]RMEN J.Googling the news:Opportunities and challenges in studying news events through Google Search[J].Digital Journalism, 2016, 4(1):107-124.

      [15]尤瓦爾·赫拉利.未來(lái)簡(jiǎn)史:從智人到智神[M].北京:中信出版集團(tuán),2017:352-357.

      [16]蕭維杰,王維菁.動(dòng)態(tài)消息算法,能見度,與新聞經(jīng)營(yíng):以Facebook平臺(tái)為例[J].信息社會(huì)研究,2018(34): 63-104.

      [17]比爾·科瓦齊,湯姆·羅森斯蒂爾.新聞的十大基本原則:新聞從業(yè)者須知和公眾的期待[M].北京:北京大學(xué)出版社,2011:87-92.

      [18]牛靜.新聞透明性:技術(shù)變革下的媒體倫理新準(zhǔn)則[J].新聞與寫作,2019(4):22-28.

      [19]宋瑋.對(duì)話張一鳴:世界不是只有你和你的對(duì)手[J].財(cái)經(jīng),2016-12-14.http://yuanchuang.caijing.com.cn/2016/1214/4211643.shtml.

      [20]夏倩芳,王艷.從“客觀性”到“透明性”:新聞專業(yè)權(quán)威演進(jìn)的歷史與邏輯[J].南京社會(huì)科學(xué),2016(7):97-109.

      [21]BOZDAG E.Bias in algorithmic filtering and personalization[J].Ethics and Information Technology, 2013, 5(3):209-227.

      [22]常江.生成新聞:自動(dòng)化新聞時(shí)代編輯群體心態(tài)考察[J].編輯之友,2018(4):76-82.

      [23]凱西·奧尼爾.算法霸權(quán)[M].北京:中信出版集團(tuán),2018:1-22.

      [24]GREENFIELD A.Radical technologies: The design of everyday life[M].London and New York: Verso Books, 2017:212.

      [25]喻國(guó)明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(5):5-12.

      [26]LASH S.Power after hegemony[J].Theory,Culture & Society,2007,24(3):55-78.

      [27]戴維·克勞利,保羅·海爾.傳播的歷史:技術(shù)、文化和社會(huì) [M].第5版.北京:北京大學(xué)出版社,2011:392.

      [28]鄧建國(guó).機(jī)器人新聞:原理、風(fēng)險(xiǎn)和影響[J].新聞?dòng)浾撸?016(9):10-17.

      [29]BOGOST I.The cathedral of computation[J].The Atlantic,2015(12):15.

      [30]胡凌.人工智能的法律想象[J].文化縱橫,2017(2):108-116.

      [31]ANDERSEN J.Archiving,ordering,and searching: search engines,algorithms,databases,and deep? mediatization[J].Media, Culture & Society, 2018, 40(8):1135-1150.

      [32]塔娜,唐錚.算法新聞[M].北京:中國(guó)人民大學(xué)出版社, 2019:20-27.

      [33]JOHNSON D.Activating activism: Facebook trending topics, media franchises, and industry disruption[J].Critical Studies in Media Communication,2017,34(2):148-157.

      [34]JUST N, LATZER M.Governance by algorithms: Reality construction by algorithmic selection on the Internet[J].Media,Culture & Society, 2017,39(2): 238-258.

      [35]白紅義.重構(gòu)傳播的權(quán)力:平臺(tái)新聞業(yè)的崛起、挑戰(zhàn)與省思[J].南京社會(huì)科學(xué),2018(2):95-104.

      [36]史安斌,王沛楠.傳播權(quán)利的轉(zhuǎn)移與互聯(lián)網(wǎng)公共領(lǐng)域的“再封建化”:臉譜網(wǎng)進(jìn)軍新聞業(yè)的思考[J].新聞?dòng)浾撸?017(1):20-27.

      [37]姜紅,魯曼.重塑“媒介”:行動(dòng)者網(wǎng)絡(luò)中的新聞“算法”[J].新聞?dòng)浾撸?017(4):26-32.

      [38]王前,陳佳.“行動(dòng)者網(wǎng)絡(luò)理論”的機(jī)體哲學(xué)解讀[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(1):1-7.

      [39]FLORIDI L, SANDERS J W.On the morality of artificial agents[J].Minds and Machines, 2004, 14(3): 349-379.

      [40]楊保軍,杜輝.智能新聞:倫理風(fēng)險(xiǎn)·倫理主體·倫理原則[J].西北師大學(xué)報(bào)(社會(huì)科學(xué)版),2019(1):27-36.

      [41]趙瑜.人工智能時(shí)代的新聞倫理:行動(dòng)與治理[J].人民論壇·學(xué)術(shù)前沿,2018(24):6-15.

      [42]埃里克·麥克盧漢.麥克盧漢精粹[M].何道寬,譯.南京:南京大學(xué)出版社,2000:566-567.

      [43]周勇,趙璇.大數(shù)據(jù)新聞生產(chǎn)的實(shí)踐與反思[J].新聞與寫作,2016( 6):44-48.

      [44]保羅·萊文森.人類歷程回放:媒介進(jìn)化論[M].鄔建中,譯.重慶:西南師范大學(xué)出版社,2017:1.

      [45]波斯曼.技術(shù)壟斷:文化向技術(shù)投降[M].北京:北京大學(xué)出版社,2007:11-41.

      [46]劉易斯·芒福德.技術(shù)與文明[M].陳允明,等譯.北京:中國(guó)建筑工業(yè)出版社,2009:9.

      [47]約翰·奈斯比特.高科技·高思維[M].尹萍,譯.北京:新華出版社,2000:1-2.

      [48]海德格爾.技術(shù)的追問[C]//海德格爾演講與論文集.北京:生活·讀書·新知三聯(lián)書店,2005:12-13.

      [49]胡泳.當(dāng)今的責(zé)任:瀕危未來(lái)的倫理學(xué)[J].新聞戰(zhàn)線,2019(23):70-72.

      [50]克利福德.G.克里斯琴斯,馬克·法克勒,凱西·布里坦·理查森,等.媒介倫理:案例與道德推理[M].第9版.北京:中國(guó)人民大學(xué)大學(xué)出版社, 2014:13.

      [51]尼克·庫(kù)爾德利.媒介、社會(huì)與世界[M].何道寬,譯.上海:復(fù)旦大學(xué)出版社,2014:194.

      [52]MACINTYRE A.After virtue: A study in moral theology[M].University of Notre Dame Press,1981:175.

      [53]新聞自由委員會(huì).一個(gè)自由而負(fù)責(zé)的新聞界[M].展江,等譯.北京:中國(guó)人民大學(xué)出版社,2004:1.

      [54]張志安,劉杰.人工智能與新聞業(yè):技術(shù)驅(qū)動(dòng)與價(jià)值反思[J].新聞與寫作,2017(11):5-9.

      [55]史劍輝.新聞?dòng)^:人文主義轉(zhuǎn)向何以可能:南京大學(xué)杜駿飛教授學(xué)術(shù)專訪[J].新聞?dòng)浾撸?018(10):29-36.

      [56]喻國(guó)明,耿曉夢(mèng).智能算法推薦:工具理性與價(jià)值適切:從技術(shù)邏輯的人文反思到價(jià)值適切的優(yōu)化之道[J].全球傳媒學(xué)刊,2018(4):13-23.

      [57]SAURWEIN F, JUST N, LATZER M.Governance of algorithms:Options and limitations[J].Info, 2015(6): 35-49.

      [58]DANAHER J, HOGAN M J,NOONE C, et al.Algorithmic governance: Developing a research agenda through the power of collective intelligence[J].Big Data & Society, 2017, 4(2).

      [59]賈開.人工智能與算法治理研究[J].中國(guó)行政管理,2019(1):17-22.

      [60]段鵬,李嘉琪.隱藏的價(jià)值觀:平臺(tái)媒體算法的倫理考量和權(quán)力關(guān)系[J].江西師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(5):92-97.

      [61]龍安.快手:平等普惠、真實(shí)向善[J].新聞戰(zhàn)線,2019(23):29-30.

      To be good and upward: A study on algorithmic news

      governance ethics based on benign interaction

      WANG Shiyong1,2, FAN Wenbo2,3

      (1. School of Marxism, Chongqing Technology and Business University, Chongqing 400067, P. R. China;

      2. School of Journalism and Communication, Renmin University of China, Beijing 100872, P. R. China;

      3. Taiyuan Normal University, Taiyuan 030012, P. R. China)

      Abstract:

      The algorithmic news has reconstructed the journalism and communication ecology, but also exposed some ethical problems, the core of which is the contradiction between “algorithmic black box” and the principle of news transparency, the contradiction between “algorithmic hegemony” and media justice, and the conflict between “algorithm manipulation” and delegated trust. To solve the ethical problems caused by algorithmic news, it is necessary to make clear that algorithmic news is a non-human “network actor”, but not an independent ethical actor, and “human” is the main responsibility subject of algorithmic news. The logical starting point of algorithmic news governance should return to the benign interaction among technology, human and society. Algorithmic news governance should take “good” as the bottom line ethics and “up” as the responsibility for the free and comprehensive development of human beings and the orderly and healthy operation of society. Algorithmic news governance needs to establish a multi-agent collaborative governance system: the government should play a good role as a rule maker, process controller and bottom line controller; the platform institutions should bear the main responsibility of algorithmic news governance; the public should consciously avoid the blind or passive phenomenon in news consumption; the traditional media should strictly enforce the professional check and audit mechanism, and refuse the news production catering to human weakness and inertia. The common responsibility of the public and traditional media is to correct, improve and supervise the algorithm news.

      Key words:? big data; to be good and upward; algorithmic news;algorithmic governance;algorithmic ethics; modernization of governance capacity; social governance; journalism

      (責(zé)任編輯 彭建國(guó))

      猜你喜歡
      倫理算法
      《心之死》的趣味與倫理焦慮
      護(hù)生眼中的倫理修養(yǎng)
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      進(jìn)位加法的兩種算法
      基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
      一種改進(jìn)的整周模糊度去相關(guān)算法
      醫(yī)改莫忘構(gòu)建倫理新機(jī)制
      論《覺醒》中的倫理關(guān)系
      從變譯理論看翻譯倫理
      宿州市| 乌拉特前旗| 洮南市| 刚察县| 墨脱县| 峨山| 色达县| 丰县| 利津县| 金川县| 咸阳市| 黄大仙区| 建德市| 山东省| 绥阳县| 绥芬河市| 宁国市| 安图县| 古田县| 滨海县| 枣强县| 云龙县| 衡水市| 孟村| 平远县| 建始县| 台州市| 横山县| 获嘉县| 哈尔滨市| 九江市| 大同市| 叶城县| 香格里拉县| 济南市| 宁河县| 宜川县| 姜堰市| 柳州市| 文登市| 虎林市|