□文│王曉培 常 江
隨著算法深度卷入新聞行業(yè),媒介的生產和消費過程正在逐漸自動化??此啤翱陀^中立”的算法,引發(fā)了諸多關于倫理問題的爭論。原本附加于記者編輯、媒體組織的權力和責任讓渡給算法,使得原有的生產邏輯和關系被打破,同時也產生了現(xiàn)存?zhèn)惱砜蚣茈y以適用的新問題。文章嘗試建構一個新的倫理框架,從算法新聞的技術可能性中提取特征,以生產流程(輸入、處理、生成)和報道的基本原則(真實準確、客觀全面、社會責任)形成矩陣地圖,為明確和解決潛在的倫理挑戰(zhàn)提供進路。
長期以來,技術都是形塑新聞業(yè)生產流程、條件的重要因素。[1]隨著算法深度卷入新聞的編輯、聚合、發(fā)布及內容分發(fā),媒介的生產和消費過程正在逐漸自動化。目前,自動化新聞多用于結構化數(shù)據(jù)較為充足、報道相對公式化的領域,如體育、財經、犯罪、天氣報道等。多爾(Dorr)自動化新聞定義為自然語言處理(natural language generation,簡稱NLG)的自動或半自動過程,即通過從私人或公共的數(shù)據(jù)庫選取數(shù)據(jù)、分配預選和未選數(shù)據(jù)特征的關系、將相關數(shù)據(jù)集合結構化為一種語義結構(a semantic structure),并將最終文本發(fā)布在線上或線下平臺。[2]
每天,大型媒體機構都會在沒有過多人工干擾的情況下,利用計算機自動生成若干報道。美聯(lián)社(Associated Press)每季度使用自動寫作平臺語言大師(Wordsmith)將原始收入數(shù)據(jù)轉化為3700家企業(yè)的收益新聞,而此前人工僅能編輯400篇。[3]其競爭對手路透社(Reuters)和法新社(Agence France-Presse)每年也會自動生成上千條新聞。[4]自動化新聞生產幫助新聞媒體擴大了報道面,特別是在財經和體育領域。
在中國,自動化新聞也在實踐中嶄露頭角。除了此前騰訊的Dreamwriter(有資料譯為夢幻寫手)、新華社的快筆小新、微軟小冰、今日頭條的xiaomingbot(張小明)等,2018年兩會,新華社利用國內首個媒體人工智能平臺“媒體大腦”首次在兩會報道中使用MGC(Machine Generated Content,機器生產內容)新聞?!懊襟w大腦”可自動分析輿情數(shù)據(jù)、生產可視化圖表,并智能配音、剪輯、輸出。在分析了3511555條內容后,“媒體大腦”僅用15秒就制作出了視頻新聞《2018兩會MGC輿情熱點》。此后,還制作了《“媒體大腦”也在學習政府工作報告 機器發(fā)現(xiàn)了這些看點》《“媒體大腦”想陪你聊聊“兩高”這五年》等六期MGC視頻新聞,海內外總瀏覽量超過1200萬次,覆蓋量超過1億人。
自動化新聞在某種程度上彌補了傳統(tǒng)新聞的不足,得到了消費者的認可。路透研究院發(fā)布的報告《碎片化新聞時代的品牌與信任》(Brand and trust in a fragmented news environment)顯示,盡管大多數(shù)受訪者此前并未關注新聞是如何生產的,他們中的多數(shù),特別是年輕一代,仍然更傾向于讓算法而不是編輯來決定他們能看到什么新聞。[5]2017年,其發(fā)布的《數(shù)字新聞報告2017》(Digital News Report 2017)再次證明了用戶對算法的喜愛程度。該報告在全球共調查7萬人次,涵蓋五大洲36個國家和地區(qū)。其中,超過54%的受訪者表示更傾向于算法篩選新聞,選擇編輯和記者的受訪者占44%。這一趨勢在主要使用智能手機獲取新聞的用戶(58%)和年輕用戶(64%)中更加顯著。[6]2016年的一次焦點小組調查中,一位來自英國的受訪者解釋道,他們“更傾向于相信從整體(a full range)信息中篩選的算法而不是一位編輯”。[7]可見,“自動判斷”被賦予了客觀性的期望,這對記者專業(yè)判斷的權威性產生了影響。[8]
不僅如此,自動化新聞報道方式的流行,還導致傳統(tǒng)的新聞生產流程和社會功能的變革。表面上看,算法似乎解決了人類天然對主觀性的懷疑:通過“中性”的技術手段替代專業(yè)的決策,形成“客觀”的新聞文本。然而,越來越多的研究表明,算法并不是中立的,其偏見正以一種更為隱秘和復雜的機制運作。這也引發(fā)了諸多關于算法倫理問題的爭論。在微觀層面,記者作為個體一直是新聞倫理的主要約束對象。一般認為,新聞教育會提前將記者訓練成為具備勤奮、可靠、誠實、敏銳等優(yōu)秀品德的專業(yè)人士。但是,作為產品的新聞通常不是單一個體能夠全權負責的,而是涉及多主體、多層次的責任——在宏觀層面,除了媒體組織本身還會受到外部因素,如社會環(huán)境、競爭者的影響。新聞生產的自動化趨勢意味著越來越多的、原本附加于記者編輯、媒體組織的權力和責任讓渡給算法,一方面使得原有的生產邏輯和關系被打破,另一方面也產生了已有框架難以適用的新問題。因此,急需建構一個新的倫理框架,以明確和討論不斷變動的算法新聞倫理爭議。
算法新聞憑借快速及個性化能力勃興,越來越多地介入到專業(yè)新聞生產之中。學者們[9][10]研究發(fā)現(xiàn),雖然目前算法新聞尚處初級階段,但記者普遍感覺數(shù)字化和自動化使得新聞生產更加復雜,并讓從業(yè)者更難遵循規(guī)范標準(normative standards)。因而,對算法新聞的研究,除了受眾認知、社會和經濟影響之外,倫理問題也成為了重要的一環(huán)。對倫理的定義有很多種,最廣為傳播的是“關于我們應該做什么的研究”。[11]
艾納尼(Ananny)結合傳統(tǒng)研究倫理的三條路徑——道義論(deontology)、功利主義(utilitarianism)以 及 美 德(virtue ethics) 建 立 了 全 新 的 NIAs(networked information algorithms,網絡信息算法)分析模型,關注作為一個集合(assemblage)的算法如何運作,以及NIAs何時、如何、為誰工作。[12]多爾等為其補充了從來源和動機方面對倫理問題的考量,并提出,算法新聞倫理是作為新聞倫理一部分的數(shù)字媒體倫理(digital media ethics)與計算機科學的賽博倫理(cyber ethics)的交疊。[13]賽博倫理即對涉及賽博技術的道德、法律、社會問題的研究,“對核心(傳統(tǒng)的)道德觀念的特定表述,比如自治、平等、公正、責任和人格尊重”。[14]為全面把握新聞倫理的潛在轉變和挑戰(zhàn),多爾等結合普爾(Purer)提出的多層責任系統(tǒng)(the multi-layer system of responsibility) 及魏申貝格(Weischenberg)等對組織層次、專業(yè)/個體層次和社會/受眾層次的新聞分類方式(the classification of journalism),建立了一套涵蓋了組織、專業(yè)和社會視域的算法新聞倫理的分析框架,在客觀性、權威性、透明度以及隱含/外顯的價值觀等層面發(fā)掘新聞倫理的嬗變與新挑戰(zhàn)。[15]
隨著2015年國內新聞機構引入機器人寫作技術,我國學者對算法新聞倫理的研究也日漸增多。牛靜和劉丹通過對全球134篇媒體倫理規(guī)范的分析,總結出了提及率前十名的倫理原則,如保護消息來源、保護隱私、更正、明確新聞界限等。[16]靖鳴等總結了人工智能技術在傳播內容、輿論監(jiān)督、公眾信息安全和著作權以及“信息繭房”方面為新聞業(yè)帶來的倫理失范問題。[17]喬艷認為,機器人新聞生產機制對新聞工作者的價值產生沖擊,并為新聞受眾構建了新的邏輯。[18]陳昌鳳等考察了智能算法推薦與分發(fā)的倫理風險,嘗試打開算法“黑箱”,探究技術實踐與公共信息生產的權力遷移。[19]張淑玲則關注算法權力躍升與算法黑箱的不透明性之間的張力,梳理了新聞算法黑箱的三種表現(xiàn)形態(tài)、成因及解決策。[20]
整體來看,目前我國對于算法新聞倫理的研究稍顯零散,研究或從單一角度入手,或從宏觀角度理論概述,尚未形成一個較為系統(tǒng)、全面的分析框架。本研究試圖從算法新聞的技術可能性中提取特征,搭建一個適用于國內算法新聞的倫理地圖,為明確和解決潛在的倫理挑戰(zhàn)提供進路。
本文借助學者多爾[21]總結提煉的算法新聞的I-T-O框架(如圖1),基于技術流程將自動化新聞生產劃分為三個部分:輸入(input),從數(shù)據(jù)庫提取數(shù)據(jù);處理(throughput),用預先設定的語言和統(tǒng)計規(guī)則處理數(shù)據(jù);生成(output),最終用自然語言輸出文本。
圖1 算法新聞的I-T-O模式
從技術手段上說,NLG擁有不同的算法種類,如按照學習方式可分為監(jiān)督式學習、非監(jiān)督式學習、半監(jiān)督式學習、強化學習等,并還將出現(xiàn)新的手段。本文借助可操作的概念并還原其在自動化新聞生產過程中的作用,以生產行為及結果為導向,從新聞報道的基本原則切入,嘗試建構一個能夠系統(tǒng)描述動態(tài)、開放的算法新聞的倫理框架。以生產流程(輸入、處理、生成)和報道的基本原則(真實準確、客觀全面、社會責任)形成了一個3×3的矩陣地圖(如表1),為分析實踐和規(guī)范問題提供路徑。
表1 算法新聞倫理的分析框架
在輸入階段,倫理問題主要來自數(shù)據(jù)本身及其來源?,F(xiàn)階段,結構化數(shù)據(jù)是NLG的前提。自動化新聞之所以在體育、財經、犯罪等領域最為常見,正是由于這些領域數(shù)據(jù)的可得性和結構化程度高??梢?,數(shù)據(jù)本身的準確性和可靠度對最終報道的真實準確具有決定性影響。數(shù)據(jù)的完整性、中立性也非常重要。若數(shù)據(jù)庫獲取不全或具有偏向性,都可能導致錯誤與偏見。此外,原始數(shù)據(jù)庫需要經過“清洗”,以算法能夠理解的結構化形式輸入。此過程中,一些無法被結構化的數(shù)據(jù)被清理或忽視,也可能導致數(shù)據(jù)的缺失與偏向。
數(shù)據(jù)的來源一直是新聞倫理研究關注的問題。在算法新聞領域,數(shù)據(jù)來源的問題可以從兩個主體層面進行考察。一是從媒體機構層面,為實現(xiàn)數(shù)據(jù)透明,算法新聞的數(shù)據(jù)來源是否應該被公開尚存爭議,因為長期以來“保護信源”都是新聞倫理中重要的一項。應該如何解決“數(shù)據(jù)透明”與“信源保護”之間的矛盾?此外,獲取的數(shù)據(jù)途徑是否正當、取得數(shù)據(jù)后媒體機構是否有權使用其進行商業(yè)活動也是被廣泛討論的問題;二是從用戶個體層面,算法時代,個人隱私的邊界正在逐漸消融,媒體對用戶數(shù)據(jù)的抓取和搜集可能會侵犯個人隱私權。個人隱私的邊界應該如何界定?未被授權的數(shù)據(jù)可以作為新聞寫作的素材嗎?2018年5月25日,歐盟全新的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,簡稱GDPR)取代了1995年通過的歐盟數(shù)據(jù)保護法律,似乎給出了一種答案。該條例用嚴格的規(guī)定和高額的罰金迫使企業(yè)關注和保護客戶數(shù)據(jù),讓用戶能夠更主動地掌控數(shù)據(jù),維護隱私?,F(xiàn)階段,我國的法律在信息數(shù)據(jù)保護方面仍有待完善。
有學者將透明度定義為“新聞行業(yè)內部和外部人士都有機會能夠監(jiān)督、檢查、批評甚至干涉報道過程的途徑”,[22]讓觀眾能夠了解新聞生產過程和報道幕后的記者。而算法新聞的出現(xiàn)卻挑戰(zhàn)了這一傳統(tǒng)標準,自動生產的過程似乎是一個“黑箱”,特別是機器學習算法的出現(xiàn),讓人類難以對其決策過程進行監(jiān)督和干預,更難對輸出結果的合法性進行認定。透明度有兩個重要的組成部分——可得性和可理解性(accessibility and comprehensibility):可得性即數(shù)據(jù)所有者的知情權與數(shù)據(jù)使用者的商業(yè)可行度(commercial viability)間的權力博弈,形成信息不對稱和有利于數(shù)據(jù)使用者的“知識和決策權力的不平衡(imbalance)”;[23]可理解性即算法運行的規(guī)則和過程能被用戶理解,但知識門檻與技術壁壘的存在使得此部分的實現(xiàn)并非易事。[24]此外,出于商業(yè)性的專利保護、國家安全和隱私等考慮,算法做到完全公開是極為困難的。
不過在此方面,國外媒體也做出了多種嘗試。新媒體公司(ProPublica)發(fā)布其統(tǒng)計方法論白皮書;美國新聞聚合網站嗡嗡喂(BuzzFeed)、538(FiveThirtyEight)等將他們部分數(shù)據(jù)向文章的數(shù)據(jù)和代碼設為開源;《紐約時報》、BBC等均在不同程度上公布了其算法工具的細節(jié)。而目前我國多數(shù)新聞寫作機器人并未公開詳細的算法,僅有微軟小冰粗略地公開了其實現(xiàn)人機對話的機理。[25]
一些觀點認為,算法判斷與人類主觀決策相比,似乎具有天然的中立性,有學者將其稱作“算法客觀性”(algorithmic objectivity)。[26]因為算法會按照預先設定的統(tǒng)一運算流程,在沒有人為干預的情況下處理所有數(shù)據(jù),而不是根據(jù)某一時刻的臨時判斷。但很多人發(fā)現(xiàn),算法處理數(shù)據(jù)的運行邏輯仍舊是人類行動,傳統(tǒng)的監(jiān)督式學習在算法編寫過程中可能受到程序設計者、機構的價值觀以及所處社會環(huán)境、技術限制等影響,機器學習算法則可能會受到用戶使用方式的影響,制造更多有意識或無意識的偏見的產生。有學者指出,臉書(Facebook)新聞的算法邏輯重視那些能夠被分享、被評論和被點贊的內容,因此適合那些能夠引發(fā)情緒波動的內容,如讓人“極度喜悅或義憤填膺”的帖子或圖片。[27]
可追溯性在保證新聞的真實準確和事后追責上扮演非常重要的角色。然而,機器學習算法的普及卻使得人類逐漸喪失了對機器行為的完全掌控,對算法行為的控制權逐漸從設計者、程序員轉移到了算法本身及其運行環(huán)境,出現(xiàn)了“責任溝”(an accountability gap)。一篇自動化報道出現(xiàn)問題之后,責任主體應指向誰?程序設計者、機構還是計算機?此外,有學者認為,人類的道德標準無法適用于計算機,算法也無法模擬人類“對情感、道德的彈性把控”。[28]什么樣的算法設計是合理的、能夠滿足人類閱讀期待的?人機的倫理一致性(ethical consistency)以及對社會和道德責任的重置問題都尚未形成一致看法。
算法對于報道的真實、準確性有雙重作用。一方面,算法可以幫助媒體鑒別信息真?zhèn)危蔀楹芏嗝襟w核實信源、應對假新聞的有效方式。比如路透社開發(fā)的針對社交媒體推特(Twitter)的算法預警程序“新聞追蹤者”(News Tracer),運用算法評估發(fā)布者的用戶資料、認證情況、關注者和被關注者、消息的傳播方式等700余項指標,幫助記者判斷一則推文的可信度,并利用機器學習發(fā)現(xiàn)被廣泛討論的事件,判斷其是否具有新聞價值。[29]另一方面,算法在輸入、處理過程中的偏見與不足,可能會直接導致報道的偏差與失實?!都~約時報》曾在一則橄欖球比賽報道中表示,盡管有大數(shù)據(jù)作為支撐,但機器人生成的報告要比NFL專業(yè)教練的預測更為樂觀。[30]
現(xiàn)階段,因技術和成本的限制,除為全球提供商業(yè)、金融信息的路透社、彭博社,多數(shù)媒體機構選擇與外部渠道合作或購買的方式獲取“二手數(shù)據(jù)”而不是自主發(fā)掘數(shù)據(jù)。而出于合作、預算或對第三方數(shù)據(jù)的依賴,可能限制報道的復雜、深入程度以及立場,這也引發(fā)了對媒體自主權、報道獨立性、客觀性的討論。
社會責任是媒體活動的基礎。早期,西方媒體被譽為獨立于“三權分立”中的立法、行政、司法之外的“第四權力”,以報道的方式監(jiān)督政府、制衡權力、守望社會。然而算法新聞似乎正在削弱媒體的社會功能。算法新聞目前還需要提前預置模板,對內容的豐富度和深入度產生消極影響,導致最終的產品中出現(xiàn)背景信息、創(chuàng)造性和反思的缺位。多名一線記者在一次工作坊中表示,自動生成的文章可看性低、內容無聊,對讀者“沒有吸引力”。[31]皮尤研究中心發(fā)布的報告《變革中的新聞編輯部》中曾提出,“美國報紙獲得了數(shù)字時代網絡觀念和技能的更新,及淺顯內容的多元化展示,而失去的是精致內容的生產能力?!?算法新聞也擠占了媒體有限的資源,調查報道作為一項重要的公共服務因記者規(guī)模和資金的削減日漸減少,導致普遍的深度內容供應不足。[32]原本應充當“看門人”(watchdog)的媒體反而被商業(yè)利益、政治集團利用。比如,2018年劍橋分析公司(Cambrige Analytica)被爆利用Facebook數(shù)據(jù)通過在各大社交平臺精準投放具有偏向性的新聞操縱選民情緒,為各國政治宣傳、大選等利益集團服務,甚至染指英國脫歐、美國總統(tǒng)大選等重大事件。
在自動化新聞生產中,價值觀也是非常重要的一環(huán)。由于算法不具備人類的道德判斷,若不加以適當限制和引導,易產生不良的社會影響。比如,微軟小冰就曾因為機器學習樣本問題被網友“帶壞”而出口成“臟”,甚至還在與網友的對話中發(fā)表反動言論,一度被封殺。作為一家科技公司,今日頭條的創(chuàng)始人張一鳴曾公開稱“算法沒有價值觀”,但從2017年開始,今日頭條旗下產品屢屢因為價值導向問題被相關部門責令整改、關停。正如凱文·凱利在《科技想要什么》中說的:“我們的任務是引導每一項新發(fā)明培育這種內在的‘善’,使之沿著所有生命的共同方向前進?!盵33]沒有正確的價值導向,算法主導的新聞業(yè)極易產生負面的社會影響。
算法作為一種伴隨新技術而生的權力,社會影響力愈發(fā)廣泛、深遠。技術的進步能否帶來更好的新聞業(yè)?在反思算法倫理的地圖之后發(fā)現(xiàn),其在新聞業(yè)的應用既帶來了新可能與便捷,如鑒別信息真?zhèn)?、預測未來發(fā)展、個性化寫作、拓展報道話題等,也帶來了諸多關于客觀性、真實性、社會責任等方面的爭議。艾納尼總結前人研究,準確道出了算法的復雜性:它不僅是加速商業(yè)、新聞業(yè)、金融等其他領域的工具,而且是作為“話語”的存在,是技術的和社會的知識文化,組織信息如何產生、呈現(xiàn)、生成意義、被視為合法以及賦予公共意義。算法新聞倫理也是糅合了制度化代碼、專業(yè)文化、技術性能、社會實踐以及個體決定的復雜結果。算法作為自動化時代的根基所帶來的倫理挑戰(zhàn)并不是“透明度”與“黑箱”可以完全概括的,框架地圖的構建與完善能夠幫助厘清潛在問題并提出應對方案,未來研究可圍繞某一概念進行更為詳盡的研究,以及如何將“工具理性”和“價值理性”更好地結合。
注釋:
[1]Roger Parry.The Ascent of Media: from Gilgamesh to Google via Gutenberg [M].London: Nicholas Brealey, 2011.Boston: Nicholas Brealey Pub.
[2]Konstantin Dorr.Mapping the Field of Algorithmic Journalism [J].Digital Journalism, 2016 (6).
[3]Francesco Marconi, Alex Siegman and Machine Journalist.The Future of Augmented Journalism: A guide for newsrooms in the age of smart machines [R].Associated Press.[2017-02-22].https://insights.ap.org/uploads/images/the-future-of-augmented-journalism_apreport.pdf
[4]Alexander Fanta.Putting Europe’s Robots on the Map: Automated journalism in news agencies [EB/OL].Reuters Institute [2017-09-01].https://reutersinstitute.politics.ox.ac.uk/our-research/putting-europes-robotsmap-automated-journalism-news-agencies
[5]Kantar Media.Brand and Trust in A Fragmented News Environment [R].[2016-10-10].http://reutersinstitute.politics.ox.ac.uk/our-research/brand-and-trustfragmented-news-environment
[6]Nic Newman with Richard Fletcher, Antonis Kalogeropoulos, David A.L.Levy and Rasmus Kleis Nielsen.Digital News Report 2017 [R].Reuters Institute for the Study of Journalism.[2017-06-22].http://www.digitalnewsreport.org
[7]Nic Newman with Richard Fletcher, David A.L.Levy and Rasmus Kleis Nielsen.Digital News Report 2016 [R].Reuters Institute for the Study of Journalism.[2016-06-14].http://www.digitalnewsreport.org/survey/2016/
[8]Matt Carlson.Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism [J].New Media & Society, 2017 (4).
[9]Brian Creech and Andrew L.Mendelson.Imagining the Journalist of the Future: Technological Visions of Journalism Education and Newswork [J].Communication Review, 2015 (18).
[10]Lia Paschalia Spyridou, Maria Matsiola, Andreas Veglis, George Kalliris, and Charalambos Dimoulas.Journalism in a State of Flux: Journalists as Agents of Technology Innovation and Emerging News Practices [J].International Communication Gazette, 2013 (75).
[11]John C.Merrill.Theoretical Foundations for Media Ethics.In Controversies in Media Ethics, 3rd ed.[C],edited by A.D.Gordon, J.M.Kittross, J.C.Merrill,W.Babcock, and M.Dorsher.New York: Routledge, 2011.
[12]Mike Ananny.Toward an Ethics of Algorithms:Convening, Observation, Probability, and Timeliness [J].Science, Technology, & Human Values, 2016 (41).
[13]Konstantin Nicholas Dorr & Katharina Hollnbuchner.Ethical Challenges of Algorithmic Journalism [J].Digital Journalism, 2017 (5).
[14]Herman H Tavani.Ethics and Technology.Controversies,Questions, and Strategies for Ethical Computing [M].New Jersey: Wiley, 2011: 13.
[15]Konstantin Nicholas Dorr & Katharina Hollnbuchner.Ethical Challenges of Algorithmic Journalism [J].Digital Journalism, 2017 (5).
[16]牛靜,劉丹.全球媒體倫理規(guī)范的共通準則和區(qū)域性準則——基于134篇媒體倫理規(guī)范文本的分析 [J].新聞記者,2017 (10).
[17][28]靖鳴, 婁翠.人工智能技術在新聞傳播中倫理失范的思考 [J].出版廣角, 2018 (1).
[18]喬艷.智媒時代機器人新聞對新聞倫理的沖擊與重建 [J].新聞世界, 2017 (11).
[19]陳昌鳳,霍婕.權力遷移與人本精神:算法式新聞分發(fā)的技術倫理 [J].新聞與寫作,2018 (1).
[20]張淑玲.破解黑箱:智媒時代的算法權力規(guī)制與透明實現(xiàn)機制 [J].中國出版,2018 (7).
[21]Konstantin Dorr.Mapping the Field of Algorithmic Journalism [J].Digital Journalism, 2016 (6).
[22]Mark Deuze.What is Journalism? Professional Identity and Ideology of Journalists Reconsidered [J].Journalism,2005 (6).
[23]Omer Tene and Jules Polonetsky.Big data for all:Privacy and user control in the age of analytics [J].Northwestern Journal of Technology and Intellectual Property, 2013 (11).
[24]Brent Daniel Mittelstadt, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, Luciano Floridi.The Ethics of Algorithms: Mapping the Debate [J].Big Data & Society, 2016 (3).[25]講堂|周明:自然語言對話引擎 [EB/OL].微信公眾號:微軟研究院AI頭條 [2017-04-12].
[26]Tarleton Gillespie.The Relevance of Algorithms.In Media Technologies: Paths Forward in Social Research[C], edited by Tarleton Gillespie, Pablo Boczkowski, and Kirsten Foot.London: MIT Press, 2014.
[27]Zeynep Tufekci.The Real Bias Built in at Facebook[EB/OL].The New York Times[2016-05-19].https://www.nytimes.com/2016/05/19/opinion/the-real-bias-built-inat-facebook.html
[29]Reuters News Tracer: Filtering through the noise of social media [EB/OL].https://agency.reuters.com/en/insights/articles/articles-archive/reuters-news-tracerfiltering-through-the-noise-of-social-media.html.
[30]鄧建國.機器人新聞:原理、風險和影響 [J].新聞記者,2016(9).
[31]Neil Thurman, Konstantin Dorr & Jessica Kunert.When Reporters Get Hands-on with Robo-Writing [J].Digital Journalism, 2017 (5).
[32]James T.Hamilton.Democracy’s Detectives: The Economics of Investigative Journalism [M].Massachusetts:Harvard University Press, 2016.
[33]凱文·凱利, 熊祥譯.科技想要什么 [M].北京: 中信出版社,2011.