趙 瑜
(浙江大學 傳媒與國際文化學院, 浙江 杭州 310028)
如果我們將媒體廣泛地理解為傳播和交流信息的一種方式,就不難發(fā)現(xiàn)信息技術和人工智能的發(fā)展與媒體的內在聯(lián)系及其對傳統(tǒng)媒體的沖擊或影響。人工智能通過算法和大數(shù)據(jù)分析已經(jīng)深刻改變了人類的新聞傳播行為,并且引發(fā)算法偏見及其糾正、數(shù)字身份及其保護、個人隱私及其保護、信息不當觸及的討論,學界日益擔憂數(shù)據(jù)壟斷和算法“獨裁”對社會過程和社會公正的影響,因此,信息技術的倫理治理和整體規(guī)制至關重要。國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中也已明確將“制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”作為我國人工智能發(fā)展的首要保障。
自主智能系統(tǒng)的發(fā)展提出了一些亟待關注的問題,人、機、自然(社會)之間的關系將出現(xiàn)新的構建形式,如果將人工智能的終極目標等同于讓機器(物)擁有自主意志,這首先引發(fā)了人類的倫理危機感,促使我們重回倫理本質的本體論和認識論問題,探討人類如何在智能技術的中介下構建安全、公平、美好的生活。人工智能便不再是一個單純的技術問題,而是一個哲學問題、政治問題。
新聞傳播領域所建構的擬態(tài)環(huán)境會直接影響人們的情緒、觀點和行為決策,對社會公正和社會安全具有重大意義。機器人寫作、算法推薦和信息過濾、社交媒體機器人等帶有自主智能系統(tǒng)因素的新事物已極大地改變了人類傳播和接收信息的模式,并在形塑人類行為模式的基礎上產(chǎn)生了巨大的社會影響。如何界定人工智能技術的新聞倫理問題,如何定義智媒時代的新聞專業(yè)主義,如何構建智能媒體倫理治理體系和法規(guī)體系,是亟待學術破題的重要領域。
本文擬綜論新聞傳播學、哲學和法學在相關領域的研究,厘清目前學界對人工智能和新聞倫理研究的重點領域并進行反思,為未來研究提供思考的起點。
從工業(yè)革命以來,機械化、自動化已經(jīng)成為人類文明的一個顯著特征。1956年達特茅斯會議上一批年輕的科學家首次提出“人工智能”的概念,進一步擴大了技術人工物社會功能的想象空間,從而被稱為“第四次革命”[1]。
人工智能研究,簡單來說,就是要通過智能(自動化)的機器,增強人類在改造自然、治理社會的各項任務中的能力和效率[2-6]。人工智能的本質是算法。算法是為了解決問題而輸入機器的一系列指令[7-10]。
人工智能起步時,研究方法以邏輯推理與啟發(fā)式搜索為主,核心研究領域是符號人工智能。短暫的繁榮之后,人工智能研究進入瓶頸,直到20世紀80年代與神經(jīng)網(wǎng)絡研究結合,又煥發(fā)了新的生機。目前,計算機視覺、自然語言理解、認知科學、機器學習、機器人學等幾大學科協(xié)同發(fā)展,其中機器學習中的深度學習因為AlphaGo在圍棋方面的卓越表現(xiàn)獲得了公眾廣泛的關注。根據(jù)牛津大學2017年針對全球頂級人工智能專家的調查,超過50%的專家認為人工智能將在45年內在所有領域超越人類,并且將在120年內將所有人類工作自動化[11]。
在1877年的《技術哲學綱要》中,卡普曾敏銳地洞見到技術具有向一切人類領域擴張的能力[12],某些技術具有一種強制性的功能,能嵌入個人生活并產(chǎn)生深遠的影響。計算機革命正在不斷提高人們對自動化的依賴,且自主性系統(tǒng)越來越多地掌控了各式各樣的能產(chǎn)生倫理后果的決定。換言之,目前的自動化系統(tǒng)已經(jīng)復雜到一定程度,甚至要求系統(tǒng)面對具體場景做出道德決策[13]。如此一來,問題就轉變?yōu)椋喝藗儗τ诎炎约旱纳透l斫唤o沒有確定的倫理框架的系統(tǒng)會感到放心嗎?近來被曝光的Facebook、亞馬遜用戶數(shù)據(jù)濫用,Twitter機器人賬戶影響用戶觀點和情緒等問題,使人們加深了這樣的疑慮。
與科學技術要解決的“能不能”問題不同,倫理學要解決的是“該不該”問題[14]。在人工智能運用方面,倫理學研究首先必須辨析核心價值,以提供思考框架。
資本主義早期對工人的殘酷剝削、城市化和生態(tài)惡化,在當時就引發(fā)了技術批判和反抗,如英國知名的盧德運動。雖然主流學界對當時的反技術浪潮總體持批判態(tài)度,但“闖進花園的機器”式的技術懷疑論始終存在。而二戰(zhàn)對人類社會巨大的破壞作用,使得希特勒被認為是人類史上首個運用技術力量而使罪行倍增的人。埃呂爾、麥克盧漢、馬爾庫塞、芒福德、賽佛、加爾布雷思、海德格爾、溫納、拉圖爾等學者都發(fā)展和深化了對技術的學術反思,這些著述也是技術倫理學的直接源頭。
海德格爾在《論思想》中指出,在其生存的所有領域,人都將比以往更加緊密地被技術力量包圍,將人置于這樣或那樣的技術發(fā)明形式的控制之下[15]。哲學家們擔心人成了技術社會這部機器的齒輪,從思想和行動上淪為機器的奴仆[16]。在這個意義上就誕生了“自主性技術”的概念[17],表達技術業(yè)已失去人類控制之意。在康德學術脈絡下談論技術的自主性是令人不安的,因為康德認為自主性是自我意志的根本條件。賦予技術以自主性,在某種程度上即是人的自主性被替代[18],主客體的位置產(chǎn)生了顛倒。
但仍然有相當一部分學者認為技術是價值中立的,技術本身并不是一種自我決定的力量,僅是一種手段。雅斯貝爾斯指出,“技術本身并無善惡。一切取決于人從中造出什么”[注]轉引自閆坤如《人工智能的道德風險及其規(guī)避路徑》,載《上海師范大學學報(哲學社會科學版)》2018年第2期,第40-47頁。。梅賽恩也堅持技術價值中立的觀點,認為“有益的做法是將技術定義為一般意義上的工具”[19]。
部分學者承繼埃呂爾的研究傳統(tǒng),認為技術充滿意向性,是社會結構的體制性力量。溫納認為技術在中立的、工具式的掩護下,建立了一種嶄新的秩序[20]。美國技術哲學家唐·伊德認為技術不是中性的工具,它們在人與世界的關系中發(fā)揮著主動性的作用[21]。在拉圖爾看來,道德和技術都是“本體論的范疇”,技術以具體的形態(tài)促進人類社會的形成,包括我們的行動和決定的道德特征[22]。
最微妙的就是技術影響的“偶發(fā)”機制,也就是說技術對人類的控制并不總是具有預先意圖,其中一部分后果是意想不到的。換言之,人并非總能控制自身所創(chuàng)造的技術的社會后果。烏爾里?!へ惪说娘L險社會概念也回應了這一觀點,“在風險社會中,未知的、意圖之外的后果成了歷史和社會的主宰力量”[23]。
恰如荷蘭學者維貝克所指出的,早期技術倫理學采取的是批判的方式,這些批評不是針對具體的技術應用場景和案例,而是對“大寫的技術”自身現(xiàn)象的批判[24],但過于抽象化和哲學層面過于本質論的探討方式反而流于隔靴搔癢。
人工智能的技術想象突破了自啟蒙運動以來人和非人實體之間的界限。美國技術哲學家唐·伊德識別出了人與技術的四種關系:具身關系、詮釋學關系、他者關系和背景關系。唐·伊德所說的具身關系類似海德格爾的“上手”,有些技術能夠上手,而有些技術只能在手,成為我們行動的背景性因素。隨著人工智能的發(fā)展,人、技術與世界的關系結構發(fā)生了改變,人和技術也表現(xiàn)出融合關系,例如后現(xiàn)象學技術哲學家維貝克提出的賽博格關系(cyborg relation)和復合關系[25]。
人工智能的技術想象包括創(chuàng)造出具有自我意識的自動化系統(tǒng),這就在倫理學體系內提出了一個全新的問題:技術是否能被賦予道德主體地位?自啟蒙運動伊始,倫理學就有著人本主義特征。以道德術語來研究物絕非易事,這違背了倫理學理論的最基本假設[24]。
在主流倫理學中,一個合格的道德行動者至少是擁有意向性和一定程度的自由。很多哲學家認為,技術客體缺乏自由意志和意向性,不能對它們的行動負責。例如AlphaGo可以勝過人類圍棋大師,但是沒有辦法理解自己走子行為的意義,現(xiàn)階段并不具有自由意志。AlphaGo的智能實際上是以人為核心的一個巨大的延展認知系統(tǒng)的能力,是系統(tǒng)部分認知功能的某種外化[26]。無論從道義論視角還是后果論視角,人工物只能從因果層面而非道德層面對既定的行為負責。因此,“沒有理由將人工物納入道德共同體之中”[27]。
弗洛里迪和桑德斯于2004年發(fā)表了頗具影響的《關于人工能動者的道德》一文,聚焦實際上具有“行動者”資格的智能技術。他們依據(jù)行動者之互動關系標準,使用交互性、自主性和適應性三個標準來判斷。一個系統(tǒng)如果能與外部環(huán)境互動,能在沒有響應外部刺激的情況下行動,也有在不同的環(huán)境中行動的適應能力,這個系統(tǒng)就可以被視作行動者。如果系統(tǒng)行事方式會產(chǎn)生道德結果,那么就被認為是一個道德自主體[1]。
弗洛里迪和桑德斯在某種程度上提出了一個類似道德圖靈測試的模式,區(qū)分了道德問責和道德責任。這種分布式道德允許無心的道德,將一個哲學難題轉變?yōu)榫邆洳僮餍缘呐袛鄻藴?。也就是說,我們無須執(zhí)著于現(xiàn)有系統(tǒng)是不是成熟的道德智能體,只要系統(tǒng)具備交互性、自主性和適應性三個標準,就可以被等同于一個道德主體而予以問責。當然,目前一部分哲學家不愿意賦予技術人工物道德主體地位的原因還在于擔憂如此一來,將使得設計這些系統(tǒng)的人類工程師被賦予了免責的地位[13,24]。
責任是知識和力量的函數(shù)。在智能信息時代,科學家、工程師不僅人數(shù)眾多,而且參與社會重大的決策和管理,他們的行為會對他人、對社會帶來比其他人更大的影響,因此他們應負更多的倫理責任[28]。
在過去25年中,工程倫理領域的主要成就之一就是工程師們越來越意識到自身的價值觀對設計進程的影響,以及此過程中他們對他人價值觀的敏感度[13]。20世紀70年代開始,美國科學促進會和美國律師協(xié)會聯(lián)合組成了國家律師和科學家會議,討論科學研究中的道德規(guī)范問題。之后,美國發(fā)布了有關科技界社會責任的一系列報告,如關于“科學自由和科學責任”的報告[29]。2000年,美國工程和技術認證委員會(ABET)在其標準中明確指出,工程教育必須要求學生“理解職業(yè)和道德責任”[30]。美國白宮人工智能報告將“理解并解決人工智能的道德、法律和社會影響”列入國家人工智能戰(zhàn)略,并建議AI從業(yè)者和學生都接受倫理培訓[31]。
當然,也有專家認為技術活動是社會組織系統(tǒng)下的制度活動,單一的工程師是無法對其技術后果承擔責任的。德國技術哲學家、倫理學家羅波爾指出,由于分工、合作等因素,現(xiàn)代技術活動不是單個人的活動,因而工程師作為個體不僅不能也不應該單獨承擔技術的全部責任[注]轉引自劉則淵、王國豫《技術倫理與工程師的職業(yè)倫理》,載《哲學研究》2007年第11期,第75-78,128-129頁。。
倫理并非靜態(tài)的規(guī)則,而是個體和社會應對條件變動、意外事件和新思維模式所導致的各種問題的必要人類行為[32]。當社會生活變化時,道德概念也會變化[33]。新聞行業(yè)本身受到信息技術變化的巨大影響,而由于新聞本身特殊的社會功能,新聞實踐和新聞倫理對社會生活方式的形成意義重大。
傳統(tǒng)上,媒體組織被視為履行社會特定職能的機構,其生產(chǎn)慣例和條件一直受到技術的影響[34-35]。對中立事實的公正報道的觀念某種程度上是從社會技術的革新開始的[35-37],技術和經(jīng)濟學創(chuàng)造了一種新聞客觀性,超越了這個職業(yè)原有的專業(yè)框架[38]。21世紀初信息技術的發(fā)展對傳統(tǒng)新聞專業(yè)主義產(chǎn)生了巨大的沖擊,傳統(tǒng)的“驗證新聞”及其嚴格的事實核實正在被非專業(yè)化的新聞形式所取代,“后事實”或“事后檢查”的新聞業(yè)逐步形成[39],可靠性和正確性等價值觀受到影響,新聞原創(chuàng)性等道德規(guī)則被打破[40]。也有學者把這一時代的新聞稱為后工業(yè)時代的新聞[41]。
我國新聞傳播學界自20世紀90年代中期開始進行新聞倫理研究和教學。綜論已有的相關研究,大體可以分為三個主要議題:媒介倫理本體研究、案例研究和新媒體倫理分析。我國媒介倫理研究的第一階段就是將新聞倫理和媒介倫理從公共道德領域分離出來,提煉大眾傳播工作者和媒介機構在大眾傳播職業(yè)道德體系中諸個因素(道德誡命)發(fā)生沖突時的理性抉擇原則。
在新聞倫理的討論和應用中,操作和操守、知情權和隱私權、市場主義和專業(yè)主義的討論,一直在言論自由和社會福祉最大化之間產(chǎn)生理論碰撞。新媒體技術動搖了新聞從業(yè)者一直以來對新聞采集和傳播的壟斷地位,由此,圍繞什么是“公正”和“正確”的新聞,出現(xiàn)了越來越多元的理解,傳播倫理的概念出現(xiàn)向公民道德拓展的趨向。
目前,人工智能與社交媒體技術融合,已滲透到新聞的生產(chǎn)、傳播和互動各個環(huán)節(jié)中。其中機器人寫作[42-44]、傳感器新聞[45]和智能推薦機制[46-47]是人工智能應用于新聞傳播領域的典型代表。
隨著新媒體技術進入新聞行業(yè),長久被珍視的倫理傳統(tǒng),如新聞客觀性、新聞記者的功能,受到極大的挑戰(zhàn)[32]。學者們對人工智能技術和新聞傳播的結合整體保持樂觀態(tài)度,但對其間產(chǎn)生的信息繭房效應、信息源真實性、算法糾偏、個人隱私和被遺忘權等問題存在倫理憂慮。
大數(shù)據(jù)是人工智能的基礎,無論是傳感器新聞還是算法推薦,都必須以瀏覽數(shù)據(jù)為基礎進行加工,這就涉及了個人隱私數(shù)據(jù)的二次使用。個人與公共隱私邊界的模糊,隱私數(shù)據(jù)所有權界定的模糊,當下隱私數(shù)據(jù)保護規(guī)制的不完善,都使得對個人隱私數(shù)據(jù)的二次使用始終存在著侵權的風險[48]。
學者們對新媒體時代隱私權問題的討論,歸根結底是關于公共空間與私人空間、社會邊界和個人邊界的討論,主要可以分為媒體的輿論監(jiān)督自由與個人隱私保護、公共數(shù)據(jù)開放與個人隱私保護、保障公眾知情權與個人隱私保護這三組矛盾。
路鵑采用曼紐爾·卡斯特爾的流動空間理論指出,從Web1.0到3.0,網(wǎng)絡空間的現(xiàn)實性逐漸被承認,法律規(guī)制的邏輯起點是要轉變網(wǎng)絡空間只具有工具屬性的認識,辨析合理的隱私期待,確立新媒體環(huán)境下空間隱私權與現(xiàn)實物理空間同等的法律保護界限[49]。而隱私權保護的原則應以人格尊嚴與倫理價值作為要件避諱隱私,以主體不同身份角色與所處境遇確立隱私外延差異,以社會對涉私的違德行為可容忍度為依據(jù)判別隱私正當性[50]。至于隱私權保護的限度[51],只要符合公共利益相關性原則和公共興趣合情合理原則中的一個就應該被視為體現(xiàn)了社會公眾知情權而非侵犯了隱私。陳堂發(fā)強調,以是否直接涉及人格尊嚴的個人信息與個人事項作為辨別侵害隱私權的基本依據(jù),隱私保護至少不宜成為公權濫用、工作瀆職、違反黨紀、違法犯罪行為回避公眾輿論監(jiān)督的“擋箭牌”[52]。
被遺忘權是近年個人數(shù)據(jù)所有權和隱私權探討的一個焦點。牛津大學教授維克托·舍恩伯格提出了數(shù)字時代的被遺忘權概念,他指出,“遺忘變成例外,記憶變成常態(tài)”是大數(shù)據(jù)時代信息安全的一個隱患[53]。歐盟委員會于2012年公布的《關于涉及個人數(shù)據(jù)處理的個人保護以及此類數(shù)據(jù)自由流動的第2012/72、73號草案》中,正式提出了被遺忘權概念。當前對于被遺忘權的研究主要集中在三個方面:
第一,就歐盟等國家對被遺忘權的立法和實施過程分析被遺忘權的實質和局限。如周麗娜發(fā)現(xiàn),數(shù)據(jù)主體雖然有權向數(shù)據(jù)控制者提出刪除申請,但數(shù)據(jù)控制者享有的自由裁量權將數(shù)據(jù)主體置于被動地位,被遺忘權僅是應對數(shù)字化發(fā)展侵犯個人隱私的措施之一,被遺忘是相對的。被遺忘權的意義是捍衛(wèi)網(wǎng)絡用戶自我尊嚴、提倡尊重他人自由、創(chuàng)建網(wǎng)絡無懼生活[54]。對于其中的保護限度,吳飛等提出在被遺忘權的使用中,既要保護私人領地的神圣性,也要保護公共領域的開放性[55]。
第二,從文化基因和法律傳統(tǒng)角度考量歐盟、美國等在被遺忘權上的立法嘗試,指出其面臨表達自由與隱私權和信息保護之間的矛盾。以美國法為代表的自由主義國家更看重公共言論的價值,以歐洲法為代表的民主社會主義聯(lián)盟則將新聞自由與隱私權同等視之[56];也有學者將我國2016年頒發(fā)的《網(wǎng)絡安全法》中個人對其網(wǎng)上個人信息的刪除權與歐盟的刪除權進行對比[57],探索被遺忘權在中國的本土化實踐[58]。
第三,就被遺忘權所主張的隱私與數(shù)據(jù)保護與新聞傳播實踐中的新聞自由、言論自由、知情權等理念存在的沖突展開討論,探求新聞傳播領域面對這一沖突的平衡機制。趙雙閣等認為,媒體應該首先在價值角度避免炒作和虛假新聞,保證數(shù)據(jù)準確和內容真實,其次通過匿名處理、模糊表達以避免因關聯(lián)被刪除的危險[59]。張志安等指出,媒體時代把關人的缺失加劇了侵犯公民隱私及相關個人權益的情況,需要被遺忘權的約束以彌補自媒體傳播的缺陷;同時指出被遺忘權的引入可能增加互聯(lián)網(wǎng)公司的管理成本,影響網(wǎng)絡輿論場的開放、完整和真實性等[58]。
算法推薦可能導致新聞偏向與虛假新聞的傳播。作為個體的記者對道德行為有很強的責任感,但算法作為內容發(fā)送者的制度化,會引發(fā)專業(yè)新聞的各種倫理挑戰(zhàn)。從聚合類算法運作的原理來看,當?shù)螖?shù)受到限制時,這類算法天然存在重復推送同類信息、造成信息疲勞的問題[60]。在新媒體環(huán)境下,算法分發(fā)的更多是碎片化、個性化的信息,而不是新聞,算法推薦機制實際上是一種對新聞專業(yè)主義和公共性的解構[61]。這種算法短視加深了用戶偏見,可能會導致信息繭房和回音廊效應,進而造成人與人之間的區(qū)隔,更使虛假消息得以借算法傳播。新聞生態(tài)的轉變在美國已經(jīng)引起新聞質量的下降,而且可以預見的是中小城市將不再有報紙,這將進一步惡化新聞生態(tài)[41]。
2016年美國總統(tǒng)大選和英國脫歐呈現(xiàn)出明顯的“后真相”特征:客觀事實在形塑輿論方面影響較小,而訴諸情感和個人信仰則會產(chǎn)生更大影響。牛津詞典還將“后真相”一詞評選為2016年度詞匯。有學者指出,“后真相”長期以來是一種政治現(xiàn)象,但在新聞行業(yè)結構轉變的背景下,新聞傳播領域的“后真相”時代獲得了更為廣泛的關注[62]。
關于后真相時代來臨的原因,學者們主要從媒體傳播形態(tài)與技術的演進[62-63]、受眾心理[64]、社會經(jīng)濟文化背景[65-66]等層面展開討論。研究指出,從傳播技術特性出發(fā),建立在社交網(wǎng)絡基礎上的傳播渠道容易帶來情緒化傳播,碎片化的傳播內容可能導致還原真相很困難,實時化內容生產(chǎn)加劇了真相挖掘和把關的難度[62];而新媒體對用戶的搶占有可能導致傳統(tǒng)新聞機構因利潤下降而被迫犧牲新聞的準確性、真實性以迎合受眾口味[63]。經(jīng)濟和文化的社會鴻溝[65]是后真相時代的社會情緒基礎,而這種社會情緒操縱下的信息生產(chǎn)和傳播所產(chǎn)生的群體分化,比信息繭房更令人擔憂[64]。
關于新聞媒體行業(yè)該如何應對后真相,邁克爾·舒德森指出,我們仍然需要“不可愛的新聞界”,并指出真新聞應總是把真相放在首位,它不會讓誠實的報道屈從于意識形態(tài)、政治鼓動或商業(yè)利益,甚至也不會迎合讀者的口味,并提出了三條新聞質量的判定標準[67]。潘忠黨指出,我們需要將重新建構新聞專業(yè)定位在“以事實界定真相”為內容的公共生活上,新聞界需要做的是將尋求、核查、鑒定事實和真相的過程置于公共討論之中,重構交往的倫理規(guī)范[68]。
自主決策是算法權力的核心[8],在社交網(wǎng)絡時代,算法實際上成為一種新的議程設置,取代媒體引導輿論。目前沒有基于算法倫理和規(guī)制設立基本的防御機制,公共媒體對用戶大數(shù)據(jù)的使用,不能保證過程的合理性。敏感信息的使用、傳播,某些受眾被特定類型信息屏蔽(或者過于吸引),其實都存在倫理風險。
程序員設計的算法往往不受傳統(tǒng)新聞倫理約束,這就破壞了新聞專業(yè)主義的行業(yè)傳統(tǒng)和價值基礎。個性化推薦背后,算法設計可能隱含著階層區(qū)隔的意味[60]。提高算法透明度,以實現(xiàn)對算法的監(jiān)管,已成當務之急[8]。
算法智能推薦所導致的受眾所接受的觀點窄化問題被形象地概括為信息繭房。信息繭房最早由美國學者桑斯坦提出,意指在通信領域,人們只選擇自己感興趣和能令自己愉悅的內容[69]。信息繭房是算法、大數(shù)據(jù)推薦等大眾傳播技術和“我們只聽我們選擇的東西和能愉悅我們的東西”這種大眾心理共謀的結果[70]
關于信息繭房的后果和危害,程士安等認為信息繭房容易加劇誤解、放大假消息[71];胡婉婷認為信息繭房破壞了網(wǎng)絡公共領域建構,主要表現(xiàn)在網(wǎng)絡精英的信息壟斷導致多數(shù)人自由表達受阻,群體極化造成公眾理性批評缺失,因缺少共同經(jīng)驗而削弱社會黏性、破壞共同體的維系[72];彭蘭認為信息繭房是用戶角度“擬態(tài)環(huán)境”的一種表現(xiàn),不利于人們更充分全面地接近真實社會的信息環(huán)境[62]。
學者們從優(yōu)化算法、媒體責任、個人媒介素養(yǎng)三個方面對信息繭房的解決進行展望:首先,通過優(yōu)化人工智能推薦算法、擴大數(shù)據(jù)挖掘以拓寬對用戶信息需求的定義、增加優(yōu)質信息資源配比、采用人工與智能篩選相結合等方法讓個性化推薦更為智能全面[44];其次,從媒體責任角度優(yōu)化公共信息服務,平衡個性化傳播與公共性傳播、個性滿足與社會整合的關系[62,70];最后,用戶媒介素養(yǎng)要進一步提高,也是其中應有之義。
但也有學者對此提出了異議,有研究通過對Facebook用戶的信息接觸進行量化研究,指出當用戶通過Facebook推薦算法獲得新聞,其信息繭房和回音廊效應并不像人們預想得那樣嚴重,個人選擇依舊發(fā)揮著重要作用[73]。
新技術動搖了新聞從業(yè)者一直以來對新聞采集和傳播的壟斷地位,隨著媒體邊界的模糊化,“該由誰來決定公眾應該知道什么和不知道什么”成為爭執(zhí)的焦點,其背后則是新媒體技術與社會倫理期待的沖突。因此,厘清人工智能時代新聞倫理的責任主體,考量其倫理結構與急需處理的核心辯證關系,進而為行業(yè)規(guī)制提供建議,是該領域研究的基本立場。
通過上文研究梳理可以看出,國內外學者在人工智能的倫理反思、人工智能時代的新聞傳播模式與問題,以及信息技術法律規(guī)范方面,已經(jīng)打下了相當扎實的理論基礎。但人工智能倫理治理和規(guī)制方面的問題,并沒有隨著理論研究文獻的大幅度增長而得到解決,這一定程度上說明了問題的復雜性,以及理論研究和實踐需求之間存在脫節(jié)。
首先,在新聞傳播領域,需要更加清晰而整體性地闡釋人工智能時代的技術內涵、社會內涵、倫理內涵和規(guī)制內涵,為新聞傳播學界對此人工技術物的理性反應提供理論基礎。
人工智能技術已經(jīng)深切地介入人類社會的信息傳播過程,傳播學界對機器寫作、傳感器新聞、算法排序等新興現(xiàn)象的研究已成熱點。目前的文獻雖然多帶有“人工智能”這一關鍵詞,但在一定程度上混用了新媒體技術、社交網(wǎng)絡等核心概念。也許從現(xiàn)象的梳理和分析角度,這種程度的混淆并不影響結論的有效性,但不利于整體研究域的厘清和構建。所以在人工智能技術的整體性研究方面,傳播學界需要更為細膩的技術問題邏輯描述。特別是在新聞倫理研究層面,需要進一步破除技術黑箱,明晰人工智能技術影響社會信息傳播的機制和倫理后果,明確人工智能成長邏輯與人為干預的窗口期。目前新聞倫理的文獻很大程度上將人工智能技術視作不需要進行理論和技術辨析的概念,這反而使得對“人工智能時代”的破題不足,尤其是人工智能技術到底在哪些環(huán)節(jié)、哪些層面影響新聞倫理,它與社交媒體技術和平臺之間存在何種邏輯關系,較少有研究涉及這些相對本體論的問題。
綜論人工智能時代的新聞倫理研究,研究議題比較分散,聚焦性很強而理論整體性建構不足,尤其是對人工智能技術與社會結構和社會過程之間的系統(tǒng)性聯(lián)系研究不足,容易呈現(xiàn)研究原子化的傾向。學界對人工智能保持很高的研究敏感度,但囿于技術本身的復雜性和不確定性,人文社科領域對此的反應往往只能聚焦于相對顯性的現(xiàn)實議題。
人工智能技術的工程學研究領域非常繁雜,但是目前介入人類信息傳播的核心技術已經(jīng)相對清晰,產(chǎn)生的社會后果也較為直觀。從上文綜述可知,與新聞傳播領域高度相關的人工智能底層技術是算法和大數(shù)據(jù),在直接辨析其新聞倫理后果之前,需要對核心技術研發(fā)、迭代和應用予以社會歷史還原,提供技術本體和社會情境分析。從社會歷史學的整體性視野探討這一議題,其目的在于呈現(xiàn)技術倫理學的實踐意義,即必須關注復雜的技術倫理責任主體關系,特別是技術的決策者與組織者、創(chuàng)造者與生產(chǎn)者、需求者與使用者等社會各界的共同責任。目前有部分研究以Facebook, News Feed算法為主要案例[46,74]分析其中的技術迭代及其倫理影響。類似帶有技術社會學立場的研究是進一步厘清問題邏輯的有效做法,將會為進一步厘清新聞倫理的主體和核心價值排序提供扎實的研究基礎。
其次,相較于元倫理學和規(guī)范倫理學面對人工智能時代的積極學術反應,新聞倫理研究相對不足。元倫理學和規(guī)范倫理學在技術人工物的倫理主體、倫理結構和倫理治理方面積累了相對豐厚的理論基礎。道德自主體形成的可能性讓倫理學者反思啟蒙主義以來的人本主義、個體主義倫理研究路徑[25],并從問責的角度建構“人工能動者”的道德主體地位及其問責要件[1]。類似研究對人類社會應對人工智能技術可能的風險,都具有很高的理論和實踐運用價值。
自1923年美國報紙編輯協(xié)會提出美國首個新聞業(yè)自律規(guī)范《報人守則》(CanonsofJournalism)以來,責任、自由、獨立、真實準確、公正、公平等成為新聞傳播行業(yè)職業(yè)倫理的重要原則。其中,各國行業(yè)協(xié)會、知名媒體機構都提出過操作性很強的倫理規(guī)范。
可以說,新聞倫理規(guī)范的研究從起點之始就帶有很強的實踐問題導向性,換言之,其本身的出發(fā)點并非在于理論抽象,而是行業(yè)指導。人工智能時代的新聞倫理研究同樣沿襲這一路徑,研究目標在于解決新聞行業(yè)的新問題,研究方法基本采取案例研究的模式,臉書、谷歌等國際知名公司的案例及其引發(fā)的爭議是研究的主要材料。
新聞倫理研究與生俱來的形而下路徑符合新聞傳播行業(yè)本身的特點。但在人工智能時代,媒體技術的突飛猛進構建了一個萬物皆媒的社會,新聞倫理研究向著傳播倫理的方向進發(fā),而且與科學哲學、計算機倫理、工程師倫理乃至規(guī)范倫理學有了更多對話的空間。為了更好地解決新聞傳播學的問題,新聞倫理研究需要部分地放棄過于實踐導向和對策導向的模式,擴充自身形而上學研究的野心。
在新聞倫理研究中,言論自由和公民權利之間的張力一直存在,新聞傳播界如何協(xié)助構建一個公平、正義的社會,是其倫理研究的基本邏輯起點?;ヂ?lián)網(wǎng)一定程度上形成了沒有精英控制的公眾輿論和表達渠道[75],那人工智能則可能取代人類精英,做出信息決策和倫理決策。如果這樣的技術想象成為現(xiàn)實,哈貝馬斯的“理想語境”、羅爾斯的“理想處境”理論假設就需要修正,良序社會所需要的程序正義和實質正義不得不將無心的道德主體納入考慮,這將對規(guī)范倫理和新聞倫理產(chǎn)生巨大的影響。目前規(guī)范倫理和后現(xiàn)代現(xiàn)象學對此已有觸及,新聞倫理可以在理論抽象程度上做進一步提升,以增加與原學科對話的能力。
再次,跨學科研究的數(shù)量和質量有待進一步提高。目前,算法和大數(shù)據(jù)已經(jīng)產(chǎn)生傳播權(新聞價值權重排序決策權)、信息自由(人的傳播自主性)、信息觸達(服務的普適性、信息的不當觸達)、信息隱私權和數(shù)字身份及其保護的問題。這些問題處于傳播倫理、技術倫理、組織倫理的公共區(qū)域,是多個主體共同作用的結果,通過組織提供的產(chǎn)品和服務予以進一步傳導,最終形成傳播效率、身份認同和信息安全等問題。在國家層面,就會產(chǎn)生數(shù)據(jù)安全、信息主權、社會凝聚力等更為宏觀也更加重要的議題。
人工智能時代所涉及的技術實體以及社會情境相對復雜,要真正理解這一問題,需要計算機科學、倫理學、社會學、法學和新聞傳播學之間的共同合作。從目前的研究可見,不同學科的研究議題具有相似性,算法和數(shù)據(jù)是各個學科共同關心的核心技術現(xiàn)實,而技術人工物的倫理、法律地位,數(shù)據(jù)安全,個人隱私和人類自主權,是公共的議題。但是目前幾個學科的研究散見在不同的期刊,研究議題相對聚焦,學科間的對話卻不夠充分,導致難以形成學科合力,不能在技術進步話語和經(jīng)濟發(fā)展話語體系之下,形成來自人文社科的平衡性話語力量。
尤其是人文社科對技術倫理的反思沒有形成與計算機科學之間的互動機制,研究成果因此很難應用于人工智能實踐。近年來海外技術倫理研究成果已經(jīng)讓技術研發(fā)群體意識到自身在技術倫理后果方面所負有的責任,逐漸形成科學共同體、區(qū)域立法和公眾行動之間的合作。計算機倫理十戒、阿西洛馬會議、《通用數(shù)據(jù)保護法》等文本和舉措值得深入研究。
在跨越學科范式的同時,人工智能時代的新聞倫理研究也需要增加方法論創(chuàng)新。受限于人工智能技術本身的發(fā)展階段,目前的文獻和理論假設缺乏足夠的實證研究支撐。例如后真相、信息繭房等效應并沒有足夠的實證研究來證實或證偽,這在某種程度上影響了理論的現(xiàn)實影響力。與此同時,能夠細致化分析研究變量之間因果關系的研究設計就更加不足,這就影響了理論的現(xiàn)實指導力。導致這一研究結果的因素十分復雜,在方法論層面上,在于傳統(tǒng)研究方法論面對算法和大數(shù)據(jù)的局限性很明顯。特別是算法智能排序機制使得每個受眾的用戶界面并不相同,傳統(tǒng)的問卷調查、實驗測量等方法的效度就會下降。目前新聞學界已經(jīng)開始借鑒逆向工程原理,以輸入—輸出的測量模式,在保持算法黑箱的同時有效測量其中介效應。類似的研究方法融合和創(chuàng)新,可以進一步運用于新聞倫理的研究,正面迎擊理論難點。
綜上,在人工智能時代,傳統(tǒng)新聞業(yè)中的倫理挑戰(zhàn)如報道的客觀性、公正性、惡性競爭、隱性采訪、有償新聞、新聞廣告、公民隱私權等議題依然具有重要的研究價值,在新技術條件下的理論分析往往也是重回新聞傳播學經(jīng)典問題的過程。但是人工智能技術日漸成為信息領域的主要中介技術,未來的新聞倫理研究應該緊扣算法和數(shù)據(jù)兩個研究核心,區(qū)分不同的倫理主體,厘清新條件下的競爭價值及其排序。與傳統(tǒng)新聞倫理只關心新聞內容不同,人工智能時代的新聞倫理將數(shù)據(jù)、代碼和經(jīng)營都包含其中,倫理結構更加復雜。
媒體倫理的三個主要原則就是真實、客觀和最小傷害[32]。從全球業(yè)已產(chǎn)生的算法新聞工具理性與人文主義的沖突來看,如何從根本上摒棄數(shù)字泰勒主義,是一個需要進一步集結人文社科智識力量予以破解的重要問題。特別是在這一波互聯(lián)網(wǎng)技術浪潮中,中國的新聞實踐走在了世界的前列,其倫理治理的相關研究可以凝練為新時代中國特色社會主義網(wǎng)絡治理的“中國經(jīng)驗”,為全球同行提供參考。