許向東
【關(guān)鍵詞】人工智能 ?新聞傳播 ?新聞倫理與法規(guī) ?數(shù)據(jù)保護(hù)
【中圖分類號】TU984.2 ? ? ? ? ? ? ? ? ? ? ? ?【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.006
人工智能是什么?它會如何發(fā)展?它會給我們的生活、工作帶來哪些影響?由于學(xué)科領(lǐng)域的不同,關(guān)于其定義和邊界很難形成共識。人工智能對傳媒業(yè)的影響,包括如何提高新聞生產(chǎn)的效率,是否對新聞從業(yè)者造成職業(yè)壓力,以及是否會對新聞倫理與法規(guī)產(chǎn)生沖擊等,已經(jīng)成為新聞傳播領(lǐng)域的關(guān)注點。
在傳統(tǒng)媒體時代,傳媒業(yè)相互競爭、追逐利潤,引發(fā)了諸如虛假新聞、有償新聞、媒體審判、新聞侵權(quán)等違背新聞倫理與法規(guī)的現(xiàn)象。當(dāng)前,人工智能技術(shù)逐漸滲透到新聞產(chǎn)品的生產(chǎn)、傳播過程中,在實現(xiàn)精準(zhǔn)推送、高效生產(chǎn)的同時,也帶來了新的倫理與法規(guī)問題。
數(shù)據(jù)的非法采集和過度分析。數(shù)據(jù)是人工智能時代的重要資源,擁有足夠體量的數(shù)據(jù)是進(jìn)行數(shù)據(jù)分析、深度挖掘的前提。因此,為了擁有大量的數(shù)據(jù),數(shù)據(jù)的采集范圍日漸廣泛,采集方式也日漸隱蔽,無形中就增加了個人數(shù)據(jù)被非法收集和過度分析的風(fēng)險。
信息劇增時代是一個生產(chǎn)大量數(shù)據(jù)和消費(fèi)大量數(shù)據(jù)的時代,人們?nèi)找娣彪s的社會活動在不斷地產(chǎn)生著不可計量的數(shù)據(jù)。從所有權(quán)的角度來看,依據(jù)法律,每個人不僅擁有個人數(shù)據(jù)的所有權(quán),而且有權(quán)利知道是哪些機(jī)構(gòu)在收集自己的數(shù)據(jù)、收集了哪些數(shù)據(jù)、被收集的數(shù)據(jù)將用于何處,等等。如果在未告知對方的情況下收集個人數(shù)據(jù),這就是一種違背職業(yè)倫理和相關(guān)法規(guī)的行為。
當(dāng)前,社交媒體的普及和大數(shù)據(jù)分析技術(shù)的不斷升級,不僅使得技術(shù)人員能夠從看似沒有價值的事物中提取信息,將其轉(zhuǎn)化成有用的數(shù)據(jù),而且也為大數(shù)據(jù)企業(yè)深入分析數(shù)據(jù)、找到數(shù)據(jù)之間的關(guān)聯(lián)性提供了便利。一組孤立的、零散的數(shù)據(jù)也許不具備較高的價值,但是,如果與其他組數(shù)據(jù)放在一起考慮,發(fā)現(xiàn)其中的相關(guān)關(guān)系以及相關(guān)關(guān)系的強(qiáng)弱,將有助于我們比以往更容易、更清晰地分析事物,尤其是在發(fā)現(xiàn)商業(yè)價值,以及預(yù)測某類事物的發(fā)展趨勢方面?!盎ヂ?lián)網(wǎng)+”為創(chuàng)造新的商業(yè)模式開辟了思路,而大數(shù)據(jù)分析技術(shù)則為實現(xiàn)商業(yè)價值奠定了技術(shù)基礎(chǔ)。當(dāng)前,為建設(shè)一個透明、高效的服務(wù)型政府,政府部門在逐漸開放數(shù)據(jù)庫,一些網(wǎng)站尤其是社交媒體平臺也不同程度地開放了用戶的實時信息,這就為個別大數(shù)據(jù)商業(yè)機(jī)構(gòu)提供了抓取和挖掘數(shù)據(jù)的機(jī)會。當(dāng)數(shù)據(jù)(尤其是包含了用戶個人的經(jīng)濟(jì)狀況、社交范圍的數(shù)據(jù))間的關(guān)系被建立起來,這些數(shù)據(jù)越是被深度挖掘,其商業(yè)價值就越大。在傳統(tǒng)媒體主導(dǎo)的時代,受眾的注意力是最值錢的,而現(xiàn)在則發(fā)生了根本性變化,受眾的透明度——所留下的各種行為痕跡(數(shù)據(jù))更值錢、更好賣。因此,建立數(shù)據(jù)采集、數(shù)據(jù)分析的實施規(guī)則,有助于消除個人數(shù)據(jù)的違規(guī)采集和過度挖掘現(xiàn)象。
算法偏見和算法透明度。按照常理,算法作為一種數(shù)學(xué)表達(dá),理應(yīng)拋棄了人類在信息傳播中具有的獵奇、歧視、偏見等不良因素,但現(xiàn)實并非如此。所謂的算法偏見(algorithmic bias),是指在看似客觀中立的算法程序的研發(fā)中,其實帶有研發(fā)人員的偏見、歧視等,或者所采用的數(shù)據(jù)帶有偏見或歧視。[1]算法是通過數(shù)據(jù)運(yùn)算來預(yù)測未來的,運(yùn)算過程將涉及數(shù)據(jù)的質(zhì)量、研發(fā)人員對數(shù)據(jù)的篩選等因素。其中,數(shù)據(jù)的體量、準(zhǔn)確性、適用范圍等直接關(guān)系到算法決策和運(yùn)算的結(jié)果。在研發(fā)人工智能系統(tǒng)的過程中,研發(fā)人員所使用的訓(xùn)練數(shù)據(jù)的分布狀況,以及對算法進(jìn)行應(yīng)力測試的過程,都會影響人工智能的決策與選擇,使得各式各樣的偏見、歧視被技術(shù)客觀性的外衣包裹。另外,算法和數(shù)據(jù)驅(qū)動產(chǎn)品總是會反映其建造者的設(shè)計選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了。[2]當(dāng)前,算法偏見主要有如下幾種:一是“互動偏見”,指在算法系統(tǒng)與用戶互動過程中使算法產(chǎn)生的偏見,當(dāng)機(jī)器被設(shè)定為向周圍環(huán)境學(xué)習(xí)時,它們不能決定要保留或者丟棄哪些數(shù)據(jù),也無法判斷哪些數(shù)據(jù)是對的或錯的;二是“潛意識偏見”,指算法將錯誤的觀念與種族和性別等因素連結(jié)起來;三是“選擇偏見”,指受數(shù)據(jù)影響的算法,導(dǎo)致過于放大某一族群或群組,從而使該算法對其有利,而代價是犧牲其他群體;四是“數(shù)據(jù)導(dǎo)向的偏見”,指用來訓(xùn)練算法的原始數(shù)據(jù)已經(jīng)存在偏見了,機(jī)器不會質(zhì)疑所接收到的數(shù)據(jù),只是單純地尋找其中的模式。如果數(shù)據(jù)一開始就被扭曲,那么其輸出的結(jié)果,也將會反映這一點。[3]
算法的透明度問題本質(zhì)上也是新聞生產(chǎn)的透明度問題。傳統(tǒng)的新聞生產(chǎn)流程較為簡單,從素材的采集加工,到編輯整合,再到播發(fā),公眾多多少少都有所了解。而披著“高科技”外衣的“算法”則讓人感覺有些“高深莫測”了。諸如“是哪些人研發(fā)了這個算法”“這個算法的運(yùn)算目的是什么”“誰對運(yùn)算的結(jié)果負(fù)責(zé)”以及“設(shè)計推薦算法需要參考哪些指標(biāo)”等類似的問題在等待著回答,但遺憾的是,算法自身的復(fù)雜性再加上無法洞悉的“算法黑箱”的存在,增加了公眾對算法的設(shè)計原理、運(yùn)行邏輯的理解難度。算法的透明度不僅牽涉新聞生產(chǎn)流程的“客觀性”“公平公正”,而且關(guān)聯(lián)著公眾對新聞傳媒、新聞產(chǎn)品質(zhì)量的信任,更使得“算法”的透明度問題日益被人們關(guān)注。因此,提升算法透明度的意義非同尋常,特別是隨著算法在新聞生產(chǎn)、新聞推送的應(yīng)用日漸增多,“透明度”越來越多地被用作合法化新聞的規(guī)范基礎(chǔ),透明度不僅可以對新聞算法的功能進(jìn)行有價值的檢查,還可以提高算法對道德、文化和認(rèn)識論的影響力。[4]
對隱私權(quán)與數(shù)據(jù)保護(hù)的憂慮。隨著人們與外界交往活動的增加,以及記錄、存儲和傳播信息的技術(shù)日益完善,大量涉及公眾個人的數(shù)據(jù)被卷入了信息洪流之中,人們掌控自己信息的權(quán)利和能力被削弱,變得愈加透明,正如麻省理工學(xué)院的研究人員所發(fā)現(xiàn)的,只需掌握四個時空移動數(shù)據(jù),就可以辨識出95%的個人身份信息。[5]大數(shù)據(jù)時代使得隱私被侵犯的概率以及善后的難度成倍增加,一旦造成傷害,就無法補(bǔ)救,即使你刪除了原文,無數(shù)影像文件依然存在。[6]
近幾年,推薦算法是國內(nèi)外大多數(shù)新聞APP和社交媒體平臺使用的主流,通過機(jī)器學(xué)習(xí)持續(xù)關(guān)注用戶的閱讀數(shù)據(jù),來提升新聞生產(chǎn)的個性化和新聞推送的準(zhǔn)確率。推薦算法的實質(zhì)就是大數(shù)據(jù)分析。通過抓取和分析用戶的年齡、性別、職業(yè)、文化水平、收入水平等人文信息,以及閱讀時的接觸時長、接觸頻率、接觸動機(jī)等行為信息,將用戶的零散數(shù)據(jù)匯聚在一起,運(yùn)用算法實現(xiàn)用戶的精準(zhǔn)畫像,推測出用戶的個人特征、閱讀偏好等。
我們在使用互聯(lián)網(wǎng)的時候經(jīng)常遇到“授權(quán)提示”,通過授權(quán)我們獲取了某些操作上的便捷和高效,實質(zhì)上,這是用戶在“被愿意”的情況下,通過“讓渡”隱私來換取便利。2013年以來,美國傳媒行業(yè)開始利用傳感器采集數(shù)據(jù)并將之用于新聞報道。安裝在公共場所的各類傳感器可以24小時不間斷地采集人們的信息,此外,運(yùn)動手環(huán)、智能手機(jī)、電子閱讀器等配置的一些軟件也可以隨時隨地采集使用者的個性化數(shù)據(jù)。在各式各樣的傳感設(shè)備面前,人們幾乎無隱私可言,而且無法知曉自身的哪些信息被采集了,被采集的數(shù)據(jù)又是如何被使用的。當(dāng)我們在社會活動中產(chǎn)生的信息,尤其是一些較為敏感的數(shù)據(jù),在不知不覺地被收集、被分析,甚至被用于商業(yè)目的時,或者原本屬于個人的私密空間被他人“窺視”和“分享”時,這就預(yù)示著人們在保護(hù)個人隱私、控制和管理個人數(shù)據(jù)上已經(jīng)處于弱勢地位了。
技術(shù)紅利與技術(shù)缺陷是相伴相生的,作為一個還不完善的新生事物,人工智能不可避免會產(chǎn)生一些新聞倫理與法規(guī)方面的問題。分析問題的根源以規(guī)避負(fù)面影響的產(chǎn)生,將有助于人工智能最大化地發(fā)揮自身價值。
法規(guī)建設(shè)層面。倫理是人類文明的朝陽,法規(guī)是人類文明的落日,是規(guī)范社會行為時不得已而為之的他律。第一部個人數(shù)據(jù)保護(hù)法,是1973年的《瑞典數(shù)據(jù)法》。而美國則是第一個明確提出保護(hù)隱私權(quán),并在1974年通過了《隱私法》的國家,1988年制定了《電腦匹配與隱私權(quán)法》,1998年美國國會又通過了《網(wǎng)上兒童隱私權(quán)保護(hù)法》。為解決互聯(lián)網(wǎng)時代對用戶個人數(shù)據(jù)的收集、使用等問題,1996年歐盟通過了《關(guān)于個人數(shù)據(jù)處理保護(hù)與自由流動指令》,2016年又制定了《通用數(shù)據(jù)保護(hù)條例》(GDPR),并于2018年5月25日在歐盟28個成員國生效。
為了加強(qiáng)對電信、金融、醫(yī)療等服務(wù)機(jī)構(gòu)中使用個人數(shù)據(jù)信息的管理,2013年2月,我國開始實施《信息安全技術(shù)公共及商用服務(wù)信息系統(tǒng)個人信息保護(hù)指南》,該標(biāo)準(zhǔn)的顯著特點是將個人信息劃分為一般信息和敏感信息兩個類別,個人信息的使用前提是知情同意,并且要求在被使用后予以刪除等。
2017年6月1日開始施行的《網(wǎng)絡(luò)安全法》也有關(guān)于保護(hù)公民合法權(quán)益的規(guī)定:網(wǎng)絡(luò)運(yùn)營者應(yīng)當(dāng)對其收集的用戶信息嚴(yán)格保密;網(wǎng)絡(luò)運(yùn)營者收集、使用個人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意;網(wǎng)絡(luò)運(yùn)營者不得泄露、篡改、毀損其收集的個人信息;未經(jīng)被收集者同意,不得向他人提供個人信息。[7]為了最終將個人信息的控制權(quán)歸還給用戶本人,各國相繼出臺的個人數(shù)據(jù)保護(hù)法規(guī)主要有以下幾個關(guān)鍵點:一是采集數(shù)據(jù)信息時,必須得到用戶本人的知情同意;二是將知情程度延展到數(shù)據(jù)抓取的方法、數(shù)據(jù)使用目的、是否同意再次出讓;三是用戶有權(quán)隨時查看、更正和刪除數(shù)據(jù),發(fā)現(xiàn)錯誤數(shù)據(jù)時,有權(quán)要求修改;四是建立投訴、舉報制度,并制定了明確的處罰條例。
長期以來,法律的制定與實施往往滯后于新技術(shù)、新實踐的發(fā)展。當(dāng)前,明確責(zé)任的歸屬問題以及由此衍生的人們對人工智能的信任問題,已經(jīng)成為影響人工智能技術(shù)發(fā)展的瓶頸。人工智能在眾多領(lǐng)域的應(yīng)用,尤其是無人駕駛汽車、醫(yī)療機(jī)器人等的誕生,加速了構(gòu)建適用于人工智能的法律體系的步伐。目前,在缺乏參照系的情況下,對于新出現(xiàn)的人工智能案例,可以適用現(xiàn)有法律(如侵犯隱私、一般的侵權(quán)等)[8],但這僅僅是權(quán)宜之計,作出前瞻性的立法布局,在恰當(dāng)?shù)臅r候制定適用于人工智能的法律法規(guī)體系,從根本上解決問題,則是各國在人工智能時代的最佳應(yīng)對策略。
媒體責(zé)任層面??焖倥c個性化是人工智能應(yīng)用于傳媒業(yè)的最顯著的特征。人工智能對新聞價值的判別主要基于算法,致使其在生產(chǎn)和推送中更側(cè)重于那些公眾“欲知而未知”的內(nèi)容,而那些涉及公共利益,包含一定政策性、知識性的內(nèi)容,即廣大公眾“應(yīng)知而未知”的內(nèi)容,則較難納入生產(chǎn)和推送的范圍。算法的存在價值就是幫助人們作出選擇,而選擇本身就意味著放棄。如果公眾長期受到智能生產(chǎn)、智能排序和智能推薦的影響,接觸到和所選擇的僅僅是基于個人偏好或者智能軟件所推送的新聞信息,就難免限制公眾的視野,使公眾處于信息溝通與交流的孤島之中。由此所形成“信息繭房”,對個體而言,主要影響的是公眾個人社會化的過程與結(jié)果,但對整個社會而言,就會減少不同聲音之間的碰撞、不同觀點之間的交鋒,社會輿論趨于單一和一致化。在多元的社會輿論環(huán)境中求得動態(tài)的平衡,才是社會和諧發(fā)展的正常過程。因此,新聞傳媒不能以人工智能有助于為自身的發(fā)展帶來轉(zhuǎn)機(jī)為借口,而忽略了新聞傳播的多樣性和多元化。
當(dāng)前,人工智能技術(shù)使得新聞產(chǎn)品的商業(yè)屬性被突出強(qiáng)調(diào),原來的新聞“5W”要素有了新的解讀,變成了:誰在乎;他們?yōu)榇讼敫冻鍪裁?媒體和廣告商在哪里可以找到這些人;什么時候提供這些新聞才是有利可圖的;為什么這個可以賺錢。[9]這種轉(zhuǎn)變預(yù)示著以消費(fèi)者為導(dǎo)向的商業(yè)模式加劇了對傳統(tǒng)新聞生產(chǎn)模式的侵蝕,新聞傳播的公共服務(wù)性再次被削弱。
在我國,新聞傳媒不僅是信息傳播渠道,還擔(dān)負(fù)著宣導(dǎo)撫慰的職責(zé),需要與政府良性互動,進(jìn)而發(fā)揮協(xié)調(diào)利益、疏導(dǎo)矛盾的功能。目前,人工智能技術(shù)還不具備從宏觀上透徹地了解社會現(xiàn)狀與發(fā)展進(jìn)程的能力,也無法在新聞的生產(chǎn)與發(fā)布上體現(xiàn)大局意識。在把尊重公眾的知情權(quán)、回應(yīng)公眾的關(guān)切與政府當(dāng)前的工作重心結(jié)合起來,把服務(wù)、滿足公眾需求與教育引導(dǎo)公眾、提高公眾的素養(yǎng)結(jié)合起來等方面,人工智能還有很長的路要走。當(dāng)在新聞信息傳播中出現(xiàn)倫理失范和違反法律法規(guī)時,“這是算法的結(jié)果”和“這是機(jī)器生成的”不能成為傳媒推卸責(zé)任的“擋箭牌”。
技術(shù)完善層面。當(dāng)前,加強(qiáng)個人隱私和數(shù)據(jù)保護(hù)是較為緊迫的任務(wù),切實可行的方法有研發(fā)“匿名化處理”技術(shù)和推廣具有個人數(shù)據(jù)保護(hù)功能的軟件產(chǎn)品。匿名化處理是指互聯(lián)網(wǎng)公司或數(shù)據(jù)機(jī)構(gòu)在實施數(shù)據(jù)分析之前,移除所采集的數(shù)據(jù)中可識別個人信息的部分,使數(shù)據(jù)主體不再被識別出來。這種做法既可以降低暴露個人敏感信息的風(fēng)險,還有助于保證用戶對大數(shù)據(jù)技術(shù)和人工智能的信任度。
國外互聯(lián)網(wǎng)市場上所研發(fā)的有助于保護(hù)個人數(shù)據(jù)隱私的產(chǎn)品和服務(wù)主要有兩類:一是協(xié)助加密、反追蹤或者銷毀個人數(shù)據(jù)的軟件,二是去掉了數(shù)據(jù)搜集功能的搜索引擎。用戶的網(wǎng)上信息對于商業(yè)公司,尤其是對于在線廣告公司有著極高的商業(yè)價值。Do Not Track(Dnt)是一款杜絕在線跟蹤用戶行為的功能。如在谷歌、微軟、火狐等具有 “Do not track” 功能的瀏覽器中就有一個“發(fā)送不跟蹤”的按鈕,網(wǎng)民開啟這項功能之后,就能夠避免自己的網(wǎng)上行為被追蹤,從而避免隱私泄露。傳統(tǒng)的搜索引擎為了提高效率,都會對用戶數(shù)據(jù)進(jìn)行詳盡地收集和分析,從倫理法規(guī)的角度看這是一種侵犯用戶隱私的行為。近年國外開發(fā)并推行的Duck Duck Go就是一款不監(jiān)控用戶搜索行為、不記錄用戶搜索內(nèi)容的互聯(lián)網(wǎng)搜索引擎,其最大特色就是能夠有效保護(hù)用戶的隱私。
隨著人工智能技術(shù)的日漸成熟,越來越多的規(guī)則被程序員以代碼的形式寫進(jìn)了算法程序。算法、代碼開始影響各種決策,從技術(shù)層面或者說在機(jī)器學(xué)習(xí)過程中嵌入“機(jī)會平等”的概念、構(gòu)建技術(shù)公平原則,在人工智能日漸代替人類作出抉擇的時代顯得非常重要。國外已經(jīng)有研究團(tuán)隊依據(jù)約翰·羅爾斯的公平技術(shù)定義及其“機(jī)會公平平等”理論,引入了“歧視指數(shù)”的概念,提出了設(shè)計“公平”算法的構(gòu)想。[10]
技術(shù)引發(fā)的新聞倫理和法規(guī)問題不能成為否定技術(shù)本身的理由,相反的,我們應(yīng)當(dāng)有針對性地剖析問題的根源,糾正并克服人工智能技術(shù)在倫理法規(guī)上的失范,多渠道、全方位地探索出有效的路徑,保證人工智能技術(shù)在新聞傳播領(lǐng)域的良性發(fā)展。
新聞傳媒業(yè)的發(fā)展可以說與傳播技術(shù)的發(fā)展是同步的,新技術(shù)不僅改變了人們的生活狀態(tài),也推動了傳媒業(yè)的變革與發(fā)展。從媒介技術(shù)的角度而言,就是解決如何以最方便、最靈活、最快捷、最經(jīng)濟(jì)、最有效的手段和方法提高信息生產(chǎn)與傳播效率問題,它的內(nèi)在邏輯是技術(shù)理性或工具理性。[11]但是,新聞傳播是人的社會實踐活動,僅靠技術(shù)理性的驅(qū)動是不夠的,需要將追求效果的最大化與關(guān)注人的情感和精神價值結(jié)合起來。
人機(jī)共生、人機(jī)協(xié)同是傳媒業(yè)的發(fā)展趨勢。計算機(jī)科學(xué)家高德納曾經(jīng)評價人工智能:人工智能已經(jīng)在幾乎所有需要思考的領(lǐng)域超過了人類,但是在那些人類和其他動物不需要思考就能完成的事情上,還差得很遠(yuǎn)。[12]人工智能盡管在新聞報道的人文情懷、創(chuàng)意構(gòu)思上還有不盡如人意的地方,但也具備了高效的生產(chǎn)、精準(zhǔn)的推送,以及渠道的拓展等人力所無法比肩的優(yōu)勢。結(jié)合3D成像技術(shù)、語音識別技術(shù)等,如今人工智能已經(jīng)開始扮演傳播者“人”的身份,并且進(jìn)入現(xiàn)實的新聞傳播活動之中。但是,事實告訴我們,新聞傳播是一種極富專業(yè)性和“創(chuàng)意”的智力活動,同時也是涉及政治思想、文化宗教等意識形態(tài)領(lǐng)域的高級精神勞動,因此,揚(yáng)長避短是比較明智的選擇,把機(jī)器或者程序能做的交給機(jī)器和程序,從而把人力解放出來,去從事具有創(chuàng)新要求和需要發(fā)揮想象力的工作,這是自工業(yè)革命以來自動化革命的基本理念。[13]
面對人工智能技術(shù)對傳媒領(lǐng)域的逐漸滲透,新聞從業(yè)者將與人工智能進(jìn)行科學(xué)的分工與互補(bǔ)性的協(xié)作,在“人機(jī)共生”的環(huán)境中各展所長,媒體通過算法來發(fā)現(xiàn)新聞線索、整理分析數(shù)據(jù)以及撰寫初稿,新聞從業(yè)者則將精力用于對重要人物的采訪、稿件內(nèi)容的深化等能夠施展人類才華、體現(xiàn)職業(yè)理想和人文情懷的地方。從傳媒業(yè)的整體布局來看,不僅要構(gòu)建“人機(jī)協(xié)同”的生產(chǎn)模式,更要鼓勵二者在協(xié)同中實現(xiàn)創(chuàng)新,這或許是傳媒業(yè)在人工智能時代的最佳選擇。
價值理性與技術(shù)理性的相互協(xié)調(diào)。人機(jī)協(xié)同不僅是指新聞生產(chǎn)中新聞從業(yè)者與算法系統(tǒng)的相互配合,更指在新聞傳播中,價值理性和技術(shù)理性之間的平衡。法蘭克福學(xué)派的代表人物赫伯特·馬爾庫塞認(rèn)為,技術(shù)作為一種生產(chǎn)方式,……同時也是組織和維持(或改變)社會關(guān)系的一種方式,它體現(xiàn)了主導(dǎo)性的思考和行為模式,是控制和支配的工具。[14]以前主要靠暴力來統(tǒng)治社會,而在現(xiàn)代社會中,技術(shù)成為社會控制的新形式,技術(shù)理性已經(jīng)成為一種意識形態(tài)來統(tǒng)治和控制社會。技術(shù)理性強(qiáng)調(diào)的是通過技術(shù)來推動社會的發(fā)展,改善人們的生活,技術(shù)有著顯著的實用性、目的性,其效果往往是立竿見影,容易被廣大公眾親身感受到,在技術(shù)推崇備至的情況下,技術(shù)理性引導(dǎo)著人們更關(guān)心利益的獲取和物的追求,致使人們的自主意識和獨(dú)立判斷能力在悄無聲息中被消解。
相比于技術(shù)理性,價值理性是一種以人為中心的理性,它不以功利為最高目的,其目標(biāo)是推護(hù)人的尊嚴(yán)、提升人的價值、滿足人的長遠(yuǎn)需要、促進(jìn)人的全面發(fā)展和完善。價值理性解決的是“做什么”的問題,為實踐主體指明了方向,至于“如何做”的問題則主要由工具理性來解決。技術(shù)理性雖然增強(qiáng)了人的生存和發(fā)展能力,帶來了物質(zhì)的豐富和文化的繁榮,但是隨著技術(shù)理性被無限放大,價值理性的發(fā)揮受到了擠壓和限制。在新聞傳播活動中,既要重視節(jié)約生產(chǎn)成本、提高傳播效率,同時也要考慮新聞傳媒如何更好地發(fā)揮引領(lǐng)輿論、協(xié)調(diào)利益、疏導(dǎo)心理等充滿人文情懷的功能。人機(jī)交互、人機(jī)協(xié)同本質(zhì)上是在強(qiáng)調(diào)人的主體性,在人工智能中融入人的價值觀和人文情懷,通過提升人工智能的價值理性,將價值理性和工具理性統(tǒng)一于新聞實踐中。
人工智能為新聞傳媒業(yè)的發(fā)展開啟了一扇窗戶,在改變著新聞信息的生產(chǎn)和傳播方式的同時,也需要原有的新聞倫理與法規(guī)作出相應(yīng)的調(diào)適。因人工智能技術(shù)應(yīng)用于傳媒領(lǐng)域而引發(fā)問題不是技術(shù)發(fā)展的失敗,而是對技術(shù)理性與價值理性能否相互協(xié)調(diào)、相互融合的考驗,也是對新聞倫理法規(guī)開放性的考驗。因此,考察人工智能技術(shù)在新聞傳播領(lǐng)域的應(yīng)用,以及由此帶來的問題,不僅拓展了新聞倫理與法規(guī)的研究視野,更有助于指導(dǎo)不斷變革中的新聞實踐。
(本文系中國人民大學(xué)科學(xué)研究基金[中央高校基本科研業(yè)務(wù)費(fèi)專項資金資助]項目“數(shù)據(jù)新聞可視化的產(chǎn)品評價指標(biāo)體系研究”的研究成果,項目編號:17XNL003)
[1]《算法偏見是如何產(chǎn)生的?》,新華網(wǎng),2018年3月22日,http://xw.xinhuanet.com/news/detail/779138/。
[2]Misty:《致程序員:算法為何帶有偏見?》,雷鋒網(wǎng),2016年6月27日,https://www.leiphone.com/news/201606/tnedws8svgubagll.html。
[3]Francisco Socal:《人工智能算法偏見的根源在人類》,電子工程專輯EE Times China網(wǎng),2018年3月22日,https://www.eet-china.com/news/201803220600.html。
[4]Matt Carlson, "Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism", New Media & Society, 2018, Vol. 20(5) , pp. 1755-1772.
[5]Yves-Alexandre de Montijoye, et al., "Unique in the Crowd: The Privacy Bounds of Human Mobility", Scientific Reports, 25 March, 2013, www.nature.com/srep/2013/130325/srep01376/full/ srep01376.html.
[6]彭增軍:《新聞業(yè)的救贖:數(shù)字時代新聞生產(chǎn)的16個關(guān)鍵問題》,北京:中國人民大學(xué)出版社,2018年,第119~120頁。
[7]《中華人民共和國網(wǎng)絡(luò)安全法》,中國人大網(wǎng),2016年11月7日,http://www.npc.gov.cn/npc/xinwen/2016-11/07/content_2001605.htm。
[8]喬路、白雪:《人工智能的法律未來》,北京:知識產(chǎn)權(quán)出版社,2018年,第32頁。
[9]彭增軍:《新聞業(yè)的救贖:數(shù)字時代新聞生產(chǎn)的16個關(guān)鍵問題》,北京:中國人民大學(xué)出版社,2018年,第141頁。
[10]Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, Rawlsian Fairness for Machine Learning, Submitted on 29 October 2016 (v1), revised 1 November 2016 (this version, v2), latest version 29 June 2017.
[11]郭慶光:《傳播學(xué)教程》(第二版),北京:中國人民大學(xué)出版社,2011年,第116頁。
[12]王天一:《人工智能革命:歷史、當(dāng)下與未來》,北京時代華文書局,2017年,第43頁。
[13]金兼斌:《機(jī)器新聞寫作:一場正在發(fā)生的革命》,《新聞與寫作》,2014年第9期。
[14]Herbert Marcuse, "Some Social Implications of Modern Technology", Studies in Philosophy & Social Science, 1941, pp. 138-139.
責(zé) 編/馬冰瑩