摘要:人工智能技術(shù)目前在新聞業(yè)被廣泛應(yīng)用,技術(shù)利用計算機程序生成新聞稿件,大大提高了新聞生產(chǎn)的效率,算法推薦下的新聞分發(fā)也一定程度上幫助用戶緩解了信息過載的壓力,但是技術(shù)的應(yīng)用也伴隨著新聞生產(chǎn)“黑箱化”、編制用戶“信息繭房”、侵犯用戶隱私、引發(fā)人類技術(shù)焦慮等新聞倫理問題,只有平臺推進算法透明化、公眾加強媒介素養(yǎng)、國家完善法律建設(shè),才有解決問題的可能。
關(guān)鍵詞:人工智能;新聞生產(chǎn);新聞倫理;困境與破局
中圖分類號:G210.7 文獻標志碼:A 文章編號:1674-8883(2021)18-0019-03
21世紀以來,人工智能技術(shù)飛速發(fā)展,隨著算法的逐漸成熟,人工智能技術(shù)已經(jīng)成為人們感受世界、接收信息、了解環(huán)境的重要中介。新聞傳播過程的各個階段都有了人工智能技術(shù)的參與,如素材采集、新聞生產(chǎn)、編輯發(fā)布等。VR新技術(shù)的使用、“機器人寫作”以及人工智能主播(以下簡稱“AI主播”)等應(yīng)用推動了新聞內(nèi)容的智能化生產(chǎn)與播報,解放了部分新聞工作者的勞動力,此外,內(nèi)容深度定制、海量推送及加強互動等方式的應(yīng)用實現(xiàn)了新聞的個性化分發(fā)。
一、新聞視域下人工智能技術(shù)的典型應(yīng)用
(一)算法輔助新聞生產(chǎn)
人工智能技術(shù)運用算法對數(shù)據(jù)庫和其他數(shù)據(jù)源進行識別分類,清洗梳理原始數(shù)據(jù),通過高速運算甚至能得出基于大數(shù)據(jù)的探索型發(fā)現(xiàn)或規(guī)律,生成比較有說服力的數(shù)據(jù)新聞,例如往年的“數(shù)說春運”,這是以往定性的新聞報道難以做到的。由此而得出的新聞也被稱作“自動化新聞”“機器人新聞”“算法新聞”或“計算新聞”[1]。
具體到新聞實踐中,很多平臺有自己的寫稿機器人,比如騰訊的Dreamwriter、今日頭條的xiaomingbot等,寫稿機器人運行第一步是在浩瀚數(shù)據(jù)庫中找出滿足主題要求的或者用戶感興趣的數(shù)據(jù)資源,然后依托云計算平臺,將數(shù)據(jù)信息清洗、梳理,按照要求格式進行組稿,最后將生成完整的新聞信息推送給大眾。簡單來講,“機器人寫作”就是利用計算機程序制作新聞稿件。其優(yōu)勢在于可以大批量、標準化生產(chǎn)新聞信息,因此在財經(jīng)類、體育類新聞及突發(fā)事件報道等垂類應(yīng)用較多。
(二)人工智能實現(xiàn)個性化分發(fā)
目前,新聞的分發(fā)機制已經(jīng)歷了三個階段,依次是專業(yè)化分發(fā)模式、社交關(guān)系分發(fā)模式和人工智能算法分發(fā)模式。人工智能技術(shù)因其優(yōu)勢被廣泛使用,智能算法分發(fā)迅速發(fā)展成為目前的主要分發(fā)模式。
算法推薦的工作流程是先跟蹤記錄用戶的行為數(shù)據(jù),描繪出用戶畫像,再根據(jù)用戶畫像對符合其興趣和需求的內(nèi)容進行聚類推薦。隨著機器學習的不斷深入,深度內(nèi)容定制已在多個新媒體平臺“大顯身手”,內(nèi)容聚合類平臺如今日頭條、騰訊新聞等,通過算法給平臺用戶推薦符合其興趣的專屬定制報紙;視頻服務(wù)類平臺如西瓜視頻,通過人工智能為用戶推薦其喜愛的視頻類型,同時幫助視頻創(chuàng)作者找到自己的作品受眾,為作者創(chuàng)收。此外,算法推薦目前在各種生活服務(wù)類平臺的應(yīng)用也越發(fā)普遍,如淘寶的猜你喜歡就是根據(jù)用戶的搜索、加購情況以及商品特點、價格來推薦類似的商品,以此推動用戶下單,提高用戶的完單率。
(三)AI主播播報新聞
以媒介技術(shù)為劃分標準,當前主播類型可包括:傳統(tǒng)媒體主播(廣播電視主持人、播音員)、新媒體主播(網(wǎng)絡(luò)直播主播、短視頻播主)、虛擬主播(AI主播、虛擬偶像)[2]。在新聞領(lǐng)域,AI主播已經(jīng)屢見不鮮了。在2018年舉辦的世界互聯(lián)網(wǎng)大會上,搜狗聯(lián)合新華社發(fā)布了全球首個全仿真智能AI主播。
AI主播的優(yōu)勢在于高效率、低成本,只要輸入文本,設(shè)定算法,就可以快速對數(shù)據(jù)進行整理歸納然后合成新聞稿件,進行新聞輸出,在反應(yīng)速度上會超越真人主播,可以最大限度地滿足新聞時效性。而且,基于算法的可靠性,AI主播播報的新聞稿件質(zhì)量比較穩(wěn)定,播報也不會出現(xiàn)讀錯字的情況。所以AI主播不管是在信息處理能力上,還是工作效率和情緒穩(wěn)定上,都有著人類不可超越的優(yōu)點。但AI主播也有其不足,比如創(chuàng)造力不夠,個性不夠鮮明,缺乏情感溫度等,這也使得目前AI主播只能起到輔助播報的作用,難以真正替代真人主播[3]。就目前已發(fā)布的AI主播的形式來看,其形態(tài)、語言以及微表情等方面距離人類主播還有較大差距。因此在人工智能背景下,“真人主播+智能輔播”將是一種更長遠的發(fā)展方式。
二、人工智能技術(shù)應(yīng)用產(chǎn)生的新聞倫理困境
人工智能的應(yīng)用推動了整個新聞業(yè)的變革。在新聞生產(chǎn)流程中,人工智能在數(shù)據(jù)收集、自動寫稿、編輯發(fā)布等方面都具有獨特優(yōu)勢,將新聞工作者從煩瑣重復的勞動中解放出來,讓他們有時間精力專注到深度創(chuàng)作上。但是與此同時,人工智能創(chuàng)作的新聞其信息性、知識性和公共性出現(xiàn)滑坡,導致受眾對社會公共利益的關(guān)切逐步讓位于個人興趣。不僅如此,人工智能技術(shù)在新聞業(yè)的應(yīng)用還帶來了一系列的新聞倫理問題。
(一)新聞生產(chǎn)“黑箱化”
工程師設(shè)定完算法體系后,算法就被賦予了生命力和自我學習進步能力。算法型生產(chǎn)方式的本質(zhì)是一種“無監(jiān)督式學習”,“無監(jiān)督式學習”是指輸入數(shù)據(jù)和輸出成果之間的過程不透明、不可觀察,即新聞生產(chǎn)的“黑箱化”[4],因此,算法進行新聞生產(chǎn)時,收集信息源、清洗線索數(shù)據(jù)、組稿以及把關(guān)的過程都是“暗箱操作”的,人看不到算法的操作邏輯,也沒辦法預知或者解決一些可能出現(xiàn)的問題。而且因為算法生產(chǎn)采用的新聞源通常來源豐富,鏈路復雜,所以即便是人工進行新聞編審,在工作量及難度等方面都有很大挑戰(zhàn)。新聞生產(chǎn)過程的不確定性以及生產(chǎn)后的核查困難雙重因素導致算法生產(chǎn)的假新聞的出現(xiàn)概率要遠大于傳統(tǒng)的新聞生產(chǎn)方式。此外,在算法“內(nèi)容聚類排序”的分發(fā)邏輯下,一則假新聞會帶來更多假新聞,加劇假新聞的擴散傳播。
而且不管算法通過怎樣的程序生產(chǎn)新聞,單看新聞作品似乎沒有體現(xiàn)人的價值觀念,用戶接受算法生產(chǎn)的新聞時,也不會覺得跟記者生產(chǎn)的新聞有所不同,然而事實往往并非如此。算法模型的創(chuàng)造者是工程師,搭建基礎(chǔ)則是人類的行為數(shù)據(jù),那么工程師設(shè)定算法時是否注入了價值觀、人類的行為數(shù)據(jù)是否裹挾了主觀觀念,這些都有待考慮。
(二)引發(fā)“信息繭房”效應(yīng)
在依次經(jīng)歷了媒體型分發(fā)、關(guān)系型分發(fā)之后,人工智能技術(shù)支撐的算法型分發(fā)成為媒介應(yīng)用的主要模式,“信息繭房”作為算法型分發(fā)下的必然產(chǎn)物,最先由凱斯·R·桑斯坦在《信息烏托邦》中提出,指的是受眾長期只接收自己感興趣的信息,會被困在這種類型的信息環(huán)境內(nèi)。算法通過跟蹤用戶行為,標記用戶對不同類型內(nèi)容的瀏覽情況,包括頻次、穩(wěn)定性等,對用戶喜好進行標簽、歸類,然后給各類用戶推送符合其喜好的內(nèi)容。因為算法的運作過程不透明,這種興趣偏好的判斷標準未必準確,用戶可能只是誤觸了某條信息,就被算法判斷為感興趣然后不斷推送相似內(nèi)容,所以繭房內(nèi)的信息未必是用戶真正感興趣的,而且很容易使用戶偏好轉(zhuǎn)向低趣味和獵奇性。“信息繭房”的內(nèi)容同質(zhì)化,不僅造成用戶接收信息面的窄化,也會在新聞市場產(chǎn)生“劣幣驅(qū)逐良幣”的后果,將有關(guān)公共議題的優(yōu)質(zhì)內(nèi)容逐漸邊緣化[5]。再者,封閉的“信息繭房”內(nèi),用戶的情緒及想法極易被引導操縱,個體觀點也會被同質(zhì)化內(nèi)容反復強調(diào),直至根深蒂固,很容易導致用戶形成極端的單一化觀點,如果極端觀點“抱團”后進入公眾視野,會直接造成群體極化,威脅公共領(lǐng)域,驅(qū)逐公眾的理性批判以及言論自由。
(三)出讓用戶個人隱私
企業(yè)獲取用戶數(shù)據(jù)的手段是多樣的,或者說是悄無聲息的,比如各大平臺的“內(nèi)容搜索框”就是搜集用戶需求數(shù)據(jù)的有效手段,而采用第三方賬號登錄新平臺也是另一種獲取用戶數(shù)據(jù)的方式。媒介經(jīng)營者根據(jù)獲取到的用戶數(shù)據(jù)對用戶進行“建檔”、分層,然后基于用戶的“需求數(shù)據(jù)”實現(xiàn)精準的內(nèi)容投放,網(wǎng)絡(luò)社會下每個人都處于信息爆炸的環(huán)境中,而算法推薦在一定程度上幫助用戶緩解了信息過載的壓力,對用戶來說,符合自己口味的個性化定制報紙確實要比面面俱到的報紙更吸引人、更具可看性。隨著算法的精細化發(fā)展與廣泛應(yīng)用,各大互聯(lián)網(wǎng)企業(yè)采集用戶數(shù)據(jù)已是常態(tài),甚至很多移動端應(yīng)用已經(jīng)到了不采集個人信息就不能運作的地步,用戶的行為數(shù)據(jù)是提供個性化服務(wù)的前提,但獲取用戶數(shù)據(jù)后使用不當則會侵犯用戶隱私。因此用戶如果想使用服務(wù)就需要對自己的隱私安全邊界做出讓步。
擁有數(shù)據(jù)越多責任就越大,如果互聯(lián)網(wǎng)公司的數(shù)據(jù)庫泄露,用戶的個人隱私將直接遭受破壞。近期,國內(nèi)網(wǎng)約車巨頭滴滴出行因違規(guī)收集用戶信息、威脅用戶的人身安全而被整頓,國外的Facebook也因泄露5 000萬用戶信息參與政治引起輿論一片嘩然。當今社會,用戶數(shù)據(jù)是一筆價值不菲的資產(chǎn),同時也是一種責任負擔,如果沒有相匹配的數(shù)據(jù)保護意識和能力,最終也將失去用戶和市場。
(四)制造人類“技術(shù)焦慮”
人與技術(shù)的關(guān)系是學界探討的永恒話題,與其他技術(shù)不同的是,人工智能具備優(yōu)異的自我進化以及學習能力,甚至具備一定的“當家作主”的能力,其發(fā)展水平越接近于人類越能發(fā)揮作用從而受人類青睞。但是目前人工智能技術(shù)發(fā)展速度飛快,其帶來的很多問題都走在人的感知與反應(yīng)前面,人類只能被動地修補問題,比如調(diào)整算法、完善立法等,因此很多問題的解決都有些遲鈍,而且整個反應(yīng)過程體現(xiàn)了人工智能技術(shù)的引領(lǐng)性,人類發(fā)揮主體性的空間較窄。
回顧歷史,焦慮通常誕生于未知,當技術(shù)風險及發(fā)展方向可以被人類牢牢把握時,就不會過于焦慮,然而職業(yè)圍棋選手AlphaGo在比賽中取勝的時間遠遠早于專家預測的20年周期,其超出人類預測的發(fā)展速度引發(fā)了普遍的技術(shù)焦慮。在新聞領(lǐng)域,中國地震臺網(wǎng)的地震報道編寫發(fā)布用時只需25秒,今日頭條的一篇體育資訊只需2秒,南方都市報編寫一則春運文章只需1秒[6],機器人可以取代部分新聞工作者的工作也使得“職業(yè)消亡”的論調(diào)甚囂塵上。未來人類與人工智能技術(shù)的相處模式如何,彼此關(guān)系將走向何方引起學界高度重視。
三、新聞倫理困境的破局之策
智能媒體時代,傳統(tǒng)的新聞倫理頻繁被人工智能技術(shù)挑戰(zhàn),如何從人類主體性出發(fā)解決人工智能帶來的新聞倫理問題成為學界的關(guān)注焦點,這種思路的根基在于技術(shù)中性論。只有把技術(shù)作為一種中性工具,才有可能去把握技術(shù),解決技術(shù)帶來的問題。盡管在學界對于“技術(shù)中立論”的看法各有不同,前有芬伯格(Andrew·Feenbeyg)在《技術(shù)批判理論》一書中體現(xiàn)了自己的技術(shù)倫理觀念:“技術(shù)不是道德中立的,具有階級偏見”,后有庫茲韋爾(Ray·Kurzweil)預言的21世紀中葉人工智能“奇點”——強人工智能時代逐漸逼近[7],但是國內(nèi)學者的實用派研究基本還是持一個技術(shù)中立的立場,尤其是善用技術(shù),發(fā)揮人的主體性不被技術(shù)反控制這點上基本達成了共識。
(一)平臺承擔責任推進算法透明度
商業(yè)利益與媒體公共性一直都是天平的兩端,市場經(jīng)濟的高速發(fā)展,使得媒介機構(gòu)逐漸往利益目標傾斜,丟失了部分公共性、獨立性與客觀性,傷害媒體的立身之本。在這種情況下,平臺更應(yīng)該回歸自身的公共屬性,承擔社會責任。技術(shù)中立不是平臺逃脫社會責任的借口,推進算法透明化更需要平臺作為主要行動者。
算法透明化可以有效緩解“新聞生產(chǎn)黑箱化”帶來的焦慮,公眾提前知曉算法中的價值觀導向有利于公眾更客觀地把握新聞內(nèi)容。不少新聞機構(gòu)已經(jīng)在推進算法透明度方面做出嘗試。例如紐約時報就專門開設(shè)了“公開”(Open)的博客,發(fā)表相關(guān)文章來普及新聞技術(shù)[8]。除了推動算法透明化之外,還應(yīng)該在應(yīng)用層面擴大算法推薦關(guān)鍵詞的關(guān)聯(lián)范圍,為用戶提供更加廣泛的新聞內(nèi)容,擴展信息面,弱化信息繭房的負面影響。
(二)智媒受眾提高自身媒介素養(yǎng)
尼爾·波茲曼認為,新興技術(shù)迅猛發(fā)展的必然結(jié)果是將人置于全面的技術(shù)壟斷之下。信息網(wǎng)絡(luò)疊加人工智能技術(shù),將用戶牢牢地“鎖在”信息繭房內(nèi),越來越多的智媒受眾沉迷于其中,失去了對時間的判斷尺度,原本只是隨手點進了一個感興趣的內(nèi)容,結(jié)果看完后緊接著推薦了類似的自己感興趣的內(nèi)容,使得用戶深陷其中不能自拔,喪失了自身主體性。
在這種情況下,要想沖出“繭房”還是要靠受眾自身。受眾要學會判斷信息的真?zhèn)翁搶?,了解人工智能技術(shù)的基本邏輯,獨立判斷數(shù)據(jù)和算法背后的政治、經(jīng)濟、文化等因素的影響,而不是對信息全盤接收,努力做到從媒介附庸向媒介主人的回歸。此外,受眾應(yīng)培養(yǎng)獨立、理性和批判的信息接收習慣,目前使用算法推薦的選擇權(quán)逐步交到用戶手中,比如淘寶APP用戶可以關(guān)閉個性化推薦商品,騰訊的隱私功能中也提供了關(guān)閉個性化廣告的選項,是否使用智能算法推薦服務(wù),受眾可以在保持批判性的基礎(chǔ)上謹慎作出選擇。最后,要培養(yǎng)主體意識,樹立主人翁觀念,要信息為我所用,而不是我為信息所役[9]。
(三)加強法規(guī)建設(shè)防范倫理風險
新事物新技術(shù)總是以雙刃劍的形式出現(xiàn),推動行業(yè)發(fā)展的同時會附帶新的問題。人工智能技術(shù)迅速發(fā)展引起的一系列數(shù)據(jù)安全問題,相關(guān)部門迅速響應(yīng),根據(jù)現(xiàn)狀完善了相關(guān)法律法規(guī)。2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》指出,要初步建立人工智能技術(shù)相關(guān)的倫理規(guī)范和法律法規(guī)。2019年國家互聯(lián)網(wǎng)信息辦公室發(fā)布《網(wǎng)絡(luò)安全威脅信息發(fā)布管理辦法(征求意見稿)》,把智媒及算法傳播的發(fā)展納入政府監(jiān)管中。
總的來說,盡管相關(guān)部門響應(yīng)快速,但是問題出現(xiàn)后再籌劃解決對策的處理方式多少有些被動,為此,業(yè)界和學界需要共同努力,未雨綢繆才能在問題出現(xiàn)之前做預防,發(fā)揮主體作用。
四、結(jié)語
人工智能技術(shù)的應(yīng)用革新了新聞業(yè)態(tài),但是其帶來的新聞生產(chǎn)黑箱化、損害新聞客觀性、侵犯用戶隱私等問題也亟待解決,面對已出現(xiàn)的問題,只有平臺方聯(lián)動受眾以及相關(guān)部門完善法律法規(guī),才能為人工智能技術(shù)的良性發(fā)展保駕護航。此外,“發(fā)明”與“服從”從來不是必然因果,人類與技術(shù)的關(guān)系也絕不是簡單的利用,未來的人類與人工智能的相處模式一定是人機協(xié)同,只有人與技術(shù)之間達到一種和諧統(tǒng)一的狀態(tài),合理、規(guī)范地利用技術(shù)為人類社會服務(wù),才是長久發(fā)展之計。
參考文獻:
[1] 張夢,陳昌鳳.智媒研究綜述:人工智能在新聞業(yè)中的應(yīng)用及其倫理反思[J].全球傳媒學刊,2021,8(1):63-92.
[2] 喻國明,張珂嘉.重識主播:試論媒介化視域下主播符號內(nèi)涵與影響力觸達[J].中國出版,2021(11):11-18.
[3] 楊菁菁.試論人工智能背景下的“AI合成主播”[J].新聞世界,2021(5):77-81.
[4] 筠茜,陳昌鳳.黑箱:人工智能技術(shù)與新聞生產(chǎn)格局的嬗變[J].新聞界,2018(1):28-34.
[5] 姚文康.聚合類新聞客戶端的“信息繭房”效應(yīng)及反思——以“今日頭條”為例[J].傳媒論壇,2020,3(3):151,153.
[6] 秦煦,周長城.新聞領(lǐng)域人工智能應(yīng)用的倫理風險及治理[J].新聞知識,2019(12):37-40.
[7] 李穆清.馬克思科技倫理視域下人工智能時代人的主體性危機研究[D].大連:大連理工大學,2021.
[8] 季芳芳.如何認識新聞倫理層面的算法透明度[J].中國報業(yè),2018(5):28-30.
[9] 宮承波,王玉鳳.主體性異化與反異化視角的智能傳播倫理困境及突圍[J].當代傳播,2020(6):79-81.
作者簡介:劉玉菡(1994—),女,山東青州人,碩士在讀,研究方向:廣播電視傳媒。