白燦明
【摘 要】人工智能技術在新聞傳播領域的廣泛應用,帶來新聞采集、生成、分發(fā)乃至整個新聞生產(chǎn)流程巨大革新。于新聞傳播領域而言,挑戰(zhàn)與機遇并存,人工智能風險與新聞倫理爭議俱在。在人工智能技術成為新聞生產(chǎn)一種重要生產(chǎn)力的同時,也沖擊著傳統(tǒng)的新聞生產(chǎn)流程、產(chǎn)品結構及職位匹配。英國物理學家霍金曾說過“完美的人工智能開發(fā)意味著人類的終結”,成為對當下新聞界的一種警示。對人工智能技術過于樂觀的傾向,引發(fā)其對傳媒倫理問題未足夠重視的偏頗。本文探討人工智能技術在新聞業(yè)可能引發(fā)的新聞倫理失范問題及表征、探究失范成因,并嘗試提出有建設性的策略。
【關鍵詞】人工智能 ? 新聞倫理 ? 媒介信息素養(yǎng)
一、人工智能背景下新聞倫理失范的表征
1.信息安全遇危機
2016年央視“3·15晚會”曝光了OTO平臺對用戶信息的竊取與濫用,此事一出,網(wǎng)絡平臺用戶的信息安全問題飽受社會公眾質疑。如今,當新用戶下載并注冊一些APP時,便彈出后臺有權收集用戶錄音權限、通信錄等敏感個人信息的協(xié)議。此時,只有兩種選擇給新用戶:一是選擇拒絕,便自動退出軟件,無法使用;二是選擇接受,則個人信息就有暴露的危險。如此霸王協(xié)議條款無疑是對國家保護個人隱私相關法規(guī)條例的漠視。此外,在新用戶選擇使用智能型新聞推送平臺時簽署的相關協(xié)議大都冗長,大部分人會直接選擇接受,但并不知曉可能存在信息被濫用甚至被販賣的風險,細思極恐。
2.智能新聞難監(jiān)管
《人民日報》作為我國媒體行業(yè)標桿,新聞質量高,時效性強。眾多黨媒亦始終堅持客觀、理性的新聞立場。反觀其他網(wǎng)媒資訊平臺,過于依賴人工智能技術根據(jù)用戶偏好與閱讀習慣進行個性化推送,將普通受眾困于選擇的“認知孤島”。此外,機器人新聞寫作作為目前人工智能在傳媒領域的重要應用為媒體工作帶來便利的同時,也屢屢傳遞錯誤消息,使民眾對智能新聞生疑。機器人真的能理解人類的思維與思考習慣嗎?尚未可知。機器人寫作存在語言生硬、報道深度與專業(yè)度欠缺等問題,影響新聞作品質量。此種情況下,大眾媒體的公信力受到質疑。更值得關注的是,人工智能缺乏對道德價值的判斷及監(jiān)管,給新聞業(yè)的發(fā)展埋下定時炸彈。
3.信息繭房縛受眾
“今日頭條”作為內容聚合型平臺使用算法標簽將新聞資訊加以分類,將不同的新聞內容經(jīng)算法計量呈現(xiàn)給特定受眾。但算法推薦不可能將社會重要議題全面呈現(xiàn)給用戶,導致受眾個人與社會出現(xiàn)斷裂現(xiàn)象。從長遠看,受眾會逐漸喪失對社會的全面認知。此外,受眾長期僅接收自身喜好的新聞資訊,形成單一的固定思維模式和僵化的閱讀習慣,限制受眾提升自我媒介素養(yǎng),盲目地全盤接收媒介呈現(xiàn)的信息,將不關心的社會公共信息拒之門外,每天關心的只是“我的日報”而已。
二、人工智能背景下新聞倫理失范的原因探析
1.唯流量至上
用戶流量所帶來的經(jīng)濟利益成為當前媒體主要的經(jīng)濟來源。對用戶流量的過度追求,新聞從業(yè)者社會地位由“社會的觀察者”漸淪為“新聞民工”。這種巨大變化在經(jīng)濟上表現(xiàn)為,部分媒體人無法吸引足夠的用戶流量,造成經(jīng)濟收入低下,承受不住現(xiàn)實生活壓力從而變相獲益。對用戶流量的盲目追求是導致部分從業(yè)人員喪失新聞理想、違背新聞專業(yè)原則的重要原因之一,也是“有償新聞”層出不窮的源頭所在,逐漸成為一種隱性文化。
2.對隱性社交構成入侵
目前而言,不管是以騰訊新聞、“今日頭條”為代表的聚合型新聞推薦平臺抑或抖音、梨視頻等短視頻智能推薦平臺,用戶一旦對某條信息內容進行點贊、評論或者是收藏等操作,此后平臺給該用戶推薦的內容將集中鎖定在此前用戶可能無意間關注的內容。長此以往,該用戶其他賬號將收到大量同質化信息,如該用戶在“今日頭條”觀看了一則世界杯新聞,隨之而來的是用戶可能會在其騰訊新聞賬號上看到一連串體育新聞相關的推送,而這已經(jīng)對他人的隱性社交構成入侵,對自然人自由地選擇學習知識、接收信息的權利造成了直接的損害。
3.規(guī)范條例有待完善
人工智能技術的發(fā)展日新月異,但世界大部分國家對人工智能立法約束監(jiān)督并未跟上發(fā)展。歐洲議會法律事務委員會在2016年遞交“機器人法”的立法建議報告,而后通過了歐洲議會的決議,并于2017年向歐洲委員會提交議案,建議起草專門針對人工智能的法案,目的在于規(guī)范機器人的使用與管理,同時對人工智能的責任問題進行界定。但遺憾的是歐洲委員會至今未做出動作,歐盟的人工智能立法最終陷入了“雷聲大雨點小”窘境。人工智能對新聞領域的影響具備普遍性。2017年,國務院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,明確提出建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力,為我國人工智能立法指明了方向,但相關的立法工作并未跟上。
三、人工智能背景下新聞倫理失范的應對策略探討
1.落實算法規(guī)則透明化
智能媒體收集、生產(chǎn)、傳播新聞的過程具有高度復雜性,是誘發(fā)新聞倫理失范的重要因素之一,更為算法權利濫用提供了可乘之機。人工智能背景下,算法規(guī)則透明化是減少算法技術暗箱操作、算法濫用的有效手段。為了科學合理地實現(xiàn)算法透明化,國家和監(jiān)管部門應明確界定智能系統(tǒng)進入市場的相關規(guī)則,同時智能新聞推薦平臺需要簽署市場運作協(xié)議,在協(xié)議中應該包括:一旦智能算法推薦平臺與社會公共利益產(chǎn)生沖突,平臺有義務將數(shù)據(jù)采集及分發(fā)等算法規(guī)則以通俗易懂的方式向社會公開。
2.完善自我約束機制
人工智能技術已經(jīng)滲透到傳媒領域中的各個環(huán)節(jié),并且在某些工作上代替了新聞工作者,由此而產(chǎn)生的社會風險不容忽視。而社會對人工智能系統(tǒng)是否應該像自然人一樣承擔相對應的社會責任仍在爭論不休,對人工智能是否需要承擔新聞倫理責任的問題的討論在短期內也無法得到滿意的回答。為盡量降低人工智能在信息傳播過程中存在的問題對社會的損害程度,長遠保持社會輿論傳播方向的正確,建立和完善適應于人工智能環(huán)境的新聞傳播自我約束機制是未來新聞傳播業(yè)界、學界、傳媒監(jiān)管部門需要共同關注和努力的方向。這里提及的新聞傳播自我約束機制是指媒體從業(yè)人員、傳媒機構、互聯(lián)網(wǎng)信息傳播平臺在使用與應用人工智能技術的過程中要堅持的信息傳播倫理機制。
3.出臺相關法律法規(guī)
國內目前暫未出臺專門規(guī)范新聞傳播領域的法律條文,對人工智能和大數(shù)據(jù)的開發(fā)和使用也缺乏具體條例約束與規(guī)范。在新聞傳播領域出現(xiàn)爭議時常規(guī)操作是借鑒其他法律條例中的一些具體條款加以處理,這很容易在處理新聞傳播的問題上出現(xiàn)行為失范,在處理新聞倫理失范時常出現(xiàn)無條款可用、無條款適用的情況。因此,在保證我國新聞業(yè)的本質不變的前提下,促進相關法律法規(guī)的建立與完善,是我國新聞傳播領域健康發(fā)展的重要前提條件。
我國當前傳播環(huán)境中對媒體的監(jiān)管還存在一些漏洞,在人工智能背景下傳播者與受眾在信息傳播中的地位發(fā)生巨大變化,普通受眾、自媒體從業(yè)者、智能算法推薦平臺等不僅扮演著信息接收者的角色,還被賦予了信息傳播的權利與能力,同時可能還充當著信息傳播者的角色。而我國以往的監(jiān)管工作主要是針對專業(yè)的媒體人和傳統(tǒng)媒體平臺,對自媒體、智能算法新聞推薦平臺等缺乏相對成熟的監(jiān)管規(guī)范模式,對人工智能技術在傳媒領域的監(jiān)管工作更是欠缺。此外,由于我國普通大眾媒介信息素養(yǎng)普遍低下,在信息傳播平臺上的發(fā)言經(jīng)常呈現(xiàn)情緒化特征,缺乏理性思考;參與算法新聞推薦程序規(guī)則制定的算法工程師不是新聞傳播專業(yè)出身,對新聞領域缺乏全面認識,在算法規(guī)則制定過程中經(jīng)常忽略新聞倫理相關問題,這些原因也加大了智媒的監(jiān)管難度。只有加強對智媒的監(jiān)督力度,迎難而上,方可促進媒體生態(tài)的良性發(fā)展,降低新聞倫理失范出現(xiàn)的概率。
四、結語
人工智能技術在新聞傳播領域的應用引發(fā)的變革滲透到新聞的采集、生產(chǎn)、傳播、分發(fā)各環(huán)節(jié)中,有效提升新聞生產(chǎn)的效率,調整傳媒行業(yè)格局??傮w而言,人工智能技術在傳媒領域的應用利大于弊,縱然受到質疑與討論,但會反向促進智能媒體的發(fā)展。新聞界期待人工智能技術成為新聞倫理的捍衛(wèi)者,為新聞傳播領域的發(fā)展保駕護航。
(作者學校:廣西大學新聞傳播學院)
【參考文獻】
[1]吳景輝. 特朗普執(zhí)政時期的美國科技政策[D].華東師范大學,2019. [12];[2]吳沈括,唐巧盈.《歐盟數(shù)據(jù)保護新規(guī)對人工智能的影響》報告述評[J].信息安全與通信保密,2018(07):74-77.