袁媛 劉明
【摘要】智能媒體時代,機器人新聞寫作依賴的數(shù)據共享與用戶主張的個人隱私保護出現(xiàn)激烈沖突,究其原因主要在于智能化新聞生產技術的廣泛使用帶來了隱私內涵的變化和隱私權利主體的改變。為了在保障機器人新聞寫作技術可持續(xù)發(fā)展的同時,實現(xiàn)用戶個人利益與社會公眾利益的平衡,應當明確智能新聞生產語境中的用戶隱私保護責任主體,建立隱私管理的人機協(xié)作模式;采用更加適用于機器人新聞寫作的新聞倫理準則,將隱私保護條款項先植入算法中,提升算法透明度,保障用戶知曉權;同時提升算法工程師的倫理水平和用戶的隱私素養(yǎng)。
【關鍵詞】機器人新聞寫作;隱私權;智能媒體;算法
機器人新聞寫作最早誕生于美國,是指利用自然語言處理、大數(shù)據分析、算法模型等技術實現(xiàn)新聞的采集、生產與分發(fā)全過程自動化的智能寫作模式。國外較具代表性的新聞寫作機器人包括《華盛頓郵報》的Heliograf、雅虎的智能機器Wordsmith、路透社的Open Calais系統(tǒng)等。當下風頭正勁的ChatGPT也具備強大的信息提取、文本生成和學習的能力,能夠實現(xiàn)更加快速精準便捷的新聞寫作。[1]2023年7月20日,ChatGPT增加了Custom instructions新功能,使其具備個性化特色的同時能更好地貼近使用者的需求。國內的機器人新聞寫作起步較晚但發(fā)展迅猛,代表性較強的有新華社的快筆小新、騰訊的Dreamwriter、字節(jié)跳動的Xiaomingbot和封面新聞的小封機器人等。隨著機器人新聞寫作技術的不斷推廣,由此產生的用戶隱私侵權風險也日益引起國內外學者的重視。
傳統(tǒng)媒體時代,媒體公開信息、保證言論自由的同時,通過使用化名、筆名、打馬賽克等方式來保護用戶的隱私信息。智能媒體時代,這些曾經行之有效的手段已經難以應付自動化新聞生產面臨的復雜問題。因此,厘清機器人新聞生產中隱私侵權問題的權利邊界與責任歸屬,從法律、倫理等層面保證機器人新聞寫作的合理、合法,才能推動機器人新聞寫作的更好更健康發(fā)展。
一、機器人新聞寫作中的隱私侵權風險
(一)智能媒體時代隱私內涵的變化與隱私權利主體的改變
傳統(tǒng)媒體時代,公共空間與私人空間有明顯的界限,隱私內容較為穩(wěn)定,邊界清晰可辨。智能媒體時代,數(shù)據能夠永久性存儲且成本較低,數(shù)據流動的速度不斷加快,數(shù)據整合的價值不斷提高且操作日益便捷,這些都促使傳統(tǒng)的隱私內涵發(fā)生了巨大變化,隱私內容由靜止轉向動態(tài),邊界由清晰轉為模糊。原本價值稀少的數(shù)據碎片一旦流動到掌握智能技術的平臺手中,其經過分析就可能變成威脅用戶隱私的高價值信息。
智能媒體時代,隱私權的內涵和外延也發(fā)生了變化。傳統(tǒng)隱私權的主要目的是維護隱私主體的公眾形象、人格尊嚴等,是一種消極的、被動的“不被打擾的權利”。機器人新聞寫作環(huán)境中,用戶的隱私權還包括對用戶個人信息的采集、加工、處理和利用等權利。隱私權成為隱私主體為了維護個人自由和社會關系而采取的一種積極的、主動的控制和自己有關的信息傳播的權利。與之相對的是,機器人新聞寫作環(huán)境中用戶的隱私保護主體也發(fā)生了改變,擁有隱私的主體不再是唯一的隱私保護主體,掌握技術的新聞媒體和新聞聚合分發(fā)平臺替代隱私主體成為保護隱私的第一責任人。由于隱私主體和隱私保護主體分離,當雙方產生利益沖突時,則可能出現(xiàn)隱私保護主體不盡責甚至反轉成隱私侵害主體的情形。
(二)機器人新聞寫作信息采集過程中的隱私侵權風險
1.人的數(shù)據化增強了數(shù)據采集的可能性
新媒體時代,用戶的思想和行為以數(shù)據的形式被網絡記錄下來,社交媒體的興盛進一步促進了用戶的主動數(shù)據生產行為,多重數(shù)據的整合與分析形成了用戶在互聯(lián)網中的數(shù)據化映射。智能媒體時代,各種智能設備尤其是可穿戴設備將更加全面全時地采集用戶的各項數(shù)據,用戶的數(shù)據化程度將持續(xù)加深,“可量化性”和“可追蹤度”將進一步提高。這種數(shù)據化在為媒體機構提供便利的同時也將使用戶面臨更多的隱私泄露風險。
2.智能媒體技術擴大了數(shù)據采集的范圍
隨著5G技術的普及,數(shù)據傳輸?shù)母咚俣饶軌蚴贡镜嘏c云端幾乎處于同步狀態(tài)。云端強大的存儲功能和極低的存儲成本,再加上高效的使用體驗刺激用戶將更多的數(shù)據傳輸至云端。對于云服務提供商來說,個人數(shù)據是其獲取經濟利益的重要來源,用戶將包含隱私信息在內的更多數(shù)據放在由云服務商提供的存儲平臺上,意味著隱私信息的不可控性將進一步加劇。
(三)機器人新聞寫作信息處理與分發(fā)過程中的隱私侵權風險
機器人新聞寫作在信息處理與分發(fā)過程中要不斷地進行用戶畫像。用戶畫像的過程可以理解為給用戶貼標簽的過程。用戶畫像模塊對采集到的用戶數(shù)據進行詞頻分析,包括關鍵詞出現(xiàn)的次數(shù)和權值等,再利用算法分析、統(tǒng)計出用戶的典型特征,比如,利用分類算法推測用戶的性別、年齡等人口特征,使用統(tǒng)計分析推測用戶的閱讀習慣、生活習慣等偏好特征,通過聚類算法推測用戶的信息消費等行為特征,最終描摹出目標用戶的模型,再通過信息反饋不斷迭代,使畫像越來越精準。在機器人新聞寫作環(huán)境中,對用戶的精準畫像需求會帶來對用戶新型隱私,即整合型隱私的侵犯。所謂的整合型隱私是指利用數(shù)據挖掘技術將用戶在網絡中留存的數(shù)字化痕跡進行有規(guī)律的整合而形成的隱私。整合型隱私在整合前往往是普通的個人信息,在數(shù)據挖掘過程中,通過對數(shù)據的排列組合,整合型隱私才得以產生。由于數(shù)據整合的主體、時間、方式、目的和用途等往往無法提前確定,導致整合型隱私具有極大的偶然性和隱蔽性,用戶很難察覺。[2]另外,以往關于隱私保護問題討論中的“知情同意”等原則也無法適用于整合型隱私,因為在實際操作中,用戶的知情權很難滿足。
二、機器人新聞寫作中隱私侵權的治理措施
(一)明確責任主體,實現(xiàn)人機共管
1.明確用戶隱私保護的責任主體
采用機器人新聞寫作技術的新聞媒體和新聞聚合分發(fā)平臺作為用戶數(shù)據的采集方、存儲方和使用方應當承擔起保護用戶個人信息安全的責任。結合2020年國家最新發(fā)布的《個人信息安全規(guī)范》,新聞媒體和新聞聚合分發(fā)平臺在用戶信息采集環(huán)節(jié),應當堅持目的明確原則和選擇同意原則,向用戶明示個人信息處理的目的、方式、范圍、規(guī)則等,征求其授權同意。在用戶信息存儲環(huán)節(jié),應當堅持確保安全原則和主體參與原則,采取足夠的管理措施和技術手段,保護個人信息的保密性和完整性,向用戶提供能夠查詢、更正、刪除其個人信息,以及撤回同意、投訴等方法。在用戶信息的使用環(huán)節(jié),應當堅持最少夠用原則,只處理滿足個人信息主體授權同意的最少個人信息類型和數(shù)量。爾后,及時刪除個人信息。由國家網信辦發(fā)布的《生成式人工智能服務管理暫行辦法》中也對廣播電視、新聞出版等部門依據各自職責依法加強對生成式人工智能服務的管理提出了要求。
2.智能化新聞生產中應當建立隱私管理的人機協(xié)作模式
在機器人新聞寫作環(huán)境中,用戶信息被個人和機器共同掌握,機器作為用戶信息的共有者占據更加主動的地位,用戶往往受制于甚至屈服于算法平臺。因此,要限制算法對用戶數(shù)據的過度占有與控制,同時加強對用戶權益的保護,尤其是賦予用戶被遺忘權和刪除權等,改變當前用戶與平臺間的不對等關系,才能建立起和諧有效的人機協(xié)作隱私管理模式?!渡墒饺斯ぶ悄芊展芾頃盒修k法》中也針對ChatGPT等生成式人工智能服務提供者作出了明確規(guī)定,要求其依法及時受理和處理個人關于查閱、復制、更正、補充、刪除其個人信息等的請求。
(二)建立更加適用于機器人新聞寫作的新聞倫理準則
1.將隱私保護條款預先植入算法中
智能媒體時代的隱私保護應當覆蓋從數(shù)據采集、數(shù)據傳輸、數(shù)據存儲到數(shù)據分析與使用的整個過程。對于部分侵犯用戶隱私權的違法行為,僅僅要求其停止侵害行為或針對侵害行為進行賠償是遠遠不夠的。因為有的隱私侵害行為一旦發(fā)生,其對用戶產生的傷害,比如對未成年人的心理傷害,后期往往很難有效救濟。因此,在機器人新聞寫作的算法設計中,應當預先將保護用戶隱私的理念植入程序中,確保機器人新聞寫作技術在運用和管理過程中能夠實現(xiàn)對用戶隱私信息的有效控制與保護。歐盟在2016年確立的《一般數(shù)據保護原則》第25條中就已經明確規(guī)定了人工智能在設計階段和初始設定里要加入數(shù)據保護。將隱私理念預先植入算法中,能夠在發(fā)展自動化新聞生產的同時實現(xiàn)自動化的用戶隱私保護。目前,《生成式人工智能服務管理暫行辦法》中僅要求提供和使用生成式人工智能服務者在算法設計過程中,采取有效措施防止產生歧視,并未對隱私保護作出明確的規(guī)定。
2.提升算法透明度,保障用戶知曉權
對于用戶來說,機器人新聞寫作的過程是隱蔽的、不可見的,因此提升算法透明度能夠有效保障用戶的知曉權,為用戶提供隱私處理決策的依據?!吨腥A人民共和國個人信息保護法》第七條明確規(guī)定了處理個人信息應當遵循公開、透明原則。其中第二十四條又進一步規(guī)定個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度。通過自動化決策方式向個人進行信息推送,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式?!渡墒饺斯ぶ悄芊展芾頃盒修k法》也要求提供和使用生成式人工智能服務應提升透明度,但缺乏更具體細致的條文。事實上,透明原則能夠有效地保護用戶的信息自決權,因為該原則要求使用算法的新聞媒體和新聞聚合分發(fā)平臺等在處理用戶信息過程中,應當對用戶履行充分的告知義務,尊重用戶對個人信息的選擇權和決定權,包括刪除權。這樣,面對新聞媒體或者新聞聚合分發(fā)平臺復雜且難以解釋的算法技術,用戶就能夠清晰地知曉其信息處理的目的、方式、范圍等,并在此基礎上作出判斷和選擇。堅持使用算法的新聞媒體或新聞聚合分發(fā)平臺內部的算法透明原則,一方面有助于建立更加具有責任意識的新聞媒體,另一方面也能夠幫助新聞媒體贏得更多用戶的信任,從而提高新聞媒體的公信力和美譽度。
(三)提升算法工程師的倫理水平和用戶的隱私素養(yǎng)
1.提升算法工程師的倫理水平
算法技術并不是絕對中立的。機器人新聞寫作依靠的核心算法是算法工程師不同價值觀的反映,價值觀不同的算法工程師設計出的算法也會有很大差異。機器人新聞寫作技術的算法工程師作為媒體算法技術隱私侵權的首要責任人,他們掌握著新聞算法能否有效平衡用戶數(shù)據隱私權與公眾知情權的關鍵信息。算法工程師對用戶隱私的不同看法和重視程度將決定他們以何種態(tài)度、何種行為對待算法,更意味著他們設計的算法將會對用戶的隱私造成何種影響。學者袁帆、嚴三九通過對傳媒業(yè)269名算法工程師進行實證研究發(fā)現(xiàn),“相當比例的算法工程師的算法倫理價值觀處在一種模糊狀態(tài)。而一旦處于低算法倫理水平的算法工程師道德警惕有所松懈,那么就有很大可能造成算法倫理失范”。[3]因此,通過行業(yè)規(guī)范和行業(yè)培訓等手段切實提高算法工程師的算法倫理水平,加強其對個人信息重要性的評估,促使他們能夠積極主動地承擔用戶隱私侵權的責任,才能夠有效地保護新聞機器人寫作的健康發(fā)展。
2.提高用戶隱私素養(yǎng)
對用戶的隱私素養(yǎng)教育應當從自我認知、態(tài)度和行為等多個層面入手。首先,引導媒體用戶尤其是老年人群體和未成年人群體建立對自身隱私素養(yǎng)正確的認識和評價,提高其隱私保護的自覺意識和邊界意識,防止由自身認知偏差帶來更多的隱私信息泄露。其次,采取學校教育與社會教育相結合的方式,向用戶普及隱私保護知識,提升用戶對算法的了解和認識,引導用戶對所使用的媒體進行批判性思考。增強用戶在個人信息管理中的主動性,當用戶隱私遭受侵犯時,能夠及時采取補救措施并運用《個人信息保護法》等法律武器捍衛(wèi)自身權益。[4]
用戶數(shù)據是機器人新聞寫作中最重要的生產資料。無視機器人新聞寫作過程中的用戶隱私保護問題,在給用戶帶來更多隱私泄露風險的同時,還可能引發(fā)“寒蟬效應”,使用戶對智能媒體的不信任程度持續(xù)加深甚至放棄使用。反之,對用戶信息的過度保護,也可能導致用戶信息利用成本過高,阻礙媒體行業(yè)的健康發(fā)展,甚至損害公共利益。因此,只有政府、媒體和用戶等多方協(xié)同努力,對機器人新聞寫作中的隱私保護問題進行明確、規(guī)范和監(jiān)管,才能讓機器人新聞寫作更加可用、可靠、可控,走上健康和諧、可持續(xù)發(fā)展的道路。
[本文為遼寧省教育廳科學研究經費項目“智能媒體時代的媒體隱私侵權問題與救濟路徑研究”(項目編號:JJW202015404)階段性成果]
參考文獻:
[1]高菲,王晴川.人工智能聊天機器人ChatGPT的媒介屬性、影響與局限[J].新聞愛好者,2023(4):36-39.
[2]顧理平.整合型隱私:大數(shù)據時代隱私的新類型[J].南京社會科學,2020(4):106-111+122.
[3]袁帆,嚴三九.模糊的算法倫理水平:基于傳媒業(yè)269名算法工程師的實證研究[J].新聞大學,2020(5):112-124+129.
[4]林碧烽,范五三.從媒介本位到用戶至上:智媒時代隱私素養(yǎng)研究綜述[J].編輯學刊,2021(1):36-42.
作者簡介:袁媛,遼寧工業(yè)大學文化傳媒與藝術設計學院副教授(錦州 121001);劉明,遼寧工業(yè)大學科技處講師(錦州 121001)。
編校:張紅玲