• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      智能媒體視域下媒介倫理規(guī)范的再思考

      2022-05-30 10:48:04劉俊麟程悅王超群
      新聞潮 2022年2期
      關(guān)鍵詞:人工智能

      劉俊麟 程悅 王超群

      【摘要】智能媒體對傳統(tǒng)媒介倫理規(guī)范帶來不小的影響,傳統(tǒng)媒介規(guī)范已有諸多不適用。要建構(gòu)一個能夠適應(yīng)智能媒體時代的新媒介倫理規(guī)范,需要遵循以下基本原則,如算法透明度原則、自主選擇權(quán)原則、媒介技術(shù)分配公平原則、人文關(guān)懷原則等。

      【關(guān)鍵詞】人工智能;算法技術(shù);媒介倫理規(guī)范

      由于人工智能的出現(xiàn),記者和編輯具有了極強的可替代性,媒體行業(yè)正遭遇新一輪技術(shù)革命的沖擊,新時代背景下,如何進(jìn)行新的規(guī)范建構(gòu)成了近年來學(xué)者們重點研究的課題。

      一、智能媒體的出現(xiàn)對傳統(tǒng)媒介倫理規(guī)范的影響

      人工智能的興起,不僅是對傳統(tǒng)新聞傳播方式的革故鼎新,更是對傳統(tǒng)媒介倫理規(guī)范發(fā)起了新的挑戰(zhàn)。

      (一)媒介倫理規(guī)范主體發(fā)生變化,傳統(tǒng)媒介規(guī)范有諸多不適用

      媒介倫理是指媒體從業(yè)者的行為可能會對他人產(chǎn)生消極影響的情況下應(yīng)該遵循的指導(dǎo)方針或道德準(zhǔn)則[1],并對新聞的生產(chǎn)傳播等領(lǐng)域進(jìn)行“把關(guān)”。人工智能技術(shù)的廣泛應(yīng)用導(dǎo)致信息的傳播者和受傳者在交流中的地位發(fā)生變化,媒介倫理規(guī)范的主體也隨之從原本專業(yè)的新聞從業(yè)人員向程序工程師和自媒體平臺等進(jìn)行轉(zhuǎn)變,普通受眾、自媒體行業(yè)從業(yè)者、新媒體平臺同時扮演著信息接收者和傳播者兩個角色。我國原有的媒介倫理規(guī)范主要是針對專業(yè)的新聞從業(yè)人員和電視臺、報社等傳統(tǒng)媒體平臺,對于智媒時代的新聞生產(chǎn)模式已有諸多不適用。

      在新聞生產(chǎn)過程中,人工智能的使用缺乏具體條例進(jìn)行約束和規(guī)范,加劇了新聞生產(chǎn)領(lǐng)域的行業(yè)亂象和媒介失范?!八惴ǖ臒o價值性”一直在混淆人們對于人工智能制作的新聞的真實性判斷[2]:人工智能沒有情感,不可能產(chǎn)生情感偏向,受眾獲取的信息也就不是作者經(jīng)過有意或無意情感加工的“裝飾品”。既然算法無價值,那么由其導(dǎo)致的虛假新聞等問題也就找不到承擔(dān)責(zé)任的主體,媒介監(jiān)管陷入困境。某平臺創(chuàng)始人在接受采訪時說,我們不是媒體,我們只是一家具有媒體屬性的技術(shù)公司。借“技術(shù)中立”,致使一些新媒體亂象頻發(fā),對種種低俗、煽動群體對立甚至違法內(nèi)容放任不管。聲稱自己不是媒體組織,那么原有的媒介倫理規(guī)范也就制約不了。平臺想成了游離在制度之外的“自由人”,這不是該有的態(tài)度。

      (二)媒介倫理規(guī)范的范圍擴展,技術(shù)被納入規(guī)范體系中

      無論是傳統(tǒng)媒體,還是新媒體,都需要在新聞?wù)鎸嵭?、客觀性、采訪方式、人文關(guān)懷等方面做出規(guī)范。而隨著人工智能的加入,媒介倫理規(guī)范的范圍也逐漸由對新聞內(nèi)容和采訪行為的規(guī)范擴展到了對技術(shù)的規(guī)范。

      作為新興生產(chǎn)力,人工智能擁有繁多的數(shù)據(jù)支撐,編寫新聞的效率很高,因而在經(jīng)濟新聞和時政新聞等方面得到了廣泛應(yīng)用,但“數(shù)據(jù)套模板”[3]的寫作方式難免造成新聞結(jié)構(gòu)呈現(xiàn)方式單一?!凹夹g(shù)中立”的觀點一直在“綁架”人們的思想。海德格爾認(rèn)為技術(shù)是“從遮蔽狀態(tài)而來進(jìn)入無蔽狀態(tài)中”[4],而現(xiàn)代技術(shù)在“解除遮蔽”的同時,又創(chuàng)造了新的“遮蔽”,這并非一定是程序員有意的數(shù)據(jù)歧視或者偏向,甚至完全可能是他們“對關(guān)鍵詞的選取和價值判斷不同”而造成的結(jié)果上的差異,此外,由于技術(shù)本身存在的復(fù)雜性和不確定性,從而產(chǎn)生了“信息遮蔽”[5],對人們獲取真相造成阻礙,“將新聞生產(chǎn)過程推到更深的‘黑箱”。在新聞傳播中,許多新媒體平臺使用標(biāo)簽將各類新聞區(qū)分開來,以便受眾能按照需求盡快檢索,此時不同的資訊就會經(jīng)過算法記錄呈現(xiàn)給受眾,以滿足受眾的個性化需求。值得注意的是,“人工智能技術(shù)將媒體對公眾進(jìn)行議程設(shè)置的權(quán)利轉(zhuǎn)移到了社交關(guān)系的維系和算法生成等方面[6]”,受眾在新媒體平臺的瀏覽內(nèi)容被算法記錄后,推薦的大多是同質(zhì)化內(nèi)容,不利于全面認(rèn)知周圍社會環(huán)境,從而導(dǎo)致個人和社會接收到的信息出現(xiàn)“斷裂”,造成“信息繭房”和“數(shù)字鴻溝”,甚至可能令受眾思維僵化,不利于公眾媒介素養(yǎng)的提升[7]。

      算法技術(shù)的不透明和理解算法程序的高門檻使得算法運行的過程依然對受眾隱私權(quán)的尊重以及內(nèi)容客觀性存有相當(dāng)大的疑問空間,不僅是對傳統(tǒng)“把關(guān)人”模式的顛覆,在一定程度上也可能導(dǎo)致新聞媒體責(zé)任的缺位。

      (三)媒介倫理規(guī)范重點的遷移,更加注重技術(shù)透明性的要求

      傳統(tǒng)的媒介倫理強調(diào)新聞的真實性,而在算法技術(shù)介入后,由于技術(shù)理性帶來的遮蔽,對新聞?wù)鎸嵉囊缶筒荒苤煌A粼凇皽?zhǔn)確”上,更應(yīng)相應(yīng)轉(zhuǎn)為對技術(shù)透明性的強調(diào),通過設(shè)計公開透明合理的程序來制作新聞,從而達(dá)到真實性的要求。

      網(wǎng)絡(luò)傳播時代,群體傳播呈現(xiàn)出匿名化的特征,在這個背景下,“透明化”成為“解蔽”的最好方式,應(yīng)當(dāng)成為新的媒介倫理規(guī)范的基石。倘若媒介平臺利用算法對網(wǎng)絡(luò)上的用戶信息不加篩選地獲取和使用,對用戶隱私的保護(hù)也是個不小的挑戰(zhàn)。

      人工智能在沒有得到相應(yīng)的程序控制之前也不懂得如何寫稿,過濾信息、集結(jié)成文、智能分發(fā)稿件等都需要經(jīng)過大量的深度學(xué)習(xí)才能實現(xiàn),對受眾精準(zhǔn)推薦內(nèi)容也是基于媒體準(zhǔn)確抓住受眾興趣的需求。人工智能在新聞寫作的整個過程都伴隨著人類的能動意識,其對新聞事件和網(wǎng)絡(luò)信息的價值判斷也是通過人類創(chuàng)造的程序來賦予的,媒體平臺有責(zé)任把內(nèi)部算法運行模式透明化,將信息和數(shù)據(jù)的使用情況公開,有助于人們穿透“技術(shù)遮蔽”的迷霧,更好地理解智媒時代的新聞報道。

      二、智能媒體視域下建構(gòu)新媒介倫理規(guī)范應(yīng)遵循的基本原則

      許多學(xué)者從多角度、多視野對當(dāng)下的媒介倫理失范現(xiàn)象提出了新的媒介倫理規(guī)范準(zhǔn)則。基于國外、國內(nèi)學(xué)界與業(yè)界的積極嘗試與討論,歸納總結(jié)出以下幾條媒介倫理規(guī)范原則。

      (一)下放“話語權(quán)”,提高算法透明度

      許多研究者嘗試提出一系列措施將算法技術(shù)的設(shè)計、運行透明公開化。我國也進(jìn)行了相關(guān)法律的嘗試,將算法自動化決策的透明度納入信息保護(hù)的重要一環(huán),如《中華人民共和國個人信息保護(hù)法(草案)》《中華人民共和國個人信息保護(hù)法(草案二次審議稿)》。陳昌鳳、張夢提出,算法技術(shù)要真正做到透明公開,不僅僅是簡單地公開算法系統(tǒng)運行的一系列數(shù)據(jù)信息,需要考慮到受眾的媒介素養(yǎng)、知識水平等因素,才能最大限度、有效地實施算法透明度。讓用戶了解到新聞算法技術(shù)使用數(shù)據(jù)的具體方法和過程,媒介組織需要將數(shù)據(jù)加以文字描述,轉(zhuǎn)化為讓受眾可普遍理解的語義信息[8]。基于此,媒介倫理可以作如下規(guī)范:一是使用算法系統(tǒng)主體有義務(wù)將相關(guān)信息以及生成過程向主管部門以及社會公眾公開,保障算法解釋權(quán)。二是將用戶納入實施算法透明度考量范圍,明確責(zé)任對象。三是轉(zhuǎn)變統(tǒng)一粗放的管理體制,在法律制度層面將算法審計規(guī)則細(xì)化。[9]

      (二)自主選擇,避免偏見歧視

      智媒傳播時代,所生產(chǎn)的新聞表面上看似十分客觀準(zhǔn)確,實則隱藏著信息偏見和歧視。數(shù)據(jù)質(zhì)量參差不齊以及算法推薦的偏差,加劇了社會倫理價值的固化。算法產(chǎn)生的偏見、歧視,是對受眾獲知信息公平的侵蝕,將直接導(dǎo)致“信息繭房”“群體極化”等現(xiàn)象,放之全球范圍,甚至導(dǎo)致民族主義歧視。對此,2013年杰夫貝佐斯收購《華盛頓郵報》后將用戶的選擇發(fā)揮到極致,采用“A/B”測試提升用戶的體驗感。谷歌公司提出的人工智能七大原則中的避免偏見原則明確指出應(yīng)特別注意種族、性別、國籍、宗教等敏感特征。張幟提出在用戶的主體地位不斷凸顯的智媒時代,要更加注重算法推薦內(nèi)容的多樣性、包容性,避免產(chǎn)生非必要的偏見歧視[10]?;诖?,媒介倫理可以做以下規(guī)范:一是保障受眾對算法推薦系統(tǒng)的知情權(quán)以及獲取信息的自主選擇權(quán)。二是規(guī)范算法推薦應(yīng)更加多元化和具備包容性,特別是對文化差異的包容[11]。

      (三)健全法治,明確責(zé)任主體

      算法、技術(shù)只是工具,平臺的責(zé)任不可推卸,內(nèi)容生產(chǎn)、程序開發(fā)、平臺運營各個層面中涉及的主體都應(yīng)該納入媒介規(guī)范范圍內(nèi),需要制定明確細(xì)化的法律法規(guī)進(jìn)行約束[12]。同時平臺自律也是關(guān)鍵,應(yīng)具備責(zé)任意識[13]。日本近期推出的《實施人工智能原則的治理指南》中提出“敏捷治理”模型,根據(jù)不斷變化的條件與環(huán)境,靈活調(diào)整治理方案。基于此,媒介倫理可做以下規(guī)范:一是多元共律,法律以及行政部門的規(guī)章制度作為規(guī)范基本條例,同時媒介組織內(nèi)部也應(yīng)制定規(guī)則,建立追責(zé)機制[14]。二是動態(tài)治理,將法規(guī)制度變成更靈活的工具。三是提高媒介組織素養(yǎng),增強新聞從業(yè)者職業(yè)道德教育。

      (四)維護(hù)公平,媒介技術(shù)均衡分配

      哈佛大學(xué)法學(xué)院伯克曼互聯(lián)網(wǎng)與社會研究中心針對“公平性和非歧視”原則進(jìn)行分析解讀,認(rèn)為每個人都應(yīng)該適用同樣的規(guī)則、獲得信息數(shù)據(jù)的支持,帶來社會福利增值的“公平分配”。我國國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,提到人工智能在各領(lǐng)域的應(yīng)用需要考慮弱勢群體和特殊群體的需求,為其定制第二種可行方案。基于此,媒介倫理可做以下規(guī)范:一是確保受眾公平公正地享受人工智能技術(shù)帶來的便利,同時提供有效地控制風(fēng)險保障措施,以防范算法技術(shù)中的“黑箱”操作帶來的傷害。二是堅持“普惠”原則,推動欠發(fā)達(dá)地區(qū)人工智能教育培訓(xùn)、技術(shù)應(yīng)用等基礎(chǔ)設(shè)施建設(shè),保障各類群體融入人工智能市場的權(quán)利。三是程序開發(fā)更具包容性,體現(xiàn)多樣性和特殊性,使得各類地區(qū)能夠共享人工智能發(fā)展帶來的福利。

      (五)回歸倫理底線,加強人文關(guān)懷

      人工智能技術(shù)的運用,特別是寫稿機器人的出現(xiàn),人的新聞把關(guān)作用被減弱,使得生產(chǎn)的稿件缺乏價值判斷、人文關(guān)懷等。因此,對媒介倫理規(guī)范的重構(gòu),應(yīng)回歸至新聞生產(chǎn)的倫理底線,強調(diào)人文關(guān)懷——對人的尊重、關(guān)心、愛護(hù)和體貼,基于此,媒介倫理可做以下規(guī)范:一是智媒的使用、運營者要注重在人工智能生產(chǎn)出來的新聞中注入人文方面內(nèi)容,培養(yǎng)算法工程師的人文主義精神。二是傳媒工作者與人工智能形成人機互動的生產(chǎn)模式,將算法搜集的事實數(shù)據(jù)與記者的價值選擇結(jié)合,增強人的主體性與能動性[15]。

      三、結(jié)語

      科技發(fā)展日新月異,人工智能技術(shù)已經(jīng)深刻地融入社會各個領(lǐng)域,人們面對的已不再是是否要接受人工智能的問題,而是應(yīng)該如何應(yīng)對人工智能帶來的新問題、新挑戰(zhàn)。全球各國、各地區(qū)的新聞實踐都面臨著重構(gòu)媒介倫理規(guī)范的緊迫性,人工智能帶來的新聞傳播領(lǐng)域的巨大變化,沖擊著傳統(tǒng)媒介倫理規(guī)范,對構(gòu)建基于智媒背景下的媒介倫理規(guī)范重構(gòu)提出了更高的要求。人們應(yīng)時刻關(guān)注全球范圍內(nèi)人工智能技術(shù)在新聞領(lǐng)域的創(chuàng)新應(yīng)用,對其引起的媒介失范進(jìn)行針對性治理,提出相應(yīng)的發(fā)展策略,使人工智能發(fā)展始終與人類的倫理規(guī)范保持一致。

      參考文獻(xiàn)

      [1]約瑟夫·斯特勞巴哈,羅伯特·拉羅斯.今日媒介:信息時代的傳播媒介[M].熊澄宇,等,譯.北京:清華大學(xué)出版社,2002.

      [2]劉文杰.算法推薦新聞的法律透視[J].新聞記者,2019(2):22-29.

      [3]胡慧敏.智媒時代算法推送新聞對媒介倫理的沖擊[J].東南傳播,2019(7): 159-161.

      [4]海德格爾,《海德格爾選集(下卷)》[M].上海:三聯(lián)書店出版社,1996年.

      [5]李凌.智能時代媒介倫理原則的嬗變與不變[J].新聞與寫作,2019(4):5-11.

      [6]馬寧宇.人工智能技術(shù)范式下的媒體創(chuàng)新優(yōu)化與倫理失范[J].新聞知識,2018(9):82-85.

      [7]白燦明.人工智能背景下新聞倫理失范現(xiàn)象研究[J].記者搖籃,2020(5):129-130.

      [8]陳昌鳳,張夢.智能時代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.

      [9]宋華健.反思與重塑:個人信息算法自動化決策的規(guī)制邏輯[J].西北民族大學(xué)學(xué)報:哲學(xué)社會科學(xué)版,2021(6):99-106.

      [10]張幟.智媒時代對新聞生產(chǎn)中算法新聞倫理的思考[J].海南大學(xué)學(xué)報(人文社會科學(xué)版),2019,37(2):70-78.

      [11]張夢,陳昌鳳.智媒研究綜述:人工智能在新聞業(yè)中的應(yīng)用及其倫理反思[J].全球傳媒學(xué)刊,2021,8(1):63-92.

      [12]文遠(yuǎn)竹.智能傳播的倫理問題:失范現(xiàn)象、倫理主體及其規(guī)制[J].中國編輯,2021(9):64-70.

      [13]寧麗麗.新媒體時代的媒介倫理倡導(dǎo)與道德干預(yù):對克利福德·G.克里斯琴斯的訪談[J].國際新聞界,2017,39(10): 45-54.

      [14]盧家銀.數(shù)字化生存中的倫理失范、責(zé)任與應(yīng)對[J].新聞與寫作,2020(12): 28-34.

      [15]潘紅霞.智媒時代智能信息推薦算法的缺陷及正向重構(gòu)[J].未來傳播,2020,27(5):36-41.

      (編輯:沈桂才)

      猜你喜歡
      人工智能
      我校新增“人工智能”本科專業(yè)
      用“小AI”解決人工智能的“大”煩惱
      汽車零部件(2020年3期)2020-03-27 05:30:20
      當(dāng)人工智能遇見再制造
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      AI人工智能解疑答問
      人工智能與就業(yè)
      基于人工智能的電力系統(tǒng)自動化控制
      人工智能,來了
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      人工智能來了
      桃园市| 新源县| 江阴市| 南陵县| 沾益县| 清水河县| 榕江县| 富平县| 鄂州市| 通江县| 沭阳县| 平邑县| 婺源县| 神农架林区| 科尔| 黑河市| 内乡县| 华坪县| 衡阳县| 梅河口市| 平舆县| 手游| 洪泽县| 德昌县| 舟山市| 建湖县| 新建县| 黑山县| 百色市| 繁峙县| 故城县| 奉节县| 临夏市| 上饶市| 拜城县| 浏阳市| 大港区| 镇雄县| 乌拉特后旗| 梓潼县| 杭锦旗|