【摘要】隨著科學(xué)技術(shù)的發(fā)展,人工智能已經(jīng)廣泛運用于社會各個方面,新聞傳播領(lǐng)域亦深受其影響,往媒介智能化的方向不斷靠近。人工智能的發(fā)展,很大程度上都得益于算法和大數(shù)據(jù),但是在關(guān)注算法和大數(shù)據(jù)帶來的極大便利的同時,也要思考:算法作為技術(shù)賦權(quán)時代的一種權(quán)力,是否真的能更好地為社會提供服務(wù)?
【關(guān)鍵詞】人工智能;媒體智能化;算法理論;新聞傳播
中圖分類號:TN92? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識碼:A? ? ? ? ? ? ? ? ? ? ?DOI:10.12246/j.issn.1673-0348.2021.04..030
算法是解決特定問題的一系列操作步驟。但是,如果一個算法存在缺陷,或者在解決某種問題的時候有不足之處,那么這一種算法的合理性就要受到質(zhì)疑。在媒介智能化飛速發(fā)展的這幾年,空間復(fù)雜度與時間復(fù)雜度對人工智能的算法進(jìn)行了考驗,發(fā)現(xiàn)媒介智能的算法在倫理層面,存在著不可避免的問題。算法在媒體行業(yè)的一系列運用被稱為“算法新聞”,那么“算法新聞”又存在著什么樣的倫理問題?
1. “算法新聞”的倫理問題窺探
算法在被用來清晰、準(zhǔn)確地完成待定任務(wù)的時候,既高效又準(zhǔn)確的算法可能在理論上是好的算法,但是在道德上并非如此。算法在技術(shù)的幫助下形成的一系列邏輯語言,而這其中的邏輯并沒有被賦予道德上的評判標(biāo)準(zhǔn)。孫保學(xué)認(rèn)為, 人工智能算法倫理研究的內(nèi)涵即為算法在道德上的可接受性問題。這種可接受性的價值導(dǎo)向會使研究者的興趣和關(guān)注點主要聚焦于以下兩類算法:人類很難預(yù)測其行為后果的算法, 以及算法造成的事實背后的決策邏輯難以解釋的算法。
“算法新聞”的倫理問題表現(xiàn)在新聞生產(chǎn)的各個方面,本文在探究的過程中,借助學(xué)者多爾總結(jié)提煉的算法新聞的I-T-O框架,對媒介智能化過程中的新聞生產(chǎn)流程進(jìn)行分析如圖1:
在上圖中所表現(xiàn)出的算法新聞的生產(chǎn)流程包括:輸入、處理、生成?;谝陨先N問題,在下文中,筆者對新聞生產(chǎn)的三個流程,從算法黑箱、算法偏見、算法道德合理性等幾個角度,對新聞傳播領(lǐng)域中,算法存在的具體倫理問題進(jìn)行分析。
1.1 算法“黑箱”
“黑箱”是控制論中的概念。黑箱理論,是指對特定的系統(tǒng)開展研究時,人們把系統(tǒng)作為一個看不透的黑色箱子,研究中不涉及系統(tǒng)內(nèi)部的結(jié)構(gòu)和相互關(guān)系,僅從其輸入輸出的特點了解該系統(tǒng)規(guī)律,用黑箱方法得到的對一個系統(tǒng)規(guī)律的認(rèn)識。算法的“黑箱”主要表現(xiàn)在數(shù)據(jù)的處理過程中。
根據(jù)精準(zhǔn)定位,因為你是誰,才能決定推薦什么樣的信息給你,而這個邏輯任務(wù)是在“黑箱”中完成的。提到精準(zhǔn)定位,“今日頭條”不得不談?!敖袢疹^條”因為其精準(zhǔn)推送備受大眾的關(guān)注,它能夠?qū)ψx者瀏覽過的信息的內(nèi)容、時長、類型等做精準(zhǔn)分析,而后對用戶進(jìn)行其可能感興趣的內(nèi)容的推送,這也就是所謂的“算法分發(fā)”?!敖袢疹^條”在它的內(nèi)容分發(fā)過程中做到了“千人千面”,即沒有兩個人會收到完全一樣的信息,它的信息推送的核心就是算法。在這里,算法程序和工作原理作為知識, 被集成于某種框架之中,對開發(fā)者、設(shè)計者而言是已知的知識,對受眾或用戶則構(gòu)成了一個“技術(shù)黑箱”。
技術(shù)使得這種精準(zhǔn)推送成為可能,人工智能技術(shù)可以做出很多復(fù)雜的決定, 但開發(fā)人員卻很難識別或解釋其決策背后的邏輯原理, 在其輸入層與輸出層之間的“黑箱”是不透明的,那么它所導(dǎo)致的后果是沒有辦法預(yù)測的。算法的“黑箱”之所以難以被打開,是因為它本身就是在一個不透明的環(huán)境中完成的,復(fù)雜的邏輯運算、牽涉多方面的隱私等問題讓這個“黑箱”越發(fā)神秘。
1.2 算法的道德合理性
現(xiàn)階段人工智能的算法存在著很多道德問題。因為其算法模擬的是人腦的工作模式,系統(tǒng)非常復(fù)雜,所以目前還沒有明確的數(shù)據(jù)存儲或者分析的方式。所以在道德上,存在缺乏人文關(guān)懷、數(shù)據(jù)安全受到威脅等問題。數(shù)據(jù)安全主要存在于數(shù)據(jù)的輸入階段,缺乏人文關(guān)懷主要存在于算法新聞的生成階段。
算法的道德物化在于積極主動的把道德規(guī)范放到算法當(dāng)中,使算法在幫助人們解決問題的時候能夠發(fā)揮更大的作用。新華社推出的AI主播,騰訊的機(jī)器人寫作,都是“人工智能+媒體”的巨大嘗試,這樣的創(chuàng)新無疑在很大程度上激發(fā)了市場的活力。但是我們必須要去探究算法推薦到底能否去判斷事件的真?zhèn)?,同時技術(shù)的壟斷在不斷加強(qiáng)行業(yè)內(nèi)部的知識鴻溝上的問題。
AI主播是在模擬真人的基礎(chǔ)上而形成的。它通過語音合成、唇形合成、表情合成以及深度學(xué)習(xí)等技術(shù),克隆出具備和真人主播一樣播報能力的“AI合成主播”。它的出現(xiàn)一時間在行業(yè)內(nèi)掀起了軒然大波,但是技術(shù)畢竟是冷冰冰的邏輯與數(shù)據(jù),AI主播在快捷、高效的同時,并沒有形成鮮明的個性。它不存在人文關(guān)懷,新聞的確是理性的,但是一切理性的都是建立在對世界的關(guān)照之上,新聞的理性的背后存在著新聞工作者的價值判斷和情感積淀。從道德的角度來判斷,AI主播作為電子的復(fù)制品,對人類直播的魅力與個性,始終望其項背。
與此同時,數(shù)據(jù)安全問題也備受關(guān)注。算法的精準(zhǔn)定位是建立在對受眾已接受信息的分析的基礎(chǔ)上,也就是說,在整個算法新聞生產(chǎn)的第一步,數(shù)據(jù)的輸入階段,是建立在對信息的完全掌握的基礎(chǔ)上。我們在下載某一個新聞客戶端時,它會對我們的地理位置、興趣愛好等各方面做全面調(diào)查,這已經(jīng)是數(shù)據(jù)安全隱患的開始了。2018年,英國“劍橋公司分析事件”震驚了世人,大量的數(shù)據(jù)泄露讓用戶感到害怕。它暴露出了在數(shù)據(jù)便利的時代,我們的隱私能非常輕易地泄露出去,數(shù)據(jù)安全受到極大的威脅。
1.3 算法偏見
因為算法的不斷突破,機(jī)器才能像人一樣智能,才能獨立于人類的干預(yù),為人類提供幫助。算法運用的是數(shù)字、程序的邏輯來完成命令的,所以很多人對算法的信任程度比較高,認(rèn)為某種程度上這是一種公平、理性的象征??墒聦嵅⒎侨绱?,算法是存在偏見的,而且是人為的偏見。算法決策可以再現(xiàn)已有的社會歧視模式, 繼承先前決策者的偏見從而加深流行的不平等。
算法是人為設(shè)計的,人根本不可能是客觀的存在,因此算法必定不會是絕對客觀的。
3. 解決算法倫理問題的建議
算法倫理問題的顯露一方面體現(xiàn)出技術(shù)的不成熟,技術(shù)主導(dǎo)下形成的新的新聞生產(chǎn)模式,在初期必然會遭遇很多問題;另一方面,也在不斷警醒社會和相關(guān)從業(yè)者,要防患于未然,同時為已經(jīng)出現(xiàn)的問題尋求合適的解決方案。在這一部分,筆者結(jié)合當(dāng)下實際,從上述問題從兩個方面對算法的倫理問題給出建議。首先,加強(qiáng)學(xué)科間的交流,打破技術(shù)壁壘。算法黑箱問題帶來的算法不透明、信息隱患等問題,從根本而言,就是技術(shù)上的不足。筆者在上文中提到的很多問題只有在強(qiáng)有力的技術(shù)保障下才能解決。學(xué)科間的交流是為了打破技術(shù)壁壘,但是又不僅僅體現(xiàn)在技術(shù)層面,倫理學(xué)、法學(xué)等相關(guān)領(lǐng)域的介入,可以為建立更好的算法環(huán)境提供邏輯和實際上的可能性。其次,加強(qiáng)法律法規(guī)建設(shè),提高從業(yè)人員道德素養(yǎng)。面對人工智能技術(shù)的介入而引發(fā)的倫理問題,不僅需要從業(yè)人員提高專業(yè)素養(yǎng),完善相關(guān)法律法規(guī)建設(shè)也是非常有必要的。要通過法律和道德的雙重約束為算法的有效實行提供良好的社會環(huán)境。
加強(qiáng)法規(guī)建設(shè)分為兩類,一方面是加強(qiáng)對算法本身的監(jiān)管。算法因其復(fù)雜性和多重性,在管理上存在許多漏洞。針對這一點,可以根據(jù)每一種類別的不同而制定相應(yīng)的法規(guī),從法律上來進(jìn)行約束。另一方面是對從業(yè)人員的法律約束,技術(shù)本身是存在界限的,只有少數(shù)人掌握了技術(shù),對這一類人的要求也至關(guān)重要。道德的建設(shè)是對人意識的提升,算法的倫理問題的解決離不開專業(yè)人員的倫理意識。國外有些大學(xué)也已經(jīng)開展相關(guān)領(lǐng)域的課程,國內(nèi)也要多向優(yōu)秀的同行學(xué)習(xí),借鑒。
4. 結(jié)論
算法新聞是技術(shù)發(fā)展過程中的必然,隨著科技革命的不斷深入,會不斷有新的、更為前沿的技術(shù)出現(xiàn),并被運用到各個行業(yè)。每一種新的技術(shù)的出現(xiàn)到廣泛運用,都會對原有的機(jī)制產(chǎn)生巨大沖擊?!八惴ㄐ侣劇痹谒粩喟l(fā)展和被接受的過程當(dāng)中,已逐步融入主流科技領(lǐng)域,成為傳統(tǒng)媒介的外延。這樣的熱度會持續(xù)多久,其中所涉及的倫理問題是否能被及時解決,接下來的行業(yè)研究領(lǐng)域是否會是以“算法新聞”為契機(jī),往更加精準(zhǔn)的方向發(fā)展,都是需要我們不斷關(guān)注并研究的課題。
參考文獻(xiàn):
[1]莫宏偉.強(qiáng)人工智能與弱人工智能的倫理問題思考[J].科學(xué)與社會,2018,8(01):14-24.
[2]李倫 劉夢迪 胡曉萌 吳天恒.智能時代的數(shù)據(jù)倫理與算法倫理[J/OL].大連理工大學(xué)學(xué)報(社會科學(xué)版),2019(03)[2019-05-02].https://doi.org/10.19525/j.issn1008-407x.2019.03.015.
[3]王茜.打開算法分發(fā)的“黑箱”——基于今日頭條新聞推送的量化研究[J].新聞記者,2017(09):7-14.
[4]熊敏.內(nèi)容智能分發(fā)平臺對新聞傳播的價值創(chuàng)新分析——以“今日頭條”為例[J].編輯學(xué)刊,2017(02):94-99.
[5]樓建坤,陳澤璽,國秋華.算法的把關(guān)研究——以今日頭條App為例[J].新媒體研究,2017,3(17):18-20.
[6]尚帥.傳播的興趣偏向和渾然不覺的符號暴力——基于《今日頭條》的算法控制研究[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2018,40(10):58-62.
[7]周信達(dá).從人工智能的應(yīng)用嘗試看新聞業(yè)的未來趨勢——以AI合成主播為例[J].青年記者,2019(09):71-72
[8]張幟.智媒時代對新聞生產(chǎn)中算法新聞倫理的思考[J].海南大學(xué)學(xué)報(人文社會科學(xué)版),2019,37(02):70-78.
[9]方師師.算法機(jī)制背后的新聞價值觀——圍繞“Facebook偏見門”事件的研究[J].新聞記者,2016(09):39-50.
作者簡介:丁悅,新疆伊犁,碩士研究生,單位山東大學(xué)新聞傳播學(xué)院,研究方向文化傳播。