高慧珂
(河北傳媒學(xué)院 石家莊 050010)
隨著智媒體的發(fā)展,大數(shù)據(jù)、機器人寫作、算法分發(fā)等人工智能技術(shù)慢慢地滲透到新聞信息采編發(fā)的各個環(huán)節(jié),由大數(shù)據(jù)衍生出的算法推薦新聞迅速崛起。不可否認,這改變了原有的信息傳播方式、生活方式甚至社會結(jié)構(gòu),對于實現(xiàn)新聞分發(fā)、增強受眾黏性具有重要意義。但算法是一種復(fù)雜的技術(shù),當(dāng)前,算法技術(shù)作為一種被廣泛運用的新興技術(shù),本身發(fā)展還不成熟,在實際的運用中,其引發(fā)的倫理問題也無法準確全面地預(yù)測和解決,亟須建構(gòu)多主體發(fā)力的健康的算法推薦生態(tài)環(huán)境。所以,如何加強技術(shù)控制,建立合理的信息管理制度,提高信息治理能力的現(xiàn)代化,對智能生產(chǎn)力的安全釋放至關(guān)重要[1]。
算法是人工智能的核心技術(shù),人工智能算法是一種利用機器深度自主學(xué)習(xí)能力對現(xiàn)實生活中大量分散的、碎片化的數(shù)據(jù)信息進行自動化處理的機制[2]。它的運行邏輯是通過大量搜集平臺用戶的信息使用蹤跡,如點贊、評論、轉(zhuǎn)發(fā)等,運用相關(guān)數(shù)據(jù)模型分析,預(yù)測并推送用戶可能感興趣的內(nèi)容。算法分發(fā)技術(shù)在我國的使用可以追溯到2012年,“今日頭條”成為我國第一個以個性化推送為特色的新聞聚合平臺。之后,其他平臺紛紛效仿,引入算法技術(shù)。如今,算法技術(shù)深入到我們生活的方方面面。我們經(jīng)常會發(fā)現(xiàn)當(dāng)我們在淘寶搜索一件商品之后,可能會在其他平臺多次看到該類型產(chǎn)品相關(guān)信息的推送。
算法的“機制化”是指根據(jù)算法而生成的具有普遍性、連續(xù)性、穩(wěn)定性和恒久性的自動決策化機制[2]。以新聞智能推送算法為例,算法推薦新聞平臺將實現(xiàn)自身利益最大化的算法嵌入新聞傳播過程中,以便快速有效地檢測出新話題和熱點話題,以此構(gòu)建一套新聞推送的日常機制[3]。這種“機制化”打破了傳統(tǒng)媒體中職業(yè)媒體人的把關(guān)原則,將信息的把關(guān)任務(wù)無形的方式讓渡給沒有情感的冰冷機器,這必定會產(chǎn)生媒介倫理問題。
真實是新聞的生命,是新聞工作的第一要義,也是新聞工作者必須遵循的工作準則。算法分發(fā)機制節(jié)省了生產(chǎn)者對新聞的篩選、甄別,實現(xiàn)了自動化精準推送,這大大提高了新聞的分發(fā)效率,節(jié)省了人力成本。但是依據(jù)算法邏輯,它是依據(jù)大量抓取的數(shù)據(jù)來分析用戶喜好并推送信息的,如果數(shù)據(jù)源本身存在失實和偏向性,那么算法分發(fā)也相應(yīng)地會推送虛假和非客觀的新聞信息。如2008年,Youtub就因為算法失誤傳播了關(guān)于佛羅里達州槍擊案陰謀論的假新聞。新聞“真實性”“客觀性”在新聞界的重要地位意味著算法分發(fā)技術(shù)正在不斷挑撥新聞業(yè)底線和神經(jīng),對新聞專業(yè)主義造成嚴重威脅,算法推薦技術(shù)和新聞的基本原則之間的矛盾日漸加劇。
算法分析的前提是收集大量有關(guān)個人的數(shù)據(jù),這些數(shù)據(jù)涉及到個人隱私問題,而隱私會不會遭到轉(zhuǎn)賣或者惡意使用完全依靠平臺方的自律,沒有外在的強制力作約束,因此,算法分發(fā)在一定程度上對個人隱私造成威脅。如2008年有網(wǎng)友發(fā)現(xiàn)在更換了一個通訊錄空白的手機后依然被推薦了原手機中通訊錄好友注冊的今日頭條賬號,后來該網(wǎng)友將今日頭條起訴至法院。
“信息繭房”(InformationCocoons)由美國學(xué)者桑斯坦提出,它意味著我們只聽我們選擇和愉悅我們的東西,久而久之我們將會困頓于自己思想的牢籠之中。當(dāng)下,算法是否導(dǎo)致信息繭房這一說法在學(xué)界依然存在爭議,但筆者堅持認為算法分發(fā)技術(shù)正加速著桑斯坦所提出的“信息繭房”效應(yīng)的形成。
首先,算法分發(fā)總是使人們看到他們自己想看的,這不利于他們拓展閱讀面和知識面,反之還會固化他們的原有想法,不利于新知識和新觀念的接受與更新;其次,受個人興趣驅(qū)使,算法推薦會使個人的視野局限在很小的圈子或者繭房之中,不利于個人對社會的真實和整體認知;最后,對性、暴力、色情等負面信息的關(guān)注是人之本性,這種本性在算法機制下必然會被放大,使相關(guān)信息充斥整個網(wǎng)絡(luò),并在擬態(tài)環(huán)境作用下深刻影響人們的認知框架和價值選擇。網(wǎng)絡(luò)中的群體極化和沉默的螺旋等傳播現(xiàn)象也可能會在算法機理下隨著鋪天蓋地的信息重復(fù)行為而不斷加強。這種現(xiàn)象的最終指向則是主流價值觀逐漸被解構(gòu),輿論走向難以把控,公眾缺乏對社會的統(tǒng)一認同而走向割裂。
在智媒體分發(fā)背景下,算法推薦有擴大知識鴻溝的趨勢。雖然移動媒體已經(jīng)普及,但是在很多貧困地區(qū),人們依然不具備這樣的硬件條件,或者即使具備硬件條件但相應(yīng)的媒介使用能力依舊欠缺。因此,相對于這部分群體,社會經(jīng)濟地位高的人依然能夠借助算法技術(shù)優(yōu)勢更快更多地獲取信息。按照蒂奇諾的“知溝理論”,這必將導(dǎo)致兩者之間知溝的不斷擴大。
在當(dāng)今社會,社會經(jīng)濟地位高的人往往具有高學(xué)歷背景和高知識水平的特征,而社會經(jīng)濟地位低的人則恰恰相反。社會經(jīng)濟地位高的人往往會下意識關(guān)注能夠提升其個人能力和素養(yǎng)的信息內(nèi)容,而社會經(jīng)濟地位低的人往往受興趣驅(qū)使關(guān)注一些低俗信息。長期以往,兩者之間的知溝也會呈現(xiàn)擴大的趨勢。兩者之間能力差距的擴大也會導(dǎo)致社會財富越來越多地被少數(shù)精英所掌握,呈現(xiàn)出社會階層的“馬太效應(yīng)”。因此,算法分發(fā)技術(shù)使由于經(jīng)濟條件和個人偏好因素所導(dǎo)致的知溝擴大現(xiàn)象有加速趨勢。
技術(shù)是中性的,它本身不承載任何道德價值,其對社會產(chǎn)生什么性質(zhì)的影響完全由生產(chǎn)和使用它的人所決定。在智能化信息生產(chǎn)和分發(fā)的背景和趨勢下,我們有必要認清倫理風(fēng)險的根源所在,通過有效手段治理其導(dǎo)致的諸多問題。這需要從多主體入手,共同建構(gòu)健康的算法推薦生態(tài)環(huán)境。
一個良性社會的運轉(zhuǎn)需要主流價值觀的感召和引領(lǐng),而其實現(xiàn)的基礎(chǔ)是公眾對主流價值觀的普遍認同。傳統(tǒng)的算法推薦以受眾興趣為分發(fā)依據(jù),這將會解構(gòu)主流價值觀,不利于社會整合。因此,在技術(shù)方面,平臺要優(yōu)化算法技術(shù),預(yù)設(shè)好主流價值立場和道德立場,用主流價值觀完成對算法的規(guī)訓(xùn),確保用戶獲取到媒體平臺分發(fā)的主流價值產(chǎn)品[4]。在具體操作中,編輯可將失范內(nèi)容上傳至專門的數(shù)據(jù)庫,通過算法的關(guān)鍵詞屏蔽技術(shù)將這些內(nèi)容自動排除在算法推送之外[5]。另外,為了豐富內(nèi)容推送,平臺還可以考慮以用戶點贊、評論、轉(zhuǎn)發(fā)、社交圈層、瀏覽記錄等指標為推送依據(jù)的基礎(chǔ)上,考慮加入內(nèi)容的評價系統(tǒng)、熱度系統(tǒng)、專業(yè)系統(tǒng)等指標[5],為用戶提供更豐富更有價值的信息,避免受眾成為興趣的奴隸。人民日報打造的客戶端“央視頻”就是利用主流價值觀駕馭算法,構(gòu)建了“主流價值+算法分發(fā)”為一體的分發(fā)模式,其推薦機制除了以點擊量、瀏覽量、點贊量等常規(guī)指標為依據(jù),還創(chuàng)新性地加入了價值傳播因子、動態(tài)平衡網(wǎng)絡(luò)、社會網(wǎng)絡(luò)評價體系等和正能量相關(guān)的指標,這種算法推薦機制平衡了受眾興趣和主流價值觀,提高了媒體的輿論引導(dǎo)能力,使媒體可以在重大的公共事件中把握風(fēng)向,凝聚共識。同時,也有利于保障優(yōu)質(zhì)內(nèi)容觸及網(wǎng)民,避免受眾被偏好牽著鼻子走,從而陷入信息繭房之中。在2021年10月15日的央視頻APP搜索框中,熱搜榜排名前五的分別是《神十二航天員給神十三乘組分享經(jīng)驗》《全國住房公積金小程序正式上線》《第130屆廣交會》《電影中的“伍千里”真實存在》《工信部下架96款侵害用戶權(quán)益APP》,這些事件都是剛剛發(fā)生的熱點事件,全網(wǎng)關(guān)注和討論熱度較高,且內(nèi)容兼具娛樂和社會新聞等多種類型,從中可以看出主流價值觀和受眾興趣相結(jié)合的算法推薦機制。
傳統(tǒng)的算法分發(fā)基于自動化機制,不需要人工的參與,這顯然使得算法技術(shù)在辨別假新聞和處理含有情感價值的信息面前力不從心,并由此會對新聞的“真實性”和“客觀性”造成威脅。因此,筆者認為可以加入人工審核元素,形成“人機共審”的協(xié)作機制,減少和彌補技術(shù)帶來的誤差,更好地引導(dǎo)新聞價值回歸本位,保證新聞的“真實性”和“客觀性”。
我們可以從他律和自律兩個方面來規(guī)劃算法分發(fā)技術(shù)的使用。在他律方面,首先,政府要制定與之相適應(yīng)的法律條文,使得有法可依。在法律制定方面,雖然很多學(xué)者多年以來都推崇“算法透明”制度化,但是在很多國家,算法透明依然沒有包含在法律之中。這是因為在很多國家,算法都被認為是一種商業(yè)機密,一旦這個秘密公之于眾,很多國家或者企業(yè)就會趨之若鶩,隨意地拿走可能是別人費勁波折得出的技術(shù)成果。因此,算法透明化是不利于技術(shù)創(chuàng)新的。筆者認為,法律的制定還是要從具體的操作層面入手。如加強對個人信息的規(guī)劃采集,規(guī)定平臺在注冊之前要有相應(yīng)的隱私保護協(xié)議,并通過用戶的同意之后才可以使用用戶信息。其次,建立監(jiān)管評議評審機制。行業(yè)主管部門及媒體單位必須履行好監(jiān)管責(zé)任,加大對“算法推薦”的執(zhí)法檢查力度,對違法責(zé)任者予以懲戒,增強法律教育效果。同時倡導(dǎo)建立行業(yè)倫理評議評審委員會組織,開展內(nèi)容監(jiān)測評議工作,定期向社會公眾公開媒體機構(gòu)倫理的公共社會責(zé)任承擔(dān)情況,約束或減少失范行為[4]。
平臺的自律也很重要。平臺要凝聚共識,明確智媒體信息傳播倫理原則,引導(dǎo)建立統(tǒng)一的行業(yè)規(guī)范,定制大數(shù)據(jù)、人工智能在智媒體中的使用規(guī)則[4],促進行業(yè)自律規(guī)范倫理道德體系建設(shè)。
學(xué)者袁帆和嚴三九通過有效調(diào)查問卷對現(xiàn)階段傳媒業(yè)算法工程師的算法倫理水平進行考量。結(jié)果顯示,目前傳媒業(yè)算法工程師的算法倫理水平整體處于模糊狀態(tài),且工程師的算法倫理水平和學(xué)歷背景并沒有太大關(guān)系[6]。這說明計算機專業(yè)的工程師并不比非科班出身的工程師的算法倫理水平高,而且計算機專業(yè)對算法倫理價值觀念的教育還存在滯后性,未得到普及和重視。因此,一方面,筆者認為企業(yè)內(nèi)部要主動對新進算法工程師和原有工程師進行系統(tǒng)的算法倫理培養(yǎng),建構(gòu)一套完整的內(nèi)部倫理準則和行為規(guī)范,從思想和行為、內(nèi)力和外力兩方面打造企業(yè)的價值觀體系。另一方面,要為計算機相關(guān)專業(yè)適時更新或增設(shè)傳媒業(yè)的算法倫理知識,使算法工程師在步入社會之前就在潛移默化中意識到算法技術(shù)對社會的影響,意識到作為一個合格的算法工程師應(yīng)盡的責(zé)任。
學(xué)者吳飛曾說過,現(xiàn)在是一個新聞專業(yè)主義2.0的時代,新聞專業(yè)主義不再是新聞從業(yè)者所必須遵循的行為信條,而是所有參與傳播的個人所應(yīng)該奉行的交往信條和基本精神。受眾生產(chǎn)的信息內(nèi)容是算法進行收集考量的依據(jù),如果受眾傳播的信息比較低俗化,那么算法就會不斷推送類似內(nèi)容,因此,公眾媒介素養(yǎng)的提升是很有必要的。相關(guān)部分要將宣傳教育深入到學(xué)校、家庭、社會等各個層面,促進全民信息素養(yǎng)的提升,從而使公眾將新聞專業(yè)主義內(nèi)化于心、外化于形,在參與網(wǎng)絡(luò)信息生產(chǎn)和傳播的過程中,能夠做到遵循真實、客觀的傳播原則,不信謠不傳謠,不散播色情暴力等低俗內(nèi)容。
新聞算法分發(fā)是以用戶主動或被動讓渡隱私為前提的,這使得隱私的不為人知與算法下用戶無所遁形成為悖論。在算法高度普及化的時代,公眾勢必要提高隱私保護意識,在注冊軟件時一定要認真閱讀平臺的隱私協(xié)議,防止平臺打擦邊球,設(shè)置隱藏條款,從而非法獲取和使用用戶隱私。
算法的分發(fā)技術(shù)在一定程度上實現(xiàn)了信息精準投放,使信息價值的開發(fā)具有無限的可能,但是,技術(shù)是把雙刃劍,算法分發(fā)技術(shù)在滿足我們信息需求的同時,也帶來了許多亟待解決的媒介倫理問題,而且在人性和情感價值的信息處理方面,算法不如人類細膩,它無法完全取代人類。未來,算法和人的關(guān)系將更多地呈現(xiàn)出一種“人機共生”的相互協(xié)作關(guān)系,而我們也只有直面問題,趨利避害,才能使算法分發(fā)技術(shù)的價值最大化?!?/p>