文/王學(xué)成 任千里
自算法介入新聞傳播過程以來,新聞可見性的決定權(quán)逐漸由人轉(zhuǎn)移給了算法,算法取代新聞守門人,成為算法看門人。在傳播的過程中,人們已經(jīng)賦權(quán)給算法。隨著算法能力的提升,算法的權(quán)力也在不斷擴(kuò)大,對(duì)人類行為自然也會(huì)產(chǎn)生越來越多的規(guī)訓(xùn),由此學(xué)界產(chǎn)生了對(duì)“算法黑箱(Algorithm Blackbox)”和“信息繭房(Information Cocoons)”等問題的擔(dān)憂。
算法推薦技術(shù)經(jīng)過多年實(shí)踐,目前已經(jīng)有大量研究證明人們對(duì)于算法推薦機(jī)制的擔(dān)憂可能遠(yuǎn)不像人們當(dāng)初想象的那般嚴(yán)重。通過對(duì)于算法推薦機(jī)制的研究和觀察,筆者認(rèn)為,算法推薦的確會(huì)在一定程度上對(duì)人類的行為和認(rèn)識(shí)產(chǎn)生規(guī)訓(xùn),但是,人對(duì)于算法的規(guī)訓(xùn)要遠(yuǎn)比算法對(duì)人的規(guī)訓(xùn)大得多。算法的本質(zhì)屬性是工具屬性,作為一種工具,算法能給人類社會(huì)造成的負(fù)面影響非常有限。算法推薦機(jī)制中存在的問題不過是現(xiàn)實(shí)社會(huì)的反映,真正需要警惕的是現(xiàn)實(shí)社會(huì)中的極化、偏見以及其他不穩(wěn)定因素。
早期的算法推薦技術(shù)主要包括基于內(nèi)容的推薦、基于知識(shí)的推薦以及協(xié)同過濾三種推薦方法。經(jīng)過多年的發(fā)展,目前的算法推薦機(jī)制已經(jīng)不能被幾個(gè)簡(jiǎn)單的名詞概括,但算法推薦機(jī)制的本質(zhì)沒有發(fā)生改變。算法掌握的是信息傳播的渠道,決定的是用戶能看到什么內(nèi)容。這是一種非常大的傳播權(quán)力,因此,筆者認(rèn)為算法推薦對(duì)于人的規(guī)訓(xùn)主要集中在以下幾個(gè)方面。
算法對(duì)用戶議程的規(guī)訓(xùn)是最顯見的,當(dāng)算法決定了內(nèi)容的可見性、可及性時(shí),根據(jù)議程設(shè)置理論,也就間接擁有了控制人對(duì)議題重要性判斷的能力。依據(jù)關(guān)鍵詞和內(nèi)容標(biāo)簽進(jìn)行算法推薦是算法推薦最基本的邏輯和最基礎(chǔ)的功能。也就是說,算法能夠在一定程度上規(guī)訓(xùn)用戶能看到什么、想看到什么,并使之具有同一性。
真正客觀的“零度新聞”是不存在的,新聞學(xué)的研究已經(jīng)證實(shí)了這一點(diǎn)。算法推薦的任何內(nèi)容它總會(huì)或多或少、有意無意地反映某種社會(huì)觀念,因此用戶在瀏覽算法推薦的相似內(nèi)容的時(shí)候,一定程度上也是在接受算法推薦的觀念。高頻度的有關(guān)某一觀念的內(nèi)容接觸總會(huì)在一定程度上影響用戶的認(rèn)知,當(dāng)這種觀念與使用算法推薦的平臺(tái)的龐大用戶基數(shù)相結(jié)合時(shí),某種社會(huì)流行觀念也在隨之醞釀。
用戶獲取信息是為了更好地完成改造世界的實(shí)踐。擬態(tài)環(huán)境理論指出,媒介向人們呈現(xiàn)的是重新結(jié)構(gòu)化的世界,并通過制約人的認(rèn)知和行為來對(duì)客觀的現(xiàn)實(shí)環(huán)境產(chǎn)生影響。因此在算法推薦內(nèi)容的過程中,社會(huì)觀念的規(guī)訓(xùn)遠(yuǎn)遠(yuǎn)不是終點(diǎn),對(duì)用戶行為的規(guī)訓(xùn)才是。受到社會(huì)觀念規(guī)訓(xùn)的用戶會(huì)將接受到的觀點(diǎn)貫徹于他們的現(xiàn)實(shí)生活實(shí)踐中,進(jìn)一步擴(kuò)大算法對(duì)于社會(huì)的影響。
雖然當(dāng)人類賦權(quán)給算法之后,算法會(huì)擁有相當(dāng)大的傳播權(quán)力,會(huì)從社會(huì)共識(shí)塑造、社會(huì)議題設(shè)置、行為決策判斷等方面對(duì)人產(chǎn)生規(guī)訓(xùn)。筆者認(rèn)為,人作為算法的創(chuàng)造者,人對(duì)算法的規(guī)訓(xùn)才是人機(jī)關(guān)系矛盾中的主要方面。
算法并非憑空產(chǎn)生的,而是基于嚴(yán)謹(jǐn)?shù)挠脩粜枨笳{(diào)研之后,根據(jù)用戶需要設(shè)計(jì)的。而當(dāng)人類認(rèn)為算法推薦的機(jī)制存在問題時(shí),人類有直接要求算法做出改變的權(quán)力和能力。
以“今日頭條”APP為例,早期“今日頭條”的推薦算法非常簡(jiǎn)單,算法中存在的問題也非常多。但是當(dāng)用戶和管理者發(fā)現(xiàn)單純的興趣推薦不能滿足社會(huì)的公共性需求時(shí),便會(huì)要求算法增加公共信息的推送。算法的生產(chǎn)者和管理者、相關(guān)平臺(tái)的監(jiān)管者以及用戶三方可以說都直接擁有規(guī)訓(xùn)算法的權(quán)力和能力。算法生產(chǎn)者和管理者能直接按照自己的觀念調(diào)整算法;相關(guān)平臺(tái)的監(jiān)管者可以以行政命令等方式直接改變算法推薦模式,使其更加符合社會(huì)發(fā)展的需要;而從用戶層面看,個(gè)體用戶的力量雖然渺小,但當(dāng)用戶普遍認(rèn)為算法推薦機(jī)制存在某種問題時(shí),用戶的壓力也會(huì)迫使管理者對(duì)算法推薦機(jī)制做出調(diào)整。在目前市場(chǎng)化運(yùn)作的內(nèi)容平臺(tái)中,用戶的需求可以說就是算法努力的方向,內(nèi)容平臺(tái)之所以采用算法推薦機(jī)制,也是為了更好地服務(wù)于用戶,進(jìn)而實(shí)現(xiàn)良好的效益,因此作為消費(fèi)者,用戶聲音是不可能被忽視的。從這些方面來看,在算法與人的關(guān)系中,人的需要始終是占據(jù)主導(dǎo)地位的。
這證明了人是算法的直接控制者,即使是普通用戶,也擁有直接對(duì)算法進(jìn)行規(guī)訓(xùn)的權(quán)力,進(jìn)而證實(shí)了人對(duì)于算法的規(guī)訓(xùn)是人機(jī)關(guān)系矛盾的主要方面。
算法推薦的前提是在后臺(tái)形成用戶千人千面的用戶畫像,或稱數(shù)字分身,之后算法推薦的基本邏輯是按照用戶的不同特征,為用戶推送不同的內(nèi)容,從而達(dá)到千人千面的傳播效果。
那么,用戶畫像來源于何處?雖然用戶畫像與用戶的性別、年齡、地域、社會(huì)關(guān)系網(wǎng)絡(luò)等具有相關(guān)性,但用戶畫像的核心仍然是用戶自身需要。用戶點(diǎn)擊、閱讀、拒絕閱讀、舉報(bào)等交互行為都可以看作是用戶與后臺(tái)用戶畫像間的自我傳播,通過這些交互行為,算法后臺(tái)的用戶畫像會(huì)越來越接近于真實(shí)的用戶本身。
“自我傳播”并非一個(gè)新鮮的概念,傳統(tǒng)的自我傳播又稱人內(nèi)傳播,是指?jìng)€(gè)人接受信息并在人體內(nèi)部進(jìn)行信息處理的活動(dòng)。米德關(guān)于自我傳播的“主我與客我”理論指出,個(gè)人在與他人的互動(dòng)中形成自我,而在算法推薦機(jī)制中,個(gè)人在與信息內(nèi)容的互動(dòng)過程中在算法后臺(tái)形成用戶的數(shù)字孿生形象,這可以看作是自我傳播在數(shù)字環(huán)境下的新發(fā)展。
數(shù)字孿生的形象如何,完全取決于用戶的自我傳播,算法本身并不會(huì)替用戶做決定。不論是學(xué)界的研究,還是相關(guān)科技公司的披露,都顯示出用戶自我傳播對(duì)于數(shù)字孿生形象的影響遠(yuǎn)大于年齡、性別等人口統(tǒng)計(jì)學(xué)因素和社交網(wǎng)絡(luò)等因素對(duì)于數(shù)字孿生形象的影響。算法推送的結(jié)果實(shí)際上是用戶自我傳播的結(jié)果,在較長的使用時(shí)間內(nèi),算法推送可能比用戶自己更能客觀地認(rèn)識(shí)到用戶的信息需要,即使用戶從主觀上認(rèn)為這些內(nèi)容是低質(zhì)的。
在數(shù)字孿生形象的構(gòu)建中,普通用戶就擁有選擇信息的絕對(duì)權(quán)力,用戶可以輕易地對(duì)算法推薦的內(nèi)容一鍵選擇屏蔽,給后臺(tái)的數(shù)字孿生形象最直接的反饋,改變自身形象,這種“一票否決權(quán)”的存在,是人對(duì)于算法規(guī)訓(xùn)的本質(zhì)體現(xiàn)。
海德格爾指出:“主體性既是人作為主體所具有的性質(zhì),又是人作為主體的根據(jù)和條件?!倍俗鳛橹黧w,其特征包括自為的自律性、自覺的能動(dòng)性、自由的超越性等。算法看似具有很高的能動(dòng)性和權(quán)力,實(shí)則不然,算法只有在主體價(jià)值觀的引導(dǎo)下才能展開活動(dòng)。
前文已經(jīng)提到,工具屬性是算法的本質(zhì)屬性,一切算法的發(fā)展從本質(zhì)上來看都是“以我為主、為我所用”,算法對(duì)人的規(guī)訓(xùn)不過是算法服務(wù)于人的過程中可能產(chǎn)生的副作用。算法推薦的結(jié)果是人主體認(rèn)識(shí)的延伸,即人有什么樣的認(rèn)識(shí),出于服務(wù)人類的目的,算法會(huì)為人類推薦與其認(rèn)識(shí)水平相符的內(nèi)容。
目前的算法推薦機(jī)制中可能仍然存在一些偏見,諸如各種歧視現(xiàn)象等。但是筆者認(rèn)為,雖然算法推薦的結(jié)果客觀上使社會(huì)偏見擴(kuò)大化,但并不能武斷地認(rèn)為算法就是這些問題的制造者,算法中隱含的偏見不過是對(duì)社會(huì)偏見問題的一種真實(shí)反映。認(rèn)為算法造成或者擴(kuò)大了這種偏見,是對(duì)于算法本質(zhì)和社會(huì)現(xiàn)實(shí)認(rèn)識(shí)不深刻的表現(xiàn)。算法既不具備產(chǎn)生偏見的能力,也不具備消除偏見的能力,要真正解決算法中存在的偏見問題,必須對(duì)現(xiàn)實(shí)環(huán)境做出改變,改變算法之上的源頭信息,算法偏見問題才能真正得到解決。算法會(huì)直接反映人的偏見,也從另一個(gè)側(cè)面證明了在算法推薦的機(jī)制中,人是具有主體性地位的,人對(duì)于算法的規(guī)訓(xùn)遠(yuǎn)大于算法對(duì)人的規(guī)訓(xùn)。
算法實(shí)際上是一種規(guī)則,任何社會(huì)中都一定會(huì)存在各種各樣的規(guī)則,這些規(guī)則在實(shí)施前我們也并不能完全預(yù)測(cè)規(guī)則可能產(chǎn)生的結(jié)果,這也是一種“黑箱”。“信息繭房”的反面是社會(huì)共識(shí)、群體共識(shí),繭房的存在一定程度上也維持了社會(huì)和群體的穩(wěn)定,從這個(gè)角度看,算法的負(fù)面影響似乎并沒有學(xué)界、業(yè)界一直以來思考的那般可怕。
更重要的是,人是具有主體性的,即使在算法推薦的規(guī)則之下,人也掌握著馴化算法的主動(dòng)權(quán)。如果將算法可能造成的負(fù)面影響完全看作是算法所做的“惡”,那無疑是從認(rèn)識(shí)上就放棄了人在人工智能時(shí)代的主體性地位,這是極為危險(xiǎn)的。
人類在使用算法推薦技術(shù)之初,算法可能的確會(huì)更主動(dòng)地給用戶推送娛樂化甚至低俗化的無意義內(nèi)容,但這種推薦傾向的產(chǎn)生本身依據(jù)的就是大多數(shù)人的閱讀行為,本質(zhì)上仍是人對(duì)于算法規(guī)訓(xùn)的結(jié)果。而在使用的過程中,人類有豐富的手段,譬如主動(dòng)搜索自己感興趣的內(nèi)容,主動(dòng)拒絕低質(zhì)內(nèi)容,積極舉報(bào)不良內(nèi)容等,以此規(guī)訓(xùn)算法,告訴算法我需要什么、討厭什么,很快就可以使算法推薦的內(nèi)容更接近于人的認(rèn)知水平。這也是有研究證明使用智能推送越久,越認(rèn)為算法推送的內(nèi)容來自于人工編輯的原因。
從人類發(fā)展的漫長歷程來看,任何一種新工具的出現(xiàn)都需要人類對(duì)其進(jìn)行規(guī)訓(xùn)。就像聯(lián)合國門前“鑄劍為犁”的雕像一樣,當(dāng)鐵器出現(xiàn)后,這種新工具是作為武器還是作為農(nóng)具,體現(xiàn)的就是人類對(duì)工具的規(guī)訓(xùn)。對(duì)于任何工具不加規(guī)訓(xùn),任其野蠻發(fā)展,都會(huì)產(chǎn)生可怕的后果,而算法也僅僅是其中的一種。
單就算法推薦機(jī)制而言,算法推薦機(jī)制本身并不具有思考能力,用戶對(duì)算法推薦機(jī)制做出什么樣的行為,算法推薦機(jī)制就會(huì)做出相應(yīng)的反饋。因此,算法推薦什么樣的內(nèi)容給用戶,實(shí)際上是用戶與用戶畫像間自我傳播的結(jié)果。人應(yīng)對(duì)算法推薦機(jī)制有所約束,但也不能因此將人類社會(huì)可能出現(xiàn)的群體極化、思維單向度,甚至道德水平滑坡等問題的原因簡(jiǎn)單地歸結(jié)于算法推薦帶來的消極后果。
目前有研究表明,愿意通過舉報(bào)垃圾信息,或通過隱藏新聞、取消關(guān)注、忽略推薦等手段,主動(dòng)向算法表達(dá)他們“不感興趣”的用戶仍然較少,但這屬于用戶對(duì)于算法的工具性認(rèn)識(shí)不足、媒介素養(yǎng)較低的問題,不能與算法推薦機(jī)制的負(fù)面效果混為一談。要促使用戶主動(dòng)改善目前的內(nèi)容生態(tài),還需要實(shí)現(xiàn)全民媒介素養(yǎng)的終身教育。只有撥云見日,真正認(rèn)識(shí)到算法及其相關(guān)問題的本質(zhì),我們才能更加客觀地認(rèn)識(shí)算法推薦機(jī)制造成的正負(fù)面影響,實(shí)現(xiàn)技術(shù)和社會(huì)的更好發(fā)展。