• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      算法媒體的生產(chǎn)邏輯與治理機(jī)制

      2018-01-31 02:07:50羅昕
      人民論壇·學(xué)術(shù)前沿 2018年24期
      關(guān)鍵詞:協(xié)同治理算法

      羅昕

      【關(guān)鍵詞】算法 ?中介權(quán)力 ?可見(jiàn)性生產(chǎn) ?社會(huì)建構(gòu) ?協(xié)同治理

      【中圖分類號(hào)】G210.7 ? ? ? ? ? ? ? ? ? ? ? ? 【文獻(xiàn)標(biāo)識(shí)碼】A

      【DOI】10.16619/j.cnki.rmltxsqy.2018.24.003

      算法媒體是指通過(guò)算法驅(qū)動(dòng)的、具有信息傳播功能的平臺(tái),如Google、Facebook、Twitter、今日頭條等平臺(tái)。算法媒體作為隱形的把關(guān)人,是信息和受眾間重要的橋梁和紐帶,掌握著信息可見(jiàn)性生產(chǎn)的出口,也就是說(shuō)它決定著人們可以看到什么、不可以看到什么,從而決定人們能思考什么、不思考什么。算法不僅僅是抽象的計(jì)算過(guò)程,也有能力通過(guò)塑造不同程度的社會(huì)生活來(lái)實(shí)現(xiàn)物質(zhì)現(xiàn)實(shí)。[1]正如英國(guó)著名的社會(huì)學(xué)家約翰·湯普森(John Brookshire Thompson)看到的,中介化的可見(jiàn)性不僅影響人們的日常生活狀態(tài),還隱含著重要的政治經(jīng)濟(jì)學(xué)含義。[2]算法媒體在媒體格局中扮演著越來(lái)越重要的角色,當(dāng)前媒體生產(chǎn)和消費(fèi)的過(guò)程越來(lái)越自動(dòng)化,也越來(lái)越受到算法的支配??梢哉f(shuō),算法主導(dǎo)了當(dāng)代媒體技術(shù)的話語(yǔ)范式。

      作為權(quán)力中介的算法媒體

      媒體作為社會(huì)系統(tǒng)的信息樞紐和神經(jīng)系統(tǒng),能夠及時(shí)敏銳感知社會(huì)的冷暖和脈搏,在引導(dǎo)用戶、服務(wù)用戶中發(fā)揮著重要的中介化作用。算法是一種新的中介化技術(shù),掌控著信息的可見(jiàn)性。在移動(dòng)化、智能化趨勢(shì)下,由算法驅(qū)動(dòng)的媒體的中介化權(quán)力日益凸顯。

      作為“中介化”的媒體?!爸薪榛崩碚撌敲襟w學(xué)研究中的一個(gè)重要概念。法國(guó)著名哲學(xué)家、媒體學(xué)家雷吉斯·德布雷(Régis Debray)在其著作《法國(guó)的知識(shí)權(quán)力》中首次提出“媒體學(xué)”(Médiologie)這個(gè)概念。他提出的媒體學(xué)超越了人們通常所說(shuō)的“傳播”思路,是以技術(shù)與文化之間的關(guān)系為研究對(duì)象的一個(gè)“傳遞”過(guò)程,同時(shí)明晰傳遞過(guò)程中的種種現(xiàn)象。[3]曾任法國(guó)信息傳播學(xué)學(xué)會(huì)(SFSIC)主席的內(nèi)爾納·米耶熱(Bernard Miège)在著作《傳播思想》中表示:“德布雷所建立的‘普通媒體學(xué)相對(duì)于歷史文化或意識(shí)形態(tài)取向,將重點(diǎn)放在傳輸介質(zhì)的功能和效力上,引發(fā)了一場(chǎng)顛覆?!盵4]

      德布雷的媒體“傳遞觀”隱設(shè)了重要的“中介觀”,即媒體是一種作為“中介”的傳遞工具,其意義不僅在于信息的即時(shí)傳播,更是文化代代相傳的承載物。德布雷在《媒體學(xué)引論》中推進(jìn)麥克盧漢的“媒體即信息”的觀點(diǎn),提出“中介即信息”的理念。他認(rèn)為“中介是使兩者發(fā)生關(guān)系的第三者,如果沒(méi)有這個(gè)作為第三者的中介,這種關(guān)系就不會(huì)存在?!盵5]由此看來(lái),凡是建構(gòu)兩者關(guān)系的都是中介,大眾媒體是最具典型意義的中介。美國(guó)傳播學(xué)者托馬斯·德·曾戈提塔對(duì)“中介化”理論的內(nèi)涵進(jìn)行定義:“中介化是指所有藝術(shù)及人力所創(chuàng)造出的媒體所表現(xiàn)、所傳播的情感經(jīng)歷,同時(shí)還特別包含著這些媒體對(duì)我們每個(gè)人、對(duì)世界、對(duì)個(gè)人生命體驗(yàn)所產(chǎn)生的影響。”[6]

      算法媒體的“中介化”。隨著人工智能走進(jìn)人們的生活,媒體與受眾間的互動(dòng)越來(lái)越以數(shù)字化為中介,越來(lái)越多的對(duì)象嵌入了芯片和傳感器,這就使得信息和受眾間產(chǎn)生了一個(gè)新的中介層次——算法。[7]算法作為中介,扮演著將人與人、人與信息聯(lián)系起來(lái)的角色,隱形地實(shí)施著自己的權(quán)力。算法本身雖然沒(méi)有偏見(jiàn)和主觀性,但是編寫算法的一方卻掌握了算法的可見(jiàn)性權(quán)力。算法媒體基于算法指令和大數(shù)據(jù),把控信息的可見(jiàn)與不可見(jiàn)以及信息的透明度,是具有中介權(quán)力的把關(guān)人。算法在信息發(fā)布方面的能力被認(rèn)為是強(qiáng)有力的、代理性的和中心性的。

      算法的中介化權(quán)力能塑造文化和社會(huì)信息,從而改變?nèi)说乃枷?,并控制和影響人們的日常生活,還有可能影響到政治和經(jīng)濟(jì)的發(fā)展方向。當(dāng)人們關(guān)注算法的中介權(quán)力時(shí),本質(zhì)上是關(guān)注可見(jiàn)性和意義的問(wèn)題。正如約翰·湯普森所言,“中介化的可見(jiàn)性不僅僅是引發(fā)他人關(guān)注社會(huì)和政治生活的媒體,它已經(jīng)成為表達(dá)、從事社會(huì)和政治斗爭(zhēng)的基本手段”。[8]用于決策的算法經(jīng)常被描述為把關(guān)人。算法對(duì)媒體環(huán)境的侵蝕,“其中一個(gè)結(jié)果就是把關(guān)功能的崩潰,迅速地削弱了精英、公民和學(xué)者用于理解民主社會(huì)中媒體角色的常識(shí)假設(shè)”[9]。在這個(gè)功能方面,算法在某種程度上類似于傳統(tǒng)媒體編輯的角色,但是與線下非互動(dòng)非計(jì)算的類似對(duì)象有很多區(qū)別,如算法的編輯是動(dòng)態(tài)的,所有一切編輯活動(dòng)是自動(dòng)的、不可見(jiàn)的、針對(duì)個(gè)人的,“都是通過(guò)具有技術(shù)性質(zhì)的機(jī)制實(shí)現(xiàn)的,這些機(jī)制在復(fù)雜的社會(huì)進(jìn)程中不斷發(fā)展、完善和調(diào)整的,而這些進(jìn)程又受到組織和超組織的環(huán)境條件影響”[10]。算法能夠充當(dāng)悄悄的、相當(dāng)強(qiáng)有力的把關(guān)人,在未經(jīng)用戶的同意下進(jìn)行編輯決策。算法把關(guān)人執(zhí)行了某些傳統(tǒng)的把關(guān)功能,但顛覆了或在很大程度上修正了傳統(tǒng)把關(guān)的其他關(guān)鍵特征,如可見(jiàn)性、信息不對(duì)稱以及公眾理解編輯工作結(jié)果的能力。因此,在尋求結(jié)果把關(guān)的責(zé)任心和透明度方面,算法產(chǎn)生了新障礙。算法把關(guān)在很多領(lǐng)域提出了重要而新穎的問(wèn)題。

      算法媒體的可見(jiàn)性生產(chǎn)邏輯

      算法媒體的中介權(quán)力結(jié)構(gòu)包括對(duì)信息的優(yōu)化(推薦排序)、分類、關(guān)聯(lián)和過(guò)濾等系列的決策過(guò)程,這種決策過(guò)程形成了算法媒體的可見(jiàn)性生產(chǎn)機(jī)制??梢?jiàn)性生產(chǎn)具有重要的社會(huì)建構(gòu)意義。算法媒體的社會(huì)建構(gòu)運(yùn)作依靠一套隱秘的可見(jiàn)性生產(chǎn)邏輯,這套邏輯貫穿于信息生產(chǎn)、分發(fā)和審核等價(jià)值鏈環(huán)節(jié)中?!耙虼藦乃惴▋H僅對(duì)社會(huì)帶來(lái)的影響看,權(quán)力主要不是社會(huì)的;但從權(quán)力來(lái)自于算法關(guān)聯(lián)看,權(quán)力則是社會(huì)的。即算法的社會(huì)權(quán)力主要來(lái)自于關(guān)聯(lián)依賴”。[11]算法在很大程度上承擔(dān)了文化的主要責(zé)任之一即“重新組裝社會(huì)”的任務(wù),其運(yùn)用一系列分析工具發(fā)現(xiàn)龐大的數(shù)據(jù)語(yǔ)料庫(kù)內(nèi)的統(tǒng)計(jì)關(guān)聯(lián),這種關(guān)聯(lián)似乎將分散的人們連接起來(lái)形成某種可見(jiàn)性的“群體智慧”。

      “可見(jiàn)性”理論??梢?jiàn)性是政治哲學(xué)、社會(huì)學(xué)、傳播學(xué)的核心概念之一,傳統(tǒng)上與公共領(lǐng)域緊密有關(guān)。隨著社交媒體的迅速普及,可見(jiàn)性在建構(gòu)公共領(lǐng)域中變得越來(lái)越重要??梢?jiàn)性具有多種含義,除了能夠指揭示、開(kāi)放和表達(dá)外,還可以指一系列其他密切相關(guān)的、關(guān)鍵的公開(kāi)性,包括清晰度、透明性、洞察力、識(shí)別性和理解性等特征??梢?jiàn)性可以與更多的公共領(lǐng)域聯(lián)系在一起,例如,公共關(guān)系、市場(chǎng)營(yíng)銷、權(quán)力監(jiān)視、引人注目的炫耀主義、謠言傳播以及各種形式的包括那些針對(duì)丑聞、嘲諷和羞辱的惡意曝光[12]。面對(duì)這個(gè)爭(zhēng)奪可見(jiàn)性的權(quán)力博弈場(chǎng)域,“在這個(gè)中介化可見(jiàn)性的新世界中,行動(dòng)和事件的可見(jiàn)性不僅僅是日益難以控制的傳播和信息流系統(tǒng)中泄密的結(jié)果,也是一個(gè)明確的個(gè)人戰(zhàn)略,他們非常清楚地知道:在他們?nèi)粘I钪兴M(jìn)行的斗爭(zhēng)中,中介化可見(jiàn)性可以是一種武器”。[13]

      可見(jiàn)性不單單是指視覺(jué)上的可見(jiàn)性,還包含著空間上的可見(jiàn)性:亨利·列斐伏爾的空間生產(chǎn)思想和米歇爾·??碌目臻g規(guī)訓(xùn)思想,兩者都強(qiáng)調(diào)對(duì)空間可見(jiàn)性的生產(chǎn)實(shí)踐;簡(jiǎn)單來(lái)講就是權(quán)力主體的可見(jiàn)性(媒體通過(guò)展現(xiàn)來(lái)賦予他人可見(jiàn)性)和受眾的可見(jiàn)性(在媒體塑造的虛擬空間中的個(gè)人如何被“可見(jiàn)”)??梢?jiàn)性生產(chǎn),通過(guò)控制人們視覺(jué)和空間的可見(jiàn)性,影響人們認(rèn)知上的可見(jiàn)性,具有非常豐富的含義。

      丹尼爾·戴揚(yáng)曾針對(duì)新媒體出現(xiàn)后公共空間發(fā)生的轉(zhuǎn)變狀況,提出了“可見(jiàn)性”的概念:“能否被他人看見(jiàn)、能否獲得他人的注意力,當(dāng)獲得的注意力達(dá)到了一定規(guī)模,即產(chǎn)生了可見(jiàn)性?!盵14]新媒體一方面促進(jìn)了信息可見(jiàn)性的增長(zhǎng),但在許多情況下也可能助長(zhǎng)了信息可見(jiàn)性的不平等。與代碼和算法相關(guān)的數(shù)字媒體公司能控制信息可見(jiàn)性。這種信息可見(jiàn)性的程度被(意識(shí)形態(tài)上的)公開(kāi)表現(xiàn)所掩蓋。資本主義新精神與算法結(jié)盟并融入到數(shù)字媒體公司中,如“谷歌不僅僅是數(shù)據(jù)監(jiān)視的機(jī)構(gòu),也是價(jià)值生產(chǎn)的機(jī)構(gòu)。如谷歌的排序算法剝削了網(wǎng)絡(luò)的群體智慧,因?yàn)楣雀栌糜跍y(cè)量網(wǎng)站價(jià)值的每個(gè)鏈接都代表了智力的凝結(jié)并創(chuàng)造了剩余價(jià)值。因此,谷歌是終極經(jīng)濟(jì)監(jiān)管機(jī)器和終極用戶剝削機(jī)器”[15]。

      算法媒體的可見(jiàn)性生產(chǎn)。算法媒體的中介化權(quán)力來(lái)源于其可見(jiàn)性生產(chǎn)邏輯。算法的可見(jiàn)性生產(chǎn)是優(yōu)化推薦、自動(dòng)化生產(chǎn)和過(guò)濾審查等手段組成的權(quán)力結(jié)構(gòu)或決策程序,這些手段之間相互促進(jìn)、相互影響,從而形成算法的可見(jiàn)性生產(chǎn)邏輯?!笆芨?碌膱A形監(jiān)獄的影響,通過(guò)結(jié)構(gòu)框架來(lái)理解算法媒體可見(jiàn)性的建構(gòu),這種結(jié)構(gòu)框架特別注意構(gòu)成了軟件程序和算法權(quán)力的基礎(chǔ)。算法建構(gòu)了信息與傳播流。所建構(gòu)的可見(jiàn)性機(jī)制對(duì)參與主體方施加了一個(gè)假想的‘不可見(jiàn)性威脅。而可見(jiàn)性成為了用戶積極參與互動(dòng)的回報(bào)?!盵16]

      (1)算法媒體的推薦機(jī)制。算法推薦是算法可見(jiàn)性生產(chǎn)機(jī)制的重要構(gòu)成要素。算法本身是一系列解決問(wèn)題的指令,它結(jié)合大數(shù)據(jù)來(lái)實(shí)現(xiàn)精確推薦。算法推薦的對(duì)象對(duì)算法推薦的內(nèi)容所做出的一系列反應(yīng),如點(diǎn)擊、轉(zhuǎn)發(fā)、評(píng)論等,越是被算法主體挖掘發(fā)現(xiàn),就越具有可視化生產(chǎn)的可見(jiàn)性,就越受到其他網(wǎng)民的關(guān)注,從而引發(fā)新一輪生產(chǎn)推薦的閉路循環(huán)。

      信息生產(chǎn)者為了獲取用戶的關(guān)注力和有效的信息可見(jiàn)性而競(jìng)爭(zhēng),以利于自己的信息獲得公共可見(jiàn)性。由于可見(jiàn)性的關(guān)系,接收信息的一方認(rèn)為自己接收到的信息就是公眾關(guān)注的,所以就有了某種被動(dòng)接收信息的“助推”(Nudge)?!爸啤笔恰斑x擇架構(gòu)的任何方面,以可預(yù)測(cè)的方式改變?nèi)藗兊男袨?,而不禁止任何選擇或顯著改變他們的經(jīng)濟(jì)激勵(lì)措施?!盵17]“助推”強(qiáng)調(diào)了周邊的決策選擇語(yǔ)境是如何有意地設(shè)計(jì)以系統(tǒng)性影響人們決策的方式。比如說(shuō),為了鼓勵(lì)顧客選擇更健康的食品,他們建議餐廳經(jīng)理把健康的食品放在更顯眼地方。由于“可獲得性”啟發(fā)和“啟動(dòng)”效應(yīng)(priming effect),客戶會(huì)傾向于選擇“可獲得”的更健康的食品。

      目前,算法推薦是新聞網(wǎng)站、搜索引擎、社交媒體、移動(dòng)客戶端等幾乎所有網(wǎng)絡(luò)傳播平臺(tái)的標(biāo)配。這些網(wǎng)絡(luò)傳播平臺(tái)上呈現(xiàn)的各種熱點(diǎn)搜素、熱點(diǎn)推薦、趨勢(shì)話題等產(chǎn)品,由于具有大數(shù)據(jù)的客觀維度,“被看作是即時(shí)的甚至處于直播狀態(tài)的流行話題的中立或原始的呈現(xiàn)”“影響著與突發(fā)事件、流行話題相關(guān)的信息流動(dòng)”。[18]比如Twitter的趨勢(shì)列表,它為用戶提供了目前在平臺(tái)上討論的最受歡迎的主題列表。此列表每天發(fā)送超過(guò)2.5億條推特的算法生成的內(nèi)容,部分用于指導(dǎo)Twitter用戶的媒體消費(fèi)行為(將他們指向受歡迎的頂部)。Google的搜索引擎通過(guò)算法決策和大數(shù)據(jù)實(shí)現(xiàn)個(gè)性化訂制服務(wù),為受眾推薦他們最需要的訊息。處于最顯著位置(首頁(yè))的訊息投放者需要支付相應(yīng)的贊助費(fèi)用,以取得某種信息的助推力。理論上網(wǎng)民可以在成千上萬(wàn)的排序中自由地翻閱所有網(wǎng)頁(yè),但實(shí)際上每個(gè)搜索者可能只是瀏覽了算法推薦的那幾頁(yè),這時(shí)候用戶的點(diǎn)擊行為受到“啟動(dòng)”效應(yīng)的影響,算法構(gòu)造旨在“助推”網(wǎng)民的點(diǎn)擊行為朝著算法設(shè)計(jì)師編好的方向進(jìn)行,從而產(chǎn)生這一系列可見(jiàn)性的效應(yīng)。

      大數(shù)據(jù)驅(qū)動(dòng)的助推是敏捷的、不顯眼的、高效的,給數(shù)據(jù)對(duì)象提供高度個(gè)性化的選擇環(huán)境,因此把這些技術(shù)稱為“超級(jí)助推”(hypernudge)。超級(jí)助推取決于強(qiáng)調(diào)算法決定的數(shù)據(jù)包內(nèi)數(shù)據(jù)項(xiàng)之間的關(guān)聯(lián)。因此,將“突出”賦予要強(qiáng)調(diào)的數(shù)據(jù)模式,通過(guò)“啟動(dòng)”技術(shù)運(yùn)作起來(lái),有意影響用戶決策的方式,動(dòng)態(tài)地構(gòu)造了用戶的信息選擇語(yǔ)境。算法是能產(chǎn)生、選擇、傳遞公共信息的社會(huì)技術(shù)機(jī)制,也在很多方面具有發(fā)現(xiàn)和放大某些信息的權(quán)力。

      (2)算法媒體的生產(chǎn)機(jī)制。當(dāng)前,一種新的基于算法的定量新聞決策生產(chǎn)技術(shù)已經(jīng)形成,能明確地聚焦于基本受眾偏好上。算法成為新聞判斷的代言人。自動(dòng)化新聞(automated journalism)、機(jī)器人新聞(robot journalism)、計(jì)算新聞學(xué)(computational journalism)等類似概念盡管處在嬰兒期,但大量的研究開(kāi)始圍繞算法應(yīng)用于新聞?lì)I(lǐng)域考察理論和實(shí)踐的問(wèn)題。很多所謂的機(jī)器人新聞或自動(dòng)化新聞都是基于算法大量生產(chǎn)出來(lái)的,對(duì)傳統(tǒng)編輯部帶來(lái)了深刻的影響。這些自動(dòng)化可用于完成采編任務(wù)的新聞形態(tài),使得記者從標(biāo)準(zhǔn)化的任務(wù)分配中解放出來(lái)以專注于更深度的報(bào)道。由此,媒體生產(chǎn)中出現(xiàn)算法轉(zhuǎn)向。目前,算法在媒體生產(chǎn)領(lǐng)域中執(zhí)行的兩個(gè)主要功能是充當(dāng)“需求預(yù)測(cè)器”和“內(nèi)容創(chuàng)造者”。[19]

      在需求預(yù)測(cè)領(lǐng)域,媒體機(jī)構(gòu)擁有越來(lái)越多的關(guān)于受眾媒體消費(fèi)模式和偏好的數(shù)據(jù)供應(yīng),算法派生的表現(xiàn)預(yù)測(cè)越來(lái)越多地決定生產(chǎn)決策,以努力應(yīng)對(duì)受眾對(duì)內(nèi)容需求的持續(xù)不確定性。例如,電影工業(yè)已經(jīng)開(kāi)始依賴預(yù)測(cè)軟件包,使用算法來(lái)預(yù)測(cè)未來(lái)電影項(xiàng)目的成功,甚至預(yù)測(cè)包含在單個(gè)電影劇本中的情節(jié)元素,并將這些內(nèi)容特征與票房收入的歷史數(shù)據(jù)聯(lián)系起來(lái)。類似地,Netflix一直在開(kāi)發(fā)它的原創(chuàng)設(shè)計(jì),它將大量的觀眾行為和收視率數(shù)據(jù)輸入到一個(gè)預(yù)測(cè)算法中,然后確定最有可能成功的原創(chuàng)設(shè)計(jì)類型。這種算法驅(qū)動(dòng)的需求預(yù)測(cè)器也許最具爭(zhēng)議的應(yīng)用是在新聞?lì)I(lǐng)域。在某些情況下(例如AOL失敗的超級(jí)本地新聞項(xiàng)目Patch),用以分析與個(gè)人社區(qū)以及他們本地需求相關(guān)的人口、社會(huì)和政治變量的算法,已被用來(lái)確定當(dāng)?shù)匦侣剻C(jī)構(gòu)的設(shè)立地點(diǎn)。在這種情況下,本地新聞運(yùn)作的存在某種程度上是由算法決定的。在許多其他情況下,新聞機(jī)構(gòu)越來(lái)越多地依靠對(duì)各種形式的用戶行為和反饋數(shù)據(jù)的分析,精確地校準(zhǔn)他們的新聞收集和報(bào)道活動(dòng)。

      在內(nèi)容創(chuàng)造領(lǐng)域,從本質(zhì)上說(shuō),在某些情況下,內(nèi)容創(chuàng)造過(guò)程中直接的人的因素被消除了。這并不是說(shuō)人類元素正在從內(nèi)容創(chuàng)造中被淘汰。算法是人類創(chuàng)造的。相反,這里的要點(diǎn)是,人類在內(nèi)容創(chuàng)建中的角色正在從一個(gè)直接的角色遷移到一個(gè)間接的角色。算法已經(jīng)被開(kāi)發(fā)并被用于充當(dāng)人類內(nèi)容創(chuàng)作者的角色。由算法驅(qū)動(dòng)的機(jī)器人自動(dòng)生成的軟件包,一旦提供了故事所依據(jù)的核心數(shù)據(jù)(例如,體育賽事成績(jī)/統(tǒng)計(jì)數(shù)據(jù)、公司財(cái)務(wù)報(bào)告、住房數(shù)據(jù)、調(diào)查數(shù)據(jù)),就可以生成完整的新聞報(bào)道。新華社開(kāi)發(fā)了媒體大腦“Magic”,該名字由機(jī)器生產(chǎn)內(nèi)容(MGC)和人工智能(AI)的英文字母組合而成?!癕agic”平臺(tái)以大數(shù)據(jù)處理技術(shù)、智能算法技術(shù)以及人機(jī)協(xié)作技術(shù)為核心,由智能數(shù)據(jù)工坊、智能媒資平臺(tái)、智能生產(chǎn)引擎、智能主題集市四大智能系統(tǒng)構(gòu)成。Magic平臺(tái)可以全鏈路自動(dòng)完成視頻的畫面分析、捕獲、制作、配樂(lè)、加標(biāo)題、合成、發(fā)送到視頻站點(diǎn),還可以通過(guò)人工智能技術(shù)對(duì)已經(jīng)生成視頻再加工。Magic還會(huì)在現(xiàn)場(chǎng)尋找有新聞價(jià)值的共同主題,通過(guò)大數(shù)據(jù)處理、智能模版方式,迅速生成標(biāo)簽聚合類稿件或數(shù)據(jù)可視化視頻。在俄羅斯世界杯期間,通過(guò)Magic平臺(tái)生產(chǎn)的世界杯短視頻就達(dá)到了37581條。這些視頻占主要視頻網(wǎng)站世界杯中文短視頻總產(chǎn)量的58.6%,最快一條進(jìn)球視頻的生產(chǎn)時(shí)間僅耗時(shí)6秒,視頻播放量突破1.166億次。

      盡管具有諸多好處,自動(dòng)化媒體生產(chǎn)也存在大量的倫理問(wèn)題,如自動(dòng)化新聞的權(quán)威性、敏感性、客觀性、可信度、透明度等新聞價(jià)值標(biāo)準(zhǔn)。以透明度為例,算法產(chǎn)品或平臺(tái)的融合有助于測(cè)量和優(yōu)化新聞生產(chǎn)、綜合處理和分發(fā),但這種算法系統(tǒng)由于他們自動(dòng)的決策能力而挑戰(zhàn)了透明度標(biāo)準(zhǔn)。一些算法媒體如Google,F(xiàn)acebook,Twitter一直主張自身是技術(shù)公司而不是媒體公司的立場(chǎng),試圖以技術(shù)中立的邏輯逃避新聞倫理的拷問(wèn),“考慮到它們參與與新聞信息流動(dòng)相關(guān)的編輯把關(guān)決策的程度,這些平臺(tái)不僅是媒介公司還是新聞組織”“是時(shí)候更嚴(yán)肅地描述當(dāng)代混合的技術(shù)/媒介公司的輪廓和參數(shù),開(kāi)始闡述這些公司如何融入現(xiàn)有的法律、規(guī)制和新聞的框架中,或新的或修正的框架是否反映了它們混合的性質(zhì)”。[20]不過(guò),自動(dòng)化新聞將會(huì)越來(lái)越普遍,新聞的深度、寬度、具體化和即時(shí)性不斷增加。這種變化提出了倫理和社會(huì)議題,也提出了新聞專業(yè)主義的需要。

      (3)算法媒體的過(guò)濾機(jī)制。算法媒體基于某種意識(shí)形態(tài)或法律法規(guī)甚至自身規(guī)范設(shè)置敏感詞或關(guān)鍵詞,讓算法對(duì)大數(shù)據(jù)中的相關(guān)詞語(yǔ)進(jìn)行阻擋,使相關(guān)信息經(jīng)過(guò)濾后不可見(jiàn)。算法能從人類決策中學(xué)習(xí),復(fù)制人類的決策過(guò)程、操作實(shí)踐、陳規(guī)、習(xí)慣和偏見(jiàn)。Facebook算法過(guò)濾了大量的內(nèi)容諸如用戶帖子,以決定內(nèi)容是否允許。如算法也許著手過(guò)濾肉色的圖片、含有臟話的內(nèi)容或來(lái)自世界某個(gè)地方的內(nèi)容。又如“以極端主義或恐怖主義內(nèi)容為例,一旦用戶看了一篇,推薦系統(tǒng)能推薦更多的極端主義材料,從而強(qiáng)化了‘意識(shí)形態(tài)泡沫的產(chǎn)生”。[21]

      一個(gè)典型的案例來(lái)自2016年9月Facebook審查刪除越戰(zhàn)照片“燒夷彈的女孩”事件。Facebook首席運(yùn)營(yíng)官雪莉·桑德伯格(Sheryl Sandberg)因其審查算法刪除挪威首相埃爾娜·索爾貝格(Erna Solberg)帖文中的著名越戰(zhàn)照片“燒夷彈的女孩(Napalm Girl)”而發(fā)出一封致歉信?!盁膹椀呐ⅰ痹@得普利策新聞獎(jiǎng),照片中一名9歲的越南女孩因?yàn)槠蛷椪▊?,渾身赤裸逃離。桑德伯格承認(rèn)其審查算法存在技術(shù)局限性。挪威作家Tom Egeland發(fā)布的越戰(zhàn)照片“燒夷彈的女孩(Napalm Girl)”也遭到Facebook刪除,其個(gè)人賬號(hào)也被禁用。挪威報(bào)紙Aftenposten的主編Espen Egil Hansen給Facebook的CEO馬克·扎克伯克寫了一封公開(kāi)信,指責(zé)Facebook的審查算法分不清兒童色情和新聞圖片的區(qū)別。挪威首相索爾貝格在轉(zhuǎn)發(fā)這篇帖子后內(nèi)容也遭到刪除。Facebook這一舉動(dòng)引發(fā)世界輿論嘩然。該公司不得不在事情發(fā)生數(shù)小時(shí)后作出回應(yīng)。Facebook表示已經(jīng)重新修改了算法,讓其能夠“識(shí)別照片的歷史意義”,并允許用戶在該平臺(tái)上發(fā)布這張照片。挪威首相索爾貝格贊揚(yáng)Facebook作出的迅速反應(yīng),但她表示,社交媒體不應(yīng)該將“責(zé)任轉(zhuǎn)交給機(jī)器”。不過(guò),這場(chǎng)爭(zhēng)論強(qiáng)調(diào)了傳統(tǒng)新聞出版的編輯決策也應(yīng)成為社交媒體平臺(tái)編輯決策的基本部分,即使編輯決策最初掌握在算法中。

      算法過(guò)濾機(jī)制,還可以通過(guò)2011年“占領(lǐng)華爾街運(yùn)動(dòng)”似乎過(guò)早消失在Twitter趨勢(shì)列表上所引發(fā)的爭(zhēng)議得到說(shuō)明。作為對(duì)出于政治動(dòng)機(jī)的審查指控的回應(yīng),Twitter公布了其“趨勢(shì)”算法的操作細(xì)節(jié)。該公司指出,“趨勢(shì)”算法并不是基于對(duì)最常用術(shù)語(yǔ)的簡(jiǎn)單計(jì)算,而是考慮到諸如該術(shù)語(yǔ)最近是否在人群中激增、術(shù)語(yǔ)用戶的聚類模式、tweet與轉(zhuǎn)發(fā)的比率等因素?!罢碱I(lǐng)華爾街運(yùn)動(dòng)”在Twitter趨勢(shì)列表中的存在與否是一個(gè)廣泛討論、有爭(zhēng)議和政治意義重大的話題,這一事實(shí)說(shuō)明了產(chǎn)生該運(yùn)動(dòng)的列表和算法具有制度特征的程度。在一定程度上,算法過(guò)濾機(jī)制也可能產(chǎn)生重大議程設(shè)置效果。從這個(gè)角度來(lái)看,Twitter趨勢(shì)的大量爭(zhēng)論突出表明了列表是如何表現(xiàn)個(gè)人和組織對(duì)網(wǎng)上公共領(lǐng)域和政治動(dòng)態(tài)的認(rèn)知的根本機(jī)制。[22]

      算法過(guò)濾機(jī)制還可以影響國(guó)際傳播格局和地緣政治,進(jìn)一步強(qiáng)化了世界信息傳播秩序不公平、不平衡的問(wèn)題?;ヂ?lián)網(wǎng)檔案館(Internet Archive)通過(guò)算法可以縮小自己的存檔。由于它的爬蟲(chóng)算法會(huì)優(yōu)化與它們已經(jīng)有鏈接的網(wǎng)站,而鏈接較少的國(guó)家可能無(wú)法在檔案中完全顯示。如果關(guān)于應(yīng)該發(fā)生的事情的基于數(shù)據(jù)的決定與所發(fā)生的事情的記錄保持一致或故意不同的話,那么我們需要理解算法是如何組織過(guò)去的歷史,從而影響到國(guó)家記憶。[23]

      算法媒體可見(jiàn)性生產(chǎn)的社會(huì)建構(gòu)。在移動(dòng)化、智能化的趨勢(shì)下,算法建構(gòu)現(xiàn)實(shí)的影響力日益擴(kuò)大。建構(gòu)主義是多學(xué)科交叉發(fā)展的產(chǎn)物,不同學(xué)者受不同學(xué)科的影響,形成了不同范式傾向的建構(gòu)主義。所有的建構(gòu)主義都認(rèn)為知識(shí)不是由認(rèn)知主體被動(dòng)獲得,而是由認(rèn)知主體主動(dòng)建構(gòu)的結(jié)果。算法對(duì)建構(gòu)主義的影響就在于算法推薦的信息(知識(shí))使得認(rèn)知主體(網(wǎng)民)被動(dòng)獲得,而并非主動(dòng)建構(gòu),其中不免隱含著某種互動(dòng)的關(guān)系。算法媒體對(duì)社會(huì)現(xiàn)實(shí)的建構(gòu)與重現(xiàn),受其可見(jiàn)性生產(chǎn)機(jī)制的影響。算法是人為構(gòu)建的,通常是隱形不可見(jiàn)的,但是它對(duì)受眾的影響是循序漸進(jìn)且普遍的,影響著人們的日常生活、知識(shí)獲得和社會(huì)圖景。

      社會(huì)建構(gòu)主義論述了制度提供共同的意義和認(rèn)知的方式,這些方式是引導(dǎo)行為的重要機(jī)制。這一理論視角強(qiáng)調(diào),社會(huì)現(xiàn)實(shí)是社會(huì)過(guò)程的產(chǎn)物,其目的是建立共同的知識(shí)和信仰體系。制度的文化認(rèn)知維度強(qiáng)調(diào)“行為的形成和限制在多大程度上受到知識(shí)的建構(gòu)和編纂的影響。構(gòu)成所有這些決策的基礎(chǔ)是社會(huì)構(gòu)建的模型、假設(shè)和架構(gòu)”。算法是知識(shí)建構(gòu)者和編撰者的最好例子,特別是諸如搜索引擎的語(yǔ)境中,算法在聚合、分類、組織和呈現(xiàn)信息等方面起著核心的機(jī)構(gòu)作用。

      這一理論觀點(diǎn)指出了理解算法的社會(huì)建構(gòu)的重要性。正如Berger和Luckmann(1966)所強(qiáng)調(diào)的,“要理解任何時(shí)候社會(huì)建構(gòu)的宇宙的狀態(tài),或它隨時(shí)間的變化,就必須了解允許定義者進(jìn)行定義的社會(huì)組織”。在許多情況下,將算法視為“定義者”似乎是合理的。理解這些定義者背后的社會(huì)組織意味著理解構(gòu)建算法背后的社會(huì)過(guò)程,算法在知識(shí)的社會(huì)建構(gòu)中扮演著越來(lái)越重要的角色。[24]作為中介把關(guān)的算法媒體,通過(guò)操縱知識(shí)生產(chǎn)、信息消費(fèi)的模因和趨勢(shì),微妙地支配著公眾意識(shí)。算法是虛擬探照燈或鏡子,捕獲用戶的注意力和想像力,影響我們對(duì)自我身份、人際交流、社會(huì)分層和公共輿論的感知和想像。

      (1)算法媒體對(duì)自我身份的影響。算法媒體形成“一種新的算法身份”,這種算法身份的形成通過(guò)算法在匿名環(huán)境下來(lái)推斷身份分類。它使用統(tǒng)計(jì)上具有共同性模型以自動(dòng)方式來(lái)決定一個(gè)人的性別、階層或種族,同時(shí)決定這些特征的實(shí)際意義。我們正進(jìn)入一個(gè)我們的身份被制造出來(lái)的在線世界里?!靶滤惴ㄉ矸荨痹诒O(jiān)視和記錄用戶數(shù)據(jù)方面是史無(wú)前例的,由于許多算法的產(chǎn)權(quán)性遠(yuǎn)離了傳統(tǒng)規(guī)訓(xùn)的自由政治學(xué),計(jì)算機(jī)算法有能力基于用戶的上網(wǎng)習(xí)慣對(duì)用戶身份進(jìn)行分門別類。Cheney-Lippold認(rèn)為,編碼過(guò)的算法分析成為了福柯有關(guān)生物政治和生物權(quán)力的思想的補(bǔ)充,即他稱為的“軟生物權(quán)力”和“軟生物政治學(xué)”。這些新的概念工具使我們能在分類層次上更好理解生物權(quán)力的工作原理:使用計(jì)算機(jī)代碼、統(tǒng)計(jì)數(shù)據(jù)和監(jiān)視,通過(guò)用戶被監(jiān)視的互聯(lián)網(wǎng)史來(lái)進(jìn)行人口分類。在網(wǎng)上營(yíng)銷和算法分類的語(yǔ)境中,算法干預(yù)作為一種控制模式是起作用的,這種算法認(rèn)同過(guò)程能建構(gòu)和規(guī)制我們的在線生活[25]?!坝脩魶](méi)有無(wú)限的選擇,實(shí)際上被給予了一個(gè)狹義的解釋集——它來(lái)自于成功地將其他人、過(guò)去的行為和無(wú)生命的對(duì)象放入到類別中——使用類別來(lái)約束行動(dòng)?!盵26]

      算法身份的生成機(jī)制與算法媒體正在出現(xiàn)的公共性與“持續(xù)的媒體”相關(guān),與傳統(tǒng)的守時(shí)的媒體相反。算法媒體的公共性類似于“分割性”(dividuality)?!拔覀儾辉侔l(fā)現(xiàn)我們是在處理大眾/個(gè)體的這對(duì)關(guān)系。個(gè)體已經(jīng)成了‘分割(dividuals)?!狈指钚栽黾恿瞬町惢退槠?,正如它把用戶解剖成許多肖像和數(shù)據(jù)類型。換句話說(shuō),身體公共性正在不斷被分割和組裝。Deseriis也表達(dá)了這種狀況:“通過(guò)將社會(huì)機(jī)器人的持續(xù)性打破成分割的時(shí)域和交易,控制工程師生產(chǎn)了‘多細(xì)胞的信息時(shí)間,這個(gè)抽象的時(shí)間不再隸屬于任何具體的個(gè)體,而是產(chǎn)生于網(wǎng)絡(luò)里個(gè)體時(shí)間碎片的自動(dòng)化重組”。[27]“社會(huì)機(jī)器人”正在成為“分割的時(shí)域和交易”。人們保持著分割化狀況。算法媒體表面上動(dòng)搖了媒體和公共性的傳統(tǒng)主觀性。這表明公共性不會(huì)簡(jiǎn)單形成,因?yàn)樵诨旌系膫€(gè)體時(shí)域中,集體性被影響的時(shí)域絕不會(huì)顯示自身。不管怎樣,公共性可與算法媒體并存。[28]

      (2)算法媒體對(duì)人際關(guān)系的影響。算法對(duì)人際關(guān)系最直接的影響,主要通過(guò)人們?nèi)粘=佑|最為頻繁的社交媒體來(lái)體現(xiàn)。以全球用戶規(guī)模最大的社交媒體Facebook為例,截至2018年1月,F(xiàn)acebook的全球月活躍用戶規(guī)模達(dá)到22億人次,約等于全球人口的三分之一。Facebook雖不是新聞的生產(chǎn)者,但是它的人工智能在信息傳播中擁有非常強(qiáng)大的“編輯權(quán)力”。然而,F(xiàn)acebook的人工智能是靠算法去運(yùn)作的,算法不聲不響地掌握著海量信息的可見(jiàn)與不可見(jiàn)的權(quán)力。正如現(xiàn)象學(xué)家梅洛·龐蒂在著作《知覺(jué)現(xiàn)象學(xué)》中指出的:“人們通常通過(guò)不可見(jiàn)的東西來(lái)與世界相遇,當(dāng)我們遇到別人的時(shí)候,他們憑借自己的習(xí)慣、經(jīng)歷和人格向我們顯現(xiàn)。我們不只是通過(guò)服裝、語(yǔ)言或風(fēng)度來(lái)感知人?!盵29]現(xiàn)在,我們通過(guò)隱形的算法來(lái)與世界相遇,當(dāng)算法遇到人時(shí),它會(huì)通過(guò)標(biāo)記每個(gè)人的性別、年齡、愛(ài)好、習(xí)慣等可見(jiàn)的特征來(lái)記憶和感知人。

      Facebook算法控制著新聞傳播的可見(jiàn)性,主要通過(guò)News Feed(信息流)和Trending(流行話題)兩個(gè)渠道。News Feed被扎克伯格稱為“個(gè)性化報(bào)紙”訂制功能,也就是按用戶的興趣愛(ài)好推薦他們“感興趣的內(nèi)容”;Trending則更強(qiáng)調(diào)其他人在關(guān)注什么信息,更側(cè)重于時(shí)事新聞。這兩種渠道都將要傳遞的新聞主動(dòng)推送給用戶,主動(dòng)建構(gòu)這種關(guān)系。有學(xué)者對(duì)40位Facebook用戶展開(kāi)了算法意識(shí)的調(diào)查,發(fā)現(xiàn)62.5%的參與者不知道Facebook的信息流策展(News Feed curation);相比之下,學(xué)者Rader和Gray分析了464名受訪者的調(diào)查結(jié)果發(fā)現(xiàn),75%的用戶實(shí)際上意識(shí)到“他們沒(méi)有看到自己朋友創(chuàng)建的每一個(gè)帖子,他們意識(shí)到了信息流策展的情況”。[30]

      算法有強(qiáng)大的推演能力,對(duì)人際關(guān)系的影響有積極的一面,也有消極的一面,需要客觀辯證地看待。盡管算法會(huì)為我們的生活帶來(lái)眾多便利,但是它也會(huì)給人們帶來(lái)一些困擾。假設(shè)當(dāng)你在社交媒體上發(fā)布消息時(shí),你可以選擇可見(jiàn)的對(duì)象,算法會(huì)根據(jù)你每次發(fā)布的消息和消息可見(jiàn)的對(duì)象,將你的好友進(jìn)行分類,從而摸清你的人際關(guān)系。算法滲透到了人們生活的各個(gè)方面,人在算法面前變得越來(lái)越透明、沒(méi)有隱私。由搜索引擎和社會(huì)媒介創(chuàng)造的“過(guò)濾氣泡”給我們提供了傾向于證實(shí)我們觀點(diǎn)的信息。這種傾向的批評(píng)來(lái)自兩個(gè)原因:一是這些選擇算法使得難以接近信息之外的信息,創(chuàng)造了某種程度的獨(dú)白生活;第二,這些氣泡是在沒(méi)有征得我們同意下由算法媒體創(chuàng)造出來(lái)的。不管怎么樣,過(guò)濾氣泡也可能是文化融合的催動(dòng)要素,在潛在的無(wú)限的萬(wàn)維網(wǎng)中提供了一種熟悉感。甚至個(gè)性化算法帶來(lái)的“過(guò)濾氣泡”還存在三個(gè)人文價(jià)值:自治、身份認(rèn)同和透明度。[31]

      (3)算法媒體對(duì)社會(huì)分層的影響。算法在社會(huì)分層方面發(fā)揮重要角色。算法一直在編織著客觀性的神話:沒(méi)有偏見(jiàn)、缺陷、邪惡意圖的無(wú)錯(cuò)誤的實(shí)體;算法作為“客觀的造物主”,擺脫了與性別、性、民族、種族或社會(huì)階層相關(guān)的任何分化。事實(shí)上,算法并沒(méi)有想象得那么完美。

      從社會(huì)結(jié)構(gòu)層面看,算法媒體的可見(jiàn)性生產(chǎn)將加一步加大了數(shù)字社會(huì)階層的分化,出現(xiàn)新的數(shù)字鴻溝,社會(huì)日益碎片化。Hallinan和Striphas將算法文化定義為“使用計(jì)算過(guò)程對(duì)人、地方、對(duì)象和思想進(jìn)行分類和層次化,以及與這些過(guò)程相關(guān)的思想、行為和表達(dá)習(xí)慣”。[32]基于大數(shù)據(jù)的算法推薦經(jīng)常是娛樂(lè)消遣類的流行話題、趨勢(shì)或熱點(diǎn),這些娛樂(lè)消閑內(nèi)容的濫觴導(dǎo)致“玩勞動(dòng)者”新階層的崛起。個(gè)性化信息的算法推薦產(chǎn)生“回音室”“過(guò)濾氣泡”“信息繭房”“藩籬效應(yīng)”“每日我”“利基嫉妒”“同質(zhì)性”“群體極化”等諸多效應(yīng),強(qiáng)化了個(gè)體化、碎片化、流動(dòng)化的社會(huì),日益難以建立社會(huì)價(jià)值認(rèn)同。算法媒體“揭示了組織模式與個(gè)人角色之間的聯(lián)系,解釋了可見(jiàn)性政治在個(gè)人內(nèi)部產(chǎn)生和結(jié)束的過(guò)程,該過(guò)程最終創(chuàng)建了群體中的個(gè)人而不是群體”。[33]

      算法媒體也可能產(chǎn)生數(shù)字排外或群體偏見(jiàn)。西方不少學(xué)者批評(píng)Google、Facebook不僅僅是算法驅(qū)動(dòng)的平臺(tái),還能框架、塑造和扭曲我們所見(jiàn)的世界?!斑@個(gè)由種族現(xiàn)實(shí)主義者和理想主義者組成的團(tuán)體,是被圍困的白人少數(shù)派的聲音。這個(gè)團(tuán)體正被用來(lái)激進(jìn)新一代極端、暴力、右翼的個(gè)人。它們已經(jīng)成為一個(gè)龐大且不斷增長(zhǎng)的生態(tài)系統(tǒng),正像癌癥一樣侵入主流新聞和信息基礎(chǔ)設(shè)施?!币愿ジ裆‵erguson)抗議案為例。一名警官于2014年8月在密蘇里州弗格森殺死一名非洲裔美國(guó)少年,隨后引發(fā)了全國(guó)范圍的示威活動(dòng)。該案涉及少數(shù)族裔社區(qū)的種族不平等、刑事司法制度和警察行為。TUFEKCI記錄了Facebook的“新聞源”在算法上壓制了抗議的新聞?!癋acebook的算法已經(jīng)‘決定這些報(bào)道不符合其‘相關(guān)性標(biāo)準(zhǔn)——一個(gè)不透明的、專有的公式,它每周都會(huì)改變,并且可能導(dǎo)致新聞的巨大轉(zhuǎn)變。算法過(guò)濾可能意味著,一場(chǎng)關(guān)于警察責(zé)任和種族關(guān)系的談話,從此動(dòng)搖了整個(gè)國(guó)家,但可能從未從弗格森走出來(lái)”[34]。此外,許多公司在招聘、解雇或其他相關(guān)決定時(shí)都轉(zhuǎn)向算法。有些聯(lián)邦法律適用于這些決定中的許多情況,例如,雇傭、貸款或住房等情況的決定,往往基于種族、性別、殘疾、家庭規(guī)模或其他受保護(hù)類別的歧視。然而,算法決策為這些類型的歧視創(chuàng)造了潛能,即使算法沒(méi)有明確和直接針對(duì)這些類型的歧視,它們也會(huì)悄悄地溜進(jìn)來(lái)。[35]

      (4)算法媒體對(duì)公共輿論的影響。在社會(huì)運(yùn)動(dòng)中,政治行動(dòng)者運(yùn)用算法和自動(dòng)化努力煽動(dòng)公共輿論,主要通過(guò)使用Twitter、Facebook、Reddit和其他社交媒介平臺(tái)的機(jī)器人。機(jī)器人被理解為“模仿用戶并產(chǎn)生內(nèi)容的代碼的合并”或“自動(dòng)化軟件代理”。[36]算法通過(guò)影響民眾輿論,對(duì)政治和經(jīng)濟(jì)產(chǎn)生潛移默化的影響。例如,2016年的美國(guó)大選,F(xiàn)acebook的算法推薦對(duì)最后的結(jié)果產(chǎn)生了潛移默化的影響。特朗普成功利用了算法的中介權(quán)力,達(dá)成使有利于自己的信息具有公共可見(jiàn)性的目的,并找到一個(gè)聰明的策略:即通過(guò)谷歌搜索算法識(shí)別來(lái)放大集體性的政治表達(dá),使它們位于一個(gè)能夠賦予可見(jiàn)性和意義的獨(dú)特的權(quán)力位置。

      在2010年,F(xiàn)acebook進(jìn)行了一項(xiàng)大規(guī)模的實(shí)驗(yàn)(在6100萬(wàn)受試者中沒(méi)有任何人注意到的情況下進(jìn)行,沒(méi)有一個(gè)人被要求許可),結(jié)果表明它可以改變美國(guó)數(shù)百名選民的投票率。Facebook僅僅通過(guò)輕微不同的、實(shí)驗(yàn)性地操縱的、獲得投票信息的推測(cè)來(lái)引導(dǎo)人們投票。顯然,在助推人們投票方面,社交性消息比信息性消息要強(qiáng)有力得多。2014年6月,F(xiàn)acebook通過(guò)實(shí)驗(yàn)性地操縱用戶在算法上策劃的“新聞?dòng)嗛啞?,展示了“通過(guò)社會(huì)網(wǎng)絡(luò)大規(guī)模傳染的實(shí)驗(yàn)證據(jù)”。研究表明,F(xiàn)acebook上的新聞和更新影響了瀏覽Facebook的用戶后續(xù)帖子的主旨,并且Facebook本身能夠通過(guò)調(diào)整算法來(lái)調(diào)整和控制這種影響。這場(chǎng)受到廣泛關(guān)注的實(shí)驗(yàn)揭示了一個(gè)更大的根本問(wèn)題:算法平臺(tái)進(jìn)行實(shí)驗(yàn)操縱輿論的倫理責(zé)任。Epstein、Robertson用4556名未決選民測(cè)試了他們的理論,這些選民代表了美國(guó)和印度投票人口的多樣化人口特征。實(shí)驗(yàn)包括改變Google給出的結(jié)果的順序,看它們是否影響選民的意圖。結(jié)果令人震驚:有偏見(jiàn)的搜索排名可以把未決選民的投票偏好改變20%或更多,這種改變可以大大提高。在一些人口統(tǒng)計(jì)群體中,那種搜索排名的偏見(jiàn)可以被掩蓋,這樣人們就不會(huì)意識(shí)到被操縱的輿論。[37]

      算法媒體的治理機(jī)制

      算法既不中立也不分好壞,而僅僅反映了現(xiàn)有的權(quán)力結(jié)構(gòu)和斗爭(zhēng),通過(guò)可塑的技術(shù)直接影響人們的社會(huì)建構(gòu)。算法運(yùn)用的幾個(gè)潛在風(fēng)險(xiǎn)有操縱、偏見(jiàn)、審查、社會(huì)歧視、隱私和產(chǎn)權(quán)侵犯、濫用市場(chǎng)權(quán)力、窄化視野、降低創(chuàng)新能力、減弱對(duì)公共事務(wù)的熱情等方面。這些關(guān)注導(dǎo)致從嚴(yán)格的法律規(guī)制、審計(jì)責(zé)任到公民素養(yǎng)的不同治理方式的呼吁。如Gillespie、Tarleton提出算法塑造公共領(lǐng)域的修補(bǔ)建議:積極主動(dòng)的公開(kāi)透明、逆向工程、技術(shù)和調(diào)查機(jī)制、設(shè)計(jì)/工程解決方案、計(jì)算/算法素養(yǎng),治理和公共利益框架,市場(chǎng)和技術(shù)的去中心化。[38]Rodríguez提供了社交媒體環(huán)境中評(píng)價(jià)算法體驗(yàn)的五個(gè)框架性的指南:算法畫像透明度、算法畫像管理、算法意識(shí)、算法用戶控制和選擇性算法記憶。[39]

      盡管未來(lái)算法媒體的治理模式仍然處在變化中,但多主體多層級(jí)協(xié)同治理模式能提供未來(lái)治理體制如何設(shè)計(jì)的啟發(fā)和概念指導(dǎo)(見(jiàn)附表)。這種結(jié)合了不同的要素以抓住和解決以上提到的大量問(wèn)題,使之成為多利益相關(guān)方共同的責(zé)任,能正確處理好權(quán)力與權(quán)利、控制與自由、安全與創(chuàng)新發(fā)展的沖突。我們希望通過(guò)技術(shù)代碼、用戶規(guī)則、法律法規(guī)和公共政策制定切實(shí)可行的方案。

      技術(shù)層面的平臺(tái)社會(huì)責(zé)任。處于技術(shù)層的平臺(tái)是算法治理生態(tài)系統(tǒng)的基礎(chǔ)。具有社會(huì)影響的負(fù)有責(zé)任的算法的建議原則包括:人工干預(yù)、公開(kāi)透明、客觀公正、全面優(yōu)質(zhì)、標(biāo)注提醒、反對(duì)例外主義、責(zé)任心、可解釋、準(zhǔn)確性、可審計(jì)等。通過(guò)算法對(duì)數(shù)據(jù)的收集、使用和管理應(yīng)遵循促進(jìn)公平和安全的原則,不能有種族、膚色、國(guó)籍、宗教、性別、性取向、殘疾人或家庭狀況的歧視。如AI和自動(dòng)化系統(tǒng)的IEEE提出普遍倫理原則:不能侵犯人權(quán)(如自由、平等、尊嚴(yán)、文化多樣性),人類福祉為先,負(fù)責(zé)任,透明度,加強(qiáng)倫理教育和安全意識(shí)以防止濫用風(fēng)險(xiǎn)。

      很多研究都在批評(píng)算法的黑盒性質(zhì),即其不透明性。試圖讓平臺(tái)中介打開(kāi)算法黑箱是徒勞的,使未知面最小化是努力的方向。在透明度方面,算法責(zé)任報(bào)告應(yīng)公開(kāi)以下信息:人的參與、數(shù)據(jù)、模型、推論、算法的存在。人的參與方面涉及算法的目標(biāo)、意圖,包括編輯目標(biāo)和人工編輯流程,誰(shuí)對(duì)算法有直接的控制,誰(shuí)在監(jiān)管和負(fù)有責(zé)任。數(shù)據(jù)方面涉及數(shù)據(jù)的質(zhì)量,包括準(zhǔn)確性、完整性、不確定性、時(shí)效性,數(shù)據(jù)如何界定、收集、傳輸、檢查和編輯的(人工或自動(dòng)化)?不同數(shù)據(jù)標(biāo)簽如何聚合的?它們是否反映了一個(gè)更客觀或主觀的過(guò)程?數(shù)據(jù)是否是私人的還是公共的?模型方面包括算法中使用的變量是什么?這些變量權(quán)重如何?用于建模的工具如何?模型背后的假設(shè)是什么?這些假設(shè)從何而來(lái)?模型的某些方面為何不出現(xiàn)在前段?推論(預(yù)測(cè))方面包括誤差幅度多少?準(zhǔn)確率多少?假正和假負(fù)有多少?采取了哪些步驟來(lái)補(bǔ)救已知的錯(cuò)誤?這些錯(cuò)誤是人的介入、數(shù)據(jù)輸入或是算法本身的結(jié)果?算法存在方面包括A/B測(cè)試是否使用以檢測(cè)不同的效果?與信息可見(jiàn)性問(wèn)題,如哪些內(nèi)容你沒(méi)有看到?你發(fā)布的推文別人看不到?[40]

      誠(chéng)然,透明度遠(yuǎn)不是平衡算法權(quán)力的完美方案?!耙蕾囃该鞫炔⒉荒芙鉀Q問(wèn)題,公開(kāi)源代碼既不需要也不充分。中心問(wèn)題是在使這些算法程序更負(fù)責(zé)時(shí),如何確保公民和整個(gè)社會(huì)的利益。強(qiáng)調(diào)依靠程序規(guī)律的技術(shù)工具如軟件鑒定、密碼編寫的使命、零知識(shí)證明、公平的隨機(jī)選擇。設(shè)計(jì)算法以確保忠誠(chéng)于重要的政策選擇,非歧視的技術(shù)工具如從經(jīng)驗(yàn)中學(xué)習(xí),公平的機(jī)器學(xué)習(xí),歧視、數(shù)據(jù)使用和隱私?!盵41]希望執(zhí)行其算法的實(shí)體必須能夠以所有理性的社會(huì)個(gè)體能接受的標(biāo)準(zhǔn)的、認(rèn)知的術(shù)語(yǔ)來(lái)說(shuō)明它的算法系統(tǒng)。許多隱私、數(shù)據(jù)保護(hù)和信息自由法包含不同的措施以強(qiáng)迫組織揭示他們部署的系統(tǒng),他們收集了什么數(shù)據(jù),他們推斷的模型,它們?nèi)绾问褂玫?。[42]1995年EU數(shù)據(jù)保護(hù)指南和2016年通用數(shù)據(jù)保護(hù)條例都包含了個(gè)體有要求自動(dòng)決策背后的邏輯陳述的權(quán)利。這些規(guī)則旨在使公民能審查和挑戰(zhàn)這些系統(tǒng)的模糊邏輯。

      規(guī)制層面的法律政策倫理。當(dāng)前,要加強(qiáng)人工智能算法的相關(guān)法律、倫理、社會(huì)問(wèn)題研究,建立健全保障人工智能算法健康發(fā)展的法律法規(guī)、制度體系、倫理道德。算法媒體治理的政策路線圖應(yīng)包含幾個(gè)核心議題和問(wèn)題:公平、平等、責(zé)任、透明、隱私、包容的人類價(jià)值,避免新的不平等和偏見(jiàn)。技術(shù)倫理層面包括以下幾種方式:第一種是植根于政策和法規(guī),試圖將技術(shù)的道德發(fā)展和使用編成法典,制定懲罰錯(cuò)誤的標(biāo)準(zhǔn)如告知同意、符合一定比例、具體明確的合法目的等,教授最佳作法,以及防止未來(lái)的失靈;第二種不是將倫理規(guī)則應(yīng)用于技術(shù),而是試圖預(yù)測(cè)技術(shù)創(chuàng)新引起的倫理關(guān)切;第三種側(cè)重于技術(shù)人員本身的價(jià)值觀和信念,要有目的地在一套能評(píng)判加工品為“優(yōu)秀”的標(biāo)準(zhǔn)中包括價(jià)值觀。[43]

      如軟件工程的ACM(計(jì)算機(jī)器協(xié)會(huì))倫理準(zhǔn)則列舉了8個(gè)原則:有助于社會(huì)和人類福祉,避免對(duì)他人的傷害,誠(chéng)信和值得信任,公平和不采取歧視行為,尊重包括版權(quán)和專利的產(chǎn)權(quán),對(duì)知識(shí)產(chǎn)權(quán)給予適當(dāng)?shù)男湃?,尊重他人隱私,尊重機(jī)密。還提出了8個(gè)職業(yè)責(zé)任:努力在職業(yè)工作的過(guò)程和產(chǎn)品中獲得高質(zhì)量、效果和尊嚴(yán),獲得和維持職業(yè)能力,知道和尊重與職業(yè)工作相關(guān)的現(xiàn)有法律,接受和提供恰當(dāng)?shù)穆殬I(yè)評(píng)論,對(duì)計(jì)算機(jī)系統(tǒng)及其影響包括可能風(fēng)險(xiǎn)分析給予全面深刻的評(píng)價(jià),尊重契約、協(xié)議和分配的責(zé)任,提升公眾對(duì)計(jì)算及其后果的公眾理解,只有在被授權(quán)情況下才可接近計(jì)算和傳播資源。

      在國(guó)家層面,算法的規(guī)則和政策被認(rèn)為符合公共利益并支持民主原則。歐盟的“被遺忘的權(quán)利”規(guī)定,搜索引擎可以充當(dāng)編輯,并決定哪些信息不應(yīng)該再出現(xiàn)在搜索結(jié)果中。2018年11月21日,歐洲委員會(huì)發(fā)布《關(guān)于算法系統(tǒng)對(duì)人權(quán)影響的建議草案》,具體內(nèi)容包括:(1)各國(guó)政府要切實(shí)將人權(quán)嵌入到算法機(jī)制的包括設(shè)計(jì)、開(kāi)發(fā)、部署運(yùn)作在內(nèi)的所有步驟中,加快制定和完善相關(guān)的保護(hù)機(jī)制體制、規(guī)章和立法框架。目前各國(guó)公司部門在努力制定相關(guān)準(zhǔn)則,這種舉措是值得肯定的,但是各國(guó)各自的措施并不能與成員國(guó)的責(zé)任等同,也沒(méi)有很好地遵守《歐洲公約》規(guī)定。(2)各成員國(guó)應(yīng)建立適當(dāng)?shù)谋O(jiān)管框架,以促進(jìn)所有行動(dòng)者尊重人權(quán)的技術(shù)創(chuàng)新。(3)各成員國(guó)要完善算法系統(tǒng),其準(zhǔn)則包括:提升數(shù)據(jù)質(zhì)量、完善建模標(biāo)準(zhǔn)、堅(jiān)持?jǐn)?shù)據(jù)透明度和可競(jìng)爭(zhēng)性原則、提供有效的司法程序和非司法補(bǔ)救措施、實(shí)施預(yù)防措施。(4)成員國(guó)應(yīng)確保的私人行為者的責(zé)任,包括數(shù)據(jù)質(zhì)量和建模的相關(guān)準(zhǔn)則。美國(guó)也承認(rèn)搜索引擎或作為出版商的社交媒體扮演著類似的角色,但持相反立場(chǎng),認(rèn)為谷歌的搜索結(jié)果受到美國(guó)言論自由法的保護(hù),并且可以按照公司認(rèn)為合適的方式組織。盡管公共規(guī)制部門不能影響谷歌的算法,F(xiàn)TC和EU對(duì)“搜索中立”的調(diào)查涉及到這個(gè)問(wèn)題。規(guī)制者能迫使谷歌以某種方式對(duì)某些競(jìng)爭(zhēng)網(wǎng)站采取行動(dòng)嗎?這實(shí)際上要求公共規(guī)制部門接近算法,雇傭一些能理解其特征的人為了公共利益而有效地修正它。[44]

      在全球?qū)用?,?yīng)采取多利益相關(guān)方模式,建立算法決策監(jiān)管小組或知識(shí)聯(lián)盟以及算法認(rèn)證程序,制定算法規(guī)制的全球準(zhǔn)則、基本原則或普遍標(biāo)準(zhǔn)。當(dāng)前很多公益組織和私人實(shí)體為此進(jìn)行了積極探索。2015年6月,反極端主義項(xiàng)目(CEP)在布魯塞爾創(chuàng)辦。這個(gè)高度有影響和快速擴(kuò)張的組織,要求“不從網(wǎng)站上刪除極端主義材料的社交媒體公司要面臨懲罰”。該組織關(guān)注全球互聯(lián)網(wǎng)上的內(nèi)容如何治理,表明了政府資助的非盈利組織有能力通過(guò)具體領(lǐng)域的專業(yè)性對(duì)私人部門行動(dòng)者施加相當(dāng)?shù)膲毫?。該組織提出和導(dǎo)致了“能力制度”(regime of competence)的出現(xiàn)?!叭蛑黜?yè)”(global default)是一個(gè)界定許可的在線內(nèi)容的全球能力制度。盡管部分制度來(lái)自于公共規(guī)制甚至國(guó)家立法,大部分的制度基于私人規(guī)范和實(shí)踐。制度本身根植于私人部門行動(dòng)者之間的協(xié)議,他們負(fù)責(zé)制度的界定、管理和執(zhí)行。德國(guó)小型的準(zhǔn)公共NGO Jugendschutz.Net確立了兒童圖片有關(guān)挑逗性姿勢(shì)的全球標(biāo)準(zhǔn);美國(guó)公司Facebook提出了在社交空間里有關(guān)裸體的語(yǔ)言規(guī)制的全球標(biāo)準(zhǔn);英國(guó)私人部門組織IWF提供了兒童性濫用材料的基礎(chǔ)定義,這些材料不僅在英國(guó)會(huì)阻擋,也受到全世界的在線服務(wù)提供商的阻擋。[45]

      社會(huì)層面的用戶“算法素養(yǎng)”。算法素養(yǎng)在國(guó)內(nèi)還是一個(gè)新鮮詞匯,但在國(guó)外已經(jīng)有了不少的討論?!八惴ㄋ仞B(yǎng)并不是指能夠嚴(yán)格地讀寫代碼,而是說(shuō)(受眾)能意識(shí)到算法在他們生活中的存在,以及算法所扮演的越來(lái)越重要的角色,不管這個(gè)角色是好或是壞?!蔽覀冃枰絹?lái)越多地意識(shí)到算法和大數(shù)據(jù)是如何對(duì)我們進(jìn)行排序和塑造的。算法素養(yǎng)可能包括至少知道算法在什么情況下表現(xiàn)出來(lái),什么時(shí)候藏在幕后,以及能夠?qū)λ惴ń酉聛?lái)的意圖做出推斷。意識(shí)到它們的存在,以及在我們生活中不斷增加的存在,可以被定義為“算法素養(yǎng)”。提升算法素養(yǎng)的目的是能夠批判性地理解算法所能帶來(lái)的影響。美國(guó)皮尤中心在2017年的一項(xiàng)針對(duì)算法技術(shù)的報(bào)告中,就指出了在算法技術(shù)對(duì)人類社會(huì)帶來(lái)了挑戰(zhàn):在算法時(shí)代,人類所要探討的主題之一就是在算法的挑戰(zhàn)下,人們“對(duì)算法素養(yǎng)、透明度和監(jiān)督的需求越來(lái)越大”。[46]根據(jù)凱西·戴維森的說(shuō)法,人的基本素養(yǎng)是能夠閱讀、書寫和理解算法,并且具有計(jì)算能力;算法應(yīng)該融入教育哲學(xué),作為第四個(gè)“R”(“閱讀”“書寫”“文學(xué)”和“算法”,即reading,riting,rithmetic,rithms)。

      人們每天都在跟算法打交道,但是問(wèn)及算法對(duì)他們生活的影響時(shí),很多人卻很難回答上來(lái)。那么人們?cè)谑裁辞闆r下會(huì)意識(shí)到算法的存在?鑒于算法的隱藏和隱形性質(zhì),人們?nèi)绾误w驗(yàn)和理解這些隱含的算法?算法意識(shí)在多大程度上會(huì)影響到人們對(duì)這些平臺(tái)的使用?這些都是值得探究的問(wèn)題。以前是互聯(lián)網(wǎng)控制著我們的生活,現(xiàn)在變成了算法。我們應(yīng)當(dāng)學(xué)會(huì)發(fā)現(xiàn)、認(rèn)識(shí)、了解算法,并且學(xué)會(huì)用正確的方式利用算法達(dá)成便利生活的目的。還要學(xué)會(huì)怎樣防范算法權(quán)力、防范算法可見(jiàn)性生產(chǎn)中的“偏見(jiàn)”,不斷提升自己的“算法素養(yǎng)”。例如,根據(jù)最近的一項(xiàng)研究顯示,即使在一所精英大學(xué),62%的本科生也不知道“臉譜”通過(guò)算法來(lái)策劃用戶的“新聞源”。

      參與策略可能有助于解決算法設(shè)計(jì)者的意圖與旁觀者期望之間的脫節(jié)問(wèn)題。參與式設(shè)計(jì)主要出現(xiàn)在斯堪的納維亞國(guó)家,作為一種賦予勞動(dòng)者權(quán)力的形式,使他們?cè)谠O(shè)計(jì)工作場(chǎng)所時(shí)有一定程度的控制。參與式方法在信息技術(shù)設(shè)計(jì),特別是工作場(chǎng)所技術(shù)方面獲得了顯著的推動(dòng)。然而,并不是所有的例子都帶有初始運(yùn)動(dòng)的政治方向和分量。從一開(kāi)始就采用參與性辦法未必能解決這種緊張局勢(shì)。然而,它可能會(huì)更早地識(shí)別它們。此外,參與性辦法可促進(jìn)那些可能與該系統(tǒng)互動(dòng)的人與正在設(shè)計(jì)和實(shí)施該系統(tǒng)的人之間的辯證交流。這樣做將有助于更好地理解計(jì)算想像力的形成,以及如何干預(yù)計(jì)算想象力的發(fā)展過(guò)程。[47]此外,應(yīng)鼓勵(lì)支持社區(qū)、學(xué)校、公益組織積極開(kāi)展算法素養(yǎng)教育運(yùn)動(dòng),不斷提升青少年對(duì)算法媒體信息的理性批判能力,從而實(shí)現(xiàn)更好的知識(shí)傳播和社會(huì)建構(gòu)。

      (本文系國(guó)家社科基金重點(diǎn)項(xiàng)目“全球互聯(lián)網(wǎng)治理的競(jìng)爭(zhēng)格局與中國(guó)進(jìn)路研究”的階段性成果,項(xiàng)目編號(hào):18AXW008)

      注釋

      [1]Kitchin, R., & Dodge, M., Code/space: Software and everyday life, Cambridge, MA: MIT Press, ?2011.

      [2]Thompson, J. B., "The new visibility", Theory, Culture & Society, 2005, 22 (6), pp. 31-51.

      [3][法]雷吉斯·德布雷:《媒體學(xué)引論》,劉文玲譯,北京:中國(guó)傳媒大學(xué)出版社,2014年,第1頁(yè)。

      [4][法]米耶熱:《傳播思想》,陳蘊(yùn)敏譯,南京:鳳凰出版?zhèn)髅郊瘓F(tuán)、江蘇人民出版社,2008年,第80頁(yè)。

      [5][法]雷吉斯·德布雷:《媒體學(xué)引論》,劉文玲譯,北京:中國(guó)傳媒大學(xué)出版社,2014年,第36~38、127頁(yè)。

      [6][美]托馬斯·德·曾戈提塔:《中介化:媒體如何建構(gòu)你的世界和生活方式》,王珊珊譯,上海譯文出版社,2009年,第8頁(yè)。

      [7]Zeynep Tufekci, "Algorithms in our Midst: Information, Power and Choice when Software is Everywhere", CSCW, 2015, March, Vancouver, BC, Canada, pp. 14-18.

      [8]Thompson, J. B., "The new visibility", Theory, Culture & Society, 2005, 22(6), pp. 31-51.

      [9]Williams, B. A., & Delli Carpini, M. X., "Unchained Reaction: The Collapse of Media Gatekeeping and the Clinton–Lewinsky Scandal", Journalism, 2000, 1(1), pp. 61-85.

      [10]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

      [11]Daniel Neyland & Norma M?llers, "Algorithmic IF … THEN rules and the conditions and consequences of power", Information, Communication & Society, ?2017, 20 (1), pp. 45-62.

      [12]Lincoln Dahlberg, "Visibility and The Public Sphere: A Normative Conceptualisation", Javnost-The Public, 2018, 25(1-2), pp. 1318-3222.

      [13]Thompson, J. B., "The new visibility", Theory, Culture & Society, 2005, 22(6), pp. 31-51.

      [14]Daniel DaYan, "Conquering visibility, conferring visibility: visibility seekers and media performance", International Journal of Communication, 2013, (7), pp. 137-153.

      [15]Astrid Mager, "Algorithmic Ideology:How capitalist society shapes search engines", Information, Communication & Society, 2012, 15 (5), pp. 769-787.

      [16]Taina Bucher, "Want to be on the top? Algorithmic power and the threat of invisibility on Facebook", New media & society, 2012, 14(7), pp. 1164-1180.

      [17]Thaler, R., & Sunstein, C., Nudge, London: Penguin Books, 2008, p. 1.

      [18]Duguay, Stefanie, "Trending this moment: Examining social media platforms as information gatekeepers through Facebook's Trending topics and Twitter's Moments", In 66th Annual Conference of the International Communication Association: Communicating with Power, June 2016, Fukuoka, Japan, pp. 9-13.

      [19]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

      [20]Philip M. Napoli and Robyn Caplan, "Why media companies insist they're not media companies, why they're wrong, and why it matters", First Monday, 2017, 22(5).

      [21]Ben Wagner, "Algorithmic regulation and the global default: Shifting norms in Internet technology", Nordic Journal of Applied Ethics, 2016,10 (1), pp. 5-13.

      [22]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

      [23]Thelwall, M., and L. Vaughan, "A Fair History of the Web? Examining Country Balance in the Internet Archive", Library and Information Science Research, 2004, 26 (2), pp. 162-176.

      [24]Philip M. Napoli, "Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

      [25]Cheney-Lippold, John, "A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control", Theory, Culture & Society, 2011, 28 (6), pp. 164-181.

      [26]Mike Ananny, "Toward an Ethics of Algorithms:Convening, Observation, Probability, and Timeliness", Science, Technology, & Human Values, 2016, 41(1), pp. 93-117.

      [27]Marco, Deseriis, "The general, the watchman, and the engineer of control", Journal of Communication Inquiry, 2011, 35(4), pp. 387-394.

      [28]Fenwick McKelvey, "Algorithmic Media Need Democratic Methods: Why Publics Matter", Canadian Journal of Communication, 2014, 39(4), pp. 597-613.

      [29]Merleau-Ponty, The phenomenology of perception, London: RKP, 1962.

      [30]Eslami, M., Rickman, A., etc., "I always assumed that I wasn't really that close to [her]: Reasoning about invisible algorithms in the news feed", In Proceedings of the 33rd Annual SIGCHI Conference on Human Factors in Computing Systems (pp. 153-162). New York, NY: ACM.

      [31]Engin Bozdag and Job Timmermans," Values in the filter bubble: Ethics of Personalization Algorithms in Cloud Computing", 1st International Workshop on Values in Design –Building Bridges between RE, HCI and Ethics, 6th of September, 2011, Lisbon, Portugal, pp. 6-16.

      [32]Blake Hallinan, Ted Striphas, "Recommended for you: The Netflix Prize and the production of algorithmic culture", new media & society, 2016, 18 (1), pp. 117-137.

      [33]Stefania Milan, "When Algorithms Shape Collective Action: Social Media and the Dynamics of Cloud Protesting", Social Media + Society, 2015, July-December, pp. 1-10.

      [34]Z EYNEP T UFEKCI, "Algorithmic harms beyond Facebook and Google Emergent challenges of computational agency", COLO. TECH.L.J. 2015, 13 (2), ?pp. 203-216.

      [35]Blake Hallinan, Ted Striphas, "Recommended for you: The Netflix Prize and the production of algorithmic culture", new media & society, 2016, 18 (1), pp. 117-137.

      [36]Nathalie Maréchal, "When Bots Tweet: Toward a Normative Framework for Bots on Social Networking Sites", International Journal of Communication, 2016, 10, pp. 5022-5031.

      [37]Robert Epstein and Ronald E. Robertson, "The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections", PNAS Plus, 2015, Aug 4.

      [38]Gillespie,Tarleton, "The Relevance of Algorithms" in Media technologies: Essays on Communication, Materiality and Society. Tarleton Gillespie, Pablo J. Boczkowski, and Kirsten A. Foot (eds.), Boston, Mass: MIT Press, 2014.

      [39]Oscar Luis Alvarado Rodríguez, "Towards Algorithmic Experience Redesigning Facebook's News Feed", 2017, https://uu.diva-portal.org/smash/get/diva2:1110570/FULLTEXT01.pdf.

      [40]Nicholas Diakopoulos, "Accountability in Algorithmic Decision-making: A View from Computational Journalism", Communications of the ACM, 2015, 59(2), pp. 56-62.

      [41]J OSHUA A. K ROLL, J OANNA ?H UEY, "Accountable Algorithms", University of Pennsylvania Law Review, 2017, 165, ?pp. 1-193.

      [42]Reuben Binns, "Algorithmic Accountability and Public Reason", Philosophy & Technology, 2017, pp. 1-14.

      [43]Mike Ananny, "Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness,Science", Technology, & Human Values, 2016, 41 (1), pp. 93-117.

      [44]Ben Wagner, "Algorithmic regulation and the global default: Shifting norms in Internet technology", Nordic Journal of Applied Ethics, 2016, 10 (1), p. 7.

      [45]Ben Wagner, "Algorithmic regulation and the global default: Shifting norms in Internet technology", Nordic Journal of Applied Ethics / Etikk i praksis, 2016, 10 (1), pp. 5-13.

      [46]Pew Research Center, "Code-Dependent: Pros and Cons of the Algorithm Age", February 8, 2017. http://www.pewinternet.org/2017/02/08/theme-7-the-need-grows-for-algorithmic-literacy-transparency-and-oversight/.

      [47]Eric PS Baumer, "Toward human-centered algorithm design", Big Data & Society, 2017, July–December, pp. 1-12.

      責(zé) 編/鄭韶武

      猜你喜歡
      協(xié)同治理算法
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      進(jìn)位加法的兩種算法
      算法初步兩點(diǎn)追蹤
      協(xié)同治理視域下政社合作機(jī)制研究
      基于多中心治理理論下的京津冀環(huán)境污染協(xié)同治理研究
      基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
      協(xié)同治理:我國(guó)社會(huì)治理體制創(chuàng)新的理論參照
      城鄉(xiāng)一體化進(jìn)程中農(nóng)村社區(qū)治理的創(chuàng)新
      風(fēng)險(xiǎn)社會(huì)理論范式下中國(guó)“環(huán)境沖突”問(wèn)題及其協(xié)同治理論
      临潭县| 玉山县| 百色市| 福泉市| 理塘县| 辽源市| 晋州市| 诏安县| 阿拉善左旗| 玉屏| 临澧县| 泸西县| 廊坊市| 沈丘县| 东乌| 广德县| 正镶白旗| 焦作市| 易门县| 军事| 宣化县| 杭锦旗| 永新县| 阿拉尔市| 济宁市| 福安市| 遂平县| 孟州市| 监利县| 长春市| 彰化县| 榆社县| 扎鲁特旗| 台州市| 沅陵县| 厦门市| 衡阳县| 德化县| 阆中市| 图们市| 大兴区|