謝嘯軒
關(guān)鍵詞 算法;科技與社會(huì);媒介倫理;算法權(quán)力
中圖分類號(hào) G2 文獻(xiàn)標(biāo)識(shí)碼 A 文章編號(hào) 2096-0360(2021)12-0041-03
2021年“3·15晚會(huì)”曝光的失范企業(yè)案例中,信息安全、老年人數(shù)字生存、網(wǎng)絡(luò)虛假廣告等社會(huì)問題重新出現(xiàn)在大眾視野之中。算法推薦沒有給人們最優(yōu)的選項(xiàng),反而將劣質(zhì)廣告商品呈現(xiàn)在平臺(tái)榜首[ 1 ]。以用戶信息安全與隱私保護(hù)為原則的智聯(lián)招聘,卻大肆販賣求職者個(gè)人信息,且形成了個(gè)人信息泄露、買賣、精準(zhǔn)詐騙的黑色產(chǎn)業(yè)鏈。360搜索被曝光的醫(yī)藥廣告造假鏈條,以及其算法推薦虛的假藥品醫(yī)療廣告,并借公立醫(yī)院之名進(jìn)行競價(jià)排名。UC瀏覽器涉及為無資質(zhì)公司投虛假醫(yī)藥廣告。在人們的需求催化下,推薦算法被發(fā)明,然而缺乏倫理道德準(zhǔn)則的算法也在不斷地造成社會(huì)問題。媒介倫理的研究對(duì)傳播真實(shí)性、個(gè)人隱私權(quán)社會(huì)責(zé)任等方面的關(guān)注便尤為重要[2]。
“算法”(algorithm)一詞得名于波斯數(shù)學(xué)家花拉子密。公元9世紀(jì),這位數(shù)學(xué)家寫過一本書,討論用紙筆解決數(shù)學(xué)問題的技巧,書名為“al-Jabr wal-Muqabala”,其中的“al-jabr”就是后來“algebra”(代數(shù))這個(gè)詞的前身[ 3 ]。布萊恩·克里斯汀和湯姆·格里菲思表示,算法是為了幫助人們從大量的信息中找到最佳答案,以解決“最優(yōu)停止”(optimal stopping)的一類問題,同時(shí)也為人們解決了有限的時(shí)間、空間和注意力[ 4 ]。個(gè)性化推薦算法雖然因?yàn)榻陙硪恍┗谒惴ǖ膬?nèi)容平臺(tái)的興起而受到關(guān)注,但事實(shí)上個(gè)性化推薦早就進(jìn)入網(wǎng)絡(luò),搜索引擎、電子商務(wù)平臺(tái)等都早已采用推薦算法[5]。??略鴮?duì)臨床醫(yī)學(xué)進(jìn)行基于視覺-權(quán)力-知識(shí)的詮釋,認(rèn)為過去充滿了對(duì)病人非人化而只是看作器官的“醫(yī)學(xué)凝視”,在現(xiàn)在社會(huì)同樣也充滿了將個(gè)體視作數(shù)據(jù)的“數(shù)據(jù)凝視”,同構(gòu)了數(shù)據(jù)空間與社會(huì)空間,人類也成為了“數(shù)據(jù)景觀”。
國內(nèi)傳播學(xué)者也指出,平臺(tái)算法一直處于封閉倫理狀態(tài),且算法工程師倫理水平一般,無法為用戶提供“算法透明度”的信息[6]。在倫理層面,算法也在威脅古典自由主義技術(shù)倫理中康德的自主原則(Respect for Autonomy)、密爾的傷害原則(Harm Principle)以及洛克的個(gè)人主義原則[7]。由于數(shù)據(jù)偏差造成的人臉識(shí)別中的算法偏見、算法歧視和深度偽造問題,以及發(fā)達(dá)國家的數(shù)據(jù)霸權(quán)尤其受到關(guān)注[8]。國內(nèi)學(xué)者熱衷研究算法推薦新聞造成的信息繭房問題,今日頭條App等應(yīng)用定制的個(gè)性化推送新聞限制了用戶的視野,人們只能看到自己愛看的新聞,加劇了信息繭房問題,重大政策、時(shí)事、社會(huì)新聞更少被關(guān)注,同也會(huì)加劇群體極|化[9]。算法研究學(xué)者以及從業(yè)人員都在密切關(guān)注算法帶來的問題,在人工智能、大數(shù)據(jù)被廣泛應(yīng)用的背景之下,人們的生活全方位的被算法介入[10],用戶的主體地位發(fā)生異化,媒介倫理研究則格外重要。
算法帶領(lǐng)人們走入后人類主義時(shí)代,人們不得不接受算法的馴化,享受且被迫享受檔案化和數(shù)據(jù)化生命的監(jiān)控和管制。谷歌設(shè)計(jì)倫理學(xué)家特里斯哈里斯總結(jié)了科技“劫持”人類心智10宗罪,他表示:“一旦你掌握要點(diǎn),操縱用戶就像彈琴一樣優(yōu)雅簡單?!盵 1 1 ]《大數(shù)據(jù)殺傷型武器》(Weapons of Math Destruction)書的作者卡西歐尼爾曾從事數(shù)據(jù)分析師的工作,她的主要工作是從互聯(lián)網(wǎng)上收集大量關(guān)于個(gè)人用戶的數(shù)據(jù),包括上網(wǎng)的地理位置和時(shí)間、瀏覽的網(wǎng)頁、在社交媒體上的點(diǎn)贊、點(diǎn)擊的網(wǎng)頁廣告、在網(wǎng)上購買的產(chǎn)品等,然后建立數(shù)學(xué)模型,測用戶的行為,以更好地向他們展示廣告、兜售商品。但同樣算法也收集了面部數(shù)據(jù)、行為特征、社會(huì)規(guī)則以及社會(huì)中存在的偏見。在技術(shù)、社會(huì)以及算法內(nèi)在隱含的性別、階層、種族問題的研究中,需要計(jì)算機(jī)科學(xué)、法學(xué)、倫理學(xué)、政治學(xué)、傳播學(xué)等學(xué)科政治交互的視角不斷進(jìn)行補(bǔ)充[9]。
算法作為當(dāng)今社會(huì)熱點(diǎn)議題,其研究離不開科技與社會(huì)(Science,technology and society,STS)視角,科技與社會(huì)是一門跨領(lǐng)域?qū)W科,研究社會(huì)、政治和文化如何影響科學(xué)研究與技術(shù)發(fā)展[12],以及反之科技如何影響社會(huì)、政治和文化。STS研究者關(guān)心科技社會(huì)的復(fù)雜面貌、科技發(fā)展的社會(huì)意涵、爭議等各種問題。
數(shù)字資本主義語境下,平臺(tái)產(chǎn)生了海量的數(shù)據(jù),數(shù)據(jù)對(duì)企業(yè)來說是一種隱形的資產(chǎn),同時(shí)也是這個(gè)時(shí)代最有價(jià)值的資源[ 1 3 ]。但是,大數(shù)據(jù)體量之大、種類之繁以及產(chǎn)生速率之快,海量的數(shù)據(jù)并不都是有價(jià)值的,從海量數(shù)據(jù)中提取有用的、針對(duì)性的信息需要花費(fèi)很大的時(shí)間成本,各類型的推薦算法為解決各類實(shí)際需求而誕生[ 1 4 ]。在算法賦魅下,算法已內(nèi)化為人們?nèi)粘I钪械囊徊糠郑扑腿藗儛劭吹膶櫸镆曨l,為人們推送符合他們興趣愛好的電影,節(jié)省了人們的時(shí)間,提高了人們行為效率[15]。然而,可購買的微博熱搜、可租下的首頁推薦位置,這仿佛在告訴我們只要付錢,你就是能成為算法游戲中的被曝光者,這無疑也是在直白地告訴大眾,算法是不公正的。算法在視頻推送中產(chǎn)生了大量的問題,極端、低俗、暴力的視頻更容易被推送到平臺(tái)首頁。YouTube名人Logan Paul在2017年12月31日上傳一段影片,影片拍攝地點(diǎn)是被稱為日本“自殺森林”富士山下的青木原樹海,影片的標(biāo)題為“我們在日本自殺叢林找到一具尸體”,并拍下尸體影像以及與同行伙伴嬉笑場面。這部影片不但通過了審核,還被官方人員手動(dòng)挑選上熱門,該事件將YouTube推向輿論中心。在這個(gè)事件中平臺(tái)以及平臺(tái)監(jiān)管人員的嚴(yán)重倫理失范的問題,這個(gè)時(shí)間后YouTube官方也提高了檢查機(jī)制,確保這類影片不會(huì)出現(xiàn)更不會(huì)被推薦。
福柯將“生命政治”定義為一種新的權(quán)力技術(shù),這種權(quán)力技術(shù)對(duì)生命極其一舉一動(dòng)進(jìn)行監(jiān)視、干預(yù)、扶植、優(yōu)化、評(píng)估、調(diào)節(jié)、矯正。而在“算法政治”的干預(yù)下,個(gè)體的自由甚至民主的基石受到攻擊。2021年3月17日,英國《衛(wèi)報(bào)》爆出英國的數(shù)據(jù)分析公司Cambridge Analytica(劍橋數(shù)據(jù)分析)在美國大選中為川普服務(wù)。而這個(gè)大數(shù)據(jù)服務(wù)公司的數(shù)據(jù)來源于非法獲取的Facebook的用戶信息,涉及到的用戶人數(shù)高達(dá)5 000萬人,這被稱為是“Facebook歷史上最大的數(shù)據(jù)泄露事件”。2021年3月25日,Twitter、Facebook、Google等巨頭公司CEO就今年1月發(fā)生的國會(huì)大廈暴亂事件接受國會(huì)質(zhì)詢。國會(huì)認(rèn)為,這些社交平臺(tái)缺乏問責(zé)機(jī)制,暗中助長了此類暴亂事件的發(fā)生,而平臺(tái)發(fā)則辯稱此事事關(guān)言論自由。
在算法的權(quán)力關(guān)系下,權(quán)力屬于擁有代碼者,被算法拒絕或被錯(cuò)誤定義的用戶無法使用自己的算法來對(duì)抗,這是不平等的權(quán)力關(guān)系。人們在互聯(lián)網(wǎng)中的一舉一動(dòng)被迫具身地為算法提供數(shù)據(jù),算法也大大改變了人類社會(huì)的經(jīng)濟(jì)、政治層面[16]。
算法推送應(yīng)用在社交媒體、搜索引擎以及所有常用互聯(lián)網(wǎng)應(yīng)用中,除了呼吁馬克思韋伯所述的價(jià)值理性以外,將具體的平臺(tái)失范案例進(jìn)行媒介倫理推理也至關(guān)重要。在西方道德哲學(xué)史上,提倡運(yùn)用理性主義的方法得出指導(dǎo)行為的準(zhǔn)則和規(guī)范,存在三種代表性道德推理形式:亞里士多德的“實(shí)踐三段論”“波特方格推理模式”和“博克模式”,在傳播倫理中都有不同的應(yīng)用推導(dǎo)。20世紀(jì)50年代,哈佛大學(xué)神學(xué)院教授拉爾夫·B.波特提出了波特方格推理模式,這是一種道德推理形式,它的特點(diǎn)在于引入了“忠誠歸屬”,從而為我們分析個(gè)人所處的道德困境和在兩難中如何做出道德抉擇提供了一個(gè)思路。波特方格按照道德推理按照“定義(definition)→價(jià)值觀念/標(biāo)準(zhǔn)(values)→倫理準(zhǔn)則(principles)→忠誠歸屬(loyalties)”這樣四個(gè)階段進(jìn)行推理,下面將被央視3·15點(diǎn)名的360搜索與UC瀏覽器的虛假醫(yī)療廣告事件進(jìn)行媒介倫理推理,從平臺(tái)與調(diào)查記者角度進(jìn)行分析。
首先,在該新聞事件的“定義”環(huán)節(jié)中,應(yīng)對(duì)搜索引擎中虛假廣告造成的用戶損失進(jìn)行充分評(píng)估,在發(fā)生“魏則西事件”悲劇后,仍發(fā)生了此類不可容忍虛假醫(yī)療廣告事件。平臺(tái)提供了搜索引擎競價(jià)服務(wù)增加收入,同時(shí)卻完全失去平臺(tái)把關(guān)作用,放任虛假醫(yī)療廣告與疾病關(guān)鍵詞產(chǎn)生強(qiáng)關(guān)聯(lián)并出現(xiàn)在搜索結(jié)果前列。調(diào)查記者則通過跟蹤采訪曝光該違法行為,并曝光在大眾視野。在“價(jià)值觀念/標(biāo)準(zhǔn)”環(huán)節(jié),平臺(tái)方一味地追求經(jīng)濟(jì)價(jià)值和最大商業(yè)回報(bào),不以史為鑒,再次使得虛假醫(yī)療廣告流入搜索引擎。調(diào)查記者的職業(yè)標(biāo)準(zhǔn)使他們敏銳地發(fā)現(xiàn)互聯(lián)網(wǎng)中倫理失范問題,以“新聞?wù)鎸?shí)性”為第一價(jià)值并及時(shí)跟蹤調(diào)查。在“倫理準(zhǔn)則”環(huán)節(jié),正如國內(nèi)學(xué)者所調(diào)查顯示,平臺(tái)算法工程師倫理水平一般,沒有深刻意識(shí)到算法之惡。調(diào)查記者訴諸功利原則,為了消費(fèi)者、公眾的權(quán)益積極調(diào)查。最后在“忠誠歸屬”環(huán)節(jié),我們可以看出,平臺(tái)盡管宣稱對(duì)用戶負(fù)責(zé),但平臺(tái)方的行為只是忠誠于股東、資本和本身的既得利益;算法工程師則單純忠誠于雇主;部分算法工程師雖然能意識(shí)到算法產(chǎn)生的信息繭房、過濾泡等問題,以及技術(shù)更新帶來的身為算法勞工的超時(shí)勞作,但仍無力做出改變。調(diào)查記者則忠誠于全體公眾,為公眾負(fù)責(zé)。
在算法賦魅時(shí)代,人們不能單純相信平臺(tái)推薦的結(jié)果,忠誠于資本且倫理意識(shí)薄弱的平臺(tái)方無法保護(hù)用戶權(quán)益,反而在最大程度將用戶異化為提供數(shù)據(jù)的數(shù)字勞工。人們也不能單純以一種技術(shù)樂觀主義或中庸之道看待算法的發(fā)展,在消費(fèi)者權(quán)益日的曝光下,平臺(tái)方受到的處罰無法彌補(bǔ)對(duì)用戶造成的傷害,用戶必須對(duì)算法祛魅,在新聞報(bào)道的提醒聲中對(duì)抗算法的控制[17]。
算法給人們帶來了毋庸置疑的幫助,平臺(tái)與算法,用戶與算法的關(guān)系產(chǎn)生了融合共生、人機(jī)一體的具身的態(tài)勢。后人類時(shí)代下,人類應(yīng)保持對(duì)隱私、數(shù)據(jù)以及被社交媒體奪走的時(shí)間的警惕,保持批判視角看待算法所蘊(yùn)含的消費(fèi)主義隱喻以及其裹挾的虛假、偏差信息[18]。
在資本邏輯前置的個(gè)性化推送所修辭的“個(gè)性”意蘊(yùn)被消解,崇尚消費(fèi)主義的個(gè)性被塑造,社會(huì)的原子化加劇。媒介倫理問題研究沒有完結(jié),自由意志的存在對(duì)抗著控制用戶的計(jì)算機(jī)技術(shù),人們的確需要智能設(shè)備幫助我們更好地完成工作、獲取知識(shí)、體驗(yàn)生活,同時(shí)平臺(tái)方應(yīng)幫助修復(fù)社會(huì)人倫價(jià)值,社交媒體也不應(yīng)該成為維系我們社會(huì)關(guān)系唯一手段,人們應(yīng)該回歸本真的社交關(guān)系。平臺(tái)方在用老練的話術(shù)為算法技術(shù)倫理問題的進(jìn)行修辭和遮蔽已是事實(shí),讓平臺(tái)遵守媒介倫理原則,也需要公民媒介素養(yǎng)和數(shù)字隱私意識(shí)的普遍提升,作為社交媒體主要用戶的青少年與老年群體更需被教導(dǎo)學(xué)會(huì)在數(shù)字化生存時(shí)代保護(hù)好自己的隱私[19],科技與社會(huì)的互動(dòng)關(guān)系下法律制度也需要橫向地進(jìn)步。
參考文獻(xiàn)
[1]潘寧,周阿根.自媒體時(shí)代下輿論監(jiān)督的問題與對(duì)策[J].今傳媒,2019,27(1):29-31.
[2]欒佳慧,周阿根.青年亞文化視角下網(wǎng)絡(luò)古風(fēng)音樂文化傳播研究[J].漢字文化,2020(19):161-162.
[3]潘寧.鑲嵌、創(chuàng)意、互動(dòng):三個(gè)層面看信息流廣告的傳播策略:以微信朋友圈為例[J].漢字文化,2019(15):178-180.
[4]布萊恩·克里斯汀,湯姆·格里菲思.算法之美[M].北京:中信出版集團(tuán),2015.
[5]顧若言,周阿根.新媒體時(shí)代學(xué)術(shù)期刊的困境與對(duì)策研究[J].東南傳播,2018(12):74-75.
[6]陳昌鳳,張夢.智能時(shí)代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.
[7]李凌.智能時(shí)代媒介倫理原則的嬗變與不變[J].新聞與寫作,2019(4):5-11.
[8]王欣欣.從阿來作品看消費(fèi)主義時(shí)代精神生態(tài)平衡問題:基于“山珍三部”的研究[J].漢字文化,2019(15):166-168.
[9]賈劼晗,周阿根.試論傳播學(xué)視域下新媒體對(duì)城市形象構(gòu)建的影響[J].戲劇之家,2019(7):215-216.
[10]顧若言,周阿根.網(wǎng)絡(luò)時(shí)代馬克思主義新聞?dòng)^發(fā)展新路徑:從“群眾辦報(bào)”到“人民傳播”[J].東南傳播,2018(8):27-29.
[11]Harris T.How technology Hijacks peoples minds—From a magician and Googles design ethicist[J].Medium Magazine,2016.
[12]袁曉強(qiáng).基于微博熱搜泛娛樂化現(xiàn)象的思想文化建設(shè)研究[J].漢字文化,2019(12):153-154.
[13]高云,周阿根.互動(dòng)儀式鏈視角下淘寶直播間消費(fèi)的狂歡[J].新聞知識(shí),2020(6):54-57.
[14]林麗.科技期刊有聲閱讀發(fā)展過程中的問題及對(duì)策:以《南京林業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版)》為例[J].新媒體研究,2021,7(4):78-80.
[15]沈雅莉.偽造的真實(shí):擬劇理論下的直播帶貨癥結(jié)研究[J].藝術(shù)科技,2021,34(4):119-120.
[16]張瑜,衛(wèi)欣.網(wǎng)絡(luò)微影像:互聯(lián)網(wǎng)時(shí)代的影像新形態(tài)[J].東南傳播,2018(10):105-107.
[17]衛(wèi)欣,張衛(wèi).社會(huì)化媒體視域下鄉(xiāng)村初級(jí)群體的交往行為研究[J].南京社會(huì)科學(xué),2017(9):50-57.
[18]潘寧.互聯(lián)網(wǎng)沖擊下傳統(tǒng)紙媒的深層變革探究[J].東南傳播,2019(6):17-19.
[19]聶宇飛.設(shè)備鏡像:對(duì)數(shù)字時(shí)代中受眾商品的新思考[J].東南傳播,2020(12):95-97.