呂山 華中師范大學(xué)新聞傳播學(xué)院
在信息社會,過去由人類處理的操作、決策和選擇越來越多的被算法所取代,雖然人類行為也不是完全被算法決定,但也可能會影響到解讀數(shù)據(jù)的方式以及最終采取怎樣的措施,分析和分類算法決定著個人和集體的規(guī)劃和管理方式。當(dāng)你想要進(jìn)行健身時,推薦系統(tǒng)就會為你規(guī)劃出一系列的需求任務(wù)供你參考指導(dǎo),比如:何時以及如何鍛煉、購買何種商品、選擇哪條路線以及聯(lián)系誰等等。在算法推薦中,數(shù)據(jù)挖掘算法能幫助理解“物聯(lián)網(wǎng)”產(chǎn)生的新興行為數(shù)據(jù)流,能在線服務(wù)提供商繼續(xù)通過個性化和過濾算法來調(diào)解信息的方式。機(jī)器學(xué)習(xí)算法在創(chuàng)作時能夠自動識別出有誤導(dǎo)性以及有偏見或不準(zhǔn)確的知識(例如維基百科的客觀修訂評估服務(wù))。這所例子都表明,如今互聯(lián)網(wǎng)社會進(jìn)入到一個算法推薦時代,算法越來越多地影響著我們看待和理解、交流與溝通周遭環(huán)境的方式。
然而有了算法這種方式來處理和分析信息是不是真的就沒有任何問題呢?顯然不是,算法個性化的定制服務(wù)器只是偷窺了用戶經(jīng)常瀏覽過的痕跡,但是并沒有對用戶行為進(jìn)行分析,所以最后呈現(xiàn)給用戶的更多的是同質(zhì)化的垃圾信息。在大眾傳媒時代,信息的傳遞有著編輯、審核者控制的信息流,把控著信息的流向,然而,轉(zhuǎn)向互聯(lián)網(wǎng)社會后,信息的甄別從人工審核到計算機(jī)算法審核,雖然在科技上取得了進(jìn)步,但是問題在計算機(jī)算法自身并不具備把關(guān)者的職業(yè)道德,如果讓算法為我們創(chuàng)造一個世界,去決定我們能夠看到什么、不能看到什么,那么我們必須要確保算法不僅僅只是圍繞信息的“相關(guān)性”,而是確保它會不會為我們展示一些更具有挑戰(zhàn)性或更為重要的信息。
算法從計算機(jī)科學(xué)領(lǐng)域上是指解題方案的準(zhǔn)確而完整的描述,是指一系列解決問題的清晰指令,也就是說能夠?qū)σ欢ㄒ?guī)范的輸入在有限時間內(nèi)獲得所要求的輸出。當(dāng)數(shù)字化的進(jìn)程為我們塑造體驗元素變得更加明顯時,算法尤其成為了談?wù)撽P(guān)于我們生活如何組織的一部分。從討論算法在聘用角色或信用評分中可以查詢設(shè)置辦公樓環(huán)境溫度的算法背后的假設(shè)之外,還開發(fā)了意識這一種算法,以某種方式神秘又不可避免地促進(jìn)我們生活的形態(tài)。以色列學(xué)者赫拉利在發(fā)表一次論壇演講中,形象的描繪了算法推薦初級狀態(tài)的工作。他說,當(dāng)你在讀電子書時,算法其實也在同步的讀你,只是你讀的是書的內(nèi)容,而它讀的是你的記憶點,通過它所攝取的記憶點來判斷出你對哪些內(nèi)容是喜歡的,哪些是不喜歡的。當(dāng)你讀完一本書之后,它還能判斷出你是個什么性格的人,同時算法的這種追蹤用戶的行為能夠為用戶在生活中提供很多重要的決策。
英國文化研究專家斯科特·拉什強調(diào):“后霸權(quán)社會是一個無所不在的計算機(jī)和普遍存在的媒體時代,每天生活在大量的代碼中,權(quán)力越來越存在于算法之中?!痹诖嘶A(chǔ)上,大衛(wèi)·比爾提出了“算法的權(quán)力”概念,認(rèn)為它體現(xiàn)在兩個方面:第一,在于算法發(fā)揮的功能,包括分類、過濾、搜索、優(yōu)先、推薦、判定;第二,算法這一概念本身具有文化內(nèi)涵,即基于算法的決策常常被認(rèn)為是理性、中立、高效、值得信賴的。也有學(xué)者對此提出不同的意見,姜紅和魯曼認(rèn)為算法本身并沒有賦予社會權(quán)力的功效,真正起作用的是算法聯(lián)合。
算法是極具有價值的,這種信息的個人化定制已成為社會的主流趨勢,就像麥克盧漢預(yù)言的“地球村”一樣,比爾·蓋茨1995年在他的《未來之路》中也預(yù)言:人們設(shè)計出來的應(yīng)用軟件可以分析人們的需求、為人們提供更適當(dāng)?shù)慕ㄗh。量身定制的信息將自然增加,你自己可以定制完全符合你的要求的“日報”,但是算法終究還是技術(shù),背后為它牽著扯線繩的還是開發(fā)人員,考慮到某些價值觀和利益超過其他特征,算法的所有參數(shù)由開發(fā)人員制定,并由具有預(yù)期成果的用戶配置。但是,接受參數(shù)內(nèi)的操作不能保證倫理上可接受的行為。比如,通過分析算法,無意中歧視邊緣化群體,這一點根據(jù)提供線上廣告?zhèn)鬟_(dá)的種族觀念就可以得出。所以,確定算法的潛在和實際的倫理影響是困難的。
互聯(lián)網(wǎng)的膨脹使得社會上信息泛濫、信息爆炸,但是個性化服務(wù)的定制又使得信息集聚、信息偏向,造成受眾視野的封閉,成為坐擁藍(lán)天的“井底之蛙”。具體來說,算法推薦就是計算機(jī)會根據(jù)受眾人群的行為選擇數(shù)據(jù)為用戶貼標(biāo)簽,進(jìn)行一種智能的分類,受眾在網(wǎng)絡(luò)中每一次的點擊、瀏覽、評論等行為都是作為一種反饋傳回給算法,每一次的行為都會成為算法繪制個性化定制的模板,而算法也是根據(jù)各式各樣的模板去為用戶匹配相應(yīng)的信息推送。這樣的信息偏向?qū)嶋H上會帶來一個問題:信息的不流通,也就是“信息繭房”效應(yīng)。凱斯·桑斯坦在《信息烏托邦》中提出了這個概念,他認(rèn)為,公眾的信息需求,并非是全方位的,往往是跟著興趣走,“我們只聽我們選擇的東西和愉悅我們的東西的通訊領(lǐng)域”,“我們的先入之見將根深蒂固,我們將不可能考慮周全,久而久之,會將自身桎梏于像蠶繭一般的“繭房”中。
我們每天都會獲得大量的信息,而信息過濾機(jī)制(包括算法推薦)會為我們選擇我們想看的,這樣的應(yīng)用已經(jīng)成為社會上的主流趨勢。國內(nèi)的今日頭條是最先開始做這一服務(wù)的社交客戶端,而國外的谷歌、臉譜等也都有了同樣的服務(wù)功能。這將很快的把我們推向這樣的一個世界:網(wǎng)絡(luò)給我們顯示它認(rèn)為我們想要看到的信息,而未必是我們需要的信息。正如埃里克·施密特所說:“要人們觀看或消費一些在某種意義上并非為他們個性定制的東西是很難的?!?/p>
所以,算法的弊端在于不斷的通過單一性的內(nèi)容進(jìn)行滾雪球運動,不斷推送同質(zhì)化的信息,封閉受眾的視野,隔絕多元化的信息世界,最后造成看到的“千人千面”本質(zhì)上還是“單向度的人”。
目前,在算法這一“熱”的趨勢下,我們應(yīng)該對其進(jìn)行應(yīng)有的倫理審查。由于種種原因,確定算法的潛在性和實際的倫理影響是有困難的,算法識別人類的主體性在算法設(shè)計和配置中的影響往往是需要周期時間長且用戶范圍廣的開發(fā)過程。隨著算法的復(fù)雜性越來越高,互相交流就可以做出決定,由此產(chǎn)生的算法設(shè)計與運算之間的差距以及我們對道德含義的理解可能會對社會的個人、群體和整個社會的細(xì)分都帶來嚴(yán)重的后果。
本文試圖提出一個基于六個方面的算法倫理圖譜,同時提出一個問題:算法究竟提出了哪些倫理問題?以確定和審查以及批判性分析在信息社會中算法帶來優(yōu)勢的同時被隱藏的問題。
該圖1基于六種類型的基礎(chǔ)上,充分關(guān)注共同原則組織的領(lǐng)域,并推測其允許更嚴(yán)格的對于使用算法相關(guān)倫理挑戰(zhàn)的診斷。該圖不是從一個特定的理論或方法論倫理學(xué)出發(fā),而是由于算法操作的三個方面而被作為算法產(chǎn)生的問題類型的規(guī)定框架。該圖考慮到本文中,算法是用于(1)將數(shù)據(jù)轉(zhuǎn)化為證據(jù),對于一個給定的結(jié)果(從此結(jié)論),這樣的結(jié)果是用來(2)觸發(fā)和激勵行為(通過自身,或結(jié)合其他措施)可能不中立的方式。這項工作是復(fù)雜的(半)自治的方式,其中(3)算法影響復(fù)雜的責(zé)任分配的行動所帶來的影響。因此,該圖不打算作為一種工具來幫助解決因算法導(dǎo)致有問題的行動而產(chǎn)生的倫理困境,而是將其作為一種基于算法如何運作的組織結(jié)構(gòu),從而構(gòu)造未來的倫理問題討論。
圖1 算法倫理圖譜
當(dāng)算法從推斷或機(jī)器學(xué)習(xí)技術(shù)處理的數(shù)據(jù)中得出結(jié)論時,其產(chǎn)生了可能但不可避免的不確定性知識。除此之外,統(tǒng)計方法可以幫助識別顯著相關(guān),但這些都是很少被認(rèn)為是足夠的假定因果關(guān)系的存在,因此可能不足以激發(fā)對這種聯(lián)系的基礎(chǔ)知識的作用。我們將這種可操作的洞察力可以被看作是對這些認(rèn)知限制的一種明確的認(rèn)識。算法通常部署在更可靠的技術(shù)不可用或代價太高的情況下,因此很少意味著萬無一失。認(rèn)識到這一局限性是重要的,但應(yīng)補充評估如何影響一個人的認(rèn)知錯誤的責(zé)任風(fēng)險:例如,通過弱化一方的理由,以得出在之后的環(huán)境下什么才能調(diào)整行為的結(jié)論。
當(dāng)數(shù)據(jù)作為(或加工生產(chǎn))一個結(jié)論的證據(jù),這是合理的預(yù)期,這些數(shù)據(jù)和結(jié)論之間的聯(lián)系應(yīng)該是可行的(即理解以及公開審查甚至批判)??紤]到算法是如何運行的,這些需求不會自動滿足。缺乏有關(guān)使用數(shù)據(jù)知識(例如他們的質(zhì)量、范圍和來源),但更為重要的是還具有內(nèi)在的困難,在解釋如何的許多數(shù)據(jù)點使用的機(jī)器學(xué)習(xí)算法致力于其產(chǎn)生的結(jié)論,從而導(dǎo)致實際以及原則的局限性。
算法處理數(shù)據(jù),因此受到所有類型數(shù)據(jù)處理共享的限制,即輸出永遠(yuǎn)不會超過輸入。雖然香農(nóng)韋弗的數(shù)學(xué)交流理論中正式地說明了一個事實,特別是他的一些信息不平等,非正式的“垃圾進(jìn)來、垃圾出去”原則清楚地說明了這里所涉及的是什么,即結(jié)論只能與他們所依據(jù)的數(shù)據(jù)一樣可靠。評估過程中的中立性,以及所產(chǎn)生的證據(jù)是否引起誤導(dǎo),當(dāng)然是依賴觀察者的。
目前為止的內(nèi)容詳細(xì)闡述的三個認(rèn)識論問題涉及一種促成特定行動的算法產(chǎn)生的證據(jù)質(zhì)量,然而,算法的道德評估也可以僅僅集中在行為本身上。算法驅(qū)動的動作可以根據(jù)許多倫理標(biāo)準(zhǔn)和原則進(jìn)行評估,這些標(biāo)準(zhǔn)和原則在這里一般稱之為依賴觀察者的“公平性”的作用及其影響。一個行動可以被認(rèn)為是歧視性的,例如,僅僅由于對受保護(hù)階層的影響,即使是在確鑿、可靠和有根據(jù)的證據(jù)的基礎(chǔ)上做出的。
傳統(tǒng)使用算法帶來的倫理挑戰(zhàn)不能總是回溯到明確認(rèn)知或倫理失敗的情況,因為依賴于算法數(shù)據(jù)處理的一些影響,自助決策或半自助決策可能是有問題的,并且看起來在道德上是中立的,因為它們似乎沒有造成任何明顯的傷害。這是因為算法可以影響我們?nèi)绾胃拍罨澜?,并修改其社會和政治組織。算法活動,如分析、通過以全新的,意想不到的方式理解和概念化,重新定義世界,并根據(jù)其產(chǎn)生的見解觸發(fā)和激勵行為。
算法是用于數(shù)據(jù)處理的軟件,因此沿襲了與新技術(shù)的設(shè)計和可用性,以及與大量個人和其他數(shù)據(jù)的操縱相關(guān)聯(lián)的倫理挑戰(zhàn)。這意味著算法活動造成的傷害很難調(diào)試(即檢測到危害并找出其原因),而且很少直接確定誰應(yīng)該對造成的損害負(fù)責(zé)的責(zé)任。當(dāng)發(fā)現(xiàn)問題時,或以上五種之一,道德評估要追究損害的原因和責(zé)任。
通過這個概念圖,我們現(xiàn)在能夠通過算法來區(qū)分認(rèn)識論,完全倫理和可追溯性類型的倫理問題。因此,該概念圖旨在作為一種工具,組織廣泛分散的學(xué)術(shù)話語,解決通過依賴于算法而聯(lián)合在一起的多種技術(shù)。
算法越來越多地調(diào)解數(shù)字生活和決策。我們必須接受,僅針對特定類型的算法而討論的主題的覆蓋面可能存在差距,而不是針對算法本身。盡管有這個限制,規(guī)定的地圖是有意義的廣泛和迭代的,圍繞過去和未來的算法倫理進(jìn)行討論。
討論一個像“算法”這樣復(fù)雜的概念不可避免地會遇到抽象的問題,或者由于沒有指定一個抽象級別來討論,從而限制了相關(guān)的可觀測量集。
一個成熟的“算法倫理”尚不存在,部分原因在于“算法”作為一個概念描述了廣泛的軟件和信息系統(tǒng)。認(rèn)識論和規(guī)范性問題的區(qū)別通常被認(rèn)為是一個集群,因為不同的關(guān)注是互相依賴的網(wǎng)絡(luò)的一部分。本文所提出的譜圖將進(jìn)一步的依賴關(guān)系轉(zhuǎn)化為焦點,如存在和不存在認(rèn)知缺陷對算法的倫理影響的多方面影響。此外,該譜圖表明,解決一個層面的問題并沒有解決所有類型的問題;完全可審計的算法決策,或基于確鑿,可審查和充分根據(jù)的證據(jù)的決策,可能會導(dǎo)致不公平和變革的影響,沒有明顯的方式來追究貢獻(xiàn)行為者網(wǎng)絡(luò)的責(zé)任。為一些行動提供證據(jù)的更好的方法不能排除所有形式的歧視,甚至可以用來更有效地區(qū)分。
事實上,人們甚至可以設(shè)想出不那么挑剔的算法可能具有較少令人反感的效果的情境。更重要的是,正如上述概述已經(jīng)反復(fù)強調(diào)的那樣,我們原則上不能避免上下文和道德上的殘留。通??梢灶A(yù)期越來越好的算法工具可以排除許多明顯的認(rèn)識缺陷,甚至幫助我們發(fā)現(xiàn)理解上的道德問題。然而,使用算法帶來的倫理挑戰(zhàn)的全部概念空間不能減少到與容易識別的認(rèn)識論和倫理缺陷有關(guān)的問題。在這里繪制的圖譜的幫助下,未來的工作應(yīng)該努力明確道德和其他方面與算法的許多隱含連接。