陳虹冰,蔣福明
(南華大學 馬克思主義學院,湖南 衡陽 421001)
當前,人們的衣食住行都在享受著各類APP提供的智能服務,這種對用戶的個性化服務,是通過過濾大量的個人信息實現(xiàn)的,算法決策是這一過程的核心。算法技術憑借著對數(shù)據(jù)篩選、相關性分析的優(yōu)勢,被廣泛地應用到各種場景。然而,算法決策是一把雙刃劍:一方面,通過搜集、分析、處理海量數(shù)據(jù),它能輔助政府、企業(yè)和個人做出更好的決策;另一方面,非理性地應用算法決策也引發(fā)了一系列的倫理風險。如何能夠在享受算法決策帶來便利的同時保護人類自身免受侵害,這是生活在智能時代的每一個人都需要積極思考并面對的時代課題。
從原始社會、農(nóng)耕社會,到工業(yè)革命、電氣革命時代,再到現(xiàn)今的信息時代、算法時代,人類決策伴隨著人類社會的發(fā)展也經(jīng)歷了經(jīng)驗決策、科學決策、技術輔助決策和算法決策這幾個階段。在原始社會,人們依靠自身的感覺器官來感知世界,根據(jù)自身經(jīng)歷來認識世界,通常是通過占卜、經(jīng)驗進行決策。工業(yè)革命時代,人對工具的使用發(fā)生了很大的變化,于是人們開始做出一些基于科學知識(如數(shù)學真理、物理知識)的科學決策。到電氣革命甚至是信息時代,實際感知的信息變得多樣,感知時間、空間的信息也變得多樣,人們開始依靠科學技術來輔助自身對外界的感知,如使用顯微鏡可觀測微小事物、望遠鏡可觀測遠距離的事物,這個階段是技術輔助決策。在算法時代,數(shù)據(jù)信息爆發(fā)增長,計算量的需求變大,人們開始依靠算法技術來進行決策。
算法決策是與自然人決策相對立的概念,意指利用計算機技術、算法程序、深度學習等方式來處理基于用戶足跡形成的大數(shù)據(jù),憑借其自主性做出決策的行為[1]。相對于自然人決策,算法決策具有效率高、成本低、應用廣等不可替代的優(yōu)勢。作為算法決策基礎的機器學習算法,具有三個特性:一是自我學習的特性。算法運行的結(jié)果并不依賴于人類預先設置到預測中的每個變量。事實上,只要學習算法在運行,人類就無法控制它們?nèi)绾谓M合和比較數(shù)據(jù),算法可以自行決定組合方式。二是黑箱屬性。人們難以直觀地理解機器學習分析的結(jié)果,算法也無法提供其決策背后的因果解釋。三是快速性和自動性[2]。與當今數(shù)字時代的其他計算策略一樣,機器學習算法做出決策的過程是快速和自動的,甚至可以繞過人類的考慮和決策,這也是其被廣泛應用的原因所在。有時,算法會以一種完全自動化的方式進行決策,不需要人類參與其中。例如,一個垃圾郵件過濾器可以從一個人的電子郵件賬戶中自動過濾出垃圾郵件。有時,算法決策是部分自動化的,人類通過算法輔助做出決策。例如,算法對客戶的信譽進行評估,銀行員工結(jié)合評估來決定是否給客戶貸款。
在信息爆炸式增長的時代,算法可以幫助人們在信息海洋中準確、快速、有效地整合有用的信息,輔助人類精準有效地做出判斷和決策。對于決策而言,算法具有兩個明顯的優(yōu)勢:一是算法擁有超強的數(shù)據(jù)運算和統(tǒng)計能力;二是算法能發(fā)現(xiàn)諸多變量、參數(shù)之間的相關關系,并依據(jù)這種強相關關系進行預測。由于算法決策具有人工決策不可比擬的優(yōu)勢,算法決策也越來越廣泛地被應用于各種場景,使得我們的日常生活更加便利、智能。例如,在外賣行業(yè),美團、餓了么、大眾點評等企業(yè),運用算法決策來提高配送效率;在新聞傳播行業(yè),快手、抖音、“今日頭條”等平臺運用算法進行個性化精準推送,以提高新聞資訊的傳播效率;在電商行業(yè),淘寶、拼多多、京東等購物平臺利用算法了解客戶的消費喜好和習慣進行個性化推薦,以提高經(jīng)濟效益。此外,算法決策還被廣泛應用于公共治理領域。例如,公安預測警務系統(tǒng)利用算法對歷史犯罪數(shù)據(jù)和可能影響犯罪的各種因素進行相關性分析研究,預測在未來特定時空范圍內(nèi)可能出現(xiàn)的犯罪狀況和發(fā)展趨勢,輔助公安開展刑偵、維護社會治安等工作;居民養(yǎng)老保險在線審核系統(tǒng)利用算法使得參保人員實現(xiàn)隨時隨地辦理資格認證、查詢等業(yè)務。事實證明,算法決策以悄然又迅猛的方式結(jié)構(gòu)性地滲透到社會生活的各方面。
算法決策意味著人逐漸將決策權(quán)交付給算法技術,這種對決策權(quán)的讓渡是人類主動對自身特有的主體性的放棄,會對個人甚至是整個人類世界產(chǎn)生深刻的影響,帶來一系列倫理風險。在國內(nèi)外學者對算法決策可能引起的倫理風險進行的探究中,國外學者Andrew Tutt認為,算法決策會導致問責難的問題[3]。國內(nèi)學者孫建麗認為,算法決策會引發(fā)“信息繭房”、隱私泄露和歧視風險[4]。
隨著算法決策在各個領域的廣泛應用,算法決策引起的弊端也日益凸顯:算法自動關聯(lián)引發(fā)個體遭遇非自愿泄露隱私風險、算法決策弱化人的主體能力、算法權(quán)威壓縮人的自主選擇空間;大數(shù)據(jù)殺熟嚴重地侵害消費者權(quán)益。
人與動物不同,無法像動物那樣依靠先天的、特定的器官和本能適應環(huán)境的挑戰(zhàn),為了彌補自身的缺陷,獲得安全與穩(wěn)定,它必須培養(yǎng)適應能力,正是這種先天的脆弱性和本能貧乏使得安全需求成為人首先要解決的問題,也是這種安全需求導致了技術的產(chǎn)生。也就是說,技術的誕生本應滿足人的安全需求,但是算法自動關聯(lián)下的“數(shù)字畫像”和“網(wǎng)絡監(jiān)控”,使得個體遭遇非自愿泄露隱私的風險,背離了技術原有的價值需求,增加了人的不安全感。
1.算法自動關聯(lián)形成的數(shù)字畫像,使得個體遭遇非自愿泄露個人生物性敏感信息的風險。庫帕認為,數(shù)字畫像是建立在個人數(shù)據(jù)信息之上,真實反映用戶的虛擬模型[5]。算法在數(shù)據(jù)收集、模型構(gòu)建和模型使用的各個階段是相互關聯(lián)的[6],這種關聯(lián)是自動形成的,無需獲取數(shù)據(jù)主體的“知情同意”,也不需要獲得個人的授權(quán),人甚至難以與這種關聯(lián)相抗衡。算法通過大數(shù)據(jù)向每個用戶設置各種標簽來刻畫用戶的數(shù)字畫像,記錄每個用戶的身份信息、個人興趣、薪資水平、消費習慣、生活方式等。算法自動關聯(lián)能對個人的部分數(shù)據(jù)信息進行交互分析、深度挖掘,進而刻畫出數(shù)據(jù)主體的整體形象,這種畫像能對數(shù)據(jù)主體在特定時間和空間內(nèi)的行為進行還原,會使得個體遭遇非自愿泄露個人生物性敏感信息的風險。數(shù)字畫像中含有每個人唯一且不可更改的生物識別信息,例如人臉、指紋、語音等。這些生物識別信息一旦泄露就意味著終身泄露,由此產(chǎn)生的風險和危害不可估量。無需置疑的是,與家庭住址或者手機號信息的泄露相比,帶有個人唯一性的生物識別數(shù)據(jù)的泄露所帶來的潛在安全風險更為嚴峻。
2.算法自動關聯(lián)下形成的網(wǎng)絡監(jiān)控,使個體遭遇非自愿的公共暴露個人隱私的風險。作為生活在智能時代的社會人,需要以犧牲自己的一部分個人信息和隱私作為代價,來換取現(xiàn)代技術所帶來的高效、便利。因此,自愿犧牲一部分隱私達到社交目的也是不可避免的。但這個紅線在于,是否是個體在知情同意原則下自愿交付出個人信息,是否能保障個人隱私的安全。無所不在的通信設備、路邊及閉路監(jiān)控系統(tǒng)的攝像頭都能對個人進行物理觀測或追蹤。2021年,央視3·15晚會曝光了多家知名商店安裝人臉識別攝像頭,這些攝像頭能自動獲取消費者的人臉信息并自動生成編號,這一切都是在消費者毫不知情、非自愿的情況下進行的。這些人臉信息一旦被泄露,將嚴重威脅人的隱私安全。雖然有關法律規(guī)定,在處理個人信息時應遵循正當、合法和必要的原則,但仍然難以避免因單方面收集個人信息所造成的對隱私空間的侵犯。原因在于算法能發(fā)現(xiàn)眾多的片面化信息之間的相關性,經(jīng)演算、推斷后還原出未經(jīng)信息主體授權(quán)的個人隱私信息。另外,網(wǎng)絡應用常以用戶必須提供個人信息作為服務的準入門檻。如各類智能APP,要求用戶對手機位置、個人相冊、通訊錄等功能進行授權(quán),盡管這些與其所提供的服務并無直接關系。
人的主體能力突出表現(xiàn)在人的主體性地位,主體性是主體的本質(zhì)特性,是主體在對象性活動中內(nèi)在力量的外化,能動地改造、影響和控制客體,使客體服務于主體的特性。主體性的內(nèi)涵主要有兩個方面:從主體出發(fā),主體占據(jù)主導地位,客體服務于主體;主體本質(zhì)力量的外化[7]。算法決策在不斷地弱化人的主體能力,主要體現(xiàn)在強化人對算法決策的依賴和人面臨主體客體化風險兩個方面:
1.強化人對算法決策的依賴,削弱人的主體性?,F(xiàn)今,算法的身影遍布人類社會生活的各個角落,甚至存在于人類生命的每分每秒中。現(xiàn)代的算法能夠安排人們每天的行程,為人們的生活提供各種娛樂和便利。我們使用的每一個計算機軟件、程序、APP,背后都蘊含對算法的使用。但是,算法技術對技術人員與非技術人員的主體性影響不盡相同:對專業(yè)的技術人員而言,為更新技術,他們需要不斷地提高創(chuàng)造力;但專業(yè)的技術人員畢竟是少數(shù),更多的非技術人員常在不自覺中強化對算法的依賴,相應地被剝奪了一部分創(chuàng)造力,削弱個體的主體性。審視各種算法決策的應用場景,非但沒有提高人們對技術的警覺來獲得自身更高的自主性,反倒引導人們向低層次的本能屈服,等待算法給出“最優(yōu)決策”,使得人逐漸成為依附算法決策的齒輪,而不是積極思考該如何發(fā)揮主觀能動性進行決策。如果任由算法決策肆意廣泛應用而不加約束,很有可能導致算法決策取代自然人決策而令算法權(quán)力進一步加強,以致慢慢弱化,甚至徹底吞噬個人的主體性。在這種情況下,如何自主、自發(fā)地培養(yǎng)人的主體能力,預防人的主體能力弱化是一個很值得深思的問題。
2.算法技術客體主體化,人被客體化,呈現(xiàn)出一種主體被客體化風險??腕w主體化、主體客體化是實踐活動過程中主體與客體關系的表征。例如,異化勞動是勞動在資本主義社會這一特定歷史階段的具體表征。對于主客體之間的關系,現(xiàn)代倫理學以將主客二分為核心而展開,義務論聚焦于主體的純粹意志,后果論則尋求對客體性的理解。算法技術客體主體化是人類運用算法技術改造客觀世界的過程中形成的危及人自身主體地位的反作用,使得人失去主導支配地位,呈現(xiàn)出客體化的風險。在算法系統(tǒng)中,人通過數(shù)據(jù)化被賦予相應的意義,成為算法定義的對象,這種定義并不是從主體角度出發(fā),而是通過可以被計算和預測的客體來看待個人[8]。具體表現(xiàn)在:用戶要滿足算法的預設條件方能享受其提供的服務;算法的信息篩選機制限制了人的網(wǎng)絡空間自由度;算法利用作為“計算組件”的人類來增強自身的權(quán)威。算法憑借著特有的運行邏輯,“將每個個體都作為算法邏輯體系下的參數(shù)而不考慮個體主體性”[9],反客為主地調(diào)節(jié)、甚至支配人們的行為,使得人面臨主體客體化風險。
施密特(Hermann Schmidit)認為,技術作用的過程分為三個階段:一是工具階段。在這一階段,主體仍需將勞動所必需的物理能量和智力投入到改造世界的實踐活動中,如人在勞作時使用斧頭、錘子等工具來節(jié)省勞力。二是機器階段。在這個階段,技術手段使人的物理能量轉(zhuǎn)化,勞力的輸入變得不必要,如工業(yè)自動化生產(chǎn)的流水線作業(yè),勞力投入成為非必要的。三是自動機階段[10]。在這個階段,智力上的投入也變得不必要。技術由工具到機器再到自動機階段,逐漸降低了人類的參與度,直至實現(xiàn)完全的自動化。
算法決策處于技術自動機階段,“正逐漸突破工具屬性而進行著實質(zhì)性的資源調(diào)配、作出決策等行為”[11],基本不太需要人類的參與,人被逐漸排擠出決策空間。另外,由算法決策的單向強制性和黑箱性所形成的算法權(quán)威使得人無法與其相抗衡,而算法權(quán)威又會進一步擴大“信息繭房”效應,人的自主選擇空間便在這種雙重影響下不斷壓縮。
1.由算法決策的單向強制性和黑箱性所形成的算法權(quán)威,使得人面臨被迫忍受壓縮個體自由選擇空間的窘境。算法的自動決策性,在促使生產(chǎn)者形成高效、快速的效率思維的同時,還對作為對象的數(shù)據(jù)主體造成個人自主空間縮小的不利影響,使其面臨受算法支配的風險。原因在于,算法決策具有較強的單向強制性,數(shù)據(jù)主體在遭遇不合理的或帶有偏見的算法決策時,常常面臨著被迫忍受壓縮自治空間甚至是退出某一數(shù)字領域的窘境。這種對主體在數(shù)據(jù)接受方面的單向強制性傾向,即所謂的“算法權(quán)威”[12]。另外,算法決策過程猶如一個黑盒子,具有不透明性,人無法直接參與算法決策系統(tǒng)的內(nèi)在流程,也沒機會向其做出的錯誤或者帶有偏見的決策提出異議,這也是人缺乏自主選擇權(quán)的體現(xiàn)。
2.算法權(quán)威會加強“信息繭房”效應,抑制人的自由選擇權(quán)?!靶畔⒗O房”這一概念最初由哈佛大學桑斯坦提教授提出,指的是在面對海量信息傳播時,公眾只關注自己感興趣的訊息,不關注其他信息,長此以往,便會將自己限制在“繭房”之中[13]。以往,人們主要通過人際傳播、傳統(tǒng)媒體傳播等渠道來獲取外部信息?,F(xiàn)今,與早期網(wǎng)絡時代人主動搜索信息不同,人們獲取信息的方式是由算法對用戶興趣偏好挖掘后而進行的個性化內(nèi)容分發(fā)。這種對用戶進行的個性化信息推送,將用戶鎖定在由算法定制的某種同類型的信息圈層中,同類型信息的不斷循環(huán)出現(xiàn)將用戶桎梏在封閉的信息空間,會讓用戶誤以為自己獲取的信息是全面且多元的,進而影響用戶的自主選擇,壓縮了用戶的自主選擇空間。
大數(shù)據(jù)殺熟是算法決策應用于商業(yè)領域所引發(fā)的不良后果,指的是商家通過平臺掌握消費者的消費偏好和消費水平后,對數(shù)據(jù)主體進行大數(shù)據(jù)分析,將同一商品或服務進行差別定價賣給不同的消費者以獲取更大的經(jīng)濟利益的行為,嚴重地損害了消費者的權(quán)益。在互聯(lián)網(wǎng)時代,網(wǎng)上交易、搜索是人們不可避免的行為,這些行為往往會在平臺上留下專屬于特定個體的瀏覽、下單、收藏、評價等足跡。交易平臺背后的算法猶如一個信息處理器,它積累、分析這些足跡,并在不同的交易平臺之間進行通信、共享和集成,最終形成“大數(shù)據(jù)”。具有深度學習能力的算法根據(jù)已形成的“大數(shù)據(jù)”,對不同群體或者是特定的個體進行推送或定價。例如,同樣的一份外出行程單,網(wǎng)約車平臺對價格不敏感的乘客收取更多的費用;相同的一份外賣訂單,外賣平臺對同一地區(qū)的不同客戶收取不同的服務費;同樣的一份商品或服務,平臺對使用高端手機的客戶收取更多的費用。
大數(shù)據(jù)殺熟主要有兩種表現(xiàn)形式:一是差別定價,二是特定推送,誘導消費。
1.差別定價的實現(xiàn)途徑主要有三種:一是以客戶所使用的設備為根據(jù)進行差別定價。例如,在滴滴打車系統(tǒng)里,蘋果手機打車的費用最高,安卓手機價格越高,打車越貴;二是以客戶消費時的位置和場合為根據(jù)進行差別定價。如果你所處的地理位置附近的商場少,算法便會判定你購物不方便,然后為你想要購買的商品加價;三是以客戶的消費水平和消費頻率為根據(jù)進行差別定價。如果你過往購買的商品價格偏高,或者在短時間內(nèi)對同一件商品進行多次搜索,大數(shù)據(jù)也會依此來對你的商品進行加價。
2.誘導消費的實現(xiàn)途徑主要有三種:一是分析消費者的價格敏感度,對“高凈值客戶”隱藏性價比更高的商品或服務;算法可以控制商品的可見性,直接屏蔽價格低的商品,客戶只能被迫購買價格高的商品;二是分析消費者的消費偏好,然后反復推送,從而激發(fā)消費者的隱性消費偏好。算法系統(tǒng)注重用戶搜索使用的詞語及其相關性,可以通過對用戶數(shù)據(jù)進行交互分析來發(fā)現(xiàn)個體想要隱藏或者忽略的個性特征,做到比用戶更了解用戶。算法預測用戶的購買欲望后對其進行針對性推送,牽引式激發(fā)消費者的隱性消費,使得那些甚至消費者自己都沒意識到的購物需求被挖掘出來;三是利用算法的自主學習和預測功能,實現(xiàn)各種搜索界面協(xié)調(diào)一致,限制客戶的多樣化選擇。人類社會生活的各個領域都被大數(shù)據(jù)所包裹,掌握著相關數(shù)據(jù)的互聯(lián)網(wǎng)巨頭憑借著數(shù)據(jù)資源,不斷演變算法,強化競爭優(yōu)勢,獲取消費者剩余,對消費者的權(quán)益造成了一定的傷害。
造成算法決策倫理風險的原因不是單一的,它往往是多種因素共同作用的結(jié)果,應從價值、技術和審查多個維度尋求防控算法決策倫理風險的策略:第一,關于技術是否具有價值屬性的討論一直是學界存在爭論的話題,尤其是在現(xiàn)今科學技術發(fā)展如此迅猛的時代?!八惴ň哂袃r值屬性,持不同價值判斷的人會設計不同的算法。”[14]因此,從價值理念的維度對算法技術的倫理嵌入就變得有可能,設計人員秉承良善的價值理念來設計技術或許是應對算法決策倫理風險的有效途徑。第二,技術與倫理學有著密不可分的關系,從技術對人類實踐的調(diào)節(jié)作用層面而言,暗含著一定價值的技術參與了人的行為倫理學,亦理應從技術的維度尋求防控算法決策的倫理風險的措施。第三,正如上面提到的在技術應用的過程或結(jié)果中產(chǎn)生了一些負面效應,消極地拒絕使用算法決策是不可能的,而應從審查的維度來確保算法決策發(fā)揮積極作用。
算法技術作為一種功能強大的集成技術,可以廣泛有效地賦能諸多應用場景。然而,我們不應該只關注技術賦能的所帶來的正面效應,而忽視技術濫用帶來的負面效應。為了實現(xiàn)科技時代下人類美好生活的愿景,秉承“科技之真”與“道德之善”相互協(xié)調(diào)的價值理念,我們不僅要強調(diào)科技賦能,還要重視對個體的賦權(quán),即重視公眾權(quán)利的實現(xiàn)。與相對孤立且分散的個體相比,政府、企業(yè)機構(gòu)在掌握數(shù)據(jù)和信息方面有絕對的優(yōu)勢,在這種力量懸殊的情境之下,更應該堅守以人為本的宗旨,重視對個人權(quán)利的保障。
1.算法設計人員需要堅守以人為本的宗旨,秉持良善的技術設計倫理原則來設計算法。目前學界就技術的價值屬性問題主要存在兩種觀點:一是技術價值論,二是技術中立論。技術價值論則認為,技術是具有價值屬性的,它承載著人的價值取向和判斷;技術中立論認為,技術沒有善惡之分,在于人以何種目的使用技術。技術價值論基于技術的社會屬性來論述技術的價值屬性,認為技術內(nèi)含一定的價值判斷;技術中立論則基于技術的自然屬性來論述技術僅是方法論意義上的一種工具和手段。事實上,技術是集自然屬性和社會屬性于一身的統(tǒng)一體,而技術中立論和技術價值論分別從技術的自然屬性和社會屬性來解讀技術本質(zhì),將兩者簡單割裂開[15]。然而,隨著技術的發(fā)展,我們發(fā)現(xiàn)技術存在于設計階段、應用階段和技術體系中,是在自然屬性與社會屬性的交互融合中具有了價值屬性。既然技術具有價值屬性,那么技術設計人員的價值觀念會不可避免地嵌入到他們設計的技術當中。因此,不應僅從技術應用層面去尋求其帶來“善”的結(jié)果,更應該從技術本身尋求“善”,使技術本身帶有“善”的內(nèi)在基因,進一步實現(xiàn)“善”的價值目標。因此,要想使算法技術從誕生之時就向善,還得從技術設計主體著手,使其牢固樹立以人為本、公平公正的設計原則,對算法技術進行道德化設計。
2.應積極培養(yǎng)個體自我賦權(quán)意識。自我賦權(quán)是社會弱勢群體利用自身的積極性、能動性、主體性賦予或充實自己權(quán)力的體現(xiàn)。在算法大行其道的時代,缺乏專業(yè)知識與敏感性的大部分社會公眾都沉浸在算法所帶來的技術紅利的喜悅中,忽視了其對個人造成的潛在威脅,這種對技術的無意識放任了算法決策對人的自主權(quán)的入侵。培養(yǎng)個體自我賦權(quán)意識,有利于喚醒人對算法決策的警惕性,批判性地對待算法決策,保持一種獨立思考的能力。另外,由于算法決策形成的“強者權(quán)利”與個人力量對比懸殊,亦應賦予個人相應的權(quán)利,使個體免受算法決策支配的侵害。賦予人免受算法支配的權(quán)利,意味著個人面對在黑箱遮蔽下形成的不合理的算法決策時,有權(quán)利拒絕或者不采納其決策,這對實現(xiàn)作為個體存在的人要求被作為個體來對待的基本權(quán)利亦有重要意義。
現(xiàn)代文明的進步帶來了日益緊張和復雜的生活狀態(tài),人們開始對公共場合變得更加敏感和有界限感,在此基礎上,擁有一個自己的相對獨立和私密的空間變得尤為重要。隱私權(quán)是基本人權(quán),隱私被侵犯會使人們遭受精神上的痛苦和困擾,與純粹身體上的傷害相比,有過之而無不及。現(xiàn)今,保護個人隱私比以往任何時候都顯得更加地刻不容緩。依靠法律手段來保護個人隱私是必須且強有力的,但是法律手段也有諸如難以查處有些行為、相對滯后等缺陷。既然是技術的進步為侵犯個人隱私提供了便利的工具和途徑,同樣地,也應該積極地從技術層面為人們的隱私尋求保護。
大數(shù)據(jù)的廣泛應用可能會對數(shù)據(jù)安全和隱私構(gòu)成一定的威脅,而現(xiàn)今的數(shù)據(jù)安全不僅再是停留在以往對數(shù)據(jù)損壞或丟失的擔憂上,更重要的問題在于,數(shù)據(jù)是否會被盜用甚至濫用。由于網(wǎng)絡服務自身的技術特點和日常的網(wǎng)絡活動都帶有身份標識,網(wǎng)絡行為便演化成數(shù)據(jù)。造成個人隱私泄露的主要原因在于濫用個人數(shù)據(jù)。那么,對于這種數(shù)據(jù),是否可以通過對數(shù)據(jù)匿名化的方式使不同的場景應用接觸到數(shù)據(jù)之前實現(xiàn)隱私保護?是否有一種可以保護個人隱私數(shù)據(jù)并保證數(shù)據(jù)集的可用性的算法?隱私保護匿名算法便在這樣的背景下誕生。
起初,匿名化算法意在去掉集中起到唯一標識作用的數(shù)據(jù)信息,只公開包含類標識信息(QI)和敏感屬性信息(SA)的數(shù)據(jù)集,但這種匿名作用會在遇到鏈接攻擊時失效。為降低實施鏈接攻擊的可能性,有人提出了k-匿名(k-anonymization)隱私保護算法,該算法要求發(fā)布的數(shù)據(jù)存在一定數(shù)量(至少為k)的在類標識符上不可區(qū)分的記錄,旨在通過去除或者泛化處理一些類標識信息來實現(xiàn)更好的匿名效果來保護個人隱私。但是,由于k-匿名算法對敏感屬性算法未做任何的限制,攻擊者仍然可以通過同質(zhì)攻擊和背景知識攻擊來訪問個人數(shù)據(jù)。于是,l-多樣性匿名保護算法被提出,要求每個等價類中至少存在l種互不相同的敏感屬性。簡言之,k-匿名和l-多樣性算法都是通過對數(shù)據(jù)集進行干擾處理以實現(xiàn)隱私保護的目的,缺陷在于沒法嚴格定義攻擊模式,也無法量化攻擊者的背景知識,導致這兩種算法只能在某些特定場景下運用,存在一定的局限性。后來,Dwork等人提出了差分隱私保護算法,該算法根據(jù)隱私函數(shù)來保護數(shù)據(jù)集,基本原理是根據(jù)數(shù)據(jù)失真技術來保護隱私。例如,轉(zhuǎn)換原始數(shù)據(jù)或者對統(tǒng)計結(jié)果添加噪音,是目前較為穩(wěn)定安全的隱私保護算法[16]。由此可見,從隱私保護匿名算法的初步想法到k-匿名和l-多樣性算法,再到差分隱私保護算法,人們從未放棄以技術手段保護隱私的嘗試。未來,加強對隱私保護算法技術的研究,亦是有效防范隱私泄露的重要措施之一。
大數(shù)據(jù)殺熟是基于商業(yè)利益的驅(qū)動,人為的力量干預算法決策,引導甚至放任算法做出有利于商家自身的決策。在這個意義上,大數(shù)據(jù)殺熟是算法決策偏差的結(jié)果。算法決策主要包括三個階段:首先是數(shù)據(jù)收集階段,然后將數(shù)據(jù)用于機器學習以開發(fā)模型,即模型開發(fā)階段,最后將該模型用于最終決策,即模型使用階段。人工介入是從技術審查的維度應對算法決策偏差最為直接的方法,主要體現(xiàn)在對算法決策的三個階段進行人工干預:
1.對算法決策的數(shù)據(jù)收集階段進行干預,保證數(shù)據(jù)的質(zhì)量問題。在算法決策引起的倫理風險中,很大一部分原因在于建立算法模型所使用的數(shù)據(jù)存在質(zhì)量問題,直接導致算法技術應用產(chǎn)生負面效應。統(tǒng)計學中對數(shù)據(jù)進行采集有兩個重要的點:一是量,二是質(zhì)。這兩者都會影響統(tǒng)計結(jié)果的準確度,進一步影響技術的好壞。一般而言,統(tǒng)計數(shù)據(jù)量越大,得到的統(tǒng)計結(jié)果就越準確,此外還要求采集的數(shù)據(jù)盡可能公平客觀,使其具有代表性。如果在數(shù)據(jù)收集階段,使用扭曲的數(shù)據(jù)將會產(chǎn)生一個扭曲的模型,數(shù)據(jù)集中帶有偏見的數(shù)據(jù)也會在決策階段重現(xiàn)這種偏見[17]。因此,要對數(shù)據(jù)進行干預,規(guī)范使用數(shù)據(jù),盡可能保證數(shù)據(jù)樣本的公平客觀。
2.對算法決策的模型開發(fā)階段和使用階段進行人工干預。自然人應該積極介入模型開發(fā)階段以降低算法決策偏差所帶來的影響。例如,自然人可以更正不正確或帶有偏見的原始信息。然而,僅在模型開發(fā)階段進行人工介入,還不能完全確保糾正決策偏差的有效性,還需要對模型使用階段進行人工干預。以人工干預的方式對不合理或帶有偏見的算法決策進行糾正,即以“自然人所具備的一般理性和情感”對信息主體的相關信息進行審查。以健康碼為例,當公民發(fā)現(xiàn)自身持有的健康碼所呈現(xiàn)的健康狀況與自身實際情況不吻合時,可以撥打12345政府服務熱線發(fā)起糾錯申請,經(jīng)縣級防控指揮部核實,若情況屬實便可進行更改。人工干預并不是當消費者覺察到被差異定價后再由人工審核定價的合理性,而是由自然人專家主動監(jiān)測算法決策的各個環(huán)節(jié),防止利潤最大化導向下算法決策的“脫韁”,以事前的“主動人工干預”盡可能地避免算法決策偏差所引發(fā)的風險。
算法時代已悄然來臨,相對于人工決策而言,算法決策因其效率高、成本低的優(yōu)勢而被廣泛應用于各個領域,變革了人們的生活方式,促進了社會生活的智能化。然而,算法決策在釋放技術紅利的同時,由此引發(fā)的倫理風險隨之而來:算法自動關聯(lián)形成的數(shù)字畫像和網(wǎng)絡監(jiān)控,使得個體遭遇非自愿泄露個人生物性敏感信息和非自愿的公共暴露個人隱私的風險;算法決策會增強人對算法決策的依賴,削弱人的主體性,呈現(xiàn)出一種主體被客體化風險;算法決策的單向強制性和黑箱性所形成的算法權(quán)威,使得人面臨被迫忍受壓縮個體自由選擇空間的窘境,進一步加強“信息繭房”效應;算法決策應用于商業(yè)領域放任大數(shù)據(jù)殺熟,損害個體消費權(quán)益。因此,由算法決策引發(fā)的倫理風險也迫使我們敲響技術的警鐘,反思并警惕算法決策帶來的負面效應,應該從價值、技術和審查的維度來審視并尋求行之有效的規(guī)避算法決策倫理風險的策略:算法設計人員需要堅守以人為本的宗旨,秉持良善的技術設計倫理原則來設計算法,個體需要積極培養(yǎng)個體自我賦權(quán)意識;發(fā)展匿名隱私保護算法技術,保護個體隱私以免侵犯;對算法決策的數(shù)據(jù)收集階段進行干預以保證數(shù)據(jù)的質(zhì)量問題、對算法決策的模型開發(fā)階段和應用階段進行人工干預以糾正算法決策偏差??傊惴Q策在產(chǎn)品化的過程中得到普及和應用,這究竟是一種用以幫助、增強、改善、提高人類福祉的工具,還是用來傷害和毀滅人類自身的武器?這就要求人們不僅要反思如何更好、更安全、更高效地利用這項技術,更要積極地思考如何更好地防止、阻止和彌補它們所造成的傷害,以確保技術更好地服務人類。