楊 超
(遼寧大學(xué) 法學(xué)院,遼寧 沈陽 110036)
隨著人工智能技術(shù)和大數(shù)據(jù)的發(fā)展,算法逐漸進(jìn)入人們的視野,并滲透進(jìn)人們的日常生活和社會生產(chǎn)之中。小到人們?yōu)g覽手機(jī)APP購買商品或閱讀新聞,大到政府部門制定公共政策,背后都留有算法的印記。與其說是算法在施加影響,不如說是算法權(quán)力在背后主導(dǎo)。伴隨著算法的普遍應(yīng)用,行為受限問題、社會歧視問題、數(shù)據(jù)安全問題、公共利益被損害等問題逐漸暴露,凸顯了社會不和諧的一面。然而,由于“算法黑箱”的存在,大多數(shù)人并不了解算法權(quán)力,更不清楚算法權(quán)力是如何運行并發(fā)揮效用的。可以說,面對算法權(quán)力帶來的種種弊端,人們最大的感受莫過于有心無力。因此,深刻認(rèn)識算法權(quán)力以及如何規(guī)制算法權(quán)力很有必要,勢在必行。
當(dāng)前,我國法學(xué)界對算法權(quán)力也有諸多的研究,主要集中于算法權(quán)力的形成原因、帶來的問題及法律規(guī)制等等,可以說取得了一定的研究成果。但也存在著問題,一方面對于算法權(quán)力的定義采取了“拿來即用”的方式,缺少對算法權(quán)力的深入解讀,直接影響到了人們對算法權(quán)力的定位與后續(xù)法律規(guī)制,另一方面算法權(quán)力的規(guī)制局限于具體制度的構(gòu)建,缺乏概觀性的價值指引。本文力圖在深入解讀算法權(quán)力的基礎(chǔ)上,分析算法權(quán)力的運行邏輯、對社會主要價值觀念的沖擊,最終提出符合現(xiàn)階段算法權(quán)力實際情況的規(guī)制路徑。
關(guān)于算法權(quán)力的定義,僅有少數(shù)的學(xué)者給予了明確的定義,更多的是不加闡述直接引用。有學(xué)者認(rèn)為“算法權(quán)力是一種人工智能技術(shù)平臺的控制者,憑借自身擁有的算法技術(shù)優(yōu)勢而在人工智能應(yīng)用過程中產(chǎn)生的對政府、社會組織和公民個人等對象的技術(shù)權(quán)力”[1],意在表明算法權(quán)力控制人工智能平臺,憑借的是自身的算法技術(shù),作用對象是政府、社會組織、公民個人,是一種控制性技術(shù)權(quán)力。整體來看,這是一個比較全面的定義,但是該定義未指出算法技術(shù)是如何作用于對象的,缺少了算法技術(shù)與作用對象的中間描述,過于抽象。有學(xué)者認(rèn)為“算法權(quán)力是掌握算法技術(shù)的個人和企業(yè)利用自身的技術(shù)優(yōu)勢和行業(yè)便利,把控社會資源及信息,引導(dǎo)政府做出決策,從而形成的一股不可小覷的力量”[2],換言之,算法權(quán)力主體包括個人和企業(yè),利用算法技術(shù)引導(dǎo)政府決策,側(cè)重于私的力量影響了政府。整體來看,該定義是比較片面的。該定義優(yōu)點是點出了算法技術(shù)的本質(zhì)是可以掌控社會資源及信息,問題在于忽略了算法權(quán)力的掌控者除了個人和企業(yè),也可以有政府,而且相比企業(yè)和個人,政府擁有發(fā)展算法權(quán)力的數(shù)據(jù)優(yōu)勢,潛力更大。從引導(dǎo)政府作出決策可以看出,算法權(quán)力是最終服務(wù)于政府和公眾的。有學(xué)者則直接采用“算法權(quán)力”的概念,沒有給出定義。正如有學(xué)者指出:“算法權(quán)力作為一種新型的權(quán)力形式,尚未完全被學(xué)界接納,但這不妨礙我們對其內(nèi)涵和特征進(jìn)行探討?!盵1]但這并不代表就不需要對算法權(quán)力的定義不加重視,相反,明確算法權(quán)力的定義,對于其法律規(guī)制具有重要的意義。
從字面構(gòu)成來看,算法權(quán)力是由“算法”和“權(quán)力”組合而來的合成詞匯?!八惴ā笔墙鉀Q問題的策略機(jī)制,是一種計算機(jī)指令,屬于非常明確的概念。而對于“權(quán)力”的理解,不同領(lǐng)域、同一領(lǐng)域不同流派均有不同的認(rèn)識,主流的觀點認(rèn)為權(quán)力是人與人之間的一種特殊影響力,是一些人對另一些人造成他所希望和預(yù)定影響的能力,或者是一個人或許多人的行為使另一個人或其他許多人的行為發(fā)生改變的一種關(guān)系。[3]為使敘事清楚,本文嘗試給算法權(quán)力下定義,認(rèn)為算法權(quán)力是指一方憑借算法技術(shù)把控社會資源及信息從而作用于另一方的一種技術(shù)性力量。該定義將算法權(quán)力定位為技術(shù)性力量,而不是法律意義上的權(quán)力。根據(jù)吳玉章老師的觀點,“法律權(quán)力具有有限性,受到法律規(guī)范的制約和法律監(jiān)督的制約”,[4]很顯然,算法權(quán)力皆不符合。該定義明確了算法權(quán)力的行使主體和行使對象,避免了過寬或過窄定義主客體,具有開放性;表明了形成的關(guān)鍵在于技術(shù)、資源、信息的絕對優(yōu)勢,而不是傳統(tǒng)的政治統(tǒng)治權(quán)下的暴力奪取和暴力執(zhí)行,突出了算法權(quán)力的特殊之處;角色分明,也為后續(xù)規(guī)制算法權(quán)力提供了清晰的路徑。算法權(quán)力本質(zhì)上是一種計算機(jī)技術(shù)權(quán)力。算法權(quán)力的特征之一為隱蔽性,區(qū)別于公示性的國家權(quán)力,算法權(quán)力通過一系列計算機(jī)指令行使權(quán)力,其運行機(jī)制是不對外公開的。算法權(quán)力的特征之二為分離性,一方面是運行于機(jī)器內(nèi)部指令與輸出結(jié)果在空間上的分離,一方面是算法使用者與算法擁有者的分離。當(dāng)前,算法權(quán)力主要見于公共領(lǐng)域與商業(yè)領(lǐng)域。
1.算法權(quán)力與公權(quán)力。依目前大多數(shù)學(xué)者的觀點,算法權(quán)力是一種類似于公權(quán)力的權(quán)力形態(tài),這種“類似”僅限于算法權(quán)力可以對有限的社會構(gòu)成或公眾產(chǎn)生效果,但這種趨勢在逐漸增強(qiáng)。除此,兩者的區(qū)別也比較明顯。
從權(quán)力來源看,公權(quán)力來源于人民的讓渡,即人民賦權(quán),而算法權(quán)力來源于算法技術(shù)的應(yīng)用;從權(quán)力行使主體角度看,公權(quán)力由明定的國家機(jī)關(guān)或經(jīng)國家機(jī)關(guān)授權(quán)或委托的國家組織行使,而算法權(quán)力由掌控算法技術(shù)的主體行使,這類主體可能是國家機(jī)關(guān),也可能是私營企業(yè),但不管是國家機(jī)關(guān)還是私營企業(yè),算法權(quán)力最終僅掌握在少數(shù)的幾個人手中;從權(quán)力的行使對象看,公權(quán)力的行使對象為社會公眾,而算法權(quán)力的行使對象為因應(yīng)用場景而異,可以是社會公眾,也可以是政府、企業(yè);從權(quán)力行使目的看,公權(quán)力的行使目的是為人們謀利益,而算法權(quán)力的行使目的是為人們謀利益或為私有主體謀取利益;從是否受監(jiān)督角度看,公權(quán)力有一套完備的制約和監(jiān)督體系以防止濫用,而算法權(quán)力目前尚無相關(guān)的法律或規(guī)定予以制約和監(jiān)督。
2.算法權(quán)力與權(quán)利。在算法領(lǐng)域,權(quán)力與權(quán)利在配置上處于嚴(yán)重的失衡狀態(tài),即有算法權(quán)力的實際存在(雖無名分)但無可防御性的權(quán)利存在的狀態(tài),兩者的區(qū)分直接關(guān)系到后續(xù)算法權(quán)力的規(guī)制。
權(quán)利是權(quán)利享有人實現(xiàn)自身利益的一種方式,而算法權(quán)力是算法權(quán)力的掌控主體實現(xiàn)其自身利益的一種控制力或力量,這種力量源于技術(shù)、資源、信息,兩者看似沒有交集,但是深入思考會發(fā)現(xiàn),當(dāng)算法權(quán)力對相對方發(fā)生侵害時,相對方是沒有專門針對前者相應(yīng)的權(quán)利進(jìn)行救濟(jì)的。礙于“算法黑箱”的存在,也難以對算法權(quán)力的違法行為進(jìn)行清晰的認(rèn)定,《民法典》中“侵權(quán)責(zé)任編”適用的空間非常狹窄。
算法權(quán)力的定義及其與相關(guān)概念的區(qū)分使我們對算法權(quán)力有了一個較為清晰的認(rèn)識與定位,那么算法權(quán)力是如何發(fā)揮作用的?這就需要了解算法權(quán)力的作用機(jī)制,“在??驴磥恚?dāng)代社會里,權(quán)力已經(jīng)具有了新的形勢和特點”[5],“新的權(quán)力手段則完全不同:他們不靠權(quán)利,而靠技術(shù);不靠法律,而靠正?;?;不靠懲罰,而靠控制”[6]。算法即是利用技術(shù)控制著人的行為,同時使其作用影響正?;?。當(dāng)算法作用于行為對象時,通過行為控制機(jī)制、嵌入機(jī)制、算法歧視機(jī)制影響自由、平等、安全價值。
行為控制機(jī)制指算法以強(qiáng)大的數(shù)據(jù)處理能力和自主學(xué)習(xí)能力裹挾網(wǎng)絡(luò)平臺使用者,通過代碼規(guī)則形成對公眾行為的控制。行為控制機(jī)制通過算法構(gòu)建行為規(guī)范產(chǎn)生強(qiáng)大的控制力量形成算法權(quán)力,這種強(qiáng)大的控制力量有兩個來源,一是算法使用者具有極大的資源、技術(shù)、信息優(yōu)勢,在與算法相對方的較量中占據(jù)主導(dǎo)地位,一是算法通過二進(jìn)制的代碼構(gòu)建行為規(guī)范,普通人難以理解,只能默默承受。尤瓦爾·赫拉利在其《未來簡史》中曾預(yù)測:“在未來人工智能將獲得統(tǒng)治地位,我們的法律將變成一種數(shù)字規(guī)則,它除了無法管理物理定律之外,將規(guī)范人類的一切行為。”[7]以滴滴打車軟件應(yīng)用為例,用戶下載滴滴打車軟件——點擊滴滴法律條款及隱私政策選項——訪問權(quán)限設(shè)置——用戶注冊——行駛路線劃定——司機(jī)分配——支付車款,算法設(shè)計出了一系列的用車流程,事實上打車人的整個行為已處于滴滴軟件系統(tǒng)的規(guī)制之下,根本沒有討價還價的余地。
嵌入機(jī)制指算法嵌入公共治理領(lǐng)域,形成算法權(quán)力與國家權(quán)力共同發(fā)揮作用的一種形式。信息社會,政府社會職能的實現(xiàn)需要借助算法強(qiáng)大的數(shù)據(jù)收集與分析能力,這為算法嵌入公共治理領(lǐng)域提供了契機(jī)。例如,我國公安機(jī)關(guān)DNA數(shù)據(jù)庫應(yīng)用系統(tǒng)就采用了算法技術(shù),當(dāng)新錄入的DNA與舊案相符合時就會自動報警。再如,美國紐約州警察局曾將數(shù)據(jù)分析大規(guī)模地引入治安管理工作中,成功的降低了當(dāng)?shù)氐姆缸锫?。眾所周知,政府領(lǐng)域涉及人們生活的方方面面,關(guān)涉公共利益。算法嵌入政府領(lǐng)域,尤其是在做出對公眾利益影響巨大的決策時,數(shù)據(jù)收集是否合理、數(shù)據(jù)分析是否符合邏輯、決策作出是否透明等等至關(guān)重要。值得警惕的是,算法主要掌握在少數(shù)大型互聯(lián)網(wǎng)平臺企業(yè)手中,以追逐商業(yè)利益為目的,先天性的會擠壓部分公共利益,有損社會公平正義。
算法歧視機(jī)制指算法的應(yīng)用對某個特殊群體產(chǎn)生了不平等對待的情形。算法歧視根源于算法權(quán)力的形成,本質(zhì)上是擁有算法權(quán)力的一方與算法作用對象占有資源的極不對等。當(dāng)某些被考慮的個性參數(shù)具有雙價相關(guān),即當(dāng)這些參數(shù)以具有統(tǒng)計學(xué)意義的方式同時與構(gòu)成區(qū)別對待的合法理由以及歧視特征相關(guān)聯(lián)時,算法歧視可能會出現(xiàn)。同時,算法的表象是客觀中立的,但表象的背后實際是算法設(shè)計者、算法控制者對算法應(yīng)用對象的歧視或打壓。算法歧視發(fā)生與作用的領(lǐng)域越來越廣,如就業(yè)、信貸、保險、網(wǎng)上購物。初次的算法歧視一旦形成,會形成“歧視慣性”,然后會持續(xù)性的影響到算法應(yīng)用對象的日常生活和生產(chǎn)。
當(dāng)前,算法權(quán)力已經(jīng)迅速的滲入到了人們的日常生活和社會生產(chǎn)之中,引發(fā)了人們的極大關(guān)注。透過紛繁復(fù)雜的現(xiàn)象,可以看出,算法權(quán)力對自由、平等、安全法價值觀念產(chǎn)生了沖擊。
整個法律和正義的哲學(xué)就是以自由觀念為核心而構(gòu)建起來的,朱利葉斯·凱撒曾說“任何人生來都渴求自由、痛恨奴役狀況”。[8]一般意義上,自由包括人的意志自由和行動自由。
算法對行動自由的挑戰(zhàn)。算法通過對海量數(shù)據(jù)的分析、分類、歸納及整合,能勾勒出“用戶畫像”,從而實現(xiàn)定向推送,一定程度上限制了公眾的選擇自由。這種場景常發(fā)生于基于算法定向推送的情形?!爸悄芩惴ǖ膫€性化服務(wù)使人的需求受制于數(shù)據(jù),人性自身的超越性自由和可能性力量被迅速限制?!盵9]以消費者選擇自由受限為例,在算法未誕生之前,消費者可以在網(wǎng)絡(luò)平臺上自由的選擇中意的商品,雖說是漫無目的,但消費者享有選擇的絕對自由。而算法的介入,使得個性化定向推送成為可能,消費者的選擇自由受到了極大地限制。當(dāng)消費者在網(wǎng)絡(luò)平臺瀏覽各種商品時會留下瀏覽的痕跡,“一旦這些數(shù)據(jù)淪為算法技術(shù)的分析對象——算料,那么,算法技術(shù)有可能會進(jìn)一步挖掘、整合和加總這些數(shù)據(jù),從不同系統(tǒng)的數(shù)據(jù)腳印中,印證、解釋和再現(xiàn)個體的一切活動軌跡,個人隱私無處遁形,個人行動還會被誘導(dǎo)”[10]。自主性是技術(shù)最根本的特性,技術(shù)自主性意味著技術(shù)擺脫了社會控制,正在形成一種難以抑制的力量,人類自由將受到威脅。
算法對意志自由的挑戰(zhàn)。搜索引擎服務(wù)商利用算法規(guī)則顯示搜索排名,受商業(yè)目的、政治目的、技術(shù)目的的影響,有的內(nèi)容被優(yōu)先顯示,有的則無法顯示,一定程度上限制了言說者的言論自由的權(quán)利。以谷歌廣告排名系統(tǒng)為例,通過競價的方式在有限的展示名單上排列產(chǎn)品廣告信息,無異于壓制了其他產(chǎn)品提供商言論自由的權(quán)利。換句話說,有錢的人能夠享有充分的言論自由,而相對沒錢的人的言論自由被限制或剝奪。如上所述的個性化算法推薦,除了限制公眾選擇自由,一定程度上沖擊了公眾的思想自由。以今日頭條新聞推送為例,頻繁的、持續(xù)的精準(zhǔn)推送會形成“信息繭房”效應(yīng),慢慢侵蝕人的思想,使人的思考和認(rèn)知片面化。
與平等相對的用語為不平等,而歧視通常以一種不平等的視角對待人或事物。毋庸置疑,算法背景下形成的算法歧視構(gòu)成了對平等最直接的挑戰(zhàn),主要表現(xiàn)為價格歧視、性別歧視、種族歧視三種形式。
價格歧視。價格歧視最為大眾所熟知,區(qū)別于傳統(tǒng)的價格歧視,算法驅(qū)動下的價格歧視是基于海量的消費者數(shù)據(jù)的收集,然后由算法對數(shù)據(jù)進(jìn)行分析比對,進(jìn)而了解消費者的消費習(xí)慣,最終形成針對特定消費者的價格?!按髷?shù)據(jù)殺熟”這一術(shù)語在2018年被評為社會生活類十大用語,即面對同樣的商品或服務(wù),老用戶看到的價格要比新用戶看到的價格要高,多發(fā)生于關(guān)系消費的網(wǎng)絡(luò)平臺,比如酒店、旅游、美食、機(jī)票類平臺。這些平臺廣泛運用消費者往常登錄平臺留下的大量痕跡,進(jìn)而運用算法對其進(jìn)行分析形成精準(zhǔn)的“消費畫像”,最終做到一人一價。性別歧視,主要發(fā)生于求職領(lǐng)域,2015年,谷歌公司開發(fā)的廣告算法被指存在嚴(yán)重的性別歧視。卡內(nèi)基·梅隆大學(xué)和國際計算機(jī)科學(xué)研究所(ICSI)的研究人員的一項研究使用了一款名為AdFisher的定制軟件,模擬了網(wǎng)絡(luò)用戶的瀏覽活動,當(dāng)訪問招聘網(wǎng)站的時候,假冒男性用戶會更頻繁地顯示許諾高薪的廣告,而假冒女性時卻沒有。種族歧視,相對而言,種族歧視則更為隱蔽。Northpointe公司推出的COMPAS(有關(guān)替代性制裁的懲教罪犯管理概況)軟件,它可以預(yù)測被告再次犯罪的概率,而黑人再次犯罪的概率明顯大于白人。[8]
算法時代的安全威脅,主要源于數(shù)據(jù)的泄露尤其是含有個人隱私的數(shù)據(jù)泄露。數(shù)據(jù)被譽(yù)為新的“石油”資源,資源屬性意義重大,而有算法的助力,數(shù)據(jù)將發(fā)揮更大的效用。一旦發(fā)生數(shù)據(jù)泄露,受利益驅(qū)使、居心叵測并擁有強(qiáng)大算法技術(shù)的大企業(yè)便抓住機(jī)會對泄露數(shù)據(jù)進(jìn)行分析、整合,推測出數(shù)據(jù)擁有者的更多的個人信息或關(guān)聯(lián)人的信息,形成數(shù)據(jù)泄露的再次升級。不論用于合法的活動還是非法的活動,都對個人隱私安全甚至人身安全、財產(chǎn)安全構(gòu)成比先前單純的數(shù)據(jù)泄露更大地威脅。
當(dāng)前的算法權(quán)力規(guī)制手段大多集中于具體制度的構(gòu)建,誠然,如果能夠落實,預(yù)測能有一定的效果,但是算法畢竟是一類新生事物,當(dāng)前并無哪部法律或法規(guī)能夠有效約束,從新的立法到施行更是需要很長一段時間,因此,從價值指引、原則調(diào)適方面對于現(xiàn)階段的算法權(quán)力規(guī)制能起到更好的效果,也更有益于算法的創(chuàng)新與社會的發(fā)展進(jìn)步。當(dāng)然,具體的制度也要積極構(gòu)建,制度落實只是時間長短問題。因此,本文嘗試構(gòu)建一種價值與原則先行、具體制度逐步推進(jìn)的順序規(guī)制策略。
“尊嚴(yán)”是一個抽象詞匯,屬于意識范疇領(lǐng)域。關(guān)于“尊嚴(yán)”的概念和內(nèi)涵因人或因時代而異,尊嚴(yán)是指人們的尊嚴(yán)還是人性尊嚴(yán)還是人格尊嚴(yán)也存著爭議,雖然表達(dá)用語不同,但都不無例外的體現(xiàn)了對人的關(guān)注和重視?!白饑?yán)”意味著尊重他人,基于人與人之間的相互尊重,人們內(nèi)心的自由、平等、安全、自信感得到滿足,進(jìn)而遵從內(nèi)心理性從事社會交往,得以形成和諧的人際關(guān)系,最終促進(jìn)社會的和諧與穩(wěn)定,社會的公平正義也就自然實現(xiàn)了。
互聯(lián)網(wǎng)絡(luò)的發(fā)展,人與人之間、人與社會之間的聯(lián)系多通過虛擬網(wǎng)絡(luò)建構(gòu),大數(shù)據(jù)挖掘技術(shù)與算法技術(shù)的結(jié)合,能近乎精確的勾勒出“用戶畫像”,使得人們對于尊嚴(yán)的理解多局限于虛擬網(wǎng)絡(luò)環(huán)境,忽略了現(xiàn)實中人的主體性特征,直接導(dǎo)致了人們對人的尊嚴(yán)的低維理解和認(rèn)知意義削減。但是,當(dāng)算法應(yīng)用對人的自由、平等、安全、公共利益的產(chǎn)生威脅時,人們并未徹底認(rèn)識到這是對人的尊嚴(yán)的嚴(yán)重侵犯??档略f:“任何人都沒有權(quán)利僅把他人作為實現(xiàn)自己主觀目的的工具。每個個人都應(yīng)當(dāng)永遠(yuǎn)被視為目的本身”,這是近代時期先哲對人的尊嚴(yán)做的最完美的詮釋。因此,相較于算法應(yīng)用,人的尊嚴(yán)保護(hù)當(dāng)置于優(yōu)先地位。
利益衡量原則指在算法設(shè)計前,在算法的設(shè)計者、算法使用者或擁有者、算法應(yīng)用對象之間的一種利益衡量。這一原則對于緩和由網(wǎng)絡(luò)平臺與平臺用戶地位不平等、資源占有不對等引發(fā)的對自由、平等、安全價值觀念的沖擊具有平衡作用。當(dāng)前,算法的應(yīng)用主要集中在商業(yè)領(lǐng)域,公共治理領(lǐng)域雖然也在積極推進(jìn),但仍不及商業(yè)領(lǐng)域應(yīng)用的普遍和深入。無論哪個領(lǐng)域,背后必然有利益的衡量,如何協(xié)調(diào)背后的資本利益,使之契合各方的利益訴求,是社會實現(xiàn)公平正義的關(guān)鍵。
在商業(yè)領(lǐng)域,一般涉及的利益相關(guān)方為算法的設(shè)計者、算法使用者(所有者)、算法的應(yīng)用者。限于開發(fā)能力,除了幾個大型互聯(lián)網(wǎng)企業(yè),其他企業(yè)的算法系統(tǒng)幾乎都是委托他方開發(fā),所以算法設(shè)計者的利益是獲取服務(wù)費用,算法使用者的利益是實現(xiàn)最大可能的利潤,算法應(yīng)用者的利益是實現(xiàn)便捷服務(wù)與利益盡可能不受損害。其中,算法使用者與算法應(yīng)用者之間的利益是存在沖突的,或者說資本利益與有限公共利益的沖突。此時,應(yīng)當(dāng)將算法使用者的利益和算法應(yīng)用者的利益置于算法應(yīng)用這一平臺加以比較。同樣,在公共治理領(lǐng)域,應(yīng)當(dāng)將算法的使用者即政府的利益與算法的應(yīng)用者即社會公眾之間的利益置于算法應(yīng)用這一平臺加以比較。至于如何衡量各方利益,需要根據(jù)自動化決策的適用對象、適用范圍、評估效果等因素而定。但毋庸置疑的是,公共利益應(yīng)為首要考慮,且不得損害公共利益是底線要求。
程序正當(dāng)原則是行政法的基本原則之一,正當(dāng)程序是指基于公平、正義而應(yīng)遵循的程序,不論法律是否有明確規(guī)定都應(yīng)予以遵守,它是對行政主體行使行政權(quán)力的最低限度的程序要求。[11]算法權(quán)力是掌握算法技術(shù)的個人和企業(yè)利用自身的技術(shù)優(yōu)勢和行業(yè)便利,把控社會資源及信息,引導(dǎo)政府作出決策,從而形成的一股不可小覷的力量。雖說算法權(quán)力具有橫向性,不同于縱向性的國家權(quán)力,但就雙方的權(quán)力本質(zhì)而言,兩者具有統(tǒng)一性,都具有控制和影響他人的能力。目前,學(xué)界有稱算法權(quán)力為“準(zhǔn)公權(quán)力”。鑒于算法權(quán)力與國家權(quán)力具有相似之處,有必要吸收程序正當(dāng)原則作為指導(dǎo)實現(xiàn)算法正義的一項原則。這一原則使算法運行透明化尤其是從數(shù)據(jù)收集到分析的整個過程,同時賦予公眾參與的權(quán)利,是從算法應(yīng)用的初始階段開始對算法進(jìn)行規(guī)制,對于數(shù)據(jù)安全、公共利益的維護(hù)具有重要作用。具體包括算法公開原則和公眾參與原則,公開原則指算法的使用者應(yīng)當(dāng)主動向公眾公開算法系統(tǒng)的數(shù)據(jù)收集、數(shù)據(jù)處理、數(shù)據(jù)應(yīng)用的情況,其中數(shù)據(jù)收集是算法系統(tǒng)運行的初始步驟,能夠從源頭上把握數(shù)據(jù)的契合度,防止出現(xiàn)“數(shù)據(jù)鴻溝”與采集數(shù)據(jù)單一化的現(xiàn)象;如果數(shù)據(jù)契合度很高,數(shù)據(jù)處理環(huán)節(jié)就會相對公平;數(shù)據(jù)應(yīng)用包括自動化決策、行為控制等環(huán)節(jié)。公眾參與原則指當(dāng)算法系統(tǒng)向公眾公開后,應(yīng)當(dāng)聽取公眾的意見。尤其是有損公眾利益的決定,公眾有權(quán)進(jìn)行申辯。
1.建立以憲法為核心,以多部門為輔的制度保障體系。人權(quán)是一個歷史概念,不同的歷史階段、時代背景有著不同的人權(quán)解讀,相應(yīng)的,侵犯和保護(hù)人權(quán)的方式也會發(fā)生變化。當(dāng)前侵犯人權(quán)的方式呈現(xiàn)出智能化、隱蔽性的特征,侵犯人權(quán)的時間上具有長期性特征,如上文提到的算法定向推薦、算法歧視,人們的權(quán)益受到侵犯卻渾然不知,嚴(yán)重威脅著社會的公平正義。更嚴(yán)重的是,目前尚無專門性的法律規(guī)章制度進(jìn)行規(guī)制。
憲法是國家的根本大法,具有統(tǒng)帥部門法的領(lǐng)導(dǎo)地位。憲法第三十三條第二款規(guī)定了“尊重和保障人權(quán)”,(1)《中華人民共和國憲法》第三十三條第二款。,憲法第三十八條規(guī)定了“中華人民共和國公民的人格尊嚴(yán)不受侵犯”,(2)《中華人民共和國憲法》第三十八條。這些規(guī)定都是原則性的規(guī)定,對于緩解算法對自由、平等、安全、公共利益正義價值的侵害具有引領(lǐng)和指導(dǎo)作用。此外,《民法典》中對人格權(quán)的保護(hù),《網(wǎng)絡(luò)安全法》中對網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者的約束,對用戶個人信息保護(hù),以及即將出臺的《個人信息保護(hù)法》,都不同程度的發(fā)揮著保護(hù)人們基本權(quán)益的積極作用。因此,非常有必要構(gòu)建以憲法為核心,即以尊重和保障人權(quán)原則為指導(dǎo),從憲法價值、憲法原則、憲法具體條文層面延伸到各個部門法相關(guān)的條款對算法出現(xiàn)的問題進(jìn)行規(guī)制,遏制算法帶來的侵害人權(quán)、侵害社會公平正義的情形。
2.在具體的應(yīng)用場景中對算法權(quán)力進(jìn)行規(guī)制。第一,公共治理領(lǐng)域中的算法權(quán)力規(guī)制。一是對于涉及公共利益的一般決策,應(yīng)當(dāng)嚴(yán)格遵循程序正當(dāng)原則,及時公開算法(涉及國家秘密、商業(yè)秘密的除外),保證公眾知情權(quán);對于涉及公共利益的重大決策,除了遵循前述原則,應(yīng)當(dāng)對算法應(yīng)用的必要性進(jìn)行論證,必要時舉行聽證會。二是配置個人權(quán)利對抗算法權(quán)力。根據(jù)算法應(yīng)用的實際情況,適當(dāng)?shù)馁x予個人以數(shù)據(jù)權(quán)利,包括但不限于知情權(quán)、訪問權(quán)、刪除權(quán)、拒絕權(quán),防止算法權(quán)力的肆意侵害。
第二,商業(yè)領(lǐng)域中的算法權(quán)力規(guī)制。一是加強(qiáng)政府層面對算法權(quán)力的監(jiān)管,建立算法問責(zé)制度,發(fā)現(xiàn)算法危害公共利益的情形,及時介入處理并追究責(zé)任。二是嚴(yán)格把控數(shù)據(jù)質(zhì)量包括數(shù)據(jù)的清潔度、數(shù)據(jù)的均衡性、數(shù)據(jù)的完整性,從源頭上保證數(shù)據(jù)的匹配度與公正性,實現(xiàn)“數(shù)據(jù)正義”[12]。如拒絕將種族、弱勢群體等因素納入基礎(chǔ)數(shù)據(jù),防止算法歧視的滋生。三是在基礎(chǔ)數(shù)據(jù)中嵌入社會倫理觀念,使社會倫理成為自動化決策的參考因素,確保企業(yè)在追逐利益的同時符合公眾的容忍期待。四是要求企業(yè)自身建立健全風(fēng)險監(jiān)控機(jī)制和事后救濟(jì)制度,對算法應(yīng)用的全過程進(jìn)行監(jiān)控,一旦發(fā)現(xiàn)危險情況應(yīng)立即上報和處理。如果出現(xiàn)了損害結(jié)果,應(yīng)及時對外公布,必要的給予賠償。