摘要:隨著互聯(lián)網(wǎng)平臺涉及范圍的擴大,算法的使用開始制約著人們的日常生活。算法權(quán)力同時打破了制度化權(quán)力和非制度化權(quán)力間的界限,使權(quán)力不再集中于政府。在實際應(yīng)用中,算法依然會表現(xiàn)出人類社會中長期存在的歧視,甚至加劇固化這樣的歧視與偏見。法律作為社會的普遍性規(guī)范,預(yù)測和解決的只能是社會的大概率事件,在成本的制約下無法對個人進行個性的規(guī)制,在算法權(quán)力歧視下加強對平等權(quán)的保護應(yīng)當(dāng)從單純對數(shù)據(jù)的保護變化到對算法運行的規(guī)制,加強對算法的權(quán)力規(guī)制。
關(guān)鍵詞:算法權(quán)力;歧視;平等權(quán);法律保護
中圖分類號:D923;TP18文獻標識碼:A文章編號:2095-6916(2021)09-0031-03
隨著平臺型經(jīng)濟在全球范圍內(nèi)的快速發(fā)展,互聯(lián)網(wǎng)平臺企業(yè)作為其主體核心,逐漸開始影響社會、政治、經(jīng)濟等各個領(lǐng)域,其在公共事務(wù)和個人生活中的影響力不斷增強。資源與需求的低成本高效匹配是市場的追求,而互聯(lián)網(wǎng)平臺高效的資源匹配正是其快速發(fā)展的核心動力,其技術(shù)基石是大數(shù)據(jù)和智能算法。在英國上議院下屬的人工智能特別委員會所做的報告中,算法被定義為:“一系列用于計算或者解決問題的指令,尤其適于計算機。算法構(gòu)成了計算機所能做的事情的基礎(chǔ),由此也是所有人工智能系統(tǒng)的一個基本方面?!?/p>
隨著互聯(lián)網(wǎng)平臺涉及范圍的擴大,其算法的使用開始影響著人們的日常生活。從私人領(lǐng)域的網(wǎng)購?fù)扑]、飲食外賣到公共領(lǐng)域的個人信用、政府管理,算法不僅成為個人生活的決策者,并且開始取代公權(quán)力機構(gòu)做決策。大數(shù)據(jù)已經(jīng)脫離技術(shù)的范疇,開始演變?yōu)樾碌臋?quán)力形態(tài),建立了一種新的社會圖景和現(xiàn)實。一個由算法主導(dǎo)決策的社會開始覆蓋過去的社會運行模式,在帶來高效率、客觀化的同時,卻由于算法技術(shù)的專業(yè)性和算法運行過程的“黑箱”不透明性使得公眾理解算法受阻、法律監(jiān)管困難。如 2013 年哈佛大學(xué) Latanya 所作的研究表明,谷歌的 AdSense 在在線廣告的投遞中,會首先根據(jù)姓名對搜索者的膚色、種族進行判斷,如果被認定為黑人,被推送“某人被逮捕的”的記錄類型的廣告將遠高于白人。這種帶有特定價值取向的歧視性行為是對公民平等權(quán)的侵犯,相比于傳統(tǒng)的歧視行為,算法打破了物理空間界限,借助因技術(shù)壁壘產(chǎn)生的隱蔽性、隔離性和不可識別性,對過去平等權(quán)保護模式提出了挑戰(zhàn)。
一、算法權(quán)力:全新的權(quán)力形態(tài)
科學(xué)技術(shù)作為推動社會進步的生產(chǎn)力,包括其所物化后的產(chǎn)品機器,而機器本身只是一種工具,其不具有價值取向。但是當(dāng)技術(shù)成為特定主體獲取利益的工具和途徑時,技術(shù)便不再具有客觀性,而逐漸表現(xiàn)出權(quán)力特征。就如同馬爾庫塞所認為的那樣,科技與技術(shù)本身如同意識形態(tài)一樣,也具有明顯的工具性和奴役性,扮演著在社會中奴役人的功能。正如他在《單向度的人》書中所說的那樣:“人們控制自然的科學(xué)辦法”,結(jié)果“為人對人的統(tǒng)治提供了概念和工具”。算法權(quán)力表現(xiàn)出的便是一種技術(shù)權(quán)力。算法是基于對大數(shù)據(jù)資源的使用分析,進而實現(xiàn)對人的行為和公共資源的調(diào)度,這不僅是它的表現(xiàn)形式,也是它區(qū)別于其他權(quán)力形態(tài)的表現(xiàn)。算法權(quán)力不再需要傳統(tǒng)暴力機關(guān)進行維護,而是在各個主體對算法的實體法產(chǎn)物形成過度依賴后,再由少數(shù)群體對算法核心技術(shù)進行壟斷,進而表現(xiàn)出權(quán)力的特征。算法運行過程中會受到設(shè)計者價值傾向、利益選擇等意愿的極大影響,算法的設(shè)計者就自然地成為算法權(quán)力的實際掌握者和權(quán)力的歸屬對象。
算法權(quán)力以算法技術(shù)作為運行內(nèi)核,在該權(quán)力形態(tài)下,權(quán)力與權(quán)利關(guān)系具有特殊性,兩者的來源為社會權(quán)力的增加和個人權(quán)利減少之后的再分配。此時,個人權(quán)利是由算法帶來的技術(shù)便利賦予的,計算能力的加強使得算法可以對更多的數(shù)據(jù)進行處理分析,促使算法與個人日常以及社會的嵌入加深,多方面促進了算法的實體化應(yīng)用,自然賦予了個人更多的權(quán)利以及社會公共福利。
在公權(quán)力方面,現(xiàn)代社會治理離不開官僚體系。對于官僚主義者來說,其追求的目標即是建立一個更高效率的社會制度。算法通過向技術(shù)官僚提供一個解決效率問題的工具,使算法成為真正的權(quán)威來源,將人們對政策的關(guān)注點從官僚轉(zhuǎn)移到計算上來。而這樣的政府過度依賴以及民眾偏差認識,使得整個社會的治理出現(xiàn)“去政治化”,會加深民眾對政府的不信任感,使得社會治理過程出現(xiàn)危機。
私權(quán)力方面,借助代碼 / 架構(gòu)權(quán)力模型,將各類規(guī)范代碼化,對賬戶的行為進行數(shù)據(jù)化的轉(zhuǎn)化并借助算法進行相應(yīng)分析,作出評分評價和引導(dǎo),形成“代碼就是法律”的管理模式。這樣的“權(quán)力—數(shù)據(jù)—評分”的規(guī)訓(xùn)機制構(gòu)成了網(wǎng)絡(luò)空間的權(quán)力基礎(chǔ)。這樣的模式是在給予互聯(lián)網(wǎng)平臺對生產(chǎn)效率追求的刺激之下逐步形成的,而平臺和用戶之間的數(shù)據(jù)交互也使得被大眾所接受的規(guī)范開始合理且合法地成為平臺的規(guī)則,使得傳統(tǒng)法律不能處理的空白領(lǐng)域得以填充。但這樣類似于私人立法的方式,存在著平臺與用戶、交易者與交易者之間的信息獲取不平等的問題,平臺享受了不可撼動的地位,對消費者存在一定的剩余壓縮。
算法權(quán)力具有“黑箱”性質(zhì),即所不知的,既不能打開,又不能直接從外部觀察其內(nèi)部狀態(tài)的系統(tǒng)。首先,因為算法本身的學(xué)習(xí)難度較大,普通人需要大量的時間精力才能知悉算法的運行邏輯和運作原則。其次,現(xiàn)行的算法設(shè)計大多是由企業(yè)完成,設(shè)計和研發(fā)過程變?yōu)槠髽I(yè)自身的內(nèi)部行為,使得設(shè)計和研發(fā)人員的價值取向和利益傾向可以隨意加入到算法之中,甚至于政府及其相關(guān)部門都難以掌握其目的和原理。最后,算法本身具有知識產(chǎn)權(quán)屬性,算法的運行具有一定商業(yè)秘密性質(zhì)。要求公開算法的公共訴求和企業(yè)平臺追求的商業(yè)性質(zhì)產(chǎn)生沖突,企業(yè)為防止被競爭對手利用而失去商業(yè)競爭力,往往不會選擇把算法交由他人審核甚至公之于眾。
算法權(quán)力同時打破了制度化權(quán)力和非制度化權(quán)力間的界限,使權(quán)力不再集中于政府這一單一主體,部分能夠使用算法的企業(yè)尤其是互聯(lián)網(wǎng)平臺企業(yè)自然也會擁有一定的權(quán)力,最終表現(xiàn)出以政府主體為核心,散射出多重非制度化的權(quán)力社會關(guān)系。算法權(quán)力還實現(xiàn)了在物理空間和網(wǎng)絡(luò)空間之間的跨越,突破了傳統(tǒng)的權(quán)力物理邊界。傳統(tǒng)的以官僚體系為連接方式的權(quán)力模式會隨著物理空間的擴大以及控制內(nèi)容的增多而逐漸減弱其控制力,而隨著電子技術(shù)以及物聯(lián)網(wǎng)、云計算等交互技術(shù)的發(fā)展,人們獲取和交換信息的能力不斷加強,傳統(tǒng)權(quán)力便通過算法這一媒介實現(xiàn)了在時間和空間上的拓展,算法權(quán)力也從網(wǎng)絡(luò)空間開始向信用、教育、投資等現(xiàn)實物理領(lǐng)域拓展。
二、算法權(quán)力之下的歧視危機
(一)算法本身所表現(xiàn)出來的社會歧視性
公共政策的制定多是基于對不確定事件發(fā)生可能性的信念,當(dāng)算法用于公共政策制定時,人們都會對這個擺脫個人主觀評估和人類思維局限的決策模式報以極高的期待。但在實際應(yīng)用中,算法依然會表現(xiàn)出人類社會中長期存在的歧視,甚至加劇固化這樣的歧視與偏見。
一是因為算法本身是人類設(shè)計的產(chǎn)物,是人類社會的技術(shù)投射。算法將各組數(shù)據(jù)抽象出函數(shù)與模型,并利用新的數(shù)據(jù)驗證優(yōu)化已有的模型,對多個事物進行分類,通過外在特征對新事物進行預(yù)測,這與人類的思維與認知方法相似。
二是算法的出現(xiàn)是人類對效率效益追求的集中體現(xiàn)。以互聯(lián)網(wǎng)為依托,以算法為技術(shù)核心的各類平臺通過數(shù)據(jù)分析和精準預(yù)測帶來了實在的經(jīng)濟利益。當(dāng)算法以經(jīng)濟利益和效率為最高指導(dǎo)標準時,勢必會忽視甚至抵觸平等、自由等現(xiàn)代社會理念,而這些理念只是算法構(gòu)建的世界中的一部分數(shù)據(jù)而已。
三是數(shù)據(jù)并不具有絕對的中立性。首先,數(shù)據(jù)的產(chǎn)生并不一定反映真實的情況,個人某些數(shù)據(jù)的產(chǎn)生具有偶然性,錯誤數(shù)據(jù)的產(chǎn)生也難以避免,偶然和錯誤的數(shù)據(jù)并不能作為預(yù)測未來的依據(jù)。其次,數(shù)據(jù)的收據(jù)存在偏差,數(shù)據(jù)可以說是現(xiàn)實社會在電子技術(shù)世界的鏡像映射,現(xiàn)實中存在的偏見與歧視的特殊社會行為和心理則會相應(yīng)地反映到數(shù)據(jù)中心,自然無法得到公正的算法結(jié)果。
(二)傳統(tǒng)法律難以有效應(yīng)對算法歧視
法律作為社會的普遍性規(guī)范,預(yù)測和解決的只能是社會的大概率事件,在成本的制約下無法對個人進行個性的規(guī)制,但隨著算法技術(shù)的廣泛使用,法律可以根據(jù)個人產(chǎn)生的數(shù)據(jù)制定個性化的規(guī)則。
首先,平等權(quán)所追求的法律面前人人平等,其內(nèi)涵是法律的可知性與一般性。法律的一般性表現(xiàn)出的是意志、對象和適用上的一般性,這種一般性對法制建設(shè)發(fā)揮著積極的促進作用,可以說是法治的支撐點。若是個人的權(quán)利義務(wù)會因為個人行為數(shù)據(jù)在算法模式下產(chǎn)生差異,那么平等權(quán)實現(xiàn)的可能性便蕩然無存。由算法產(chǎn)生的個性化規(guī)則容易導(dǎo)致實質(zhì)上的不平等,實質(zhì)化的平等必需是和理性和正當(dāng)性的差異化對待,實質(zhì)化的平等追求的是特殊事實與一般規(guī)則的一一對應(yīng)。而算法的個性化規(guī)則是特殊事實與特殊規(guī)則間的對應(yīng),使得法律具有不確定性,期待可能性大打折扣,難以保證算法做出的劃分不具有歧視性。
其次,傳統(tǒng)以立法為核心的保護模式具有先天的滯后性。在過去技術(shù)更迭緩慢、社會經(jīng)濟結(jié)構(gòu)變化不夠劇烈的時代,穩(wěn)定的立法起到了很好的維持社會穩(wěn)定的作用。但法律的調(diào)整方式是回應(yīng)性的,是趨向于保守的,而算法的發(fā)展是快速更迭的,依靠大數(shù)據(jù)和實時的自我學(xué)習(xí)升級,算法權(quán)力涉及的深度與廣度在不斷增加,相應(yīng)的,歧視可能也在不斷增加。先占者將利用其資本、技術(shù)和資源使其壟斷地位難以被法律撼動,過去的法律思想和法典意識將難以應(yīng)對新時代的發(fā)展。
第三,傳統(tǒng)的行為主義司法救濟難以有效應(yīng)對算法歧視。過去的保護模式是在侵害行為發(fā)生之后,采用事后賠償、懲罰來予以矯正,其追求的是對侵害結(jié)果的控制。由于算法本身難以預(yù)測,其對不同個體、不同方面表現(xiàn)出來的歧視內(nèi)容可能大相徑庭,難以對未來的侵害方式和侵害結(jié)果進行有效的預(yù)測。算法同時具有較高技術(shù)性,使得立法和司法人員難以完整理解和全面把握其內(nèi)在邏輯,進而采取保守態(tài)度使得立法更為滯后。因此,算法歧視的救濟模式應(yīng)當(dāng)變?yōu)閷︼L(fēng)險的預(yù)知和防控。
三、平等權(quán)保護新模式
如上文所述,算法本身具有的黑箱屬性,透明度不足,使得其運行過程難以被理解,同時,在算法的高度專業(yè)性以及商業(yè)秘密保護等掩蓋之下,許多有意識和無意識的歧視都被隱藏在難以被人們理解的代碼、公式和數(shù)據(jù)之中。因此,需要用新的方式面對算法歧視。
(一)應(yīng)當(dāng)從單純對數(shù)據(jù)的保護變化到對算法運行的規(guī)制
過去,平等權(quán)的保護側(cè)重保障的是數(shù)據(jù)的獲取和使用過程中對個人隱私權(quán)的侵犯,但隨著時代的變化,數(shù)據(jù)產(chǎn)生和使用的方式發(fā)生了巨大的變動,各個商業(yè)平臺與公權(quán)力部門利用各自的算法,甚至在互聯(lián)網(wǎng)上形成了割據(jù)的形勢,占據(jù)著各自的權(quán)力范圍,使得傳統(tǒng)的數(shù)據(jù)保護模式逐漸失靈。單純的數(shù)據(jù)不能產(chǎn)生危害,數(shù)據(jù)只有經(jīng)過算法的加工才會出現(xiàn)可能的風(fēng)險和危害,因此需要加大對算法使用者在算法使用過程中的監(jiān)管與識別。
算法作為一種復(fù)雜且具有較強專業(yè)性的技術(shù),傳統(tǒng)的機器識別以及一般人工識別將難以辨別其中的歧視行為。只有加強專業(yè)人士對算法運行的識別判斷,以及對普通公民進行相應(yīng)的人工智能算法教育,使得大眾能夠充分認識了解算法,理解算法可能帶來的歧視、偏見等問題,增強大眾在新時代的新的“維權(quán)”想法,才能夠?qū)崿F(xiàn)社會中的廣泛共識。
(二)加強對算法的權(quán)力規(guī)制
算法雖然是一門技術(shù),但如果法律僅僅將其作為一項技術(shù)進行規(guī)制,將忽略算法除去技術(shù)屬性的權(quán)力屬性。如果僅僅視為一項技術(shù)予以規(guī)制,將使得其應(yīng)當(dāng)被規(guī)制的重點被忽略,例如僅僅關(guān)注其不透明,而要求公開算法的技術(shù)和運行方式,這只會使得公眾的認知壓力不斷加大,而不能從實質(zhì)上去解決問題。同時,相關(guān)的算法平臺企業(yè)會承擔(dān)更多的開發(fā)投入、商業(yè)秘密保護和知識產(chǎn)權(quán)競爭的壓力。這樣單一層次的規(guī)制,最終難免為了規(guī)制而規(guī)制,而失去了算法技術(shù)的優(yōu)勢。當(dāng)把算法認定為一種權(quán)力予以規(guī)制時,現(xiàn)有的針對公權(quán)力的監(jiān)管模式和體系可以很好地套用在算法權(quán)力之上,從而保證制度的合理運行,其對責(zé)任主體的判斷和制約也會變得更加得心應(yīng)手。也就是說,可以不斷督促設(shè)計者增強對算法使用過程中的責(zé)任。
參考文獻:
[1] 張愛軍,王首航.算法:一種新的權(quán)力形態(tài)[J].治理現(xiàn)代化研究,2020(1).
[2] Latanya Sweeney.Discrimination in online ad delivery[J].Queue, 2013(3).
[3] 劉永謀.機器與統(tǒng)治——馬克思科學(xué)技術(shù)論的權(quán)力之維[J].科學(xué)技術(shù)哲學(xué)研究,2012(1).
[4] David Beer.The Social Power of Algorithms[J].Information, Communication & Society,2016(1).
[5] 尼爾·波斯曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬,譯.北京:中信出版社,2019.
[6] 胡凌. 超越代碼:從賽博空間到物理世界的控制/生產(chǎn)機制[J].華東政法大學(xué)學(xué)報,2018(1).
[7] 許可.人工智能的算法黑箱與數(shù)據(jù)正義 [N].社會科學(xué)報,2018-03-29(6).
[8] 胡凌.人工智能視閾下的網(wǎng)絡(luò)法核心問題 [J].中國法律評論,2018(2).
[9] 鄭戈.人工智能與法律的未來[J].公民與法 (綜合版),2017(12).
[10] 張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019(4).
作者簡介:黃梓航(1999—),男,漢族,四川廣元人,單位為華東政法大學(xué),研究方向為法學(xué)。
(責(zé)任編輯:王寶林)