張婧飛,姚如許
(大連海事大學(xué) 法學(xué)院,遼寧 大連 116026)
智能時代來臨,人們的生活離不開算法技術(shù)。算法技術(shù)帶來便捷的社會生活的同時,也引發(fā)了人們對于算法技術(shù)異化的不安。無論是商業(yè)主體構(gòu)建的算法平臺,還是公權(quán)力機(jī)關(guān)與技術(shù)公司合作設(shè)置的算法輔助工具,都在運(yùn)行過程中對社會公民產(chǎn)生了強(qiáng)制性的支配力,形成了算法權(quán)力。目前國內(nèi)沒有針對算法權(quán)力規(guī)制與審查的專門法律,算法權(quán)力卻實實在在地影響了社會大眾。在行政法律關(guān)系中,行政相對人本就要受到行政主體的強(qiáng)制性管理,算法權(quán)力與公權(quán)力的結(jié)合使得情況更為復(fù)雜,這二者的結(jié)合一方面加劇了行政相對人的弱勢地位,另一方面算法權(quán)力又滲透到公權(quán)力中。因此有必要在法治的層面上對算法權(quán)力進(jìn)行約束,規(guī)范算法與公權(quán)力的結(jié)合,將算法權(quán)力關(guān)進(jìn)“制度的籠子”。
“工作時間全天候,不分白天與黑夜,無論狂風(fēng)暴雨,只要車主出現(xiàn)違章的狀況就能抓拍得清清楚楚”。這不是簡單的交通攝像頭,而是對從攝像頭反饋回來的錄像進(jìn)行二次分析的系統(tǒng)——海燕系統(tǒng)。2018年,公安部推出海燕系統(tǒng)進(jìn)行道路違章抓拍,據(jù)統(tǒng)計,在某城市運(yùn)行了7天,就精確抓拍到一萬多次違章。這是算法技術(shù)與行政管理的結(jié)合,人工智能時代,算法深度嵌入社會生活。英國人工智能委員會在其會議報告中對算法的定義是:“指用計算機(jī)時執(zhí)行計算或解決問題的一系列指令,是所有人工智能系統(tǒng)的基本方面”[1]。算法借助深度學(xué)習(xí)、大數(shù)據(jù)等技術(shù),變革社會治理結(jié)構(gòu),脫離了純粹的技術(shù)屬性,成為一種新興的權(quán)力——算法權(quán)力。
自動化行政是在行政程序中楔入算法技術(shù),將原來需要人工處理的事項轉(zhuǎn)由人工智能或自動化程序代為處理的行政活動。自動化行政的適用場景日趨廣泛,各地接連推出自動化審批系統(tǒng)、交通違章自動識別系統(tǒng)、防疫“健康碼”等自動化行政方式,這些新的改變提高了行政效率的同時,也使算法技術(shù)全方面地滲透到行政權(quán)力中,深度參與公權(quán)力,逐漸由輔助公權(quán)力到影響公權(quán)力再到在一定程度上取代公權(quán)力。除此之外,技術(shù)賦能無疑帶來行政權(quán)的擴(kuò)張,對公民的基本權(quán)利造成擠壓,若對算法權(quán)力不加以規(guī)制,算法治理必將帶來風(fēng)險。因此,在順應(yīng)技術(shù)發(fā)展潮流、合理應(yīng)用算法的同時,必須警惕和防范算法對公權(quán)力以及公民權(quán)利造成的沖擊與挑戰(zhàn)。
算法是根據(jù)固定的步驟,通過輸入數(shù)據(jù)得到輸出的結(jié)果。按照此定義,人每天穿衣吃飯、走相同的路上下班,都是算法的運(yùn)行過程。1956年,美國達(dá)特茅斯學(xué)院會議上首次提出“人工智能”一詞。從人工智能層面進(jìn)行定義,算法是在一定輸入的前提之下,按照設(shè)定程序運(yùn)行的計算機(jī)指令[2]。算法本來是一種人類解決問題的計算機(jī)工具,并不帶有權(quán)力屬性。但隨著算法的廣泛應(yīng)用,算法在社會治理中逐漸成為建構(gòu)治理模式的重要因素甚至決定性因素,對人的行為產(chǎn)生直接的影響。探究算法權(quán)力的異化風(fēng)險,首先要對算法權(quán)力的生成進(jìn)行梳理。
學(xué)界對于權(quán)力的定義目前還沒有形成通說?!坝绊懥φf”“強(qiáng)制力說”“支配力說”①“影響力說”認(rèn)為權(quán)力是一些人對另一些人造成他們所希望和預(yù)定影響的能力;“強(qiáng)制力說”認(rèn)為權(quán)力是一個人或一部分人具有強(qiáng)加于他人的一種強(qiáng)制力;“支配力說”認(rèn)為權(quán)力是一種組織性的支配力。都具有其自身的道理。權(quán)力主體享有權(quán)能,權(quán)能使其對受體具有強(qiáng)制的支配力,權(quán)力的受體必須服從主體。從權(quán)能本身來看,擁有權(quán)力就是要擁有權(quán)力資源,并且這種權(quán)力資源足以使其他人服從。因此本文認(rèn)為權(quán)力關(guān)系是一種強(qiáng)制支配與服從的關(guān)系,權(quán)力的本質(zhì)特征在于權(quán)力主體對受體的強(qiáng)制力。在社會關(guān)系中,若一方“擁有必要的物資或精神、文化資源,運(yùn)用它能對他人產(chǎn)生物質(zhì)或精神的強(qiáng)制性影響”[3],則認(rèn)為該方是權(quán)力主體。
算法的設(shè)計者或?qū)嵤┱邔嶋H控制著算法,算法屬于該方的技術(shù)資源。算法若對社會大眾形成強(qiáng)制支配力,該方就可以通過算法對社會大眾產(chǎn)生強(qiáng)制性的影響,成為算法權(quán)力的主體。算法從產(chǎn)生到對人施加影響主要經(jīng)歷兩個步驟。
第一步是設(shè)計算法。算法的設(shè)計基于計算機(jī)科學(xué)和數(shù)學(xué)的基本原理,除了設(shè)計算法的專業(yè)人員,即使將那些原始數(shù)據(jù)公開,一般群體也很難對其進(jìn)行解讀,更遑論監(jiān)督。即使在政府和技術(shù)公司合作開發(fā)算法的情況下,政府往往也只是制定標(biāo)準(zhǔn)的角色,具體設(shè)計算法還需要專業(yè)的公司來完成。因此算法在誕生的第一步就會形成算法黑箱,一旦算法投入社會層面進(jìn)行使用,設(shè)計者在算法黑箱中植入的管理模式就會隨算法嵌入社會生活的方方面面,對群體施加影響。
第二步是算法的部署實施。算法的部署實施主要有兩個類型。第一種是私主體研發(fā)算法并投入使用,形成網(wǎng)絡(luò)平臺,如阿里巴巴、騰訊。這種情況下,平臺會根據(jù)架構(gòu)優(yōu)勢,制定平臺規(guī)則,并強(qiáng)制用戶接受這些規(guī)則。用戶必須滿足預(yù)設(shè)算法的形式要求,才能得到平臺的服務(wù)。在平臺內(nèi),平臺規(guī)則就像國家法律一樣具有強(qiáng)制效力[4]。此時,應(yīng)用在私主體平臺的算法通過平臺制定的規(guī)則對用戶形成了強(qiáng)制力,私人企業(yè)實質(zhì)控制算法,對用戶產(chǎn)生具體的強(qiáng)制性的影響,成為算法權(quán)力的權(quán)力主體。第二種類型是算法在公權(quán)力運(yùn)行的平臺上部署實施。算法從不同的層面嵌入公權(quán)力的運(yùn)行。首先,算法作為公權(quán)力的輔助決策工具,協(xié)助公權(quán)力進(jìn)行治理,如自動化審批系統(tǒng)。2018年,深圳市率先啟用“無人干預(yù)自動審批”的新型行政審批模式,審批系統(tǒng)采用算法決策技術(shù),自動核查申請人遞交的材料是否符合相關(guān)部門的要求,并決定是否進(jìn)入下一步程序[5]。在數(shù)據(jù)治理的模式下,公私合作已成為常態(tài),長期的合作使得政府對于技術(shù)的依賴愈來愈強(qiáng),在實踐中存在算法在行政管理的過程中起實質(zhì)性決定作用的情況,如為防疫需要推出的“健康碼”。生成“健康碼”在類型上屬于行政評級,過程上完全自動,政府只需要提供一部分公共數(shù)據(jù),其余過程皆為算法自動完成,不需要任何人工步驟,算法實際上成為評定等級的決策者[6]。以上兩種皆為算法在公權(quán)力平臺上的實施,無論算法輔助公權(quán)力主體行權(quán)還是算法取代公權(quán)力中成為主要決策者,算法都借助公權(quán)力的優(yōu)勢地位,對公民產(chǎn)生了強(qiáng)制性的影響。算法輔助公權(quán)力主體行權(quán),算法可以被視為智能治理模式下公權(quán)力的技術(shù)延伸,與公權(quán)力交融,但技術(shù)公司仍然在算法的設(shè)計階段影響算法,進(jìn)而影響社會大眾。所以算法權(quán)力的主體有二:公權(quán)力機(jī)關(guān)和技術(shù)公司。如果算法取代公權(quán)力成為主要決策者,公權(quán)力機(jī)關(guān)的工作人員難以左右算法得出的處理結(jié)果,則實質(zhì)控制算法技術(shù)的仍然是技術(shù)公司,技術(shù)公司為算法權(quán)力的主體。
經(jīng)過上文的推論,我們可以將算法權(quán)力的定義概括為:算法權(quán)力以算法為工具或手段,對他人或社會形成的強(qiáng)制力和支配力。算法權(quán)力屬于權(quán)力的范疇,卻不同于傳統(tǒng)的公權(quán)力,因此有必要列明算法權(quán)力的特征,深入理解算法權(quán)力的本質(zhì)。
1.算法權(quán)力具有跨越性
在公權(quán)力體系中,算法作為一項技術(shù)參與到公權(quán)力中,并隨著行政權(quán)力的擴(kuò)張而不斷增加對社會的支配力,隨著公權(quán)力對技術(shù)的逐漸依賴而增加在公權(quán)力體系中的話語權(quán),算法權(quán)力通過與公權(quán)力的合作成為權(quán)力圓心的一部分[7]。在私權(quán)力體系之下,算法權(quán)力占有絕對優(yōu)勢的地位,平臺通過其架構(gòu)優(yōu)勢規(guī)制用戶在網(wǎng)絡(luò)空間的行為,收集其個人信息,控制資本的流動,成為私權(quán)力領(lǐng)域的權(quán)威,影響了社會生活的方方面面。算法在私主體的平臺與公權(quán)力的平臺都形成了支配力,算法權(quán)力橫跨了公權(quán)力與私權(quán)力[8]。
2.算法權(quán)力具有黑箱性
算法權(quán)力的黑箱性表現(xiàn)在算法決策的過程是通過算法內(nèi)在的自主分析而快速做出的,人們對此并無直觀感受[5],因此也很難對算法決策的結(jié)果進(jìn)行直觀的解釋,即使要求公開算法的源代碼,非技術(shù)人群對此也難以理解。算法權(quán)力的黑箱性普遍存在于公權(quán)力和私權(quán)力中,一般社會大眾對于私人平臺以及公私合作的政務(wù)系統(tǒng)背后的算法技術(shù)知之甚少,政府也因為嚴(yán)重的技術(shù)依賴而形成惡性循環(huán)。2014年美國一項針對政府工作人員的調(diào)查報告顯示:高達(dá)96%的受訪者認(rèn)為他們所在的部門存在數(shù)據(jù)技能短板[9]。在算法社會中,算法黑箱使得算法所有者擁有巨大的算法權(quán)力,通過技術(shù)壁壘達(dá)成技術(shù)化統(tǒng)治。
通過上文的梳理,算法權(quán)力的興起顯然已經(jīng)成為一種既存的現(xiàn)象?!盎ヂ?lián)網(wǎng)+”時代,算法權(quán)力會越來越膨脹,未來甚至有可能走向算法極權(quán)的世界,更有學(xué)者將算法權(quán)力生成的新風(fēng)險稱為“算法利維坦”①張愛軍在《“算法利維坦”的風(fēng)險及其規(guī)制》一文中將智能時代納入國家社會治理編制的算法技術(shù)異化的情況稱為“算法利維坦”。。算法權(quán)力以其架構(gòu)優(yōu)勢和嵌入優(yōu)勢,與行政管理越來越緊密地結(jié)合,權(quán)力與權(quán)力的結(jié)合使得傳統(tǒng)的權(quán)力——權(quán)利格局失衡,導(dǎo)致公權(quán)力的擴(kuò)張和私權(quán)利的萎縮[10]。
效率一直是行政追求的目標(biāo)之一,行政與技術(shù)的結(jié)合由來已久。人工智能時代,算法與行政的結(jié)合更是必然,且行政權(quán)的運(yùn)行機(jī)制與技術(shù)的應(yīng)用原理非常相似,行政權(quán)的運(yùn)行遵從“法無授權(quán)即禁止”,運(yùn)行的過程中較少強(qiáng)調(diào)人的主觀能動性,這與算法要求的客觀性和精確性十分契合[11]。政府準(zhǔn)許算法進(jìn)入公共政策和公共治理的體系之中,成為政府行政管理和服務(wù)的輔助工具。
1.算法權(quán)力加速行政權(quán)的擴(kuò)張
行政權(quán)的擴(kuò)張本身就是法治社會發(fā)展的趨勢之一②表現(xiàn)在行政權(quán)的顯性擴(kuò)張與隱性擴(kuò)張上。從表面上看,行政權(quán)的擴(kuò)張表現(xiàn)在行政立法權(quán)、行政執(zhí)法權(quán)、行政司法權(quán)的擴(kuò)張;從行政權(quán)的隱性擴(kuò)張角度上看,行政權(quán)的擴(kuò)張表現(xiàn)在行政機(jī)關(guān)對立法的影響、行政機(jī)關(guān)法律文件轉(zhuǎn)化為法律以及行政機(jī)關(guān)在制定標(biāo)準(zhǔn)上的影響前所未有地加強(qiáng)。,算法賦能行政無疑加速了這種擴(kuò)張。算法權(quán)力幫助政府機(jī)關(guān)提高利用信息、處理信息的能力,實現(xiàn)政府對公民個人信息的采集,可以精準(zhǔn)實施對某個具體的人的監(jiān)控。行政機(jī)關(guān)可以借助算法對公民的個人行為進(jìn)行全方位的掌控,使得行政權(quán)的邊界可能蔓延到公民的隱私領(lǐng)域。
在自動化行政領(lǐng)域應(yīng)用的算法大致可以分為兩類:反應(yīng)型算法和預(yù)測型算法。反應(yīng)型算法是將識別到的外界信息輸入既定的算法中得出結(jié)果;預(yù)測型算法是根據(jù)過去收集到的數(shù)據(jù)推斷出未來的趨勢[9]。反應(yīng)型算法對于數(shù)據(jù)收集的要求非常高,比如前文提到的“海燕系統(tǒng)”,能夠每秒拍攝15張照片,并且準(zhǔn)確分析出車牌、車輛型號等特征。這種技術(shù)的推出會使交通管理效率得到顯著提高,對行政相對人的識別更加精準(zhǔn),但這種精準(zhǔn)的技術(shù)也較以往更嚴(yán)重地侵犯到相對人的個人隱私。絕大多數(shù)在道路上行駛的車輛是遵守交規(guī)的,但他們的車輛信息也被攝像頭捕捉到,只是沒有被進(jìn)一步上傳形成違法數(shù)據(jù)。公權(quán)力與私權(quán)利是此消彼長的,公民的私權(quán)利若被技術(shù)與權(quán)力的結(jié)合逼退一步,則意味著公權(quán)力蔓延了一步。預(yù)測型算法則對算法本身的分析能力要求較高,一旦算法能力不足或者歷史數(shù)據(jù)有誤就會造成非常嚴(yán)重的后果。比如算法將長相與犯罪分子相似的公民識別成犯罪分子,導(dǎo)致這位公民在交通、住宿、通信方面都受到限制,給無辜的公民帶來不便;江蘇省稅務(wù)機(jī)關(guān)將算法與大數(shù)據(jù)相結(jié)合,預(yù)測稅務(wù)風(fēng)險較高的行政相對人,根據(jù)統(tǒng)計,一年下來稅務(wù)稽查次數(shù)減少97%[12]。預(yù)測型算法使得決策行為發(fā)生在具體行政行為之前,完全不受正當(dāng)程序的制約。
此外,我們也應(yīng)該反思我們是否需要如此高效率的行政?譬如交通違章,在人力執(zhí)法時代,交通違章實際上是一次“抽查”,實際上違章了多次,可能僅被抓住一次[13]。行政執(zhí)法領(lǐng)域存在一定的容錯率。但算法治理則是實現(xiàn)百分之百的捕捉率,使得國家治理過度客觀化,本就處于弱勢地位的行政相對人更為被動。
2.算法權(quán)力滲透行政權(quán)
算法從不同層面嵌入行政權(quán)的運(yùn)行。上文提到的算法作為行政機(jī)關(guān)的輔助決策工具,協(xié)助公權(quán)力進(jìn)行治理的自動化行政審批,以及算法在行政管理的過程中起到實質(zhì)性決定作用的防疫“健康碼”的生成,都是算法權(quán)力滲透行政權(quán)的表現(xiàn)。技術(shù)賦能使得算法治理越位于人的主觀能動性,算法本是人用來進(jìn)行統(tǒng)治的工具,在實施過程中卻被算法統(tǒng)治。算法的背后是算法的設(shè)計者或?qū)嶋H控制人,這些人可能會故意或過失地操縱算法,進(jìn)而控制行政權(quán)。2007年美國發(fā)生過這樣一起案例:來自私營公司的程序員誤讀了法律,錯將“無家可歸”編寫成“行乞為生”,并輸入美國的公共福利系統(tǒng)中,導(dǎo)致流落街頭的申請人被算法決策系統(tǒng)數(shù)次拒絕。
除了行政主體地位被架空的風(fēng)險,算法權(quán)力與行政權(quán)的交織也會產(chǎn)生權(quán)力異化的風(fēng)險。傳統(tǒng)的行政權(quán)要收到正當(dāng)程序原則的規(guī)范,如傳統(tǒng)的行政處罰程序。《中華人民共和國行政處罰法》(簡稱《行政處罰法》)中對于告知、說明理由、聽取當(dāng)事人的陳述和申辯、行政聽證等具體程序都進(jìn)行了規(guī)定,這些程序在保護(hù)行政相對人方面起到了巨大的作用。但自動化行政處罰實現(xiàn)了處罰的無人化,當(dāng)事人不可能向算法陳述和申辯,使得在應(yīng)用算法的自動化行政處罰中,正當(dāng)程序難以得到貫徹和實施,自然難以對行政權(quán)背后的算法權(quán)力起到規(guī)范作用,使得算法權(quán)力野蠻生長。
此外,算法權(quán)力的主體認(rèn)定困難,導(dǎo)致歸責(zé)問題陷入困境。根據(jù)歸責(zé)原則的規(guī)則要件,很難將責(zé)任認(rèn)定到技術(shù)公司上,算法自動化行政出現(xiàn)問題后,仍由政府出面承擔(dān)責(zé)任。如2019年杭州的購房搖號事件,杭州某樓盤在購房搖號時出現(xiàn)大范圍的集中連號,后經(jīng)鑒定是因為在第二輪搖號過程中存在部分?jǐn)?shù)據(jù)未被賦予隨機(jī)值的情況。為解決該異常狀況引發(fā)的問題,樓盤事后又重新進(jìn)行搖號,負(fù)責(zé)此次搖號的公證處也向社會致歉,但提供算法的公司無聲無息。算法權(quán)力隱藏在行政權(quán)背后,逃避應(yīng)有的責(zé)任。
1.個人信息暴露風(fēng)險增加
算法技術(shù)的便捷和高效為行政主體介入私權(quán)利空間提供了低成本的手段,政府依靠算法權(quán)力掌握公民的個人信息,進(jìn)而監(jiān)控公民的個人行為。在疫情防控中,政府對公民個人信息的掌控表現(xiàn)得尤為明顯。一旦某人被確診為新冠肺炎陽性患者,就會對他進(jìn)行流調(diào),而流調(diào)的基礎(chǔ)就是政府依據(jù)技術(shù)手段掌握的公民個人行程。技術(shù)手段極大提高了疫情防控的效率,但這同時也說明公民時刻暴露在監(jiān)控之下。2013年的“棱鏡門”事件就值得我們敲響警鐘,以算法技術(shù)進(jìn)行監(jiān)控的行為如果一直存在,公權(quán)力有可能借助算法權(quán)力擴(kuò)張,在一定程度上侵犯公民的隱私權(quán)。
2.算法應(yīng)用架空公眾參與原則
算法的應(yīng)用增強(qiáng)了行政活動中收集、處理和輸出信息的能力,改變了行政活動的傳統(tǒng)方式。反應(yīng)型的算法自動化決策使得決策在系統(tǒng)內(nèi)部瞬間完成,無法將活動的程序和步驟進(jìn)行分離;預(yù)測型算法決策先發(fā)制人地引導(dǎo)和部署行政活動,相對人在行政機(jī)關(guān)做出反應(yīng)時并未實施具體行為。這兩種類型的自動化決策都隔絕了行政相對人的參與。
公眾參與是行政正當(dāng)程序的基本要求,公眾參與原則的核心理念是聽取公眾意見,這包括兩個方面。其一,在具體行政行為,尤其是負(fù)擔(dān)性行政行為的過程中,要充分聽取行政相對人的陳述和申辯;其二,公民應(yīng)有權(quán)力參與行政活動,公眾的有效參與在于通過自己的行為影響某種決定,而不是作為一個被動的客體接受算法生成的某種結(jié)果。自動化行政行為根據(jù)算法預(yù)設(shè)的規(guī)定規(guī)則運(yùn)行,沒有為行政相對人提供陳述和申辯的機(jī)會,也回避了行政決策的公眾參與和聽證,使得公眾參與原則缺失,進(jìn)而造成嚴(yán)重的程序瑕疵。
當(dāng)算法權(quán)力掌管了個人生活的方方面面,法治和正當(dāng)程序在此領(lǐng)域就不能缺席,否則就在為算法的實際控制者構(gòu)建一種新的“權(quán)力利維坦”大開方便之門。2007年,美國學(xué)者希特倫提出了“技術(shù)性正當(dāng)程序”的概念,強(qiáng)調(diào)通過優(yōu)化計算機(jī)的程序設(shè)計提高自動化決策系統(tǒng)的透明度和可問責(zé)性[14]。值得說明的是,即便適用場景不同,正當(dāng)程序的價值理念也具有跨越時空的意義,在算法決策的背景下也不會過時[14]。那么什么樣的程序才是正當(dāng)?shù)??結(jié)合自動化行政下出現(xiàn)的較為明顯的程序性問題,本文認(rèn)為技術(shù)性正當(dāng)程序必須包含算法公開透明、聽取陳述和申辯這兩個要素。
1.算法的公開透明
算法權(quán)力的黑箱性是造成自動化行政風(fēng)險的主要原因之一。行政權(quán)力被算法權(quán)力滲透的主要原因也是行政機(jī)關(guān)的工作人員無法理解算法運(yùn)行的內(nèi)在機(jī)理,同時透明性缺失也會減損政府的公信力,動搖社會公眾的信賴,因此有必要對算法進(jìn)行公開。
首先,有必要對于因保護(hù)國家秘密和商業(yè)秘密而不公開的部分進(jìn)行限制,一刀切的強(qiáng)制公開和不公開都不可取,大多數(shù)算法向社會公開披露也不可能,因此有必要借助于中立的、可信任的算法審查人員審查算法,代替一部分社會公開;同時設(shè)置合理的透明性方案,明確算法公開的三個問題:公開多少、向誰公開和公開的速度。對于因算法的復(fù)雜性導(dǎo)致的不透明,最直接的解決方法就是編碼可視化,即借助專業(yè)人員的力量,讓普通公眾能理解數(shù)據(jù)的來龍去脈和相關(guān)依據(jù)。在算法可見的前提下,行政相對人才有可能在正當(dāng)程序的保護(hù)下進(jìn)行陳述和申辯,進(jìn)而尋求救濟(jì)。
2.保障當(dāng)事人的聽證權(quán)利
2021年修訂的《中華人民共和國行政處罰法》第41條吸納了交警非現(xiàn)場執(zhí)法的核心要素,要求非現(xiàn)場執(zhí)法應(yīng)該及時告知當(dāng)事人的違法事實,并采用多種手段為當(dāng)事人聽證和申辯提供方便,提出不低于傳統(tǒng)程序的權(quán)利保護(hù)標(biāo)準(zhǔn)[15]。該規(guī)定可以類推適用到自動化行政的各個領(lǐng)域。算法決策的瞬時性導(dǎo)致當(dāng)事人很難在算法做出決策的過程中為自己辯護(hù),但這不代表要取消當(dāng)事人陳述和申辯的過程。行政法領(lǐng)域要求的聽證從不是固定形式的聽證,應(yīng)根據(jù)具體情形決定聽證要采取的具體形式。在適用自動化行政的場景下,采取事后聽證是一個明確的選擇。應(yīng)當(dāng)通過多種方式進(jìn)行事后聽證,保障相對人的聽證權(quán)利。
1.建立算法權(quán)力的問責(zé)機(jī)制
算法出現(xiàn)問題難以追責(zé)的主要原因就是技術(shù)壁壘。當(dāng)算法出現(xiàn)問題時,企業(yè)經(jīng)常以“技術(shù)自主錯誤”為由推卸責(zé)任;自動化行政的場景中,也基本由行政主體承擔(dān)責(zé)任。為了規(guī)制算法權(quán)力,必須將算法的設(shè)計者和實際有能力控制算法者納入問責(zé)的主體中。在此可以借鑒歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱GDPR)的控制者責(zé)任。GDPR第5條直接將保護(hù)個人數(shù)據(jù)的舉證責(zé)任分配給數(shù)據(jù)的控制者,達(dá)到規(guī)范算法控制者的目的。除此之外,也應(yīng)當(dāng)明晰歸責(zé)的標(biāo)準(zhǔn)。算法權(quán)力往往與行政權(quán)力交織,但不同場景的結(jié)合的程度有所不同,應(yīng)當(dāng)將自動化程度較低和自動化程度較高的算法進(jìn)行分類厘清,對不同自動化程度的算法設(shè)定不同的標(biāo)準(zhǔn):自動化程度較低的算法引發(fā)的問題還是由公權(quán)力機(jī)關(guān)作為主要責(zé)任者;而自動化程度較高的算法引發(fā)的問題則需要問責(zé)算法的設(shè)計公司。
2.提高行政機(jī)關(guān)使用算法的能力和水平
算法的黑箱性帶來的弊端需要構(gòu)建技術(shù)性正當(dāng)程序得以解決,這是在輸入端解決算法偏私、不公正的重要措施。提高行政機(jī)關(guān)使用算法的能力和水平是在輸出端防范算法權(quán)力異化的風(fēng)險。根據(jù)上文提到的統(tǒng)計調(diào)查①本文第二部分論述算法權(quán)力具有黑箱性部分提到的美國一項針對政府工作人員的數(shù)據(jù)技能調(diào)查。可以預(yù)測到,許多行政機(jī)關(guān)的工作人員應(yīng)用算法的技能還有待提高。實際上,當(dāng)算法廣泛應(yīng)用在行政過程中后,行政機(jī)關(guān)工作人員的身份發(fā)生了轉(zhuǎn)變,由原來的執(zhí)行者和裁量者轉(zhuǎn)換成監(jiān)管者,對算法裁量后的結(jié)果是否符合法律預(yù)期作出判斷和監(jiān)管。工作人員在執(zhí)法的裁量能力上優(yōu)于機(jī)器,應(yīng)當(dāng)充分了解算法的運(yùn)行機(jī)制。因此,可以通過對行政機(jī)關(guān)的工作人員定期培訓(xùn)、業(yè)務(wù)考核等方式,增強(qiáng)他們使用算法的能力和水平。
在傳統(tǒng)的權(quán)力—權(quán)利理論中,權(quán)利是用來對抗權(quán)力的。算法治理也應(yīng)當(dāng)回歸到權(quán)力和權(quán)利的關(guān)系上,通過保護(hù)和加強(qiáng)算法相對人的算法權(quán)利來制約算法權(quán)力的不當(dāng)擴(kuò)張。當(dāng)前自動化行政背景下相對人權(quán)益難以保障的主要原因是算法賦權(quán)失衡。算法與公權(quán)力交織,卻沒有賦能私權(quán)利。擁有算法資源的公權(quán)力機(jī)關(guān)能輕易獲得相對人的信息,相對人對此卻無權(quán)決定自己可以公開什么信息,也很難尋求到救濟(jì)。因此,也應(yīng)當(dāng)對私權(quán)利進(jìn)行賦權(quán)。自動化行政中算法權(quán)力的行使應(yīng)當(dāng)保留一個底線:應(yīng)該在保護(hù)個人信息的前提下實現(xiàn)對個人信息的利用,不能因為利用信息導(dǎo)致主體受損。應(yīng)當(dāng)明確個人信息的權(quán)屬,明確權(quán)力位階。個人信息應(yīng)當(dāng)屬于作為原發(fā)者的每一個個體,個體基于人格權(quán)對于底層信息擁有絕對的權(quán)利。個人信息需要數(shù)據(jù)作為載體,對于數(shù)據(jù)的產(chǎn)生付出了實質(zhì)性勞動的技術(shù)方或者委托技術(shù)方的公權(quán)力機(jī)關(guān)應(yīng)當(dāng)享有用益權(quán)。該方應(yīng)在合理的范圍內(nèi)獲取、分析、輸出數(shù)據(jù),并對這些數(shù)據(jù)盡到保護(hù)義務(wù)?;谌烁駲?quán)第一位、財產(chǎn)權(quán)第二位的位階關(guān)系,在個人信息利用的過程中出現(xiàn)權(quán)利競合時優(yōu)先保護(hù)第一位階的人格權(quán)。通過這種優(yōu)先級的劃分,使得公民的個人信息和隱私得到充分的保護(hù)。
實現(xiàn)對算法權(quán)力的規(guī)制仍然任重而道遠(yuǎn)。規(guī)范行政權(quán)與算法權(quán)力的結(jié)合需要更加體系化、制度化的措施,本文提出的構(gòu)建技術(shù)性正當(dāng)程序、健全行政主體應(yīng)用算法的機(jī)制、實現(xiàn)對個人信息的優(yōu)先保護(hù)這幾點(diǎn)規(guī)制措施只是對于算法權(quán)力規(guī)制的起點(diǎn),還要在這些基礎(chǔ)上深入挖掘、開枝散葉,才能構(gòu)建出一個完善的保護(hù)路徑。此外,算法權(quán)力的興起有其合理性和必然性,完全對其進(jìn)行限制與社會發(fā)展的規(guī)律相違背。權(quán)力與權(quán)利如同鳥之兩翼,車之兩輪,相生相伴。對于算法權(quán)利的保護(hù)是一種更溫和地實現(xiàn)算法社會良性發(fā)展的重要途徑。將算法權(quán)利作為主題進(jìn)行研究探討也許是未來算法治理的可行路徑之一。