裴煒
關鍵詞:算法推論;輔助決策;合理推論權;實質正當程序
摘 要:刑事訴訟中的算法運用主要集中在以推論支撐公安、司法機關決策方面,這與當前相關立法關注的算法決策存在差異。算法推論一方面因其損害結果的非顯性和推論過程的不透明性而面臨規(guī)制障礙,但另一方面又會產(chǎn)生實際的權益損害風險,尤為典型地體現(xiàn)在與平等保護原則的沖突對公民社會生活穩(wěn)定性的干擾?;趪倚塘P權的嚴厲性及刑事訴訟活動的高強制性,有必要基于正當程序要求對算法推論進行規(guī)制。同時,正當程序不應當僅停留在形式層面,也需要推進算法推論應用中的實質正當程序建設,從整體宏觀的系統(tǒng)層面和具體微觀的個案層面,充分保障相對人獲得合理推論的權利。
中圖分類號:D915.3文獻標識碼:A文章編號:1001-2435(2022)06-0107-09
On Algorithmic Inference in Criminal Proceedings and Its Regulation
PEI Wei (Law School,Beihang University,Beijing 100191,China)
Key words:algorithmic inferences;assisting judicial decisions;right to reasonable inferences;substantial due process
Abstract:In criminal justice system,instead of making automated decisions,which is at the center of the relevant algorithmic regulations,algorithms are mainly applied to support judicial decisions by profiling and drawing inferences. The harms caused by algorithm inferences are normally intangible and the inferring process is highly opaque,both of which increase the regulation difficulty. However,the use of algorithm inferences is not only in tension with the principle of equal protection,but also highly intrusive against the private life of people. Given the severity of the state penal power and the compulsory nature of criminal justice measures,and considering the urgent need to safeguard relevant rights and interests of citizens,it is necessary to regulate algorithm inference and its application in criminal proceedings in accordance with procedural as well as substantial due process requirements.
在網(wǎng)絡信息技術與刑事司法不斷深入融合的背景下,控辯雙方未能得到同步的技術賦能。相較而言,以大數(shù)據(jù)分析和人工智能為依托的新興技術在助力打擊犯罪的同時,亦在一定程度上沖擊著辯護權的有效行使,進而影響著控辯平等對抗基礎上數(shù)字正義的實現(xiàn)。這一沖擊集中體現(xiàn)在算法在刑事司法決策過程中的介入,其中又以犯罪風險預測和社會危險性評估為典型。但需要注意的是,在刑事司法過程中,算法的運用通常并非止步于預測和評估,而是會進一步影響后續(xù)的處置措施和司法決策。鑒于刑事訴訟活動高度的強制性,這些處置措施往往會對相對人特別是犯罪嫌疑人、被告人的相關權益形成嚴重干預,甚至會影響最終裁判結果的公正性?;诖?,能否及時、有效、充分地審查算法推論是算法推論相對人有效維護其實體權利和程序權利的前提,更是犯罪嫌疑人、被告人獲得有效辯護的前提。
近年來,我國已經(jīng)有許多學者關注到新興網(wǎng)絡信息技術與司法結合過程中可能產(chǎn)生的制度問題,相關研究成果廣泛涉及到司法運行機制中的技術運用、1司法裁判與事實認定中的技術運用2及證據(jù)和證明規(guī)則中的技術運用等多個方面。3這些研究從法律、倫理、政策、技術等多個角度深入分析司法語境下人工智能、算法、大數(shù)據(jù)等技術的定位和介入邊界,并在強化技術規(guī)制、提升算法可信度和透明度、明確人工智能責任分配等方面形成了一系列基礎共識。但是,現(xiàn)有研究成果更多地從算法決策的角度出發(fā),而較少關注到刑事司法領域的算法運用目前主要停留在算法推論階段,即以算法標識、畫像、評價來支撐后續(xù)決策。
這種對于算法決策和算法推論的關注不平衡亦體現(xiàn)在近些年的相關立法之中。例如,2021年出臺的《個人信息保護法》主要就自動化決策進行了規(guī)定,“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”(第24條第3款)。鑒于我國《個人信息保護法》同時適用于公私領域的信息處理活動,這一規(guī)定原則上也適用于刑事司法活動。特別是考慮到這一領域國家機關處理個人信息時的強制性和強干預性,其完全可以落入到“對個人權益有重大影響”之中。問題在于,現(xiàn)有規(guī)則一方面將其規(guī)制重點放置在個人信息的收集和處理而非解釋和推斷方面,4另一方面又難以為相對人提供可行且有效的審查和控制相關推論的法律工具。更重要的是,《個人信息保護法》制定的相關規(guī)則尚未與刑事訴訟法形成有效銜接,使得刑事司法這一特定場景下算法推論的正當性與合理性難以判斷和救濟。本文正是由此出發(fā),試圖探索刑事司法中運用算法推論的規(guī)制機制,以促進算法推論合理性從而保障公民的合法權益。
一、概念區(qū)分:算法推論與算法決策
大數(shù)據(jù)分析和人工智能等新型數(shù)字技術在司法領域的一大應用功能在于對個人的行為和偏好等進行推斷和預測,進而支撐甚至直接作出具有法律意義和效果的決策。在進一步探討刑事司法中的算法推論問題之前,有必要對上述功能進行細化分類,區(qū)分算法推論和基于算法的自動化決策。在廣義層面,凡是利用技術輔助或替代人工決策的活動均可以納入到算法決策的概念之下。例如,加拿大于2020年生效的《自動決策指令》(Directive on Automated Decision-Making)將自動化決策定義為“以任何技術協(xié)助或取代人類決策者的活動”。在狹義層面,自動化決策的核心則指向取代而非協(xié)助人工決策的情形。例如,歐盟通過的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)中將自動化決策定義為“僅基于自動過程做出的決策”。其后,29條工作組(Article 29 Working Party)進一步明確了“僅基于自動過程”的具體含義,即在決策過程中沒有任何有意義(meaningful)的人工參與;至于利用技術自動處理數(shù)據(jù)以評估自然人的特定屬性,GDPR將其定義為“畫像”(profiling)。1
如前所述,目前我國針對算法自動決策的法律規(guī)制主要體現(xiàn)在2021年《個人信息保護法》的相關條文之中。根據(jù)該法第73條,“自動化決策”是指“通過計算機程序自動分析、評估個人的行為習慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進行決策的活動”。這一定義事實上同時涵蓋了GDPR中“自動化決策”和“畫像”兩個概念,但是并未說明前半段的畫像活動與后半段的決策活動之前是相互獨立還是支撐關系。結合該法第24條關于自動化決策的具體規(guī)制思路可以看出,我國《個人信息保護法》在規(guī)制此類活動時,其重心仍然在于最終的決策部分,特別是對個人權益有重大影響的決策,一方面要保障決策的過程透明和結果公平公正,另一方面賦予相對人獲得解釋和拒絕自動化決策的權利。從這個角度來看,之所以將畫像與狹義自動化決策進行聯(lián)合規(guī)定,在于狹義自動化決策本身不可避免地會基于畫像產(chǎn)生。但這一點反過來未必成立,即基于算法所形成的對于相對人特定特征的分析、標識或推斷,并不必然最終導向自動化決策,而是可能僅僅作為標識,或者僅僅作為人工決策或其他自動化決策系統(tǒng)的依據(jù)。換言之,二者盡管存在聯(lián)系,但在規(guī)制思路和重點、行為主體、涉及的自然人權益、救濟路徑等方面均存在較大差異?;诖耍疚乃接懙乃惴ㄍ普搩H指向前一階段,即,利用算法對自然人的特定個人特征進行分析、畫像和評估的活動。
區(qū)分算法推論與算法決策的主要原因在于,相對于商業(yè)領域自動化決策的快速推進,刑事司法對于算法運用的態(tài)度相對謹慎,新興數(shù)字技術的運用更多起到的是輔助作用而非替代人工決策。例如,上海“206”系統(tǒng)的全稱即是“刑事案件智能輔助辦案系統(tǒng)”,其強調該系統(tǒng)的功能是“提示、指引”,是“為法官、檢察官、偵查人員配備‘智能辦案助手”,而非“機器辦案”。2這種避免由算法作出最終決策的機制是當前算法規(guī)制的重要策略和工具之一,前述關于自動化決策的法律規(guī)定也往往通過引入人工決策作為矯正或救濟算法錯誤的主要方式。從這個角度講,刑事司法領域的算法運用盡管更為謹慎,但在背后的算法規(guī)制邏輯上與私領域并無二致。
由此,我們可以進一步梳理出運用算法時由數(shù)據(jù)到?jīng)Q策的大致過程,該過程主要包含四個核心環(huán)節(jié):數(shù)據(jù)收集、數(shù)據(jù)分析或挖掘、標識或評價、決策。其中,數(shù)據(jù)收集是大數(shù)據(jù)分析、人工智能等技術的應用前提;數(shù)據(jù)分析或挖掘旨在發(fā)現(xiàn)目標對象的特定特征;標識或評價是基于前一步驟的特征分析作出的,核心在于將機器語言轉化為社會語言、數(shù)字身份轉化為社會身份;決策步驟則直接作用于目標對象并可能引發(fā)相應的法律效果。在自動化決策的語境下,算法的應用可能貫穿了上述四個環(huán)節(jié),特別是在最終的決策環(huán)節(jié)發(fā)揮主導作用。而在算法推論的語境下,算法的運用停止在第三個環(huán)節(jié)即“標識或評價”環(huán)節(jié),其后的決策既可能由人工作出,亦可能由其他算法作出。
二、刑事司法中算法推論的主要場景
如前所述,刑事司法領域對于算法的運用目前最多涉及到第三個環(huán)節(jié),這也形成了在這一領域探討算法推論的獨特重要性。通過分析算法推論在刑事司法中應用的主要場景,可以進一步觀察到算法推論對于刑事司法決策的影響,以及該影響對控辯雙方關系乃至最終的司法公正形成的沖擊。當前刑事司法中算法推論主要有三個運用場景:其一是作為大數(shù)據(jù)證據(jù)的證明機制,其二是作為社會危險性或再犯罪風險的評估機制,其三是基于同案同判的裁判指引機制。
(一)場景一:大數(shù)據(jù)證據(jù)與證明
就算法推論支撐大數(shù)據(jù)證明這一場景而言,大數(shù)據(jù)分析本身與算法具有緊密聯(lián)系。以大數(shù)據(jù)分析為基礎的大數(shù)據(jù)證據(jù)并非刑事司法的最終裁判本身,卻是最為典型的以算法推論支撐決策的應用場景。
近年來,多名學者對大數(shù)據(jù)證據(jù)進行了系統(tǒng)且深入的研究,逐步明晰此類證據(jù)的概念、性質、特征和規(guī)則。1劉品新將“大數(shù)據(jù)證據(jù)”定義為“基于海量電子數(shù)據(jù)形成的分析結果或報告”,并將其技術過程歸納為三個環(huán)節(jié):第一是數(shù)據(jù)匯總和清洗,第二是建構分析模型或算法,第三是運算形成分析結論。2元軼從大數(shù)據(jù)概念出發(fā),認為“大數(shù)據(jù)證據(jù)”應當由“大數(shù)據(jù)集”和“大數(shù)據(jù)算法結論”兩部分構成,“算法結論”是大數(shù)據(jù)證據(jù)的客觀反映。3徐惠和李曉東則將大數(shù)據(jù)證據(jù)界定為“兼具證明案件事實材料和分析思維、方法、技術的綜合體”。從上述定義可以看出,在大數(shù)據(jù)證據(jù)的運用場景下,最終作為證據(jù)證明案件事實的并非數(shù)據(jù)本身,而主要是基于數(shù)據(jù)通過算法推論后形成的結論。
(二)場景二:風險評估
刑事司法中算法推論的第二個主要應用場景是社會危險性或再犯罪風險評估。刑事訴訟從啟動到最終裁判,充斥著大量的針對犯罪嫌疑人、被告人、罪犯的危險性評估程序,4例如,在我國刑事訴訟程序中涉及此類評估的程序包括但不限于是否及采取何種強制措施、審查起訴決定、是否使用戒具、是否采取或解除強制醫(yī)療、未成年被指控人社會調查、社區(qū)矯正調查評估5、寬緩量刑6、減刑假釋等刑罰執(zhí)行決定7等。這類措施往往具有較強的保安處分性質,是對犯罪嫌疑人、被告人或罪犯未來行為的評估和預測,但會切實地影響刑事司法權力機關的相關決策,并現(xiàn)實干預相對人的實體或程序權利。
鑒于預測本身即為大數(shù)據(jù)分析的核心功能,其與社會危險性或再犯風險預測具有高度的契合性,因而可以看到算法在這一場景中的廣泛應用。例如,有學者通過研究美國運用算法進行危險性評估的實踐經(jīng)驗發(fā)現(xiàn),算法運用于危險評估已經(jīng)貫穿預測警務、審前拘留、起訴、判決、刑罰執(zhí)行等各個環(huán)節(jié)。8
(三)場景三:裁判預測與指引
算法推論運用于刑事司法的第三個主要場景涉及到審判環(huán)節(jié)的裁判指引機制。與通過算法進行危險性分析進而影響個案量刑相比,裁判指引機制盡管影響的也是審判環(huán)節(jié),但卻是對裁判行為而非被指控人或罪犯行為的預測,尤其典型地體現(xiàn)為類案推送、量刑建議、裁判預測等實踐應用。此類算法應用的實質是試圖以算法模擬法官裁判,并以模擬的整體結果作為現(xiàn)實司法運行中裁判的參照。9
可以看出,這一場景是司法深度智能化的初步圖像和過渡階段,是諸如“AI法官”“電腦審判”“機器人法官”等概念的理想狀態(tài)在技術階段的現(xiàn)實運用。一方面,此種場景成為當前眾多司法裁判算法應用開發(fā)的重點領域之一,并且成為同案同判原則在新時代的適用探索;另一方面,這種階段性也將其實際功能限定于“輔助”層面。1也正是在這個意義上,現(xiàn)階段該場景只能納入算法推論而非算法決策的范圍。
三、算法推論的損害風險及規(guī)制障礙
當前關于算法的規(guī)制重心更多在于上文論及的四個環(huán)節(jié)中的首尾部分,而針對中間環(huán)節(jié)的制度關注則相對較弱。以我國剛剛出臺的《個人信息保護法》為例,可以看到其一方面著重強調數(shù)據(jù)收集過程中的知情同意和最少收集原則,強調在處理個人信息時保障其質量;另一方面針對自動化決策設置了相應的說明義務。但是針對由數(shù)據(jù)到?jīng)Q策的中間過程,特別是針對用以支撐人工決策的算法推論方式、質量、評估和救濟機制等方面,本法并未涉及。問題在于,盡管當前刑事司法領域算法的運用更多地停留在推論而非直接決策階段,但這并非意味著算法推論不會干預公民的基本權利,由此形成現(xiàn)實問題與保障機制之間的錯位。因此,在具體探討算法推論規(guī)制之前,需要認識其對公民基本權利的干預風險。
(一)算法推論的權益損害風險
如前所述,算法推論的核心功能在于標識和評價。由此出發(fā),算法推論的質量特別是錯誤標識主要在以下兩個層面對公民基本權利形成不當干預的風險:其一是錯誤標識本身對于平等保護原則的違反;其二是錯誤標識可能引發(fā)的后續(xù)歧視性待遇對于社會生活秩序穩(wěn)定性的破壞。
第一個層面的風險是基于法律平等保護的考量。平等保護是憲法規(guī)定的基本原則。1948年的《世界人權宣言》和1966年的《公民權利和政治權利國際公約》將其確立為國際社會公認的基本原則;我國《憲法》第33條第2款規(guī)定,“中華人民共和國公民在法律面前一律平等”,這也是對平等保護原則的明確闡述。平等保護原則是對公民遭遇歧視性對待的反對,而歧視的基礎則是對相對人的不當分類。在國家權力運行中,“分類”這一概念描述的是國家機關針對特定個體所屬群體進行識別,并以該識別結果為基礎,對被識別的特定個體進行權利或義務的分配。2
分類是否正當,在實質層面取決于其采用標準的適當性,在形式層面取決于其是否與法律的明確規(guī)定相違背。就實質正當性而言,典型的例證是對特定識別標準的否定。例如,我國《憲法》第34條禁止以“民族、種族、性別、職業(yè)、家庭出身、宗教信仰、教育程度、財產(chǎn)狀況、居住期限”來限制或剝奪公民的選舉權和被選舉權。此時,分類標準是否正當取決于國家權力運行的目的,分類標準需要以能夠實現(xiàn)該目的為前提,這是比例原則適當性要求的題中之義,也是《憲法》第34條以成年年齡作為選舉權和被選舉權權利主體劃分標準的正當性基礎。就形式正當性而言,主要關注的是與現(xiàn)有法律制度及相關概念的匹配度。對此,典型的反面例證是近些年引發(fā)廣泛熱議的美國再犯風險預測系統(tǒng)CAMPUS,其中再次逮捕(rearrest)是該系統(tǒng)判斷再犯風險的重要標準。但逮捕明顯與最終定罪并非同一法律概念,二者在事實和證據(jù)的確定性上相去甚遠,這意味著被算法標識為高再犯風險的相對人很可能并未再次實施犯罪。3與之類似的是,近些年歐洲人權法院的一系列案件也牽涉到未被定罪人員的個人數(shù)據(jù)被存入罪犯數(shù)據(jù)庫或被標識為罪犯的情形,法院認為這種錯誤存留本身亦構成對《歐洲人權公約》第8條的違反。4
近年來,算法歧視的問題已經(jīng)引起理論界和實務界的廣泛關注,1其運用于國家權力層面將直接與法律的平等保護原則形成沖突。需要看到的是,這種歧視不僅存在于算法決策的領域,同時也存在于輔助后續(xù)決策的算法推論領域。當分類標準缺乏正當性時,特別是在分類本身存在歧視的情況下,基于分類的標識不可避免地會產(chǎn)生偏差乃至錯誤,進而影響后續(xù)的決策正當性。
第二個層面的風險關注的是法律所保護的社會生活秩序的穩(wěn)定性。如果說平等保護問題關注的是錯誤標識行為本身,那么,社會生活秩序的穩(wěn)定性則關注的是錯誤標識的潛在后果。算法推論與算法決策的重要區(qū)別在于,前者并不直接導向對公民基本權利的現(xiàn)實干預。但是基于算法推論的識別和評價本身預示著未來形成決策的可能性,特別是在形成負面標識的情況下。因為這意味著相對人的正常生活和相關權益未來遭受干預的現(xiàn)實風險,進而對法律所保護的社會生活秩序的穩(wěn)定性產(chǎn)生負面影響。例如在2011年歐洲人權法院審理的Dimitrov-Kazakov v. Bulgaria案2中,申請人因一起強奸案被警方訊問,盡管之后其未被起訴,但在警方記錄系統(tǒng)中被標識為“強奸犯”。因為該標識,申請人之后在一系列涉及強奸或少女失蹤案件中被警方反復盤問,其日常生活受到嚴重擾亂。歐洲人權法院最終認定該標識違反了《歐洲人權公約》第8條對私人生活的保護。
近年來,國際層面逐漸開始產(chǎn)生此類爭議案件,典型的情形是通過算法將特定人員標識為潛在罪犯。例如,2021年美國最高法院審理的TransUnion LLC v. Ramirez案。3該案中,征信巨頭TransUnion錯誤地將8185人標識為潛在恐怖分子和販毒分子,并將其中1853人的此類信息提供給第三方機構,以便后者進行信用評價,作出是否雇傭等決定。該案的表層爭點是集團訴訟的當事人資格問題,背后的核心焦點在于錯誤標識本身是否構成對公民權利的“實質損害”(concrete harm)。盡管法院在本案中作出了否定評價,并據(jù)此否定了標識信息未被使用的人員的當事人地位,但5:4的票數(shù)比也反映出爭議的激烈程度。所以,有學者提出,是否侵犯隱私權不應當以傳統(tǒng)的“實質損害”為標準。4
我國當前關于刑事司法領域錯誤標識的相關研究和報道相對稀缺,但是現(xiàn)實中已然暴露出采用不合理標簽的現(xiàn)象,例如,2019年湖南湘潭市發(fā)生的將失獨家庭列入“掃黑除惡重點監(jiān)管對象”的事件就引發(fā)了廣泛的輿論爭議。5可以預想的是,如果將類似“失獨”的指標納入到犯罪風險預測模型中去,不僅會擾亂風險預測本身,而且這一錯誤標簽會借由算法黑箱而難以被察覺和規(guī)制,由此形成規(guī)制障礙問題。
(二)算法推論的規(guī)制障礙
算法推論盡管區(qū)別于最終決策,但并非與公民的基本權利無涉。其不僅可能直接影響甚至決定后續(xù)決策的質量,同時,標識本身就足以干擾相對人日常生活的穩(wěn)定性。鑒于刑事司法活動的高強制性和刑罰權的高嚴厲性,算法推論之于相對人的權益干預將更為嚴重。如前所述,在由數(shù)據(jù)收集到最終決策的四個階段中,當前立法主要關注的是首尾部分,中間涉及算法推論的部分則缺少必要的規(guī)則建設。這一點在司法實踐中也有所體現(xiàn),例如,在2020年的攜程酒店大數(shù)據(jù)殺熟案件中,盡管媒體熱議的是“殺熟”行為,但最終裁判的重點主要集中于非必要數(shù)據(jù)收集以及虛假宣傳、價格欺詐兩個事項。前者指向的是數(shù)據(jù)收集環(huán)節(jié),后者指向的是最終價格決策的正當性。事實上并沒有真正涉及算法的評估問題。1這種現(xiàn)象背后的成因主要涉及兩個方面:一是損害結果的非顯性;二是過程的不透明性。
就損害結果的非顯性而言,這一點從上文提及的TransUnion案中已經(jīng)可以看出。具體來講,這種非顯性主要表現(xiàn)在兩個方面:其一在于算法推論的損害往往是無形權益,不僅使得權利主體難以及時和充分察覺損害的發(fā)生,同時也使得該損害結果難以在具體案件中進行審查和衡量;其二在于算法推論損害后果的非即時性,即所形成的不利后果之一是一種未來因相關決策而遭受實質侵害的風險,是對未來損害的預期,而非案發(fā)時已經(jīng)產(chǎn)生的損害結果。
就推論過程的不透明性而言,這是近年來算法普受詬病的共性之處,其核心在于將算法運行過程描述為難以從外部進行觀察、評估和控制的“黑箱”(blackbox)。這種不透明性使得算法推論的規(guī)制存在三個層面的障礙:第一,難以在事前認定算法本身包含偏見或歧視,更多地只能依賴實際不利決策發(fā)生后的結果評價;第二,即便能夠認定推論本身存在偏見或歧視,由于干預因素或參與主體的多元性,難以有效地進行責任認定,特別是難以將責任歸于算法本身;2第三,權益主體難以有效地對上述情形的存在以及與損害的因果關系舉證和證明,進而加大了事后救濟的難度。
四、刑事訴訟的應對:獲得合理推論的權利
回歸到刑事司法的語境下,算法推論引發(fā)的權利損害風險更為嚴重和棘手。一方面,算法推論可能轉化為強制措施、具體偵查措施、案件事實認定以及刑罰執(zhí)行的主要依據(jù),從而形成對相對人特別是犯罪嫌疑人、被告人和罪犯權益的重大減損;另一方面,刑事訴訟中固有的控辯能力差異會借由算法推論的規(guī)制障礙而被進一步放大,從而實質性損及辯方獲得有效辯護的權利。3對此,刑事訴訟制度需要對算法推論的損害風險予以充分認知,在此基礎上針對相對人的數(shù)字劣勢,通過賦予其獲得合理推論的權利,并為決策機關設置對應的訴訟義務,從而最大限度確保算法推論的正當性和合理性。
刑事訴訟中獲得合理推論權的核心在于確保算法推論的合理性。其權利主體指向的是因算法推論而導致基本權益遭受減損或面臨減損風險等不利后果的訴訟參與人,其中又以犯罪嫌疑人、被告人為主要關注對象。獲得合理推論權的要素既包含程序的合理性,又包含實體的合理性。就前者而言,規(guī)制算法推論的首要思路仍然在于盡可能確保推論過程的透明可見,這不僅是后續(xù)審查的基礎,同時也是相對人進行權利救濟的前提。就后者而言,其一方面取決于算法推論所依賴的技術和數(shù)據(jù)的可靠性、完整性、準確性,另一方面也取決于對推論本身合理性的及時、有效的識別、矯正及救濟。
之所以強調程序和實體兩個層面的合理性,其原因在于單純的程序層面的規(guī)制盡管易于實現(xiàn),但也容易將權利保障這一目的異化為程序合規(guī)本身。而這正是Lauren B. Edelman所描述的“符號結構驅動”(mobilization of symbolic structures)現(xiàn)象,即通過采用符號、流程、程序、政策等方式使合規(guī)標準(compliance metric)取代法律程序,進而使得法律原先設定的實質目標無法達成。4也正是在這個意義上,在規(guī)制算法推論應用的過程中需要采取的是實質正當程序(substantive due process)的視角,5將重心放在“發(fā)生了什么”而非“怎么發(fā)生”之上。6這種視角的轉變意味著當算法推論運用于輔助刑事司法決策時,我們不僅需要關注推論如何做出,即算法推論過程本身的可解釋性問題,同時也更需要關注算法推論如何作用于最終決策。上述目標不僅取決于算法規(guī)制的整體規(guī)制體系,也取決于個案訴訟程序中的保障機制。
(一)合理推論權的系統(tǒng)保障
借用Margot Kaminski關于人工智能可歸責性的理論框架,1算法推論合理性的保障主要涉及三個層面:一是針對推論背后算法自身的技術規(guī)制;二是針對與該算法開發(fā)、評測、認證、運行等相關的主體的規(guī)制;三是對算法推論應用主體的規(guī)制。當前數(shù)據(jù)立法更多關注的是第一個層面,即強調算法背后技術原理的可靠性,對于算法可解釋性的要求也主要指向的是這一點。但是,技術的可靠性并不等同于技術應用的合理性。作為一種價值判斷,后者在前者的基礎上更依賴于對技術運用中的人的規(guī)制,由此形成算法推論系統(tǒng)保障的后兩個層面。
就算法開發(fā)、運行、評測相關主體的規(guī)制而言,其核心關注的是算法形成過程中的倫理嵌入。例如,隱私設計(privacy by design)等概念的提出體現(xiàn)的即是這一要求。當涉及到倫理問題,就意味著相關算法規(guī)制機制需要與特定應用場景相契合。一方面,算法開發(fā)、運行、評測等活動應當有熟悉該特定場景的專業(yè)人員參與,這進一步意味著需要設置相應的主體資質門檻;另一方面,相關活動應當在實質性上與該特定場景的價值、原則、概念和規(guī)則相契合。
具體到刑事訴訟場景,這一層面的規(guī)制應當至少包含以下三方面內容:第一是參考隱私設計的整體思路。在算法開發(fā)中嵌入“數(shù)字無罪”理念,將“未經(jīng)法院判決不得認定有罪”的原則貫穿算法開發(fā)始終,一方面,需要關注模型開發(fā)過程中對于有利于辯方的指標的探索,特別是增加數(shù)據(jù)與技術中立性的審查標準,同時形成辯方視角下的電子證據(jù)評估方法;另一方面,在計算結果存疑時做有利于辯方的解釋。第二是針對刑事訴訟程序設置類似于司法鑒定的算法技術開發(fā)資質。其目的在于形成具體行業(yè)標準與規(guī)范以適應本場景中算法推論的專業(yè)性要求,同時為事后相應法律責任的分配提供依據(jù)。第三是圍繞該資質形成定期的算法更新、評測、審查機制,以確保算法開發(fā)、運行過程中存在的錯誤、偏見或歧視等缺陷能夠被及時發(fā)現(xiàn)和矯正。2
就算法推論的應用主體而言,其主要指向的是依靠算法推論進行最終決策的刑事司法權力機關。對此類主體加以規(guī)制的目的在于,鑒于當前階段刑事司法對于算法應用所保有的必要的謹慎態(tài)度,這種謹慎應當反映在整體規(guī)制體系的設計之中。首先,算法推論的應用應當以必要性和比例原則為框架,保證其適用符合實質正當程序的要求。其次,應當在刑事訴訟制度中建立起應用算法推論的明確的法律依據(jù),劃定算法推論的適用情形、范圍和條件。再次,原則上應當存在其他實質性依據(jù)以支持決策,特別是在相關決策可能嚴重限制或剝奪公民人身和財產(chǎn)權利的情況下,應當禁止以算法推論作為決策的唯一實質性依據(jù)。最后,建立算法推論應用的司法審查機制,強化刑事司法的程序監(jiān)督與制約。
(二)合理推論權的個案保障
合理推論權的系統(tǒng)保障在于盡可能在事前建立起相關機制,并相應地預防和降低算法推論在后續(xù)應用中的錯誤風險。但系統(tǒng)保障不足以避免算法推論在個案中的誤用,因此,合理推論權仍然需要進一步在具體案件的訴訟程序中予以落實。考慮到算法推論相對人往往居于訴訟中的弱勢地位,特別是犯罪嫌疑人、被告人,其與控方的力量差異是刑事訴訟的基本假設,因此需要強化國家積極保護義務。
首先,合理推論權以相對人的知情權保障為前提,也是其獲得救濟的基礎。在依據(jù)算法推論進行決策的情形中,應當強調決策者的告知義務。原則上,刑事司法機關基于算法推論作出不利于辯方的決策時,應當承擔告知義務??紤]到前文論及的算法推論損害后果的非顯性和非即時性等特征,告知的啟動不以相對人申請為前提,而是需要由決策機關主動履行。在告知可能妨礙訴訟順利進行時,立法可以允許對告知進行限制,典型的情形是在偵查階段告知可能妨礙偵查。但是這種限制需要有明確的法律授權,同時需要分層級、分場景進行階梯設置。
其次,合理推論權的核心在于評價推論的合理性。鑒于相對人的技術能力弱勢,合理性的判斷對應的是決策機關的釋明義務,即刑事司法權力機關應當對利用算法推論推進刑事訴訟程序、作出決定等承擔前置的說明義務,這種說明義務的啟動既可以依職權又可以依申請。但在以其作為剝奪人身自由決定、措施或判決的依據(jù)時,原則上應當將推論說明設置為法定義務。其他情況下,該項義務可以基于申請而啟動。
再次,合理推論權的重要功能之一在于平衡控辯雙方的數(shù)字能力差異。由此,我們提出以下兩個方面的制度設計。第一,針對上文論及的系統(tǒng)保障機制,應當明確其違反足以構成相對人質疑算法推論合理性并啟動相應救濟程序的充分依據(jù)。此時,關于算法推論合理性的證明義務轉移至決策方。第二,基于控辯平等武裝原則的基本要求,有必要強化有專門知識背景的人員積極參與庭審并對算法推論的技術原理進行解釋和評估的制度設計,并且針對嚴重干預公民基本權利的算法推論強制要求專家參與庭審。
最后,合理推論權的實現(xiàn)依賴于救濟機制,其重心在于對推論可解釋性的檢驗,以及在檢驗不能的情況下對該推論的法律效力的重新認定。就可解釋性的檢驗而言,一方面意味著多模型下推論結果的可重復,另一方面意味著不可重復情況下的算法說明。通過多種算法模型形成的推論不一致時,針對可能嚴重干預甚至剝奪公民人身權、財產(chǎn)權的措施,從保障人權的角度出發(fā),應選取最有利于被指控人的解釋。就無法通過類似模型復檢的情形而言,對于使用第三方技術形成的算法推論,一則應建立特定類型犯罪中的算法強制披露義務,該義務應當嵌入上文提及的刑事司法算法開發(fā)主體資質和行業(yè)規(guī)范之中;二則應當建立起第三方技術人員的出庭說明義務,主要適用于控辯雙方對推論的合理性存在爭議,但無法通過算法本身進行外部評價,并且所涉事項對于定罪和量刑具有重要意義的情形。
五、結 論
在網(wǎng)絡信息時代,社會治理的各個領域可能面臨一些共同的挑戰(zhàn),算法治理便是其中的典型。不同場景中算法的具體運用方式、程度均存在差異,算法治理所要達到的目的亦存在差異。因此,算法規(guī)制的探討不僅要著眼于宏觀層面,還應結合具體場景的具體需要。在當前刑事司法的場景中,算法的應用尚未進展到?jīng)Q策階段,但并不意味著對其進行規(guī)制的緊迫性更低。相反,恰恰因為算法更多地以推論的形式隱藏于最終決策之后,在可能嚴重干預乃至減損公民基本權利時,其危害性反而不易察覺,規(guī)制難度反而更高。對此,算法治理的相關研究需要關注到刑事司法領域的特殊性,同時刑事司法研究和制度建設也需要對當前廣泛運用的算法推論予以及時回應。在這一過程中,國家刑罰權的高度強制性和嚴厲性使得形式意義上的正當程序已經(jīng)難以滿足需求,算法推論的規(guī)制不能僅僅停留在可解釋性上,而是要進入到實質性與合理性的判斷層面。這種合理性不僅僅是案件真實的需要,更是刑事訴訟運行中相對人重要權利得到有效保障的需要,是實質正當程序的題中應有之義。
責任編輯:張昌輝