雷 磊
(中國政法大學(xué)法學(xué)院,北京 100088)
人工智能技術(shù)在司法領(lǐng)域的應(yīng)用已成為我國國家信息化發(fā)展戰(zhàn)略的重要支點(diǎn)。2016年7月發(fā)布的《國家信息化發(fā)展戰(zhàn)略綱要》提出建設(shè)“智慧法院”,推動執(zhí)法司法信息公開,促進(jìn)司法公平正義。2017年4月,最高人民法院印發(fā)《最高人民法院關(guān)于加快建設(shè)智慧法院的意見》指出,智慧法院是人民法院充分利用先進(jìn)信息化系統(tǒng),支持全業(yè)務(wù)網(wǎng)上辦理、全流程依法公開、全方位智能服務(wù),實(shí)現(xiàn)公正司法、司法為民的組織、建設(shè)和運(yùn)行形態(tài)。在第十三屆全國人大五次會議上,《最高人民法院工作報告》將“深入推進(jìn)司法體制改革和智慧法院建設(shè)”作為獨(dú)立板塊,視為“堅持體制改革和科技創(chuàng)新雙輪驅(qū)動”“人民群眾對司法公正的獲得感不斷增強(qiáng)”的重要表現(xiàn)。
有法官指出,在司法領(lǐng)域,“人工智能的運(yùn)用能夠極大地減少人力的重復(fù)運(yùn)用,減少人為因素對司法公正的干預(yù),極大地提高司法活動的效率”[1]。這種觀點(diǎn)極具代表性。幾乎沒有爭議的是司法人工智能對于司法效率的提升,以及對“案多人少”矛盾之解決方面的重要意義。但有疑義的是,司法人工智能能否實(shí)現(xiàn)司法公正這一價值目標(biāo)?當(dāng)然,如果承認(rèn)司法公正是一種有著不同實(shí)現(xiàn)程度的價值訴求的話,那么,司法人工智能在何種意義和范圍內(nèi)能否促進(jìn)司法公正?與司法效率可以依靠實(shí)證研究得到檢驗(yàn)不同,司法公正主要是一種理論判斷,需要深入人工智能的技術(shù)邏輯,看其與司法公正的理念是否匹配。
廣義上的司法公正涉及到司法程序的各個領(lǐng)域和各個方面,與司法的權(quán)威性、司法活動被社會倫理的認(rèn)同程度、司法制度的宏觀構(gòu)架, 以及司法程序的合理性相關(guān)。[2]相反,狹義上的司法公正主要涉及司法裁判活動。司法裁判是一項價值取向的活動,司法公正是司法裁判的價值訴求。一般認(rèn)為,判斷現(xiàn)代司法是否具有公正價值,就是要看它是否既具有司法結(jié)果公正價值,又具有司法程序公正價值。[3]由此,司法公正就包含兩種類型,即實(shí)體公正與程序公正。并且通常認(rèn)為,實(shí)體公正是司法公正的根本目標(biāo),程序公正是司法公正的重要保障。[4]程序公正注重訴訟過程的公平, 其最重要的原則是程序自治和當(dāng)事人獲得同等對待。程序中的法官要做到對各方態(tài)度相同、權(quán)利相同和機(jī)會相同。所以, 當(dāng)事人是否獲得了參與訴訟的機(jī)會, 訴訟過程中陳述、舉證、辯論的權(quán)利是否得到了同等關(guān)注, 法官對雙方當(dāng)事人是否一視同仁而無任何偏頗, 是否同等地考慮和評價了雙方當(dāng)事人的主張和證據(jù), 就成為判斷程序公正與否的主要標(biāo)準(zhǔn)。[5]程序上的步驟與方式的設(shè)計一方面是出于對實(shí)體公正結(jié)果預(yù)望值的確保,另一方面是則是基于程序的固有內(nèi)在價值(程序價值)之上。①
相反,實(shí)體公正更多與裁判結(jié)果相關(guān),具體而言又包括形式正義與實(shí)質(zhì)正義兩方面。形式正義既包括平等,即同樣事物同樣對待,也包括法的安定性。法的安定性大體又囊括這幾層含義:其一,公民可以基于法律獲得關(guān)于其法律地位以及這一地位之法律條件的信息(可知性);其二,公民可以確鑿地依賴這類正確的信息來行為(可靠性);其三,公民可以預(yù)見到政府官員所作之具體法律決定的可能(可預(yù)測性);最后,政府官員必須遵循現(xiàn)行有效的實(shí)在法,必須以事前確定的一般性法律規(guī)范為司法、執(zhí)法的依據(jù),他們的裁量權(quán)要受到約束(可約束性)。②在這幾層含義中,最核心的是可預(yù)測性要求。形式正義落實(shí)為法官的義務(wù)就是“依法裁判”,因?yàn)橐婪ú门性揪吞N(yùn)含依照事先頒布的一般性規(guī)則來處理案件的要求,“事先頒布”就意味著裁判標(biāo)準(zhǔn)的“可視化”,而“一般性規(guī)則”則意味著同案同判。當(dāng)然,依法裁判的另一面向就是法官受制定法的拘束。這表明,通過制定法表達(dá)的價值實(shí)現(xiàn)的方式和方法對法官有約束力,因?yàn)槲垂_的條款、對法律續(xù)造的需求或具體案件中出現(xiàn)的法律矛盾,都使得法官必然訴諸立法者的評價(目的解釋)。同時,法官對正在適用的規(guī)則的目的之直接滲透,使得他們也參與了法律的塑造。[6]
與立法者不同,法官的這種塑造活動不是在一般意義上進(jìn)行,而是“逐案”進(jìn)行。正如德國法學(xué)家拉倫茨所說的:“法學(xué)所關(guān)心的不僅是明確性及法的安定性,同時也致意于:在具體的細(xì)節(jié)上,以逐步的工作來實(shí)現(xiàn)‘更多的正義’?!盵7]P253③因此,法官需要在個案中來考量一般性規(guī)則的適用,為此要考慮到適用情境的諸多要素,也包括裁判結(jié)果之社會效果關(guān)照下的公正觀。反映在法官的義務(wù)上,就是要兼顧“個案正義”。司法裁判中的個案正義與一般的正義觀念相比具有兩個特征:一則它是具體正義而非抽象正義,二則它是法律正義而非純粹的倫理正義。[8]一方面,個案正義是具體個案中體現(xiàn)出的實(shí)質(zhì)正義。實(shí)質(zhì)正義涉及實(shí)質(zhì)價值或道德考量。實(shí)質(zhì)價值或道德考量是有一定范圍或受到限制的,它們應(yīng)當(dāng)來源于司法裁判所處國家或地區(qū)中流行的或符合大多數(shù)人道德觀念的主流價值觀或社會公正觀,而非法官個案的公正觀。但是,社會公正觀又難以明確表述為或“編碼為”一套明確的規(guī)則,它往往融合了社會不同層面的情理,是一種同理心正義。同理心正義是一種多元、動態(tài)正義。在此,個案情境尤為重要。情境的不同,決定了移情的經(jīng)驗(yàn)和體驗(yàn)自然也不同,這就造成了司法公正內(nèi)涵的復(fù)雜多樣。[10]個案正義的一個最為核心的特征,在于它的“個案性”。換言之,以個案正義形式出現(xiàn)的實(shí)質(zhì)正義往往無法一般化和規(guī)則化的處理,它總是要面對每個不同個案的不同情況,面對事先所未曾預(yù)料的不確定性。建立在不確定性基礎(chǔ)上的“因時制宜”“因地制宜”“因事制宜”的實(shí)踐智慧、權(quán)宜考量和共情能力,正是司法活動中實(shí)質(zhì)正義的重要特征。另一方面,個案正義是法律正義,它既要顧及社會的道德觀念,也要顧及已經(jīng)制度化了的價值,也就是得到法律制度支撐的價值判斷,例如法典和單行法的總則部分所規(guī)定的基本原則和價值。
因此,司法公正是司法領(lǐng)域的一種統(tǒng)合性價值訴求,既包括實(shí)體公正,也包括程序公正,既包括形式正義,也包括實(shí)質(zhì)正義。
人工智能研究有大量不同的技術(shù)途徑,其中得到最多研究、占據(jù)主導(dǎo)地位的兩大途徑是強(qiáng)力法和訓(xùn)練法。強(qiáng)力法的基本原理是:第一,根據(jù)問題的精確模型,建立一個搜索空間;第二,壓縮搜索空間;第三,在壓縮空間中枚舉所有選項,找出問題的一個解。強(qiáng)力法的基本前提是:待解問題存在一個良定義的精確模型,且該模型默認(rèn)為某種符號模型,以邏輯形式化、概率形式化和決策論形式化為主導(dǎo)模型。[11]強(qiáng)力法又包含推理法和搜索法兩種主要類型,搜索法是在狀態(tài)空間中進(jìn)行搜索(如蒙地卡羅樹搜索),推理法則是在知識庫上進(jìn)行推理,通常由一個推理機(jī)和一個知識庫組成,推理機(jī)是專業(yè)團(tuán)隊研發(fā)的負(fù)責(zé)推理的計算機(jī)程序,知識庫則需研發(fā)者針對不同應(yīng)用自行開發(fā)(專家知識庫)。[12]訓(xùn)練法的工作原理是,用一個人工神經(jīng)網(wǎng)絡(luò)表示給定問題的輸入輸出格式(元模型),然后用大量標(biāo)注數(shù)據(jù)去訓(xùn)練這個元模型,即調(diào)整這個人工智能神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,從而得到一個具體的亞符合模型。這種訓(xùn)練遵從數(shù)據(jù)擬合原理。訓(xùn)練集中的每個樣本包含著已對輸入值和期望的輸出值,訓(xùn)練過程中反復(fù)比較被訓(xùn)練的人工神經(jīng)網(wǎng)絡(luò)的輸出值與訓(xùn)練樣本標(biāo)注的期望的輸出值之間的偏差,用監(jiān)督學(xué)習(xí)算法調(diào)整元模型的參數(shù)(即人工神經(jīng)網(wǎng)絡(luò)中的連接權(quán)值),努力讓總體偏差盡量小。[10]可見,強(qiáng)力法是用知識和推理解答問題,要求針對某應(yīng)用場景編寫相關(guān)的知識庫,然后用推理機(jī)回答問題;訓(xùn)練法則要求首先采集、制作訓(xùn)練數(shù)據(jù)集,訓(xùn)練出一個合格的神經(jīng)網(wǎng)絡(luò),然后用該網(wǎng)絡(luò)回答問題。
強(qiáng)力法利用顯式表達(dá)的知識進(jìn)行推理來解決問題,所以是可解釋的,而訓(xùn)練法利用人工標(biāo)注的數(shù)據(jù)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)(或其他隱式知識表示模型),用訓(xùn)練好的人工神經(jīng)網(wǎng)絡(luò)來解決問題,不具有可解釋性。將強(qiáng)力法和訓(xùn)練法應(yīng)用于司法裁判,就相應(yīng)產(chǎn)生了兩種人工智能運(yùn)行方式:一種是顯式編碼、封閉規(guī)則的算法,通過法律專家系統(tǒng)實(shí)現(xiàn)對人類法律推理的模擬并將之應(yīng)用于司法裁判的決策;另一種是機(jī)器學(xué)習(xí)算法,通過大數(shù)據(jù)分析訓(xùn)練,發(fā)現(xiàn)人類司法裁判的內(nèi)在規(guī)律,并將之應(yīng)用于對未來裁判的預(yù)測。[12]后者是人工智能和司法大數(shù)據(jù)相結(jié)合的產(chǎn)物。
在大數(shù)據(jù)時代,司法人工智能運(yùn)行的基本原理是,將開放的司法數(shù)據(jù)通過自然語言處理后,輸入機(jī)器學(xué)習(xí)的算法之中,然后得出一種或多種用于預(yù)測或預(yù)見案件勝訴或敗訴可能性的模型。這個算法的目標(biāo)并非復(fù)現(xiàn)法律推理,而是尋找判決中各個參數(shù)間的相關(guān)性。事實(shí)上,機(jī)器學(xué)習(xí)算法能做的,只是通過一種自動化的方式用多種預(yù)設(shè)配置將一組觀測值(輸入值)與一組可能結(jié)果(輸出值)關(guān)聯(lián)起來。它在組成司法判決的不同詞匯組之間構(gòu)建分類鏈接:輸入階段的特定詞匯組(表征案件事實(shí))對應(yīng)于輸出階段的特定詞匯組(表征裁判結(jié)論)。它的基本原理近似于“訊飛”這樣的機(jī)器翻譯系統(tǒng),只能在一組詞匯和已經(jīng)完成的譯文之間對最佳匹配作可能的估計值,而無法真正“理解”所處理的句子的意思。[13]P156-157強(qiáng)力法與訓(xùn)練法的區(qū)別只在于:在前者那里,哪些輸入值(案件事實(shí)特征)與輸出值(裁判結(jié)論)相關(guān)是通過計算機(jī)程序或者說人為預(yù)先設(shè)定的,司法人工智能只負(fù)責(zé)按照設(shè)定的模型來進(jìn)行計算;而在后者那里,與輸出值(裁判結(jié)論)相關(guān)的輸入值(案件事實(shí)特征)由人工智能通過訓(xùn)練自行學(xué)習(xí)獲得,至于是基于什么模型算法得到結(jié)果(輸出值)對于外部來說則是不透明的。但兩者的基本運(yùn)行邏輯并無二致,即基于封閉場景進(jìn)行價值中立的被動應(yīng)用。
這也導(dǎo)致現(xiàn)有司法人工智能技術(shù)(其實(shí)是一般意義上的人工智能技術(shù))具有如下三個特點(diǎn):一是封閉性。在推理法上,封閉性表現(xiàn)為:存在一組固定、有限的知識,就可完全描述給定的應(yīng)用場景。在訓(xùn)練法上,封閉性表現(xiàn)為:可用一組固定、有限、帶人工標(biāo)注的代表性數(shù)據(jù),完全描述給定的應(yīng)用場景。因此,一個應(yīng)用場景如果具有封閉性,則應(yīng)用人工智能的強(qiáng)力法或訓(xùn)練法技術(shù),可以保證應(yīng)用成功;如果不具有封閉性,則不保證應(yīng)用成功(也未必失敗)。二是被動性。現(xiàn)有人工智能技術(shù)不具備主動應(yīng)用的能力,只能被動被人應(yīng)用。即便是訓(xùn)練法中,人工智能具有所謂“自主”學(xué)習(xí)能力,甚至深度學(xué)習(xí)能力,那也只有在人類給定問題的輸入輸出格式,事先標(biāo)注好訓(xùn)練數(shù)據(jù)集并在封閉性場景(如“下圍棋”)的前提條件下的學(xué)習(xí)。這種所謂的“自學(xué)”完全由設(shè)計者事先安排好,并非通常人的自學(xué)。三是價值中立。也就是說,人工智能技術(shù)本身無所謂善惡,人對它們的應(yīng)用方式?jīng)Q定其善惡。以推理法為例,推理機(jī)給出的回答會不會對人有害,完全取決于知識庫是否包含可能隱含不良后果的知識。由于知識庫由人編寫,所以是設(shè)計者決定了推理法的具體應(yīng)用的善惡。[11]
由上述不難看出,雖然司法人工智能具有人類法官不可比擬的優(yōu)勢,即數(shù)據(jù)搜索、比對、關(guān)聯(lián)的迅捷性和準(zhǔn)確性,但也具有不可克服的缺陷:
首先是無法應(yīng)對不確定性。人工智能技術(shù)應(yīng)用成功所需的封閉性使其在面對非預(yù)期輸入時具有脆弱性。強(qiáng)力法無法繞過人工建模,不確定性對強(qiáng)力法的三方面挑戰(zhàn)也是對其建模的挑戰(zhàn):[10]一是對象的不確定性?,F(xiàn)實(shí)世界中,一個對象往往存在不可預(yù)測的很多“變體”,試圖在建模中窮盡一個預(yù)期對象的所有可能應(yīng)用場景中出現(xiàn)的所有變體,在工程上是不可行的。例如,盡管可為“正當(dāng)防衛(wèi)”建立典型案例,但卻無法事先就窮盡正當(dāng)防衛(wèi)的所有情形。二是屬性的不確定性。現(xiàn)實(shí)世界中,屬性往往是含混的和場景相關(guān)的。一旦給出一種屬性的任何良定義的形式化描述,就意味著人為限定了該屬性的一部分可能場景,舍棄了該性質(zhì)的另一些可能場景。因此,用形式化方法建模原則上無法保證覆蓋實(shí)際應(yīng)用中可能遇到的所有場景。例如,案件“情節(jié)惡劣”意味著什么?這類評價開放的概念很難被固定為數(shù)量有限的操作性標(biāo)準(zhǔn)。三是關(guān)聯(lián)的不確定性?,F(xiàn)實(shí)世界中現(xiàn)象是相互關(guān)聯(lián)的,一個現(xiàn)象可在不同場景中具有不同屬性,關(guān)聯(lián)于不同對象,并具有無法預(yù)測的關(guān)聯(lián)方式。人工智能系統(tǒng)的模型無法預(yù)測或描述現(xiàn)實(shí)世界中所有可能的關(guān)聯(lián),當(dāng)人工智能系統(tǒng)在實(shí)際運(yùn)行中遇到模型未表達(dá)的關(guān)聯(lián)時,就無法有效應(yīng)對。例如,推理模型可能將“向他人開槍”現(xiàn)象關(guān)聯(lián)于“故意殺人”,甚至也關(guān)聯(lián)于“正當(dāng)防衛(wèi)”,但卻沒有將“作戰(zhàn)”或“執(zhí)行死刑”這些關(guān)聯(lián)包含進(jìn)來。訓(xùn)練法繞過了人工建模,但它的性能依賴于海量數(shù)據(jù)及其人工標(biāo)注的“質(zhì)量”(數(shù)據(jù)+標(biāo)注),而這種質(zhì)量的保證來源于“采樣一致性假設(shè)”,也就是全體采樣樣本的概率分布和實(shí)際采樣樣本的概率分布之間的一致性。但實(shí)際采樣可能未包含必要特征點(diǎn),所以這個假設(shè)在實(shí)際應(yīng)用中無法保證。司法裁判的場合就是這樣一個非封閉性的場合,它要面對現(xiàn)實(shí)世界的諸多不確定性。
其次是不具有人類常識常情。人類具有復(fù)合型的知識和復(fù)雜的推理能力,而這其中有很大一部分屬于“通用型”的常識常情。一個人可能兼具多重身份,例如“法官”(在裁判活動領(lǐng)域)或者“棋手”(在棋類比賽中),但他首先是一個“人”。不管他從事哪個領(lǐng)域的活動,除了專業(yè)知識和能力外,他還會將其作為人所擁有的社會常識常情帶入它所從事的任何活動。這種常識和常情屬于現(xiàn)實(shí)世界的、跨越任何專業(yè)領(lǐng)域的底層知識和邏輯,很多時候往往是默會的。但人工智能恰恰不具備這類常識常情,所以阿爾法狗可以戰(zhàn)勝人類棋手(因?yàn)檫@只需專業(yè)知識和對于勝率的計算),但卻“不知道”棋子是不可以吃的。因?yàn)槿伺c人工智能是完全不同的“物種”,兩者做事的難易程度往往恰好相反——對人容易的往往對人工智能難,對人難的(如下圍棋)往往對人工智能容易。所以人工智能下棋贏了人類,絕不等于人工智能在對人類更容易的事情上也能贏人類。所以在司法裁判活動中,哪怕是只需要常識常情作出判斷的簡單案件,對于人工智能來說也可能是難的,因?yàn)闅w根結(jié)底,目前并沒有可以全盤模擬人類智能(對常識常情部分領(lǐng)域加以計算的)的通用人工智能。
最后是無法進(jìn)行價值判斷?,F(xiàn)有人工智能技術(shù)不會自主地形成“價值判斷”,更不會基于這種價值判斷作出決策。[14]法律人并非將法律規(guī)則視為靜態(tài)的法律表述,而是將它們視為用來追求特定目的的手段。相反,人工智能無法理解不同論據(jù)的“意義”,以及這些論據(jù)與特定結(jié)論間的“支持”或“反對”關(guān)系。[15]尤其是在疑難案件中,法官往往要超越法律文本,進(jìn)行復(fù)雜的價值權(quán)衡。價值權(quán)衡并非計算,無法被量化處理,也無法被代碼化。所以疑難案件往往就成為算法系統(tǒng)無法預(yù)期和應(yīng)對的異態(tài)。
總的來說,司法論證包括兩個步驟:一是將結(jié)果性事實(shí)與原因性事實(shí)聯(lián)結(jié)起來,二是將這種原因性事實(shí)涵攝于規(guī)范的構(gòu)成要件,并將特定法律后果與之聯(lián)結(jié)起來。兩種聯(lián)結(jié)分別涉及因果關(guān)系和歸責(zé)關(guān)系。而司法人工智能其實(shí)是將這兩個步驟化約為簡單的數(shù)據(jù)關(guān)聯(lián),也即從結(jié)果性事實(shí)(輸入值)與特定法律后果(輸出值)直接聯(lián)結(jié)起來,將之上升為通則性的算法規(guī)則。[16]這種聯(lián)結(jié)并不是“推理”,而是基于歷史數(shù)據(jù)的預(yù)測。司法人工智能進(jìn)行的預(yù)測又包括兩種:一種是基于先前所有同類案件的歷史數(shù)據(jù)來預(yù)測當(dāng)下案件的裁判結(jié)果(同案預(yù)測)。至于裁決這些先前同類案件的具體主體(法官)是誰,對于這種預(yù)測來說并不相關(guān)。另一種預(yù)測是基于法院或法官個人裁判的歷史數(shù)據(jù)來預(yù)測當(dāng)下案件的裁判結(jié)果(個性預(yù)測)。比如商業(yè)公司推出基于法官“畫像”的判決書大數(shù)據(jù)應(yīng)用產(chǎn)品,也即利用法官過去對同類案件的判決軌跡對其裁判行為進(jìn)行分析和預(yù)測。[16]P53以下就分別對這兩種預(yù)測與司法公正的關(guān)系進(jìn)行論述。
同案預(yù)測是基于類案裁判之歷史數(shù)據(jù)的預(yù)測。通常認(rèn)為,司法人工智能有助實(shí)現(xiàn)同案同判,進(jìn)而同案同判就表征司法公正。但這兩個判斷都不成立。
如前所述,司法人工智能的應(yīng)用原理是基于歷史數(shù)據(jù)的預(yù)測。換言之,它將司法裁判的重心置于對過去裁判的模仿上,也即持一種歷史決定未來的思路。而這種思路符合人工智能成果的技術(shù)條件必須符合的封閉性準(zhǔn)則。具體而言,如果一個應(yīng)用場景符合以下條件,則該場景對于強(qiáng)力法是封閉的:(1)該場景的設(shè)計規(guī)范可以用有限多個確定的因素(變元)完全描述,而其他因素可以全部忽略;(2)這些因素共同遵守一組領(lǐng)域定律,而這組定律可以用一個人工智能充分表達(dá);(3)相對于該場景的設(shè)計規(guī)范,上述人工智能模型的預(yù)測與實(shí)際情況足夠接近。[17]P8-9如果一個應(yīng)用場景符合以下條件,則該場景對于訓(xùn)練法是封閉的:(1)存在一套完整、確定的訓(xùn)練評價準(zhǔn)則,這套準(zhǔn)則充分反映了該應(yīng)用場景的設(shè)計規(guī)范;(2)存在一個有限確定的代表性數(shù)據(jù)集,其中數(shù)據(jù)可以代表該場景的所有其他數(shù)據(jù);(3)存在一個人工神經(jīng)網(wǎng)絡(luò)ANN和一個監(jiān)督學(xué)習(xí)算法,用該算法和代表性數(shù)據(jù)集訓(xùn)練ANN后,ANN將滿足評價準(zhǔn)則的全部要求。[17]P10-11在司法裁判這一應(yīng)用場景中,對于待決案件被裁決的這一時刻點(diǎn)而言,同類案件的歷史數(shù)據(jù)是有限的。封閉性條件能夠確?;谟邢逇v史數(shù)據(jù)的裁判保持統(tǒng)一性,也即實(shí)現(xiàn)統(tǒng)一裁判(司法統(tǒng)一)。但問題在于,司法統(tǒng)一就意味著同案同判嗎?未必如此。關(guān)鍵在于何謂“同案”無法或不應(yīng)由人工智能系統(tǒng)自身決定,這里既有技術(shù)方面的原因,也有理論方面的原因。
技術(shù)方面的原因主要仍在于前文所說的不確定性挑戰(zhàn)。這可以通過人工智能的運(yùn)作模型來闡明。人工智能的運(yùn)作模型涉及三層空間,即現(xiàn)實(shí)層、數(shù)據(jù)層和知識層。其中底層是數(shù)據(jù)層,就是人類的現(xiàn)實(shí)世界,是非常復(fù)雜、模糊和具象的。中間層是數(shù)據(jù)層,其中的數(shù)據(jù)是通過各種數(shù)據(jù)采集手段(如人工采集和機(jī)器感知)而從現(xiàn)實(shí)層獲得的,這一層是抽象的、格式化的。在數(shù)據(jù)采集過程中,一部分信息被搜集起來,同時現(xiàn)實(shí)中無限多信息被丟棄了。在數(shù)據(jù)層上,經(jīng)過人工建?;蛲ㄟ^機(jī)器學(xué)習(xí)可以得到知識,知識是結(jié)構(gòu)化的、包含語義的。在知識層上可以進(jìn)行自然語言處理、推理、規(guī)劃、決策等。[10]在此,從現(xiàn)實(shí)層躍升到數(shù)據(jù)層和知識層有兩種方式,一種是通過人工構(gòu)造,另一種是通過機(jī)器自主感知。
在人工構(gòu)造數(shù)據(jù)庫和知識庫的情形下,④數(shù)據(jù)庫的完整性或者說采樣的全面性會影響“同案”判斷。因?yàn)闄C(jī)器裁判的可靠性很大程度上取決于它所使用的數(shù)據(jù)的質(zhì)量和對機(jī)器學(xué)習(xí)技術(shù)的選擇。例如,目前在機(jī)器學(xué)習(xí)的刑事案例庫中,納入到樣本庫的基本上都是有罪判決,而中國的無罪判決事實(shí)上非常低以至于“趨零化”。以有罪判決樣本為基礎(chǔ)構(gòu)建起來的數(shù)據(jù)庫,幾乎不可能智能化地預(yù)測出無罪判決。[18]換言之,決定哪些案件數(shù)據(jù)“納入”樣本庫,從而成為機(jī)器學(xué)習(xí)樣本的依然是具有主觀意志的人。當(dāng)然要指出的,“標(biāo)注樣本”只是經(jīng)典訓(xùn)練法的特征。但大數(shù)據(jù)時代的訓(xùn)練法可能不再任何人工標(biāo)注了。⑤但無論如何,在司法裁判中,訓(xùn)練法的應(yīng)用總是要以司法案例庫為運(yùn)作基礎(chǔ),而司法案例庫無論如何有賴于人類建立。在另一種方式中,智能機(jī)器人自主感知現(xiàn)實(shí)世界,獲得數(shù)據(jù),從中抽取知識,并利用知識進(jìn)行理解、推理、規(guī)劃、決策,產(chǎn)生機(jī)器人行動,并在現(xiàn)實(shí)層中加以執(zhí)行。智能機(jī)器人的運(yùn)行形成一個完整的閉環(huán),也即從現(xiàn)實(shí)層到現(xiàn)實(shí)層,所以現(xiàn)實(shí)層包含的不確定性會對機(jī)器人產(chǎn)生不可忽視的影響。[10]于此,人工智能系統(tǒng)在知識層形成的問題模型只能覆蓋現(xiàn)實(shí)層的一部分,至多在其范圍內(nèi)產(chǎn)生正確解。而面對不在此覆蓋范圍內(nèi)的非預(yù)期輸入,很可能產(chǎn)生錯誤解,例如皮膚病診斷人工智能系統(tǒng)會將一輛生銹舊卡車“診斷”為得了麻疹。[19]P14目前還有沒可相比擬的“司法機(jī)器人”,能夠直接感知(聽審)現(xiàn)實(shí)案件并作出裁判,所以這條路徑至少目前在司法領(lǐng)域還不可行。當(dāng)然,技術(shù)問題之所以為技術(shù)問題,就在于它有被解決或接近解決的可能性。例如隨著全樣本案例庫的建立,采樣問題就可能會在相當(dāng)大的程度上得到解決。再比如,隨著深度學(xué)習(xí)能力的進(jìn)一步提高,人工智能系統(tǒng)問題模型覆蓋現(xiàn)實(shí)層的范圍可能會越來越大。但只要通用型人工智能沒有誕生,將“生銹舊卡車”和“麻疹”判斷為同案的可能性就依然存在。
相對來說,司法人工智能要面對的理論挑戰(zhàn)更為根本性。理論方面的原因主要是“同判”判斷本身的價值負(fù)載性?!巴竿小敝械摹巴浮敝傅氖恰巴惏讣?,也即屬于同一類型的諸案件。世上不存在兩個完全一樣的案件,并不存在什么固有的、實(shí)質(zhì)上的或原本的“同案”?!巴浮边€是“異案”取決于判斷的視角,而法律上的“同案”判斷取決于法律的視角。因此,兩個案件是否屬于同一類型,主要看它們之間是否具備相關(guān)相似性,而相關(guān)相似性的判斷標(biāo)準(zhǔn)則是由法律自身來提供的。法律不僅是語詞的系統(tǒng),也是意義的系統(tǒng),它將特定法律后果歸屬于特定事實(shí)要件之下。所謂的“相關(guān)相似性”,不僅指兩個案件事實(shí)層面上存在相同要素,也指兩個案件在“這些相同要素與法律后果相關(guān)”的意義上被法律等同評價。而能否被法律作等同評價,則要依據(jù)法律文本背后的法律目的。相對于法律目的而言,對案件事實(shí)之可能描述的多樣性要受此控制,即將為識別案件而進(jìn)行的相關(guān)描述限于既有法律中已經(jīng)包含的那些描述?!巴浮本褪强杀缓瓟z于相同法律規(guī)則之下的案件,也即滿足了同一法律描述的案件。[20]這就要求法律適用者理解法律文本的目的或意義。只有在法律所欲追求或評價的要點(diǎn)上具有相同意義,即意義同一性的,才屬于同一類型(同案)。意義不是事物外在的物理特征,因而類型判斷不是一種“物性的思考方式”,而是一種意義同一的探求;不是兩個案件的數(shù)個甚至全部的單列特征相同,而是由形形色色的特征組合構(gòu)成的“整體性關(guān)照”。⑥
人工智能恰恰無法對意義進(jìn)行整體性判斷和關(guān)照。因?yàn)槿斯ぶ悄芟到y(tǒng)盡管可能實(shí)現(xiàn)數(shù)據(jù)的最佳匹配,卻無法“理解”它所處理的語句意思。認(rèn)知計算技術(shù)無法在人類閱讀的意義上閱讀文本,它具有的是智能處理文本的技術(shù)、識別與問題相關(guān)的那些元素的技術(shù),以及以適當(dāng)方式引起用戶注意的技術(shù)。[21]P16這里的突出表現(xiàn)就是,它無法避免建立“錯誤的相關(guān)性”,即兩個案件盡管具有事實(shí)特征上的相似性,但這種相似性卻不具有法律意義或不應(yīng)與法律后果發(fā)生關(guān)聯(lián),而機(jī)器學(xué)習(xí)算法卻將其當(dāng)作了“鏈接”法律后果的前提。例如,假如(一批)前案中(都)出現(xiàn)了“黑人”“女性”等要素,而待決案件中也存在,智能系統(tǒng)就很可能將它們識別為相關(guān)特征,并將前案所確定的法律后果與待決案件鏈接起來,并將之作為一個通行的法則(如“黑人女性詐騙的重判”)。但事實(shí)上,無論相關(guān)法律規(guī)范還是處理前案的法官都沒有意圖將它們作為與判決結(jié)果相關(guān)的事實(shí)特征來對待。這里就發(fā)生了所謂“算法歧視”問題。準(zhǔn)確說,我們無法說“算法歧視”是一種真正的“歧視”,因?yàn)楫?dāng)智能系統(tǒng)作這種鏈接時,它并非有意為之——它壓根就不具備人類自由意志意義上的認(rèn)知和理解能力。它所作的,無非是數(shù)據(jù)之間的關(guān)聯(lián)匹配而已。
因此,“同案”本身就是進(jìn)行價值判斷(法律上的相似性)的結(jié)果。這種判斷只能由人類法官來進(jìn)行,而無法交由不具備價值判斷能力的機(jī)器。當(dāng)然,這種判斷也未必能夠完全客觀化,或者說在每一場合都達(dá)成共識,因?yàn)椴煌ü賹τ谕环晌谋镜囊饬x和目的是什么,不少時候也會發(fā)生分歧。但即便存在個人價值判斷的余地,從而不同法官對同樣兩個案件作了不同判斷,也不影響同案同判原則本身。因?yàn)榇藭r通常支持同案的法官會主張同判,而否認(rèn)同案的法官會主張異判,他們的分歧只在于“法律的要求”究竟是什么。[22]甚至可以說,保留一定的分歧余地正是司法創(chuàng)新的前提。然而,基于大數(shù)據(jù)發(fā)掘產(chǎn)生的歷史平均判決,會被不自覺地等同于“最優(yōu)判決”,客觀上潛在地形成一種要求法官向其靠攏的壓力。也就是產(chǎn)生這樣的默示推導(dǎo)方式:(1)以前的案件都是這么判的;(2)所以,這種裁判就是最佳的;(3)所以,待決案件的法官也應(yīng)這么判。顯然,這里犯了從“是”推導(dǎo)出“應(yīng)當(dāng)”的謬誤。過度地向平均數(shù)靠攏將會從根本上限制司法場景中基于價值變化或理念調(diào)整而進(jìn)行的“創(chuàng)造性演變”,[23]消滅司法創(chuàng)新的空間。
退一步講,即便司法人工智能能夠?qū)崿F(xiàn)同案同判,那么同案同判就一定意味著司法公正么?未必如此。同案同判是依法裁判的衍生性義務(wù),如果我們將依法裁判之“法”理解為一般性規(guī)則,而“一般性”又意味著“相同情況相同處理”的話,那么“依據(jù)一般性規(guī)則進(jìn)行裁判”本就包含著同案同判的要求。同時,“等者等之、不等者不等之”,或者說“相同情況相同處理、不同情況不同處理”也寓意著平等,或形式正義。所以,就像哈特所說:“正義概念的一個基本要素就是同案同判原則。這是法律實(shí)施的正義,而非法律本身的正義。”[24]P593, 623因此,依法裁判(包含作為其衍生性義務(wù)的同案同判)是形式正義的體現(xiàn),這也是(實(shí)體公正意義上的)司法公正的最低限度的要求。而之所以要在依法裁判之外另行提出同案同判,是因?yàn)橥竿芯哂小耙绯觥币婪ú门兄獾谋碚餍詢r值,也即形式正義的可視化和可預(yù)期性的顯現(xiàn)化。換句話說,它是司法公正的一種價值符號。[22]
但是,“表征性價值”或“價值符號”并不等同于價值本身。除了“可視化”和“顯現(xiàn)化”等社會效果外,同案同判在司法公正中并不具備獨(dú)特的價值地位,它依然只是形式正義組成部分。因此,同案同判代表不了司法公正的全部。這里包括兩種情況:
一種情況是,同案同判可能會與“依法裁判”的要求發(fā)生矛盾。同案同判是依法裁判的衍生性義務(wù),但并不等同于依法裁判。兩者發(fā)生背離的可能原因有二:一是過去的裁判是錯的,也即并沒有依據(jù)當(dāng)時有效的法律規(guī)則進(jìn)行裁判。在這種情形下,先案的判決是違法裁判的結(jié)果,但卻具有了既判力。此時同案同判的要求與依法裁判的要求發(fā)生了沖突。無疑,此時應(yīng)該擺脫依據(jù)先案進(jìn)行裁判的要求,徑直依據(jù)法律的要求作出不同裁判。同案同判是形式正義的要求,依法裁判同樣是形式正義的要求(因此在此并沒有去追問法律的內(nèi)容本身是否合理、正當(dāng))。當(dāng)兩種形式正義的要求存在張力時,依法裁判要優(yōu)于同案同判。因?yàn)槭且婪ú门?,而非同案同判,?gòu)成了司法的構(gòu)成性義務(wù)。作為構(gòu)成性義務(wù),依法裁判是司法裁判活動不可放棄的,是后者的必要條件。放棄了依法裁判,司法裁判就不是“司法”活動了。依法裁判是司法裁判的普遍和一般的性質(zhì),而同案同判只是司法裁判的一個面向或具象化的展現(xiàn)。二是先案裁判所依據(jù)的法律規(guī)則被廢除,或者雖未被廢除,卻與后來所頒布的同位階或更高位階的法律規(guī)則發(fā)生了沖突。這里的情形是,過去的裁判的確是依據(jù)當(dāng)時有效的法律規(guī)則作出的,并沒有違背“依法裁判”的要求,并在此意義上是對的。但由于后來的法律變更,先案裁判要么直接喪失了裁判基礎(chǔ),要么根據(jù)“新法優(yōu)于舊法”“上位法優(yōu)于下位法”的準(zhǔn)則間接喪失了裁判基礎(chǔ)。后案就不得按照前案裁判,而要根據(jù)新的裁判依據(jù)來作出,這樣才算落實(shí)了依法裁判的要求。
另一種情況是,同案同判可能會與“個案正義”的要求發(fā)生矛盾。這種情況下,同案同判并不與依法裁判的要求相矛盾,但卻會在待決案件中產(chǎn)生不公、甚至是嚴(yán)重不公的后果。這是因?yàn)?,?guī)則的本質(zhì)就在于一種“穩(wěn)固的一般化”[25]P49。它是對典型情形進(jìn)行抽象化后的產(chǎn)物,它只能以一種通行的標(biāo)準(zhǔn)去對人或事作出要求。而在這一抽象化的過程中,它會忽略或省卻掉大量個別化的細(xì)節(jié)。而是否屬于法律上的“同案”,是根據(jù)規(guī)則(構(gòu)成要件)的一般性標(biāo)準(zhǔn),而非具體的細(xì)節(jié)來判定的。所以可能會發(fā)生這樣的情形:雖然待決案件與先案完全符合法律上的“同案”標(biāo)準(zhǔn),也即受同一法律規(guī)則的調(diào)整,但由于待決案件具有額外的細(xì)節(jié)特征,而這種細(xì)節(jié)特征恰恰要求待決案件被特別對待。如果強(qiáng)行要求同案同判,就會因技術(shù)化操作犧牲部分個案的實(shí)質(zhì)正義。但既然同案同判的最終目的是向社會樹立司法公正價值,那么就必須兼顧社會公正觀。
當(dāng)個案中同案同判的要求與個案正義的要求之間的沖突不可避免時,法官就面臨著一個選擇,即究竟是直接適用法律規(guī)則而不考慮個案后果,還是因追求個案正義去適用原則,從而為規(guī)則創(chuàng)制例外。這要訴諸于權(quán)衡。這說明,同案同判雖然重要,但并非法官終局性的司法義務(wù),也不是不可凌駕的。當(dāng)然,依法裁判/同案同判相比于個案正義依然具有初始的優(yōu)先地位,這是由法官在法律制度中的角色決定的。但畢竟不能否認(rèn),在某些時候,法官有更強(qiáng)理由去為規(guī)則創(chuàng)制例外,實(shí)現(xiàn)個案正義。當(dāng)然,何時偏離規(guī)則去實(shí)現(xiàn)個案正義,無法在法哲學(xué)或一般法學(xué)說的層面上予以預(yù)先確定。因?yàn)槿缜八?,與一般化的規(guī)則不同,融合了社會公正觀之個案正義的具體要求因案件的情境會有不同,需要法官進(jìn)行充分的個別化考量和實(shí)質(zhì)論證。⑦而這恰恰是機(jī)器算法的短板。因?yàn)樗痉ú门胁⒎鞘菣C(jī)械活動,它是一項德性事業(yè),要為法治的吸引力負(fù)責(zé)。而法律不總是能在個案中帶來公正的結(jié)果,法官也沒有義務(wù)在任何情況下都依照法律行事。[22]我們不能僅執(zhí)著于人性差異所可能帶來的偏頗,卻忽視了統(tǒng)一代碼背后的僵化與冰冷。
綜上所述,其一,司法人工智能有助于實(shí)現(xiàn)司法統(tǒng)一,但司法統(tǒng)一并不一定意味著同案同判,因而不一定能實(shí)現(xiàn)同案同判意義上的形式正義;其二,即便司法人工智能能夠?qū)崿F(xiàn)同案同判,由于同案同判只是依法裁判的一個面向,它既可能與依法裁判相背離,因而無法實(shí)現(xiàn)作為更高要求之依法裁判意義上的形式正義,也可能與個案正義相矛盾,因而無法實(shí)現(xiàn)實(shí)質(zhì)正義。因此,司法人工智能不僅可能無法實(shí)現(xiàn)實(shí)體公正,而且可能與之相背離。
個性預(yù)測是基于法院或法官個人裁判歷史數(shù)據(jù)的預(yù)測。這類預(yù)測的基礎(chǔ)不在于類案裁判的歷史數(shù)據(jù),而在于作出類案裁判之法院或法官的個別化的歷史裁判軌跡。與同案預(yù)測的推導(dǎo)方式不同,個性預(yù)測的推導(dǎo)不是從全稱命題(“所有先前的類案都是這么判的”)到單稱命題(“待決案件也應(yīng)當(dāng)這么判”)的推導(dǎo),而是從單稱命題(“法院A/法官a在先前的類案中都是這么判的”)到單稱命題(“(選擇了法院A/法官a,)法院A/法官a在待決案件中也會這么判”)的推導(dǎo)。⑧不考慮不可預(yù)測的意外等因素,這個推導(dǎo)本身并無邏輯謬誤,但它卻會鼓勵一種徹頭徹尾的策略主義行為,有嚴(yán)重違背司法倫理之虞。因?yàn)樗环矫孀駨牧爽F(xiàn)實(shí)邏輯邏輯,另一方面則浸透著商業(yè)偏好邏輯,這都可能與司法公正發(fā)生沖突。
大數(shù)據(jù)時代的司法人工智能不僅基于歷史數(shù)據(jù)來計算,而且可以“預(yù)測”法官未來的行為,因?yàn)槠浜诵囊乇阍谟诮?gòu)一種能夠?qū)崿F(xiàn)對判決進(jìn)行預(yù)測的算法模型。[26]質(zhì)言之,這種機(jī)器算法其實(shí)就是基于特定法官之歷史裁判數(shù)據(jù),并基于其法官的身份進(jìn)行評價、分析、比較或預(yù)測。針對法官的個性預(yù)測建立在兩種分析的基礎(chǔ)上,一是一致性分析,即將特定法官辦案數(shù)據(jù)與其他法官辦理類似案件的大數(shù)據(jù)對比,分析特定法官特定案件與整個司法系統(tǒng)的一致性狀況;二是連續(xù)性分析,即通過將特定法官特定在辦案件與其歷史相似案件的對比,分析法官判決標(biāo)準(zhǔn)是否具有連續(xù)性。⑨因此,個性預(yù)測的基本預(yù)設(shè)是,法官未來的裁判行為會與過去的裁判行為保持一致。
如果說人具有什么樣的性格和傾向可以通過其(規(guī)律性的)行為來展現(xiàn)的話,那么司法人工智能就是通過法官的(規(guī)律性的)裁判行為來對法官的性格和傾向進(jìn)行描繪,也即為法官進(jìn)行“畫像”。這種“畫像”被作為針對法官個人的算法系統(tǒng)的建?;A(chǔ),用來預(yù)測法官在未來同類案件中的行為。甚至法官自己也未必能意識到自己“畫像”的模樣,因?yàn)槿斯ぶ悄軙r代的算法可能要比行為人自己更了解自己。尤其是在司法裁判文書全面網(wǎng)上公開的情形下,得出司法大數(shù)據(jù)加持的個性預(yù)測將得到極大的增強(qiáng)。與同案預(yù)測相比,圍繞法官個人數(shù)據(jù)展開的個性預(yù)測走得更為徹底。因?yàn)樗呀?jīng)完全拋開了(圍繞“同案”的認(rèn)定展開的)規(guī)則和案件的事實(shí)特征,而轉(zhuǎn)向了作出先案裁判的法官個人。所以對于這種預(yù)測來說,法律規(guī)則的規(guī)定與案件的典型特征都不是首要的,首要的作出判決的人。而人是個性化的,作出判決的人不同,裁判的結(jié)論也可能不同,哪怕是同類案件。這就使得司法人工智能的關(guān)注點(diǎn)從案件的規(guī)律轉(zhuǎn)向了人的規(guī)律性(個人自我的規(guī)律性軌跡)。這完全是一種否定裁判作為規(guī)則實(shí)踐的現(xiàn)實(shí)主義邏輯,暗合了霍姆斯(Holmes)的著名觀點(diǎn):“法律,正是對法院將會采取的實(shí)際舉措作出的預(yù)測”[27]P157。所不同者,無非將這里的“法院”拓寬為包含“法官”在內(nèi)而已。
這種策略性和機(jī)會主義的態(tài)度關(guān)心的不是司法是否公正的問題,而是能否利用對法官裁判的預(yù)測獲得自身利益的問題,不是理由和論證的問題,而是偏好性結(jié)果的問題。個性預(yù)測在根本上挑戰(zhàn)了司法公正的理念:司法裁判既應(yīng)是一種“看得見的正義”,也應(yīng)是一種“說得出的正義”。前者是程序公正,后者是實(shí)體公正。程序公正將在下一部分論述,這里主要涉及實(shí)體公正。應(yīng)當(dāng)看到,實(shí)體意義上的司法公正不只是一種結(jié)果意義上的形式或?qū)嵸|(zhì)公正,它也必然與司法裁判的性質(zhì)相關(guān)。司法裁判在性質(zhì)上是一種說理來解決糾紛的活動。它不僅要告訴當(dāng)事人和社會公眾,對于特定的糾紛,法院給出的判斷是什么,而且要告訴他們,為什么給出了這一判斷。即便自由裁量無法避免,法官也必須要給出裁判的理由。而給出理由就是在進(jìn)行推理或論證。司法裁判中的法律推理,就是舉出規(guī)范性理由和事實(shí)性理由來支持最終得出的具體判決。判決書就是說理或推理的載體。有效的判決必須建立在充分的法律依據(jù)與事實(shí)理由的基礎(chǔ)之上,并通過合乎邏輯與情理的方式展現(xiàn)出從法律與事實(shí)推導(dǎo)到裁判 結(jié)論的過程。[8]簡言之,司法公正是一種基于理由和論證的公正。這種公正預(yù)設(shè)了參與者的視角,因?yàn)橹挥袑τ谒痉ㄕ撟C活動的參與者,或者關(guān)心法律體系下的正確決定為何的人來說,才會有司法公正抑或不公正的問題。相反,個性預(yù)測預(yù)設(shè)的是觀察者的立場,它只關(guān)心法官做過什么、將會做什么,而不關(guān)心裁判的正確性,或者公正或不公正的問題。⑩所以,基于“法官畫像”的現(xiàn)實(shí)主義邏輯與司法公正猶如兩條跑道上的馬,是背道而馳的。
如果說個性預(yù)測對實(shí)體公正的挑戰(zhàn)只是一種可能、而非必然的挑戰(zhàn)(因?yàn)楸活A(yù)測的法官作出的判決可能在實(shí)體上是公正的),因而是一種相對的挑戰(zhàn)的話,那么它對于程序公正的挑戰(zhàn)就是一種必然的、絕對的挑戰(zhàn)。在現(xiàn)實(shí)中,最有動力進(jìn)行“法官畫像”的不是法院及法學(xué)研究者,而是有償提供法律服務(wù)的科技公司。例如,法國于2016年公布《數(shù)字共和國法》,要求在尊重有關(guān)人員隱私和評估再識別風(fēng)險的基礎(chǔ)上向公眾免費(fèi)提供所有法院的判決。該法頒布之后,法國國內(nèi)關(guān)于判決的大數(shù)據(jù)分析就迅速發(fā)展。不少法國科技公司利用大數(shù)據(jù)與人工智能技術(shù)對法官進(jìn)行“畫像”、統(tǒng)計、排名,以此為基礎(chǔ)預(yù)測訴訟的成功概率、可能獲得的侵權(quán)賠償金額,甚至是幫助當(dāng)事人選擇在贍養(yǎng)糾紛中更“慷慨”的法官。[28]這里的邏輯純粹是一種商業(yè)偏好邏輯:客戶喜歡什么樣的法官,就可以有償購買其“服務(wù)”。在本質(zhì)上,它與購買商品或其他服務(wù)的算法推薦系統(tǒng)沒有區(qū)別。[29]這種商業(yè)邏輯將嚴(yán)重侵蝕程序公正的理念。
一方面,程序公正的核心,即程序自治和當(dāng)事人獲得平等對待原則將遭受侵害。就當(dāng)事人獲得平等對待而言,個性預(yù)測可能會引發(fā)兩種不公正的情形:(1)法官大數(shù)據(jù)畫像的應(yīng)用可能引發(fā)管轄權(quán)兜售的行為。司法實(shí)踐中,出于不同的動機(jī),包括名譽(yù)或地方利益,一些法官希望審理更多的案件。當(dāng)原告有廣泛的法院選擇時,這些法官有動機(jī)使法律更有利于原告,從而吸引更多的原告起訴。[30]此時,法官就相當(dāng)于買方市場上的賣方那樣,判決追求的不是法律正義與社會公正,不是權(quán)利義務(wù)的合理分配,而是對處于優(yōu)勢的買方(原告)之偏好的迎合。因此,司法大數(shù)據(jù)分析的應(yīng)用使得法官可能為了塑造良好的記錄而有意識地向公眾偏好傾斜,以便在管轄權(quán)競合的訴訟案件中爭取更多的案源,從而給法官判決形成了不當(dāng)?shù)恼T導(dǎo)。這是一種新形式的司法腐敗,因?yàn)榉ü偈窃诶么髷?shù)據(jù)畫像獲利。(2)法官大數(shù)據(jù)畫像的應(yīng)用可能會加劇策略性的管轄權(quán)選擇行為,也就是“擇地訴訟”和“挑選法官”的訴訟投機(jī)行為?!皳竦卦V訟”是指當(dāng)事人為了獲得有利于自己的判決結(jié)果而有意識地選擇在特定法院進(jìn)行訴訟的行為。隨著大數(shù)據(jù)技術(shù)的普及和法官大數(shù)據(jù)畫像的廣泛應(yīng)用,“擇地訴訟”和“挑選法官”的成本和難度將大幅度下降。小范圍的“訴訟策略”也就可能潛在地轉(zhuǎn)變?yōu)槠毡樾缘摹霸V訟投機(jī)”,進(jìn)而影響司法公正。[28]在商業(yè)邏輯中,愿意付出更高價格者將獲得更好的服務(wù)(“價高者得”)。所以,有能力向商業(yè)公司購買“法官畫像”,或愿意以更高價格購買對自己有利的“法官畫像”的當(dāng)事人,將比沒有購買能力或購買能力相對較弱者,具有壓倒性的勝訴機(jī)會?!肮茌牂?quán)兜售”與“挑選法官”都會導(dǎo)致當(dāng)事人無法獲得司法的平等對待,只不過具體形式不同而已:“管轄權(quán)兜售”是在“賣法官”,是法官有意為之或法官與當(dāng)事人的合謀,因而是司法腐?。欢疤暨x法官”是在“買法官”,是商業(yè)公司和當(dāng)事人的合謀,并不需要法官意識到“挑選法官”行為的存在。但其背后的邏輯都是商業(yè)偏好邏輯,是將司法裁判視為買賣活動的一種類型。
就程序自治而言,法官大數(shù)據(jù)畫像的應(yīng)用無疑干擾了司法的獨(dú)立和司法裁判過程的自主展開。個人預(yù)測能夠成功,就已經(jīng)意味著,裁判結(jié)論不再是訴訟活動終結(jié)的產(chǎn)物,不是論證和說理的結(jié)果,而是從一開始就被確定了的。司法已經(jīng)被“操控”了——被有支付能力的當(dāng)事人,被意圖從中獲利的商業(yè)公司,也被想要獲得更多資源的法官自己,更準(zhǔn)確地說,是被現(xiàn)代社會無所不在的商業(yè)邏輯。隨著人工智能技術(shù)對司法滲透范圍的擴(kuò)大,司法全過程都可能被納入技術(shù)治理的視角之下,無遠(yuǎn)弗屆、無處遁形。相應(yīng)地,司法獨(dú)立和程度自治就會越發(fā)成為一個神話。
另一方面,法定法官原則也將遭受侵害。該原則的起源可追溯到1791年《法國憲法》。該憲法第五章第4條規(guī)定:“不得用任何專案法庭、或非經(jīng)法律規(guī)定的職權(quán)和移審辦法,使公民不受依法指定的審判官的審理?!痹撛瓌t后來被德國所繼受,《魏瑪憲法》第105條和《德國基本法》第101條均規(guī)定,不得設(shè)立特別法院,不得剝奪任何人接受法定法官審判的權(quán)利。“法定法官”指的是這樣的法官:根據(jù)法定管轄權(quán)規(guī)定,以及根據(jù)通常是對此具有管轄權(quán)之法院內(nèi)部事先作出的一般性的業(yè)務(wù)分配計劃,這一法律爭議被分派給他。[31]P169法定法官原則確保了法官的獨(dú)立性和中立性。通常認(rèn)為,法定法官原則包含四項內(nèi)涵,即特別法院之禁止,法院管轄法定,案件分配法定,以及任何違反法定程序的案件分配結(jié)果自然無效。其中,法院管轄法定是法定法官原則的核心。它指的是,某一案件具體由哪位法官予以審理,必須事先由一般性、抽象性的法律所明定。何等案件由何等法官承審,此乃法院的案件分配問題。在法治發(fā)達(dá)國家,法院的案件分配基本都由事先確定的、透明的程序予以決定。至于具體訴訟個案的分配,多數(shù)法院原則上均采取“隨機(jī)分配”與“平均分配”的原則。[32]法定法官原則的功能,一方面在于保障當(dāng)事人的基本權(quán)利,尤其是公平審判權(quán);另一方面在于確保法官的獨(dú)立性,防止外部力量干預(yù)司法。[32][33]這其實(shí)就是程序自治和當(dāng)事人獲得平等對待的要求。所以,法定法官原則從案件分配機(jī)制的角度保障了程序公正。
但顯而易見的是,“買賣法官”的行為勢必侵蝕法定法官原則,侵害弱勢當(dāng)事人的公平審判權(quán),影響司法獨(dú)立。因?yàn)楦鶕?jù)法定法官原則,裁判者的產(chǎn)生規(guī)則(案件分配程序規(guī)則)應(yīng)當(dāng)先于糾紛的發(fā)生,而個案的裁判者應(yīng)當(dāng)由法律事先確定的規(guī)則產(chǎn)生。但是,無論是“管轄權(quán)兜售”還是“挑選法官”的行為,其基本思路是“以操縱由何人審判的方式來操縱審判結(jié)果”,甚至通過改變案件審理者來影響審判結(jié)果。而一旦法定承審法官受到人為干擾而被剝奪裁判某起案件的審判權(quán),而其他法官卻因人為因素取得裁判該案件的審判權(quán),那么兩者的獨(dú)立性都將因外部因素的介入而受影響,程序公正也就無法得到確保。
綜上所述,其一,“法官畫像”的現(xiàn)實(shí)主義邏輯所蘊(yùn)含的策略性與機(jī)會主義態(tài)度并不關(guān)心實(shí)體公正,因而可能與司法公正背道而馳;其二,“買賣法官”的商業(yè)偏好邏輯必然侵蝕程序公正的理念,即侵害程序自治和當(dāng)事人獲得平等對待原則,及法定法官原則。
司法人工智能的基本運(yùn)行邏輯是基于歷史數(shù)據(jù)預(yù)測。法律或司法裁判的確應(yīng)具備可預(yù)測性,但可預(yù)測性指的只是指司法裁判應(yīng)建立在事先已經(jīng)被公布的一般法律規(guī)則的基礎(chǔ)之上。[34]它指的不是法院或法官作出的判決實(shí)際上被某個公民或社會公眾所預(yù)測到,無論是被他們自己偶然地預(yù)測到,還是借助于人工智能或算法系統(tǒng)被有規(guī)律地預(yù)測到。因此,基于技術(shù)對司法裁判的預(yù)測不等同于司法裁判的可預(yù)測性,前者涉及事實(shí)上的預(yù)測能力,而后者涉及法律上的可預(yù)測性。這也說明,司法技術(shù)永遠(yuǎn)無法完全取代司法判斷,尤其是司法中的價值判斷。因?yàn)樗痉ú门惺且环N價值內(nèi)置的活動,在這種活動中,“人”的邏輯不能被“機(jī)器”的邏輯所取代。這是司法的尊嚴(yán)的要求,更是人的尊嚴(yán)的要求。
目前司法人工智能的合適定位,就是司法裁判活動的輔助手段,主要旨在提高司法審判的效率。正如《最高人民法院關(guān)于加快建設(shè)智慧法院的意見》所提出的,智慧法院建設(shè)的目標(biāo),是要探索建立面向立案、審理、裁判、執(zhí)行等法院業(yè)務(wù)的知識圖譜,構(gòu)建面向各類用戶的人工智能感知交互體系和以知識為中心的“人工智能輔助決策體系”。這是因?yàn)?,從學(xué)科屬性上看,司法人工智能屬于法律信息學(xué),準(zhǔn)確地說,屬于決策法律信息學(xué),主要涉及法律專家系統(tǒng)、決策輔助軟件和法律咨詢軟件。而法律信息學(xué)本質(zhì)上是信息學(xué)在法律領(lǐng)域中的應(yīng)用,我國的智慧法院、智慧檢務(wù)、智慧公安工程中的有關(guān)司法人工智能均屬于此。盡管目前大部分學(xué)者都不否認(rèn)司法人工智能的這種決策輔助地位,但筆者的確有一個擔(dān)憂:就像技術(shù)從來就不只是技術(shù),而同時也負(fù)載著特定的價值追求或意識形態(tài)那樣,對司法人工智能的過度推崇和迷戀也會在不知不覺間產(chǎn)生一種導(dǎo)向,也即潛在地以技術(shù)主義的邏輯壓倒人的邏輯的導(dǎo)向。為此,要時刻牢記的是,技術(shù)永遠(yuǎn)只是技術(shù),司法人工智能的應(yīng)用也永遠(yuǎn)無法替代對司法公正的追求?!吧砼ㄅ鄣恼x”終究是人的正義,而非機(jī)器的正義。
注釋:
① 例如,薩默斯就提出了九項程序價值(See Robert Summers, Evaluating and Improving Legal Process: A Plea for “Process Value”, in his The Jurisprudence of Law’s Form and Substance, Dartmouth: Ashgate Press 2000, pp.103ff.)
② 前兩層含義參見?ke Fr?ndenberg, From Rechtsstaat to Universal Law, Heidelberg e.t.: Springer, 2014, p.113;后兩層含義參見[美]布雷恩·塔瑪納哈:《論法治——?dú)v史、政治和理論》,李桂林譯,武漢大學(xué)出版社2010年版,第148頁。
③ 引文中的“法學(xué)”指的是司法裁判視角下的法教義學(xué)。
④ 強(qiáng)力法同時通過人工構(gòu)造數(shù)據(jù)庫和知識庫,而訓(xùn)練法則可能只通過人工構(gòu)造數(shù)據(jù)庫。
⑤ 來自圍棋領(lǐng)域的一個例證是,第四代“阿爾法狗”(即“阿爾法零”)已完全不依賴于人類圍棋知識了。
⑥ 關(guān)于類型思維及其特征,參見[德]阿圖爾·考夫曼:《類推與“事物本質(zhì)”——兼論類型思維》,吳從周譯,學(xué)林文化事業(yè)有限公司1999年版,第111-119頁。
⑦ 學(xué)理上能做的,只有在法教義學(xué)的層面上,對特定規(guī)則的例外情形進(jìn)行類型化處理。
⑧ 為了論述的簡潔,以下用“法官”來同時指稱“法院”。就個性預(yù)測而言,基于特定法院的歷史裁判數(shù)據(jù)與基于法官個人的歷史裁判數(shù)據(jù)的預(yù)測并無區(qū)別。
⑨ 在此參考了王祿生:“司法大數(shù)據(jù)應(yīng)用的法理沖突與價值平衡——從法國司法大數(shù)據(jù)禁令展開”,《比較法研究》2020年第2期。
⑩ 觀察者的立場不問某一法律體系中的正確決定是什么,而更關(guān)心在此一特定法律體系中決定如何實(shí)際地作出。相反,持參與者立場的人則在某一法律體系中參與到有關(guān)此一體系的命令、禁止、允許以及此一體系所欲達(dá)致的目的爭議之中。對此參見[德]羅伯特·阿列克西: 《法概念與法效力》,王鵬翔譯,五南圖書出版股份有限公司2013 年版,第42-43頁。