內(nèi)容提要 隨著各行業(yè)智能化水平不斷提升,我國司法系統(tǒng)在面對時代的劇烈變化時,展現(xiàn)了對智能化建設和司法改革的魄力與決心。人工智能可以在“類案類判”和“及時公正”等維度促進可視化的司法公正,但同時也在與司法活動交叉結(jié)合的過程中產(chǎn)生了諸如數(shù)據(jù)算法缺陷弱化公正基礎、技術的價值中立性無法真正滿足公民個案公正的訴求、技術的工具性消解司法公正本意的風險。為應對以上風險,可以采取大數(shù)據(jù)與算法規(guī)范、制定人工智能融入司法的倫理規(guī)范以及將法律論證嵌入司法人工智能系統(tǒng)等措施,在展現(xiàn)司法人工智能優(yōu)勢的同時,實現(xiàn)司法公正的最大化。
關鍵詞 人工智能 司法公正 算法 風險防范
李婷,南京信息工程大學法政學院副教授
本文為江蘇省社會科學基金項目“新就業(yè)形態(tài)下勞動者權(quán)益的法律保障研究”(21FXB009)、2019年南京信息工程大學教學改革研究課題“科學主義理念下‘三元區(qū)分法學教育模式的構(gòu)建”的階段性成果。
一、研究背景
科技的迅猛發(fā)展使各行業(yè)各領域的信息化、智能化水平不斷提升,我國司法系統(tǒng)在面對時代的劇烈變化時,展現(xiàn)了信息化、智能化建設和司法改革的魄力與決心。理論界對于人工智能和司法互動的研究,最早可以追溯到1970年Bruce G. Buchanan與Thomas E. Headrick共同發(fā)表的文章“Some Speculation about Artificial Intelligence and Legal Reasoning”,該文重點研究了人工智能系統(tǒng)在法律推理過程中的應用和問題[1]。我國理論界對計算機數(shù)據(jù)系統(tǒng)參與司法過程的最早設想可以參考龔祥瑞、李克強于1983年發(fā)表的《法律工作的計算機化》,該文預見了我國未來法律工作計算機化的必然趨勢以及法學研究和法律工作現(xiàn)代化、信息化的必要性。在之后的理論研究中,“網(wǎng)絡化”“信息化”“電子計算機”等詞語也越來越多地出現(xiàn)在法學研究領域。隨著人工智能技術的完善和成熟,理論界許多學者從各個角度對人工智能參與司法展開熱烈討論。例如季衛(wèi)東嘗試從司法權(quán)轉(zhuǎn)變的角度探討人工智能在司法過程中扮演的角色[1],鄭戈以“算法”為切入點,強調(diào)人在算法中的地位和作用[2],左衛(wèi)民基于中外司法人工智能的對比,對AI法官在我國的應用前景做了展望[3]。
在實務中人工智能的發(fā)展也取得了長足的進步。最高人民法院于1999年頒布《人民法院五年改革綱要》,明確提出了信息技術、在線審判等關鍵詞,并以此作為司法現(xiàn)代化改革的重點步驟。之后的種種延續(xù)性政策也反映了我國對相關技術保持著積極態(tài)度。當前,在我國大力推進“智慧司法”這一背景下,除了大家熟知的文書制作電子化(即將證據(jù)材料等紙質(zhì)卷宗以電子文書的形式呈現(xiàn))、司法信息數(shù)據(jù)化(即網(wǎng)上辦案平臺和在線庭審等)、電子數(shù)據(jù)的生成和審查(即文字、圖像和聲音的識別技術)等輔助性司法工作以外,各級“智慧法院”在立案、審判與結(jié)案環(huán)節(jié)都努力促成人工智能與司法活動的結(jié)合。在立案環(huán)節(jié),人工智能系統(tǒng)可以整理案件事實并對其進行初步“畫像”;在審判環(huán)節(jié),人工智能系統(tǒng)可以提取案件爭議焦點、生成庭審提綱;而在結(jié)案環(huán)節(jié),人工智能可以自動生成裁判文書、提供預測結(jié)果與量刑建議,甚至劃定量刑標準、發(fā)出量刑預警[4]。
學者們對人工智能介入司法提高司法活動效率、解決“案多人少”矛盾方面的積極意義幾乎沒有爭議,有疑義的是,司法人工智能能否實現(xiàn)司法公正這一目標?又可以在何種范圍和程度上促進司法公正?面對司法人工智能的迅速發(fā)展,部分學者對人工智能司法的前景持相對樂觀的態(tài)度,認為如果可以進一步升級計算機硬件和算法,司法人工智能在未來將獲得更廣泛的使用。同時,他們還認為,在司法獨立與公正價值方面,人工智能司法相較于法官司法更具優(yōu)勢。因為人工智能司法可以毫無偏見、毫無感情地運作,排除影響人類法官司法裁決的一切干擾[5]。
當然,更多學者對人工智能司法的態(tài)度較為謹慎。左衛(wèi)民教授認為,盡管智能化技術已經(jīng)為突破司法服務的困境提供了可能性,但與域外人工智能的運用相比,我國人工智能還處于“弱形式”階段,還未運用在審判決策的重要環(huán)節(jié),尤其是未在量刑環(huán)節(jié)發(fā)揮實質(zhì)性作用。加上我國人工智能司法是基于知識圖譜式算法而缺少定量實證方法的使用,計算模型是規(guī)范取向而非經(jīng)驗模式,“最終產(chǎn)出的不是實踐理性的AI法官,而是被‘訓練了的AI法官”[6],這樣的AI法官無法真正實現(xiàn)實質(zhì)正義的司法價值。雷磊教授從實體公正與程序公正的區(qū)分入手,結(jié)合人工智能運行的基本原理與人工智能技術的封閉性、被動性和價值中立等特點,認為人工智能介入司法在實現(xiàn)司法實質(zhì)公正方面具有不可克服的缺陷[7]。
基于此,我們需要思考的問題是:司法人工智能的運用現(xiàn)狀與樂觀主義者的預期是否吻合?就目前而言,“弱形式”的人工智能實踐在何種范圍與形式上能夠促進司法公正價值,以及面臨何種障礙與挑戰(zhàn)?思考人工智能介入司法大趨勢的當下,追求司法公正這一古老話題能否在新技術革命的激勵下獲取新能量,科技的變革如何與人們對崇高價值的追求產(chǎn)生良性互動,是本文寫作的主旨。
二、人工智能促進司法公正的價值效用
在法律與諸多價值交融的過程中,公正始終被認為是與法律聯(lián)系最為密切的價值。在研究法律應當體現(xiàn)哪些價值或法律應當保護哪些價值的問題上,公正“占有最為顯赫之地位”[1]。習近平總書記就法治問題談道:“法治不僅要求完備的法律體系、完善的執(zhí)法機制、普遍的法律遵守,更要求公平正義得到維護和實現(xiàn)”[2]。因此,談論人工智能對司法活動的影響首先就是要理清人工智能與司法公正之間的關系,人們在對新時代、新技術感慨萬千的同時也要守住法的核心價值,這也是本文的基本論調(diào)。
司法公正可以從廣義和狹義兩個維度上來解釋。廣義上的司法公正包含司法程序的各個領域和各個方面,與司法的權(quán)威性、司法活動被社會倫理的認同程度、司法制度的宏觀構(gòu)架,以及司法程序的合理性相關[3]。由于廣義的司法公正范疇過大,本文在討論人工智能對司法公正的影響時,將采用狹義的司法公正觀,即主要討論司法裁判活動是否符合公正的價值訴求。而(狹義)司法公正又包括兩種類型:司法結(jié)果具有公正價值和司法程序具有公正價值。前者——實體公正是司法公正的根本目標,后者——程序公正則是司法公正的重要保障[4]。
1.程序公正維度:類案類判
在司法公正價值的眾多表現(xiàn)中,“依法裁判”是其核心內(nèi)容。這也就是說,法官必須依照事先頒布的一般性規(guī)則來處理案件,即適用“可視化”的規(guī)則進行“類案類判”,人工智能對司法公正的良性影響在此處可供發(fā)揮的空間很大。
其一,法律要求普遍性。依照人工智能算法的邏輯,每一種結(jié)果的產(chǎn)出總是伴隨著相關聯(lián)性的依據(jù),而這種依據(jù)作為數(shù)據(jù)已經(jīng)提前輸入系統(tǒng)中。一些給當事人帶來不利影響的標簽可以在這種運作過程中達到去標簽化,這使得具體案件的個人能夠真正被當作一般人來對待,同時對某些人的優(yōu)待因為缺乏相應的依據(jù)(特權(quán)顯然是被排除在外的標簽)而得到限制。其二,法律要求穩(wěn)定性,這是“類案類判”最直接的體現(xiàn)。人工智能在司法中一個重要的活動就是為法官提供決策服務,即通過對數(shù)據(jù)庫的比對,推送案情相似的判決,這使得法官的恣意受到限制。相似案件判決結(jié)果相差過于懸殊將使當事人在上訴的過程中獲得更多的依據(jù),法官也需要考量明顯不合理判決所帶來的問責風險。
人工智能參與司法另一顯著特征就是它能夠預設一套智能化的程序系統(tǒng),在這樣一個程序下,人工智能充當?shù)慕巧c其說是決策的輔助者不如說是管理者和監(jiān)督者。司法人工智能融入司法改革有其法理意蘊,“數(shù)字正義”是司法人工智能與司法改革相融合的法理表達[5]。多元化的在線糾紛解決模式構(gòu)建了更加簡便、快捷、高效的法律程序以“接近正義”(access to justice)[6]。信息技術的發(fā)展,加之與互聯(lián)網(wǎng)和司法活動相結(jié)合,使司法的價值更多地體現(xiàn)為線上的可視化“數(shù)字正義”。司法人工智能借助新科技的技術優(yōu)勢,讓科學技術的“法外”形態(tài)介入司法活動,充分挖掘和釋放司法實踐的程序正義。人工智能技術的司法應用,開啟了從“接近正義”邁向“可視正義”的歷史進程[7]。
2.司法效率維度:及時公正
波斯納的經(jīng)濟分析法學給司法正義帶來的啟發(fā)集中在他的《正義/司法的經(jīng)濟學》一書中。書中特別提到了“法本身——包括它的規(guī)范、程序和制度,都在于促進效率的實現(xiàn)”,從而提出了“財富最大化”理論。同時,針對批評者認為波斯納在正義和效率之間忽視了正義,他回答道:“財富最大化之所以是一種更可得到辯解的道德原則,還在于它為分配和校正正義提供了一個堅實的基礎?!盵1]波斯納把效率看作正義的一個層面的觀點提醒我們不得不重視經(jīng)濟效益在司法過程中的內(nèi)涵。它要求盡量減少司法資源的浪費,以有限的司法資源投入獲得最大的司法效果反饋,從而達到司法資源優(yōu)化的目的,人工智能在此處依然發(fā)揮著重要的作用。
首先,作為司法決策的輔助者,人工智能并不像人類那樣由于精力的有限、閱讀內(nèi)容數(shù)量的局限而容易發(fā)生錯誤的判斷,它只需按照既定的算法,采用高效數(shù)據(jù)計算的方式去運作。即便是人數(shù)再多、時間跨度再復雜的案件,人工智能也很難產(chǎn)生錯誤。這樣法官可以將有限的精力投入到真正需要自由裁量的領域,案件的產(chǎn)出符合公平正義又符合社會期望的可能性大大增加。其次,有限制地使用強人工智能可以使得司法資源得到最大化的合理分配。這里的強人工智能是相對于弱人工智能而言的,理論和實務界對司法人工智能的定位多為輔助性角色,畢竟技術只能是人的工具,而不能代替人。但從節(jié)約司法成本的角度來看,對于某些案件事實清晰、爭議不大,適用簡易程序、速裁程序以及調(diào)解結(jié)案的案件,人工智能或許可以通過適當擴大自主性,減少對此類案件的過度糾纏,這對于那些亟需處理和社會影響重大的案件來講,反映出某種“財富最大化”的正義。
2021年《最高人民法院工作報告》顯示,在信息化建設與司法改革相融合的背景下,2020年全國智慧法院建設成果充分顯現(xiàn)。如裁判文書和在線庭審直播方面,“裁判文書上網(wǎng)公開1.2億份,庭審直播1159萬場”,智慧法院在線執(zhí)行方面,“網(wǎng)絡查控案件1464.5萬件,網(wǎng)絡拍賣成交金額4027億元,同比均有大幅增長”;也有一些較難量化的成果,如“疫情期間,無接觸式訴訟服務廣泛應用……審判執(zhí)行不停擺、公平正義不止步”,以及“通過構(gòu)建中國特色、世界領先的互聯(lián)網(wǎng)司法新模式,為全球互聯(lián)網(wǎng)法治發(fā)展積極貢獻中國方案”[2]。在探討基于司法效率的公正問題時,雖然我們必須正視司法成本與效益不能完全通過“數(shù)字”體現(xiàn)出來的現(xiàn)實,但也不能放棄人工智能對司法效率推動的研究探尋。
三、人工智能介入引起的司法公正風險
不可否認,人工智能介入司法可以顯著提升司法信息化水平,推進司法審判能力和司法體系的現(xiàn)代化,對于促進司法程序公正、提高司法效率具有重要的意義。但與此同時,我們不得不重視其在價值判斷中的局限性。人工智能是基于龐大的數(shù)據(jù)庫、強大的數(shù)據(jù)整合分析能力、不斷優(yōu)化的算法推理能力等為司法裁判者提供決策參考。但現(xiàn)有人工智能運行中司法數(shù)據(jù)收集處理環(huán)節(jié)標準的缺失、算法法律地位的界定不明以及缺乏有效約束機制等都將弱化司法公正的技術基礎;同時,人工智能作為一項智能技術,無法具備人類法官的理性思維能力,也無法準確把握法律規(guī)范背后深刻的立法價值基礎,而這種價值的中立性恰恰是人工智能司法無法真正實現(xiàn)司法實質(zhì)公正的核心因素所在。
1.技術維度:數(shù)據(jù)算法缺陷弱化司法公正基礎
任何一種科技的發(fā)展都必然伴隨著一定的風險,風險防范對于司法公正的實現(xiàn)具有至關重要的影響。人工智能的核心部分是它的數(shù)據(jù)和算法,這兩者直接決定了人工智能所提供的司法結(jié)論,必須重視這方面的建設工作。
其一,數(shù)據(jù)的數(shù)量質(zhì)效不高,明確化和層次化不足。司法人工智能必須建立在足夠的有效數(shù)據(jù)基礎之上,精確的判斷也必須以大量優(yōu)質(zhì)的司法數(shù)據(jù)作為基礎。然而我國法律數(shù)據(jù)信息離完備還有一定差距,相應的法律數(shù)據(jù)質(zhì)量也參差不齊。我國僅僅是法律規(guī)范數(shù)據(jù)建設就任重而道遠,此類基礎性的數(shù)據(jù)由于過于復雜,其明確性、合理性大大降低。同時,法律術語往往一詞多義并需要加以解釋。如果在對數(shù)據(jù)進行學習時不加以明確區(qū)分,便會造成結(jié)果上的偏差。此外,由于參與訴訟的主體并不能準確表達每種術語,在進行數(shù)據(jù)處理的過程中要先把主體描述的語言轉(zhuǎn)化為人工智能可以識別的語言,這就無形中加大了人工智能學習的難度,并且極易產(chǎn)生混淆。除了法律術語,法律規(guī)則和法律原則在效力層級上的差異加大了數(shù)據(jù)檢索的困難。人工智能在這方面的判斷很可能產(chǎn)生數(shù)據(jù)上的交叉重合,而這種數(shù)據(jù)的不當應用很有可能造成案件性質(zhì)和結(jié)果的偏差與疏漏。
其二,算法“黑箱”易導致司法隱形歧視。算法作為技術的核心,科技公司并不會去主動公開算法的運行方式;與此同時,司法工作人員很少會對這方面的技術有深刻的理解,他們在判斷人工智能系統(tǒng)合適與否時,更多地是看其是否有助于高效辦案,這就使得算法“黑箱”成為一種可能。當司法工作人員習慣于享受算法帶來的便捷卻又缺乏對算法的理解,人對算法的控制便處于一種不可知的狀態(tài),這種狀態(tài)使得人工智能帶來了程序的公開卻又使得程序的運行原理被另一種帷幕所籠罩。同時,數(shù)據(jù)的累計和關聯(lián)性的不斷強化,使不受監(jiān)督的算法很可能在不斷的學習過程中產(chǎn)生標簽化的歧視,因此中立的人工智能可能因為算法的“黑箱性”變得不中立,這種歧視往往處于很隱蔽的狀態(tài)。絕大多數(shù)案件也許不容易產(chǎn)生明顯的誤判,但這種潛移默化的處理方式卻可能使得弱勢群體的權(quán)益得不到合法的保護,這種隱形歧視往往引導社會對一部分被貼上標簽的群體產(chǎn)生排斥,而更不利于真正地解決社會中特定群體性問題。
其三,技術缺陷易導致司法缺乏實質(zhì)合理性。就目前人工智能的發(fā)展狀況來看,司法領域主要使用的技術為知識圖譜(mapping knowledge domain)+深度學習。所謂“知識圖譜”,簡單來講就是以可視化的方式將知識資源的關聯(lián)性表現(xiàn)出來。這種方式對數(shù)據(jù)的完備程度非常依賴,可以說如果一個案件相關的因素儲備得越多,那么所得出的結(jié)論也就越符合大部分法官將做出的判斷。對于案件爭議焦點較少以及一些基礎性的結(jié)論,人工智能確實能夠很好地作出反應,并且準確性一般不會有問題。但是并不是所有案件都能夠從有限的知識資源中發(fā)掘判斷思路。尤其是在不同的裁判依據(jù)產(chǎn)生競合的情況下,法官會依據(jù)道德、政策、社會等多方因素考量,而并非將每一項裁判依據(jù)進行完整的闡明。這種情況下人工智能算法的學習將不能準確反映現(xiàn)實裁判的思路。究其根本原因還是法官裁判和人工智能裁判特點的差異性:法官的裁判在依據(jù)事實情況和條文規(guī)定并在兩者之間往返查看的基礎上,還需要通過辯論、論證以達到說服其他聽眾的目的;人工智能的判斷僅僅按照相關度進行,雖然從數(shù)據(jù)層面上看具有結(jié)論的合理性,但缺乏了說服的過程,而這種過程正是算法設計的困難之處,最終將導致判決的正當性、合理性遭受削弱。
2.倫理維度:技術的中立性無法滿足公民個案正義的訴求
司法活動與立法活動不同,法官在適用法律規(guī)則的同時,又對法律進行了“逐案塑造”[1]?!胺▽W所關心的不僅是明確性及法的安定性,同時也致力于在具體的細節(jié)上,以逐步的工作來實現(xiàn)‘更多的正義?!盵2]因此,法官僅僅依照法律的“一般性規(guī)則”進行“類案類判”還不足以體現(xiàn)司法實體公正的全部。司法裁判中的實體公正涉及實質(zhì)價值或道德考量,是與一般正義、抽象正義相對應的個案正義與具體正義。當然,個案中的正義并非法官的個人公正觀,它是受到一定社會或地區(qū)主流價值觀或公正觀限制的,是一種“同理心正義”——一種多元的、動態(tài)的正義[3],難以明確表述為或“編碼”為一套明確的規(guī)則。在此,個案情境非常重要,它決定了不同情境下法官的同理心,從而也造就了司法公正呈現(xiàn)出愈發(fā)復雜的內(nèi)涵。
其一,司法人工智能無法避免裁判中的價值偏見風險。從表面上看,司法人工智能裁判將統(tǒng)一的法律規(guī)則、類似的案件事實輸入智能計算系統(tǒng),應當能夠避免法官先入為主的價值偏見。但事實上,司法人工智能本身并無法真正達到我們希望的客觀與中立。司法人工智能在展開司法裁判工作之前,會深入學習和挖掘先前司法裁判的數(shù)據(jù),并以此為基礎進行司法預測。在這個實踐過程中,人工智能既有可能學到先前司法裁判的有效經(jīng)驗,也不可避免地被動學習到先前司法裁判中帶有法官價值偏見的不合理經(jīng)驗,即“偏見進,則偏見出”[1]。
其二,司法人工智能缺乏主觀能動性,無法及時根據(jù)個案場景、情境或社會發(fā)展需求“因時制宜”“因地制宜”“因事制宜”。而蘊含于其中的司法智慧、權(quán)益考量和共情能力,正是司法活動中實質(zhì)公正的重要表現(xiàn)。司法裁判并不僅僅是將案件事實與法律規(guī)則簡單疊加,而是需要裁決者充分發(fā)揮司法裁判的溢出性效用,能動地展開適當?shù)牟昧?,以契合司法改革的時代目標和司法實質(zhì)公正理念。然而“無須滿足任何更多的條件即可生成‘是與‘否的二元選項代碼”[2]的司法人工智能,并不具備展開價值判斷和規(guī)則創(chuàng)新的能力。司法人工智能的價值中立性和被動性特征使得其應用領域被限縮在那些是非對錯明晰、知識需求單一、潛在模式簡易可辨的場景之中[3]。
其三,現(xiàn)代司法訴訟的重要功能之一,是為民眾提供一個釋放訴說、尋求救濟的途徑,即司法的疏導功能[4]。由于人工智能介入司法活動,原本溝通民眾與司法的橋梁——法官的作用被弱化,生硬的程序算法無法解讀民眾的切實情感需求與非理性訴求。與人類法官裁判相比,人工智能在尋找配比法律規(guī)則方面或許更為準確快速,裁判程序與結(jié)果也合乎規(guī)則,但缺乏疏導功能的司法活動會使得民眾對司法的參與感降低,從而引起民眾內(nèi)心對司法公平正義感受的弱化,造成司法公信力的削弱。
3.法理維度:技術的工具性消解司法公正本意
前面講到,人工智能引入司法的一大優(yōu)勢就是其作為一種智能技術,并不像人那樣會面臨各種情感、利益上的影響,而具有相當?shù)目陀^性、中立性。這里所說的對司法中立產(chǎn)生的風險不是從算法運行程序本身而言的,更多地還是由上述算法黑箱、工具性局限所帶來的實質(zhì)結(jié)果上的公正風險。人工智能程序的開發(fā)本身不是由法院自身獨立完成的?,F(xiàn)實中,絕大多數(shù)法學教育是較少涉足自然科學和信息技術的,法學家也很少能夠精通這一領域。由于法院自身缺乏人工智能技術專業(yè)人員,多數(shù)人工智能法律系統(tǒng)都是由專業(yè)科研技術人員研發(fā)的,技術人員自身原有的價值偏見等便有可能被寫入司法人工智能算法中。
其一,司法系統(tǒng)與科技服務提供者之間交流存在障礙。司法人員在對人工智能算法設計提出要求時往往很難精確地表達服務需求,以目前的學科交叉程度來看,也只能夠通過一些寬泛的語句進行溝通。這樣不充分溝通下產(chǎn)生的業(yè)務系統(tǒng)很可能背離了司法主體的初衷,或者說僅僅在效率、數(shù)據(jù)匯總等弱人工智能應用層面能夠產(chǎn)生良好的互動。也許法院本身需要的系統(tǒng)是按照某種價值評判標準去運行的,而現(xiàn)實卻可能反映不出司法過程的內(nèi)涵。溝通的失誤便使得人工智能系統(tǒng)算法設計從一開始就沒有契合司法的特點,從而失去其客觀中立的特點。
其二,智能系統(tǒng)擁有者易對司法結(jié)果做出干擾。隨著信息時代的發(fā)展,科技本身成為一種專利,數(shù)據(jù)資源本身成為一種財產(chǎn)。基于這種特性,智能系統(tǒng)和數(shù)據(jù)往往都不會公開,這無形中形成一種“黑箱”,上文主要是對這種“黑箱算法”的隱蔽性所帶來的未知從微觀角度進行分析,這里更多地是從宏觀角度來探究。當今時代,擁有核心技術以及大量的數(shù)據(jù),就有可能擁有足夠大的能量去影響社會、改造各種社會關系。在司法領域,掌握著技術、數(shù)據(jù)的主體在本身陷入到糾紛時,由于其本身對算法的熟悉,在應對各種法律風險時,顯示出較強的預測能力,這種優(yōu)勢地位的形成很難讓相對方感受到真正的司法中立;更有甚者,由于算法實際上難以做到公開,那么對算法的篡改或者說有傾向性的引導可能會對司法結(jié)果產(chǎn)生干擾。
其三,不加限制的智能技術將會使司法逐漸工具化。我們在法治建設中強調(diào)對法的公平正義、司法獨立健全的呼吁,這種呼吁可以為公民樹立一種“法律信仰”,正所謂“沒有信仰的法律將會退化成僵死的教條”[1]。也正因如此,學界和實務界對司法人工智能的發(fā)展持謹慎態(tài)度,他們普遍認為不加限制的技術發(fā)展以及過于激進的應用會使得司法逐漸工具化,這種工具主義將會對司法的獨立性帶來沖擊。因為工具必然導致信仰的弱化,而這種弱化會使得技術、數(shù)據(jù)的實際控制者將司法過程理解為簡單的判決工廠,從而崇尚技術的獨立價值,貶低司法的獨立價值。司法機關若陷入工具主義思維,過分注重數(shù)據(jù)、算法的管理功能,則通過對數(shù)據(jù)的操控和調(diào)整便可能實質(zhì)上使得法院的數(shù)據(jù)資源獲取受到有意識地限制,法官的自由裁量權(quán)被過度削弱,從而弱化司法的獨立性,獨立性的減弱直接使得公正裁判的基礎遭到威脅。
四、人工智能影響司法公正的風險防范
人工智能技術運用于司法領域勢必會帶來雙重影響,既給司法改革帶來了前所未有的發(fā)展機遇,同時也會引起司法不公的風險。基于此,必須構(gòu)建人工智能影響司法公正風險的防范體系,盡可能地預防和應對人工智能介入司法引起的不良后果,推動司法改革向更深、更遠的方向進行。
1.強化司法大數(shù)據(jù)管理,規(guī)范算法決策
其一,強化司法大數(shù)據(jù)管理。大數(shù)據(jù)的共享和流通不可忽視,司法人工智能在進行學習和關聯(lián)性排列的過程中亟需充足的優(yōu)質(zhì)數(shù)據(jù),前文已經(jīng)詳細論述過。這里主要強調(diào)全國公、檢、法系統(tǒng)的數(shù)據(jù)互通與及時更新。通過共享和數(shù)據(jù)的篩查可以最大限度地減少由數(shù)據(jù)內(nèi)容的瑕疵所帶來的判決紕漏。數(shù)據(jù)庫就像是技術的養(yǎng)分,只有定期的清理、排列,才能使得其生成的內(nèi)容富有實踐指導意義,而首先要做的就是把法院裁判文書數(shù)據(jù)及時上傳。據(jù)統(tǒng)計,中國裁判文書網(wǎng)上的裁判數(shù)據(jù)與全國法院系統(tǒng)數(shù)據(jù)總量相差甚遠,并且除了上傳文書,對文書的數(shù)據(jù)格式統(tǒng)一化也必須同步進行。在確保法院系統(tǒng)數(shù)據(jù)充實的前提下,司法系統(tǒng)外的其他部門也應當對數(shù)據(jù)進行甄別和引進。在這個信息爆炸的時代,數(shù)據(jù)的來源不應當過于閉塞,而應當加強合作構(gòu)建共享型數(shù)據(jù)庫,在此基礎之上對數(shù)據(jù)的研究與學習將更有參考價值。
其二,數(shù)據(jù)資源的安全性也必須作為法律的重點領域加以保護。我國近年的立法不斷強調(diào)對個人信息的保護,雖然數(shù)據(jù)的共享和流通是必要的,但是這不能被理解為數(shù)據(jù)可以隨意流轉(zhuǎn)給他人。數(shù)據(jù)一旦被不法分子或者具有優(yōu)勢地位者利用,司法過程的雙方實質(zhì)力量將會產(chǎn)生巨大差距,因此需要進一步明確數(shù)據(jù)使用和保存的規(guī)范。一方面,數(shù)據(jù)的使用不可隨意。另一方面,要從技術上采用更強力的數(shù)據(jù)保護舉措,防止數(shù)據(jù)流失所帶來的隱患。同時,應提前進行遭受數(shù)據(jù)攻擊的演練,對破壞數(shù)據(jù)的行為要進行行政法乃至刑法上的嚴厲處罰,并對數(shù)據(jù)管理主體建立問責制度。
其三,規(guī)范算法決策。首先,需要建立事前評價和事后檢查的機制。在將算法應用于司法實踐之前,應嚴格規(guī)范數(shù)據(jù)收集、信息挖掘等一系列程序,以保證算法規(guī)則的合理性和合法性。相關專家評審應在仔細研究算法規(guī)則后進行公示,使社會各界詳細了解算法決策的運作機制,增加算法規(guī)則的透明度與合理性,維護司法公信力。在做出算法決策后,還應該建立相應的算法評審和測試機制,保證算法決策機制的高度合理性和關鍵過程的透明性。算法應用的每一個環(huán)節(jié)都需要相關領域?qū)<业牟粩鄼z驗和論證,使其盡可能不受無意識的歧視和個人偏見的干擾,保障司法的公正價值。
最后,法律賦予公民監(jiān)督司法活動的權(quán)利,以促進司法程序的公正。但是,在算法“黑箱”的缺陷背景下,算法的隱藏性在一定程度上侵犯了公民的知情權(quán),更勿論對司法活動的監(jiān)督權(quán)。因此,需要從制度上確立與完善算法的解釋規(guī)則,防止人工智能融入司法實踐而帶來的不確定性風險。建立算法解釋規(guī)則的目的是實現(xiàn)決策主體與社會公眾的有效溝通,這種溝通可以概括為以下兩點:一是實然層面的解釋,即算法規(guī)則是什么,全面說明人工智能司法決策的規(guī)則,消除其中的歧義和沖突。二是應然層面的解釋,即規(guī)則為什么,為適用規(guī)則本身提供充分的理由。
2.推進“有限智能化”,制定司法人工智能的倫理規(guī)范
人工智能技術作為現(xiàn)代科學技術發(fā)展的前沿方向之一,強化其于司法領域之中的應用能夠大力推動司法智能化改革。但針對人工智能在司法活動中的角色,可采取“有限智能化”態(tài)度推進[1]。具體來說,首先應肯定司法工作人員的主體地位,司法人員應當始終掌握系統(tǒng)運行的整個流程,不應一味追求司法人工智能系統(tǒng)的高度自洽性。根據(jù)司法人員和人工智能的能力,結(jié)合兩類角色在司法活動中的不同特性來分配權(quán)限和責任。當智能化系統(tǒng)的預測結(jié)果可能與人類法官的決策不相同時,人類法官應享有最終決定權(quán)。同時,司法工作人員應當監(jiān)督人工智能的司法活動。正如法國學者克羅齊耶所言,相比于有關國家理論的建構(gòu),人際關系的發(fā)展更有利于獲取成功,同程序相比,人更加值得信賴依靠[2]。
前文已述,人工智能介入司法會產(chǎn)生影響司法公正價值的特有倫理問題,需要建立以倫理規(guī)范為主的監(jiān)督機制。司法人工智能本質(zhì)上是數(shù)據(jù)和算法的司法活動,而數(shù)據(jù)和算法又是人工智能研發(fā)者的科技成果。因此對人工智能介入司法的倫理規(guī)范本質(zhì)上仍然是對人的規(guī)制。算法除了“黑箱”和隱形的“歧視”等自身的問題,還可能包含人工智能研發(fā)者的主觀惡意。算法的監(jiān)督除了前述對技術自身的事先事后規(guī)制外,還要確立人工智能研發(fā)者的倫理行動規(guī)范。
對人工智能研發(fā)者的倫理行動規(guī)范,應當包括尊重基本人權(quán)、安全性、可追溯性、包容性、預防原則、隱私權(quán)保護、效益最大化和危害最小化等[3]。人工智能的倫理規(guī)范不僅以尊重和保障人類基本權(quán)利為價值目標,還要規(guī)范參與人工智能各環(huán)節(jié)工作人員的行為,如研究、設計、生產(chǎn)和使用過程的人員的行為。同時,需要建立必要的監(jiān)管機制,使其在可控、低風險的環(huán)境中發(fā)展。司法人工智能要繼續(xù)堅持技術中立、價值無涉原則,恪守技術倫理,結(jié)合司法改革任務的實際情況,創(chuàng)造人工智能在司法領域的技術應用規(guī)則,劃定人工智能技術的應用邊界和限度,在享受司法大數(shù)據(jù)紅利的同時,保障個人信息安全,維護司法公正。
3.將法律論證嵌入司法人工智能系統(tǒng),降低工具主義風險
論證是法律人必備的素養(yǎng),也是法律人實現(xiàn)結(jié)論為人信服所必要的過程。司法過程的法律論證可以被理解為法官通過說理來使其聽眾確信某種法律評價或者某個案件的合理性。論證真正需要發(fā)揮作用的地方往往也是人工智能處理薄弱的環(huán)節(jié),即復雜疑難案件中對爭議集中點做出裁決的合理性重構(gòu)。法律論證的內(nèi)容主要包括論證所要滿足的標準、法官對規(guī)則解釋的必要性以及法律規(guī)則、法律原則以及一般道德公理之間的關系。而實現(xiàn)最終論證結(jié)果的合理性則需要一套對判決結(jié)果的標準或規(guī)范,這種規(guī)范并不是當下僅依靠“是”或“否”和進行標簽化處理的人工智能所能夠完全承擔的,因此法律論證的任務就在于提供合理性依據(jù)并將工具主義傾向遏制住。
其一,最大化尊重“聽眾”的能動性,維護個案實質(zhì)公正。在法律論證中有一種修辭學方法,它是與邏輯方法相對應的一種方式,其屬于對內(nèi)部論證方法尋找具有說服力的規(guī)則的外部論證方式之一。這種方式注重論述內(nèi)容的可接受性,突出論證的修辭特征和策略安排,而可接受性則取決于論證的說服力,具有代表性的觀點是佩雷爾曼的新修辭學理論[1]。他將論證與正義論結(jié)合起來為我們討論司法人工智能如何促進正義提供了思路。按照佩雷爾曼的觀點,形式邏輯并不能代表正當性,最終案件的價值判斷要歸結(jié)到對話式的討論,人工智能在作為論證助手的過程中承擔著定位論證主體的功能。主體可被分為三類“聽眾“,即普泛聽眾(討論中除自己以外所有人)、實際談話中的特定聽眾、思辨過程的聽眾。論證輔助系統(tǒng)在程序設計中可確定一種時間流程,給予每類聽眾發(fā)表自身觀點的時間,保障聽眾的意見充分錄入智能系統(tǒng)之中,最后通過總結(jié)聽眾共識以達成最終價值評判的結(jié)果。這使得人的能動性得到最大化尊重,在面臨人工智能難以評判的實質(zhì)公正內(nèi)容時,通過聽眾角色的設置可以提升裁判內(nèi)容的說服力。
其二,規(guī)范參與者對話規(guī)則,維護司法程序公正。人工智能輔助論證的過程不能僅僅停留在確定時間維度上的對話流程,而必須對對話內(nèi)容采取一定程度的規(guī)制,以保障對話的效率以及結(jié)果的正確性。首先,當論證主體提出自己的主張后,需要輸入證明內(nèi)容。缺乏證明支持的主張,在算法程序中應當被評定為低合理性。同時也允許相對方主體的批評和質(zhì)疑,將這一系列對話內(nèi)容綜合記錄于輔助程序中,為運算提供數(shù)據(jù)支持。其次,約束法律商談結(jié)果的規(guī)則。這一規(guī)則對解決司法人工智能局限性的啟發(fā)在于,司法數(shù)據(jù)的龐雜使得智能系統(tǒng)對各種規(guī)范的優(yōu)先層級較難判斷,而此種程序性規(guī)則要求證立法律判決必須事先從一個總體性規(guī)則出發(fā),這個規(guī)則在論證輔助系統(tǒng)中占最高優(yōu)先級。例如在民事案件論辯過程中,如果有制定法、特殊法的規(guī)定,就不應當越過這些規(guī)定而直接以民法原則和一般法作為論證大前提(作為論證的合理性的支持觀點是可以的),否則就意味著對法律規(guī)則的違背,那么這樣的論辯是不能被評價為合理有效的??偠灾?,上述論證方法在智能系統(tǒng)算法中的設立,實質(zhì)上都是為了保證司法過程中人的存在,當人真正主導了司法過程的合法性、合理性,所謂工具主義對司法主體物化的風險將被控制到最低;同時,數(shù)據(jù)優(yōu)勢者及算法獨裁所帶來的負面影響將會在追求公平正義的論辯中得到消解。
五、結(jié)語
司法人工智能在目前的學界和實務界的定位傾向于司法輔助角色,顯然,綜合目前科技發(fā)展水平、數(shù)據(jù)質(zhì)量結(jié)構(gòu)、法治建設水平等因素,這種看法是恰如其分的,過于激進地對待技術將會給司法公正以及諸多傳統(tǒng)價值倫理帶來威脅。不過這并不意味著面臨技術沖擊需要抑制甚至停止它的引進和發(fā)展,畢竟在當今信息化和智能化時代,科技生產(chǎn)力越來越成為改革的重點。從經(jīng)驗論來看,智能技術總體而言對人類社會的進步起到積極的促進作用,現(xiàn)實中我國司法系統(tǒng)也一直注重法院的智能化建設。因此在以一種適當?shù)墓?jié)奏發(fā)展司法人工智能的過程中,法律人要保持理性審慎的態(tài)度,使目光往返于技術和公正之間。人工智能是方式而不是目的,我們有必要把握這樣一個基本的原則,那就是公正永遠是司法的目的和歸宿,任何智能化技術的發(fā)展都應當以此為風向標。
〔責任編輯:吳玲〕
[1]參見Bruce G. Buchanan, Thomas E. Headrick, "Some Speculation about Artificial Intelligence and Legal Reasoning", Law Review, 1970, 23(1).
[1]參見季衛(wèi)東:《人工智能時代的司法權(quán)之變》,《東方法學》2018年第1期。
[2]參見鄭戈:《人工智能與法律的未來》,《探索與爭鳴》2017年第10期。
[3]參見左衛(wèi)民:《AI法官的時代會到來嗎——基于中外司法人工智能的對比與展望》,《政法論壇》2021年第5期。
[4]孫慶春:《人工智能司法決策研究》,重慶大學博士論文2021年,第85頁。
[5]參見David J. Walton, Litigation and Trial Practice in the Era of Big Data, Litigation , 2015, 41, pp.55-58.
[6]左衛(wèi)民:《AI法官的時代會到來嗎——基于中外司法人工智能的對比與展望》,《政法論壇》2021年第5期。
[7]雷磊:《司法人工智能能否實現(xiàn)司法公正?》,《政法論叢》2022年第4期。
[1]哈特:《法律的概念》,張文顯、鄭成良等譯,中國大百科全書出版社1996年版,第155頁。
[2]中共中央宣傳部:《習近平新時代中國特色社會主義思想學習綱要》,人民出版社2019年版,第103頁。
[3]姚莉:《司法公正要素分析》,《法學研究》2003年第5期。
[4]何家弘:《司法公正論》,《中國法學》1999年第2期。
[5]魏斌:《司法人工智能融入司法改革的難題與路徑》,《現(xiàn)代法學》2021年第3期。
[6]參見M. Ethan Katsh,Orna Rabinovich-Einy, Digital Justice: Technology and the Internet of Disputes,Oxford University Press,2017, p.40。
[7]馬長山:《司法人工智能的重塑效應及其限度》,《法學研究》2020年第4期。
[1]波斯納:《正義/司法的經(jīng)濟學》,蘇力譯,中國政法大學出版社2002年版,第69頁。
[2]周強:《最高人民法院工作報告》,2021年3月8日,http://www.court.gov.cn/zixun-xiangqing-349601.html。
[1]克里斯蒂安·施塔克、趙靜:《論法律的價值證立之必要性》,《蘇州大學學報(社會科學版)》2022年第1期。
[2]卡爾·拉倫茨:《法學方法論(第六版)》,黃家鎮(zhèn)譯,商務印書館2020年版,第253頁。
[3]雷磊:《司法人工智能能否實現(xiàn)司法公正?》,《政法論叢》2022年第4期。
[1]S. G. Mayson, "Bias in,Bias Out", The Yale Law Journal, 2019, 128(8), pp.2122-2473.
[2]盧克·多梅爾:《算法時代:新經(jīng)濟的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第220頁。
[3]王文玉:《司法人工智能的可能空間、內(nèi)在限度與前景展望》,《東北大學學報(社會科學版)》2022年第3期。
[4]強世功:《法律人的城邦》,上海三聯(lián)書店2003年版,第23頁。
[1]伯爾曼:《法律與宗教》,梁治平譯,商務印書館2012年版,第59頁。
[1]陳靈峰:《司法人工智能的技術效應與應用邊界》,《求索》2021年第6期。
[2]米歇爾·克羅齊耶:《法令不能改變社會》,張月譯,格致出版社2008年版,第96頁。
[3]雷磊:《中國特色社會主義智慧法治建設論綱》,《中共中央黨校(國家行政學院)學報》2020年第1期。
[1]參見海姆·佩雷爾曼:《新修辭學》,楊貝譯,商務印書館2021年版,第25頁。