摘 要:是否有助于實現(xiàn)裁量正義關系到司法算法系統(tǒng)的應用上限和最終走向。形式正義和實質正義共同構成了裁量正義。司法算法決策通過提升裁量的一致性、中立性、客觀性和高效性水平助力形式正義的實現(xiàn),通過提升裁量的理性化水平助力實質正義的實現(xiàn)。但受科技應用自反性影響,司法算法決策會引發(fā)有違裁量正義要求的新風險:其一,和司法裁量權專屬性相沖突;其二,引發(fā)正當程序制度被虛置;其三,無法合理開展價值判斷;其四,司法責任難以適當分配。為此,需要遵循技術改進、實現(xiàn)人類法官和司法人工智能系統(tǒng)有機融合的進路,以提升司法算法裁量的優(yōu)質性和可信性。具體而言,應將“明確適用司法算法決策的裁量模塊,提升民眾和法官對司法算法系統(tǒng)建構的實質參與性,建立完善的監(jiān)督制度,充分保障當事人的訴訟權利以及建立合理的責任分配制度”作為應對司法算法決策背離裁量正義目標風險的主要方案。
關鍵詞:算法決策;人工智能;算法裁判;裁量正義;裁量權;權利保障
中圖分類號:D926;TP18 文章標志碼:A 文章編號:1006-6152(2024)06-0016-12
DOI:10.16388/j.cnki.cn42-1843/c.2024.06.002
近年來,隨著大數(shù)據(jù)、深度學習、區(qū)塊鏈、云計算等技術取得突破性發(fā)展,人工智能算法開始被應用到政府治理、商業(yè)競爭、治安維護、環(huán)境保護等諸多領域,并推動了這些領域的變革性發(fā)展。同樣的,人工智能算法也被應用到司法領域,并被視為推動司法現(xiàn)代化、高效化、公正化改革的重要契機。我國政府和法院也積極擁抱此次人工智能應用潮流,出臺了一系列政策文件以推動智慧法院、智慧司法轉型目標的實現(xiàn)。如最高人民法院發(fā)布的《關于加快建設智慧法院的意見》《人民法院第五個五年改革綱要(2019—2023)》,國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》等文件都提出了要創(chuàng)新發(fā)展信息技術和智能系統(tǒng),通過打造智慧平臺、智慧法院應用體系等方式推動司法審判體系和審判能力現(xiàn)代化改革目標的實現(xiàn)。
當前,積極探索和應用人工智能算法的主要動因之一在于推動司法正義的實現(xiàn)[1],而裁量正義無疑是司法正義最重要的組成部分,能否有助于裁量正義的實現(xiàn)在一定程度上決定著司法人工智能系統(tǒng)的應用上限和最終走向。但通過對現(xiàn)有研究的分析和總結可以發(fā)現(xiàn):一方面,當前關于司法人工智能的絕大多數(shù)研究都主要討論人工智能算法在司法領域的應用限度[2]和可能前景[3]問題,而將和裁量相關的內容作為研究例證。這類宏觀研究往往會因為忽視司法裁量的獨有特質而造成應對司法算法和裁量正義相沖突困境的方案缺乏針對性和可行性。另一方面,還有少數(shù)學者的研究涉及人工智能算法在司法裁量領域內的一些具體應用,如價值判斷[4]、推理輔助[5]等。這樣的微觀研究雖然關注到了司法裁量的某些具體特質,但裁量正義的實現(xiàn)是一個系統(tǒng)性工程,只關注其某一側面可能會造成片面評價司法人工智能算法發(fā)展前景的問題。因此,本文將以司法算法決策和裁量正義之間的沖突與融合為主題,對司法人工智能在實現(xiàn)裁量正義上的相關優(yōu)勢、可能風險以及應對策略展開系統(tǒng)化和全面性的分析,從而希望能夠彌補現(xiàn)有宏觀和微觀研究的不足,為我們更加客觀、理性地對待司法人工智能算法的發(fā)展前景提供助益。
一、司法算法決策在實現(xiàn)裁量正義上的優(yōu)勢
對于裁量正義而言,主要包含形式正義和實質正義兩個方面的內容。形式正義就是要求裁決者在最短的時間內,站在中立的立場以具有一致性的裁量標準得出裁量結論。其中裁量的高效性保障了正義的實現(xiàn)是及時的,裁量遵循一致性原則保障了裁量的平等性,裁決者立場的客觀性保障了裁量是符合公正要求的。實質正義則要求裁量是基于理性而展開,進而才能保障裁量的結果是契合社會正義認知、能夠得到社會公眾認同和接受的[6]。當前,對于人工智能算法可以全面提升司法裁決的高效性,理論界和實務界已經基本達成共識,并展開了較為全面的探索和論述。而對于人工智能算法在提升司法裁量的一致性、中立性和理性化方面,相關研究則較為薄弱。因此,本部分將對人工智能算法相較于傳統(tǒng)人類法官在這三個方面的裁量優(yōu)勢展開論述,以深化我們對人工智能算法在提升裁量正義方面的有益價值的認知。
其一,司法算法決策有助于實現(xiàn)裁量的一致性。同案同判原則通過法律統(tǒng)一適用的方式保障了司法裁判具有重復性、可預測性、權威性和平等性,能夠向社會釋放穩(wěn)定的行為規(guī)則信號,實現(xiàn)社會運行在可預期維度上的有序化,因而被視作實現(xiàn)裁量正義的基本要求。但由于受地域、文化、習俗、經濟水平、法官知識背景等差異的影響,不同法官在展開裁量時常會得出不同的裁量結論。因而,排除案外因素干擾,在“依法裁判”的維度上,法官不同裁量尺度的選擇是造成同案不同判的內在原因。歐文·費斯就指出,即便面對相同或類似的案件,每個裁判者的裁量都會有所差異,他們能夠輕易地,甚至是無意識地在發(fā)現(xiàn)法律規(guī)則原意的名義下,將自身的偏好施加于裁量結果之中[7]。
司法算法的應用便可以有效克服司法裁量同案不同判的頑疾。司法人工智能算法的基本運作原理是通過算法對海量裁判數(shù)據(jù)展開分析,發(fā)掘其中裁判要素之間的關系,并以此為基礎得出有關糾紛的確切描述。隨后,人工智能算法便能建立裁判模型,這一模型可以根據(jù)特定的描述得出與之相關的裁判結論。此外,當模型建構完成后,司法人工智能算法還會根據(jù)新的數(shù)據(jù)集不斷自動調試、自主學習、自我迭代,從而持續(xù)提升決策模型的精準性、魯棒性、科學性和可靠性[8]。由于擁有一致的要素抽取標準、統(tǒng)一的算法建模、流水化的操作程式,司法人工智能便可以憑借統(tǒng)一的裁量邏輯和標準,對相同或類似的裁量信息輸入給出相同或類似的信息輸出。這一決策邏輯可以有效避免因不同法官對法律規(guī)則和事實理解上的差異而引發(fā)裁量尺度不一致的風險,從而全面提升司法裁量的一致性,確保法律統(tǒng)一適用目標的實現(xiàn)[9]。此外,“人工智能算法的一個主要特征就是可以詳盡地描述組成最終結論的每一個細小的決定所依照的具體規(guī)則”[10],對由于法律的概括性和事實的多樣性而造成法官在涵攝過程中不可避免地引發(fā)同案不同判的難題而言,司法人工智能則可以通過充分發(fā)掘先例中裁量因子與裁量結論的相關組合,實現(xiàn)案件事實要素和法律規(guī)范之間的具體對應,以對法律規(guī)范和法律現(xiàn)象極致分解和細化的方式,消解對法律規(guī)范和案件事實之間的涵攝過程。法律涵攝過程的壓縮意味著司法裁量的空間和方向都被先例進一步固化,有助于全面提升司法裁量結論的一致性、確定性和可預測性。實踐中,貴州法院就通過對大數(shù)據(jù)的挖掘和分析,建立了以關鍵要素為基礎的裁判標準數(shù)據(jù)庫,并以此為基礎對類案和關聯(lián)案件展開預測,架構起了相應的裁判偏離預警機制。如若法官的裁判偏離預測結果達到一定程度,系統(tǒng)便會提醒法官或合議庭展開自查,院長、庭長等也可以對偏離度較高的案件展開審查,從而避免類案非類判現(xiàn)象的發(fā)生,充分保障了裁判尺度的統(tǒng)一性[11]。
其二,司法算法決策可以保障裁量的中立性和客觀性。司法裁量擔負著解釋、補充、校正和發(fā)展法律,引領社會正義,回應不同時期社會訴求的能動功能。此時,裁決者立場的中立性就關系到裁量結論的公正性和可接受性。對此,達瑪什卡指出,理想的裁決者應當處于白板狀態(tài),如果決策者對于當事人的法律辯論是一種保持開放狀態(tài)的空白接收器,那么糾紛解決的程序就會更加純粹,并且裁量也將在一個更高的水平上運轉[12]。然而,傳統(tǒng)法官在裁量時不但會受到個體認知、道德、直覺、偏見等主觀因素影響,還會受到上級干涉、社會輿論、人情關系等案外因素影響而偏離客觀、中立的立場。為此,我們設計了庭審公開制度、裁判文書公開制度、法官宣誓制度、司法責任制度、法官任職保障制度等,希望能夠提升法官裁量的獨立性和公正性。另一方面,由于裁量行為是在法律允許范圍內展開的,這也會造成法官的偏見或偏私往往在合法外衣的掩護下而難以察覺。所以,希望通過精密的外在制度建構監(jiān)督法官裁量立場的方法,因缺乏內在規(guī)制能力而陷入了困境。
司法人工智能則憑借自動化決策的優(yōu)勢,可以將外界干擾排除在司法裁量的循環(huán)過程之外,通過徹底改變裁量運轉流程的方式,保障了相關裁量過程的中立性和客觀性。自主學習、自動決策、全程留痕等特質都決定了司法人工智能在面對需要裁量的法律爭議和事實爭議時,會最大限度地以當前數(shù)據(jù)展現(xiàn)的、具有客觀性的法律語境和事實語境為參照,自主選擇出其中最具正當性和可靠性的裁量結論,有效排除了法官可能會因受案外因素影響而做出偏離中立立場的裁決的風險。對此,塔妮婭·索丁指出,法官會受到一系列主體因素,如進食時間和內容、是否疲勞、個體價值理念、對直覺的依賴程度、無意識的假定、個體情緒等的影響而做出不公正或武斷的裁量,而AI法官的引入將使這些問題不復存在[13]。
其三,司法算法決策可以提升裁量的理性化水平。司法裁量整合和對接法律與事實的過程也是一個法律意涵、事實信息、正義維度、知識證立的選擇過程,為了保障所得出的結論是契合社會正義期待的最優(yōu)解,這就要求司法裁量是基于理性而展開的。然而,受制于個體閱歷和精力的有限性、裁量的期限性、事實和法律的限定性以及認知的偏向性,法官的裁量往往是在特定時空內、特定信息獲取水平下展開的具有節(jié)制性和片面性的決斷。人工智能算法的使用則能夠通過聚合與分析海量案件裁量過程和結果的數(shù)據(jù)信息的方式,彌補法官信息獲取數(shù)量不足、數(shù)據(jù)分析能力不足、經驗累積程度不足以及社會影響預見不足等問題,從而全面提升司法裁量的科學性、周全性和系統(tǒng)性。
首先,借助于數(shù)學模型和強大算力的支持,人工智能算法可以實現(xiàn)多維矩陣運算,高效、準確地處理海量數(shù)據(jù),并對復雜和分散的數(shù)據(jù)進行結構性重組。這也就意味著它可以輕易學習和掌握蘊含于上億份裁判文書中的司法經驗和司法規(guī)律。并且,通過系統(tǒng)聯(lián)動和互通,司法人工智能還可以學習和累積跨學科、跨地域、跨文化的裁量知識,能夠有效彌補人類法官因知識獲取和分析能力不足而產生的裁量視野受限的困境。
其次,司法人工智能可以通過最大限度擬合先例中蘊含的法官裁量規(guī)律和經驗的方式,為案件提供基于法官群體理性和共同體背景的裁量結論,以法官整體理性的方式回應和化解法官在新型、疑難、復雜等案件裁量中可能存在的知識結構缺陷、思維方式固化和裁量理念滯后等問題。此外,盡管當前司法人工智能還處于初級發(fā)展階段,被定位為裁量輔助工具,但仍可以通過事先提供裁量結論的方式幫助法官回歸到論證機器裁量是否周全的“論證—決策”這一理性思維模式上,從而可以有效避免“決策—論證”模式加劇法官證實性偏見的風險[14]。
最后,具備預測能力的司法算法模型可以通過預測不同裁量結論可能引發(fā)的司法后果的方式,在多種可能的裁量結論假設中作出最契合社會正義理念和民眾正義認知的選擇,充分提升司法裁量的社會回應和社會引導能力。如馮蘭萍等人就基于EGM(1,1)模型和簡化粒子群算法(SPSO)建構了一種基于“政府干預—主流情緒引導”的群體情緒演化模型。實驗結果表明,這一模型可以刻畫不同情緒和政府干預強度對主流情緒的影響力,從而為政府干預決策提供可靠依據(jù)[15]。在熱點案件中,可以將這一模型用于司法裁量結論的輿情演化預測中,提升司法裁量對輿論的回應能力和引導能力。
二、司法算法決策和裁量正義的沖突
我們在應用算法技術以提升司法裁量理性化和科學化水平的同時,還需要面對因科技應用的自反性特質而引發(fā)的有違裁量正義要求的新風險。由于司法算法決策在技術發(fā)展、知識結構、權力形態(tài)、應用場景、認知理性等方面的內在限度,使得它在實現(xiàn)裁量正義目標上還存在諸多的缺陷與問題。因而我們有必要在技術發(fā)展還未產生“鎖定效應”之前及時對司法算法決策可能給實現(xiàn)裁量正義目標帶來的危害予以梳理和分析,為我們更加理性和客觀地看待司法算法裁量的可能空間與發(fā)展前景,提出更具有針對性和可行性的風險應對方案奠定基礎。
(一)和司法裁量權的專屬性相沖突
司法人工智能的應用可能引發(fā)司法裁量權被技術公司俘獲,進而危及裁量權專屬原則的風險。一方面,由于算法技術的復雜性、專業(yè)性、先進性,司法機構人員往往缺乏相關專業(yè)知識,所以,當前絕大多數(shù)司法人工智能系統(tǒng)都是由商業(yè)技術公司單獨或與法院合作開發(fā)的。實踐中,在簡單將司法人工智能系統(tǒng)仍視為輔助工具而不是重塑系統(tǒng)的慣性思維下,司法機關人員往往較少參與司法人工智能系統(tǒng)的需求提煉、方案設計、產品研發(fā)、審核修正甚至是試點運行等工作之中[16],這就造成技術公司實際上主導了司法人工智能系統(tǒng)的設計、運行和維護工作,技術公司在對裁量邏輯的編訂、規(guī)則要旨的提煉、數(shù)據(jù)要素的標注、知識圖譜的繪制、證據(jù)認定標準的制定、價值沖突的選擇過程中實際上行使了部分法官的裁量權,成為司法裁量的實際控制者之一。
另一方面,相關實證研究表明,“雖然我們明確地表達了將機器決策系統(tǒng)視為輔助性工具的想法,但在對自動化決策模型的信任、節(jié)省時間、減少思考負擔以及避免擔責風險等心理的影響下,即便參與者明確知曉自動化決策系統(tǒng)并不是完美無缺的,人們還是不自覺地傾向于信任自動化決策系統(tǒng)的結論”[17]。雖然當前司法人工智能系統(tǒng)被定義為法官裁量的輔助性工具,但在案多人少壓力、司法數(shù)字化管理壓力、社會輿論壓力、道德責任壓力等因素影響下,法官往往更加傾向于接受人工智能系統(tǒng)的裁量結論,而不是耗費更多的精力論證偏離機器裁量的理由以及承擔更加嚴格的裁量偏離審查風險。
在技術外包和依賴心理的雙重作用下,便會形成部分司法裁量權被技術公司所俘獲的事實。而技術公司俘獲司法裁量權是和司法裁量權專屬原則相沖突的,存在引發(fā)司法裁量權被濫用、人文關懷缺失、裁量標準離散化等風險。首先,司法裁量的權威性和合法性來自經過民眾或法律通過嚴格公開的程序授權。一方面,商業(yè)算法平臺裁量權的獲得不但并未經過民眾或法律通過嚴格、公開的程序授權,而且算法設計人員在相關法律的運作、糾紛的解決、社會正義理念的理解等司法專業(yè)技能方面往往也是缺失的,這就會造成商業(yè)平臺裁量權的行使缺乏正當性與規(guī)范性,其裁量結論的合法性和權威性也將面臨挑戰(zhàn)。另一方面,由于算法黑箱的存在以及與司法監(jiān)管制度的脫鉤,傳統(tǒng)監(jiān)管司法裁量的制度往往難以對算法商業(yè)平臺予以監(jiān)管,這就會造成受算法商業(yè)平臺所影響的裁量行為脫離監(jiān)管的問題。在權力濫用法則的影響下,缺失了監(jiān)管的裁量權的行使便極易受到外界干擾而偏離客觀、公正的軌道。
其次,司法裁量往往需要對法律規(guī)則進行解釋以契合案件特質,這一過程實際上就是對法律的發(fā)展、對社會正義理念的修正和引領的過程。這就要求司法裁量始終以社會正義理念為引領,以實現(xiàn)和保護人的尊嚴和價值為基本參照,以讓人民群眾在每一個司法案件中都感受到公平正義為目的。而商業(yè)平臺的行動邏輯則與之不同,它是以效率和經濟利益為主要價值追求的,這就可能會使商業(yè)算法平臺在對司法人工智能系統(tǒng)展開設計時簡單地將提升裁量效率和社會效益作為參照,從而引發(fā)司法裁量的公共屬性和人文關懷被損害的風險。
最后,算法商業(yè)平臺掌控司法裁量權還可能會引發(fā)司法裁量標準不一致的問題。實踐中,有學者就將同一起交通事故案件數(shù)據(jù)分別輸入兩個量刑輔助系統(tǒng),二者給出的刑期卻相差了四個月[18]。其原因在于,一方面,和法院統(tǒng)一領導的縱向管理模式不同的是,為不同法院設計算法系統(tǒng)的商業(yè)平臺之間對數(shù)據(jù)的篩選、對數(shù)據(jù)要素的標注、對決策模型的選取等不可避免地會存在一定的差異性;另一方面,為了保障在商業(yè)競爭中的優(yōu)勢,盡可能多地向不同法院出售司法人工智能系統(tǒng),商業(yè)平臺還會對所設計的司法人工智能算法的決策邏輯嚴格保密,通過強化算法黑箱的方式營造技術壁壘。這就會進一步加劇司法人工智能系統(tǒng)法律適用不統(tǒng)一、裁量標準不一致的難題。
(二)正當程序制度被虛置
裁量是一個辯駁和疏導的過程,需要遵循適當?shù)某绦蛞?guī)定以保障當事人能夠深度參與到法官決策的過程中,通過表達自身訴求、監(jiān)督裁量行為、參與裁量過程、影響法官決策、獲得合理解釋等方式消除內心的疑慮和困惑。然而,受技術的復雜性、算法迭代的自主性以及保護商業(yè)秘密需求的影響,司法人工智能算法系統(tǒng)運轉不可避免地呈現(xiàn)出黑箱化的特點。在司法人工智能算法黑箱的阻隔下,傳統(tǒng)程序正義制度也將面臨被虛置的命運。
一方面,雖然司法人工智能裁量具有中立性的特質,但研究表明,對程序公正是否認可以及對裁量結論的接受程度還和當事人的參與程度具有緊密聯(lián)系?!爱斒氯丝粗刈约涸跊Q策的過程中是否被重視,他們的社會地位和應有權利是否得到尊重,一旦當事人認為他們的語言或行為會對爭議結果產生影響時,相關參與效應就會顯現(xiàn),當事人也將更加樂意認可裁決者作出的決定?!保?9]而封閉的司法算法裁量卻會將當事人排除于決策過程之外,當事人既無法通過對證據(jù)展開質證、對行為予以辯解、對裁量幅度發(fā)表意見等方式表述自己的觀點和立場,也無法通過主體間對話、互動、協(xié)調等方式展開有意義的溝通和交流。
另一方面,司法裁量實際上是一種說理、論證的過程,只有將關涉裁量結論選擇的相關法理、事理、文理、情理予以詳盡說明,才能充分保障裁量結論的正當性、可接受性。然而司法人工智能系統(tǒng)的裁量是以大數(shù)據(jù)要素之間的相關關系而不是因果關系作為決策基礎邏輯的,這種數(shù)據(jù)要素聯(lián)結僅僅是以計量的方式將事件和法律后果相聯(lián)系,并不是在因果推理意義上以“理由—結論”的方式對待二者的,因而司法人工智能系統(tǒng)往往只能給出裁量的結論,卻無法解釋結論背后的理由[20]。正如舍恩伯格等人所指出的,人工智能時代,機器只會告訴我們“是什么”,卻無法告知我們“為什么”。我們只能讓數(shù)據(jù)自己發(fā)聲,而無須知道隱含于現(xiàn)象背后的原因[21]。但法治是理由之治,一旦當事人無法獲悉支撐裁量結論的理由,那么就意味著當事人對相關結論提出異議的權利也被一并剝奪,進而裁量結論的說服力和可接受性都將會因無法提供理由和論據(jù)而被嚴重削弱。
(三)價值判斷難題
需要裁量的案件往往是那些事實和法律不清,需要裁量者發(fā)揮主觀能動性展開事實還原和法律解釋從而彌合事實和法律之間間隙的案件。而在這一彌合的過程中,需要司法機關結合案件的具體內容、社會環(huán)境、常識、常情、常理等開展適當?shù)膬r值選擇、價值確認和價值引導,因而裁量活動是具有鮮明價值導向的司法活動。然而擅長于數(shù)據(jù)計量的司法人工智能在面對難以量化的價值選擇問題時,時常是無能為力的,其原因主要有以下幾點:
其一,司法裁量中的價值決斷是具有高度綜合性、系統(tǒng)性、社會性的事項,所遵循的圖譜是“法—理—情”相關聯(lián)的多維圖譜。因而,為了保障價值選擇的合理性和社會可接受性,裁量者在開展價值決斷時,時常需要考量社會情感、道德文化、風俗習慣、公共利益等價值因素。這些因素由于具有開放性、多元性、流動性、模糊性等特質,往往難以通過數(shù)據(jù)化的方式予以展現(xiàn)。這也就決定了以數(shù)字計量為基礎的司法人工智能對于這些案件往往是力所不逮的。
其二,由于法律價值具有多樣性、分層性和流動性,在具體個案的司法裁量中,難免會出現(xiàn)自由、平等、公正、人權等不同法律價值之間的沖突問題。由于不同價值準則之間并非存在天然的位階排序,個案的具體實情、當事人的不同立場、社會的不同發(fā)展階段等都有可能引發(fā)個案中相關價值排序的重大波動,因而,司法裁量中的價值選擇是一項充滿權益平衡策略的活動。由于司法人工智能算法的價值選擇位階排序是通過先例學習和人為選擇而被預先設定的,往往難以應對不同個案具體價值沖突中不斷變動的價值選擇需求。對此,托馬斯·F·戈登甚至認為,當前涉及法律推理的所有關系模型都無法取代法官的權宜平衡,并不存在可以解決所有價值沖突的終極算法[22]。實踐中,楊延超通過實證研究發(fā)現(xiàn),司法人工智能決策的正確率和判定事項的價值判斷占比呈反相關,人工智能更加擅長于諸如評價證據(jù)和客觀事實真?zhèn)蔚母呔S運算,而對于需要進行復雜推理的價值決斷事項,人工智能則表現(xiàn)出了較高的錯誤率[23]。
其三,受到算法設計人員價值取向、大數(shù)據(jù)中蘊含的社會偏見等因素影響,司法人工智能的裁量還不可避免地會產生歧視風險①。首先,雖然司法人工智能算法決策的過程是客觀中立的,但是負載價值判斷的裁量代碼確是被制造和選擇的。這也就意味著司法人工智能決策模型的選擇實質上是可控的,算法設計人員會有意無意地將自身的價值傾向通過編碼的方式嵌入司法人工智能系統(tǒng)之中,從而影響司法人工智能系統(tǒng)裁量的價值選擇傾向。如僅用于分類的算法就有神經網絡(BP)、模糊神經網絡(FNN)、自主適應神經網絡(ANFIS)等多種神經網絡模型[24],每種模型在不同場景下的決策邏輯和決策優(yōu)勢都存在一定的差異性,個體喜好、知識背景、認知范圍和情感偏好都有可能影響算法設計者的選擇,造成相關司法決策模型在裁量時偏離本應遵循的客觀中立立場。其次,因為反映社會運行狀態(tài),司法裁量選擇的大數(shù)據(jù)不可避免地會內涵人類社會所蘊含的偏見因子,在“偏見進則偏見出”定律[25]的影響下,司法人工智能算法也會挖掘和學習內涵于相關司法數(shù)據(jù)中的歧視要素,作出具有歧視性的裁量選擇。最后,司法人工智能系統(tǒng)的裁量歧視還具有系統(tǒng)性和反復性的特質,可能造成少數(shù)群體、數(shù)字弱勢群體被鎖定于算法決策循環(huán)之中,遭受反復歧視的風險。一方面,與在法官個體裁量中相關歧視的發(fā)生是個體的、局部的、分散的不同,司法人工智能決策歧視往往會呈現(xiàn)出規(guī)?;?、體系化和自動化的特質,所造成的危害后果具有長期性、規(guī)模性和反復性。另一方面,由于算法機制的互通性和擴散性,分享和學習類似數(shù)據(jù)的算法可能會對少數(shù)群體形成類似的歧視傾向,而一旦被困在算法決策循環(huán)之中并不斷被印證決策結果的正確性,那么少數(shù)弱勢群體便會被算法結構性鎖定,從而難以逃出被反復歧視的困境[26]。
(四)責任分配困境
司法人工智能介入案件裁量還會引發(fā)相關責任難以明確分配的困境。首先,司法人工智能的介入會引發(fā)責任主體多元化、責任分配復雜化的問題。一旦司法人工智能介入司法裁量活動,那么裁量結論出現(xiàn)違法或不當?shù)沫h(huán)節(jié)鏈便會被拉長,在這一決策鏈上,司法數(shù)據(jù)收集人員、算法設計人員、算法商業(yè)平臺、算法審計機構、司法機關、法官均有因自身過錯而導致錯判、誤判的可能性。由于算法決策系統(tǒng)的疊加性、交互性以及各主體對裁量結論影響力的分散性和隱蔽性,如何在復雜且多元的鏈條上界定擔責主體、分配相關責任將成為難題。
其次,在規(guī)避責任心態(tài)的影響下,不當?shù)呢熑畏峙浞桨高€存在加劇法官對司法人工智能系統(tǒng)裁量結論過度依賴或過度排斥心理的風險:如若完全要求司法人工智能系統(tǒng)設計者、生產者承擔全部責任,那么便可能會進一步加劇法官對人工智能系統(tǒng)的依賴性,危及司法裁量結論的可接受性和可信賴性。而如若要求法官承擔全部責任,則又存在加劇法官對司法人工智能系統(tǒng)的不信任性,阻礙智慧司法建設進程的風險[27]。
最后,由于虛置了裁量程序制度,司法算法裁量還存在無法依照程序規(guī)則展開追責,架空程序責任的問題。由于裁量正義具有浮動性和難以量化性,因而依照形式正義標準,通過審查裁量行為是否符合具有確定性、公開性、流程性的程序正義要求,是界定裁量責任的重要標準。當司法人工智能介入裁量過程之后,原有階段性的裁量決策程序便被具有自動化、瞬時性的機器裁量所取代,這也就意味著我們無法再參照程序規(guī)則這一具有明確性和可操作性的標準去界定裁量過程是否存在瑕疵,進一步加劇了相關責任認定、分配的復雜性和困難性。
三、司法算法決策實現(xiàn)裁量正義的前景展望
對于司法算法決策在實現(xiàn)裁量正義方面的缺陷,我們要做的不是悲觀地否定司法人工智能的應用,因為人類法官同樣會持有偏見、同樣也會犯錯[28],我們要做的是在最大限度發(fā)揮司法人工智能在實現(xiàn)裁量正義方面優(yōu)勢的同時,有效預防司法算法決策可能給裁量正義帶來的損害。對此,相關研究進路是清晰的:一方面,我們需要通過技術改進的方式,不斷優(yōu)化人工智能裁量的可靠性和科學性;另一方面,我們還需要加快人類法官和司法人工智能系統(tǒng)相互融合的進程,使二者能夠相互配合、相互補充,全面提升司法裁量的優(yōu)質性與可信賴性。
(一)明確適用司法算法決策的裁量模塊
將簡單案件交由司法人工智能處理,將疑難、新型、復雜案件仍交由人類法官處理已經基本上成為當前人工智能司法決策的共識[29]。然而對于需要開展裁量的案件而言,情況又有所不同。由于部分需要裁量的案件仍屬于簡單案件以及即便被歸屬為疑難、復雜的案件仍然有司法算法裁量的應用空間,因此,我們應當進一步精細化建構人機共同裁量的混合模式,通過分類化和模塊化的方式充分發(fā)揮和融合司法算法系統(tǒng)和人類法官各自的優(yōu)勢,最終為司法人工智能的精細化發(fā)展指明更具可行性的方向。
其一,我們應根據(jù)不同裁量案件的特質而列出清單,明確哪些案件更契合司法算法決策的特質。為此,本文嘗試給出一些基礎性標準。首先,那些更具結構化和計量化特質的案件更適宜由人工智能算法做出裁量,因為一方面,這些案件的相關數(shù)據(jù)信息往往因能夠計量而更加完善和全面,另一方面,這些案件也更契合人工智能的計算化特質。典型的如金融糾紛、網絡購物糾紛等數(shù)字化程度較高的案件就可以更多地依賴司法人工智能展開裁量。其次,當事雙方爭議不大的案件也可交由司法人工智能裁量。因為這類案件的事實和相關法律依據(jù)都較為清晰,雙方對裁量結論都有比較穩(wěn)定的預期,相關司法裁量也將承擔更少的說服、教育、引導等需要人類共情能力才能完成的說理任務。因而將此類案件交由人工智能裁量不但不會顯露出在價值判斷上的缺陷,而且即便出現(xiàn)誤差也很容易被發(fā)現(xiàn)和糾正。其中較為典型的,如認罪認罰從寬的案件就可以交由人工智能算法展開裁量。最后,對于那些糾紛金額較小或刑期較輕的案件可以交由人工智能裁量。不同于多數(shù)大額糾紛或重刑案件具有較強的個性化特征,諸如小額借貸、醉駕等糾紛金額較小或刑期較輕的案件往往具有多發(fā)性、類似性等特征,并且因為數(shù)量較多,其相關數(shù)據(jù)基數(shù)也更大,因而借助于機器學習對這些案件架構的裁判模型往往具有較高的魯棒性和容錯性[30]。
其二,我們還應結合技術發(fā)展的特質,通過模塊組合的方式,積極推動人類法官和司法人工智能系統(tǒng)相互配合開展裁量,以“司法產品生產線”的形式優(yōu)化案件的裁量工作。實際上在具體的裁量中,人類法官和司法算法以“全有或全無”的方式參與其中并不科學,在得出裁量結論的“生產線”上,我們可以充分挖掘和發(fā)揮人類法官和司法人工智能各自的優(yōu)勢而將之應用到不同的模塊之中,最終通過模塊組合的方式“生產出”當前技術背景下的裁量最優(yōu)解。如在刑事案件中,可以將定罪工作交由人類法官處理,而將那些具有結構化、可計算化特質的量刑工作交由主要通過量化賦值展開決策的司法人工智能系統(tǒng)來決定②。
其三,為了保障裁量結果的可靠性和可信賴性,我們可以通過優(yōu)化司法人工智能系統(tǒng)設計和應用的方式為法官創(chuàng)造友好、清晰、簡潔的裁量支撐界面,在保障司法裁量由法官主導下展開的同時,又能充分發(fā)揮司法人工智能的留痕、監(jiān)管、輔助、引導等作用。一方面,在案件裁量分類化、模塊化的模式下,司法人工智能系統(tǒng)的應用應當具有便捷性、操作界面應當具有簡潔性、裁量結論依據(jù)應當具有清晰性和可獲得性,才能在不過多增加法官額外學習、操作、修正系統(tǒng)工作量的同時,為法官的裁量提供豐富的、具有實質意義上的支撐。另一方面,司法人工智能系統(tǒng)還應當發(fā)揮引導法官展開理性裁量的功能。在相關裁量數(shù)字選擇環(huán)境的設計中,我們可以利用視覺的偏向性改變視覺選擇架構策略、選項介紹方式、選擇內容分布甚至是字體設計等,打造個性化的選擇環(huán)境,讓相關裁量完成的過程不再過于簡單化和直覺化,從而提醒甚至引導法官在自主理性的指引下做出更加穩(wěn)妥和明智的裁量選擇[31]。
(二)提升民眾和法官對司法算法系統(tǒng)建構的實質參與性
司法人工智能裁量的可控性不足以及司法人工智能系統(tǒng)建構過程中相關主體的參與度不足是司法算法裁量可信賴性不足的重要誘因。為此,一方面,我們可以通過完善論證、聽證制度等方式將相關程序性事項前置,從而提升民眾和司法人員對司法人工智能算法模型建構的參與度。雖然由于算法黑箱的存在,司法人員和民眾無法有效參與到算法決策的過程之中,但通過提升司法人員和民眾對算法設計過程參與度的方式可以實現(xiàn)參與程序的前移,彌補司法算法決策所引發(fā)的民眾和司法人員對裁量過程的感知和控制能力不足的缺陷。具體而言,在司法人工智能系統(tǒng)建構過程中以及投入使用前,可以通過召開專家論證會、聽證會等方式,廣泛要求民眾代表、專家代表、司法機構代表等對司法人工智能系統(tǒng)的可靠性、科學性、準確性等展開聽證。為了保障聽證人員對司法人工智能系統(tǒng)建構的實質參與性,應當予以算法設計機構或人員解釋說明義務。相關設計人員或機構應當就算法模型類型的選擇、訓練數(shù)據(jù)集的選擇與標注、算法裁量基準的選定、算法決策邏輯的設定、法律規(guī)則代碼的轉譯方式、算法準確性的測試結果、算法決策結論是否存在歧視風險等以普通民眾可以理解的方式予以說明。
另一方面,我們還應當通過提升司法機關人員算法認知能力的方式進一步強化司法人員對相關算法建構、運行和維護流程的參與度。強化司法機關對司法人工智能系統(tǒng)設計和運行的參與度不但是減輕法官對算法系統(tǒng)的技術依賴、防范司法權被不當攫取、保障司法機關主導司法裁量的重要方案,也是保障司法人工智能系統(tǒng)的裁量符合司法理念、契合司法目的、遵循司法規(guī)律的重要方面。短期來看,我們可以通過技術培訓的方式,提升司法機關人員對司法人工智能系統(tǒng)的認知和操作能力,保障司法人員擁有最低限度的識別、應用、監(jiān)督和糾正能力。長遠來看,我們需要通過積極培育計算機專業(yè)和法律專業(yè)復合型人才的方式,推動法律工程師等人才的培養(yǎng)。只有大量的復合型人才進入司法系統(tǒng)并主導和監(jiān)管司法人工智能算法的建構、維護工作,才能夠保障司法人工智能算法契合司法運行的規(guī)律,同時也是體現(xiàn)司法系統(tǒng)主導司法裁量、避免司法裁量權被商業(yè)算法平臺俘獲的重要方式。
(三)建立完善的監(jiān)管制度
在司法人工智能系統(tǒng)已經開始被大規(guī)模應用于司法審判、管理工作的背景下,當前有必要建構一個統(tǒng)一、權威的司法人工智能系統(tǒng)審查機構對相關司法人工智能系統(tǒng)的研發(fā)、應用展開監(jiān)管,保障司法人工智能系統(tǒng)法律適用的統(tǒng)一性、裁量標準的一致性、裁量結論的科學性。此外,由法院主導設立的司法人工智能審查機構制定審查標準、決定算法系統(tǒng)能否投入使用,實質上也意味著司法裁量權最終歸屬于法院,從而緩解司法人工智能系統(tǒng)外包建構有違司法裁量權專屬性的困境。
在借鑒相關實踐經驗的基礎上,為了保障人工智能裁量正義的實現(xiàn),本文將嘗試就司法人工智能審查機構的基本運轉方式展開架構:其一,在審查啟動的方式上,當司法人工智能系統(tǒng)設計完成后,都應當事先交由統(tǒng)一的司法人工智能審查機構展開審查,只有通過相關審查的系統(tǒng)才能夠被投入到司法裁量實踐應用中去。此外,我們還應當建立常態(tài)化的監(jiān)管機制,在相關算法投入使用后,審查機構仍應當通過定期檢測、隨機抽樣的方式對相關司法算法裁量的正義性展開監(jiān)管。其二,在審查的內容上,審查機構可以事先制定相應的審查標準,對相關算法展開審查,統(tǒng)一的、事先確定的審查標準有助于避免不同司法人工智能系統(tǒng)裁量標準不一致性的問題。在審查中,監(jiān)管機構既要審查相關司法算法系統(tǒng)的設定是否契合算法設計目標、是否存在算法歧視、是否過于追求效率而忽視公平、是否有違司法裁量規(guī)律等事項,還應當通過黑盒測試的方式,隨機選取數(shù)據(jù)庫中的數(shù)據(jù)對系統(tǒng)的裁量結論是否在合理的誤差范圍內進行審查。其三,在審查的后果上,對于那些有違裁量正義要求的司法人工智能系統(tǒng)應當及時停止使用,并要求相關算法設計機構對算法漏洞、算法錯誤、算法誤差等予以補正。只有待相關問題解決并經過復查之后,司法人工智能系統(tǒng)才能夠被投入到司法裁量實踐應用之中。其四,監(jiān)管機構還應當善于使用技術手段提升對相關算法裁量公正性的監(jiān)管效果。又如,監(jiān)管機構可以在算法決策的關鍵節(jié)點設置“倫理安全閥”,當司法人工智能算法可能做出有違倫理安全準則或處理不屬于它應對的裁量事項時,便會自動觸發(fā)熔斷機制。此時,系統(tǒng)便只能將裁量事項交由人類法官處理,從而保障了司法算法決策是在可控的倫理安全范圍內展開的[32]。
(四)充分保障當事人的訴訟權利
為了緩解原有程序制度失靈造成當事人合理訴權被侵害的困境,我們還應當圍繞司法算法決策的新動向建構相應的訴訟程序制度以保障當事人能夠充分參與司法裁量過程、獲得明晰的裁量結論解釋以及得到有效的救濟。在具體的制度建構上,其一,應當保障當事人對司法人工智能裁量的選擇權、上訴權和申請審查權。首先,如若在一審案件中使用司法人工系統(tǒng)進行裁量,應當事先將這一系統(tǒng)的使用告知當事人。此時,當事人可以選擇是否接受由人工智能做出裁量,如若當事人拒絕,則應當由人類法官做出裁量。其次,如若一審由司法人工智能做出裁量后,當事人提起二審或法院依程序啟動再審,此時則只能由人類法官做出裁量。這是由于司法人工智能系統(tǒng)具有一致性,如若二審或再審中還使用這一系統(tǒng),在決策邏輯不變的情形下仍然會得出相同的裁量結論,這就違背了二審或再審糾偏的用意。由法官掌控二審裁量的決策權也保障了裁量權最終仍然是歸屬于司法機關而不是算法商業(yè)平臺的。最后,當事人如若對司法人工智能系統(tǒng)裁量的公正性和合理性有質疑,還可以要求算法審查監(jiān)管機構對相關算法進行審查。算法審查監(jiān)管機構在收到相關審查申請后,有義務對相關算法展開審查,并將審查結果告知申請人。
其二,保障當事人獲得人工智能裁量結論解釋的相關權利。一方面,我們應當提升人工智能系統(tǒng)的交互性和可視化水平。在司法人工智能系統(tǒng)設計的過程中,應當充分考慮到對于社會公眾尤其是對于那些學習、掌控、認知數(shù)字技術能力不足的數(shù)字弱勢群體的友好性程度,積極幫助他們更好地將自身的訴求、辯解反饋到司法人工智能系統(tǒng)之中,保障相關算法決策的可接近性、可控制性和可參與性。另一方面,司法人工智能系統(tǒng)在給出裁量結論的同時,還應當通過圖表、思維導圖等方式一并給出影響裁量結論的相關要素考量比重,使當事人理解算法的決策邏輯和依據(jù)。如我們可以借助研究者開發(fā)的“概念激活向量定量測試算法”(TCVA),將影響裁量結果的相關因素通過量化賦值的方式予以顯示,幫助當事人直觀地了解司法人工智能系統(tǒng)內部的運行狀態(tài)[33]。
其三,我們還應當保障當事人能夠得到專家?guī)椭?,獲得平等訴訟地位的權利。無論是在民事訴訟還是刑事訴訟中,處于知識、經濟、認知等方面弱勢地位的當事人都可能因難以了解和掌握相關算法的裁量邏輯而處于訴訟劣勢之中,這就造成了當事人訴訟能力之間的不平衡,違背了裁量正義實現(xiàn)的基本要求。為此,一方面,我們應當積極強化對律師的培訓,幫助律師群體熟悉和掌握司法人工智能裁量的基本原理和可能風險,通過提升律師辯護能力的方式保障當事人的訴訟權利[34];另一方面,我們還可以借鑒法律援助制度,為需要獲取技術指導和技術支持而又無法支付費用的當事人提供專家援助。一旦當事人在司法審判過程中申請專家輔助以避免因自身缺乏司法人工智能裁量相關知識而處于不利地位時,便可以由監(jiān)管機構派出相關專家予以支持。
(五)建立合理的責任分配制度
責任分配制度是避免責任推諉、推動裁量主體認真對待裁量行為的重要制度,合理的責任分配制度可以有效提升裁量結論的可信賴性。對此,本文認為,首先應當將裁量違法或不當?shù)呢熑谓挥煞ㄔ撼袚F湟?,由法院首先擔責契合裁量權專屬原則,無論是誰主導了裁量結論的形成,最終都是以法院名義發(fā)出并由法院的權威作為裁量結論合法性和強制性背書的,因而由法院擔責更具正當性和合法性;其二,和算法設計機構以及算法設計人員擔責相比,要求法院擔責無疑能夠減少受害人舉證或辨析擔責主體的負擔,從而提升維權成功的概率;其三,法院既是使用人工智能算法裁量的最大獲利者,也擁有著更強的經濟實力,由法院擔責更具經濟上的合理性[35]。
法院承擔相應的責任并不意味著責任分配的完結,為此,我們可以通過在算法系統(tǒng)中預先埋入審計線索的方式,以保障司法人工智能系統(tǒng)能夠全程記錄法官和系統(tǒng)的裁量過程,進而以此為基礎確定人類法官、司法人工智能系統(tǒng)以及司法人工智能系統(tǒng)設計者的相關工作對裁量結論的貢獻比例,應對混合裁量可能造成的相關責任比例無法確定的難題。此外,在人工智能系統(tǒng)已經被大規(guī)模使用的今天,我們也應當適時引入保險制度。對于參與司法裁量的人工智能系統(tǒng)而言,法院在購買相關系統(tǒng)時,應當要求算法供應商購買一定數(shù)額的保險,在出現(xiàn)需要損害賠償?shù)膯栴}時,由保險公司進行賠償。雖然保險制度的引入可能會增加算法供應商的生產成本,但也會起到激勵供應商提升算法決策可靠性的作用。如若所設計的算法出錯的概率越小,那么相應的保費就會越低,相關司法人工智能算法的總體成本也會越低,這樣在市場競爭中的優(yōu)勢就會越明顯。長遠來看,保險制度的存在并沒有過度增加司法人工智能算法供應商的生產成本,反而還有效推動了市場的良性競爭,最終有助于提升相關司法人工智能算法的可靠性和優(yōu)質性。
四、結 語
隨著司法人工智能技術的不斷探索和成熟應用,和司法裁量之間的深度融合已經成為不可阻擋的趨勢和潮流,然而如何實現(xiàn)二者的有機融合并降低相關負面影響是我們需要認真對待的問題。首先,我們應當肯定司法算法決策對司法裁量的賦能效應,在提升司法裁量中立性、一致性和理性化水平的同時,也推動著司法裁量理念和方式的轉型,為更加接近裁量正義目標提供了支撐。其次,我們還應當認識到司法算法決策存在著違背程序正義、和裁量權的專屬性相沖突、價值判斷片面、價值歧視、難以合理分配責任等背離裁量正義目標的問題。這就要求我們客觀看待司法人工智能的應用成效和風險。一方面,二者之間的邏輯并不存在沖突,無論是成效還是風險都是技術應用所展現(xiàn)的一個側面。如對于客觀性和中立性而言,雖然司法人工智能憑借機器決策邏輯可以克服人類法官的主觀偏向,但機器本身的設定以及學習數(shù)據(jù)的映射又會產生新的歧視問題。另一方面,我們也不能因噎廢食,而是應當直面現(xiàn)有問題,不斷地通過技術改進以及細化和優(yōu)化融合機制的方式,提升人工智能系統(tǒng)應用的可靠性和可信性。最后,我們有必要及時調整現(xiàn)有司法制度架構、司法運行機制以及司法人工智能介入司法裁量的思路,緩解司法算法決策和裁量正義之間的沖突,推動二者的有機融合。第一,通過清單制度,明確不同類型案件和司法算法決策的適配度;通過司法模塊組合的方式,以“司法產品生產流水線”的形式推動裁量最優(yōu)解的獲得;以為法官和當事人提供清晰、友好、簡潔的應用界面為目的而持續(xù)優(yōu)化相關系統(tǒng)的設計和應用。第二,通過民眾和司法人員介入司法人工智能算法模型建構的方式,實現(xiàn)裁量介入程序的前移;通過提升司法人員數(shù)字素養(yǎng)的方式保障司法人員在算法建構、運行、維護流程中的參與度。第三,建立統(tǒng)一的司法人工智能審查機構并明確和優(yōu)化審查啟動方式、審查內容、審查后果,對司法人工智能系統(tǒng)展開全流程審查。第四,充分保障當事人對人工智能裁量的選擇權、申請審查權、獲得解釋權、得到專家?guī)椭鷻?,并通過圖表、思維導圖等方式幫助當事人能夠真正理解算法的決策邏輯和依據(jù)。第五,將裁量違法或不當?shù)呢熑问紫冉挥煞ㄔ撼袚?,其后再根?jù)預先埋入的審計線索而確定不同主體的責任分配比例??傊?,只有司法算法決策的發(fā)展和應用遵循節(jié)制性和有序性原則,才能幫助我們理性地梳理和重構算法時代的司法文明圖景,最終保障算法技術發(fā)展和應用在助益裁量正義實現(xiàn)的軌道上行穩(wěn)致遠。
注釋:
① 這里的算法歧視問題和本文第一部分所提出的算法決策的客觀性表面看存在一定的張力,但實際上二者之間并不矛盾:算法裁量的客觀性是相對法官裁量而言的,它可以排除外界對法官裁量的干擾,并避免法官個體認知、直覺、偏見等主觀因素對裁量結論的影響。但這并不意味著使用算法決策就能夠完全避免歧視問題,其原因在于算法設計人員和算法學習數(shù)據(jù)中蘊含的歧視因素會被映射到算法之中??梢钥闯?,對于裁量客觀性產生的影響,二者是從不同角度展開的,實際上并不沖突。并且本文也多次提出,我們應當辯證看待算法決策對于裁量正義的實現(xiàn)價值,在帶來改良契機的同時,還會引發(fā)新的問題。同樣的,本部分中關于算法黑箱、算法裁量差異性問題的論述和第一部分相關算法決策優(yōu)勢論述之間的張力問題,也是遵循這一邏輯的。
② 關于定罪量刑程序,存在英美法系的定罪量刑分離模式和大陸法系的定罪量刑混合模式。典型的,美國法院在一些刑事案件中會由陪審團、治安法官對被指控事實和罪名事先予以認定,而后法官再單獨展開量刑聽證以確定刑罰。雖然我國采取的是混合模式,但在法院量刑規(guī)范化改革中,已經表現(xiàn)出了要保障法官聽取控辯雙方量刑意見、探索建立相對獨立的量刑程序的傾向。國外被踐行的分離模式以及我國的量刑規(guī)范化改革為本文提出的部分案件定罪工作交由法官、量刑工作交由司法算法系統(tǒng)的設想提供了實施可能性支撐。
參考文獻:
[1] 魏斌.司法人工智能融入司法改革的難題與路徑[J].現(xiàn)代法學,2021(3):3-23.
[2] 孫海波.反思智能化裁判的可能及限度[J].國家檢察官學院學報,2020(5):80-99.
[3] 左衛(wèi)民.從通用化走向專門化:反思中國司法人工智能的運用[J].法學論壇,2020(2):17-23.
[4] 彭中禮.司法人工智能中的價值判斷[J].四川大學學報(哲學社會科學版),2021(1):160-172.
[5] 王竹.司法人工智能推理輔助的“準三段論”實現(xiàn)路徑[J].政法論壇,2022(5):28-39.
[6] 蔡衛(wèi)忠,王文玉.以裁量正義提升司法公信力問題研究[J].中州學刊,2019(12):62-67.
[7] 歐文·費斯.如法所能[M].師帥,譯.北京:中國政法大學出版社,2008:13.
[8] Sandra Wachter,Brent Mittelstadt.A Right to Reasonable Inferences: Re-thinking Data Protection Law in the Age of Big Data and AI[J].Columbia Business Law Review,2019(2):494-620.
[9] 馬長山.司法人工智能的重塑效應及其限度[J].法學研究,2022(4):23-40.
[10] 盧克·多梅爾.算法時代: 新經濟的新引擎[M].胡小銳,等,譯.北京:中信出版社,2016:139.
[11] 貴州省高級人民法院.探索“類案類判”機制 確保法律適用統(tǒng)一[N].人民法院報,2018-01-26.
[12] 米爾伊安·R·達瑪什卡.司法和國家權力的多種面孔[M].鄭戈,譯.北京:中國政法大學出版社,2015:181.
[13] Tania Sourdin.Judge V Robot:Artificial Intelligence and Judicial Decision-Making[J].UNSW Law Journal ,2018(4):1114-1133.
[14] 王文玉.司法人工智能:實現(xiàn)裁判正義的新路徑[J].大連理工大學學報(社會科學版),2022(6):100-109.
[15] 馮蘭萍,嚴雪,程鐵軍.基于政府干預和主流情緒的突發(fā)事件網絡輿情群體負面情緒演化研究[J].情報雜志,2021(6):143-155.
[16] 劉品新.智慧司法的中國創(chuàng)新[J].國家檢察官學院學報,2021(3):81-101.
[17] Linda J Skitka,Kathleen Mosier,Mark D Burdick.Accountability and Automation Bias[J].International Journal of Human-Computer Studies,2000(52):701-717.
[18] 聶友倫.人工智能司法的三重矛盾[J].浙江工商大學學報,2022(2):66-75.
[19] Tom R Tyler.Social Justice:Outcome and Procedure[J].International Journal of Psychology,2000(2):117-125.
[20] 馮潔.大數(shù)據(jù)時代的裁判思維[J].現(xiàn)代法學,2021(3):41-55.
[21] 維克托·邁爾-舍恩伯格,肯尼思·庫克耶.大數(shù)據(jù)時代[M].盛楊燕,周濤,譯.杭州:浙江人民出版社,2013:19.
[22] 托馬斯·F·戈登.訴答博弈:程序性公正的人工智能模型[M].周志榮,譯.北京:中國政法大學出版社,2018:8.
[23] 楊延超.算法裁判的理論建構及路徑選擇:基于若干人工智能實驗的啟示[J].治理研究,2022(4):108-122.
[24] 楊劍鋒,喬佩蕊,李永梅,等.機器學習分類問題及算法研究綜述[J].統(tǒng)計與決策,2019(6):36-40.
[25] Sandra G Mayson.Bias In,Bias Out[J].Yale Law Journal,2019(8):2218-2300.
[26] Danielle Keats Citron,F(xiàn)rank Pasquale.The Scored Society: Due Process for Automated Predictions[J].Washington Law Review,2014(89):1-33.
[27] 張凌寒.智慧司法中技術依賴的隱憂及應對[J].法制與社會發(fā)展,2022(4):180-200.
[28] 陳銳,孫慶春.人工智能司法決策的合法性辨疑[J].西安交通大學學報(社會科學版),2021(3):123-130.
[29] 鄭曦.人工智能技術在司法裁判中的運用及規(guī)制[J].中外法學,2020(3):674-696.
[30] 胡銘,宋靈珊.“人工+智能”:司法智能化改革的基本邏輯[J].浙江學刊,2021(2):12-23.
[31] Ayelet Sela.E-Nudging Justice: The Role of Digital Choice Architecture in Online Courts[J].Journal of Dispute Resolution,2019(2): 127-164.
[32] 柳亦博.人工智能陰影下:政府大數(shù)據(jù)治理中的倫理困境[J].行政論壇,2018(3):97-103.
[33] Been Kim, Martin Wattenberg,Justin Gilmer,et al.Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)[EB/OL].(2018-06-07)[2024-03-17].https://arxiv.org/pdf/1711.11279.pdf,2018.
[34] 陳俊宇.司法程序中的人工智能技術:現(xiàn)實風險、功能定位與規(guī)制措施[J].江漢論壇,2021(11):99-104.
[35] 王文玉.算法嵌入政府治理的優(yōu)勢、挑戰(zhàn)與法律規(guī)制[J].華中科技大學學報(社會科學版),2021(4):26-36.
責任編輯:鄭曉艷
(E-mail:zxyfly@ 126. com)
收稿日期:2024 - 04 - 22 本刊網址·在線期刊:http://qks. jhun. edu. cn/jhxs
基金項目:國家社科基金項目“常識常理常情融入司法裁判的法律方法論研究”(22BFX012);教育部人文社會科學重點研究基地重大項目“習近平總書記關于科技與法治發(fā)展重要論述研究”(22JJD820004)
作者簡介:王文玉,男,河南商丘人,西南大學法學院講師,博士,E-mail:wangwenyu199201@163.com。