卞建林
內(nèi)容提要:智能審判系統(tǒng)存在出現(xiàn)錯(cuò)誤的可能,運(yùn)用智能系統(tǒng)進(jìn)行司法裁判與傳統(tǒng)自然人法官審判相同,面臨審判責(zé)任承擔(dān)問題。人工智能審判系統(tǒng)的研發(fā)適用對(duì)現(xiàn)行司法責(zé)任制的核心影響在于沖擊了 “審理者裁判、裁判者負(fù)責(zé)” 原則,導(dǎo)致審判權(quán)責(zé)主體模糊,責(zé)任追究機(jī)制面臨審判人員與技術(shù)人員之間責(zé)任難以界分、過錯(cuò)歸責(zé)實(shí)現(xiàn)困難等現(xiàn)實(shí)障礙。為應(yīng)對(duì)人工智能介入司法裁判后的審判責(zé)任問題,應(yīng)逐步構(gòu)建面向?qū)徟腥斯ぶ悄艿乃痉ㄘ?zé)任機(jī)制,即明確人工智能裁判責(zé)任體系中的責(zé)任主體;擴(kuò)充審判責(zé)任內(nèi)涵,確立機(jī)器責(zé)任概念,明確自然人法官、智能系統(tǒng)和技術(shù)人員之間的責(zé)任分配。同時(shí),完善相關(guān)的輔助配套機(jī)制,即建立專門的智能司法系統(tǒng)監(jiān)督機(jī)構(gòu)、強(qiáng)化人機(jī)協(xié)同的裁判文書說理機(jī)制,以及規(guī)范人工智能技術(shù)輔助審判下的監(jiān)督考核機(jī)制。
人工智能在法律領(lǐng)域的應(yīng)用已經(jīng)歷六十余年發(fā)展,人工智能技術(shù)介入司法領(lǐng)域的程度日益加深。智能審判系統(tǒng)①為討論的方便,本文對(duì)智能審判的相關(guān)討論,均以刑事智能司法審判作為標(biāo)靶,特此說明。作為人工智能介入審判活動(dòng)的典型代表,在提升司法效率、減輕司法人員工作負(fù)擔(dān)層面成效明顯。在獲享智能審判系統(tǒng)提高辦案精度和效度的同時(shí),智能審判也面臨系統(tǒng)內(nèi)生風(fēng)險(xiǎn)引發(fā)的責(zé)任問題。人工智能審判依智能化程度可以分為弱人工智能審判與強(qiáng)人工智能審判兩種樣態(tài)。弱人工智能審判屬于司法輔助技術(shù),強(qiáng)人工智能審判則以 “深度學(xué)習(xí)” 式裁判方法為主要模式,通過 “計(jì)算機(jī)語言+法律規(guī)范的算法化=裁判” 路徑實(shí)現(xiàn)智能機(jī)器自主意識(shí)下的案件審判。②參見胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,載 《東南學(xué)術(shù)》 2020 年第1 期,第214 頁。無論是輔助型還是自主決策型法律智能系統(tǒng),都會(huì)直接或間接地產(chǎn)生審判責(zé)任的相關(guān)問題,③參見周尚君、伍茜:《人工智能司法決策的可能與限度》,載 《華東政法大學(xué)學(xué)報(bào)》 2019 年第1 期,第61 頁。即智能系統(tǒng)部分或完全侵蝕自然人法官作為司法裁判主體的地位,輔助或自主進(jìn)行司法決策,囿于司法數(shù)據(jù)基礎(chǔ)薄弱、算法隱蔽且存在偏見等客觀因素,人工智能審判系統(tǒng)存在誤判風(fēng)險(xiǎn)。如同自動(dòng)駕駛對(duì)侵權(quán)責(zé)任分配帶來的主體權(quán)責(zé)變更,司法審判中人工智能裁判出現(xiàn)誤判也面臨司法責(zé)任分割與轉(zhuǎn)移的問題,本文所討論的司法責(zé)任為法院系統(tǒng)在審判活動(dòng)中產(chǎn)生的辦案責(zé)任,即審判責(zé)任。如何在司法智能系統(tǒng)參與或主導(dǎo)司法裁決過程中合理分配審判責(zé)任,并非是對(duì)人工智能介入司法裁判領(lǐng)域出現(xiàn)誤差的預(yù)設(shè)性討論,而是基于目前人工智能已經(jīng)介入司法裁判領(lǐng)域且缺失存在誤判風(fēng)險(xiǎn)的現(xiàn)實(shí)情況所進(jìn)行的必要研究。人工智能系統(tǒng)參與司法工作出現(xiàn)錯(cuò)誤后的責(zé)任承擔(dān)問題,是我國(guó)司法系統(tǒng)智能化進(jìn)程中必然面臨的問題。
近年來我國(guó)積極推動(dòng)各地智慧法院建設(shè),對(duì)人工智能應(yīng)用于司法的定位是“提高效率、輔助辦案”,實(shí)踐中主要有辦案信息電子數(shù)據(jù)化、辦案輔助系統(tǒng)的智能化、實(shí)體裁判的預(yù)測(cè)與監(jiān)督、證據(jù)標(biāo)準(zhǔn)統(tǒng)一與電子化等形式。④參見左衛(wèi)民:《關(guān)于法律人工智能在中國(guó)運(yùn)用前景的若干思考》,載 《清華法學(xué)》 2018 年第2 期,第113-114 頁。依智能系統(tǒng)涵蓋的功能,將其分為辦案電子化與數(shù)據(jù)化系統(tǒng)、單項(xiàng)性審判智能輔助系統(tǒng)、綜合性審判智能輔助系統(tǒng)(見表1)。應(yīng)用于我國(guó)現(xiàn)實(shí)司法實(shí)踐的智能輔助系統(tǒng)尚處于弱人工智能裁判階段并著眼于提供司法輔助技術(shù),但人工智能研發(fā)領(lǐng)域的探索與進(jìn)步并未止步于此,其發(fā)展方向在于實(shí)現(xiàn)法律與科技的深度融合,實(shí)現(xiàn)法律智能系統(tǒng)的高度智能化。目前人工智能審判的現(xiàn)實(shí)應(yīng)用已經(jīng)在一定程度上對(duì)自然人法官獨(dú)立行使審判權(quán)造成侵蝕,人工智能輔助司法裁判領(lǐng)域案件裁決存在誤判風(fēng)險(xiǎn)。
表1 法院智能辦案系統(tǒng)分類
在責(zé)任溯源層面,人工智能侵蝕審判權(quán)始于智能技術(shù)外包模式下的審判權(quán)分割,即法院智能辦案系統(tǒng)由法院與科技公司共同開發(fā),研發(fā)過程中的技術(shù)外包導(dǎo)致審判權(quán)部分外包,審判權(quán)權(quán)力主體由單一向多元的轉(zhuǎn)化會(huì)削弱審判權(quán)獨(dú)占原則。囿于人工智能系統(tǒng)領(lǐng)域的專業(yè)知識(shí)性與高度技術(shù)性,司法機(jī)關(guān)難以獨(dú)立研發(fā)法院智能辦案系統(tǒng),故往往采取技術(shù)外包形式,與科技公司協(xié)作開發(fā)。司法機(jī)關(guān)向數(shù)據(jù)服務(wù)商、科技公司等主體提供司法數(shù)據(jù),技術(shù)公司依據(jù)司法機(jī)關(guān)對(duì)智能系統(tǒng)運(yùn)作須達(dá)到的目標(biāo)要求進(jìn)行設(shè)計(jì)研發(fā),旨在提供智能辦案系統(tǒng)所需的專業(yè)技術(shù)。⑤參見衛(wèi)晨曙:《刑事審判人工智能的權(quán)力邏輯》,載 《西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》 2021 年第3 期,第144 頁。近期開發(fā)適用的法院智能辦案系統(tǒng)多為法院與科技公司聯(lián)合開發(fā)。智能系統(tǒng)研發(fā)中的技術(shù)外包很大程度上會(huì)導(dǎo)致審判權(quán)力的部分外包,程序員、軟件工程師、數(shù)據(jù)處理商、信息技術(shù)公司等多個(gè)非司法主體對(duì)海量司法數(shù)據(jù)進(jìn)行處理,設(shè)計(jì)算法以實(shí)現(xiàn)智能系統(tǒng)運(yùn)行。在智能系統(tǒng)研發(fā)過程中,司法機(jī)關(guān)提供司法數(shù)據(jù)僅能把握數(shù)據(jù)輸入環(huán)節(jié),即智能系統(tǒng)生成 “原料” 部分,但對(duì)算法設(shè)計(jì)這一“加工” 環(huán)節(jié)無力把控,中間環(huán)節(jié)參與度缺失會(huì)導(dǎo)致司法機(jī)關(guān)對(duì)輸出環(huán)節(jié)缺乏影響力。算法以去個(gè)性化、去價(jià)值化方式運(yùn)行,但是算法的設(shè)計(jì)者是有主觀價(jià)值判斷的自然人主體,其在數(shù)據(jù)選用、模型建構(gòu)中融入價(jià)值判斷是不可避免的現(xiàn)實(shí)。⑥參見卞建林、錢程:《大數(shù)據(jù)偵查的適用限度與程序規(guī)制》,載 《貴州社會(huì)科學(xué)》 2022 年第3 期,第81 頁。故法院智能辦案系統(tǒng)在研發(fā)中融入了非司法工作者的價(jià)值選擇與判斷,導(dǎo)致在個(gè)案裁決中運(yùn)用智能系統(tǒng)輔助審判會(huì)形成“程序員、軟件工程師、數(shù)據(jù)處理商、信息技術(shù)公司與法官共同作出決定的局面”,⑦參見季衛(wèi)東:《人工智能時(shí)代的司法權(quán)之變》,載 《東方法學(xué)》 2018 年第1 期,第132 頁。由此,技術(shù)性外包導(dǎo)致審判權(quán)部分外包進(jìn)而削弱審判權(quán)獨(dú)占原則。在此基礎(chǔ)上,法院智能審判系統(tǒng)應(yīng)用中審前證據(jù)校驗(yàn)、類案推送、量刑輔助、審判偏離度分析等技術(shù)適用,以客觀化數(shù)據(jù)形式標(biāo)準(zhǔn)影響法官個(gè)案中的自由心證,也在不同程度上侵蝕法官獨(dú)立審判原則,影響司法責(zé)任生成。
智能審判系統(tǒng)在研發(fā)與應(yīng)用中會(huì)不同程度影響自然人法官行使審判權(quán),而且智能審判系統(tǒng)并非用無遺漏,能夠進(jìn)行絕對(duì)客觀準(zhǔn)確的判斷。司法數(shù)據(jù)質(zhì)量、算法的偏見性與隱蔽性、數(shù)據(jù)的壟斷情況等因素均成為智能審判系統(tǒng)誤判的隱患。
第一,司法數(shù)據(jù)基礎(chǔ)質(zhì)量不高且代碼轉(zhuǎn)化難度較大。大數(shù)據(jù)是驅(qū)動(dòng)人工智能運(yùn)轉(zhuǎn)的必須燃料,數(shù)據(jù)與智能模型間“rubbish in,rubbish out”(輸入垃圾,則輸出垃圾)的關(guān)系使得智能系統(tǒng)的決策水平很大程度受制于司法數(shù)據(jù)質(zhì)量的優(yōu)劣。我國(guó)目前法律數(shù)據(jù)供給不充分、不真實(shí)、不客觀,結(jié)構(gòu)化不足,⑧參見前引④,左衛(wèi)民文,第108 頁。且存在司法數(shù)據(jù)代碼轉(zhuǎn)譯困難問題,難以滿足構(gòu)建智能裁判模型對(duì)海量?jī)?yōu)質(zhì)數(shù)據(jù)充分轉(zhuǎn)化的要求。目前智能法院辦案系統(tǒng)研發(fā)所依賴的司法數(shù)據(jù)基本源自中國(guó)裁判文書網(wǎng)公布的裁判文書以及開發(fā)合作法院提供的裁判文書,這些文書具有選擇性和不完整性。一方面,作為“原料” 的裁判文書生成年限集中于建設(shè)司法數(shù)據(jù)庫以來的這幾年,數(shù)據(jù)在時(shí)間維度體現(xiàn)為當(dāng)下數(shù)據(jù),缺乏歷史數(shù)據(jù)和長(zhǎng)期數(shù)據(jù),這對(duì)于規(guī)律總結(jié)、信息分析建模十分不利。另一方面,裁判文書網(wǎng)以及系統(tǒng)研發(fā)法院提供的裁判文書內(nèi)容側(cè)重于裁判結(jié)論的表述,對(duì)于裁判形成過程的闡釋較為模式化和形式化。法院內(nèi)部討論文件不會(huì)以文書形式公開,明確的裁判結(jié)論背后卻難以探究審判組織的法律論證、裁判商討過程,隱含在裁判結(jié)論背后的法官考量因素與過程并沒有以直觀的文書形式呈現(xiàn)。另外,司法數(shù)據(jù)轉(zhuǎn)換為算法識(shí)別的程序代碼存在困難。作為轉(zhuǎn)換主體的程序設(shè)計(jì)工程師大都不具備法學(xué)背景,缺乏法律知識(shí)和審判實(shí)務(wù)經(jīng)驗(yàn),其在法律文本的轉(zhuǎn)化中存在誤讀可能。證據(jù)形式繁復(fù)多樣,相較于法律文本的轉(zhuǎn)化,證據(jù)材料的轉(zhuǎn)化更為困難,且易陷入證據(jù)形式化審查泥潭。法律數(shù)據(jù)的轉(zhuǎn)化失誤會(huì)增加智能裁判系統(tǒng)失誤的風(fēng)險(xiǎn)。法律人工智能系統(tǒng)無法攻克數(shù)據(jù)真實(shí)性、客觀性不足的難題,難以沖破混雜著司法數(shù)據(jù)轉(zhuǎn)化困難所構(gòu)建的層層壁壘,導(dǎo)致在不完整且有失客觀的司法數(shù)據(jù)基底上構(gòu)建的模型同樣存在真實(shí)性、全局性不足的缺陷。
第二,算法存在偏見性與隱蔽性。算法作為人工智能的驅(qū)動(dòng)引擎,其偏見與隱蔽可能增加司法決策不公的風(fēng)險(xiǎn)。一方面,目前司法數(shù)據(jù)的數(shù)量和質(zhì)量尚未達(dá)到海量?jī)?yōu)質(zhì)的標(biāo)準(zhǔn),基于不完整不優(yōu)質(zhì)的數(shù)據(jù)基礎(chǔ)進(jìn)行分析訓(xùn)練恐難以準(zhǔn)確提煉、分析、總結(jié)司法決策規(guī)律。在機(jī)器學(xué)習(xí)過程中,算法工程師、供應(yīng)商甚至是法院難免有意或無意地植入價(jià)值偏見,⑨J.Burrell,How the Machine ‘Thinks’:Understanding Opacity in Machine Learning Algorithms,Big Data&Science Vol.3,2016,p.1-12.故而種族、性別、地域、職業(yè)等方面的偏見會(huì)影響算法設(shè)計(jì),增添司法決策不公平、不正義的風(fēng)險(xiǎn),形成的算法容易存在偏見與歧視。在美國(guó)盧米斯訴威斯康辛州案中,量刑輔助工具COMPAS 是否存在算法歧視就飽受爭(zhēng)議。人工智能系統(tǒng)能在多大程度上影響法官裁判尚未可知,這些不可知性為司法決策的公平正義埋下公信隱患。⑩參見卞建林:《人工智能時(shí)代我國(guó)刑事訴訟制度的機(jī)遇與挑戰(zhàn)》,載 《江淮論壇》 2020 年第4 期,第152-153 頁。另一方面,人工智能系統(tǒng)的分析、決策過程缺乏可交互性和存在學(xué)習(xí)結(jié)果不可預(yù)知性,用戶無法看到程序運(yùn)行的具體過程。因商業(yè)秘密保護(hù)的需要,科技公司不對(duì)外公開人工智能辦案系統(tǒng)源代碼,算法內(nèi)在工作機(jī)制并不透明。緣何大數(shù)據(jù)學(xué)習(xí)的結(jié)果形成此種模型而非彼種模型難以解釋,同時(shí)算法運(yùn)行所形成的結(jié)果也不接受質(zhì)詢、不提供解釋和相對(duì)人救濟(jì)。?參見錢程:《刑事訴訟中個(gè)人信息保護(hù)研究》,中國(guó)政法大學(xué)2023 年博士論文,第169-170 頁。算法的不透明和難以闡釋性與司法裁判的公開透明、注重闡釋說理相悖,算法黑箱使得司法智能裁判系統(tǒng)的說理和論證變得無法審閱,?參見前引③,周尚君、伍茜文,第65-66 頁。結(jié)論的合理性難以通過論證追溯加以佐證。
第三,數(shù)據(jù)壟斷導(dǎo)致控辯結(jié)構(gòu)失衡。數(shù)據(jù)的壟斷性與評(píng)析專業(yè)性加劇當(dāng)事人之間的信息不對(duì)稱、資源不對(duì)等,動(dòng)搖了平等對(duì)抗原則,對(duì)事實(shí)發(fā)現(xiàn)、維護(hù)被追訴人合法權(quán)利有所損傷,這種司法風(fēng)險(xiǎn)在刑事訴訟領(lǐng)域更為明顯。在數(shù)字司法的現(xiàn)實(shí)生態(tài)中,國(guó)家居于數(shù)據(jù)壟斷地位,權(quán)力機(jī)關(guān)之間以提升社會(huì)管理職能為目的進(jìn)行信息收集,逐步建立數(shù)據(jù)倉(cāng)庫建設(shè)、聯(lián)機(jī)分析以及數(shù)據(jù)挖掘,?參見裴煒:《個(gè)人信息大數(shù)據(jù)與刑事正當(dāng)程序的沖突及其調(diào)和》,載 《法學(xué)研究》 2018 年第2 期,第49 頁。實(shí)現(xiàn)數(shù)據(jù)信息共享。上海刑事案件智能輔助辦案系統(tǒng)(以下簡(jiǎn)稱206 系統(tǒng))連通公檢法三機(jī)關(guān)的辦案平臺(tái),進(jìn)行辦案數(shù)據(jù)開放共享,這一系統(tǒng)研發(fā)之初就將辯護(hù)方剝離于司法智能系統(tǒng),未對(duì)辯方數(shù)據(jù)進(jìn)行有效收集錄入。在信息獲取分析層面,被告人及其辯護(hù)律師獲取數(shù)據(jù)、分析數(shù)據(jù)能力匱乏,難以獲取與國(guó)家公權(quán)機(jī)關(guān)水平相當(dāng)?shù)臄?shù)據(jù)資源與信息技術(shù)。即便辯方可以獲得智能辦案系統(tǒng)的司法數(shù)據(jù),也缺乏人力財(cái)力在短時(shí)間內(nèi)推翻大數(shù)據(jù)的分析和模型,算法黑箱使得辯方難以對(duì)其合理性進(jìn)行質(zhì)疑。辯方難以實(shí)現(xiàn)有效辯護(hù),控辯雙方能力的失衡會(huì)動(dòng)搖公正審判的結(jié)構(gòu)穩(wěn)定性,增大誤判風(fēng)險(xiǎn)。?參見前引?,錢程文,第169-170 頁。
第二輪司法體制改革圍繞司法責(zé)任制全面展開。落實(shí)司法責(zé)任制的關(guān)鍵之一在于遵循司法親歷性和權(quán)責(zé)一致性,即 “讓審理者裁判、由裁判者負(fù)責(zé)”,審判主體與責(zé)任主體具有一致性。司法責(zé)任制的要求也體現(xiàn)于此,即司法職權(quán)配置層面要求 “讓審理者裁判”,責(zé)任承擔(dān)層面要求 “由裁判者負(fù)責(zé)”,錯(cuò)案追究層面要求發(fā)生錯(cuò)案啟動(dòng)追責(zé)程序。?參見胡云騰:《司法責(zé)任制是司法改革的牛鼻子》,載 《法制日?qǐng)?bào)》 2017 年4 月26 日,第9 版。人工智能審判系統(tǒng)的研發(fā)與適用對(duì)現(xiàn)行司法責(zé)任制產(chǎn)生了多方面沖擊,最核心的影響在于審判權(quán)責(zé)主體被模糊化,人工智能以輔助參與形式影響審判權(quán)行使,技術(shù)外包下審判權(quán)被部分分割,審判責(zé)任也存在分割轉(zhuǎn)化的問題。人工智能介入審判后,如何在 “審理者裁判、裁判者負(fù)責(zé)” 中厘清人工智能系統(tǒng)與自然人審判者、責(zé)任者的關(guān)系,人工智能主體責(zé)任資格何在,法官能否以人工智能輔助為由減輕司法責(zé)任等問題均是審判人工智能化沖擊傳統(tǒng)審判主體、責(zé)任主體的衍生問題。
審判智能化對(duì)審判責(zé)任主體的沖擊圍繞主體資格展開,人工智能主體的法律資格如何,其是否具備獨(dú)立主體地位是首先要解決的問題。對(duì)人工智能主體法律資格的討論主要呈現(xiàn)出以下幾種觀點(diǎn):其一,反對(duì)人工智能具有獨(dú)立法律人格。有學(xué)者從法律預(yù)設(shè)層面論證人工智能機(jī)器不宜成為法律主體,因?yàn)闄C(jī)器只能被設(shè)計(jì)成遵守法律,卻不能理解法律,機(jī)器按照算法運(yùn)行,無法像人類一樣理解權(quán)力與責(zé)任,法律可以影響機(jī)器人的設(shè)計(jì)者、制造商、使用者,但不可能對(duì)機(jī)器人本身的行為產(chǎn)生影響。?參見吳習(xí)彧:《論人工智能的法律主體資格》,載 《浙江社會(huì)科學(xué)》 2018 年第6 期,第63 頁。其二,支持人工智能具有獨(dú)立法律人格。人工智能具有高度智慧性和獨(dú)立決策性,其性質(zhì)不同于傳統(tǒng)的工具或代理人,故應(yīng)當(dāng)將其定性為具有智慧工具屬性且能夠進(jìn)行獨(dú)立意思表示的特殊主體。?參見姚萬勤:《人工智能影響現(xiàn)行法律制度前瞻》,載 《人民法院報(bào)》 2017 年11 月25 日,第3 版。其三,根據(jù)人工智能的不同發(fā)展階段和智能化程度區(qū)分智能主體是否具有獨(dú)立法律資格。弱人工智能產(chǎn)品不具有辨認(rèn)能力和控制能力,僅能在人類設(shè)計(jì)編制的程序范圍內(nèi)作出行為,不具有獨(dú)立法律資格。強(qiáng)人工智能產(chǎn)品具有辨認(rèn)能力和控制能力,能夠超越人類設(shè)計(jì)編制的程序范圍作出行為,包括實(shí)施危害性、犯罪性行為,其具有獨(dú)立的人格和刑事責(zé)任能力。?劉憲權(quán):《人工智能時(shí)代的 “內(nèi)憂” “外患” 與刑事責(zé)任》,載 《東方法學(xué)》 2018 年第1 期,第134-142 頁。
學(xué)界對(duì)人工智能主體的法律資格問題尚無定論,但實(shí)踐已然進(jìn)行更勇敢的嘗試,不同程度地承認(rèn)并賦予智能主體獨(dú)立的法律人格。2016 年美國(guó)國(guó)家公路安全交通管理局在公開致信谷歌鼓勵(lì)人工智能汽車發(fā)展的同時(shí),認(rèn)為谷歌自動(dòng)駕駛汽車內(nèi)部的智能機(jī)器人可以認(rèn)定為“駕駛員”。?參見人工智能學(xué)家:《無人汽車跨越重要障礙:美國(guó)認(rèn)定自動(dòng)駕駛機(jī)器人為 “駕駛員” 》,http://www.100tmt.com/news/news_4487.shtml,2021 年6 月15 日訪問。2017 年10月26 日,沙特阿拉伯授予美國(guó)漢森機(jī)器人公司生產(chǎn)的機(jī)器人索菲亞公民身份,索菲亞成為首個(gè)獲得公民身份的機(jī)器人。?參見騰訊網(wǎng):《沙特授予“女性” 機(jī)器人公民身份》,https://xw.qq.com/amphtml/2017102801638600,2021 年6 月15 日訪問。2016 年歐盟議會(huì)法律事務(wù)委員會(huì)發(fā)布 《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》 和 《歐盟機(jī)器人民事法律規(guī)則》,考慮賦予復(fù)雜的自主機(jī)器人特殊的法律地位,?參見騰訊研究院:《十項(xiàng)建議解讀歐盟人工智能立法新趨勢(shì)》,https://www.tisi.org/4811,2021 年8 月6 日訪問。高度智能化的機(jī)器人得以以電子人格處理自主決策、獨(dú)立交往和承擔(dān)法律責(zé)任等問題。俄羅斯“格里申法案” 的基本理念為對(duì)機(jī)器人法律資格進(jìn)行差異界分,并適用與法律資格相對(duì)應(yīng)的法律調(diào)整規(guī)則,即目前可以將機(jī)器人視作與動(dòng)物具有相似屬性的財(cái)產(chǎn),以財(cái)產(chǎn)性法律規(guī)則調(diào)整機(jī)器人相關(guān)法律關(guān)系;未來則有望依機(jī)器人智能化水平賦予其自主代理人的法律身份,肯認(rèn)機(jī)器人在有限的特別權(quán)利能力范圍內(nèi)獲得權(quán)利主體性,將具有主體性的機(jī)器人歸于法人行列,適用法人的法律規(guī)則。?參見張建文:《格里申法案的貢獻(xiàn)與局限——俄羅斯首部機(jī)器人法草案述評(píng)》,載 《華東政法大學(xué)學(xué)報(bào)》 2018 年第2 期,第33 頁。智能產(chǎn)品適用程度和智能化程度的加深日益沖擊 “人的主體性” 地位,也波及司法主體的地位與身份。?參見孫道萃:《我國(guó)刑事司法智能化的知識(shí)解構(gòu)與應(yīng)對(duì)邏輯》,載 《當(dāng)代法學(xué)》 2019 年第3 期,第18 頁。目前對(duì)智能主體的法律資格論爭(zhēng)并未止息,我國(guó)的學(xué)界與實(shí)踐對(duì)此均無定論,人工智能審判系統(tǒng)運(yùn)行下產(chǎn)生的審判主體、責(zé)任分擔(dān)問題尚無可行參考。
人工智能審判系統(tǒng)開發(fā)過程中的技術(shù)外包使得研發(fā)受到審判權(quán)外的主體影響,存在削弱法官獨(dú)立審判的隱患,人工智能審判系統(tǒng)的應(yīng)用過程同樣存在削弱法官裁判主導(dǎo)主體地位的風(fēng)險(xiǎn)。一方面,人工智能審判系統(tǒng)在庭審前形成預(yù)判甚至結(jié)論,對(duì)法官庭審實(shí)質(zhì)審理進(jìn)行階段介入性侵蝕。傳統(tǒng)司法裁判是法官在庭審中當(dāng)事人雙方的舉證、質(zhì)證中形成內(nèi)心確信作出,但是,類案推送、量刑輔助、模型建構(gòu)等技術(shù)可能會(huì)使當(dāng)事人的舉證、質(zhì)證對(duì)法官心證影響降低,通過人工智能系統(tǒng)輔助,法官在審理前可能已經(jīng)形成預(yù)判甚至結(jié)論。?參見鄭曦:《人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制》,載 《中外法學(xué)》 2020 年第3 期,第682 頁。上海206 系統(tǒng)是我國(guó)在人工智能輔助司法領(lǐng)域較為成熟的探索,該系統(tǒng)運(yùn)用圖文識(shí)別、自然語言理解、智能語音識(shí)別、司法實(shí)體識(shí)別、實(shí)體關(guān)系分析、司法要素自動(dòng)提取等人工智能技術(shù),為辦案人員收集固定證據(jù)提供指引,并對(duì)證據(jù)進(jìn)行校驗(yàn)、把關(guān)、提示、監(jiān)督。?參見黃安琪:《上海法院運(yùn)用人工智能辦案系統(tǒng)輔助庭審》,原載新華社,轉(zhuǎn)引自中國(guó)政府網(wǎng):http://www.cac.gov.cn/2019-01/25/c_1124037840.htm,2020 年11 月15 日訪問。206 系統(tǒng)作用于司法審判全過程,大量的數(shù)據(jù)分析處理在審前程序中已經(jīng)完成并形成預(yù)判,法院如果依賴審前人工智能輔助系統(tǒng)形成的材料和結(jié)論,較大程度上將會(huì)虛化法官庭審的價(jià)值。
另一方面,基于人工智能審判系統(tǒng)的科學(xué)性和法官對(duì)算法的依賴性,人工智能系統(tǒng)對(duì)法官獨(dú)立裁判進(jìn)行結(jié)果影響性侵蝕。有研究發(fā)現(xiàn)采用大數(shù)據(jù)學(xué)習(xí)建模進(jìn)行定罪的正確率可以達(dá)到90%以上,?參見劉品新:《大數(shù)據(jù)司法的學(xué)術(shù)觀察》,載 《人民檢察》 2017 年第23 期,第30 頁。量刑準(zhǔn)確性可達(dá)70%以上,?參見白建軍:《基于法官集體經(jīng)驗(yàn)的量刑預(yù)測(cè)研究》,載 《法學(xué)研究》 2016 年第6 期,第148 頁。即便仍處弱人工智能裁判階段,大數(shù)據(jù)學(xué)習(xí)建模的裁判準(zhǔn)確性依然較高。面對(duì)人工智能辦案系統(tǒng)的科技可信度以及法官自身有關(guān)人工智能技術(shù)的知識(shí)盲區(qū),當(dāng)法官觀點(diǎn)與人工智能系統(tǒng)提供的參考結(jié)果不一致時(shí),法官往往缺乏違背科技智能結(jié)果的勇氣和信心。這里所說的人機(jī)裁判結(jié)果不一致,并非僅是裁判結(jié)果存在本質(zhì)上 “是” 與 “非” 的差異,更是幅度差異、微弱差異,這種微弱差異往往就是自然人法官價(jià)值判斷與智能系統(tǒng)算法結(jié)果輸出的本質(zhì)區(qū)別。美國(guó)盧米斯訴威斯康辛州案中,COMPAS 工具依據(jù)預(yù)先設(shè)置的科學(xué)算法、通過計(jì)算被告人的社會(huì)危險(xiǎn)性,推薦量刑范圍,法官依照工具推薦的量刑范圍作出裁判。在量刑層面,法官的審判權(quán)受到計(jì)算工具COMPAS 的影響,人工智能工具的計(jì)算結(jié)果很大程度上影響案件的處理結(jié)果,成功地影響裁判結(jié)果生成。人工智能時(shí)代也為法官提供了一個(gè)依賴技術(shù)的制度環(huán)境——利用技術(shù)被視為進(jìn)步,反之則被視為落后,?參見王祿生:《司法大數(shù)據(jù)與人工智能技術(shù)應(yīng)用的風(fēng)險(xiǎn)及倫理規(guī)制》,載 《法商研究》 2019 年第2 期,第106 頁。更有地方法院以 “信息化應(yīng)用” 作為獨(dú)立考核指標(biāo)以鼓勵(lì)法官使用信息化技術(shù)。?參見王靜:《法官績(jī)效考核制度實(shí)證研究——基于地方性規(guī)則樣本的分析》,載《中國(guó)應(yīng)用法學(xué)》 2018 年第6 期,第24 頁。法官使用人工智能辦案系統(tǒng)得出與其原本內(nèi)心確信有差異的結(jié)果時(shí),不顧人工智能裁判結(jié)果進(jìn)行獨(dú)立審判的信心岌岌可危,法官基于內(nèi)部和外部壓力傾向于接受人工智能工具的建議。?參見朱體正:《人工智能輔助刑事裁判的不確定性風(fēng)險(xiǎn)及其防范——美國(guó)威斯康星州訴盧米斯案的啟示》,載 《浙江社會(huì)科學(xué)》 2018 年第6 期,第81 頁。雖然法官依然對(duì)案件享有最終裁決權(quán),但人工智能辦案系統(tǒng)應(yīng)用中的數(shù)據(jù)前置性與算法依賴性已經(jīng)削弱法官對(duì)裁判的主導(dǎo)地位。
法院系統(tǒng)司法責(zé)任制改革的核心在于審判權(quán)屬模式的轉(zhuǎn)化,由審委會(huì)與法官共享審判權(quán)模式轉(zhuǎn)化為審判權(quán)獨(dú)立界分模式,還權(quán)于辦案法官,剝離審委會(huì)以審判管理、審判監(jiān)督的形式影響法官審判權(quán)的實(shí)現(xiàn),厘清審判權(quán)、審判管理權(quán)以及審判監(jiān)督權(quán)之間的界限,強(qiáng)調(diào)辦案法官的中立性、獨(dú)立性。通過列明審判主體內(nèi)部職權(quán)和責(zé)任分配機(jī)制、落實(shí)員額制等改革機(jī)制,法官獨(dú)立的責(zé)任主體地位日益明晰。但是人工智能審判系統(tǒng)的應(yīng)用對(duì)明晰化的審判責(zé)任主體產(chǎn)生沖擊,人工智能審判系統(tǒng)以線性介入模式分割審判責(zé)任,其內(nèi)在缺陷與運(yùn)行錯(cuò)誤所致難以避免的審判責(zé)任,從而使得審判責(zé)任主體存在多元可能。
審判責(zé)任是審判主體對(duì)案件的審理與判決所應(yīng)承擔(dān)的法律責(zé)任,廣義的審判責(zé)任包括違法審判責(zé)任、審判瑕疵責(zé)任以及審判職業(yè)紀(jì)律責(zé)任。?參見陳衛(wèi)東:《司法責(zé)任制改革研究》,載 《法學(xué)雜志》 2017 年第8 期,第34 頁。目前人工智能審判系統(tǒng)定位是審判輔助工具,自然人法官仍然是審判主體,決定著個(gè)案裁判,其主體地位雖有弱化但并未被智能工具直接替代。自然人法官對(duì)其承辦的案件不可置疑地負(fù)有審判責(zé)任。但是,因人工智能辦案系統(tǒng)而產(chǎn)生的違法審判責(zé)任、審判瑕疵責(zé)任,責(zé)任主體并非單一的自然人審判人員,隱性參與其中的程序員、軟件工程師等主體不同程度地對(duì)錯(cuò)誤和瑕疵負(fù)有責(zé)任。審判責(zé)任主體走向多元,一般限于技術(shù)問題導(dǎo)致司法裁判出現(xiàn)錯(cuò)誤或瑕疵,即技術(shù)主體僅對(duì)技術(shù)負(fù)責(zé),不對(duì)法律問題負(fù)責(zé)。人工智能算法所隱含的偏見會(huì)影響案件的實(shí)體處理,數(shù)據(jù)收集、機(jī)器學(xué)習(xí)、模型訓(xùn)練環(huán)節(jié)中融入自然人的主觀價(jià)值判斷,可能會(huì)產(chǎn)生性別、職業(yè)、民族、地域、宗教等多方面認(rèn)知偏見與歧視。?參見前引⑥,卞建林、錢程文,第81 頁。這種偏見與歧視隱蔽性很強(qiáng),但其仍需自然人法官審判裁量后實(shí)現(xiàn)個(gè)案作用。這種情況雖然沖擊審判主體的獨(dú)立判斷,但是并未達(dá)到因果責(zé)任主體的多元。
技術(shù)主體應(yīng)當(dāng)對(duì)技術(shù)引發(fā)的審判責(zé)任負(fù)責(zé),這往往體現(xiàn)為以下兩個(gè)方面:其一,人工智能審判系統(tǒng)研發(fā)需要轉(zhuǎn)化海量司法數(shù)據(jù),而程序員、軟件工程師等科技人員對(duì)法律規(guī)定與實(shí)務(wù)應(yīng)用存在知識(shí)盲區(qū)。技術(shù)人員在錄入司法數(shù)據(jù)并進(jìn)行代碼轉(zhuǎn)化的過程中,如果出現(xiàn)錯(cuò)誤并進(jìn)一步延伸產(chǎn)生個(gè)案裁判錯(cuò)誤或瑕疵,程序員等技術(shù)人員所代表的技術(shù)支持主體應(yīng)承擔(dān)相應(yīng)的責(zé)任。此時(shí)審判人員的司法責(zé)任情況應(yīng)當(dāng)考量在個(gè)案裁判中人工智能審判系統(tǒng)導(dǎo)致的錯(cuò)誤或瑕疵是否可以被發(fā)現(xiàn)且糾正;若審判人員應(yīng)盡到注意義務(wù)、能夠發(fā)現(xiàn)此錯(cuò)誤或瑕疵,其并未盡到該義務(wù)則導(dǎo)致責(zé)任生成。其二,法院智能審判系統(tǒng)應(yīng)用中的審前證據(jù)校驗(yàn)、類案推送、量刑輔助、審判偏離度分析等功能運(yùn)轉(zhuǎn)不靈導(dǎo)致裁判出現(xiàn)錯(cuò)誤或瑕疵,也屬于技術(shù)主體應(yīng)當(dāng)負(fù)責(zé)的情形。此時(shí)審判人員的司法責(zé)任情況同樣應(yīng)當(dāng)考察其是否能以注意義務(wù)避免這種審判錯(cuò)誤或瑕疵。
審判智能化對(duì)司法責(zé)任制的核心影響在于司法職權(quán)配置和責(zé)任承擔(dān)層面的主體沖擊。法官裁判主導(dǎo)地位弱化、審判責(zé)任主體走向多元帶來審判責(zé)任主體不明問題,建立在“審判者裁判,裁判者負(fù)責(zé)” 基礎(chǔ)上的審判責(zé)任追究機(jī)制隨之陷入困境,審判智能化下審判責(zé)任歸責(zé)與追責(zé)存在多重障礙。
司法責(zé)任的歸責(zé)模式存在行為責(zé)任模式與結(jié)果責(zé)任模式。行為責(zé)任模式下司法責(zé)任的承擔(dān)要求法官實(shí)施了違法行為或不當(dāng)行為,結(jié)果責(zé)任模式則不要求法官實(shí)施違法行為,而只要求出現(xiàn)法定的損害后果。?參見雷婉璐:《我國(guó) “法官懲戒” 事由模式的現(xiàn)狀與趨向——以司法體制改革為背景》,載 《湖北大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》 2019 年第1 期,第134-142 頁。2015 年最高人民法院《關(guān)于完善人民法院司法責(zé)任制的若干意見》(法發(fā)〔2015〕 13號(hào))對(duì)我國(guó)審判歸責(zé)模式予以明確,審判系統(tǒng)司法責(zé)任包括故意違反法律法規(guī)責(zé)任、重大過失責(zé)任和監(jiān)督管理責(zé)任,法官在存在主觀故意或重大過失造成錯(cuò)誤時(shí)負(fù)有責(zé)任??梢?,我國(guó)審判歸責(zé)模式為主觀過錯(cuò)與客觀行為相結(jié)合,法官只應(yīng)對(duì)其有過錯(cuò)的行為失當(dāng)、程序違法或者裁判錯(cuò)誤負(fù)責(zé)。?參見周長(zhǎng)軍:《司法責(zé)任制改革中的法官問責(zé)——兼評(píng) 〈關(guān)于完善人民法院司法責(zé)任制的若干意見〉》,載 《法學(xué)家》 2016 年第3 期,第102 頁。審判責(zé)任主體在職責(zé)范2015 圍內(nèi)的終身負(fù)責(zé)制,單獨(dú)責(zé)任與共同責(zé)任并存,合議庭共同責(zé)任中存在內(nèi)部責(zé)任劃分,審判主體獨(dú)立承擔(dān)自身責(zé)任。
審判智能化過程中司法數(shù)據(jù)化、司法算法化程度不斷加深,人工智能審判在提供司法效率紅利的同時(shí),在司法責(zé)任歸責(zé)模式運(yùn)行層面也創(chuàng)設(shè)了困難。第一,人工智能介入審判使得過程性問責(zé)更為困難。以事實(shí)結(jié)果主義對(duì)司法裁判質(zhì)量進(jìn)行判斷并追責(zé)并不符合司法運(yùn)行規(guī)律,司法是對(duì)過去已發(fā)生事實(shí)的有限判斷,審判者受制于各方面條件限制,對(duì)于過去事實(shí)難以做到完全沒有錯(cuò)誤的評(píng)判。若審判者盡到司法裁判注意義務(wù)后仍作出與過去客觀事實(shí)相悖的法律事實(shí)判斷,應(yīng)結(jié)合過程主義考量而非絕對(duì)結(jié)果主義對(duì)案件進(jìn)行錯(cuò)案追責(zé)。過程性責(zé)任判斷存在價(jià)值判斷等多重非客觀、難考量因素,人工智能介入審判進(jìn)一步增添過程性歸責(zé)的困難。在原本復(fù)雜難辨的審判過程有無過錯(cuò)的謎團(tuán)中,注入了人工智能技術(shù)是否影響司法、多大程度影響司法的新問題。因人工智能系統(tǒng)運(yùn)行中存在數(shù)據(jù)錯(cuò)誤、算法運(yùn)行缺陷,審判存在錯(cuò)誤或瑕疵的過程性歸責(zé),應(yīng)著重考量審判人員對(duì)該系統(tǒng)的錯(cuò)誤是否難以發(fā)現(xiàn)以及可否在個(gè)案裁判中糾正問題。此類免責(zé)事由的是與非判斷與程度判斷一定程度上超越了傳統(tǒng)司法責(zé)任歸責(zé)要求的法律專業(yè)性,拓展到在人工智能技術(shù)領(lǐng)域的專業(yè)性,這種專業(yè)壁壘實(shí)難克服。第二,人工智能介入審判使得過錯(cuò)責(zé)任與非過錯(cuò)責(zé)任、單獨(dú)責(zé)任與共同責(zé)任更難以界分。審判責(zé)任的責(zé)任標(biāo)準(zhǔn)當(dāng)屬過錯(cuò)責(zé)任,即法官故意違反法律法規(guī)或因重大過失導(dǎo)致裁判錯(cuò)誤并造成嚴(yán)重后果的,依法應(yīng)當(dāng)承擔(dān)違法審判責(zé)任。責(zé)任形態(tài)的判斷也需要依托過錯(cuò)判斷來界分是個(gè)人責(zé)任還是集體責(zé)任。人工智能審判系統(tǒng)的應(yīng)用使得出現(xiàn)裁判錯(cuò)誤的原因分析更為困難,算法黑箱導(dǎo)致責(zé)任生成過程很大程度上具有不可視性和難回溯性,審判錯(cuò)誤或瑕疵是故意造成還是過失造成實(shí)難界定。個(gè)體審判人員在裁判中是否盡到應(yīng)盡審查義務(wù)、是否存在造成錯(cuò)誤裁判的重大過失等重要責(zé)任審查問題均需以后續(xù)溯源追責(zé)方式予以厘清,但人工智能審判系統(tǒng)內(nèi)部算法運(yùn)行的不可視、不透明使這些本就相對(duì)主觀的問題更難以界分。
在司法責(zé)任體制改革中,我國(guó)審判責(zé)任追責(zé)程序顯著完善,2016 年《關(guān)于建立法官、檢察官懲戒制度的意見(試行)》 通過增設(shè)司法懲戒委員會(huì)作為司法責(zé)任追究的建議主體,適度分割法院的錯(cuò)案責(zé)任認(rèn)定權(quán),強(qiáng)化追責(zé)程序的正當(dāng)性和合理性。對(duì)于審判人員在履行審判職責(zé)中出現(xiàn)行為失當(dāng)、程序違法或者裁判錯(cuò)誤,法院有權(quán)啟動(dòng)錯(cuò)案責(zé)任認(rèn)定追究程序。該程序由法院主導(dǎo)啟動(dòng),將就當(dāng)事法官責(zé)任認(rèn)定問題提請(qǐng)懲戒委員會(huì)審議,審議程序擬采用準(zhǔn)司法性程序,將懲戒的審查權(quán)和判斷權(quán)分離。法院就當(dāng)事法官違法審判的事實(shí)及主觀過錯(cuò)負(fù)舉證責(zé)任,當(dāng)事法官有陳述、舉證、辯解的權(quán)利。懲戒委員會(huì)對(duì)審判責(zé)任人員的行為認(rèn)定提出意見,法院根據(jù)意見作出最終處理決定。
目前法院系統(tǒng)司法責(zé)任追究程序在人工智能技術(shù)介入司法審判后存在一定程度的運(yùn)行障礙?,F(xiàn)行審判責(zé)任追責(zé)程序停留于滿足傳統(tǒng)審判追責(zé)程序需要,未對(duì)人工智能介入審判、審判外主體影響責(zé)任生成予以關(guān)注。一方面,應(yīng)用人工智能審判系統(tǒng)時(shí),審判人員與技術(shù)人員之間責(zé)任界分困難,司法責(zé)任追究程序難以指向技術(shù)人員。司法責(zé)任是指司法責(zé)任主體基于其所承擔(dān)的司法職責(zé),因在履行職責(zé)時(shí)存在違法違紀(jì)的行為而應(yīng)承擔(dān)的法律上的不利后果。?參見陳光中、王迎龍:《司法責(zé)任制若干問題之探討》,載 《中國(guó)政法大學(xué)學(xué)報(bào)》 2016 年第2 期,第32 頁。司法追責(zé)所追責(zé)任為審判人員履行職能之責(zé),人工智能審判應(yīng)用產(chǎn)生的審判責(zé)任存在技術(shù)人員應(yīng)當(dāng)擔(dān)責(zé)的情形,但是其不屬于審判人員,所進(jìn)行的工作即便是以技術(shù)之名實(shí)為分割審判權(quán),也不能直接將科技公司、程序員等技術(shù)主體納入審判主體行列,司法追責(zé)程序缺乏將非司法審判人員納入程序的依據(jù),按照目前審判追責(zé)程序進(jìn)行責(zé)任追究無法解決審判外主體責(zé)任問題。另一方面,法官懲戒委員會(huì)議事程序、法院司法責(zé)任認(rèn)定程序是由專業(yè)司法審判人員主導(dǎo)進(jìn)行的,司法追責(zé)程序參與人員具有豐富的法律專業(yè)背景和司法審判經(jīng)驗(yàn),但是普遍缺乏人工智能知識(shí)和算法運(yùn)行經(jīng)驗(yàn)。在責(zé)任認(rèn)定過程中,囿于追責(zé)程序參與人員知識(shí)結(jié)構(gòu)的局限性和身份的特殊性,就涉事法官違法審判和主觀過錯(cuò)問題的分析和認(rèn)定存在障礙。
人工智能審判對(duì)司法責(zé)任的沖擊不同于人工智能技術(shù)介入生產(chǎn)對(duì)侵權(quán)責(zé)任的沖擊,司法責(zé)任意味著司法裁判中導(dǎo)致案件處理錯(cuò)誤的承認(rèn)與糾偏,此為維護(hù)社會(huì)公平正義的最后一道防線。司法裁判的錯(cuò)誤是對(duì)人民生命、自由、財(cái)產(chǎn)等重要權(quán)利的損傷,司法責(zé)任的難以確定意味著誤判失去糾偏的機(jī)會(huì)和風(fēng)險(xiǎn)紅線的失守,這對(duì)司法公正與權(quán)威的沖擊和損傷實(shí)為法治社會(huì)難以承受之痛。故在人工智能技術(shù)高度應(yīng)用于司法裁判且存在錯(cuò)誤可能的風(fēng)險(xiǎn)背景下,擴(kuò)充審判責(zé)任理論,構(gòu)建面向?qū)徟腥斯ぶ悄艿乃痉ㄘ?zé)任機(jī)制尤為必要。
人工智能裁判責(zé)任體系是與司法改革推進(jìn)的司法責(zé)任制一脈相承的審判責(zé)任機(jī)制,在對(duì)現(xiàn)有審判責(zé)任理論進(jìn)行擴(kuò)充的基礎(chǔ)上,應(yīng)當(dāng)通過構(gòu)建合理的責(zé)任機(jī)制解決人工智能介入司法裁判后的審判責(zé)任主體、責(zé)任標(biāo)準(zhǔn)等問題,破解人工智能介入司法裁判后在追責(zé)中的現(xiàn)實(shí)阻卻問題。
第一,明確人工智能裁判責(zé)任體系中的責(zé)任主體問題。使用人工智能辦案系統(tǒng)輔助司法裁判,出現(xiàn)審判錯(cuò)誤或瑕疵進(jìn)行歸責(zé)情況下,應(yīng)堅(jiān)持司法工作者優(yōu)位承擔(dān),并適用自然人法官過錯(cuò)推定原則。對(duì)于審判錯(cuò)誤和瑕疵,自然人法官優(yōu)位擔(dān)責(zé)原因有二:一是在目前所處的弱人工智能裁判階段,司法辦案系統(tǒng)依然屬于司法輔助技術(shù),尚未達(dá)到獨(dú)立決策的程度,即便在算法研發(fā)中存在技術(shù)外包等問題,法官依然是個(gè)案裁判者。辦案過程中使用人工智能輔助系統(tǒng),但最終裁決權(quán)在法官手中。司法責(zé)任制所要求的權(quán)責(zé)一致同樣應(yīng)當(dāng)貫徹于人工智能裁判責(zé)任體系,由享有最終司法裁判權(quán)的自然人法官優(yōu)位擔(dān)責(zé)。同樣,對(duì)自然人法官適用過錯(cuò)推定原則也是出于其主導(dǎo)裁判的考量,避免審判人員將造成審判錯(cuò)誤或瑕疵的責(zé)任推卸于人工智能系統(tǒng),督促審判人員在使用人工智能審判系統(tǒng)時(shí)充分履行注意義務(wù)。二是司法責(zé)任不同于產(chǎn)品侵權(quán)責(zé)任,其廣泛性、公共利益性更明確,法官是最直接的司法公正捍衛(wèi)者、守護(hù)者。?參見程凡卿:《我國(guó)司法人工智能建設(shè)的問題與應(yīng)對(duì)》,載 《東方法學(xué)》 2018 年第3 期,第129 頁。數(shù)據(jù)服務(wù)商、科技公司、程序工程師等技術(shù)主體在參與人工智能審判系統(tǒng)開發(fā)運(yùn)營(yíng)過程中提供技術(shù)支持,即便以技術(shù)支持形式輸出了價(jià)值判斷,技術(shù)主體在進(jìn)行價(jià)值判斷的過程中也不是個(gè)案裁判中的判斷,其應(yīng)對(duì)技術(shù)服務(wù)及衍生的直接結(jié)果負(fù)責(zé),而非司法結(jié)果的天然守護(hù)者,故未將技術(shù)主體作為優(yōu)位擔(dān)責(zé)主體。
第二,擴(kuò)充審判責(zé)任內(nèi)涵,確立機(jī)器責(zé)任概念,在自然人法官、智能系統(tǒng)和技術(shù)人員之間進(jìn)行責(zé)任分配,?參見前引③,周尚君、伍茜文,第53-66 頁。將機(jī)器責(zé)任作為自然人法官的必要免責(zé)事由。有學(xué)者提出 “機(jī)器責(zé)任” 概念,對(duì)其內(nèi)涵進(jìn)行可能性列舉。本文將機(jī)器責(zé)任進(jìn)行階段性界分,在目前所處的弱人工智能時(shí)代,人工智能審判系統(tǒng)仍屬于輔助性審判工具,機(jī)器責(zé)任是自然人法官的一種免責(zé)事由,但此時(shí)人工智能機(jī)器并不具備獨(dú)立擔(dān)責(zé)的基礎(chǔ)條件。步入強(qiáng)人工智能時(shí)代,人工智能機(jī)器可以獲得獨(dú)立且完整的法律人格時(shí),其具備獨(dú)立擔(dān)責(zé)的基礎(chǔ),機(jī)器責(zé)任是審判責(zé)任中的一種獨(dú)立形式。目前出現(xiàn)機(jī)器提供的錯(cuò)誤信息造成審判錯(cuò)誤或瑕疵時(shí),能否以機(jī)器責(zé)任作為自然人法官免責(zé)事由,應(yīng)當(dāng)對(duì)審判者能否識(shí)別出錯(cuò)誤進(jìn)行區(qū)分。機(jī)器算法不合理,其提供的信息存在錯(cuò)誤導(dǎo)致案件審理錯(cuò)誤,分為以下兩種情況:一是審判者對(duì)智能辦案系統(tǒng)提供的信息盡到謹(jǐn)慎審查的義務(wù),受制于當(dāng)時(shí)科技水平和知識(shí)領(lǐng)域差異,即便在算法專家輔助下法官也難以發(fā)現(xiàn)并查證錯(cuò)誤,此種情況下為完全的機(jī)器責(zé)任,法官得以免責(zé)。二是審判者憑一般認(rèn)知即可識(shí)別機(jī)器信息存在錯(cuò)誤或偏差,但未盡一般審查義務(wù),仍依照機(jī)器信息作出裁判,屬于法官重大過失,不能以機(jī)器責(zé)任作為免責(zé)事由。
構(gòu)建面向?qū)徟腥斯ぶ悄艿乃痉ㄘ?zé)任機(jī)制除合理的人工智能裁判責(zé)任體系,還需有相關(guān)的輔助配套機(jī)制予以支持,即建立專門的人工智能司法系統(tǒng)監(jiān)督機(jī)構(gòu)、強(qiáng)化人機(jī)協(xié)同的裁判文書說理機(jī)制以及規(guī)范人工智能技術(shù)輔助審判下的監(jiān)督考核機(jī)制,為人工智能裁判責(zé)任體系順利運(yùn)行破除信息技術(shù)壁壘并進(jìn)行有效的技術(shù)審查監(jiān)督。
第一,建立專門的人工智能司法系統(tǒng)監(jiān)督機(jī)構(gòu),強(qiáng)化中立第三方對(duì)算法的審計(jì)監(jiān)督。2017 年底美國(guó)紐約州通過一項(xiàng)算法問責(zé)法案,要求建立專門的監(jiān)督工作組對(duì)自動(dòng)化決策算法進(jìn)行監(jiān)督。?參見徐鳳:《人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開》,載 《東方法學(xué)》 2019 年第6 期,第82 頁。法案決定以設(shè)立事實(shí)調(diào)查組代替算法源代碼的完全披露。?參見[美] Julia Powles:《紐約市嘗試對(duì)算法問責(zé)——政策有待完善,但行動(dòng)敢為人先》,姜開鋒譯,載微信公眾號(hào) “大數(shù)據(jù)和人工智能法律研究” 2018 年12 月29 日,https://mp.weixin.qq.com/s/g1OJG71osEQn0hiEL4hUJg.公開人工智能系統(tǒng)算法的源代碼以消解算法黑箱的現(xiàn)實(shí)困難較大,目前可以探索建立第三方監(jiān)督機(jī)構(gòu)對(duì)此算法進(jìn)行審計(jì)監(jiān)督,在絕對(duì)的算法保密與算法透明之間適度妥協(xié)。司法智能系統(tǒng)監(jiān)督機(jī)構(gòu)應(yīng)由算法工程師、法律工作者組成,對(duì)算法進(jìn)行一般監(jiān)督與個(gè)案審查。?參見洪凌嘯:《誤區(qū)與正道:法律人工智能算法問題的困境、成因與改進(jìn)》,載 《四川師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》 2020 年第1 期,第58-70 頁。在監(jiān)督工作中確立適度的算法透明規(guī)則,算法研發(fā)與運(yùn)營(yíng)者有義務(wù)向監(jiān)督機(jī)構(gòu)進(jìn)行信息披露,并配合一般監(jiān)督與個(gè)案審查。人工智能司法系統(tǒng)監(jiān)督機(jī)構(gòu)評(píng)估并監(jiān)控影響司法裁判的算法決策過程,對(duì)人工智能審判系統(tǒng)所使用的訓(xùn)練數(shù)據(jù)集進(jìn)行跟蹤與測(cè)評(píng),對(duì)人工智能運(yùn)行與學(xué)習(xí)情況進(jìn)行回溯,為司法責(zé)任倒查提供材料依據(jù)。
第二,強(qiáng)化人機(jī)協(xié)同的裁判文書說理機(jī)制。在弱人工智能裁判階段,智能系統(tǒng)雖能自動(dòng)生成裁判文書,但所生成文書更接近標(biāo)準(zhǔn)公文形式,作為司法裁判的論證性、說理性尚不完備。為防止法官以人工智能審判技術(shù)作為逃避司法責(zé)任的借口,應(yīng)強(qiáng)化人機(jī)協(xié)同裁判文書說理工作。統(tǒng)一的算法難以置換法官的個(gè)案判斷,社會(huì)價(jià)值的判斷、法律的考量、公共政策的貫徹體現(xiàn)在每一個(gè)案件中,需要法官通過個(gè)案裁判守住底線。法官需要將應(yīng)用人工智能審判過程中具有法律意義的關(guān)鍵節(jié)點(diǎn)作為說理闡釋重點(diǎn),發(fā)揮自然人法官作為司法決策主體的主導(dǎo)性與能動(dòng)性,即法官對(duì)于案例數(shù)據(jù)的充足性、裁判結(jié)果的合理性、因果關(guān)系的相當(dāng)性、正反計(jì)算的對(duì)稱性等重要節(jié)點(diǎn)強(qiáng)化自然人法官文書的說理闡釋,以完成人工智能司法裁判的證成。自然人法官的個(gè)案文書說理要著重把握不同要素權(quán)重,尤其是規(guī)范要素含義和裁判結(jié)果變化之間的關(guān)系,并以文字語言向訴訟人進(jìn)行闡述和論證,防范和矯正人工智能審判潛藏的不良價(jià)值取向、道德傾向和倫理風(fēng)險(xiǎn)。?參見李飛:《人工智能與司法的裁判及解釋》,載 《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》 2018 年第5 期,第37 頁。
第三,合理規(guī)范人工智能技術(shù)輔助審判下的監(jiān)督考核機(jī)制。其一,明確司法大數(shù)據(jù)應(yīng)用的非約束性適用原則,?參見王祿生:《司法大數(shù)據(jù)應(yīng)用的法理沖突與價(jià)值平衡——從法國(guó)司法大數(shù)據(jù)禁令展開》,載 《比較法研究》 2020 年第2 期,第145 頁。規(guī)范法官考核標(biāo)準(zhǔn),不得以運(yùn)用人工智能系統(tǒng)作為硬性考核要求。?參見前引?,鄭曦文,第695 頁。有地方法院以“信息化應(yīng)用” 作為獨(dú)立考核指標(biāo)以推動(dòng)智慧法院建設(shè),?參見前引?,王靜文,第24 頁。雖然智能辦案系統(tǒng)對(duì)提升效率大有裨益,但不適合以強(qiáng)制適用的方式推廣。將法官對(duì)人工智能技術(shù)的運(yùn)用納入考核范圍容易異化人工智能辦案系統(tǒng)的輔助性質(zhì),加深法官對(duì)智能系統(tǒng)的依賴而難以獨(dú)立判斷。其二,敦促司法人員履行監(jiān)督審查義務(wù),防止過度依賴智能辦案系統(tǒng)。當(dāng)法官與人工智能辦案系統(tǒng)結(jié)論不一致時(shí),支持法官獨(dú)立判斷,法官應(yīng)當(dāng)在裁判文書中對(duì)其裁判論證詳細(xì)說理。出現(xiàn)錯(cuò)案倒查,應(yīng)采用主觀過錯(cuò)與客觀行為歸責(zé)模式,不得以與智能辦案系統(tǒng)結(jié)論相悖作為過錯(cuò)原因?qū)Ψü賳栘?zé)。其三,對(duì)法官進(jìn)行考核的同時(shí),也應(yīng)對(duì)法院智能辦案系統(tǒng)進(jìn)行評(píng)價(jià)和更新。定期對(duì)審判人員進(jìn)行問卷調(diào)研,了解一線審判人員對(duì)智能辦案系統(tǒng)的滿意程度,統(tǒng)計(jì)智能系統(tǒng)決策失誤情況,以備后續(xù)辦案系統(tǒng)的進(jìn)一步學(xué)習(xí)和完善。