• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能輔助司法裁判的可能及邊界限度

      2024-01-21 13:00:29李俊強(qiáng)
      關(guān)鍵詞:裁判法官司法

      徐 輝,李俊強(qiáng)

      (湘潭大學(xué) 法學(xué)院,湖南 湘潭 411105)

      一、問題的引出:生成式人工智能輔助司法裁判的時代契機(jī)

      生成式人工智能(Generative AI)是指基于算法、模型、規(guī)則生成具有相關(guān)性、精確性、創(chuàng)造性的文本、圖片、聲音、視頻、代碼等內(nèi)容,從而實(shí)現(xiàn)類似人類創(chuàng)造力的技術(shù)。從2014年第一個通過“圖靈測試”的人工智能尤金·古斯特曼(Eugene Goostman)至2022年11月,OpenAI公司推出生成式人工智能ChatGPT,并且僅間隔4個月的時間就完成了到GPT-4的迭代改進(jìn),其展示的顯著性能以及多模態(tài)生成能力,短時間內(nèi)就吸引了超1億用戶[1]。ChatGPT的成功也引發(fā)了新一輪的AI科技競賽,繼ChatGPT、谷歌Bard及微軟Copilot后,我國的百度、華為公司也相繼推出了“文言一心”和“鯤鵬”等生成式人工智能工具。總的來說,以大語言模型為代表的生成式人工智能的崛起得益于三個要素的組合,分別是海量數(shù)據(jù)優(yōu)勢、強(qiáng)化學(xué)習(xí)算法優(yōu)勢和持續(xù)超強(qiáng)算力優(yōu)勢[2],其技術(shù)原理可以用“海量數(shù)據(jù)投喂+深度學(xué)習(xí)+模擬訓(xùn)練+微調(diào)變換+加工輸出”予以簡單概括[3]。

      隨著數(shù)字司法改革的逐步推進(jìn),以ChatGPT為代表的生成式人工智能憑借其深度合成領(lǐng)域的重大技術(shù)革新與強(qiáng)大算力,對傳統(tǒng)司法裁判實(shí)踐的理念、構(gòu)造和運(yùn)行帶來了新的發(fā)展機(jī)遇與風(fēng)險挑戰(zhàn),也為司法裁判實(shí)踐的適應(yīng)性調(diào)整創(chuàng)造了歷史性契機(jī)。2023年1月30日,哥倫比亞的一名法官首次借助ChatGPT做出了一份法院裁決,被譽(yù)為“全球AI審判第一案”。該法官表示,通過ChatGPT可以生成通俗易懂的判決文書,并且可以根據(jù)以往的相似案例對本次法院判決進(jìn)行預(yù)測,能夠極大地縮短司法的反應(yīng)時間[4]。

      事實(shí)上,有關(guān)人工智能應(yīng)用于司法領(lǐng)域的實(shí)踐,早有先例可循。在20世紀(jì)60年代末,聯(lián)邦德國就著手開展計算機(jī)在法律實(shí)務(wù)中應(yīng)用可能性研究,并于1973年構(gòu)建了名為JURIS的司法數(shù)據(jù)系統(tǒng)[5]。我國最初將人工智能應(yīng)用于司法裁判領(lǐng)域是在1986年,朱華榮、肖開權(quán)主持建立了盜竊罪量刑數(shù)學(xué)模型。1993年,趙延光教授開發(fā)的計算機(jī)輔助量刑系統(tǒng),具有檢索、咨詢法律規(guī)范和對形式個案進(jìn)行推理判斷、定性量刑的功能,被多家法院、檢察院所采用[6]。近年來,隨著人工智能技術(shù)的發(fā)展,數(shù)字司法改革也逐漸加快進(jìn)度。2015年最高人民法院首次提出建設(shè)“智慧法院”。2022年12月8日,最高人民法院發(fā)布《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》指出:“要建成具有規(guī)則引領(lǐng)和應(yīng)用示范效應(yīng)的司法人工智能技術(shù)應(yīng)用和理論體系,為司法為民、公正司法提供全流程高水平智能輔助支持”。實(shí)踐中,北京高院的“睿法官”、上海高院的“206”系統(tǒng),以及寧波的“AI法官助理”等審判智能輔助辦案系統(tǒng)建設(shè)取得了積極效果,減輕了法官事務(wù)性工作30%以上,庭審效率提升20%以上[7]。

      與此同時,伴隨著人工智能技術(shù)在司法裁判領(lǐng)域的應(yīng)用場景和范圍不斷拓寬,在提高了司法效率,緩和了訴訟案件與法官人員比例失調(diào)的關(guān)系,減輕了法官的工作量,實(shí)現(xiàn)技術(shù)賦能的同時,也引起了學(xué)者對司法公正的擔(dān)憂。艾倫教授很早就對人工智能在司法裁判領(lǐng)域的應(yīng)用表示了憂慮,認(rèn)為其存在相當(dāng)?shù)牟淮_定性、模糊性和開放性[8]。王祿生教授指出,人工智能在司法領(lǐng)域的應(yīng)用可能導(dǎo)致司法改革陷入“技治主義”的路徑,“司法改革的復(fù)雜性被化約為簡單計算,司法改革的難題被通過技術(shù)性手段回避,最終導(dǎo)致司法改革發(fā)生‘目標(biāo)被替代’的風(fēng)險”[9]。孫海波教授也認(rèn)為:“生成式人工智能在司法裁判中只能發(fā)揮一種有效的輔助型角色,過度夸大甚至神化其作用都不可取?!盵10]

      本文認(rèn)為,從發(fā)展角度看,生成式人工智能輔助司法裁判已然是一種無法回避的客觀事實(shí),因而在探討其應(yīng)用于司法領(lǐng)域的可能時,亦要詳盡剖析其風(fēng)險,在人工智能的技術(shù)理性與司法裁判的價值理性之間找到平衡點(diǎn),控制技術(shù)治理的工具主義缺陷,為其輔助司法裁判建立必要限度與價值邊界,以實(shí)現(xiàn)智能化司法裁判邁向可信。

      二、機(jī)制探析:生成式人工智能輔助司法裁判的運(yùn)用前景

      根據(jù)人民法院司法審判工作數(shù)據(jù)統(tǒng)計,2023年上半年,全國法院新收各類案件1 696萬件,同比增長11.01%;審結(jié)案件1 526.2萬件,同比增長9.65%[11]。伴隨著立案登記制和法官員額制改革的推進(jìn),案件數(shù)量的激增與法官數(shù)量的比例失調(diào),以及司法資源的錯配,造成“案多人少”,出現(xiàn)案件的質(zhì)與量無法兼顧的情況。因此,通過生成式人工智能工具輔助實(shí)現(xiàn)類案推送、證據(jù)認(rèn)定、偏離度預(yù)警,能夠有效提升司法效率,把法官從機(jī)械勞動中解放出來,緩解當(dāng)前法律適用不統(tǒng)一、案多人少等難題。

      (一)智能化類案推送,實(shí)現(xiàn)類案同判

      “制定法本身隱含著產(chǎn)生司法裁判沖突的風(fēng)險?!盵12]法律適用統(tǒng)一是司法裁判的一種重要的現(xiàn)實(shí)約束和目標(biāo)狀態(tài),也是法律效力具有一致性和普遍性的邏輯所在。但是,隨著社會經(jīng)濟(jì)的快速發(fā)展和急劇轉(zhuǎn)型,日益復(fù)雜的社會矛盾和裁判文書經(jīng)由互聯(lián)網(wǎng)的“放大效應(yīng)”,導(dǎo)致對司法裁判的爭議頻發(fā)。因此,法律適用不統(tǒng)一成為困擾我國司法的突出問題[13]?!邦愃瓢讣愃茖Υ笔恰罢x的最簡單形式”。讓人民群眾在每一個案件中感受到公平正義,是法律適用統(tǒng)一的最終價值目標(biāo),也是“法律面前人人平等”的憲法規(guī)定。運(yùn)用生成式人工智能技術(shù)輔助類案同判、保證刑罰裁量的一致性和實(shí)現(xiàn)類案裁判標(biāo)準(zhǔn)的普遍化是當(dāng)前數(shù)字司法改革的方向之一。

      生成式人工智能輔助智能化類案推送,實(shí)現(xiàn)類案同判的技術(shù)路徑是通過接入關(guān)鍵信息、案件事實(shí)等數(shù)據(jù),然后系統(tǒng)自動匹配檢索案件專題庫,進(jìn)行類案比較智能標(biāo)引,從而實(shí)現(xiàn)精準(zhǔn)類案推送;并以海量的類案裁判數(shù)據(jù)為坐標(biāo)系,模仿法官對待決案件進(jìn)行預(yù)測判決,提供相對規(guī)范、一致的量刑建議,輔助法官進(jìn)行量刑。智能化類案推送不僅可以將法官從重復(fù)的機(jī)械勞動中解放出來,節(jié)省法官在案件檢索過程中付出的勞動,提高審判效率,緩解“案多人少”的問題,還限制了法官在司法裁判過程中的權(quán)利任性,避免同案不同判、司法腐敗和司法不公的情況發(fā)生。

      (二)智能化裁判偏離度預(yù)警機(jī)制,降低法官職業(yè)風(fēng)險

      《中共中央關(guān)于全面深化改革若干重大問題的決定》在論及“推進(jìn)法治中國建設(shè)”時指出,落實(shí)司法責(zé)任制,“讓審理者裁判,讓裁判者負(fù)責(zé)”。當(dāng)前我國對錯案實(shí)行終身負(fù)責(zé)制,既要保質(zhì)又要保量,無形中會給法官造成巨大的心理壓力,而智能化司法裁判技術(shù)的出現(xiàn)能夠?yàn)榉ü偬峁┛梢暬念惏覆门薪Y(jié)果參考,通過“中間線標(biāo)準(zhǔn)”“平均值標(biāo)準(zhǔn)”對存在較大偏離度的司法判決進(jìn)行及時預(yù)警,以便法官對其所做出的司法裁判進(jìn)行修正,紓解法官的審判壓力,降低法官的職業(yè)風(fēng)險。

      (三)智能化證據(jù)審核,輔助證據(jù)認(rèn)定

      生成式人工智能技術(shù)本身的中立性、客觀性、明確性和經(jīng)驗(yàn)性(大數(shù)據(jù)分析)能夠在一定程度上彌補(bǔ)甚至替代主觀性較強(qiáng)、相對不確定性的經(jīng)驗(yàn)法則判斷,減輕刑事印證證明模式下的法官印證壓力[14]。作為一種科學(xué)證據(jù),生成式人工智能對證據(jù)能力和證明力的審查內(nèi)容主要受真實(shí)性、關(guān)聯(lián)性和合法性三個屬性,以及《中華人民共和國刑事訴訟法》規(guī)定的相關(guān)證據(jù)規(guī)則的影響。當(dāng)前,生成式人工智能對證據(jù)智能審核經(jīng)由四個階段:階段一,對案件事實(shí)、人員、證據(jù)等信息的采集、存儲、檢索、挖掘分析與歸集,建立相應(yīng)的業(yè)務(wù)專題庫,包括案件卷宗庫、證據(jù)標(biāo)準(zhǔn)庫、案件證據(jù)模型庫等;階段二,借助生成式人工智能的深度機(jī)器學(xué)習(xí)和強(qiáng)大算力,進(jìn)行場景文字識別、證據(jù)瑕疵手動標(biāo)注等分析校驗(yàn);階段三,針對訴訟文書卷、證據(jù)材料卷等證據(jù)文書材料生成若干項(xiàng)校驗(yàn)規(guī)則,通過規(guī)則模型生成、關(guān)鍵要素分析、邏輯推理等技術(shù)方式,構(gòu)建證據(jù)規(guī)則校驗(yàn)引擎,實(shí)現(xiàn)上述校驗(yàn)規(guī)則的自動校驗(yàn),分析推斷證據(jù)的真實(shí)性、合法性、關(guān)聯(lián)性;階段四,智能構(gòu)建可視化、系統(tǒng)化、數(shù)據(jù)化的案件完整證據(jù)鏈條、案件知識圖譜,輔助法官進(jìn)行證據(jù)認(rèn)定。

      智能化證據(jù)審核的優(yōu)勢在于能夠?qū)⑺痉ㄗC明的認(rèn)知過程構(gòu)筑于科學(xué)證據(jù)的數(shù)學(xué)語言的表達(dá)之上,將數(shù)學(xué)話語上的概率關(guān)系與待證案件事實(shí)在主觀上的信念程度表達(dá)為一組數(shù)字;通過統(tǒng)一證據(jù)的認(rèn)定標(biāo)準(zhǔn),輔助法官相對準(zhǔn)確、高效地運(yùn)用證據(jù)獲得對案件事實(shí)的確信,以克服“真實(shí)故合法”“印證故合法”“穩(wěn)定故合法”等不當(dāng)思路。但是,由于算法可解釋性存在不足,如果嚴(yán)格執(zhí)行生成式人工智能的證據(jù)標(biāo)準(zhǔn)追求形式正義,亦有可能會陷入形而上學(xué)的“法定證據(jù)制度”誤區(qū)。因此,這種認(rèn)知路徑也存在著不足之處,需要法官在對人工智能證據(jù)的證據(jù)能力進(jìn)行實(shí)質(zhì)性審查時,起到“守門人”作用。

      三、理性審思:生成式人工智能輔助司法裁判的風(fēng)險研判

      當(dāng)探討生成式人工智能給司法裁判領(lǐng)域帶來技術(shù)性變革時,不能不談“方式”,生成式人工智能的計算機(jī)模型評估事實(shí)和預(yù)測判決是一種技術(shù)活動,其算法黑箱、算法歧視和算法偏見等技術(shù)隱患是技術(shù)使用不規(guī)范所造成的;也不能只談“方式”,正是因?yàn)樯墒饺斯ぶ悄軣o限的創(chuàng)造力和指數(shù)級的進(jìn)化可能,使我們見識到算法偉力的同時,易忽視司法裁判的本質(zhì),進(jìn)而陷入了康德的“純粹理性批判”的危機(jī)。

      (一)算法黑箱引發(fā)司法公信力的質(zhì)疑

      “正義不能隱居,不能示人之處更容易藏污納垢?!盵15]司法裁判是法官在與雙方當(dāng)事人的論辯過程中,通過法律論證、法律推理對其做出的司法決策進(jìn)行釋法說理,中立解決當(dāng)事人的矛盾糾紛,進(jìn)而修復(fù)社會關(guān)系,維護(hù)法的安定性。從這個角度出發(fā),司法裁判的功能在于通過推理或論證的方式達(dá)成關(guān)于特定正義的解決方案,實(shí)現(xiàn)定分止?fàn)嶽10]。膨脹會導(dǎo)致貶值,對司法公信力也是一樣,無法被充分理解的司法裁判將成為不會被充分遵守的司法裁判,導(dǎo)致社會的不安定性大大加強(qiáng)。職是之故,就需要法官對生成式人工智能輔助司法裁判的技術(shù)、過程,以及結(jié)果的有效性、可靠性進(jìn)行合理解釋。但是,受制于算法的復(fù)雜性、技術(shù)性及專屬所有權(quán)的存在,“輸入—輸出”的算法決策過程中存在著我們無法窺探的隱秘,因而智能化裁判面臨著司法決策的透明度與可解釋性風(fēng)險。例如,在2016年“盧米斯訴威斯康星州”一案中[16],被告埃里克·盧米斯以COMPAS量刑算法侵犯其正當(dāng)程序權(quán)力為由抗辯,但是該算法的母公司北點(diǎn)以受商業(yè)秘密的專有權(quán)保護(hù)為由成功拒絕披露該算法的評分計算方式。這一開創(chuàng)性的案例引發(fā)了算法黑箱如何影響司法裁判透明度的思考。

      算法黑箱的存在,不僅使得當(dāng)事人、辯護(hù)人的知情權(quán)與抗辯權(quán)無法得到保障,也導(dǎo)致法官無法充分地對其所做出的裁判結(jié)論進(jìn)行公平性和準(zhǔn)確性的權(quán)衡與說明,使得生成式人工智能輔助司法裁判的正當(dāng)性、有效性、可靠性更具有挑戰(zhàn)性,也引發(fā)了對司法公信力的質(zhì)疑。

      (二)算法歧視與算法偏見引發(fā)司法公正危機(jī)

      大數(shù)據(jù)和深度機(jī)器學(xué)習(xí)算法為生成式人工智能技術(shù)輔助司法裁判提供了客觀性、中立性和經(jīng)驗(yàn)性的參考或者決策依據(jù)的可行性,但是隨著時間的推移,已有批判性學(xué)者的研究證明,機(jī)器學(xué)習(xí)算法再現(xiàn)了“算法壓迫”的形式[17]。當(dāng)前,生成式人工智能的算法歧視與算法偏見來源于兩個層面。一是后天性算法偏見,輸入的預(yù)訓(xùn)練數(shù)據(jù)存在偏見或歧視引發(fā)了算法歧視與算法偏見。例如,算法在刑事案件中對罪犯量刑時考慮的法定情節(jié)和酌定情節(jié),以及適用緩刑時對罪犯再犯罪的風(fēng)險等進(jìn)行計算預(yù)測時,忽視了罪犯在社會中“暴露的風(fēng)險”往往是過分歧視和劣勢的結(jié)果。這些數(shù)據(jù)往往與風(fēng)險變量相關(guān),從而帶來“更高”的風(fēng)險評分,尤其是對社會的邊緣化群體更是如此。二是先天性算法偏見,算法本身存在歧視與偏見。當(dāng)前智能裁判工具通常是法院外包給其他企業(yè),如果企業(yè)通過技術(shù)手段在算法底層邏輯上故意“夾帶私貨”,預(yù)先人工標(biāo)注算法歧視與算法偏見,法官又不容易察覺出其錯誤,無疑將會進(jìn)一步引發(fā)司法公正的危機(jī)。這種算法歧視與算法偏見對于生活其他方面而言似乎并無大礙,但對當(dāng)事人的權(quán)利與義務(wù)造成實(shí)質(zhì)性影響的司法裁判而言,這種歧視與偏見卻十分有害,它在客觀上會強(qiáng)化“智能化裁判”的錯誤可能,導(dǎo)致當(dāng)事人的處境更為不利[18],進(jìn)一步造成法律主體之間的訴訟地位不平等。

      (三)智能化司法裁判無法兼顧實(shí)質(zhì)正義

      在法律與司法的語境中,正義的概念已然超出了計算機(jī)及統(tǒng)計學(xué)科中通常使用的數(shù)學(xué)計算或定義[19]。事實(shí)上,正義不僅僅是一種客觀認(rèn)識,更是一種主觀感受。司法裁判僅僅宣示正義是不夠的,還需要讓民眾感受到正義。如何實(shí)現(xiàn)個案中的實(shí)質(zhì)正義?這離不開價值判斷及法律原則的運(yùn)用與理解。事實(shí)上,法的適用不僅僅是事實(shí)判斷的過程,也是價值判斷的過程,不光包含了法律規(guī)則的適用,也包含了法律原則的適用。雖然為了法的安定性,應(yīng)該優(yōu)先適用具體的法律規(guī)則而不是抽象的法律原則,但是當(dāng)適用具體的法律規(guī)則將導(dǎo)致個案不正義時,為了實(shí)現(xiàn)個案正義就需要優(yōu)先考慮適用法律原則。例如,美國的“里格斯訴帕爾默案”(Riggs v. Palmer)一案中[20],法官就援引了“任何人都不得從其錯誤行徑中受益”的法律原則,剝奪了帕爾默的繼承權(quán)。近年來,我國司法實(shí)踐中頻發(fā)存在較大爭議的案件,如深圳鸚鵡案、許霆案、趙春華案及王力軍案等。這些案件的審理結(jié)果為何難以被社會公眾所認(rèn)可和接受,難以產(chǎn)生更理想的司法和社會效果,很大程度上就是因?yàn)榉ü僭谒痉ú门兄惺┱沟膬r值判斷太少,而機(jī)械適用法律規(guī)則的情形太多,忽視了法律原則的運(yùn)用,導(dǎo)致了結(jié)構(gòu)性的失衡,即法條主義。但遺憾的是,當(dāng)前司法實(shí)踐中,還是以法律規(guī)則適用為主要的司法裁判方式。因此,就目前階段來說,智能化司法裁判還無法真正地兼顧實(shí)質(zhì)正義,體現(xiàn)在如下方面。

      其一,從法律條文本身看,相較于邏輯上擁有完整的假定條件、行為模式和法律后果的法律規(guī)則,邏輯上缺少明確的假定條件、行為模式和法律后果的法律原則對于生成式人工智能而言更為難以理解與運(yùn)用,尤其是擁有明確的法律規(guī)范三要素是法“可計算性”理想的前提。另外,由于人類語言自身的多樣性,在不同的語境、上下文中完全可能呈現(xiàn)出不同的含義、用法,導(dǎo)致立法語言的語義在一定程度上也是模糊、不確定的。總的來說,立法所使用之語言不可避免地具有一個“語義空間”[21]。這就容易導(dǎo)致生成式人工智能對法律規(guī)范背后的立法目的和意旨產(chǎn)生誤解。

      其二,從價值判斷看,生成式人工智能無法進(jìn)行理解與進(jìn)行價值判斷。正如海德格爾所指出的那樣:“真理的本質(zhì)和存在解釋是由作為真正主體的人來規(guī)定的?!盵22]作為規(guī)范人們行為總和的法律制度,必然是以人性作為其存在的土壤[23],但對于生成式人工智能來說“法律就是一串‘0’和‘1’二進(jìn)制的排列分布組成,一種公理,所謂的法律推理是一種純粹的數(shù)學(xué)推理公式”[24]。從這個角度出發(fā),生成式人工智能不能感知,也不能理解,其所能起到的作用就是事實(shí)層面的判斷即“真”“假”之分,無關(guān)乎“善”“美”的價值判斷[25]。因此,生成式人工智能面對價值判斷時要么選擇回避,要么將其轉(zhuǎn)化為事實(shí)判斷。然而,正如康德所指出的,從實(shí)然當(dāng)中不能推導(dǎo)出應(yīng)然。也就是說,從一個單獨(dú)的事實(shí)當(dāng)中,不能獲得何為實(shí)質(zhì)上正當(dāng)或不正當(dāng)?shù)母鶕?jù)。一言以蔽之,通過智能化司法裁判固然能夠?qū)崿F(xiàn)形式正義的價值追求,但是如果過度地依賴于生成式人工智能追求類案同判,必然會回到“機(jī)械主義法學(xué)”的老路上來,走向?qū)嵸|(zhì)正義的對立面,嚴(yán)重背離司法與法治的目的。

      其三,從案件事實(shí)的認(rèn)定看,生成式人工智能對新型、疑難、復(fù)雜的案件理解不能。不可否認(rèn),生成式人工智能輔助司法裁判在一些簡易案件上,如盜竊、詐騙、民間借貸等案件中,確實(shí)能夠起到相當(dāng)大的作用。但是,隨著社會經(jīng)濟(jì)的快速發(fā)展,各種新型、疑難、復(fù)雜的案件也層出不窮。面對層出不窮的新型、復(fù)雜的疑難案件,法律本身也存在立法空白、內(nèi)容不全面、規(guī)定模糊等問題,規(guī)范之間的內(nèi)容沖突也在所難免。例如,仇某明侵害英雄烈士名譽(yù)、榮譽(yù)案。兩者共同導(dǎo)致了法律在個案中的指引會出現(xiàn)中斷,甚至面對新型、疑難、復(fù)雜的案件這種指引會被用盡[10]?!吧畹呢S富多樣性不允許法律為所有的個別情景都提供抽象、明確,同時又適當(dāng)?shù)囊?guī)整。”[26]這種“開放性的結(jié)構(gòu)”從法的安定性(也即法的可計算性)角度看乃是一種缺陷,但是從法的適應(yīng)性(Schmiegsamkeit)角度看卻是一種優(yōu)勢。它使一般的立法語句對被規(guī)整之生活情景具有一定的適應(yīng)能力。然而,這種“開放性的結(jié)構(gòu)”對于AI來說卻是致命的,Open AI大語言模型的核心成員Jack Rae在《壓縮帶來通用人工智能》(《CompressionforAGI》)一文中指出,生成式人工智能的“智能”是一種壓縮(即簡化)[27]。面對無法律規(guī)范適用的新型、疑難、復(fù)雜案例時[28],生成式人工智能的計算過程有兩個必經(jīng)步驟:一是基于語言“統(tǒng)計概率”對案件事實(shí)進(jìn)行壓縮、抽取案件要素并轉(zhuǎn)化為相應(yīng)的數(shù)字代碼;二是從相同語言模型里根據(jù)概率大小強(qiáng)制性匹配相對符合的法律規(guī)范進(jìn)行關(guān)聯(lián),預(yù)測司法裁判結(jié)果的概率分布。這種“強(qiáng)制性”的修正、壓縮還原及概率判斷必然會扭曲事實(shí),機(jī)械地推導(dǎo)出不合理的司法裁判結(jié)果。這本質(zhì)上是一種“隨機(jī)正義”,與拋硬幣、擲骰子并無二致。申言之,對于生成式人工智能而言,輸出結(jié)果的正確與否并不重要,最重要的是保持與提示詞在統(tǒng)計學(xué)上的一致性。凱爾森就曾先見之明地指出具體規(guī)范無法按照邏輯或數(shù)學(xué)原理從根本規(guī)范演繹出來[29]。波斯曼也獨(dú)具慧眼,對濫用統(tǒng)計學(xué)的現(xiàn)象予以批判[30]。

      其四,從法官的自由裁量權(quán)看,生成式人工智能不可避免地會侵蝕法官的自由裁量空間。司法裁判需要法官的目光在事實(shí)與規(guī)范之間往返,正確對待存在與當(dāng)為之間的對應(yīng)關(guān)系,尋找具體的、真實(shí)的法,而這離不開法官的自由裁量。如前文所述,智能化裁判這一技術(shù)的核心在于通過全數(shù)據(jù)定量分析的方式呈現(xiàn)量的整體把握[31],進(jìn)而統(tǒng)一司法裁量基準(zhǔn),抑制權(quán)力尋租、司法腐敗,以及克服裁量的隨意性。這雖然形式上滿足了“法律規(guī)則面前人人平等”的普適性要求,但也不可避免地造成了司法的僵化、創(chuàng)新性的貧乏及實(shí)質(zhì)上不平等,陷入“自動售貨機(jī)式法官”的陷阱。正如龐德所指出的“沒有一個法制體系能夠做到僅僅通過規(guī)則而不依靠自由裁量來實(shí)現(xiàn)正義,不論該法制體系的規(guī)則系統(tǒng)如何縝密,如何具體。所有的實(shí)施正義的過程都涉及自由裁量與規(guī)則兩方面”[32]。另外,當(dāng)面對無規(guī)范適用的場景時,在“禁止拒絕裁判原則”下,法官的自由裁量也能夠進(jìn)行“法律續(xù)造”,填補(bǔ)制定法漏洞,彌補(bǔ)法律滯后的缺陷,然而生成式人工智能的“幻覺”(Hallucinations)的缺陷,使其根本無法擔(dān)當(dāng)如此大任。此外,司法裁判不僅要放眼于案件事實(shí),法律規(guī)則等可以“量化”的信息,還要超越規(guī)范與事實(shí)。對那些埋藏在規(guī)范與事實(shí)之下的道德倫理、善良風(fēng)俗、慣例等非量化信息予以顧及,都離不開法官的自由裁量權(quán)。這些“非量化”的信息對于人工智能而言,卻是一種無法理解的奢望。

      (四)算法權(quán)力對司法責(zé)任制的沖擊

      風(fēng)險與責(zé)任之間具有必然的因果聯(lián)系,當(dāng)社會向一個人為的不確定性風(fēng)險,以及利益博弈下所支配的未知領(lǐng)域移動時,就必然出現(xiàn)對責(zé)任的討論[33]。在風(fēng)險現(xiàn)實(shí)與治理規(guī)則無法調(diào)和的現(xiàn)實(shí)矛盾下,人工智能成為司法工作人員轉(zhuǎn)移和分擔(dān)責(zé)任的對象,為司法卸責(zé)提供了便利。

      在司法責(zé)任制的總體構(gòu)架中,法官依法獨(dú)立行使司法裁判權(quán)是確保可問責(zé)性的前提和基礎(chǔ)。但是,隨著人工智能越來越多地被使用在司法實(shí)踐,在訴訟爆炸、年底考核、審限制度剛性規(guī)定等多重壓力的影響下,勢必會造成法官過度依賴生成式人工智能的傾向。法官一旦在司法決策中產(chǎn)生技術(shù)依賴,“算法權(quán)力”的風(fēng)險就無從避免,進(jìn)而造成司法權(quán)獨(dú)立性的權(quán)力配置和運(yùn)行機(jī)制分崩離析。此外,生成式人工智能輔助司法裁判也勢必會造成審判主體適格性的異化,以及庭審結(jié)構(gòu)的坍塌,事實(shí)層面會出現(xiàn)算法的設(shè)計者和法官共同做出司法裁判的局面。當(dāng)審判權(quán)轉(zhuǎn)移給其他人或物時,審判主體不能確定,那么責(zé)任鏈條的分配就會產(chǎn)生追責(zé)難題,出現(xiàn)“動因遷移”(agentic shift)的可能性就大幅度提高,致使司法責(zé)任制難以得到落實(shí)。

      四、邁向可信:生成式人工智能輔助司法裁判的風(fēng)險紓解

      智能化裁判在提高司法效率,實(shí)現(xiàn)類案同判和審判可預(yù)測性的同時,亦不可避免地引起公眾對司法公信力與司法公正的質(zhì)疑。針對生成式人工智能工具存在的算法黑箱、算法歧視及算法偏見等技術(shù)性風(fēng)險,可以通過數(shù)據(jù)治理、算法治理、控制治理三個維度予以緩解。

      (一)數(shù)據(jù)治理

      海量、準(zhǔn)確、一致、規(guī)范的司法數(shù)據(jù)集是生成式人工智能預(yù)訓(xùn)練和微調(diào)的“富礦”,也是生成式人工智能更智能化地輔助司法裁判的先決條件。已有研究證明,生成式人工智能基礎(chǔ)模型的生成內(nèi)容與訓(xùn)練數(shù)據(jù)存在相關(guān)關(guān)系[34]。

      1.開源增量:拓寬司法數(shù)據(jù)來源

      當(dāng)前,中國裁判文書網(wǎng)、北大法寶、威科先行數(shù)據(jù)庫等案件信息檢索數(shù)據(jù)庫為生成式人工智能深度學(xué)習(xí)訓(xùn)練提供了較為全面、系統(tǒng)的司法數(shù)據(jù)支撐和來源,但是距離全面數(shù)據(jù)化的要求仍然具有較大的差距。有學(xué)者指出當(dāng)前我國裁判文書公開具有“偽公開”的現(xiàn)象[35]。例如,涉及個人隱私的案件、調(diào)解結(jié)案、離婚訴訟等無法完全上網(wǎng)。除了“偽公開”的問題之外,當(dāng)前裁判文書公開的數(shù)量上也呈現(xiàn)急劇下降的趨勢,可能只有審結(jié)案件的一半數(shù)量[36]。筆者統(tǒng)計,僅就民事案件而言,2022年全國民事裁判一審文書公開量為4 388 998份,相較于2021年8 155 478份,下降了46.18%。因此當(dāng)前亟須全面、及時地提升裁判文書的公開量,拓寬司法數(shù)據(jù)的來源。第一,就特定不宜公開的裁判文書可以采取隱名條款措施,通過隱去、刪除相關(guān)信息后予以公開。第二,出臺相關(guān)裁判文書公開實(shí)施細(xì)則,通過細(xì)化裁判書、裁定書與決定書之間的差異,列出詳細(xì)的公開類目、具體情況及標(biāo)準(zhǔn)等方式,強(qiáng)化裁判文書上網(wǎng)的可操作性。第三,司法數(shù)據(jù)流通上,通過完善不同地域、層級法院之間的案件數(shù)據(jù)信息及時共享機(jī)制,以便生成式人工智能即時聯(lián)動響應(yīng)處理數(shù)據(jù)信息。

      2.提質(zhì)增效:提升司法數(shù)據(jù)質(zhì)量

      保障數(shù)據(jù)質(zhì)量是正義的要求,保障正義能預(yù)防人工智能帶來的極端分化[37]。裁判文書形式的規(guī)范化、格式化,以及充分說理能夠有助于生成式人工智能工具對司法行為的分析、學(xué)習(xí)和理解,保障智能化裁判結(jié)果更加精準(zhǔn)、公平、公正。司法數(shù)據(jù)的質(zhì)量可以通過形式與實(shí)質(zhì)兩種途徑予以提升。一是統(tǒng)一裁判文書內(nèi)容的表達(dá)形式,避免生成式人工智能的錯誤理解。通過統(tǒng)一裁判文書內(nèi)容的表達(dá)形式,不斷提升裁判文書的格式化、規(guī)范化程度,從源頭上減少少錄、錯錄的現(xiàn)象。例如,字詞、標(biāo)點(diǎn)、表述、語法等錯誤。二是明確裁判文書理由闡述的具體要求,加深生成式人工智能對司法規(guī)律的學(xué)習(xí)把握。裁判文書說理必須堅持以事實(shí)為依據(jù),以法律為準(zhǔn)繩。針對具體對象與問題,做到思路清晰、層次分明,符合案件客觀事實(shí),充分地論證、闡明法律規(guī)范與案件證據(jù)事實(shí)之間認(rèn)定過程的正當(dāng)性與合法性,加強(qiáng)裁判文書說理的法理性、邏輯性,實(shí)現(xiàn)理由、事實(shí)及判決結(jié)果相互一致。

      (二)算法治理

      1.元規(guī)制:算法倫理的嵌入

      “倫理先行是智能算法應(yīng)用于社會生活領(lǐng)域的首要,也是科學(xué)技術(shù)健康發(fā)展的重要保障?!盵38]在算法設(shè)計上嵌入算法倫理規(guī)范,有助于判斷算法行為是否符合倫理道德的標(biāo)準(zhǔn),進(jìn)而從價值層面將算法歧視、算法偏見等算法風(fēng)險列為禁止行為,進(jìn)行矯正與規(guī)訓(xùn),實(shí)現(xiàn)“元規(guī)制”。具體要求應(yīng)該包括以下幾個層面。一是研發(fā)層面,雖然在技術(shù)層面算法是價值中立的,但算法自研發(fā)之初就摻雜了算法設(shè)計者的價值取向,具有明顯主體屬性。因此,需要加強(qiáng)對人工智能研發(fā)相關(guān)活動的約束機(jī)制,強(qiáng)化研發(fā)人員的自我管理、自我約束意識,規(guī)制其不從事違背倫理道德規(guī)約的算法研發(fā)。二是理論層面,監(jiān)管部門或行業(yè)協(xié)會出臺具有一定前瞻性、兜底性、靈活性的算法倫理標(biāo)準(zhǔn),揭示其中可能侵犯的實(shí)際利益,以應(yīng)對日新月異的算法風(fēng)險變化,彌補(bǔ)算法倫理標(biāo)準(zhǔn)滯后的缺陷,加強(qiáng)實(shí)際應(yīng)用,引導(dǎo)算法向善。三是制度層面,通過建立算法備案、算法安全評估、算法問責(zé)、算法治理、第三方監(jiān)管等具體制度,明確算法設(shè)計者的義務(wù)邊界和權(quán)責(zé)定位,從內(nèi)到外實(shí)現(xiàn)對算法倫理的全方位審查,以此避免算法濫用。

      2.內(nèi)核優(yōu)化:從算法黑箱到算法可釋

      有學(xué)者指出:“相對于算法的透明度,算法的可解釋性才是目的?!盵19]不難理解,算法的透明度固然很重要,但是考慮到參與訴訟的當(dāng)事人面對如“天書”一般的復(fù)雜代碼,算法的透明度所起到的效果收效甚微,根本無法打消社會公眾對智能化裁判司法公信力的質(zhì)疑。但是,通過恰當(dāng)?shù)乃惴ń忉尫绞?至少能夠?qū)崿F(xiàn)大部分智能化司法決策環(huán)節(jié)的信息留痕,最大程度地復(fù)現(xiàn)智能化司法決策的過程、結(jié)果和應(yīng)用,從技術(shù)層面揭開算法內(nèi)部的歧視與偏見的面紗,實(shí)現(xiàn)算法的“去黑箱化”。因此,增強(qiáng)算法的可解釋性是當(dāng)下促進(jìn)智能化裁判邁向可信,獲得公眾“算法信任”的關(guān)鍵。具體的解釋方法如下。

      一是以問題為靶向的局部解釋。一般情況下對司法裁判的不認(rèn)同往往集中于其中某個點(diǎn),很少情況下出現(xiàn)對整個判決的否定,因此相較于動輒將整個算法背后的復(fù)雜邏輯及其系統(tǒng)的工作機(jī)制進(jìn)行全面詳解的公式化全局解釋,以“問題為靶向”的局部解釋則更為直觀、簡潔、省力,更能夠提升公眾的理解程度。其基本思路是在生成模型預(yù)測結(jié)果的同時,同步設(shè)計一個模型生成對該結(jié)果的說明。常見的局部解釋方法包括敏捷性分析解釋、局部近似解釋、梯度方向傳播解釋,以及激活映射解釋等[39]。

      二是根據(jù)不同的受眾進(jìn)行區(qū)別解釋。專業(yè)知識、公眾預(yù)期、工作背景等均可能對算法的理解和信任產(chǎn)生影響,因而面向不同的主體強(qiáng)調(diào)算法解釋的不同方式,是提升算法解釋效果的必然選擇[40]。例如,對缺乏相關(guān)技術(shù)知識認(rèn)知背景的當(dāng)事人可以采取模型蒸餾解釋方法、可視化的圖片解釋法等被視為技術(shù)上不完備、不徹底的解釋方法,反而實(shí)際上可能更有效果。

      (三)控制治理

      當(dāng)前,無論是學(xué)界還是實(shí)務(wù)界已經(jīng)形成了統(tǒng)一的共識:司法的效率絕對不能以犧牲司法公正為代價。無論人工智能如何發(fā)展,其永遠(yuǎn)無法代替法官。在這場機(jī)器與法官對司法決策權(quán)力的“逐鹿”中,以人類大獲全勝為告終。因此,為了合理確定生成式人工智能工具輔助司法裁判的邊界限度,保障智能化裁判健康發(fā)展,應(yīng)始終以彰顯與強(qiáng)化法官的主體地位、統(tǒng)籌案件繁簡分流機(jī)制下分層應(yīng)用、嚴(yán)格落實(shí)司法責(zé)任制為出發(fā)點(diǎn)。

      1.以人為本:彰顯與強(qiáng)化法官的主體地位

      司法活動的本質(zhì)是人類實(shí)踐理性的具體應(yīng)用。從這個角度出發(fā),司法裁判不可能也不能成為純粹的技術(shù),過分盲從、依賴、不加節(jié)制地使用人工智能技術(shù)會必然會動搖法官的地位,進(jìn)一步壓縮法律議論的空間。事實(shí)上,依據(jù)法理、人情、倫理道德,以及對案件事實(shí)細(xì)致入微的洞察,并通過法官的自由心證與“法感”形成內(nèi)心確信,最終做出妥善處理的司法裁判實(shí)際上是一種超凡“藝術(shù)”,不亞于寫作、繪畫與演奏等藝術(shù)活動。即使生成式人工智能具有強(qiáng)大的深度學(xué)習(xí)能力,也無法完全替代法官獨(dú)立做出兼顧法律效果、社會效果和政治效果統(tǒng)一的司法裁判;并且數(shù)字司法改革的初衷也不是讓生成式人工智能代替法官獨(dú)立裁判,而是讓生成式人工智能在司法決策領(lǐng)域中扮演輔助性的角色,輔助法官依法、全面、規(guī)范地收集和審查證據(jù),統(tǒng)一法律適用標(biāo)準(zhǔn),保障司法公正,實(shí)現(xiàn)法律面前人人平等。特別是當(dāng)前,生成式人工智能仍有許多技術(shù)難題需要攻關(guān),司法改革也處于穩(wěn)步扎實(shí)推進(jìn)的階段。因此,就需要始終彰顯與強(qiáng)化法官的主體地位,把握好智能化裁判的尺度,確立法官對司法裁判的最終話語權(quán)。

      2.程序分流:統(tǒng)籌案件繁簡分流機(jī)制下分層應(yīng)用

      可以看到,生成式人工智能輔助司法裁判在法律關(guān)系明確、事實(shí)清楚的簡單案件中展現(xiàn)出強(qiáng)大的效率優(yōu)勢。但是如前文所述,其在疑難案件中存在著無法識別、理解的困難。因此,在當(dāng)前繁簡分流機(jī)制下,根據(jù)簡單案件與疑難案件的性質(zhì)分層適用人工智能輔助司法裁判,能夠更好地平衡司法公正與效率之間的關(guān)系。一是突出簡單案件的效率要求。簡單案件的法律關(guān)系相對單一、明確,事實(shí)清楚,且訴訟程序上一般都為速裁程序、簡易訴訟程序、小額訴訟程序,所以生成式人工智能可以憑借其指數(shù)級的算法處理能力和反應(yīng)速度,輔助法官進(jìn)行要素化審判,包括證據(jù)審核、案例分析,預(yù)測判決等,實(shí)現(xiàn)了案件全流程快速審理,同時亦盡可能地減少錯誤。二是削弱疑難案件的標(biāo)準(zhǔn)化控制。疑難案件的法律關(guān)系、案件事實(shí),以及相關(guān)證據(jù)材料相較于簡易案件更為復(fù)雜,對此生成式人工智能存在類案識別困難,造成無法實(shí)現(xiàn)精準(zhǔn)地推送和預(yù)測判決的困境。因此,在疑難案件中應(yīng)當(dāng)弱化生成式人工智能在司法裁判中的標(biāo)準(zhǔn)化控制,適度運(yùn)用智能化[41]。

      3.揭開人工智能面紗:落實(shí)司法責(zé)任制

      韋伯認(rèn)為:“一個人或很多人在一種共同體行動中哪怕遇到其他參加者的反抗也能貫徹自己意志。”[42]就現(xiàn)階段而言,生成式人工智能還不具備具有責(zé)任能力的現(xiàn)實(shí)基礎(chǔ),還不能實(shí)現(xiàn)法律意義上的“人格化”。從審判地位來看,生成式人工智能亦不可能挑戰(zhàn)法官的主體地位,用與不用、接受或不接受完全取決于法官自我意志和選擇,法官依舊把控著司法審判的全過程。因此,需要揭開人工智能面紗,嚴(yán)格落實(shí)司法責(zé)任制,“讓審理者裁判,讓裁判者負(fù)責(zé)”。此外,嚴(yán)格落實(shí)司法責(zé)任制也能使法官更加審慎地依賴人工智能,“有思考地服從”人工智能,加強(qiáng)法官對裁判結(jié)果的自我檢驗(yàn)與審查,增強(qiáng)法官的責(zé)任擔(dān)當(dāng)意識,保障司法的公正。

      在明確了嚴(yán)格貫徹司法責(zé)任制后,還需要結(jié)構(gòu)化地分析智能化裁判致?lián)p時的狀態(tài)與原因,進(jìn)一步劃分司法責(zé)任與司法豁免權(quán)之間的邊界,明確法官的責(zé)任范圍,構(gòu)建權(quán)責(zé)一致的責(zé)任分擔(dān)機(jī)制。若是由生成式人工智能運(yùn)算邏輯錯誤引起的決策錯誤,法官盡到合理的審查注意義務(wù)之后,仍未發(fā)現(xiàn)錯誤的,則法官不用承擔(dān)責(zé)任;若是由法官自身過失或者瀆職致使生成式人工智能決策錯誤的,則由法官承擔(dān)主要責(zé)任;若是由生成式人工智能的設(shè)計者的原因引起的決策錯誤,則由設(shè)計者承擔(dān)主要責(zé)任,法官不用承擔(dān)責(zé)任。

      五、結(jié)語

      從發(fā)展角度看,隨著生成式人工智能發(fā)展“奇點(diǎn)”的到來,生成式人工智能與司法裁判領(lǐng)域的融合注定是無法回避的客觀事實(shí),但我們應(yīng)當(dāng)始終保持“技術(shù)謙虛”的態(tài)度,即要有全局意識,既不要斷定,也不要妨礙技術(shù)的具體功能。一方面,生成式人工智能輔助司法裁判在一定程度上確實(shí)能夠通過類案推送、輔助證據(jù)認(rèn)定、偏離度預(yù)警等方式實(shí)現(xiàn)形式正義的可視化與提升司法效率,具有積極的一面;另一方面,生成式人工智能現(xiàn)階段仍有許多技術(shù)風(fēng)險需要攻關(guān),其算法黑箱、算法歧視、算法偏見等依舊是無法繞過的客觀存在,且其“誘人的正義”不可避免地會造成法官過度依賴生成式人工智能,導(dǎo)致人被機(jī)器所“奴役”。

      正如魏澤堡竭力所指出的那樣:“人的智能是不能移植的?!盵43]反思司法裁判事業(yè)是以人的情感、理性、經(jīng)驗(yàn)為基礎(chǔ)的價值判斷。因此,在司法裁判這樣開放的場域中,不應(yīng)完全放手由生成式人工智能去操作,法官在司法裁判領(lǐng)域的主體地位始終不能被動搖,需要審慎地應(yīng)對技術(shù)權(quán)力與司法權(quán)力的共建,避免“人在環(huán)中”(human in loop)的情況發(fā)生。

      猜你喜歡
      裁判法官司法
      制定法解釋中的司法自由裁量權(quán)
      法律方法(2021年4期)2021-03-16 05:34:28
      法官如此裁判
      法官如此裁判
      法律裁判中的比較推理
      法律方法(2019年4期)2019-11-16 01:07:10
      司法所悉心調(diào)解 墊付款有了著落
      清代刑事裁判中的“從重”
      法律史評論(2018年0期)2018-12-06 09:22:28
      非正式司法的悖謬
      做“德法兼修”的好法官
      紅土地(2018年8期)2018-09-26 03:19:06
      當(dāng)法官當(dāng)不忘初心
      紅土地(2016年10期)2016-02-02 02:45:32
      論司法公開的困惑與消解
      扎兰屯市| 万载县| 抚宁县| 晋江市| 射阳县| 巴南区| 罗江县| 湾仔区| 城固县| 阿鲁科尔沁旗| 泽库县| 嘉峪关市| 北京市| 镇原县| 西畴县| 班玛县| 资阳市| 河池市| 南溪县| 内江市| 兴义市| 花垣县| 焦作市| 嵊泗县| 邯郸市| 洛阳市| 晋中市| 九龙县| 乌海市| 广州市| 疏附县| 宿迁市| 东源县| 朝阳区| 民权县| 德格县| 德惠市| 宜城市| 沾化县| 滨州市| 宣化县|