齊 偉
(沈陽工業(yè)大學(xué),遼寧 沈陽 110870)
智慧法院建設(shè)是法院信息化建設(shè)的重要內(nèi)容,是國家信息化發(fā)展戰(zhàn)略在司法體系中的重要體現(xiàn)(1)參見柯宇航:《人工智能在勞動仲裁中的應(yīng)用前景——以智慧法院建設(shè)實(shí)踐為借鑒》,載《時代法學(xué)》2020年第4期,第25-32頁。。自2015年最高人民法院率先提出“智慧法院”的概念后(2)2016年1月,最高人民法院院長周強(qiáng)對建設(shè)“智慧法院”提出要求。同年7月和12月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)的《國家信息化發(fā)展戰(zhàn)略綱要》以及國務(wù)院印發(fā)的《“十三五”國家信息化規(guī)劃》中,將建設(shè)“智慧法院”列為下階段國家信息化發(fā)展戰(zhàn)略,推動了人工智能技術(shù)在智慧法院建設(shè)中得到了廣泛應(yīng)用。,短短幾年間,人工智能已經(jīng)從訴訟服務(wù)領(lǐng)域擴(kuò)展到案件管理、數(shù)據(jù)檢索、輔助審判等領(lǐng)域,甚至已經(jīng)觸及到司法的核心——輔助裁判。2021年《中國法院信息化發(fā)展報(bào)告No.5(2021)》的發(fā)布,再次肯定了人工智能在司法領(lǐng)域應(yīng)用的必要性,以及“AI審判”的強(qiáng)勁價值,但同時也對人工智能參與司法審判的限度保持了警惕。在這一背景下,從人工智能的司法應(yīng)用出發(fā),以刑事審判中量刑裁判為切入點(diǎn),探討刑事審判中人工智能輔助量刑的價值、定位及風(fēng)險(xiǎn)防控,解決算法的非可視化和可能潛在的算法偏見等問題,對于全面推進(jìn)智慧法院建設(shè)、保證司法公正、實(shí)現(xiàn)司法信息化都具有十分重要的現(xiàn)實(shí)指導(dǎo)意義。
人工智能(Artificial Intelligence,簡稱AI)(3)1956年美國學(xué)者約翰·麥卡錫,在達(dá)特茅斯大學(xué)首次提出“人工智能”的概念,其最初目的是模仿人類大腦的智能,幫助人類把錯誤降到最低。是與計(jì)算機(jī)相關(guān)的一門學(xué)科,簡單地說,就是開發(fā)模擬人類智能的系統(tǒng)或者技術(shù)(4)參見陳思桐:《刑事審判中人工智能的進(jìn)與退》,載《汕頭大學(xué)學(xué)報(bào)(人文社會科學(xué)版)》2019年第4期,第72-80頁。,通過建立最接近人類認(rèn)知水平的智能模型,模擬人類的預(yù)測、學(xué)習(xí)、推論和溝通等活動。經(jīng)過數(shù)十年的發(fā)展,人工智能從最開始的符號識別與計(jì)算,到可以自主建立思維邏輯公式(5)參見龍飛:《人工智能在糾紛解決領(lǐng)域的應(yīng)用與發(fā)展》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2019年第1期,第49-60頁。,實(shí)現(xiàn)了“符號計(jì)算”→“模塊識別”→“專家系統(tǒng)”向“人工神經(jīng)網(wǎng)絡(luò)”的飛躍,已經(jīng)廣泛應(yīng)用于工業(yè)制造、能源化工、新聞媒體、醫(yī)療服務(wù)等行業(yè)和領(lǐng)域,不斷引領(lǐng)和推動著社會生產(chǎn)和社會服務(wù)的創(chuàng)新和變革。
2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,對人工智能在司法實(shí)踐中的應(yīng)用提出了新的要求,即通過人工智能技術(shù)推動實(shí)現(xiàn)法院審判體系和審判能力的智能化(6)參見左衛(wèi)民:《關(guān)于法律人工智能在中國運(yùn)用前景的若干思考》,載《清華法學(xué)》第2018年第2期,第108-124頁。。如今,人工智能不但在法律信息檢索、文本自動化生成、庭審語音識別、裁判預(yù)測等方面取得了很好的效果,而且能夠通過對各種數(shù)據(jù)的深度分析與智能運(yùn)算,對以往裁判中的爭議焦點(diǎn)和法律要素進(jìn)行梳理,為法官提供量刑方面的參考,促進(jìn)刑事裁判的統(tǒng)一。同時,人工智能的推廣與應(yīng)用也將給刑事審判帶來全新的挑戰(zhàn)。一方面,人工智能融入刑事審判無法克服數(shù)據(jù)本身的局限性,即使再精密的計(jì)算也無法辨別案件的復(fù)雜程度和分析判斷證據(jù)能力大小,不能進(jìn)行合理的證明責(zé)任分配,不符合司法程序所要求的裁判者親歷性要求(7)See Edwina L.Rissland,Kevin D.Ashley,R.P.Loui,“AI and Law:A Fruitful Synergy”,12 Artificial Intelligence,(2003) pp.1-15。;另一方面,我國人工智能正處于“弱人工智能”階段,尚未達(dá)到自主學(xué)習(xí)的“強(qiáng)人工智能”階段,需要依賴于以數(shù)據(jù)為基礎(chǔ)的算法運(yùn)行來進(jìn)行深度學(xué)習(xí),多數(shù)情況下僅體現(xiàn)了統(tǒng)計(jì)、文字模版的價值,仍處于一種機(jī)械式作業(yè)的狀態(tài)。司法審判要達(dá)到理想的智能化審判的狀態(tài),還有很長的路要走(8)參見吳習(xí)彧:《司法裁判人工智能化的可能性及問題》,載《浙江社會科學(xué)》2017年第4期,第51-57頁。。但人工智能律師(Ross)的出現(xiàn),為實(shí)現(xiàn)司法審判智能化提供了可能。(9)參見張富利,鄭海山:《大數(shù)據(jù)時代人工智能輔助量刑的定位、前景及風(fēng)險(xiǎn)防控》,載《廣西社會科學(xué)》2019年第1期,第92-102頁。既然人工智能嵌入司法裁判勢不可擋,分析刑事審判中人工智能輔助量刑的價值與定位,針對潛在的不確定風(fēng)險(xiǎn)進(jìn)行有效防控,是當(dāng)前推進(jìn)智慧法院建設(shè)、促進(jìn)司法智能化的重要議題。
司法實(shí)踐中,受傳統(tǒng)同案同判理念影響,許多法官機(jī)械地倡導(dǎo)量刑科技化而排斥行使自由裁量權(quán),嚴(yán)格依據(jù)同類案件的裁判結(jié)果進(jìn)行程度相似的裁判,以防止同類案件量刑不一帶來的“司法不公”,即“同案同判”。法諺云:“類似者未必等同”?,F(xiàn)實(shí)生活中,嚴(yán)格意義上絕對相同的“同案”并不存在。因此,對于類似案件的不同審判結(jié)果并非全部不合理,恰恰體現(xiàn)的是個案正義。司法審判的過程是一個將抽象的“法條”適用到具體案件的過程,法官必然需要考慮到案件的具體事實(shí)和個案的特殊性,避免出現(xiàn)機(jī)械化的量刑,從而讓每個人在每一起司法案件中感受到公平和正義(10)參見倪震:《量刑改革中“機(jī)械正義”之糾正——兼論人工智能運(yùn)用的邊界及前景》,載《江西社會科學(xué)》2018年第2期,第192-200頁。。
運(yùn)用人工智能輔助量刑能夠矯正機(jī)械量刑,改變以往“估堆式”量刑模式,從而推動量刑規(guī)范化改革。其一,能夠避免量刑科技化。量刑科學(xué)化指以司法數(shù)據(jù)信息為基礎(chǔ),學(xué)習(xí)掌握量刑的一般規(guī)律和基本的經(jīng)驗(yàn),以此來規(guī)范量刑活動。與量刑科學(xué)化相對的是量刑科技化。量刑科技化需要完全依靠現(xiàn)代信息技術(shù),像自動“售貨機(jī)”那樣,運(yùn)用預(yù)先編制的電腦程序來機(jī)械量刑。量刑科技化不等于量刑科學(xué)化,具有深度學(xué)習(xí)和思考能力的人工智能,可以促進(jìn)量刑向科學(xué)化邁進(jìn)(11)參見張富利,鄭海山:《大數(shù)據(jù)時代人工智能輔助量刑的定位、前景及風(fēng)險(xiǎn)防控》,載《廣西社會科學(xué)》2019年第1期,第92-102頁。。其二,有助于避免量刑的具體化。2010年推行的量刑規(guī)范化改革(12)為了規(guī)范法官的量刑裁量權(quán),統(tǒng)一法律適用標(biāo)準(zhǔn),最高人民法院從2010年開始推行量刑規(guī)范化改革工作,先后發(fā)布了《人民法院量刑指導(dǎo)意見(試行)》(2010)、《常見犯罪的量刑指導(dǎo)意見》(2017)等量刑指導(dǎo)性意見,對常見罪名的量刑幅度進(jìn)行細(xì)化。近幾年,量刑規(guī)范化改革為適應(yīng)信息時代發(fā)展的需要,將司法大數(shù)據(jù)與信息技術(shù)有機(jī)融合,探索構(gòu)建全國法院量刑智能輔助系統(tǒng),建立全國法院量刑數(shù)據(jù)庫,促進(jìn)量刑活動的智能化現(xiàn)代化。,出臺了一系列量刑指導(dǎo)性意見,對規(guī)范量刑程序和量刑幅度、保證統(tǒng)一法律適用產(chǎn)生了積極作用,但卻難以避免量刑的具體化。首先是量刑指導(dǎo)意見涵攝不足,只是針對一些常見罪名的量刑適用進(jìn)行規(guī)定,并未全部包含實(shí)務(wù)中所有罪名涉及量刑的問題。在司法實(shí)踐中,許多法官為減少承擔(dān)個人責(zé)任的風(fēng)險(xiǎn),選擇完全機(jī)械化地按照量刑指導(dǎo)意見進(jìn)行案件審判,即使發(fā)現(xiàn)適用量刑指導(dǎo)意見會導(dǎo)致個案中量刑不當(dāng)?shù)膯栴},仍然不愿意突破量刑指導(dǎo)意見明文規(guī)定的范圍。借助于人工智能輔助量刑系統(tǒng),法官能夠得到司法裁判觀點(diǎn)作為參考,從而突破量刑具體化的困境。其三,人工智能輔助量刑系統(tǒng)能夠避免過于追求同案同判而忽略個案正義的現(xiàn)象發(fā)生。對刑事案件進(jìn)行量刑時不能僅憑借一個方面的事實(shí)或者部分事實(shí),必須要考慮方方面面的事實(shí),才能做到真正的罪刑統(tǒng)一、量刑平衡。運(yùn)用人工智能輔助量刑,法官仍然居于司法審判中的主體地位,有利于法官發(fā)揮其自身的主觀能動性。
鑒于人工智能可以實(shí)現(xiàn)一定程度的自動化,從而解放人類的雙手和頭腦,有時甚至無須人類進(jìn)行引導(dǎo)和配合,這令不少人產(chǎn)生了恐慌,擔(dān)心會導(dǎo)致相對應(yīng)領(lǐng)域內(nèi)的員工大量失業(yè)。英國著名的物理學(xué)家霍金先生就曾預(yù)言,“人工智能的發(fā)展可能意味著人類的滅亡”(13)參見潘庸魯:《人工智能介入司法領(lǐng)域的價值與定位》,載《探索與爭鳴》2017年第10期,第101-106頁。。隨著人工智能從初級向高級乃至更高階段的發(fā)展,司法領(lǐng)域的工作人員也不同程度地出現(xiàn)了職業(yè)危機(jī),擔(dān)心“智能裁判”終究會取代法官裁判,法官的職業(yè)也將被人工智能所替代。其實(shí),基于司法審判工作的復(fù)雜性和系統(tǒng)性,人工智能的發(fā)展始終無法突破自身的局限,人工智能無論如何都無法完全取代法官。
自2006年全國首個智能量刑系統(tǒng)問世以來,四川、河北、北京等地人民法院先后推出“糾紛化解一體化平臺”“智審系統(tǒng)”“審判智能輔助系統(tǒng)”等平臺(14)2006年,山東省淄博市淄川區(qū)法院研發(fā)了全國首個人工智能量刑系統(tǒng)。隨后,我國一些試點(diǎn)法院也相繼推出了類似的量刑系統(tǒng),其中較有代表性的是上海法院研發(fā)的“上海刑事案件輔助智能辦案系統(tǒng)”即“206工程”。研發(fā)“推進(jìn)以審判為中心訴訟制度改革—上海刑事案件智能輔助辦案系統(tǒng)”,是中央政法委于2017年2月6日交辦上海的重大任務(wù)(“206系統(tǒng)”是以2月6日確定的簡稱)。。2017年最高人民法院正式立項(xiàng),推動全國范圍內(nèi)量刑規(guī)范化智能輔助系統(tǒng)建設(shè)。這一系列舉措表明人工智能的技術(shù)水平已經(jīng)達(dá)到一定高度,但是截止目前人工智能系統(tǒng)均僅僅被定位于輔助司法的手段。這里所謂輔助司法手段的地位主要基于以下三個方面的考量:
首先,人工智能是人類智慧的結(jié)晶。深度學(xué)習(xí)是實(shí)現(xiàn)人工智能的重要基礎(chǔ),也是人工智能的重要特征之一。人工智能對事物的認(rèn)知、推理和學(xué)習(xí),完全依賴于設(shè)計(jì)者預(yù)先設(shè)計(jì)的程序和模型。人工智能終究是“人工”而不是“人類”。2017年的人機(jī)圍棋大戰(zhàn)中,代表人工智能圍棋的AlphaGo分別戰(zhàn)勝了世界冠軍柯潔和李世石,看似人工智能戰(zhàn)勝了人類頭腦,實(shí)則是人類智慧的勝利。“人工智能”戰(zhàn)勝“人腦”的背后,是設(shè)計(jì)者大數(shù)據(jù)技術(shù)和算法計(jì)算技術(shù)編輯的勝利,是設(shè)計(jì)者的勝利而非AlphaGo(人工智能)的勝利。
其次,人工智能對法官審判工作僅能提供片面性的幫助。人工智能的識別能力遠(yuǎn)高于其判斷能力。在司法領(lǐng)域,人工智能可以協(xié)助法官檢索相關(guān)法條及同類案件,可以經(jīng)過數(shù)據(jù)分析后,對案件結(jié)果進(jìn)行預(yù)測。但是對于證據(jù)的判斷及采用、判決結(jié)果的選擇等決斷性的問題卻無能為力,仍需要法官本人來控制(15)參見潘庸魯:《人工智能介入司法領(lǐng)域的價值與定位》,載《探索與爭鳴》2017年第10期,第101-106頁。。人工智能無法獨(dú)自實(shí)施司法審判活動。刑事審判涉及庭前會議、證人出庭等多個環(huán)節(jié),需要由法官控制訴訟活動的進(jìn)度,并通過聽取控辯雙方意見、判斷雙方提交證據(jù)的證明力和審查被告人言詞等司法活動獲取內(nèi)心確信,從而進(jìn)行公正的裁判。
再次,法官作為中立的裁判者,除法律專業(yè)知識外,還要掌握經(jīng)濟(jì)、政治、哲學(xué)等方面的非專業(yè)知識,并要擁有一顆仁愛之心,通曉情理(符合社會道德觀念和廣大人民群眾審美習(xí)慣的人情事理)。法官在進(jìn)行裁判時,要憑借自己的生活經(jīng)驗(yàn),結(jié)合法理、常識和情理進(jìn)行必要的創(chuàng)新。而處于弱人工智能階段的人工智能系統(tǒng)只能按照既定的程序和數(shù)據(jù)庫來選擇法律適用,根本無法具備或復(fù)制法官這種非專業(yè)知識的生活經(jīng)驗(yàn)和情理,無法實(shí)現(xiàn)有溫度的公正裁判。
深度學(xué)習(xí)作為人工智能的核心,是人工智能與計(jì)算機(jī)技術(shù)的根本區(qū)別,需要依賴于以數(shù)據(jù)為基礎(chǔ)的算法規(guī)則的運(yùn)行,對紛繁復(fù)雜的數(shù)據(jù)進(jìn)行高效處理和分析,以解決現(xiàn)實(shí)生活中存在的難題。將人工智能應(yīng)用于司法裁判中,實(shí)則是運(yùn)用算法進(jìn)行司法裁判(16)參見侯曉燕:《人工智能在參照援引指導(dǎo)性案例中的應(yīng)用及其完善研究》,載《西部法學(xué)評論》2019年第3期,第36-45頁。。算法裁判主要有兩方面優(yōu)點(diǎn)。一是客觀性。借助于算法裁判,能夠減少外界包括個人主觀情感因素和其他因素對裁判結(jié)果的干擾,能夠更好地保證裁判的中立性。二是高效性。效率是信息化建設(shè)追求的目標(biāo)之一,也是人工智能的重要特點(diǎn)之一。大數(shù)據(jù)技術(shù)和算法技術(shù)可以替代人工檢索及人腦計(jì)算,把人類從繁雜的重復(fù)勞動中解放出來,在司法裁判中亦是如此。人工智能技術(shù)的運(yùn)用可以有效節(jié)省司法資源,在一定程度上解決“人少案多”的矛盾。貝克在《風(fēng)險(xiǎn)社會》中指出,“任何新興技術(shù)的誕生與運(yùn)用,在給人們帶來機(jī)遇與便利的同時,也可能產(chǎn)生風(fēng)險(xiǎn)與制造挑戰(zhàn)”(17)參見烏爾里?!へ惪耍骸讹L(fēng)險(xiǎn)社會》,何博聞譯,南京:譯林出版社2004年版,第39頁。。目前,人工智能應(yīng)用于司法裁判雖然能夠很好地保證司法裁判的客觀性和中立性,提高司法審判效率,但是“算法裁判”仍處于初級階段,還存在算法所需的數(shù)據(jù)提取困難、潛在的算法歧視和偏見、算法運(yùn)行缺乏透明度等問題,可能給人工智能輔助量刑帶來不確定性的風(fēng)險(xiǎn)。
實(shí)踐中,由于“案多人少”矛盾的存在,每個法官都需要處理大量的案件,導(dǎo)致其審理每個案件的時間十分緊張而有限。人工智能系統(tǒng)可以為法官提供準(zhǔn)確性較高、可操作性強(qiáng)的算法結(jié)果。如果把算法比作一輛汽車,數(shù)據(jù)就是為汽車提供動力的燃料。也就是說,必須要有足夠多且質(zhì)量足夠好的數(shù)據(jù),才能保證算法結(jié)果的準(zhǔn)確性。我國當(dāng)前的司法數(shù)據(jù)系統(tǒng)尚不能滿足人工智能輔助量刑系統(tǒng)所需數(shù)據(jù)的要求,主要體現(xiàn)在以下兩個方面。首先,司法數(shù)據(jù)的數(shù)量不足。算法技術(shù)需要大數(shù)據(jù)支撐,人工智能輔助司法的“算法裁判”必然需要司法大數(shù)據(jù)的支持。當(dāng)前,我國司法大數(shù)據(jù)建設(shè)主要依賴于裁判文書網(wǎng)的數(shù)據(jù)來推進(jìn)(18)《最高人民法院關(guān)于人民法院在互聯(lián)網(wǎng)公布裁判文書的規(guī)定》(2016)明確規(guī)定,最高法院在互聯(lián)網(wǎng)設(shè)立中國裁判文書網(wǎng),統(tǒng)一公布各級人民法院的生效裁判文書。參見高魯嘉:《人工智能時代我國司法智慧化的機(jī)遇、挑戰(zhàn)及發(fā)展路徑》,載《山東大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2019年第3期,第115-123頁。。截至2020年8月,中國裁判文書網(wǎng)上傳文書已經(jīng)超過1億篇。但是,由于各地執(zhí)行的尺度標(biāo)準(zhǔn)不同以及法院信息化建設(shè)的地區(qū)差異等原因,網(wǎng)上裁判文書公布的數(shù)量極為有限。根據(jù)學(xué)者對中國裁判文書網(wǎng)所公開文書年份的調(diào)查研究表明,同一年度網(wǎng)上公開的裁判文書數(shù)量僅占該年度全國法院審結(jié)案件總數(shù)的一半左右(19)參見馬超,于曉虹,何海波:《大數(shù)據(jù)分析:中國司法裁判文書上網(wǎng)公開報(bào)告》,載《中國法律評論》2016年第4期,第195-246頁。。其次,我國既有的司法數(shù)據(jù)來源單一,整體質(zhì)量較低。依托中國裁判文書網(wǎng)所建立的司法大數(shù)據(jù),主要以各級人民法院的判決書和裁定書為主。這些裁判文書大多僅對案件事實(shí)、判決理由及裁判結(jié)果進(jìn)行了記載,欠缺一些重要的可供參考的內(nèi)容,法官在進(jìn)入到系統(tǒng)前的篩選和提取階段無法根據(jù)結(jié)果進(jìn)行判斷,尚無統(tǒng)一的篩選參考價值較大的信息的標(biāo)準(zhǔn)。例如,上?!?06工程”的解決方式是首先建立內(nèi)部統(tǒng)一的證據(jù)判斷標(biāo)準(zhǔn),然后根據(jù)每個罪名的具體情況,逐一制定更具體詳細(xì)的定罪量刑標(biāo)準(zhǔn)和規(guī)則。由于法官在這個過程中已經(jīng)事先研究了從系統(tǒng)中提取到的案件數(shù)據(jù),此后的審判工作可能主要針對案件中的法律要素進(jìn)行審查而趨于程序化,從而失去了刑事審判工作的真實(shí)意義。
人工智能算法運(yùn)行的過程以“輸入與輸出”的運(yùn)算模式為主,是一個自發(fā)、無意識、不完全可控的過程(20)參見廖旋:《智慧法院:人工智能介入司法的隱憂與展望》,載《湖南第一師范學(xué)院學(xué)報(bào)》2019年第2期,第104-109頁。。算法設(shè)計(jì)者通過給出諸多的“假設(shè)”以及經(jīng)過選擇后輸入系統(tǒng)的數(shù)據(jù),決定了算法的走向。我國司法機(jī)關(guān)大多不具備單獨(dú)開發(fā)人工智能系統(tǒng)的技術(shù)力量,需要依靠專門的技術(shù)研發(fā)公司來完成技術(shù)開發(fā)工作。比如上海刑事案件智能輔助辦案系統(tǒng)就是由科大訊飛公司開發(fā)研制的。在核心算法的研發(fā)過程中,司法工作人員可能會提供司法專業(yè)方面的意見,但其實(shí)質(zhì)仍然是由技術(shù)研發(fā)人員主導(dǎo)核心算法的設(shè)計(jì),而這些技術(shù)研發(fā)人員極有可能將個人的偏見嵌入算法之中。以2013年美國發(fā)生的Wisconsin v.Loomis一案為例,法官在進(jìn)行量刑判決時依據(jù)一個名為“COMPAS”(21)COMPASS是一種人工智能算法,由Northpointe創(chuàng)建,在美國用于預(yù)測哪些罪犯在未來更有可能再次犯罪。根據(jù)這些預(yù)測,法官對這些罪犯的未來作出決定。的算法風(fēng)險(xiǎn)評估系統(tǒng)給出的評估結(jié)果,判處了Eric Loomis長期徒刑。隨后,ProPublica發(fā)布的調(diào)查表明,COMPAS系統(tǒng)存在嚴(yán)重的種族偏見。黑人犯罪者通過COMPAS算法評估后,被認(rèn)為未來再犯的可能性更大,而被賦予更高的風(fēng)險(xiǎn)等級。而實(shí)際上,這些黑人并沒有再次犯罪(22)參見朱體正:《人工智能輔助刑事裁判的不確定性風(fēng)險(xiǎn)及其防范——美國威斯康星州訴盧米斯案的啟示》,載《浙江社會科學(xué)》2018年第6期,第76-85頁。。算法歧視潛藏的危險(xiǎn)是算法的設(shè)計(jì)者將個人的偏見傳遞給人工智能系統(tǒng),以此來規(guī)避其本應(yīng)承擔(dān)的偏見責(zé)任。另外,算法設(shè)計(jì)者緣于追求更高經(jīng)濟(jì)效益或其他原因,很有可能將存在算法偏見或歧視的人工智能輔助量刑系統(tǒng)作為可靠的工具交給司法機(jī)關(guān)使用。這可能會導(dǎo)致一連串案件處理出現(xiàn)不公正,嚴(yán)重的甚至可能會由個案的不公正轉(zhuǎn)化為類案的不公正。
在人工智能領(lǐng)域,終極算法不是從零開始。終極算法的尋找需要融合多種學(xué)派算法聯(lián)合使用(23)算法主要可分為符號、聯(lián)結(jié)學(xué)派、進(jìn)化學(xué)派、貝葉斯學(xué)派與類推學(xué)派五種主要類型。每個學(xué)派對其中心問題的解決方法都是一個輝煌、來之不易的進(jìn)步,但真正的終極算法應(yīng)該把5個學(xué)派的5個問題都解決,而不是只解決一個。參見[美]佩德羅·多明戈斯:《終極算法、機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,北京:中信出版集團(tuán)2017年版,第66頁。,人工智能輔助司法也是如此。數(shù)據(jù)輸入和結(jié)果輸出是人工智能算法運(yùn)行的基本程式,這部分是可見的。而算法過程作為連接輸入和輸出的紐帶,是在算法的黑箱中進(jìn)行自動化的數(shù)據(jù)分析,進(jìn)而給出決策結(jié)果(24)參見高魯嘉:《人工智能時代我國司法智慧化的機(jī)遇、挑戰(zhàn)及發(fā)展路徑》,載《山東大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2019年第3期,第115-123頁。。這個過程是外界很難獲知的。這種自動化的決策機(jī)制與傳統(tǒng)的法官在判決中進(jìn)行充分而公開的說理不同:后者是普通大眾可以通過一些手段獲知的;而前者一般人包括司法工作人員都無法知悉,只有算法的設(shè)計(jì)者才能知曉這些軟件的決策機(jī)制。為保護(hù)商業(yè)秘密,應(yīng)對激烈的市場競爭,大多數(shù)研發(fā)公司一般不愿意公開詳細(xì)介紹算法的運(yùn)作方式和核心技術(shù),法官和大眾也就無法知悉技術(shù)的運(yùn)行過程是否受到某些因素的影響,或存在錯誤的步驟而影響結(jié)果的準(zhǔn)確性。受專業(yè)性的限制,法官由于無法知曉或掌握人工智能系統(tǒng)的算法運(yùn)行過程,所以根本無法判斷人工智能系統(tǒng)給出的結(jié)果是否存有歧視和偏見。在上文提到的Wisconsin v.Loomis案中,被告人Loomis對COMPAS系統(tǒng)的算法運(yùn)行產(chǎn)生質(zhì)疑而提起上訴。當(dāng)法院要求設(shè)計(jì)COMPAS系統(tǒng)的公司提供證據(jù)材料時,公司以商業(yè)秘密為由拒絕公開。法院無法對工具計(jì)算程序這類極其專業(yè)的事情進(jìn)行核查,只能駁回Loomis的上訴。目前我國的司法實(shí)踐中,尚未掌握合適的手段對算法過程進(jìn)行規(guī)范化的管理和審查。如果不對算法的透明度進(jìn)行適當(dāng)?shù)谋O(jiān)管和審查,勢必會滋長算法存在的偏見或歧視的現(xiàn)象。算法的隱秘性與司法裁判的公開性之間的矛盾不容忽視,可能會造成破壞司法公信力的后果。
如上文所述,人工智能如同一把雙刃劍,在為我國刑事裁判工作帶來便捷和高效的同時,也潛藏著諸多的風(fēng)險(xiǎn)和挑戰(zhàn)。但無論我們承認(rèn)與否,司法審判智能化將成為現(xiàn)階段乃至未來一段時間我國司法改革的重要趨勢之一。為此,我們必須認(rèn)真思考如何規(guī)避人工智能中潛在的風(fēng)險(xiǎn),合理推進(jìn)人工智能在我國司法中的有效應(yīng)用——司法裁判智能化的進(jìn)程。
盡快走出司法數(shù)據(jù)難以提取困境的有效途徑之一就是建立統(tǒng)一的司法數(shù)據(jù)庫,進(jìn)而充分實(shí)現(xiàn)對歷史裁判中所有的司法數(shù)據(jù)的有效挖掘和全面整合。
首先,要加強(qiáng)中國裁判文書網(wǎng)的管理工作,積極推動各級法院裁判文書公開上網(wǎng),并對上網(wǎng)的裁判文書內(nèi)容進(jìn)行豐富和優(yōu)化,使其盡可能包含案件的所有關(guān)鍵信息,呈現(xiàn)的數(shù)據(jù)信息更為全面充分。在現(xiàn)有的案件劃分標(biāo)準(zhǔn)基礎(chǔ)上,結(jié)合案件的爭議焦點(diǎn)、裁判觀點(diǎn)和證據(jù)種類等進(jìn)行更為細(xì)致的區(qū)分。其次,建立公檢法系統(tǒng)相互間的信息共享機(jī)制,對刑事案件所經(jīng)歷的各階段的司法數(shù)據(jù)進(jìn)行整合和共享。我國公檢法機(jī)關(guān)內(nèi)部均有自己的法律數(shù)據(jù)庫,但出于加強(qiáng)保密工作及防止司法腐敗等目的,并未在系統(tǒng)內(nèi)部開展廣泛的信息交流。建立信息共享機(jī)制,首先要求在技術(shù)層面和法律層面對數(shù)據(jù)共享進(jìn)行雙重保障,避免數(shù)據(jù)丟失或泄露產(chǎn)生的不利后果。再次,與社會中的其他機(jī)構(gòu)部門進(jìn)行溝通聯(lián)系,利用合法的多方信息共享機(jī)制,補(bǔ)全歷史性的司法數(shù)據(jù),使數(shù)據(jù)庫能夠包含司法裁判觀點(diǎn)發(fā)生過的變化、背景和趨勢等,從而助力人工智能對未來裁判進(jìn)行預(yù)測,同時保證司法裁判與時俱進(jìn)。在對數(shù)據(jù)庫信息進(jìn)行篩選、校驗(yàn)的過程中,要運(yùn)用關(guān)聯(lián)對比、圖譜建構(gòu)等數(shù)據(jù)技術(shù),盡可能確保入庫信息的準(zhǔn)確和真實(shí)(25)參見高魯嘉:《人工智能時代我國司法智慧化的機(jī)遇、挑戰(zhàn)及發(fā)展路徑》,載《山東大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2019年第3期,第115-123頁。。
目前我國尚未建立健全針對算法歧視和算法審查的法律制度。結(jié)合我國現(xiàn)階段的基本國情,建議采用完善《個人信息保護(hù)法》與構(gòu)建算法司法審查制度相結(jié)合的綜合治理方式(26)參見楊成越,羅先覺:《算法歧視的綜合治理初探》,載《科學(xué)與社會》2018年第4期,第1-12頁。。首先,完善《個人信息保護(hù)法》(27)《中華人民共和國個人信息保護(hù)法》已于2021年8月20日第十三屆全國人民代表大會常務(wù)委員會第三十次會議通過,2021年11月1日正式實(shí)施,但是該法中并未對算法歧視和個人信息獲取和使用的平等性做出規(guī)定。,并在《個人信息保護(hù)法中》設(shè)立禁止算法歧視的原則或規(guī)則,以限制算法的設(shè)計(jì)者、使用者利用算法技術(shù)在個人信息收集、處理、使用過程中,人為地將歧視轉(zhuǎn)移給人工智能技術(shù)的做法,確保每個人擁有平等的法律地位(28)參見高學(xué)強(qiáng):《人工智能時代的算法裁判及其規(guī)制》,載《陜西師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2019年第3期,第161-168頁。。其次,建立算法司法審查制度。實(shí)踐中,大多數(shù)法院都缺乏算法方面的技術(shù)型人才,因此將算法審查工作委托給中立的第三方評估機(jī)構(gòu),讓其承擔(dān)實(shí)質(zhì)性審查任務(wù),更能實(shí)現(xiàn)對算法的合理審查。對此,我國可以借鑒美國的做法,建立由計(jì)算機(jī)技術(shù)專家等專業(yè)技術(shù)研發(fā)人員、法官等專業(yè)法律人士和其他領(lǐng)域的社會人士組成的算法審查專門機(jī)構(gòu),對算法的公平性進(jìn)行全面審查。同時,該專門機(jī)構(gòu)應(yīng)當(dāng)接受全過程的監(jiān)督,以保護(hù)數(shù)據(jù)安全。該項(xiàng)審查包括三個階段:事前,由算法設(shè)計(jì)者進(jìn)行相關(guān)技術(shù)說明;事中,機(jī)構(gòu)人員對算法進(jìn)行審查和糾正;事后,建立算法問責(zé)機(jī)制,處理好公眾的申訴意見,并進(jìn)行必要的說明和解釋。
首先,公開是最好的監(jiān)管手段。人民法院應(yīng)當(dāng)聯(lián)合其他司法機(jī)關(guān)和計(jì)算部門共同研究、制定算法問責(zé)監(jiān)管辦法,將算法置于規(guī)則和公開之下,以保證算法本身的公開性和透明性。目前,通過立法對算法進(jìn)行監(jiān)管是世界各國的普遍做法(29)例如,2017年12月,紐約市議會通過《算法問責(zé)法案》,要求成立一個由自動化決策系統(tǒng)專家和相應(yīng)的公民組織代表組成的工作組,專門監(jiān)督自動決策算法的公平和透明。。我國未來在制定算法問責(zé)監(jiān)管制度時,應(yīng)當(dāng)確立可追溯性原則,賦予算法設(shè)計(jì)者透明、公開和說明等義務(wù),確保社會公眾可以對人工智能進(jìn)行決策的全過程進(jìn)行必要的監(jiān)管。如此,不僅能夠幫助人們理解人工智能的決策過程,提高人工智能輔助量刑下產(chǎn)生的裁判的公信力,同時可以及時發(fā)現(xiàn)并修正錯誤的人工智能操作系統(tǒng),減少錯誤算法裁判帶來的危害。其次,構(gòu)建算法公開機(jī)制。算法的隱蔽性與司法運(yùn)行所應(yīng)具備的公開性之間存在矛盾。因此,對于算法設(shè)計(jì)者而言,應(yīng)當(dāng)規(guī)定其承擔(dān)向使用者履行算法設(shè)計(jì)運(yùn)行原理的說明義務(wù)(30)參見高魯嘉:《人工智能時代我國司法智慧化的機(jī)遇、挑戰(zhàn)及發(fā)展路徑》,載《山東大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2019年第3期,第115-123頁。。另外,司法機(jī)關(guān)應(yīng)當(dāng)按照法律規(guī)定,以社會公眾容易理解和掌握的方式,主動向社會公開不涉及國家秘密的算法內(nèi)容,并接受公眾的監(jiān)督。
目前,人工智能輔助量刑系統(tǒng)還處于初級階段,只能作為供法官裁判時參考的一種輔助工具。雖然頂層設(shè)計(jì)下各級人民法院做出了很多努力和嘗試,但距離真正的“智能裁判”依然還有很長的路要走。量刑規(guī)范化改革為人工智能輔助量刑創(chuàng)造了平臺和契機(jī)。發(fā)展人工智能輔助量刑技術(shù),既要符合量刑規(guī)范化改革的要求,也要避免忽視法官的自由裁量權(quán),從而陷入機(jī)械量刑的僵局。針對人工智能算法存在的諸多弊端,應(yīng)當(dāng)繼續(xù)探索能夠規(guī)制不確定性風(fēng)險(xiǎn)的技術(shù)手段,確保其平穩(wěn)、健康的長久發(fā)展,為全球法律治理提供“中國人工智能+”的司法審判特色藍(lán)本。