劉 妍
(中國(guó)政法大學(xué) 刑事司法學(xué)院,北京 100088)
眾所周知,人工智能(Artificial Intelligence,簡(jiǎn)稱AI)的發(fā)展已是當(dāng)代顯學(xué),世界各國(guó)的政府、企業(yè)、學(xué)校等無(wú)不爭(zhēng)相投入人力、物力和財(cái)力,希望在未來(lái)人工智能應(yīng)用領(lǐng)域占得先機(jī)。 機(jī)器是否有智慧,與人類之間應(yīng)當(dāng)如何展開(kāi)互動(dòng)的情境,已從科幻小說(shuō)變?yōu)楝F(xiàn)實(shí)。 在法律領(lǐng)域,人工智能與司法之交互關(guān)系,同樣成為眼下的熱門(mén)話題。 早在2013 年,牛津大學(xué)的研究人員就發(fā)布了《未來(lái)職場(chǎng):哪些工作將可能被電腦取代?》的調(diào)查報(bào)告。 該研究以702 種職業(yè)為對(duì)象,認(rèn)為在未來(lái)不確定的時(shí)間里,有47%的職業(yè)將因人工智能的發(fā)展而面臨被電腦化(computerisation)的風(fēng)險(xiǎn)。 其中,涉及法律職業(yè)的研究結(jié)果顯示:律師有30%—50%的被替代風(fēng)險(xiǎn),或者可以理解為有30%—50%的工作可以交由人工智能來(lái)處理,而不需要人力親為;法官有40%的被替代風(fēng)險(xiǎn);法官助理、書(shū)記員等司法輔助人員有41%的被替代風(fēng)險(xiǎn);仲裁員、聽(tīng)證程序員等崗位則有64%的被替代風(fēng)險(xiǎn)[1]。
與這一發(fā)展趨勢(shì)相對(duì)應(yīng),“人工智能+司法”的嘗試在目前我國(guó)法院系統(tǒng)深入推進(jìn),江蘇、上海、河北、貴州等地法院已經(jīng)開(kāi)始應(yīng)用一批智能化輔助辦案系統(tǒng)。 從具體類型來(lái)看,這些人工智能輔助系統(tǒng)不僅可以將訴訟信息轉(zhuǎn)化為電子數(shù)據(jù),實(shí)現(xiàn)紙質(zhì)卷宗電子化,同時(shí),也可以從海量裁判數(shù)據(jù)中提取類似的情節(jié)與要素,進(jìn)行關(guān)聯(lián)案件的定罪和量刑預(yù)判。 整體而言,對(duì)于提高司法效率、提升審判質(zhì)量、規(guī)范辦案流程起到了積極的促進(jìn)作用。 但從研究的角度來(lái)講,與新技術(shù)迅疾發(fā)展、實(shí)務(wù)界對(duì)技術(shù)適用熱情高昂相比,法學(xué)理論的研究則顯得后知后覺(jué)。 雖然已有不少論者圍繞著人工智能司法適用的問(wèn)題、界限、未來(lái)發(fā)展等進(jìn)行了較為豐富的論證,但整體上仍趨于宏觀。 特別是在人工智能司法應(yīng)用的現(xiàn)狀和局限問(wèn)題上,沒(méi)有進(jìn)行較為完整的系統(tǒng)化梳理,相關(guān)對(duì)策研究也未抓住問(wèn)題之要害。 基于此,本文認(rèn)為,我們?cè)趫?jiān)持人工智能司法輔助地位的同時(shí),必須要將其應(yīng)用和局限進(jìn)行體系化考察,并在此基礎(chǔ)上提出我國(guó)未來(lái)人工智能司法應(yīng)用的完善路徑。
目前,人工智能配合類神經(jīng)網(wǎng)絡(luò)、自然語(yǔ)言處理、大數(shù)據(jù)等技術(shù),通過(guò)大量資料的積累,可以對(duì)輸入的數(shù)據(jù)、信息進(jìn)行快速和科學(xué)化分析,找出特定模式進(jìn)而輸出預(yù)測(cè)的結(jié)果。 可以說(shuō),人工智能技術(shù)最大的優(yōu)勢(shì)就在于效率,其能夠在快速分析的同時(shí),保證一定程度的準(zhǔn)確性,因此受到司法實(shí)務(wù)部門(mén)的偏愛(ài)(1)例如:2019 年6 月底,北京市高級(jí)人民法院推出了“睿法官”智能研判系統(tǒng),為法官提供辦案規(guī)范和量刑分析;上海市高級(jí)人民法院研發(fā)了“刑事案件智能輔助辦案系統(tǒng)”(206 系統(tǒng)),該審判輔助系統(tǒng)包含了單一證據(jù)校驗(yàn)、逮捕條件審查、全案證據(jù)審查判斷、社會(huì)危險(xiǎn)性評(píng)估、量刑輔助等內(nèi)容,為案件的審理提供全面支持。。 總體而言,其主要應(yīng)用領(lǐng)域有三。
當(dāng)下,人工智能系統(tǒng)司法應(yīng)用的一個(gè)主要領(lǐng)域便是輔助辦案人員檢索法律、辦案規(guī)范、關(guān)聯(lián)案例以及其他相關(guān)資料。 其中,最常用的是法律檢索系統(tǒng)(legal research system)。 該類系統(tǒng)主要以法律、法規(guī)和案例為主要儲(chǔ)存對(duì)象,并在此基礎(chǔ)上進(jìn)行整理與編碼。 早在20 世紀(jì)60 年代,美國(guó)匹茲堡大學(xué)便研發(fā)了阿斯潘系統(tǒng)(Aspen System),通過(guò)計(jì)算法律文獻(xiàn)中字詞出現(xiàn)的頻率來(lái)對(duì)法律資料進(jìn)行分類,使用者在搜索欄輸入關(guān)鍵字后,會(huì)立即出現(xiàn)包含該關(guān)鍵字的法律法規(guī)[2]。 在此基礎(chǔ)上,人工智能技術(shù)進(jìn)一步設(shè)計(jì)了關(guān)聯(lián)因素檢索系統(tǒng)。 這類系統(tǒng)不再以字或詞的機(jī)械重合為分類標(biāo)準(zhǔn),而是以字詞間的相似度或相關(guān)性為基礎(chǔ),匹配具有關(guān)聯(lián)性的法規(guī)或判決。 如此,大大提高了搜索的匹配概率。
與一般意義上的法律檢索相比,司法中人工智能技術(shù)被頻頻提及的是其風(fēng)險(xiǎn)評(píng)估效用。 風(fēng)險(xiǎn)評(píng)估算法(risk assessment algorithms)是一種方程式,被用來(lái)收集一個(gè)行為人過(guò)去刑事犯罪的大量信息,以及其他的生平和心理信息,基于這些信息計(jì)算出一個(gè)得分,用以表明行為人處于何種不同的風(fēng)險(xiǎn)等級(jí)狀況。 按照使用主體的不同,這一系統(tǒng)被用來(lái)作出假釋決定、恢復(fù)性司法項(xiàng)目安置(例如戒毒康復(fù)計(jì)劃),以及判決被告人的量刑幅度[3]。 2016 年,美國(guó)便因法院將風(fēng)險(xiǎn)評(píng)估系統(tǒng)用于被告人量刑而引發(fā)了著名的States v.Loomis 一案。 該案中,原審法官在確定被告人Loomis 的最終刑罰時(shí)借助了COMPAS 量刑系統(tǒng)。 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions,中文直譯:替代制裁的罪犯矯正管理分析),是一家叫作Northpointe 的私營(yíng)企業(yè)產(chǎn)品,用于預(yù)測(cè)人們未來(lái)犯罪的可能性并給出具體的監(jiān)禁年限建議。 這份測(cè)試中一共有137 道題,分別有現(xiàn)行指控、犯罪記錄、家庭背景、教育水平、工作等15 個(gè)板塊。 完成測(cè)試后,COMPAS 會(huì)基于一定的算法和數(shù)據(jù)庫(kù),給出0—10 分的危險(xiǎn)系數(shù),其中10 分為高危,表示再次犯罪可能性極大。 對(duì)此,被告人Loomis 以法院使用這一風(fēng)險(xiǎn)評(píng)估系統(tǒng)違反了其正當(dāng)程序權(quán)利為由提起上訴。 最后,美國(guó)威斯康星州最高法院認(rèn)定風(fēng)險(xiǎn)評(píng)估算法,即COMPAS 系統(tǒng)可以被用于量刑,并且闡述了幾項(xiàng)提示性規(guī)定,意在防止法官量刑時(shí)過(guò)分依賴該系統(tǒng)的結(jié)論[4]。 這一點(diǎn),筆者會(huì)在后文中提及。 目前,美國(guó)包括紐約州、弗吉尼亞州、猶他州等很多州都建立了自己的“危險(xiǎn)評(píng)估系統(tǒng)”,COMPAS 只是眾多暢銷全美的AI 工具中的一個(gè)而已。 相較而言,美國(guó)刑事司法中的風(fēng)險(xiǎn)評(píng)估系統(tǒng)主要以社會(huì)危險(xiǎn)與再犯可能性的“危險(xiǎn)評(píng)估”為重點(diǎn),而我國(guó)人工智能主要以“智能辦案系統(tǒng)”的辦案綜合體的角色存在。 雖然監(jiān)獄系統(tǒng)也在用類似COMPAS 的評(píng)估系統(tǒng)來(lái)評(píng)價(jià)在押罪犯的改造情況,但其功能定位主要是輔助性的,檢測(cè)結(jié)果僅作為參考。 而法院系統(tǒng)的風(fēng)險(xiǎn)評(píng)估則是一種程序?qū)用娴膶徟斜O(jiān)督管理,通過(guò)審判風(fēng)險(xiǎn)防控系統(tǒng),將包括審限在內(nèi)的案件流程細(xì)化為80 至125 個(gè)風(fēng)險(xiǎn)點(diǎn)不等,實(shí)現(xiàn)風(fēng)險(xiǎn)點(diǎn)一鍵監(jiān)管,嚴(yán)格控制超限超期案件數(shù)量。
“9·11”事件后,包括美國(guó)在內(nèi)的世界上大部分國(guó)家開(kāi)始投入相當(dāng)多的資源用于反恐事業(yè),與此同時(shí),犯罪預(yù)防也一并納入其中。 各國(guó)司法執(zhí)法部門(mén)開(kāi)始與人工智能技術(shù)企業(yè)合作,開(kāi)發(fā)資料收集、分析、定位與共享系統(tǒng)。 通過(guò)對(duì)這些數(shù)據(jù)的整合,來(lái)達(dá)到預(yù)測(cè)及防止犯罪發(fā)生的效果。 例如:通過(guò)分析最有可能發(fā)生犯罪的主體、犯罪區(qū)域、犯罪事件,有針對(duì)性地部署有限的司法資源。 美國(guó)聯(lián)邦層面提出了“智慧警察”(Intelligence-led policing)概念,整合各執(zhí)法部門(mén)和情報(bào)部門(mén)的資源,以有效部署警力。 倘若這些分散在各個(gè)部門(mén)的數(shù)據(jù)和資料由人工來(lái)進(jìn)行整合,不僅會(huì)面臨效率低下的困擾,還會(huì)因信息不全面而導(dǎo)致犯罪預(yù)測(cè)失誤。 但人工智能技術(shù)則不同,它可以結(jié)合社會(huì)學(xué)、心理學(xué)以及行為模式對(duì)收集到的包括恐怖活動(dòng)在內(nèi)的犯罪信息進(jìn)行預(yù)測(cè)、分析,甄別情報(bào)的可能度,以此來(lái)提高預(yù)測(cè)的準(zhǔn)確性和效率。 地方層面,美國(guó)圣地亞哥地區(qū)早在2000 年便推出了“地區(qū)自動(dòng)化司法信息系統(tǒng)”(Automated Regional Justice Information System)。 這是一個(gè)由檢警機(jī)關(guān)共享的系統(tǒng)資料庫(kù),系統(tǒng)每24 小時(shí)更新犯罪活動(dòng)定位、通緝犯名單以及犯罪信息,還囊括了警察執(zhí)法、法院司法矯治信息[5]。
以時(shí)下熱議的人臉識(shí)別技術(shù)為例,美國(guó)已經(jīng)有近30 個(gè)州的立法允許執(zhí)法部門(mén)建立自己的搜索系統(tǒng),隨時(shí)查閱州內(nèi)公民的駕照和身份證照片。 聯(lián)邦調(diào)查局也可以通過(guò)這些系統(tǒng)直接獲取18 個(gè)州的公民照片信息。 通過(guò)這種實(shí)時(shí)人臉識(shí)別技術(shù),警方可以從已有數(shù)據(jù)庫(kù)中(包括靜態(tài)照片和動(dòng)態(tài)視聽(tīng)資料)提取有犯罪嫌疑或犯罪記錄者的面部信息,然后將此放入目標(biāo)資料中進(jìn)行匹配。 這種數(shù)以萬(wàn)計(jì)的匹配工作,對(duì)于智能面部識(shí)別工具而言,只需要非常短的時(shí)間就可以完成,讓警方能夠在犯罪或恐怖事件發(fā)生之前,及時(shí)采取應(yīng)對(duì)措施。
在這種預(yù)測(cè)性執(zhí)法(predictive policing)機(jī)制中,人工智能技術(shù)扮演著司法預(yù)警的角色,它可以預(yù)測(cè)出人類行為的走向,進(jìn)而知道目標(biāo)對(duì)象下一步會(huì)做什么。 正因?yàn)槿绱?偵查機(jī)關(guān)才能通過(guò)動(dòng)態(tài)攝影追蹤系統(tǒng),在多人的動(dòng)態(tài)場(chǎng)合也能夠鎖定可能犯罪之人。 目前,這類技術(shù)被警方廣泛運(yùn)用于球賽、大型會(huì)議、運(yùn)動(dòng)會(huì)等活動(dòng)的安全防控與監(jiān)管領(lǐng)域。 順應(yīng)世界趨勢(shì),我國(guó)公安系統(tǒng)將人臉識(shí)別和深度算法系統(tǒng)廣泛地應(yīng)用到日常治安管理和犯罪調(diào)查中。 特別是在新冠肺炎疫情的影響下,智能識(shí)別技術(shù)扮演了不可或缺的角色。 與此對(duì)應(yīng),法院采取的則是預(yù)測(cè)性司法,現(xiàn)有量刑偏離分析系統(tǒng)和智能模擬判決系統(tǒng),不僅能讓法官將預(yù)設(shè)判決與系統(tǒng)生成的同類案件判決進(jìn)行比對(duì),得出判決的偏離度,為法官同案同判提供參考,也可以根據(jù)涉案情節(jié)的分類和表述,自動(dòng)匹配案由模型,并隨之生成一個(gè)模擬的判決結(jié)果,讓當(dāng)事人對(duì)案件的走向和結(jié)果有一定的預(yù)期。 不僅如此,法院現(xiàn)有的大數(shù)據(jù)智能分析系統(tǒng)還可以自動(dòng)提取現(xiàn)有案件數(shù)據(jù)的潛在價(jià)值,為將來(lái)的司法裁判提供參考。
證據(jù)開(kāi)示制度是美國(guó)民事、刑事訴訟程序中雙方自主交換證據(jù)資料的司法程序。 與以往紙質(zhì)交換不同的是,隨著數(shù)字科技的發(fā)展,信息化滲透到民眾生活的每個(gè)面向,有關(guān)的資料和證據(jù)多以電子形式存儲(chǔ)。 控辯雙方如何對(duì)這些資料進(jìn)行開(kāi)示,法院以何種方式對(duì)這類證據(jù)進(jìn)行認(rèn)定和評(píng)判,都成為訴訟中非?,F(xiàn)實(shí)的問(wèn)題。 特別是在涉及公司企業(yè)的金融犯罪類型案件中,當(dāng)警方進(jìn)行查證或扣押后,往往會(huì)獲得數(shù)量龐大的數(shù)據(jù)信息和材料。 偵查機(jī)關(guān)所要面臨的問(wèn)題是如何在最短時(shí)間、耗費(fèi)最少人力的情況下,迅速提取出與本案相關(guān)的證據(jù),從而盡快制定下一步的偵查方向,或是進(jìn)行對(duì)嫌疑人的羈押必要性判斷。 對(duì)此,2006 年美國(guó)修正了聯(lián)邦民事訴訟規(guī)則,為電子證據(jù)的開(kāi)示提供了明確且完整的規(guī)范。美國(guó)司法實(shí)務(wù)中也開(kāi)發(fā)了技術(shù)輔助查閱(technology-assisted review)系統(tǒng),其目標(biāo)就是在合理的時(shí)間內(nèi),在海量信息中盡可能搜尋所有可用的相關(guān)證據(jù)[6]。
那么,通過(guò)這類輔助系統(tǒng)所獲取的數(shù)字資料,是否可以作為證據(jù)來(lái)使用? 對(duì)此,2012 年,紐約州聯(lián)邦法院在一個(gè)女性員工起訴雇主勞動(dòng)歧視的案件中,首次賦予了通過(guò)電腦輔助提取的數(shù)字證據(jù)以法律效力。 法官Andrew Peck 在判決意見(jiàn)書(shū)中指出:電腦輔助查閱和提取證據(jù)應(yīng)當(dāng)被允許使用在這類案件中,從而確保數(shù)字證據(jù)開(kāi)示程序的公正、迅速和不昂貴[7]。 類似的情況也發(fā)生在英國(guó)。 2016 年,英國(guó)法院通過(guò)Pyrrho Investments Ltd v. MWB Property Ltd[8]. 和David Brown v. BCA Trading Limited and Others[9]兩個(gè)案件,陸續(xù)在判決中認(rèn)可了借助人工智能技術(shù)進(jìn)行證據(jù)開(kāi)示的法律效力。 前一個(gè)案件中,涉及的電子文件多達(dá)300 萬(wàn)份,而后一個(gè)案件中牽涉的電子證據(jù)也有50 萬(wàn)份。 在第二個(gè)案件中,原告提出了一個(gè)很直觀的經(jīng)濟(jì)分析:如果采用傳統(tǒng)人工關(guān)鍵字搜索的方式篩選證據(jù),成本大概在25 萬(wàn)到34萬(wàn)英鎊之間,而使用智能關(guān)聯(lián)系統(tǒng)進(jìn)行匹配與選擇的話,成本會(huì)縮減到13 萬(wàn)英鎊左右。
同樣,在刑事案件中,當(dāng)偵查人員搜集到大量的電腦硬盤(pán)或芯片,其中存儲(chǔ)著大量的電子郵件往來(lái)、通信、聊天記錄、賬戶資料甚至是視聽(tīng)證據(jù),司法人員便需要在盡可能短的時(shí)間內(nèi),從這些海量信息中找到與案件相關(guān)的證據(jù)資料。 特別是在案情混沌不明之際,通過(guò)這些技術(shù)輔助手段來(lái)尋找潛在的證據(jù),是非??尚械姆绞?。 此外,這類技術(shù)還大量應(yīng)用在法院對(duì)于專利、商標(biāo)進(jìn)行審查的案件中[10]。 在我國(guó),人工智能技術(shù)正在逐漸改善司法權(quán)運(yùn)行的外在環(huán)境,通過(guò)“智能語(yǔ)音”“電子卷宗”“案件管理”方式等在司法實(shí)踐中發(fā)揮重要作用。 電子卷宗隨案生成系統(tǒng),可以將紙質(zhì)材料同步轉(zhuǎn)換為可復(fù)制讀取的電子資源;庭審語(yǔ)音智能轉(zhuǎn)寫(xiě)系統(tǒng)通過(guò)語(yǔ)音采集、實(shí)時(shí)轉(zhuǎn)寫(xiě)的方式進(jìn)行電子質(zhì)證,革新傳統(tǒng)舉證、質(zhì)證方式。 以庭審語(yǔ)音識(shí)別系統(tǒng)為例,目前已經(jīng)有法院借用自然語(yǔ)言處理技術(shù)(NPL),提取訴訟各方之陳述,并將其自動(dòng)轉(zhuǎn)換為文字(2)我國(guó)法院人工智能應(yīng)用的分析樣本主要來(lái)源于:一是《法治藍(lán)皮書(shū)·中國(guó)法院信息化發(fā)展報(bào)告NO.1(2018)》中關(guān)于地方法院信息化實(shí)踐的調(diào)研報(bào)告;二是通過(guò)搜索引擎獲取的東中西部地區(qū)法院各種智能應(yīng)用實(shí)例。。 如蘇州法院利用該系統(tǒng),實(shí)現(xiàn)了普通話庭審筆錄完整度接近100%,帶有口音的普通話語(yǔ)音識(shí)別正確率高達(dá)90%。
目前,對(duì)人工智能技術(shù)應(yīng)用到司法領(lǐng)域尤其是司法裁判領(lǐng)域會(huì)存在哪些風(fēng)險(xiǎn),已為不少論者所關(guān)注。 例如,有學(xué)者明確指出,人工智能技術(shù)會(huì)沖擊公正之價(jià)值、影響當(dāng)事人訴訟權(quán)利、與法官獨(dú)立審判原則發(fā)生沖突[11]。 可以看到,這是一種在基本原則層面的概括性分析,還需要進(jìn)一步落到實(shí)處。 對(duì)此,筆者欲結(jié)合具體的司法實(shí)務(wù),對(duì)人工智能技術(shù)的負(fù)面效應(yīng)進(jìn)行微觀層面的展現(xiàn)。
歧視問(wèn)題是人工智能技術(shù)應(yīng)用到司法領(lǐng)域所面臨的最大的質(zhì)疑。 正如上文中所提到的風(fēng)險(xiǎn)評(píng)估算法COMPAS 一樣,其帶來(lái)效率的同時(shí),也帶來(lái)了量刑階段威脅正當(dāng)程序保護(hù)的風(fēng)險(xiǎn),即為了“顯擺”技術(shù)的先進(jìn)性,將大量的個(gè)性化信息總歸于一個(gè)過(guò)于簡(jiǎn)化的分?jǐn)?shù)。 這類算法由風(fēng)險(xiǎn)量化和需求量化兩部分構(gòu)成[12],用于預(yù)測(cè)哪些行為人會(huì)再犯,而哪些不會(huì)[13]。 算法輸出的結(jié)果最后會(huì)轉(zhuǎn)化為十分位分?jǐn)?shù),從最低分1 分到最高分10 分。 按照COMPAS 設(shè)計(jì)者北點(diǎn)公司的解釋,十分位分?jǐn)?shù)與相應(yīng)的規(guī)范組相對(duì)應(yīng),其中,1 分意味著行為人的量化分?jǐn)?shù)處在規(guī)范組最低的10%以內(nèi),而2 分則意味著行為人處于規(guī)范組高于10%而低于20%的水平,以此類推。 正如《COMPAS 從業(yè)指南》所解釋的那樣,通常,1—4分為低危險(xiǎn)系數(shù),5—7 分為中危險(xiǎn)系數(shù),而8—10 分為高危險(xiǎn)系數(shù)。 然而,算法將這些分?jǐn)?shù)與監(jiān)獄、假釋機(jī)構(gòu)以及緩刑機(jī)構(gòu)的評(píng)估方案聯(lián)系起來(lái)。 目前,存在著八個(gè)標(biāo)準(zhǔn)分組:男性監(jiān)獄/假釋、男性拘留所、男性緩刑、男性復(fù)合措施、女性關(guān)押/假釋、女性拘留所、女性緩刑以及女性復(fù)合措施。 北點(diǎn)公司是基于“從2004 年1 月至2005 年11 月之間,在美國(guó)監(jiān)獄、假釋、看守所和緩刑點(diǎn)進(jìn)行的超過(guò)3 萬(wàn)份COMPAS分?jǐn)?shù)評(píng)估”[14]得出這些結(jié)論模型的。 當(dāng)某一特定的機(jī)構(gòu)要使用COMPAS 技術(shù)時(shí),北點(diǎn)公司也會(huì)相應(yīng)地調(diào)整規(guī)范系數(shù),以反映該機(jī)構(gòu)所在區(qū)域人口的具體情況。
對(duì)此,一個(gè)名為ProPublica 的媒體(3)ProPublica 是一家關(guān)注公共事務(wù)的非營(yíng)利性調(diào)查媒體。 他們是一家十分嚴(yán)格的無(wú)黨派機(jī)構(gòu),標(biāo)榜著“不游說(shuō)”以及“不會(huì)與任何政客或者宣傳團(tuán)體結(jié)盟”。 他們圍繞著諸如過(guò)量吸毒、負(fù)債以及檢察官不當(dāng)行為以及其他關(guān)涉公共利益的問(wèn)題,創(chuàng)設(shè)了許多調(diào)查項(xiàng)目,并將研究和文章匯編在一起,在官網(wǎng)上公布。進(jìn)行了深入調(diào)查,結(jié)果顯示,該算法會(huì)偏見(jiàn)性地將黑人被告人列為高風(fēng)險(xiǎn)人群,而白人被告人則為低風(fēng)險(xiǎn)。 這項(xiàng)研究收集了7000 余名行為人的數(shù)據(jù),這些人在2013年和2014 年被捕后接受了風(fēng)險(xiǎn)評(píng)估,檢查他們?cè)谥蟮膬赡昀锸欠駮?huì)被重新起訴。 研究結(jié)果表明,暴力再犯比例實(shí)際上只占到20%,而之前的系統(tǒng)數(shù)據(jù)卻認(rèn)定具有再犯風(fēng)險(xiǎn)的行為人比例高達(dá)61%。ProPublica 指出,這種結(jié)果僅僅“稍微比擲硬幣準(zhǔn)確些”。 然而,普遍缺乏準(zhǔn)確性這一點(diǎn)僅僅只是ProPublica 在研究COMPAS 算法時(shí),發(fā)現(xiàn)問(wèn)題的開(kāi)端。 該調(diào)查著重指出的問(wèn)題在于,算法在分配白人被告人和黑人被告人分?jǐn)?shù)時(shí)的不對(duì)等。 盡管黑人被告人在整體上再犯率會(huì)高一些,但是當(dāng)調(diào)整一下這些差異和其他因素后,他們居然比白人被告人的再犯率要高出45%。 至于暴力再犯系數(shù),黑人被告人獲得一個(gè)高危險(xiǎn)分?jǐn)?shù)的概率要比白人被告人高77.3%。 在評(píng)估有多少被告人被標(biāo)記為高風(fēng)險(xiǎn),但之后兩年卻沒(méi)有再犯罪時(shí),ProPublica 發(fā)現(xiàn),白人被告人被錯(cuò)誤標(biāo)記的比例為23.5%,而黑人被告人被錯(cuò)誤標(biāo)記的比例則為44.9%。 相較之下,白人被告人更傾向于獲得低風(fēng)險(xiǎn)評(píng)價(jià)。 準(zhǔn)確來(lái)講,有47.4%被標(biāo)記為低風(fēng)險(xiǎn)的白人被告人繼續(xù)進(jìn)行犯罪,而同參照的黑人行為人只有28%再犯[15]。
特別是在智能技術(shù)高效率運(yùn)行的情況下,這種潛在的歧視會(huì)被無(wú)限的重復(fù),進(jìn)而被不當(dāng)強(qiáng)化。 實(shí)踐中還出現(xiàn)了數(shù)名議員被面部識(shí)別技術(shù)不當(dāng)識(shí)別為犯罪嫌疑人的荒唐現(xiàn)象。 此處需要指出的一點(diǎn)是,歧視問(wèn)題不僅會(huì)在審判中出現(xiàn),前述預(yù)測(cè)性執(zhí)法過(guò)程中也會(huì)存在。 例如:警力資源會(huì)被不當(dāng)調(diào)配至少數(shù)族裔社區(qū),進(jìn)而忽視白人社會(huì)本身會(huì)發(fā)生的毒品或暴力問(wèn)題[16]。
從技術(shù)角度來(lái)講,人工智能算法本身就是一個(gè)“黑箱”(black box),這本來(lái)無(wú)可厚非,因?yàn)榧夹g(shù)創(chuàng)新本身也是一種商業(yè)秘密,屬于知識(shí)產(chǎn)權(quán)保護(hù)的范圍。 但是,“黑箱”一旦應(yīng)用到司法中后,這種優(yōu)勢(shì)本身也會(huì)令人詬病。 因?yàn)?不論是將人工智能技術(shù)用于判決檢索和犯罪預(yù)防,還是證據(jù)評(píng)判與量刑基準(zhǔn),人們都無(wú)法對(duì)其進(jìn)行監(jiān)督。 以量刑為例,被告方對(duì)于人工智能量刑的結(jié)果無(wú)法進(jìn)行有效質(zhì)疑,因?yàn)橥庑腥藷o(wú)法了解技術(shù)本身存在的算法規(guī)律,即便可以申請(qǐng)專家鑒定,該技術(shù)也很可能基于商業(yè)秘密的考量而無(wú)法提供源代碼。 或者,即便是基于公權(quán)力的監(jiān)督和公共利益的考量,技術(shù)創(chuàng)新的商業(yè)利益必須退讓,技術(shù)算法得以揭露,當(dāng)事人的監(jiān)督也有可能會(huì)落空。 監(jiān)督的前提是能夠有效厘清技術(shù)運(yùn)作的程式碼,明確輸入資料和輸出結(jié)果之間的關(guān)聯(lián)性,以此來(lái)判定通過(guò)技術(shù)產(chǎn)生的結(jié)果是否恰當(dāng),是否存在偏差或者是否有歧視。 然而,人工智能算法的運(yùn)作不一定具有嚴(yán)格的邏輯關(guān)系,對(duì)于輸入的樣本,很可能只是因?yàn)榇罅抠Y料都指向某種可以獲得最佳利益的選擇,其背后不必然存在一定的邏輯性或因果關(guān)系。因而,有論者犀利地指出,“黑箱”里的人們,就像是奴隸一樣被算法操控著[17]。
算法越復(fù)雜、越不透明,將會(huì)直接導(dǎo)致人們的社會(huì)活動(dòng),小到社交活動(dòng),大到工作求職,甚至是司法裁判所涉及的一連串自動(dòng)化決策中,無(wú)可避免地存在秘密決策和歧視。 正是這種不透明性,給司法公開(kāi)與司法監(jiān)督帶來(lái)了嚴(yán)峻挑戰(zhàn)。 司法公開(kāi)是一項(xiàng)由來(lái)已久的訴訟原則,只有公開(kāi),才能將權(quán)力之運(yùn)作充分暴露于陽(yáng)光之下,充分保障當(dāng)事人和民眾的知情權(quán)與監(jiān)督權(quán)。 但是算法的不透明就意味著監(jiān)督無(wú)法實(shí)現(xiàn)。 不僅如此,當(dāng)事人的訴訟權(quán)利也會(huì)因此受到侵害。 民事案件原、被告雙方的權(quán)利義務(wù)關(guān)系,以及刑事案件當(dāng)中被告人的人身自由權(quán)利,皆由司法裁判所決定。 試想,在案件的證據(jù)開(kāi)示、證據(jù)認(rèn)定甚至是量刑都借助了人工智能算法的情況下,當(dāng)事人如果不服,其所享有的包括上訴在內(nèi)的程序救濟(jì)權(quán)利,也會(huì)因?yàn)椤昂谙洹眴?wèn)題難以得到實(shí)質(zhì)性的行使。 這無(wú)疑會(huì)讓訴訟流于形式,與司法公正和權(quán)利保障相去甚遠(yuǎn)。
人工智能技術(shù)應(yīng)用到司法實(shí)務(wù)中還要面臨的一個(gè)挑戰(zhàn)是,技術(shù)的判斷結(jié)果總是機(jī)械、僵硬的,無(wú)法適應(yīng)靈活的司法裁判要求。 這也是如今研究者們堅(jiān)信法律職業(yè)不會(huì)被人工智能技術(shù)完全取代的一個(gè)最重要的原因。
第一,法律并非一種極致意義上的形式理性,適用法律絕非一種簡(jiǎn)單的文本輸入至結(jié)果輸出過(guò)程。實(shí)踐中的司法人員,尤其是法官,在判決案件的過(guò)程中往往面臨著邏輯思考、事實(shí)認(rèn)定、常識(shí)判斷、人性尊嚴(yán)、個(gè)案平衡、價(jià)值抉擇以及國(guó)家政策等問(wèn)題。 判定過(guò)程可謂極為復(fù)雜,而這些過(guò)程是否能為人工智能所模仿或借鑒? 答案顯然是否定的。 目前的人工智能雖然已經(jīng)取得技術(shù)上的突破,但算法的深度學(xué)習(xí)水平還遠(yuǎn)未達(dá)到“強(qiáng)人工智能”的程度。 也就是說(shuō),人工智能在處理常識(shí)、意圖、觀點(diǎn)等自然語(yǔ)言交流與理解方面,仍然遭遇著巨大瓶頸。 最直觀的例子便是,當(dāng)我們與所謂智能機(jī)器人進(jìn)行語(yǔ)音對(duì)話時(shí),其只能應(yīng)付簡(jiǎn)單的信息檢索和最基本的日常交流,對(duì)于稍顯復(fù)雜的問(wèn)題,其回答往往令人啼笑皆非。 究其原因,目前人工智能技術(shù)的資料庫(kù)中無(wú)法完全覆蓋人類所有語(yǔ)言、生活信息,同時(shí),技術(shù)對(duì)語(yǔ)言往往只能基于早就設(shè)定好的模式進(jìn)行程式化分析,無(wú)法全面、系統(tǒng)地消化所有證據(jù)和當(dāng)事人提出的訴求。
第二,人工智能技術(shù)的應(yīng)用無(wú)法實(shí)現(xiàn)個(gè)案正義。 從技術(shù)運(yùn)作的基本方式來(lái)看,人工智能程式追求的是網(wǎng)格化、類別化,即標(biāo)準(zhǔn)化。 換言之,其追求標(biāo)準(zhǔn)化的輸入以及標(biāo)準(zhǔn)化的輸出。 在此情況下,個(gè)案中出現(xiàn)的特殊情形、特殊因素會(huì)因?yàn)閷?duì)標(biāo)準(zhǔn)化分析毫無(wú)意義而被系統(tǒng)忽視,導(dǎo)致最后無(wú)法輸出個(gè)別化的結(jié)果。 系統(tǒng)判斷往往體現(xiàn)出一種機(jī)械化、公式化特征。 但是,司法所追求的是一種衡平正義(equitable justice)而非絕對(duì)的法律正義,因此賦予了裁判者相當(dāng)大的自由裁量權(quán),允許其在一定范圍內(nèi)根據(jù)案件的具體、特殊情況作出符合個(gè)案正義之裁判。 退一步來(lái)講,即便將來(lái)技術(shù)會(huì)發(fā)展到具有一定思維能力的水平,但由于人的情感、成長(zhǎng)、自由、尊嚴(yán)等本身就無(wú)法量化,因而能否被設(shè)計(jì)為一種算法程式,還有待考量。
第三,人工智能技術(shù)無(wú)法處理新型案件。 在人工智能技術(shù)的原始資料庫(kù)中,信息的存儲(chǔ)是有限的,不僅如此,有限的信息還存在著一個(gè)致命性的缺陷,那就是無(wú)法處理新信息。 這就導(dǎo)致技術(shù)在面對(duì)司法中的新行為、新證據(jù)或者新事實(shí)時(shí),無(wú)法做出判斷甚至做出錯(cuò)誤的判斷[18]。 從司法效果角度來(lái)看,人工智能算法結(jié)果的得出是基于對(duì)以往裁判分析的經(jīng)驗(yàn),如果某一項(xiàng)事實(shí)、某個(gè)情節(jié)甚至某一個(gè)參數(shù)發(fā)生變動(dòng)時(shí),系統(tǒng)本身頂多將其視為一個(gè)運(yùn)行障礙。 例如:對(duì)于刑事司法而言,可能某一段時(shí)期,程序會(huì)追求訴訟效率,而另一段時(shí)期,政策又會(huì)傾向于在大多數(shù)案件中查明案件事實(shí)真相,這無(wú)可避免會(huì)耗費(fèi)更多司法資源。 此類政策性變動(dòng)對(duì)于已經(jīng)有固定的參考模式以及參考參數(shù)的智能技術(shù)而言,是無(wú)法掌握與分析的。 除非從技術(shù)源頭重新儲(chǔ)存新資料,修改運(yùn)行程式。
可以看到,在司法實(shí)踐中,人工智能技術(shù)能夠耗費(fèi)較少的時(shí)間與資源,為司法人員提供較為準(zhǔn)確、穩(wěn)定的裁量標(biāo)準(zhǔn)和參考結(jié)果。 如此,彌補(bǔ)現(xiàn)行司法中訴訟“大爆炸”的困境,讓國(guó)家能夠投入更多的資源去解決那些案情復(fù)雜、具有重大社會(huì)影響的爭(zhēng)議性案件。 但同時(shí),人工智能技術(shù)在司法中的適用有其局限,帶來(lái)了挑戰(zhàn)與質(zhì)疑。 因而,司法人員不能形成過(guò)度的技術(shù)依賴。 這在目前的學(xué)術(shù)研究領(lǐng)域已經(jīng)形成共識(shí)。 基于此,不少論者主張和提倡一種對(duì)人工智能技術(shù)“審慎而樂(lè)觀”的立場(chǎng),將智慧司法下的人工智能定位為“司法輔助人”,以“工具主義”作為其功能定位[19]。 筆者十分贊同這一論點(diǎn)。 但針對(duì)司法應(yīng)當(dāng)如何化解人工智能應(yīng)用挑戰(zhàn)的問(wèn)題,本文意在提供以下新的思路。
通過(guò)上文的論述,不難看出人工智能技術(shù)遭受質(zhì)疑的種種局限與挑戰(zhàn)主要有兩個(gè)來(lái)源:一是技術(shù)本身所帶來(lái)的缺陷,二是技術(shù)在人為使用過(guò)程中所暴露的弊端。 因此,完善人工智能的司法適用也需要從以下兩個(gè)層面著手。
第一,從技術(shù)本身的缺陷來(lái)說(shuō),首當(dāng)其沖的便是對(duì)技術(shù)本身的改造。 當(dāng)然,囿于知識(shí)儲(chǔ)備,筆者無(wú)法從技術(shù)角度提出人工智能算法的優(yōu)化方案,只想就技術(shù)與司法的交互角度,闡明技術(shù)中立的立場(chǎng)。不可否認(rèn)的一點(diǎn)是,技術(shù)原本是中立的,但是這種中立性在具體應(yīng)用過(guò)程中總是會(huì)出現(xiàn)這樣或那樣的偏差。 不論對(duì)于技術(shù)程式的設(shè)定者,還是司法人員而言,在創(chuàng)設(shè)或使用技術(shù)的過(guò)程中,都或多或少、有意無(wú)意地帶入了自身的偏見(jiàn)。 畢竟,人總是社會(huì)中的人,有著固定的生活圈,每天也會(huì)通過(guò)網(wǎng)絡(luò)接收到各種社會(huì)新聞與信息。 當(dāng)某種特定的偏好或傾向性立場(chǎng)一旦帶入技術(shù)中,便會(huì)從“少數(shù)意見(jiàn)”搖身一變成為“多數(shù)觀點(diǎn)”,進(jìn)而通過(guò)技術(shù)的反復(fù)適用不斷得到強(qiáng)化。
第二,從技術(shù)在人為使用過(guò)程中暴露出來(lái)的弊端來(lái)看,實(shí)際上,類似的問(wèn)題早在人工智能司法適用尚未被人們關(guān)注時(shí)就已經(jīng)出現(xiàn)過(guò)。 早在20 世紀(jì)80 年代,美國(guó)立法者發(fā)現(xiàn),刑事司法中的量刑夾雜著明顯的歧視,即同等條件下,少數(shù)族裔的刑期普遍較重。 一開(kāi)始,立法者認(rèn)為產(chǎn)生這一問(wèn)題的原因在于法官們?nèi)狈σ粋€(gè)普遍適用的量刑標(biāo)準(zhǔn)作為參考[20]。 因而,美國(guó)國(guó)會(huì)在1984 年成立了美國(guó)量刑委員會(huì),以追求消除歧視,達(dá)到較為一致的量刑結(jié)果。 不僅如此,委員會(huì)還發(fā)布長(zhǎng)達(dá)600 頁(yè)的一系列量刑指導(dǎo)標(biāo)準(zhǔn),試圖將量刑進(jìn)行公式化。 該標(biāo)準(zhǔn)雖然沒(méi)有強(qiáng)制性的法律拘束力,但對(duì)于裁判者而言,多以此作為參考。 但即便是如此精細(xì)的量刑標(biāo)準(zhǔn)公布之后,以往存在的量刑歧視問(wèn)題依然存在,沒(méi)有辦法完全消除[21]。 對(duì)此,有論者認(rèn)為,公式化量刑導(dǎo)致法官喪失了原本可以依據(jù)個(gè)案作出裁判的空間,使得個(gè)案的特殊情況無(wú)法準(zhǔn)確被估量,隨即進(jìn)一步加深了原本的歧視循環(huán)而已[22]。 由此觀之,在矯正人工智能技術(shù)歧視的問(wèn)題上,這種“等者等之”的形式平等立場(chǎng)不可取。
對(duì)此,筆者認(rèn)為,可以從實(shí)質(zhì)平等的角度出發(fā),用中性的程式設(shè)計(jì)去檢視技術(shù)中是否存在對(duì)特定人群、特定地域或特定性別的歧視因素,進(jìn)而通過(guò)個(gè)性化而非標(biāo)準(zhǔn)化的參數(shù)設(shè)定來(lái)對(duì)其進(jìn)行矯正。 例如,Airbnb 在2015 年時(shí)發(fā)現(xiàn),其平臺(tái)程式在統(tǒng)計(jì)上有種族歧視的傾向,系統(tǒng)可能會(huì)拒絕將房屋出租給特定族裔或特定群體的房客。 該公司隨即成立專門(mén)小組,研究在何種情況下系統(tǒng)會(huì)觸發(fā)歧視因素。 后查明,消除歧視的方法在于,知曉歧視隱患的存在,在此基礎(chǔ)上重復(fù)、定期地檢查數(shù)據(jù)分析之結(jié)果[23]。 以此類推,該方法完全可以借鑒到司法實(shí)務(wù)對(duì)人工智能技術(shù)的應(yīng)用領(lǐng)域中來(lái)。 如此,可最大限度地保證技術(shù)本身的中立性。 我國(guó)不存在種族歧視的問(wèn)題,這種實(shí)質(zhì)平等框架下的技術(shù)中立主要體現(xiàn)在如何防范人工智能的失誤。 總體來(lái)說(shuō),人工智能的失誤大致可分為兩種類型:一是案件實(shí)體判斷的錯(cuò)誤,例如風(fēng)險(xiǎn)預(yù)警不準(zhǔn)確、量刑預(yù)測(cè)出現(xiàn)偏差等;二是不涉及案件實(shí)質(zhì)的判斷失誤,如電子卷宗的生成錯(cuò)誤、電子數(shù)據(jù)的轉(zhuǎn)換錯(cuò)誤、實(shí)時(shí)語(yǔ)音識(shí)別的瑕疵。 對(duì)此,我們應(yīng)當(dāng)從源頭出發(fā),提高算法本身的準(zhǔn)確程度。 一是司法機(jī)關(guān)將智能輔助系統(tǒng)進(jìn)行外包時(shí),應(yīng)當(dāng)與技術(shù)公司進(jìn)行充分且明確的溝通,在尊重技術(shù)創(chuàng)新和商業(yè)秘密的基礎(chǔ)上,要求技術(shù)提供方對(duì)于算法決策過(guò)程、數(shù)據(jù)模型和采集等承擔(dān)必要的說(shuō)明和公開(kāi)義務(wù),以接受公眾監(jiān)督。 在重視解決糾紛的同時(shí),也要以風(fēng)險(xiǎn)防范為導(dǎo)向,注意調(diào)整算法的運(yùn)行規(guī)則,消除因算法歧視造成的潛在風(fēng)險(xiǎn)。 二是要聯(lián)合技術(shù)專家、法律專家和社會(huì)公共團(tuán)體等主體,成立常設(shè)或非常設(shè)的算法監(jiān)督機(jī)構(gòu),對(duì)算法的設(shè)計(jì)、應(yīng)用和結(jié)果進(jìn)行全方位的監(jiān)督。 監(jiān)督的方式可以是隨機(jī)檢查,也可以是定期抽查,以彌補(bǔ)技術(shù)應(yīng)用過(guò)程中的算法漏洞。 同時(shí),也要暢通公眾的反饋渠道,及時(shí)糾正已經(jīng)出現(xiàn)的算法錯(cuò)誤。
對(duì)于技術(shù)在人為使用過(guò)程中所暴露的弊端,是“技術(shù)使用者”而非“技術(shù)”層面的問(wèn)題。 對(duì)此,如何進(jìn)行應(yīng)對(duì),應(yīng)當(dāng)抓住要害。 誠(chéng)然,有學(xué)者曾明確指出,“司法人工智能不可本末倒置”[24]。 不能在“向信息化要人力、要物力”的潮流中,將人工智能系統(tǒng)全面用于案件審理,甚至是替代法官的裁判。 進(jìn)而主張人工智能規(guī)制的要點(diǎn)在于限制其適用范圍、保證裁判者的獨(dú)立權(quán)威地位、保障訴訟當(dāng)事人的合法權(quán)利。 這些應(yīng)對(duì)之策皆屬有理,但并未看到現(xiàn)象后面問(wèn)題的本質(zhì)——將人工智能應(yīng)用在司法中,實(shí)際上是一種實(shí)體利益和程序利益之間的平衡與抉擇。
人工智能技術(shù)本身代表的就是一種對(duì)高效率的價(jià)值追求,而司法則是在追求公正、保障權(quán)利的同時(shí)“順帶”兼顧訴訟效率。 因此,不管提出任何的應(yīng)對(duì)方案和解決措施,不管主張要在司法中將人工智能技術(shù)應(yīng)用到何種程度,都不能突破的一個(gè)底線就是:司法在任何時(shí)候都不能將“效率”置于“公正”之上。 人工智能技術(shù)是一種形式上、程序上的平等,因?yàn)樽鳛槠渑袛鄻?biāo)準(zhǔn)的程式是預(yù)先設(shè)定好的。 對(duì)于所有的資料輸入,都是通過(guò)同一個(gè)程式來(lái)進(jìn)行分析,進(jìn)而得出結(jié)果。 可以說(shuō),呈現(xiàn)出一種整齊劃一的“流水線”特征。 也正是因?yàn)槿绱?技術(shù)的應(yīng)用能大幅提高司法程序的運(yùn)作效率。 但與技術(shù)所能處理的靜態(tài)信息相比,司法實(shí)務(wù)完全是動(dòng)態(tài)多變的,涉及復(fù)雜的案情評(píng)判和利益權(quán)衡。 如何在現(xiàn)行法律框架下,結(jié)合個(gè)案的具體情況,正確適用法律,甚至在法無(wú)明文規(guī)定的案件中,尋找定分止?fàn)幍恼_方法,指向的是一種正確劃分權(quán)利、義務(wù)關(guān)系的實(shí)體利益的方式,具言之,就是需要實(shí)現(xiàn)實(shí)體利益與程序利益的平衡。
第一,公正和效率的平衡實(shí)際上也是人之理性與技術(shù)理性在司法領(lǐng)域的平衡。 對(duì)于技術(shù)理性而言,其追求的是功能性、有效性,講求效率和效益。 而司法裁判更多的是一種人為理性,注重的是價(jià)值理性和人文精神。 人工智能應(yīng)用到司法領(lǐng)域,實(shí)際上是通過(guò)模仿和模擬司法裁判者的邏輯思維來(lái)提高審判效率。 但是這種簡(jiǎn)單的模仿只會(huì)僵硬地適用法律條文,不僅忽略法律適用和個(gè)別正義間的考量,將預(yù)設(shè)的裁判結(jié)果格式化,同時(shí)也會(huì)剪斷公民通過(guò)參與案件同司法人員之間形成的良性互動(dòng)紐帶,因?yàn)楫?dāng)事人是無(wú)法與一個(gè)冷冰冰的系統(tǒng)進(jìn)行對(duì)話的。 因此,在目前的弱人工智能應(yīng)用階段,要堅(jiān)持法官的審判主體地位,讓整個(gè)案件的審理過(guò)程的最終決定權(quán)掌握在法官手里,使人工智能的運(yùn)行過(guò)程處于法官的監(jiān)督之下。 如此,一方面可以避免技術(shù)的偏差帶來(lái)的機(jī)械適用,暢通能動(dòng)司法渠道;另一方面,也可以體現(xiàn)權(quán)責(zé)統(tǒng)一,避免因智能技術(shù)的使用導(dǎo)致“責(zé)任推諉”,防止法官將司法責(zé)任推卸為技術(shù)責(zé)任。
第二,雖然存在差別,但實(shí)際上,正如公正和效率兩者可以并行不悖一樣,程序利益與實(shí)體利益之間并不是截然兩分的關(guān)系。 那么,人工智能的司法應(yīng)用,如何兼顧公正與效率? 從形式層面講,人工智能的司法應(yīng)用應(yīng)當(dāng)對(duì)訴訟相關(guān)人,特別是刑事案件的被告人進(jìn)行程序上的告知。 此種告知目的有三:第一,利害相關(guān)人可以借此了解人工智能系統(tǒng)應(yīng)用于司法的具體過(guò)程;第二,利害關(guān)系人可以針對(duì)有關(guān)的結(jié)果提出自己的異議,以便技術(shù)使用者(司法人員)查證系統(tǒng)是否存在錯(cuò)誤分析的情況;第三,利害相關(guān)人可以在知情權(quán)的基礎(chǔ)上對(duì)技術(shù)的應(yīng)用行使程序救濟(jì)的權(quán)利。 從實(shí)質(zhì)層面出發(fā),在司法的所有環(huán)節(jié),即便是有技術(shù)作為加持,也必須要有最低限度的人類參與。 同時(shí),在與人民生命、自由、財(cái)產(chǎn)息息相關(guān),或者涉及司法的本質(zhì)與公正的案件中,審判者或者執(zhí)法者應(yīng)當(dāng)承擔(dān)起作出司法決定主宰者的角色。此時(shí),通過(guò)智能技術(shù)所獲得的結(jié)果只具備參考價(jià)值,裁判不能受制于技術(shù)。
首先,從法律層面出臺(tái)規(guī)制人工智能技術(shù)的法律規(guī)范。 應(yīng)當(dāng)看到,不論是在本文,還是在其他研究者的探討中,人工智能技術(shù)的種種風(fēng)險(xiǎn)都具有以下三個(gè)典型特征。 一是潛在性。 即所列之風(fēng)險(xiǎn)由于技術(shù)水平的差異化發(fā)展,并非在任何國(guó)家或任何司法環(huán)境中都存在著這些應(yīng)用問(wèn)題,風(fēng)險(xiǎn)處于一種正在發(fā)生或者尚未完全發(fā)生的狀態(tài)。 二是模糊性。 即技術(shù)侵害的對(duì)象不具有指涉性,不針對(duì)具體個(gè)人。 三是難以量化。 當(dāng)技術(shù)造成損害時(shí),這種損害的因果關(guān)系難以確定,即便可以確定,損害結(jié)果也難以量化。 應(yīng)當(dāng)看到,當(dāng)前所有國(guó)家的現(xiàn)有刑事、民事和行政法律規(guī)范責(zé)任體系都無(wú)法有效覆蓋對(duì)智能技術(shù)的規(guī)制,法律規(guī)范完全呈現(xiàn)出“留白”狀態(tài)。 因而,我們需要在法律層面出臺(tái)回應(yīng)人工智能技術(shù)的法律依據(jù),或者更確切地說(shuō),是規(guī)制人工智能技術(shù)的法律規(guī)范。 有了法律依據(jù),才能從“強(qiáng)硬”層面上有效防止技術(shù)應(yīng)用會(huì)造成的司法屬性被消解、法官權(quán)力被僭越、當(dāng)事人訴訟權(quán)利被架空等風(fēng)險(xiǎn)。 這也是眼下許多論者提出應(yīng)對(duì)方案時(shí)會(huì)考慮到的層面。
其次,制定人工智能倫理準(zhǔn)則。 人工智能在司法領(lǐng)域取得了突出成效,也暴露出來(lái)不少倫理問(wèn)題。在司法場(chǎng)域,人工智能引起的倫理風(fēng)險(xiǎn)具有獨(dú)特性。 第一,與司法活動(dòng)參與者尤其是當(dāng)事人的人身自由、財(cái)產(chǎn)權(quán)利密不可分。 第二,算法歧視原因往往難以捕捉,想實(shí)現(xiàn)完全程度上的“算法公開(kāi)與透明”,實(shí)現(xiàn)算法歧視的“全無(wú)”也無(wú)可能。 第三,司法人工智能系統(tǒng)的設(shè)計(jì)是多方利益的博弈過(guò)程,而“資本家的逐利性”又容易放任智能技術(shù)對(duì)司法公正的侵襲,比如“風(fēng)險(xiǎn)評(píng)估算法COMPAS”在帶來(lái)司法效率的同時(shí),也引起量刑階段威脅正當(dāng)程序的風(fēng)險(xiǎn)。 第四,基于新興科技基礎(chǔ)上產(chǎn)生,具有技術(shù)倫理與司法倫理之綜合特征,且有一定程度的公共利益價(jià)值。 具體來(lái)說(shuō),對(duì)待人工智能技術(shù)的發(fā)展保持積極態(tài)度,考慮人工智能在司法場(chǎng)域的倫理特性,加強(qiáng)對(duì)人工智能技術(shù)的倫理審查,以確保人工智能技術(shù)在正確的倫理軌道上運(yùn)行。 參照人工智能倫理的相關(guān)原則,如2019 年歐盟委員會(huì)發(fā)布的人工智能倫理準(zhǔn)則,確保人工智能真正具有安全性、可靠性,完善人工智能司法適用的倫理規(guī)范,既重視算法的相關(guān)管理機(jī)制,也在法律方面明確相關(guān)司法問(wèn)責(zé)、隱私、安全等要素,建立統(tǒng)一、規(guī)范、公認(rèn)的“指導(dǎo)性原則與倫理”,針對(duì)法律規(guī)范的“留白現(xiàn)象”,以軟法的方式先行彌補(bǔ)法律規(guī)范的缺位與不足。
最后,實(shí)現(xiàn)法律規(guī)范與道德規(guī)范的結(jié)合。 然而,作為一種“時(shí)髦”的技術(shù)形態(tài),眼下人工智能技術(shù)和司法大數(shù)據(jù)正處于創(chuàng)新發(fā)展的重要階段。 如果只是一味強(qiáng)調(diào)要進(jìn)行法律規(guī)制,用嚴(yán)格的法律規(guī)范來(lái)扼住技術(shù)咽喉的話,無(wú)異于因噎廢食。 因此,人工智能的司法適用需要道德的“軟”控制。 具體來(lái)說(shuō),道德雖然只是一種對(duì)風(fēng)險(xiǎn)的評(píng)價(jià)能力,其自身不具備當(dāng)然的法律效力,但是道德往往可以為人們提供一種技術(shù)發(fā)展和技術(shù)適用的參考準(zhǔn)則。 也就是說(shuō),無(wú)論是負(fù)責(zé)技術(shù)發(fā)展的程序員、網(wǎng)絡(luò)公司、數(shù)據(jù)處理者,還是負(fù)責(zé)技術(shù)適用的司法人員,其都會(huì)有共同的行為和評(píng)判標(biāo)準(zhǔn)。 這也是為何近幾年有關(guān)人工智能技術(shù)倫理規(guī)制話題的討論急劇增加的原因,截至目前,至少有83 個(gè)有關(guān)人工智能技術(shù)的倫理規(guī)則面世(4)Thiel,V.(2019,June 20).“Ethical AI guidelines”:Binding commitment or simply window dressing? Algorithm Watch. Retrieved from https:∥algorithmwatch.org/en/ethical-ai-guidelines-binding-commitment-or-simply-window-dressing/,2021-05-03。。其中較為有名的當(dāng)屬會(huì)聚計(jì)算機(jī)科學(xué)及工程人才的電氣與電子工程師協(xié)會(huì)和歐盟執(zhí)行委員會(huì)下設(shè)的人工智能高級(jí)專家組所發(fā)布的倫理準(zhǔn)則。 從內(nèi)容來(lái)看,這些準(zhǔn)則無(wú)疑都包含了以下共同的道德追求:尊重權(quán)利、造福人類、技術(shù)的設(shè)計(jì)和使用者應(yīng)當(dāng)可追責(zé)、技術(shù)操作的透明性、技術(shù)使用的最小化風(fēng)險(xiǎn)、建立追責(zé)的法律框架、使用技術(shù)應(yīng)當(dāng)承擔(dān)何種道德義務(wù)等。 應(yīng)該說(shuō),這是目前針對(duì)人工智能技術(shù)使用的普遍性道德要求,其對(duì)于司法領(lǐng)域同樣適用。 因此,法律規(guī)范與道德控制互為補(bǔ)充、不可偏廢。 顯而易見(jiàn),道德控制與“僵硬”的法律規(guī)范相比更具有靈活性,在規(guī)制人工智能司法應(yīng)用的問(wèn)題上會(huì)有更大的彈性。 法律和道德的雙向規(guī)制不僅可以有效地作用于技術(shù)使用者,而且能夠?qū)夹g(shù)本身產(chǎn)生積極影響,也即在技術(shù)程式本身的設(shè)計(jì)上,不僅需要考慮到法律規(guī)范的禁止、強(qiáng)制性規(guī)定,而且還要參考道德倫理準(zhǔn)則中的建議性要求。 如此,道德因素的注入能在很大程度上以其本身的靈活與公正化解智能技術(shù)應(yīng)用中的機(jī)械和歧視問(wèn)題。
此外,筆者想要強(qiáng)調(diào)的是,對(duì)于人工智能技術(shù)而言,其積累資料需要大量時(shí)間,運(yùn)算程式也要因時(shí)因勢(shì)不斷調(diào)整。 在司法這一獨(dú)特領(lǐng)域中,如何科學(xué)適用人工智能技術(shù)還有待完善,可以預(yù)見(jiàn)的是,陣痛與過(guò)渡不可避免,改革與反思仍須前行。