王玉薇,任一晗
(東北林業(yè)大學(xué) 文法學(xué)院,黑龍江 哈爾濱 150040)
近年來(lái),隨著人工智能算法的應(yīng)用,算法“黑箱”問(wèn)題也引起了人們的廣泛關(guān)注。算法黑箱存在著封閉性、歧視性與風(fēng)險(xiǎn)性等相關(guān)問(wèn)題,有針對(duì)性地研究和分析人工智能算法黑箱給法律所帶來(lái)的挑戰(zhàn)及制定規(guī)制策略是非常有必要的。算法黑箱的封閉性影響立法決策的準(zhǔn)確,人工智能算法黑箱的歧視性影響司法決策的公正,人工智能算法黑箱的風(fēng)險(xiǎn)性加大行政監(jiān)管的難度。我國(guó)互聯(lián)網(wǎng)信息服務(wù)領(lǐng)域出臺(tái)的算法推薦規(guī)章制度,如2022年3月1日,國(guó)家網(wǎng)信辦、工信部、公安部、市監(jiān)局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,這是防范化解算法黑箱安全風(fēng)險(xiǎn)的迫切需要,也是促進(jìn)算法發(fā)展、提升監(jiān)管能力現(xiàn)實(shí)需要。就目前來(lái)看,有學(xué)者主張算法透明,[1](P151-160)也有學(xué)者從監(jiān)管的角度對(duì)算法進(jìn)行規(guī)制,[2](P108-114)因此對(duì)人工智能算法黑箱法律應(yīng)對(duì)的系統(tǒng)化研究仍需繼續(xù)推進(jìn)?;诖耍疚膰L試對(duì)人工智能算法黑箱在立法、司法與監(jiān)管方面存在的問(wèn)題進(jìn)行深入分析,并提出解決人工智能算法黑箱問(wèn)題的相應(yīng)對(duì)策。
隨著人工智能算法在立法活動(dòng)中逐步應(yīng)用,在應(yīng)用過(guò)程中極大提高了立法決策的效率和立法決策的客觀性和專業(yè)化程度,同時(shí)也會(huì)產(chǎn)生封閉化的立法決策。算法黑箱在立法的過(guò)程中一直扮演無(wú)形的支配者,阻礙了民主立法的進(jìn)程,算法黑箱的封閉性影響立法決策主要體現(xiàn)在兩方面:
首先,人工智能算法黑箱的封閉性導(dǎo)致立法決策形式固化。由于算法設(shè)計(jì)研發(fā)過(guò)程是封閉的,互聯(lián)網(wǎng)平臺(tái)企業(yè)為了實(shí)現(xiàn)自身利益訴求,將利益企圖和行為指向植入規(guī)則驅(qū)動(dòng)的算法中,并以算法安全與算法保密為由,不公開算法設(shè)計(jì)規(guī)則和運(yùn)行程序,以避免因程序漏洞、方法不當(dāng)、違規(guī)違法等問(wèn)題而遭受指控。以算法自動(dòng)化運(yùn)行為理由,將引發(fā)風(fēng)險(xiǎn)的責(zé)任歸咎于算法技術(shù)本身,立法者信任算法黑箱輸出的信息,但經(jīng)過(guò)算法黑箱處理的立法信息規(guī)律性極強(qiáng),加上專業(yè)化的篩查分析,作出的立法決策具有極強(qiáng)的邏輯性,即使公開征求民意也不能對(duì)專業(yè)的立法決策進(jìn)行反駁。[3](P32-36)在立法者眼里,他們的知識(shí)儲(chǔ)備與自身職能不允許立法有失一定的法律邏輯,即使這個(gè)決策無(wú)法體現(xiàn)人民群眾的意志。因此,在這類問(wèn)題中公開的征求意見機(jī)制形同虛設(shè),最后對(duì)于立法的民意調(diào)查也只能成為專家社會(huì)調(diào)查的補(bǔ)充。算法黑箱的封閉逐漸形成只求法律邏輯而不顧感性的內(nèi)在思維,造成立法信息的單一,進(jìn)而影響立法決策的準(zhǔn)確。
其次,人工智能算法黑箱的封閉性導(dǎo)致立法決策缺乏民意。算法黑箱通過(guò)對(duì)數(shù)據(jù)分析整合,對(duì)立法信息進(jìn)行預(yù)測(cè),最后找出多數(shù)人的偏好,就形成了民主立法信息,這樣的信息看起來(lái)客觀公正,但應(yīng)該考慮這是否會(huì)形成多數(shù)人暴政。公眾輿論作為中央立法者了解民意的一個(gè)普遍渠道,它的形成原因及是否客觀公正是非常重要的。由于算法黑箱的封閉性使得民眾參與政治討論的機(jī)會(huì)幾乎為零,這樣會(huì)造成話語(yǔ)被操控,這種公眾輿論失去意義。例如:微博熱搜在近些年來(lái)也是可以被操控的,通過(guò)一定的技術(shù)手段去撤下熱搜、雇傭水軍、上熱搜等引導(dǎo)輿論。當(dāng)立法者想要獲取民意作為立法決策的參考時(shí),算法中的數(shù)據(jù)和民意結(jié)果不能中立客觀。算法被人操控,算法偏見無(wú)法避免,并導(dǎo)致數(shù)據(jù)偏頗偏離民主。在立法過(guò)程中過(guò)度依賴算法黑箱提供的數(shù)據(jù)而割裂了民意調(diào)查,一定會(huì)造成信息的不準(zhǔn)確,甚至導(dǎo)致立法決策與民意相悖,封閉的算法黑箱會(huì)在不知不覺(jué)中屏蔽掉公共意志,影響立法決策的準(zhǔn)確。
首先,人工智能算法黑箱的歧視性可能會(huì)對(duì)案件事實(shí)的認(rèn)定構(gòu)成誤導(dǎo)。由智能辦案輔助系統(tǒng)提出證據(jù)指引,并對(duì)單一證據(jù)、證據(jù)鏈和全案依據(jù)進(jìn)行校驗(yàn)審查,是當(dāng)前人工智能算法參與司法事實(shí)認(rèn)定的主要形式。雖然算法是數(shù)字的表達(dá)和計(jì)算,似乎不被賦予價(jià)值和任何情感,能做到不偏不倚,處于客觀公正的地位。但是,算法會(huì)受到算法設(shè)計(jì)人員價(jià)值觀念的影響,也有數(shù)據(jù)本身暗藏的歧視影響,或是因?yàn)閿?shù)據(jù)分析過(guò)程中,把相關(guān)關(guān)系和因果關(guān)系進(jìn)行了混淆,數(shù)據(jù)經(jīng)過(guò)算法“黑箱”式的計(jì)算,結(jié)論中就會(huì)存在偏見,當(dāng)人工智能算法黑箱被運(yùn)用到司法決策中,從而產(chǎn)生的歧視性會(huì)影響司法決策的公正。
其次,人工智能算法黑箱的歧視性會(huì)阻礙法律適用。法律適用是基于正確理解案件的事實(shí)。算法黑箱的歧視會(huì)使事實(shí)認(rèn)定出現(xiàn)偏差,法律適用會(huì)出現(xiàn)過(guò)錯(cuò)。最明顯的反映在算法自動(dòng)化決策輔助系統(tǒng)中,犯罪事實(shí)的處理、證據(jù)的收集和判決中量刑如何確定都是由人工智能輔助系統(tǒng)獨(dú)立完成的。司法人員在輸出中可以看到判決中量刑和法律適配的結(jié)果,但他們無(wú)法了解其過(guò)程在選擇法條適用中是否出現(xiàn)紕漏。算法系統(tǒng)對(duì)案例進(jìn)行篩選,且不能充分理解法律條文。對(duì)于在應(yīng)用人工智能算法中遇到的問(wèn)題,“206系統(tǒng)”要發(fā)掘和及時(shí)地通過(guò)典型的刑事案件、司法信息資源、案例處理經(jīng)驗(yàn)、上海公安和司法機(jī)構(gòu)積累的上海高等法院指定的證據(jù)規(guī)則和證據(jù)模型,確保證據(jù)缺陷和證據(jù)之間的矛盾,為保證審查和起訴,提出逮捕和轉(zhuǎn)移的案件都符合法規(guī)的標(biāo)準(zhǔn)。[2](P108-116)然而在人工智能算法應(yīng)用過(guò)程中,由于算法存在黑箱模型,算法在量刑的可信度、智能推送相似案例參考(類案推送)的可解釋性等方面存在質(zhì)疑。司法審判屬于強(qiáng)邏輯推理的領(lǐng)域,并且司法審判結(jié)果關(guān)乎人權(quán)與公正等價(jià)值判斷,如何保證智能量刑結(jié)果的可信度、類案推送的可解釋性,是“206系統(tǒng)”研發(fā)過(guò)程中面臨的極大挑戰(zhàn)。法律適用受到人工智能算法黑箱的歧視性的影響更加嚴(yán)重和明顯。
再次,人工智能算法黑箱的歧視性會(huì)固化司法不公。如果根據(jù)算法決策的基本原則,算法過(guò)去被訓(xùn)練為不正確或偏頗的數(shù)據(jù),其結(jié)果也帶有歧視,然后將數(shù)據(jù)輸出到系統(tǒng),歧視加固形成歧視閉環(huán)。因此,在算法黑箱歧視下,智能辦理案件系統(tǒng)可能會(huì)不準(zhǔn)確,這會(huì)對(duì)事實(shí)認(rèn)定形成誤導(dǎo)和法律適用造成阻礙,從而導(dǎo)致個(gè)別案件司法決策的不公平。不公平的結(jié)果將繼續(xù)成為算法數(shù)據(jù)的基礎(chǔ),惡化算法黑箱的歧視,通過(guò)參考和指導(dǎo)影響將來(lái)類似案例的司法決策,成為類似案件審判上司法公正的威脅。例如,人工智能算法黑箱的歧視性最明顯體現(xiàn)在盧米斯一案中,法院承認(rèn) COMPAS 風(fēng)險(xiǎn)評(píng)估工具存在于司法實(shí)踐中的價(jià)值,也提示司法界對(duì)該工具的風(fēng)險(xiǎn)應(yīng)有足夠清醒的認(rèn)識(shí)。[4](P16-18)人工智能算法黑箱中的歧視問(wèn)題無(wú)法公開。當(dāng)用犯罪風(fēng)險(xiǎn)評(píng)估軟件對(duì)犯罪嫌疑人進(jìn)行評(píng)估時(shí),司法決策不是規(guī)則,而是代碼。當(dāng)程序員把既定的代碼轉(zhuǎn)化為程序時(shí),他們既是規(guī)則的設(shè)定者,也是規(guī)則的操控者。但是,公眾、官員和法官并不了解其中的機(jī)制,無(wú)法分析人工智能算法自動(dòng)化決策的透明度、問(wèn)責(zé)制和準(zhǔn)確性。在缺乏必要的問(wèn)責(zé)機(jī)制的情況下,不可逆轉(zhuǎn)的算法黑箱的歧視性影響了司法公正。
人工智能算法黑箱的風(fēng)險(xiǎn)性使得行政監(jiān)管遇到嚴(yán)峻考驗(yàn)。算法的思維邏輯像一張復(fù)雜的神經(jīng)網(wǎng)絡(luò)使得算法黑箱難以解釋,特別是對(duì)于高度復(fù)雜的高級(jí)算法,研究者對(duì)其架構(gòu)設(shè)計(jì)也難以完全理解。許多技術(shù)工程師或程序員在過(guò)程中不同階段提供不同的代碼。個(gè)人很難看到全局,而“創(chuàng)新的速度和根源使監(jiān)管更加復(fù)雜”。具體來(lái)說(shuō),人工智能算法黑箱的風(fēng)險(xiǎn)性主要給監(jiān)管帶來(lái)兩個(gè)維度的挑戰(zhàn)。
首先,人工智能算法黑箱的風(fēng)險(xiǎn)性導(dǎo)致行政監(jiān)管難以歸責(zé)。“黑箱”的存在制約了政府治理算法的內(nèi)容和手段,使政府陷入監(jiān)管算法失靈的困境。算法“黑箱”的存在使得算法漏洞和算法缺陷被隱藏。一旦算法在數(shù)據(jù)、模型、方法等方面出現(xiàn)問(wèn)題,算法的應(yīng)用結(jié)果就會(huì)與應(yīng)用目標(biāo)相違背。[5](P53-86)政府公共部門作為算法技術(shù)應(yīng)用的推動(dòng)者,應(yīng)該對(duì)算法進(jìn)行管理,保證算法技術(shù)的健康應(yīng)用。然而,“黑箱”使得公共部門難以對(duì)算法信息進(jìn)行審核,幾乎不可能對(duì)問(wèn)題的焦點(diǎn)進(jìn)行識(shí)別和判斷,因此難以對(duì)算法問(wèn)題進(jìn)行及時(shí)問(wèn)責(zé)和糾正。更重要的是,技術(shù)公司或算法設(shè)計(jì)者開始利用機(jī)器與人之間形成的“黑箱”來(lái)逃避算法自動(dòng)運(yùn)行的責(zé)任。風(fēng)險(xiǎn)的責(zé)任歸于算法技術(shù)本身,技術(shù)外包的責(zé)任歸屬成為難題,加大了政府對(duì)技術(shù)公司的問(wèn)責(zé)和算法問(wèn)題的治理難度。[6](P52-62)
其次,人工智能算法黑箱的風(fēng)險(xiǎn)性導(dǎo)致行政監(jiān)管缺乏公信力。公眾期待政府公共部門參與算法、代理算法和治理算法,構(gòu)建、維護(hù)和鞏固算法社會(huì)秩序,從而實(shí)現(xiàn)政府對(duì)公眾負(fù)責(zé)的目標(biāo)。但算法“黑箱”使得許多算法過(guò)程顯得不透明,這使得公眾不知道算法的設(shè)計(jì)意圖涉及到自己的利益及數(shù)據(jù)源是否合法,算法如何工作,以保證運(yùn)算結(jié)果的公平性,這意味著公民的知情權(quán)在一定程度上被這種情況所覆蓋,很可能引起公眾對(duì)算法合理性的擔(dān)憂,進(jìn)而引發(fā)對(duì)政府的信任危機(jī)。[7]除了算法信任危機(jī)外,還有兩個(gè)原因:一方面,政府監(jiān)管算法的失效導(dǎo)致政府信任危機(jī),黑箱的存在讓政府統(tǒng)治算法的內(nèi)容和手段有限。另一方面,公共領(lǐng)域算法風(fēng)險(xiǎn)導(dǎo)致政府信任危機(jī)。[8]算法決策結(jié)果、策略判斷和“黑箱”掩蓋了公平,政府無(wú)法檢驗(yàn)算法運(yùn)行的結(jié)果是否準(zhǔn)確。這種情況在現(xiàn)實(shí)中得到了驗(yàn)證,將算法應(yīng)用到公共事務(wù)中有眾多風(fēng)險(xiǎn)。預(yù)測(cè)決策算法不完全公平或有差錯(cuò)。例如,美國(guó)法院使用商業(yè)公司開發(fā)的COMPAS算法評(píng)估犯罪風(fēng)險(xiǎn),證明算法黑箱中存在對(duì)種族的偏見并歧視黑人。對(duì)于應(yīng)用于公共領(lǐng)域的算法來(lái)說(shuō),公平性比算法的性能重要得多,但它不在私有技術(shù)公司和算法設(shè)計(jì)者的范圍之內(nèi),只有在政府和公共部門的監(jiān)管下,我們才可以選擇公平而不是算法所謂的客觀。然而,在這個(gè)過(guò)程中,政府進(jìn)入了一個(gè)自己無(wú)法觀察、無(wú)法理解、無(wú)法解釋的算法“黑箱”,政府責(zé)任的有效性和公平性無(wú)法評(píng)價(jià),也無(wú)法對(duì)公眾負(fù)責(zé),為政府帶來(lái)了監(jiān)管上的困境。
首先,算法決策立法的透明化。算法透明度的核心是公眾可以看懂并理解算法決策,這是公眾監(jiān)督的先決條件。人工智能算法黑箱問(wèn)題必須通過(guò)構(gòu)建算法透明制度加以解決,實(shí)現(xiàn)算法邏輯的透明化,以促進(jìn)立法決策的公正。算法的透明度是指源代碼的開放性和透明性,公布用于做出相關(guān)算法決策的輸入和輸出過(guò)程,以簡(jiǎn)明易懂的方式公開輸入到輸出的中間過(guò)程,以便被決策對(duì)象充分知悉并認(rèn)同算法的正當(dāng)合理性等內(nèi)容。例如,聯(lián)邦委員會(huì)的技術(shù)研究和調(diào)查事務(wù)所就算法的透明度進(jìn)行了獨(dú)立的研究,向律師和FTC消費(fèi)者保護(hù)調(diào)查官提供了關(guān)于算法透明度的訓(xùn)練和技術(shù)專業(yè)知識(shí)。封閉的算法黑箱容易導(dǎo)致形式固化的法律邏輯結(jié)構(gòu),因此,公開算法邏輯融入群眾的感性內(nèi)在思維,進(jìn)而提高立法決策的準(zhǔn)確性。
其次,立法決策信息的透明化。在對(duì)立法決策信息收集和民意調(diào)查中,應(yīng)實(shí)現(xiàn)信息的公開透明,進(jìn)而對(duì)所收集的數(shù)據(jù)進(jìn)行控制,例如,公開民意調(diào)查信息,立法者及立法部門在分析和審查立法信息時(shí)重點(diǎn)關(guān)注民意信息等。我國(guó)立法的權(quán)力屬于人民,人民是立法的主體,立法決策也是要按照人民的意愿及利益來(lái)制定實(shí)施,算法黑箱的封閉導(dǎo)致正義偏頗,數(shù)據(jù)被操控等現(xiàn)象。但是如果進(jìn)行立法決策信息公開,就可以對(duì)算法技術(shù)充分利用,也提高了人民群眾在立法中的參與,收集到的立法信息符合大眾趨勢(shì),使得法律規(guī)范保障人民的利益。
綜上所述,算法透明是立法決策的關(guān)鍵,也是立法原則的方向。因此,在立法決策中構(gòu)建算法透明制度實(shí)現(xiàn)算法邏輯的透明化與決策信息的透明化,解決封閉化的算法黑箱問(wèn)題,以提高立法決策的準(zhǔn)確性。
首先,確立算法披露制度。國(guó)外研究提出,技術(shù)公司應(yīng)向用戶解釋算法隱含的邏輯推理過(guò)程。[9]我國(guó)有學(xué)者指出,算法說(shuō)明應(yīng)包括“算法的邏輯、算法的種類、算法的功能、算法的設(shè)計(jì)者、算法的風(fēng)險(xiǎn)、算法的重大變化等”,[10](P1-17)基于人工智能算法黑箱的歧視性對(duì)司法決策影響深化的事實(shí),一方面受托從事司法智能輔助系統(tǒng)開發(fā)的技術(shù)公司應(yīng)當(dāng)根據(jù)合同的約定向司法機(jī)關(guān)就算法黑箱的過(guò)程詳細(xì)說(shuō)明義務(wù);例如:披露算法“黑箱”中隱藏的算法模型與公式、算法邏輯與規(guī)則、算法功能與風(fēng)險(xiǎn)等。另一方面,使用智能輔助系統(tǒng)的機(jī)關(guān)應(yīng)當(dāng)根據(jù)《關(guān)于司法公開的六項(xiàng)原則》《人民檢察院案件信息公開工作規(guī)定》等規(guī)定,將除涉及國(guó)家秘密以外的算法內(nèi)容以可理解的方式向社會(huì)公開并接受公眾監(jiān)督,讓更多的人理解算法、參與算法、信任算法,目的在于改善算法,讓算法更好地服務(wù)社會(huì)。對(duì)此應(yīng)盡可能的保證算法輸入數(shù)據(jù)的公開性、這樣才能在最大限度內(nèi)削弱算法黑箱的歧視。為了實(shí)現(xiàn)這一目標(biāo),應(yīng)確立算法設(shè)計(jì)者和算法服務(wù)提供者算法信息披露制度來(lái)解決司法不公問(wèn)題。
其次,建立和完善算法審查制度。著名人工智能專家吳季松認(rèn)為,算法的開發(fā)需要法律的約束與監(jiān)督,并建議考慮制定《人工智能法》,從而減輕人工智能的消極影響,擴(kuò)大其正面效益,更好地為人類造福。[11](P14)這就要求做到:1.技術(shù)機(jī)構(gòu)應(yīng)當(dāng)自行評(píng)價(jià)已有或?qū)⒁褂玫乃惴ㄗ詣?dòng)決策系統(tǒng),以發(fā)現(xiàn)算法自動(dòng)化決策系統(tǒng)對(duì)公平、公正、偏見或其他重大問(wèn)題可能產(chǎn)生的影響;2.技術(shù)機(jī)構(gòu)應(yīng)當(dāng)建立有效的外部研究者審查過(guò)程,以發(fā)現(xiàn)、測(cè)量或追蹤長(zhǎng)期效應(yīng);3.各機(jī)關(guān)在取得自動(dòng)決策制度前,必須將其定義告知大眾,并將所有有關(guān)的自我評(píng)估、外部評(píng)估的審查程序告知大眾;4.技術(shù)機(jī)構(gòu)應(yīng)當(dāng)與公眾協(xié)商,闡明關(guān)注和答復(fù)有待解決的問(wèn)題;5.在各機(jī)關(guān)沒(méi)有能夠減輕或改正那些評(píng)估不充分、不公平、偏見或其它危險(xiǎn)的自動(dòng)決策制度時(shí),政府應(yīng)當(dāng)向受害人員或團(tuán)體提供適當(dāng)?shù)脑V訟機(jī)制,以保證各項(xiàng)權(quán)利的有效救濟(jì)。司法智能輔助系統(tǒng)作為可對(duì)司法決策產(chǎn)生重要影響的工具,參照目前域外相關(guān)企業(yè)和組織的做法,建立出法官、檢察官、律師和其他人工智能、計(jì)算機(jī)、倫理學(xué)、法學(xué)等領(lǐng)域的專家組成的倫理審查委員會(huì),對(duì)算法黑箱的歧視涉及的倫理、技術(shù)進(jìn)行審查監(jiān)督,最大限度保證算法黑箱的公正和合法性。對(duì)于智能輔助系統(tǒng)的審查應(yīng)包括事前審查,事中審查和事后審查。
總之,對(duì)于人工智能算法黑箱問(wèn)題的防范應(yīng)體現(xiàn)在算法的研發(fā)與設(shè)計(jì)中,堅(jiān)持采用已有案例加以訓(xùn)練,避免因數(shù)據(jù)歧視而導(dǎo)致司法決策不準(zhǔn)確問(wèn)題。健全算法披露和審查制度,探究算法中存在與倫理要求不符的價(jià)值偏見,并對(duì)存在歧視的數(shù)據(jù)進(jìn)行矯正,防止影響司法決策的公正。
2017年國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展計(jì)劃》提出建立健全公開透明的人工智能監(jiān)管體系,實(shí)行設(shè)計(jì)問(wèn)責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu),實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)和成果應(yīng)用等的全流程監(jiān)管。政府應(yīng)該建立專門監(jiān)管機(jī)構(gòu)來(lái)督促算法運(yùn)行。
首先,建立專門算法監(jiān)管機(jī)構(gòu)。該機(jī)構(gòu)必須是獨(dú)立的且有相應(yīng)的權(quán)限,應(yīng)由具有專業(yè)算法知識(shí)的法律人員組成。當(dāng)人們認(rèn)為算法決策過(guò)程中存在的問(wèn)題侵犯了自己的權(quán)利時(shí),可以向算法監(jiān)管機(jī)構(gòu)投訴;當(dāng)算法決策違反公共利益時(shí),組織也可以根據(jù)其權(quán)限查詢相關(guān)算法開發(fā)者和用戶。[12](P77-90)
其次,建立全流程監(jiān)管機(jī)制。目前,在算法行政監(jiān)管方面較為有效的是建立算法審查評(píng)估和動(dòng)態(tài)監(jiān)測(cè)機(jī)制。一方面,建立事前的算法審查報(bào)批制度。在公共管理、個(gè)人隱私保護(hù)、金融征信等領(lǐng)域的算法要建立起算法準(zhǔn)入制度,算法設(shè)計(jì)者必須具備一定的資質(zhì)才能進(jìn)行該領(lǐng)域算法的開發(fā)、設(shè)計(jì),有必要還需要對(duì)社會(huì)進(jìn)行公開。在審查階段,確保算法不存在明顯歧視和缺陷,確保算法的可用性。將算法的運(yùn)作過(guò)程進(jìn)行公布。算法的開發(fā)者應(yīng)當(dāng)參照專利權(quán)申請(qǐng)一樣,對(duì)其所開發(fā)的算法進(jìn)行內(nèi)容的展示和說(shuō)明,其中包括算法的參數(shù)、數(shù)據(jù)、目的等信息要素,保障算法開發(fā)的合理性和明確的責(zé)任歸屬。[13]
另一方面,加強(qiáng)算法應(yīng)用動(dòng)態(tài)監(jiān)測(cè)。強(qiáng)化對(duì)算法的事中監(jiān)管,提高對(duì)算法風(fēng)險(xiǎn)的預(yù)測(cè)、防范能力。
再次,設(shè)置第三方獨(dú)立性機(jī)構(gòu)加強(qiáng)對(duì)算法的監(jiān)管。算法黑箱的妨害具有明顯的公共特性,且會(huì)隨著算法自動(dòng)化決策的積累對(duì)社會(huì)和公眾產(chǎn)生交叉?zhèn)ΑN覈?guó)可以設(shè)置如算法倫理委員會(huì)的第三方獨(dú)立性機(jī)構(gòu)對(duì)算法黑箱進(jìn)行控制,其主要負(fù)責(zé)算法權(quán)力主體濫用算法權(quán)力而危及社會(huì)公共利益時(shí),算法相對(duì)人可由第三方獨(dú)立性機(jī)構(gòu)向?qū)I(yè)性算法審查機(jī)構(gòu)申請(qǐng)進(jìn)行事后矯正階段審查。在監(jiān)管方式方面,可以通過(guò)監(jiān)管影響評(píng)估、評(píng)估算法的詳細(xì)說(shuō)明(包括設(shè)計(jì)、培訓(xùn)、數(shù)據(jù)及其目標(biāo))以及評(píng)估算法對(duì)個(gè)人隱私和安全的影響和歧視性后果的風(fēng)險(xiǎn)來(lái)進(jìn)行披露。 此外,第三方機(jī)構(gòu)對(duì)監(jiān)管中算法的使用進(jìn)行監(jiān)督,將有助于豐富算法自由,同時(shí)繼續(xù)發(fā)揮算法的作用。該監(jiān)督由算法開發(fā)者或算法服務(wù)提供者擔(dān)任,第三方監(jiān)督者應(yīng)承擔(dān)相應(yīng)的責(zé)任,這種第三方監(jiān)督機(jī)制可以補(bǔ)充算法算法設(shè)計(jì)者和算法服務(wù)商的算法信息披露制度,從而提高算法的公開性,規(guī)范算法黑箱的歧視性問(wèn)題。在日常生活中,第三方獨(dú)立性機(jī)構(gòu)幫助有關(guān)主體解答其關(guān)于算法黑箱規(guī)制方面的疑問(wèn),并開展與算法知識(shí)相關(guān)的教育實(shí)踐活動(dòng)。
總之,我國(guó)應(yīng)設(shè)立專業(yè)性算法審查機(jī)構(gòu)在事前備案、事中控制、事后矯正這三個(gè)階段進(jìn)行全過(guò)程行政審查,逐步完善算法責(zé)任制度對(duì)利用算法違法的行為追責(zé),設(shè)置算法解釋權(quán)與第三方獨(dú)立機(jī)構(gòu),發(fā)展算法行業(yè)自律以求能實(shí)現(xiàn)全過(guò)程、多元化、全方位的利用法律規(guī)制算法黑箱,引導(dǎo)算法行業(yè)朝著正確的方向穩(wěn)步發(fā)展。但法律規(guī)制算法黑箱不能僅靠法律工作者的單方面努力,還需要法律工作者與技術(shù)人員的合作才能實(shí)現(xiàn)從根本上規(guī)制算法黑箱。因此,將法律手段與技術(shù)手段相結(jié)合從而高效的對(duì)算法黑箱進(jìn)行規(guī)制成為一個(gè)新的問(wèn)題需要進(jìn)一步深入的研究。