摘要:企業(yè)是重要的人工智能實(shí)踐主體,監(jiān)督問(wèn)責(zé)機(jī)制的缺位和企業(yè)對(duì)倫理原則內(nèi)在承諾的缺失,導(dǎo)致倫理原則難以約束企業(yè)在該領(lǐng)域的前沿實(shí)踐。命令控制型規(guī)制作為對(duì)企業(yè)行為的直接規(guī)制模式,無(wú)法有效滿(mǎn)足人工智能倫理治理的現(xiàn)實(shí)要求。元規(guī)制作為一種對(duì)企業(yè)自我規(guī)制的間接規(guī)制模式,能夠以實(shí)驗(yàn)性的自我規(guī)制積累治理經(jīng)驗(yàn),以民主協(xié)商凝聚規(guī)范性共識(shí),以激勵(lì)性問(wèn)責(zé)激發(fā)企業(yè)對(duì)原則的內(nèi)在承諾,從而推動(dòng)企業(yè)將人工智能倫理原則付諸實(shí)踐。建構(gòu)人工智能倫理治理的元規(guī)制機(jī)制,應(yīng)以風(fēng)險(xiǎn)為導(dǎo)向設(shè)定類(lèi)型化和場(chǎng)景化的規(guī)制目標(biāo),通過(guò)執(zhí)法金字塔和企業(yè)的分類(lèi)監(jiān)管,提升人工智能企業(yè)自我規(guī)制的意愿和能力,并建立對(duì)人工智能企業(yè)自我評(píng)估的元評(píng)估機(jī)制。
關(guān)鍵詞:人工智能倫理;企業(yè)監(jiān)管;自我規(guī)制;元規(guī)制
中圖分類(lèi)號(hào):DF37;F27" " 文獻(xiàn)標(biāo)志碼:A" " 文章編號(hào):1001-862X(2024)05-0148-008
一、人工智能倫理的共識(shí)性原則及元規(guī)制的提出
隨著人工智能技術(shù)的發(fā)展,社會(huì)各界對(duì)其引發(fā)的算法偏見(jiàn)、隱私泄露、技術(shù)濫用等倫理風(fēng)險(xiǎn)的擔(dān)憂也日漸增加。人們紛紛呼吁對(duì)人工智能展開(kāi)倫理治理,使其應(yīng)用符合人類(lèi)的價(jià)值觀,實(shí)現(xiàn)“人機(jī)價(jià)值對(duì)齊”[1]。在此背景下,各國(guó)政府、國(guó)際組織、行業(yè)協(xié)會(huì)和科技公司等近年來(lái)發(fā)布了一系列人工智能倫理建議、準(zhǔn)則、指南等規(guī)范性文件。(1)截至2023年,全球人工智能倫理治理的規(guī)范性文件已有200余部。[2]各類(lèi)人工智能倫理文件中的原則已經(jīng)逐漸趨同,大體可歸納為行善(Beneficence)、無(wú)害(Non-Maleficence)、正義/公平(Justice,Fairness)、隱私保護(hù)原則(Privacy)、透明/可解釋原則(Transparency,Explicability)、責(zé)任/問(wèn)責(zé)原則(Responsibility,Accountability)自由/自主(Freedom,Autonomy)等七項(xiàng)。[3]隨著社會(huì)各界對(duì)于人工智能應(yīng)遵循什么樣的倫理原則已經(jīng)形成基本共識(shí),下一步人工智能倫理治理的重點(diǎn)應(yīng)轉(zhuǎn)向如何在實(shí)踐中貫徹這些原則。[4]2141-2168
企業(yè)作為推動(dòng)新一代人工智能發(fā)展的重要主體,對(duì)人工智能倫理原則的實(shí)踐有著重要影響。在國(guó)際上,AlphaGo、ChatGPT等突破性的算法應(yīng)用,均來(lái)自于DeepMind、OpenAI等人工智能企業(yè)。我國(guó)在政策上也多次強(qiáng)調(diào)企業(yè)在人工智能發(fā)展中的主體地位。2017年國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出:“突出企業(yè)在技術(shù)路線選擇和行業(yè)產(chǎn)品標(biāo)準(zhǔn)制定中的主體作用。”2022年科技部等六部門(mén)印發(fā)的《關(guān)于加快場(chǎng)景創(chuàng)新 以人工智能高水平應(yīng)用促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展的指導(dǎo)意見(jiàn)》也指出,推動(dòng)人工智能場(chǎng)景創(chuàng)新應(yīng)以企業(yè)為主導(dǎo),“堅(jiān)持企業(yè)在場(chǎng)景創(chuàng)新全過(guò)程中的主體地位”。
身處產(chǎn)業(yè)一線的企業(yè)在人工智能治理方面擁有信息和技術(shù)上的優(yōu)勢(shì),但天然的趨利性使其缺少足夠的動(dòng)力貫徹人工智能倫理原則。針對(duì)這一難題,政府可采用元規(guī)制(Meta-Regulation)的監(jiān)管模式推動(dòng)企業(yè)對(duì)原則的遵從。所謂元規(guī)制是指對(duì)規(guī)制本身的規(guī)制,具體而言即由監(jiān)管部門(mén)對(duì)企業(yè)自我規(guī)制實(shí)施的規(guī)制。因此,元規(guī)制是一種由多元主體構(gòu)成的二階監(jiān)管模式,其中,企業(yè)實(shí)施著自我規(guī)制,而監(jiān)管部門(mén)則在二階層次上對(duì)企業(yè)的自我規(guī)制進(jìn)行規(guī)制。[5]與之相對(duì)的監(jiān)管模式是一階的命令控制型規(guī)制,即監(jiān)管部門(mén)通過(guò)具體命令對(duì)企業(yè)行為的直接管控。在分析人工智能倫理原則實(shí)效性缺失表現(xiàn)和成因基礎(chǔ)上,本文剖析對(duì)比了命令控制型規(guī)制和元規(guī)制的治理邏輯,并試圖論證命令控制型規(guī)制難以化解人工智能倫理原則實(shí)效性缺失的問(wèn)題,而元規(guī)制可為此提供一套可行的制度方案。
二、企業(yè)監(jiān)管視角下人工智能倫理原則的實(shí)效性缺失問(wèn)題
從功能的角度來(lái)看,規(guī)范具有實(shí)效性意味著它能夠指引人們的行為。規(guī)范的指引功能既包括積極的指導(dǎo),即明確人們應(yīng)當(dāng)做什么,也包括消極的約束,即阻止人們實(shí)施越軌行為。因此,從企業(yè)監(jiān)管的視角來(lái)看,人工智能倫理原則實(shí)效性的缺失集中體現(xiàn)在其難以指導(dǎo)和約束企業(yè)實(shí)踐。
人工智能企業(yè)可以通過(guò)多種方式規(guī)避原則的要求。其中一種典型的規(guī)避方式就是所謂的“倫理選購(gòu)”(ethics shopping),這是指人工智能企業(yè)從諸多倫理原則中挑選出部分原則,用它們來(lái)正當(dāng)化企業(yè)當(dāng)前的行為,而不是根據(jù)原則糾正和改進(jìn)既有的行為。企業(yè)從“原則市場(chǎng)”中挑選出最契合自己原有行為的各項(xiàng)原則,將該行為予以正當(dāng)化。人工智能倫理原則由此淪為一種企業(yè)在事后用于正當(dāng)化既有行為的幌子,而不再是一種可以敦促企業(yè)改變現(xiàn)狀的、批判性的評(píng)價(jià)標(biāo)準(zhǔn)。另一種規(guī)避原則的方式被稱(chēng)為“倫理洗白”(ethics washing),這是指企業(yè)通過(guò)采取營(yíng)銷(xiāo)、贊助等公關(guān)手段或者沒(méi)有實(shí)際作用的倫理審查措施,包裝出其遵守人工智能倫理的正面形象,但其實(shí)際的行為卻與之相反。[6]186-188此外,倫理原則與產(chǎn)業(yè)實(shí)踐存在著嚴(yán)重脫節(jié)。在設(shè)計(jì)符合倫理的人工智能產(chǎn)品時(shí),AI從業(yè)者能夠獲得的工具、方法等資源,遠(yuǎn)遠(yuǎn)少于他們認(rèn)為有用的資源。例如,接近30%的被訪者都認(rèn)為倫理設(shè)計(jì)細(xì)則是有用的,但是卻只有不足15%的被訪者可以獲得此類(lèi)細(xì)則。[7]
人工智能倫理原則在實(shí)踐中效果不佳,其成因可以從原則的實(shí)體內(nèi)容和約束機(jī)制兩個(gè)方面進(jìn)行分析。在原則內(nèi)容方面,人工智能倫理原則高度抽象且模糊不清,這削弱了其對(duì)具體產(chǎn)業(yè)實(shí)踐的指導(dǎo)性;在約束機(jī)制方面,目前的人工智能倫理治理既缺少外部的監(jiān)督和問(wèn)責(zé)機(jī)制,也缺少人工智能企業(yè)對(duì)原則的內(nèi)在承諾,故而難以對(duì)企業(yè)的行為產(chǎn)生約束。
首先,對(duì)于企業(yè)的算法開(kāi)發(fā)和運(yùn)用實(shí)踐而言,過(guò)于抽象、籠統(tǒng)的倫理原則難以提供具體可操作的技術(shù)指引和行為規(guī)范。其一,規(guī)制對(duì)象具有高度的異質(zhì)性。[8]503人工智能并不是某種單一的技術(shù),而是問(wèn)題求解、知識(shí)推理、機(jī)器學(xué)習(xí)等多種不同算法技術(shù)的集合。這些算法可以服務(wù)于內(nèi)容生成、人臉識(shí)別、機(jī)器翻譯等不同目的,并應(yīng)用于金融、醫(yī)療、司法等不同場(chǎng)景。技術(shù)和應(yīng)用的多樣性使得人工智能涉及的行業(yè)和利益群體具有高度異質(zhì)性,從而增加了倫理原則具體化的難度。其二,人工智能倫理缺少充足的實(shí)踐經(jīng)驗(yàn)基礎(chǔ)。就深度學(xué)習(xí)等塑造今天人工智能面貌的技術(shù)而言,其蓬勃發(fā)展僅僅是近二十年的事。在其短暫的歷史中,人工智能并未像醫(yī)學(xué)、法律那樣成為一個(gè)獨(dú)立的職業(yè),也沒(méi)有基于職業(yè)實(shí)踐而形成一套完備的職業(yè)倫理規(guī)范。[9]因此,目前的人工智能倫理原則主要是一種自上而下的人為建構(gòu)。它們只是抽象地表達(dá)了人們對(duì)于負(fù)責(zé)任人工智能的理想愿景,而沒(méi)有充足的實(shí)踐經(jīng)驗(yàn)作為支撐,所以難以具體化。
其次,內(nèi)容的模糊性是人工智能倫理原則缺乏實(shí)效的另一原因。原則內(nèi)容的模糊性體現(xiàn)在人們可以從不同的政治、利益和倫理立場(chǎng)出發(fā),對(duì)各原則的含義做出不同乃至于對(duì)立的解釋。[10]和抽象性問(wèn)題不同,人工智能倫理原則的模糊性并不緣于技術(shù)的復(fù)雜性,而是緣于公平、正義、人類(lèi)福祉等倫理價(jià)值本身的爭(zhēng)議性。例如在美國(guó)“威斯康辛州訴盧米斯”案中,Northpointe公司設(shè)計(jì)的一款用于預(yù)測(cè)罪犯累犯風(fēng)險(xiǎn)的算法將種族要素納入考量,這是否有違公正原則?一種觀點(diǎn)認(rèn)為,因?yàn)榉擅媲叭巳似降?,所以這是一種不當(dāng)?shù)姆N族歧視,違反了公平原則。另一種觀點(diǎn)則主張,如果有充足的統(tǒng)計(jì)學(xué)證據(jù)表明種族要素能夠預(yù)測(cè)罪犯的累犯風(fēng)險(xiǎn),那么這種差別對(duì)待就沒(méi)有違反公平;反之如果為迎合政治正確而刻意將種族要素從模型的變量中剔除,則構(gòu)成對(duì)白人的反向歧視。[11]因此一旦涉及具體問(wèn)題的評(píng)判,被抽象的原則所掩蓋的價(jià)值分歧就會(huì)暴露出來(lái)。這種分歧不是技術(shù)層面的,而是價(jià)值層面的。它們反映了人們對(duì)倫理原則本身的理解分歧,而人工智能只是展現(xiàn)這些分歧的一個(gè)具體場(chǎng)景。
再次,人工智能倫理原則作為一種軟法,缺少有力的監(jiān)督和問(wèn)責(zé)機(jī)制,因而難以對(duì)行為施加有效的外部約束。根據(jù)規(guī)制理論的基本原理,一套完整的規(guī)制機(jī)制應(yīng)當(dāng)包含標(biāo)準(zhǔn)制定、監(jiān)督執(zhí)行和問(wèn)責(zé)懲戒三大要素。[12]然而,目前的人工智能倫理治理尚未建立完備監(jiān)督評(píng)估機(jī)制,對(duì)于違反倫理原則的行為亦缺少相應(yīng)的懲戒機(jī)制。雖然在正式監(jiān)管之外還有市場(chǎng)可以發(fā)揮規(guī)制功能,但事實(shí)上市場(chǎng)的約束往往難以奏效。因?yàn)槿鄙賴(lài)?yán)格的監(jiān)督,企業(yè)可以利用其與消費(fèi)者之間的信息不對(duì)稱(chēng),包裝自己在倫理治理方面的努力和成績(jī),從而騙取良好的市場(chǎng)聲譽(yù),由于缺少正式有力的問(wèn)責(zé),消費(fèi)者短期的抵制對(duì)于科技巨頭的影響十分有限,難以形成實(shí)質(zhì)性的懲戒。
強(qiáng)制懲戒機(jī)制的缺失,導(dǎo)致了人工智能倫理原則的貫徹基本依靠企業(yè)自律,取決于企業(yè)對(duì)倫理原則的內(nèi)在承諾,即出于認(rèn)同而踐行倫理原則的意愿。在現(xiàn)實(shí)中,有的企業(yè)卻缺少這種對(duì)原則的內(nèi)在承諾。這意味著當(dāng)遵守倫理原則與企業(yè)的商業(yè)利益相悖時(shí),企業(yè)往往會(huì)選擇原則妥協(xié)而非利益妥協(xié),尤其是在外部監(jiān)管缺位的情況下。
三、元規(guī)制提高人工智能倫理原則實(shí)效性的理?yè)?jù)
從傳統(tǒng)法律規(guī)制的視角看,人工智能倫理原則缺乏實(shí)效性很大程度上緣于軟法規(guī)制的固有缺陷,即缺少具體明確的規(guī)則和有力的懲罰措施。因此,對(duì)于人工智能企業(yè)的監(jiān)管而言,應(yīng)當(dāng)從軟法規(guī)制轉(zhuǎn)向硬法規(guī)制,通過(guò)倫理原則的法律化提高其實(shí)效性,即根據(jù)原則制定具體的法律規(guī)則,對(duì)違反規(guī)則的行為設(shè)置法律責(zé)任,并投入執(zhí)法力量監(jiān)督企業(yè)是否守法。以命令和控制(command and control)為特征的規(guī)制模式,已經(jīng)難以滿(mǎn)足當(dāng)代人工智能倫理治理的需求,相比之下,元規(guī)制則能夠提供一種更為合理的規(guī)制方案。
(一)元規(guī)制與命令控制型規(guī)制的治理邏輯
命令控制型規(guī)制是一種對(duì)企業(yè)行為的直接規(guī)制。它將規(guī)制者和被規(guī)制者之間設(shè)想為一種科層式的“命令—服從”關(guān)系:由立法機(jī)關(guān)、政府等正式規(guī)制者發(fā)布法規(guī)和命令,而企業(yè)則予以遵照?qǐng)?zhí)行。于是企業(yè)就被簡(jiǎn)單地視為對(duì)法規(guī)和命令被動(dòng)的服從者,其不需要進(jìn)行能動(dòng)的自我規(guī)制,而只需嚴(yán)格甚至機(jī)械地遵守規(guī)則即可。然而,在環(huán)境治理、網(wǎng)絡(luò)治理和人工智能治理等新興的規(guī)制領(lǐng)域,命令控制型規(guī)制卻難以奏效,因?yàn)檫@些領(lǐng)域的治理問(wèn)題往往具有很高的技術(shù)性、動(dòng)態(tài)性和復(fù)雜性,而正式的監(jiān)管部門(mén)缺少必要的信息和資源去制定解決問(wèn)題的合理對(duì)策。[13]169-170
企業(yè)對(duì)于新興領(lǐng)域的治理問(wèn)題有著更為深入的了解,而且憑借其信息和技術(shù)上的優(yōu)勢(shì),也更有能力找到解決問(wèn)題的方案,但是企業(yè)作為營(yíng)利主體,本身缺少動(dòng)力實(shí)現(xiàn)公共性的規(guī)制目標(biāo)。元規(guī)制的治理邏輯在于,一方面利用被規(guī)制者的信息和技術(shù)優(yōu)勢(shì),把尋找問(wèn)題解決方案的責(zé)任從監(jiān)管部門(mén)轉(zhuǎn)移給企業(yè),另一方面通過(guò)執(zhí)法和問(wèn)責(zé)機(jī)制,敦促其通過(guò)自我規(guī)制對(duì)規(guī)制目標(biāo)和監(jiān)管要求予以回應(yīng)。按照這一治理邏輯,元規(guī)制不再直接規(guī)制被規(guī)制者的行動(dòng),而是要間接地對(duì)其自我規(guī)制的過(guò)程實(shí)施規(guī)制。[14]
命令控制型規(guī)制和元規(guī)制治理邏輯的差異具體體現(xiàn)在以下兩個(gè)方面。一是,在命令的形式方面。命令控制型規(guī)制采用的是具體的指令性標(biāo)準(zhǔn)(prescriptive standard)或績(jī)效標(biāo)準(zhǔn)(performance standard),要求被規(guī)制者必須采取某種解決問(wèn)題的手段,或者達(dá)到特定的績(jī)效。[15]151例如,為防止算法歧視,監(jiān)管部門(mén)要求人工智能企業(yè)采用特定的數(shù)據(jù)集缺陷檢測(cè)工具,或者要求算法輸出的錯(cuò)誤率不得高于某一指標(biāo)。而在元規(guī)制中,規(guī)制者只會(huì)對(duì)被規(guī)制者提出一般性的目標(biāo),要求其通過(guò)自我規(guī)制,自行采取措施實(shí)現(xiàn)該目標(biāo)。例如,我國(guó)《生成式人工智能服務(wù)管理暫行辦法》第4條規(guī)定,生成式人工智能服務(wù)的提供和使用者應(yīng)當(dāng)“采取有效措施防止產(chǎn)生民族、信仰、國(guó)別、地域、性別、年齡、職業(yè)、健康等歧視”。這一規(guī)定就具有元規(guī)制的屬性,因?yàn)樗鼉H僅一般性地要求被規(guī)制者采取措施防止算法歧視,而沒(méi)有對(duì)具體的手段或達(dá)到的績(jī)效做出硬性規(guī)定。相比命令控制型規(guī)制,元規(guī)制賦予了被規(guī)制者更大的裁量空間以及自我規(guī)制的余地,允許它們根據(jù)實(shí)際情況采取最有利于解決問(wèn)題的措施。[13]166
二是,在監(jiān)管的取向方面。傳統(tǒng)的命令控制型規(guī)制以規(guī)則為導(dǎo)向,這意味著企業(yè)監(jiān)管的重點(diǎn)在于確保其對(duì)規(guī)則的嚴(yán)格遵守,相應(yīng)的執(zhí)法活動(dòng)也是以具體的規(guī)則為標(biāo)準(zhǔn),檢查企業(yè)行為是否符合相應(yīng)的規(guī)則。然而,很多時(shí)候單純形式上的守法并不能保證規(guī)制目標(biāo)的實(shí)現(xiàn)。例如,大型公司可以雇傭法務(wù)和律師,通過(guò)各種法律技術(shù)將實(shí)質(zhì)上的違法行為包裝成合法的。[16]與之相對(duì),元規(guī)制以實(shí)現(xiàn)規(guī)制目標(biāo)為導(dǎo)向,其重點(diǎn)在于推動(dòng)企業(yè)對(duì)規(guī)制價(jià)值的實(shí)質(zhì)遵從。體現(xiàn)在監(jiān)管方式上,在元規(guī)制中監(jiān)管部門(mén)的職責(zé)并不是檢查企業(yè)的行為是否在形式上符合規(guī)則,而是要監(jiān)督和評(píng)估其自我規(guī)制體系是否在實(shí)質(zhì)上有助于實(shí)現(xiàn)規(guī)制目標(biāo)。換言之,規(guī)制者不僅僅監(jiān)督企業(yè)紙面上建立的自我規(guī)制體系,更要監(jiān)督該體系是否實(shí)際運(yùn)作,并且在相應(yīng)的規(guī)制事項(xiàng)上切實(shí)取得了成效。[15]151
(二)元規(guī)制如何推動(dòng)人工智能企業(yè)貫徹倫理原則
根據(jù)前文的分析,人工智能倫理原則缺乏實(shí)效性緣于目前的人工智能倫理治理缺少四種要素:人工智能治理經(jīng)驗(yàn)、對(duì)原則內(nèi)容的規(guī)范性共識(shí)、有力的監(jiān)督和問(wèn)責(zé)機(jī)制以及企業(yè)對(duì)原則的內(nèi)在承諾。元規(guī)制之所以有望提升人工智能倫理原則的實(shí)效性,正是因?yàn)樗軌驈浹a(bǔ)這四項(xiàng)缺失。
1.通過(guò)實(shí)驗(yàn)性的自我規(guī)制積累經(jīng)驗(yàn)
命令控制型規(guī)制采用了一種自上而下的規(guī)制進(jìn)路。它假定規(guī)制者對(duì)于規(guī)制事項(xiàng)擁有充足的經(jīng)驗(yàn)和信息,已經(jīng)知道解決特定問(wèn)題或者實(shí)現(xiàn)特定目標(biāo)的合理方案是什么。[17]然而,由于經(jīng)驗(yàn)和信息的欠缺,規(guī)制者在若干倫理原則中勾勒出的理想愿景,難以在具體的算法設(shè)計(jì)與監(jiān)管實(shí)踐中貫徹,更難以將倫理原則轉(zhuǎn)譯為具體的法律規(guī)則。
元規(guī)制則允許人工智能企業(yè)開(kāi)展實(shí)驗(yàn)性的自我規(guī)制,由此為貫徹倫理原則積累經(jīng)驗(yàn)。與正式的監(jiān)管部門(mén)相比,人工智能企業(yè)因?yàn)樯硖幃a(chǎn)業(yè)一線,在信息、知識(shí)和技術(shù)等方面往往更具優(yōu)勢(shì),所以更有能力找到貫徹倫理原則的可行方案。元規(guī)制恰恰利用了企業(yè)在信息和知識(shí)方面的優(yōu)勢(shì),將制定規(guī)制方案的任務(wù)交給企業(yè),讓他們?cè)谧晕乙?guī)制的過(guò)程中,摸索出實(shí)現(xiàn)規(guī)制目標(biāo)的可行舉措。在具體規(guī)制措施方面,元規(guī)制采取了自下而上的進(jìn)路。不同于命令控制型規(guī)制,解決規(guī)制問(wèn)題和實(shí)現(xiàn)規(guī)制目標(biāo)的具體措施,不是監(jiān)管部門(mén)在法規(guī)中事先確定下來(lái)的,而是企業(yè)在自我規(guī)制的實(shí)踐中,經(jīng)過(guò)反復(fù)試錯(cuò)、總結(jié)經(jīng)驗(yàn)而摸索出來(lái)的。這種自下而上的規(guī)制進(jìn)路契合了當(dāng)下人工智能倫理規(guī)制的現(xiàn)實(shí)。[8]505并且,對(duì)于人工智能這種具有高度異質(zhì)性的規(guī)制對(duì)象而言,元規(guī)制相比命令控制型規(guī)制也具有顯著優(yōu)勢(shì)。因?yàn)橐?guī)制者不必就行為不同的技術(shù)、場(chǎng)景和行業(yè)制定不同的標(biāo)準(zhǔn),或是實(shí)施一刀切式的僵化管理,而是可以要求不同領(lǐng)域和行業(yè)的企業(yè)制定自己的自我規(guī)制方案。相應(yīng)地,規(guī)制者的角色就從制定和執(zhí)行具體的規(guī)制方案,轉(zhuǎn)為監(jiān)督企業(yè)為回應(yīng)監(jiān)管要求而進(jìn)行的自我規(guī)制。
2.通過(guò)民主協(xié)商凝聚規(guī)范性共識(shí)
在價(jià)值多元的現(xiàn)代社會(huì),不同群體從各自的立場(chǎng)和價(jià)值觀出發(fā)對(duì)原則的解釋產(chǎn)生分歧,這本就是十分正常且無(wú)可避免的事。合理的解決方式只能訴諸自下而上的民主協(xié)商,讓企業(yè)和利益相關(guān)者在民主程序中,通過(guò)協(xié)商和妥協(xié)達(dá)成各方可以接受的人工智能倫理治理意見(jiàn)。
命令控制型規(guī)制所依賴(lài)的民主立法程序,在規(guī)制人工智能企業(yè)方面存在諸多局限。一是,正式的立法程序啟動(dòng)困難、流程繁復(fù)且歷時(shí)漫長(zhǎng),無(wú)法對(duì)人工智能日新月異的技術(shù)發(fā)展做出敏捷回應(yīng)。二是,在傳統(tǒng)的立法程序中,代表是從特定地區(qū)、職業(yè)和民族等人群中選舉產(chǎn)生的,而不直接來(lái)自受算法影響的利益群體。如此產(chǎn)生的代表難以有針對(duì)性地表達(dá)受算法影響的利益群體的訴求,并在立法審議、表決等程序中維護(hù)其權(quán)益。三是,命令控制型規(guī)制的民主參與僅限于正式的立法決策,也就是讓民意代表參與法規(guī)的制定,而缺少了利益相關(guān)者對(duì)企業(yè)內(nèi)部決策的民主參與。因此,一旦規(guī)則制定完畢,剩下的工作便只是要求企業(yè)遵照?qǐng)?zhí)行,利益相關(guān)者從此便與企業(yè)決策過(guò)程相隔離,不再能對(duì)其決策進(jìn)行直接的參與和監(jiān)督。
為了提高人工智能倫理治理的民主性,有必要使利益相關(guān)者能夠參與和影響企業(yè)決策,元規(guī)制恰為此提供了可行的制度方案。其一,信息披露制度。這要求企業(yè)向受算法影響的利益相關(guān)者披露有關(guān)自我規(guī)制的信息,包括自我規(guī)制的內(nèi)容、運(yùn)作情況和效果等等。這有助于企業(yè)為算法用戶(hù)和其他利益相關(guān)者提供信息,使之就如何實(shí)施倫理原則與企業(yè)管理者展開(kāi)對(duì)話。其二,利益相關(guān)者協(xié)商制度。企業(yè)收集有關(guān)利益相關(guān)者訴求的信息,并在其內(nèi)部決策中加以考量;在部署和執(zhí)行企業(yè)的算法自我規(guī)制體系時(shí),設(shè)置相應(yīng)的協(xié)商程序,讓利益相關(guān)者和企業(yè)管理者共同商議監(jiān)管體系的具體內(nèi)容。其三,企業(yè)正義計(jì)劃(corporate justice plan)。這是讓企業(yè)考慮利益相關(guān)者訴求最為直接的方式,即賦予利益相關(guān)者質(zhì)疑、挑戰(zhàn)企業(yè)決策的權(quán)利和法律手段。這要求企業(yè)內(nèi)部建立處理算法用戶(hù)及其他利益相關(guān)者申訴的糾紛解決機(jī)制,并在無(wú)法妥善解決爭(zhēng)議時(shí),賦予利益相關(guān)者起訴請(qǐng)求否決企業(yè)決策的權(quán)利。[18]222-227
3.通過(guò)激勵(lì)性問(wèn)責(zé)助推企業(yè)建立對(duì)原則的內(nèi)在承諾
缺少監(jiān)督問(wèn)責(zé)機(jī)制和對(duì)原則的內(nèi)在承諾,是人工智能倫理原則難以約束企業(yè)行為的兩個(gè)主要原因。命令控制型規(guī)制可以提供前者,卻無(wú)法實(shí)現(xiàn)后者。命令控制型規(guī)制對(duì)企業(yè)的問(wèn)責(zé),采用的是指令性或績(jī)效性標(biāo)準(zhǔn),即如果企業(yè)未能履行相應(yīng)的義務(wù)或者達(dá)到績(jī)效,就會(huì)受到懲罰。所以問(wèn)責(zé)僅僅指向企業(yè)的外在行為,而不指向企業(yè)對(duì)規(guī)制目標(biāo)的內(nèi)在承諾。換言之,它只關(guān)心企業(yè)是否遵守規(guī)則,而不關(guān)心其是否內(nèi)化了規(guī)則背后的價(jià)值目標(biāo),以及遵守規(guī)則能否實(shí)現(xiàn)該目標(biāo)??梢哉f(shuō),在命令控制型規(guī)制中,監(jiān)管的起點(diǎn)也是它的終點(diǎn)。然而,這種規(guī)制模式對(duì)于人工智能倫理治理而言卻是不適宜的。原因主要有兩方面,一方面,由于缺少實(shí)踐經(jīng)驗(yàn)和規(guī)范性共識(shí),倫理原則難以被轉(zhuǎn)譯為具體的指令性或績(jī)效性標(biāo)準(zhǔn);另一方面,即便制定和實(shí)施了具體的規(guī)則,也無(wú)法確保倫理原則所追求目標(biāo)的實(shí)現(xiàn)。事實(shí)上,在企業(yè)缺少內(nèi)在承諾的情況下,過(guò)于具體和技術(shù)化的規(guī)則反而會(huì)誘使企業(yè)實(shí)施法律規(guī)避,通過(guò)形式上的守法逃避其對(duì)規(guī)制目標(biāo)的實(shí)質(zhì)責(zé)任。[18]10
元規(guī)制可以通過(guò)激勵(lì)性的問(wèn)責(zé)機(jī)制,助推企業(yè)建立對(duì)倫理原則的內(nèi)在承諾。當(dāng)企業(yè)的自我規(guī)制不符合監(jiān)管要求時(shí),元規(guī)制也會(huì)對(duì)企業(yè)進(jìn)行問(wèn)責(zé)和懲戒。但是元規(guī)制的問(wèn)責(zé)遵循恢復(fù)正義的價(jià)值,更強(qiáng)調(diào)激勵(lì)性而非懲罰性,旨在推動(dòng)企業(yè)建立和完善其自我規(guī)制機(jī)制。要求企業(yè)通過(guò)自我規(guī)制對(duì)規(guī)制目標(biāo)做出回應(yīng),可以促使企業(yè)將規(guī)制目標(biāo)予以?xún)?nèi)化,從而建立對(duì)目標(biāo)的內(nèi)在承諾。[27]27在人工智能倫理治理中,元規(guī)制問(wèn)責(zé)的目的就不只是敦促企業(yè)實(shí)施自我規(guī)制,而是要借此使企業(yè)將倫理原則內(nèi)化到自身的決策前提和組織文化中,最終讓企業(yè)“想去做它們應(yīng)該做的事”。[19]102因此,元規(guī)制問(wèn)責(zé)的終點(diǎn)超越了其起點(diǎn)。盡管問(wèn)責(zé)直接指向的是企業(yè)的自我規(guī)制,但其最終的目標(biāo)在于“超越問(wèn)責(zé)”,在于通過(guò)問(wèn)責(zé)使企業(yè)建立對(duì)倫理原則的內(nèi)在承諾。[19]29由此可見(jiàn),在倫理原則和法律的關(guān)系問(wèn)題上,元規(guī)制和“法律化”模式的處理迥然不同。在元規(guī)制的框架中,倫理原則并未被法律規(guī)則所替代;法律既不是倫理原則具體化的產(chǎn)物,也不是強(qiáng)制執(zhí)行倫理原則的手段。毋寧說(shuō),法律在此發(fā)揮著類(lèi)似于反思型法(2)的功能,它并不負(fù)責(zé)具體地執(zhí)行倫理原則,而是通過(guò)程序性和組織性的間接規(guī)制手段,助推企業(yè)對(duì)倫理原則的內(nèi)化和學(xué)習(xí)。[20]
四、人工智能倫理治理元規(guī)制的制度建構(gòu)
元規(guī)制旨在讓被規(guī)制者以自我規(guī)制對(duì)規(guī)則目標(biāo)做出回應(yīng),并通過(guò)對(duì)自我規(guī)制的監(jiān)督評(píng)估完成企業(yè)監(jiān)管的閉環(huán)。對(duì)于人工智能倫理治理而言,元規(guī)制模式的制度建構(gòu)應(yīng)依次圍繞以下三方面展開(kāi):首先以風(fēng)險(xiǎn)為導(dǎo)向設(shè)定類(lèi)型化的規(guī)制目標(biāo),其次推動(dòng)人工智能企業(yè)開(kāi)展自我規(guī)制,最后對(duì)企業(yè)的自我規(guī)制進(jìn)行元評(píng)估。
(一)以風(fēng)險(xiǎn)為導(dǎo)向設(shè)定類(lèi)型化、場(chǎng)景化的規(guī)制目標(biāo)
共識(shí)性的人工智能倫理原則為設(shè)定規(guī)制目標(biāo)提供了基本的參照。元規(guī)制作為貫徹倫理原則的制度工具,其目標(biāo)應(yīng)與這些共識(shí)性的倫理原則保持一致。
根據(jù)人工智能倫理原則設(shè)定規(guī)制目標(biāo),首先需要識(shí)別每個(gè)原則所針對(duì)規(guī)制的問(wèn)題或風(fēng)險(xiǎn)。倫理原則是高度抽象的規(guī)范,而規(guī)制目標(biāo)則體現(xiàn)為特定領(lǐng)域內(nèi)需要解決的問(wèn)題或者需要防范的風(fēng)險(xiǎn)。因此,倫理原則無(wú)法直接作為規(guī)制目標(biāo)。只有通過(guò)識(shí)別每項(xiàng)原則所針對(duì)的問(wèn)題或風(fēng)險(xiǎn),才能將倫理原則轉(zhuǎn)譯為規(guī)制目標(biāo),并要求企業(yè)為解決相應(yīng)的問(wèn)題而展開(kāi)自我規(guī)制。就此而言,公正、隱私、自治、可問(wèn)責(zé)和可解釋原則都具有較為明確的問(wèn)題指向。例如,公正原則主要指向算法偏見(jiàn)和歧視問(wèn)題,隱私原則指向個(gè)人信息的不當(dāng)處理問(wèn)題,可解釋原則是算法黑箱問(wèn)題等等。而行善和無(wú)害原則指向的問(wèn)題則較為籠統(tǒng):行善原則涉及算法設(shè)計(jì)目的失范、能源消耗、侵犯?jìng)€(gè)人尊嚴(yán)等;無(wú)害原則涵蓋了網(wǎng)絡(luò)攻擊、硬件物理安全等外部安全(Security)風(fēng)險(xiǎn),算法的可靠性、穩(wěn)健性和數(shù)據(jù)質(zhì)量等內(nèi)部安全(Safety)風(fēng)險(xiǎn),以及防控人工智能對(duì)人身或財(cái)產(chǎn)的侵害風(fēng)險(xiǎn)。[4]2151
在識(shí)別出各個(gè)倫理原則對(duì)應(yīng)的規(guī)制目標(biāo)后,還需要根據(jù)算法的技術(shù)類(lèi)型、設(shè)計(jì)目的、應(yīng)用場(chǎng)景等要素,識(shí)別具體領(lǐng)域的風(fēng)險(xiǎn)類(lèi)型,從而將規(guī)制目標(biāo)進(jìn)一步類(lèi)型化。例如,對(duì)于自動(dòng)駕駛算法而言,自治原則對(duì)應(yīng)的規(guī)制目標(biāo)是保證人類(lèi)司機(jī)對(duì)駕駛的及時(shí)接管[21];而對(duì)于司法的自動(dòng)化決策系統(tǒng)而言,相應(yīng)的目標(biāo)則在于防止算法侵犯法官的獨(dú)立裁判權(quán)[22]。此外,針對(duì)不同類(lèi)型的算法技術(shù),倫理原則及其規(guī)制目標(biāo)的側(cè)重也有所不同。例如,對(duì)于人臉識(shí)別算法,重在規(guī)制不當(dāng)收集和泄露個(gè)人信息、數(shù)據(jù)歧視等風(fēng)險(xiǎn);而對(duì)于生成式人工智能,重在規(guī)制生成虛假和不當(dāng)內(nèi)容、侵犯知識(shí)產(chǎn)權(quán)等風(fēng)險(xiǎn)。
(二)人工智能企業(yè)自我規(guī)制的意愿激發(fā)與能力提升
良好的自我規(guī)制并不是僅憑規(guī)制者的一紙命令就可以實(shí)現(xiàn)的,而是需要配套的規(guī)制工具,激發(fā)企業(yè)建立對(duì)倫理原則的內(nèi)在承諾,使其獲得自我規(guī)制的知識(shí)和能力,從而使企業(yè)有意愿且有能力開(kāi)展自我規(guī)制。
1.以執(zhí)法金字塔激發(fā)企業(yè)自我規(guī)制意愿
對(duì)于激發(fā)人工智能企業(yè)自我規(guī)制的意愿而言,可以采取執(zhí)法金字塔的規(guī)制策略。執(zhí)法金字塔自下而上的各層中,分別包含了由輕到重的各種規(guī)制和懲罰措施。當(dāng)監(jiān)管部門(mén)發(fā)現(xiàn)企業(yè)違法違規(guī)行為時(shí),應(yīng)當(dāng)首先采取金字塔最底層的勸誡、約談等柔性的規(guī)制措施,責(zé)令企業(yè)限期整改。[23]如果企業(yè)拒不配合,監(jiān)管部門(mén)就會(huì)逐步升級(jí)更加嚴(yán)厲的措施,依次采取警告、民事賠償、刑事處罰、停業(yè)整頓等措施,直到最終吊銷(xiāo)企業(yè)的營(yíng)業(yè)執(zhí)照。與傳統(tǒng)執(zhí)法模式相比,執(zhí)法金字塔為企業(yè)的自我規(guī)制提供了更多正向激勵(lì)。相比傳統(tǒng)法條主義的執(zhí)法方式,這種逐級(jí)匹配的執(zhí)法策略,能夠?qū)θ斯ぶ悄芷髽I(yè)自我規(guī)制的意愿和程度做出回應(yīng),從而激勵(lì)那些具有守法意愿的企業(yè)及時(shí)糾正錯(cuò)誤,推動(dòng)企業(yè)建立根據(jù)倫理原則自我規(guī)制的內(nèi)在意愿。對(duì)于不能自主規(guī)制的違法者,執(zhí)法金字塔還保留了頂端最嚴(yán)厲的懲罰措施,從而確保其問(wèn)責(zé)機(jī)制擁有足夠的威懾。
2.以分類(lèi)監(jiān)管促進(jìn)企業(yè)自我規(guī)制能力提升
對(duì)于具有不同自我規(guī)制能力的人工智能企業(yè),應(yīng)當(dāng)進(jìn)行分類(lèi)并采取差異化監(jiān)管措施。
第一類(lèi)是以科技巨頭為代表的人工智能領(lǐng)域的領(lǐng)軍企業(yè)。這類(lèi)企業(yè)不僅擁有雄厚的技術(shù)實(shí)力,還擁有高于行業(yè)平均水平的自我規(guī)制能力。領(lǐng)軍企業(yè)可以憑借他們?cè)谒惴ㄖ卫矸矫娴闹R(shí)和技術(shù)優(yōu)勢(shì),設(shè)計(jì)出貫徹倫理原則的制度和技術(shù)措施。例如,在制度措施方面,谷歌設(shè)計(jì)的算法審計(jì)框架“SMACTR”,按照范圍界定、映射、文件收集、測(cè)試和反思五個(gè)步驟對(duì)算法進(jìn)行系統(tǒng)的倫理評(píng)估[24];在技術(shù)措施方面,微軟開(kāi)發(fā)的“InterpretML”框架可用于訓(xùn)練可解釋的機(jī)器學(xué)習(xí)模型和解釋黑箱系統(tǒng),人們可以借此審查算法是否符合倫理要求。對(duì)于領(lǐng)軍企業(yè),元規(guī)制的目標(biāo)在于激勵(lì)它們進(jìn)行實(shí)驗(yàn)性的自我規(guī)制,不斷探索和創(chuàng)新人工智能的倫理治理方案,并由監(jiān)管部門(mén)將這些方案作為實(shí)踐案例向其他企業(yè)推廣。
第二類(lèi)是占行業(yè)大多數(shù)的、具有基本自我規(guī)制能力的人工智能企業(yè)。對(duì)于這類(lèi)企業(yè),監(jiān)管部門(mén)可以采用過(guò)程性規(guī)制的方式,通過(guò)強(qiáng)制企業(yè)進(jìn)行風(fēng)險(xiǎn)管理,促進(jìn)其自我規(guī)制能力的提升。人工智能風(fēng)險(xiǎn)管理是企業(yè)自我規(guī)制的重要制度,已成為世界各國(guó)算法治理普遍采用的規(guī)制機(jī)制,例如歐盟《人工智能法案》第9條規(guī)定,高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者應(yīng)當(dāng)建立、實(shí)施、記錄和維護(hù)與系統(tǒng)有關(guān)的風(fēng)險(xiǎn)管理體系;美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)2023年發(fā)布了《人工智能風(fēng)險(xiǎn)管理框架》,指導(dǎo)人工智能企業(yè)按照治理、映射、衡量和管理四個(gè)模塊,構(gòu)建風(fēng)險(xiǎn)管理框架。[25]在元規(guī)制中,企業(yè)首先需要制定完善的算法風(fēng)險(xiǎn)管理方案,這要求企業(yè)系統(tǒng)地識(shí)別和評(píng)估其所面對(duì)的算法倫理風(fēng)險(xiǎn),開(kāi)發(fā)相應(yīng)的應(yīng)對(duì)措施,確保在可行范圍內(nèi)將風(fēng)險(xiǎn)降到最低。
第三類(lèi)是少數(shù)欠缺基本自我規(guī)制能力的人工智能企業(yè)。對(duì)于這類(lèi)企業(yè),監(jiān)管部門(mén)應(yīng)通過(guò)指導(dǎo)和建議等方式幫助他們獲得自我規(guī)制基本的知識(shí)技能。例如,將由領(lǐng)軍企業(yè)開(kāi)發(fā)的成熟的算法審計(jì)方案轉(zhuǎn)為實(shí)踐指南,向該類(lèi)企業(yè)推廣;通過(guò)短期課程、研討班等方式對(duì)企業(yè)的管理人員進(jìn)行培訓(xùn)。此外,還可以鼓勵(lì)發(fā)展人工智能監(jiān)管領(lǐng)域的咨詢(xún)公司,由它們?yōu)槠髽I(yè)提供自我規(guī)制策略的咨詢(xún)服務(wù)。
(三)建立對(duì)人工智能企業(yè)自我評(píng)估的元評(píng)估機(jī)制
元規(guī)制的最后一個(gè)環(huán)節(jié)是對(duì)人工智能企業(yè)自我規(guī)制的監(jiān)督評(píng)估,其目的在于審查企業(yè)的倫理自我規(guī)制體系是否良好運(yùn)轉(zhuǎn),并且在實(shí)現(xiàn)規(guī)制目標(biāo)方面是否切實(shí)取得成效。與元規(guī)制的二階治理結(jié)構(gòu)相對(duì)應(yīng),元評(píng)估也是一種二階的監(jiān)督機(jī)制,它首先要求企業(yè)對(duì)其自我規(guī)制的情況進(jìn)行自我評(píng)估(self-evaluation),而后由監(jiān)管部門(mén)對(duì)企業(yè)的自我評(píng)估進(jìn)行元評(píng)估。在人工智能倫理治理中,元評(píng)估具體由以下三項(xiàng)機(jī)制組成。
1.人工智能企業(yè)的自我評(píng)估
自我評(píng)估重在審查以下四個(gè)方面。其一,算法倫理自我規(guī)制體系的設(shè)計(jì)是否與規(guī)制目標(biāo)相一致,并有助于防控相關(guān)風(fēng)險(xiǎn);其二,自我規(guī)制體系的要求是否得到了貫徹執(zhí)行;其三,自我規(guī)制體系是否對(duì)企業(yè)的決策和行動(dòng)產(chǎn)生了影響;其四,是否事實(shí)上有助于實(shí)現(xiàn)規(guī)制目標(biāo)。[18]238-239在這四個(gè)方面中,前兩者是基于過(guò)程標(biāo)準(zhǔn)審查企業(yè)算法倫理自我規(guī)制的行動(dòng)過(guò)程。例如,企業(yè)是否制定了完善的個(gè)人信息管理制度,相關(guān)的信息處理活動(dòng)是否嚴(yán)格按照權(quán)限規(guī)范實(shí)施。后兩者則應(yīng)按照一定的績(jī)效標(biāo)準(zhǔn)進(jìn)行審查,重點(diǎn)在于評(píng)估企業(yè)倫理自我規(guī)制體系的成效。例如,企業(yè)對(duì)大語(yǔ)言模型的訓(xùn)練方式,是否提高了其生成內(nèi)容的正確率,且使內(nèi)容更加符合人類(lèi)價(jià)值觀。在收集了這四個(gè)方面的信息之后,企業(yè)一方面應(yīng)當(dāng)對(duì)違反倫理原則要求的行為進(jìn)行內(nèi)部問(wèn)責(zé)懲戒,另一方面應(yīng)當(dāng)針對(duì)自我規(guī)制的缺陷,對(duì)自我規(guī)制體系本身進(jìn)行改進(jìn)和完善。
2.人工智能倫理治理自評(píng)估報(bào)告
為了使人工智能企業(yè)的自我規(guī)制具有可問(wèn)責(zé)性,需要將企業(yè)內(nèi)部的倫理治理與來(lái)自監(jiān)管部門(mén)、第三方機(jī)構(gòu)和社會(huì)公眾的外部監(jiān)督聯(lián)系起來(lái),人工智能倫理治理自評(píng)估報(bào)告制度恰好充當(dāng)了二者之間的橋梁。該制度要求,人工智能企業(yè)應(yīng)當(dāng)定期發(fā)布自評(píng)估報(bào)告,向受算法影響的利益相關(guān)者以及更廣泛的社會(huì)公眾,披露有關(guān)其算法自我規(guī)制體系的內(nèi)容、運(yùn)作情況和成效的高質(zhì)量信息。一方面,自評(píng)估報(bào)告為相關(guān)主體提供了進(jìn)一步監(jiān)督問(wèn)責(zé)的基礎(chǔ),例如,報(bào)告中的負(fù)面信息將影響企業(yè)的聲譽(yù),促使利益相關(guān)者通過(guò)抵制行為對(duì)企業(yè)實(shí)施問(wèn)責(zé);監(jiān)管部門(mén)和第三方機(jī)構(gòu)還可以基于自評(píng)估報(bào)告,對(duì)企業(yè)的算法自我規(guī)制體系進(jìn)行審計(jì)。[26]另一方面,發(fā)布自評(píng)估報(bào)告的要求也反過(guò)來(lái)推動(dòng)了企業(yè)的自我規(guī)制,企業(yè)必須為自我評(píng)估收集有關(guān)其自我規(guī)制情況的信息,并采取相應(yīng)的糾錯(cuò)和改進(jìn)措施。[18]219人工智能倫理自評(píng)估報(bào)告作為一種向社會(huì)披露企業(yè)自我評(píng)估信息的機(jī)制,其內(nèi)容原則上也應(yīng)當(dāng)與企業(yè)自我評(píng)估的內(nèi)容保持一致,涵蓋人工智能倫理自我規(guī)制體系的目標(biāo)、治理措施、實(shí)施情況、取得的成效等方面。監(jiān)管部門(mén)還可以對(duì)自評(píng)估報(bào)告的內(nèi)容和信息質(zhì)量制定統(tǒng)一標(biāo)準(zhǔn),以便于公眾對(duì)不同企業(yè)的算法自我規(guī)制情況進(jìn)行比較。
3.監(jiān)管部門(mén)的元評(píng)估
在人工智能倫理自評(píng)估報(bào)告的基礎(chǔ)上,監(jiān)管部門(mén)可以對(duì)企業(yè)的自我評(píng)估進(jìn)行元評(píng)估。元評(píng)估作為二階的監(jiān)督評(píng)估機(jī)制,遵循和企業(yè)自我評(píng)估一貫的邏輯,即基于過(guò)程標(biāo)準(zhǔn)和績(jī)效標(biāo)準(zhǔn),考察企業(yè)自我規(guī)制體系的執(zhí)行和成效。在評(píng)估標(biāo)準(zhǔn)方面,監(jiān)管部門(mén)可以參考目前國(guó)內(nèi)外已經(jīng)制定的標(biāo)準(zhǔn)文件(3),也可以將領(lǐng)軍企業(yè)先進(jìn)的管理制度和規(guī)制技術(shù),以及行業(yè)內(nèi)成熟的自我規(guī)制機(jī)制轉(zhuǎn)化為一般性的評(píng)估標(biāo)準(zhǔn)。在評(píng)估方法方面,監(jiān)管部門(mén)在書(shū)面審查企業(yè)的人工智能倫理治理自評(píng)估報(bào)告的同時(shí),也應(yīng)當(dāng)實(shí)際檢查企業(yè)自我規(guī)制體系的部署和執(zhí)行情況,并通過(guò)專(zhuān)業(yè)的算法審計(jì)驗(yàn)證報(bào)告所披露的績(jī)效信息的真實(shí)性。元評(píng)估的結(jié)果一方面可以作為對(duì)企業(yè)問(wèn)責(zé)的前提,另一方面也為監(jiān)管部門(mén)對(duì)其治理成效的自我評(píng)估提供了信息,促使其反思相應(yīng)的規(guī)制政策和措施是否合理、是否需要改進(jìn)。[18]288-291
注釋?zhuān)?/p>
(1)我國(guó)高度重視人工智能的倫理治理,相繼發(fā)布了《新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能》(2019年)、《新一代人工智能倫理規(guī)范》(2021年)、《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》(2023年),對(duì)人工智能等技術(shù)的研發(fā)活動(dòng),提出增進(jìn)人類(lèi)福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開(kāi)透明五項(xiàng)科技倫理原則。
(2)反思型法是一種純粹的過(guò)程性規(guī)制,相比之下,元規(guī)制更加強(qiáng)調(diào)規(guī)制的目標(biāo)導(dǎo)向,主張過(guò)程性規(guī)制必須服務(wù)于實(shí)質(zhì)規(guī)制目標(biāo)的實(shí)現(xiàn)。
(3)在評(píng)估企業(yè)算法倫理自我規(guī)制體系方面,可參照國(guó)際標(biāo)準(zhǔn)《信息技術(shù)—人工智能—風(fēng)險(xiǎn)管理指南》(ISO/IEC 23894)、國(guó)內(nèi)標(biāo)準(zhǔn)《信息技術(shù) 人工智能 風(fēng)險(xiǎn)管理能力評(píng)估》(T/CESA 1193-2022);在具體算法的評(píng)估方面,可參照《人工智能 深度學(xué)習(xí)算法評(píng)估規(guī)范》(AIOSS-01-2018)、《信息安全技術(shù) 機(jī)器學(xué)習(xí)算法安全評(píng)估規(guī)范》(GB/T 42888-2023)等。
參考文獻(xiàn):
[1]Iason Gabriel. Artificial Intelligence,Values,and Alignment[J]. Minds and Machines,2020(3):411-437.
[2]Nicholas Kluge Corrêa et al. Worldwide AI ethics:A review of 200 guidelines and recommendations for AI governance[J]. Patterns,2023(10):1-14.
[3]Anna Jobin,Marcello Ienca,Effy Vayena. The global landscape of AI ethics guidelines[J]. Nature Machine Intelligence,2019(1):389-399.
[4]Jessica Morley et al. From What to How:An Initial Review of Publicly Available AI Ethics Tools,Methods and Research to Translate Principles into Practices[J],Science and Engineering Ethics,2020(26):2147-2168.
[5]Peter Grabosky. Using Non-Governmental Resources to Foster Regulatory Compliance[J]. Governance:An International Journal of Policy and Administration, 1995(8):527-550.
[6]Luciano Florid. Translating Principles into Practices of Digital Ethics:Five Risks of Being Unethical[J]. Philosophy amp; Technology,2019(32):185-193.
[7]Jessica Morley et al. Operationalising AI Ethics:Barriers,Enablers and Next Steps[J]. AI amp; SOCIETY, 2023(38/1):411-423.
[8]Brent Mittelstadt. Principles alone cannot guarantee ethical AI[J]. Nature Machine Intelligence,2019(4):501-507.
[9]Julia Black,Andrew Murray. Regulating AI and Machine Learning:Setting the Regulatory Agenda[J]. European Journal of Law and Technology, 2019(3):1-17.
[10]Jess Whittlestone et al. The Role and Limits of Principles in AI Ethics:Towards a Focus on Tensions[C]. Jess Whittlestone. AIES’19:Proceedings of the 2019 AAAI/ACM Conference on AI,Ethics,and Society January 2019:197.
[11][奧]馬克·考科爾伯格.人工智能倫理學(xué)[M].周薇薇,陳海霞,譯. 上海:上海交通大學(xué)出版社,2023:94-96.
[12][英]科林·斯科特.規(guī)制、治理與法律:前沿問(wèn)題研究[M]. 安永康,譯. 北京:清華大學(xué)出版社,2018:5-10.
[13][美]卡里·科格里安內(nèi)斯,[美]埃文·門(mén)德?tīng)査?,著?安永康,譯. 第八章:元規(guī)制與自我規(guī)制[M]. [英]羅伯特·鮑德溫. 牛津規(guī)制手冊(cè).上海:三聯(lián)書(shū)店,2017.
[14]Bronwen Morgan. The Economization of Politics:Meta-Regulation As a Form of Nonjudicial Legality[J]. Social amp; Legal Studies, 2003(12):490.
[15][澳]尼爾·甘寧漢,著. 安永康,譯. 第七章:執(zhí)法與守法策略[M]. [英]羅伯特·鮑德溫. 牛津規(guī)制手冊(cè). 上海:三聯(lián)書(shū)店,2017.
[16]Doreen McBarnet. When compliance is not the solution but the problem:From changes in law to changes in attitude[M]. Valerie Braithwaite. Taxing Democracy:Understanding Tax Avoidance and Evasion,Ashgate.2003:229.
[17] Rapha l Gellert. The Risk-Based Approach to Data Protection[M]. Oxford: Oxford University Press,2020: 109.
[18]Christine Parker. The Open Corporation:Effective Self-regulation and Democracy[M].New York:Cambridge University Press,2002.
[19]Philip Selznick.The Communitarian Persuasion[M]. Washington,D.C.:Woodrow Wilson Center Press.,2002.
[20][德]貢塔·托依布那. 反思性的法:比較視角中法律的發(fā)展模式[M]. 祁春祎,譯. 魔陣·剝削·異化:托依布納法律社會(huì)學(xué)文集. 北京:清華大學(xué)出版社,2012:276-277.
[21]曹劍峰.論自動(dòng)駕駛汽車(chē)的算法安全規(guī)制[J].華東政法大學(xué)學(xué)報(bào),2023(2):22-33.
[22]鄭曦.人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制[J].中外法學(xué),2020(3):674-696.
[23]盧超.互聯(lián)網(wǎng)信息內(nèi)容監(jiān)管約談工具研究[J].中國(guó)行政管理,2019(2):41-46.
[24]Inioluwa Deborah Raj et al. Closing the AI Accountability Gap:Defining an End-to-End Framework for Internal Algorithmic Auditing[C]// Mireille Hildebrandt. FAT* ′20:Proceedings of the 2020 Conference on Fairness,Accountability,and Transparency. 2020:33-44.
[25]National Institute of Standards and Technology.Artificial Intelligence Risk Management Framework (AI RMF 1.0)[EB/OL].[2023-1-26](2024-10-7).https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf.
[26]張欣,宋雨鑫. 算法審計(jì)的制度邏輯和本土化構(gòu)建[J]. 鄭州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2022(6):31-42.
(責(zé)任編輯 吳 楠)