張 旺
(中共湖南省委黨校 科技與生態(tài)文明教研部,湖南 長沙 410006)
“風(fēng)險(xiǎn)社會是一個(gè)高度技術(shù)化的社會,科學(xué)技術(shù)的高速發(fā)展既是風(fēng)險(xiǎn)社會的特征,也是風(fēng)險(xiǎn)社會的成因”[1]。人工智能技術(shù)的廣泛應(yīng)用,給人們生產(chǎn)生活的諸多領(lǐng)域帶來了顛覆性變革,推進(jìn)了方式流程的自動化、智能化進(jìn)度,而且在很多細(xì)化領(lǐng)域可以用于規(guī)避風(fēng)險(xiǎn)、提升安全系數(shù)。如在網(wǎng)絡(luò)安全領(lǐng)域,AI網(wǎng)絡(luò)安全系統(tǒng)可以將識別和消除網(wǎng)絡(luò)攻擊的平均時(shí)間從101天減少到幾個(gè)小時(shí)[2]。伴隨人工智能技術(shù)的快速發(fā)展,其賦能的應(yīng)用場景越來越多,算法作為人工智能技術(shù)的重要基石之一,重要性不言而喻,但其帶來的不確定性和不可控性也日益增多,產(chǎn)生了算法偏差、算法黑箱、算法壟斷等諸多風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)輻射到政治、經(jīng)濟(jì)、科技等諸多領(lǐng)域,引發(fā)了公眾對算法風(fēng)險(xiǎn)問題的恐慌焦慮。
近年來,學(xué)術(shù)界對算法風(fēng)險(xiǎn)的倫理反思逐步深入,涵蓋哲學(xué)、管理學(xué)、傳播學(xué)等多學(xué)科領(lǐng)域,研究成果主要聚焦算法本體、治理向度及監(jiān)管審查等方面。
第一,就算法本體的審視向度而言,著重從算法設(shè)計(jì)中存在的倫理問題探討算法風(fēng)險(xiǎn)與設(shè)計(jì)者之間的邏輯關(guān)聯(lián)。李倫、孫保學(xué)(2018)認(rèn)為,人工智能研發(fā)者和應(yīng)用者應(yīng)當(dāng)使人工智能的設(shè)計(jì)合乎道德,避免惡意設(shè)計(jì),并確保人工智能的善用,使之造福人類社會,同時(shí)提出人工智能倫理研究包括人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計(jì)倫理和人工智能社會倫理四個(gè)維度。藍(lán)江(2018)探討了人工智能的“電子人格”和波蘭尼悖論,分析了人工智能的倫理主體反思問題。蘇令銀(2018)探討了人工智能道德主體爭論的主要分歧,以及人工智能道德主體和道德責(zé)任問題。段偉文(2017)結(jié)合有限自主與交互智能體的概念,闡釋了人工智能倫理研究與相關(guān)倫理規(guī)范和標(biāo)準(zhǔn)。孫偉平(2017)認(rèn)為人工智能應(yīng)及早確定其價(jià)值原則,從而確保對這一新技術(shù)行使人類表決權(quán)。徐英瑾(2017)探討了人工智能技術(shù)與武器的結(jié)合可能導(dǎo)致的倫理后果,認(rèn)為人工智能與武器系統(tǒng)的結(jié)合反而會增加未來戰(zhàn)爭的倫理指數(shù)。孟偉、楊之林(2018)從現(xiàn)象學(xué)倫理學(xué)的新視角探討了人工智能的倫理難題,指出人工智能技術(shù)的一般性倫理問題指向技術(shù)設(shè)計(jì)和使用等主客體層面,人工智能技術(shù)的特殊倫理問題則指向智能體可能具有的倫理自主性。
第二,就算法風(fēng)險(xiǎn)的治理向度而言,主要從算法風(fēng)險(xiǎn)的倫理治理角度出發(fā),探討倫理治理的可行性和必要性。算法風(fēng)險(xiǎn)作為一種具有鮮明特征的“現(xiàn)代風(fēng)險(xiǎn)”,學(xué)者從眾多角度展開了豐富研究。陳偉光(2017)認(rèn)為,人工智能治理既是其技術(shù)和運(yùn)用發(fā)展到一定階段的必然結(jié)果,又是對其研究、開發(fā)、生產(chǎn)和運(yùn)用過程中可能會出現(xiàn)的公共安全、道德倫理等問題進(jìn)行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程。杜嚴(yán)勇(2017)探討了人工智能自反性倫理治理框架,并分析了標(biāo)準(zhǔn)模型、改進(jìn)的標(biāo)準(zhǔn)模型、咨詢模型以及共建模型等四種治理模型。閆坤如(2018)認(rèn)為,人工智能的發(fā)展可能引發(fā)責(zé)任倫理沖突及風(fēng)險(xiǎn)的社會擴(kuò)大等倫理問題,只有規(guī)約智能機(jī)器設(shè)計(jì)者和使用者的行為,才能有效保障智能機(jī)器與系統(tǒng)的使用安全。孫保學(xué)(2019)從算法的自主性特征、應(yīng)用性場景和歸責(zé)性困境三個(gè)方面,對算法倫理風(fēng)險(xiǎn)進(jìn)行了深刻分析。張欣(2019)探討了算法危機(jī)的三重特征,闡釋了算法治理的三種范式,并就實(shí)現(xiàn)算法信任提出了建議主張。陳思(2020)在系統(tǒng)分析智能社會技術(shù)異化的基礎(chǔ)上,提出了算法治理的可行性進(jìn)路。
第三,多學(xué)科視域下的算法風(fēng)險(xiǎn)治理多層次性研究。學(xué)者們從各種特定視角審視探討了算法風(fēng)險(xiǎn)倫理問題,如有些學(xué)者側(cè)重從算法風(fēng)險(xiǎn)特定屬性包括價(jià)值層面探討算法的設(shè)計(jì)風(fēng)險(xiǎn):楊學(xué)科(2019)認(rèn)為,算法歧視技術(shù)治理可在多樣性加入、透明度、問責(zé)制上著手;還有學(xué)者從場景層面探討算法的應(yīng)用風(fēng)險(xiǎn):如姜野、李擁軍(2019)以社會信用體系建設(shè)為場景,提出了“算法解釋權(quán)”的概念;另外還有學(xué)者從操作層面探討算法的監(jiān)管風(fēng)險(xiǎn):卜素(2019)針對“算法歧視”問題,認(rèn)為應(yīng)當(dāng)基于禁止歧視或平等保護(hù)之目的建立對人工智能算法的倫理審查標(biāo)準(zhǔn)體系。郭林生、李小燕(2020)提出了建立算法設(shè)計(jì)者道德責(zé)任、價(jià)值敏感性設(shè)計(jì)以及算法適用法律規(guī)范的建構(gòu)進(jìn)路。
上述研究視角,建構(gòu)起了算法風(fēng)險(xiǎn)與倫理道德之間的邏輯關(guān)聯(lián)、作用沖突、價(jià)值理念等,詮釋了算法風(fēng)險(xiǎn)的倫理治理路徑。然而,在一個(gè)相對認(rèn)同的倫理框架下,如何從道德閾限的角度表達(dá)算法風(fēng)險(xiǎn)的影響,推動算法的道德問責(zé)和倫理審查,仍然是一個(gè)亟須深入探討的重要問題。本文旨在上述專業(yè)視角研究的基礎(chǔ)上,分析闡釋算法倫理的負(fù)責(zé)任設(shè)計(jì)與審查,以算法風(fēng)險(xiǎn)的道德閾限為前提,探討算法問責(zé)及倫理審查機(jī)制的建構(gòu)機(jī)理與作用發(fā)揮,進(jìn)而實(shí)現(xiàn)一定意義上的算法“公平”。
德國倫理學(xué)家漢斯·約納斯把“我們借助高科技而踏入的集體實(shí)踐的新大陸”稱作倫理學(xué)的“無人區(qū)”和“倫理學(xué)的真空地帶”[3]。構(gòu)建具有倫理行為的人工智能,使得算法以一種道德上負(fù)責(zé)任的方式運(yùn)行,是推動算法道德問責(zé)的前提條件。技術(shù)進(jìn)步應(yīng)始終以人道為中心,考慮到倫理方面,特別是安全、問責(zé)、經(jīng)濟(jì)繁榮和個(gè)人權(quán)利。當(dāng)技術(shù)出錯(cuò)時(shí),毫無疑問它將不可避免地發(fā)生,一些關(guān)于倫理設(shè)計(jì)和政策的前瞻性思考可以幫助引導(dǎo)技術(shù)的發(fā)展,從而使我們所有人都受益匪淺。甚至算法在原有的道德規(guī)范嵌入基礎(chǔ)上,不斷學(xué)習(xí)新的道德規(guī)范,進(jìn)而不斷增強(qiáng)其道德能力水平,在風(fēng)險(xiǎn)來臨之際,作出更為合理的道德選擇。
“風(fēng)險(xiǎn)的確立就是:倫理,附帶包括哲學(xué)、文化和政治,在現(xiàn)代化的核心領(lǐng)域,亦即在經(jīng)濟(jì)、自然科學(xué)和技術(shù)學(xué)科等領(lǐng)域復(fù)活了?!盵4]人工智能會給人類帶來倫理風(fēng)險(xiǎn)。倫理風(fēng)險(xiǎn)主要包括兩個(gè)方面,一是人類自身契約風(fēng)險(xiǎn),另一個(gè)是人類與人工智能訂立契約的風(fēng)險(xiǎn)[5]。這種倫理風(fēng)險(xiǎn)的外在表征,是算法自身承載道德的客觀顯現(xiàn),其道德水平高低一定程度上取決于我們對于人工智能算法的信任閾值有多高。算法既然不可避免地體現(xiàn)人的主觀能動性,便帶有一定取向的道德觀念,或善或惡,或理性或偏見,終究體現(xiàn)著道德層面的價(jià)值指向。
算法增加了人與機(jī)器之間的道德關(guān)聯(lián),儼然成為重要的生產(chǎn)工具,推動人與機(jī)器的交互作用。機(jī)器人即使不應(yīng)被看作獨(dú)立的行動者,也應(yīng)被看作構(gòu)成性的道德要素。它可以根據(jù)所獲得的信息改變判斷,并且通過與人互動,產(chǎn)生在道德上的或好或壞的后果。機(jī)器人作為倫理網(wǎng)絡(luò)的參與者,它的設(shè)計(jì)和使用本身就不再是中立的,而是承載著一定的道德價(jià)值。算法問責(zé)就是要做到使算法的設(shè)計(jì)者和運(yùn)營商成為算法歸責(zé)的真正主體,評估算法對個(gè)人隱私、信息安全、歧視性后果方面的風(fēng)險(xiǎn),并對算法結(jié)果承擔(dān)相應(yīng)的責(zé)任。
“責(zé)任”是一個(gè)正在被廣泛使用具有廣泛含義的概念。責(zé)任倫理也是隨著應(yīng)用倫理學(xué)興起而逐漸發(fā)展并流行的新型倫理學(xué)概念,也被稱為科技時(shí)代的新倫理[6]。人們可以將責(zé)任原則理解為社會歷史的一個(gè)里程碑。這個(gè)里程碑從20世紀(jì)80年代社會經(jīng)濟(jì)、核能和生物醫(yī)學(xué)技術(shù)的生存危機(jī)的角度,記錄了社會的自然觀、技術(shù)觀和自我認(rèn)識,并且將其視為對哲學(xué)、倫理學(xué)和公眾社會的挑戰(zhàn)。人類從算法中獲取了巨大利益,但算法可能會被別有用心者濫用,或者在某些領(lǐng)域呈現(xiàn)出人類無法預(yù)知、甚至無法管控的風(fēng)險(xiǎn)危機(jī),需要我們設(shè)置一個(gè)具有科學(xué)責(zé)任權(quán)重分配的倫理框架。責(zé)任歸屬作為倫理規(guī)約的重要因素,在算法風(fēng)險(xiǎn)規(guī)避途徑中占有重要地位。如何更好地劃分算法設(shè)計(jì)使用的責(zé)任區(qū)間,架構(gòu)基于責(zé)任的倫理框架,是提升風(fēng)險(xiǎn)規(guī)避效果的重要路徑。
也有學(xué)者將人工智能與機(jī)器人的倫理研究分為了四個(gè)進(jìn)路,其中便涵蓋凸顯主體責(zé)任的責(zé)任倫理研究。這類研究的出發(fā)點(diǎn)是強(qiáng)調(diào)人類主體特別是設(shè)計(jì)者和控制者在人工智能與機(jī)器人的研究和創(chuàng)新中的責(zé)任——優(yōu)先考慮公眾利益和人類福祉、減少其危害與風(fēng)險(xiǎn)以及對后果負(fù)責(zé)等。單單就責(zé)任要素而言,算法風(fēng)險(xiǎn)倫理規(guī)范的責(zé)任歸屬有其特定的范圍和維度。依據(jù)群體劃分,這種責(zé)任可能體現(xiàn)在兩個(gè)方面,一方面是算法設(shè)計(jì)者、使用者應(yīng)當(dāng)擔(dān)負(fù)的重要責(zé)任,另一方面是AI智能體應(yīng)承擔(dān)的責(zé)任,或者說如何賦予智能體承擔(dān)相應(yīng)責(zé)任。依據(jù)主要環(huán)節(jié)劃分,責(zé)任歸屬則體現(xiàn)在人工智能設(shè)計(jì)階段的倫理責(zé)任嵌入和人工智能體的倫理責(zé)任監(jiān)管,即所謂的“前端嵌入”與“后端規(guī)約”。在多重維度賦予算法的責(zé)任歸屬,架構(gòu)算法風(fēng)險(xiǎn)倫理規(guī)范框架,能夠有效緩解可能因算法黑箱不透明造成的責(zé)任缺位,是形成公平性、透明性和可解釋性倫理規(guī)范機(jī)制的重要舉措。
“主體責(zé)任的缺失是高技術(shù)倫理困境的源頭”[7]。當(dāng)前,各方致力于探索完善人工智能技術(shù)發(fā)展的倫理原則,并相繼提出了各具特色的規(guī)范守則,其中最為緊要的兩大原則便是“人類利益原則”和“責(zé)任原則”,這種“人本+責(zé)任”的倫理原則也客觀凸顯了責(zé)任要素在風(fēng)險(xiǎn)規(guī)避中發(fā)揮的重要作用。雖然算法倫理問題與責(zé)任歸屬有著密切關(guān)系,而且責(zé)任這一要素在很大程度上影響算法倫理規(guī)范的可接受度,但如何科學(xué)界定并明確責(zé)任歸屬尚在完善之中。算法帶來的風(fēng)險(xiǎn)需要從倫理層面進(jìn)行補(bǔ)充規(guī)范,這個(gè)規(guī)約機(jī)制是基于自愿、共識和負(fù)責(zé)任基礎(chǔ)之上的倫理審視。雖然各國和一些人工智能領(lǐng)域的龍頭企業(yè)制定了各類倫理守則,但當(dāng)前特定的道德解決方案在概念上仍然存在模糊性,缺少必要的追責(zé)執(zhí)行機(jī)制。因此,建立一個(gè)權(quán)責(zé)明晰、可解釋、可信任的倫理道德框架顯得尤為重要,這種較為合理的問責(zé)制既能夠進(jìn)一步明確道德責(zé)任歸屬,同時(shí)又能增加人工智能技術(shù)應(yīng)用的透明度,對于合理規(guī)避算法風(fēng)險(xiǎn)至關(guān)重要。
有學(xué)者建議由專門的監(jiān)管機(jī)構(gòu)根據(jù)某些規(guī)則和標(biāo)準(zhǔn)在人工智能系統(tǒng)審批認(rèn)證前進(jìn)行測試,測試完成后,人工智能的開發(fā)者再向監(jiān)管機(jī)構(gòu)提出審批認(rèn)證申請。監(jiān)管機(jī)構(gòu)的主要工作是判斷人工智能系統(tǒng)是否符合申請標(biāo)準(zhǔn),比如是否會導(dǎo)致人身傷害、目標(biāo)是否一致、能否確保人類的控制等。還有學(xué)者建議就解決算法決策證據(jù)透明性問題而言,采取依托數(shù)據(jù)處理器執(zhí)行的算法審查方式,或者借助事后審查的外部監(jiān)管機(jī)構(gòu),或者使用被設(shè)計(jì)進(jìn)入算法本身的報(bào)告機(jī)制。倫理審查在算法風(fēng)險(xiǎn)規(guī)避之中發(fā)揮著重要作用,能夠推動負(fù)責(zé)、公平、透明的倫理規(guī)范守則形成。對于不可測和高度復(fù)雜的算法系統(tǒng),問責(zé)機(jī)制不能僅僅依賴于可解釋性。審計(jì)機(jī)制被提出來作為可能的解決方案,用于檢查算法的輸入和輸出,以了解偏差和危害,而不是解剖系統(tǒng)如何工作。這種基于責(zé)任基礎(chǔ)之上的審計(jì)機(jī)制,更進(jìn)一步凸顯了倫理審查的重要性。同時(shí),考慮到人工智能的決策運(yùn)行是多要素交互作用的結(jié)果,包括算法設(shè)計(jì)師、開發(fā)人員、用戶、軟件和硬件等,其間涉及多層級的價(jià)值觀念滲透沖突,迫切需要建立一個(gè)信任度較高的實(shí)施環(huán)境。因此能夠衡量規(guī)范道德價(jià)值的倫理審查機(jī)制作用便進(jìn)一步凸顯,這一機(jī)制能夠確保人工智能算法以符合道德標(biāo)準(zhǔn)的方式運(yùn)行。如何對算法風(fēng)險(xiǎn)實(shí)施有效評估,必要的監(jiān)管是不可或缺的。但是,如何確定監(jiān)管的對象是算法本身還是算法的設(shè)計(jì)者?算法是由編程代碼組成,而編程代碼本身是無法監(jiān)管的。相反,只有相應(yīng)的規(guī)范管理實(shí)體或規(guī)范的實(shí)際結(jié)果才能被規(guī)范。倫理嵌入的人工智能產(chǎn)品需要框架約束,這種約束不單單是對算法的約束,算法本身并不能直接承擔(dān)責(zé)任,更重要的是對設(shè)計(jì)者的約束。這也表明了算法是由人設(shè)計(jì)的,對人的倫理道德約束才是解決算法風(fēng)險(xiǎn)問題的根本所在。
工具理性不斷擴(kuò)張的結(jié)果,必然會導(dǎo)致價(jià)值維度的衰落與迷失。算法在應(yīng)用及輔助決策過程中的過分參與或?yàn)E用,會產(chǎn)生很多風(fēng)險(xiǎn)問題,這些難題不是單一的技術(shù)問題,而是涉及技術(shù)、政策、法律、倫理等多個(gè)維度。如果說技術(shù)、政策和法律等方面的規(guī)約更偏向?qū)嵱弥髁x色彩,那倫理道德層面的規(guī)約則更多地體現(xiàn)出理想主義色彩,但作用影響卻更為深遠(yuǎn)。
算法倫理審查的標(biāo)準(zhǔn)化是通過設(shè)置各種倫理規(guī)范守則的框架式結(jié)構(gòu),不斷強(qiáng)化算法風(fēng)險(xiǎn)的倫理約束、形成“律化”反應(yīng)的發(fā)展歷程。算法風(fēng)險(xiǎn)治理過程中產(chǎn)生了各式各樣的倫理規(guī)范,旨在為算法的“負(fù)責(zé)任”發(fā)展提供倫理保障。在這種語境下,弗洛里迪和桑德斯最接近于現(xiàn)實(shí)的建議是,將在道德上可接受的行為定義為“閾值函數(shù)”,用于可觀察變量,這些可觀察變量構(gòu)成一個(gè)抽象層次——在閾值以上可以認(rèn)為是道德的,在閾值以下就是不道德的[8]。該抽象層次上的一個(gè)能動者被認(rèn)為是道德上良善的,如果對于某一預(yù)先約定的值(稱為容忍值),它維持了可觀察量之間的一種關(guān)系,使得閾限函數(shù)的值在任何時(shí)候都不超過容忍值。倫理審查標(biāo)準(zhǔn)化實(shí)質(zhì)上為算法更加透明、算法社會更加有序提供了倫理解決方案,讓算法在設(shè)定規(guī)劃好的框架中健康運(yùn)行。
談到倫理審查標(biāo)準(zhǔn)化對算法風(fēng)險(xiǎn)的重要制約,必然要考慮算法的價(jià)值觀嵌入這個(gè)先決條件。價(jià)值觀一直參與設(shè)計(jì)過程,常常以技術(shù)規(guī)范或工程師自身價(jià)值理念以及他們?yōu)橹ぷ鞯墓镜膬r(jià)值文化的形式體現(xiàn)。對價(jià)值觀敏感的工程,使價(jià)值觀成為技術(shù)設(shè)計(jì)的一個(gè)顯性和有意識的元素。機(jī)器倫理并沒有體現(xiàn)出與人工智能風(fēng)險(xiǎn)相關(guān)的因果關(guān)系,因?yàn)槿祟悓夹g(shù)的社會結(jié)果以各種方式參與和負(fù)責(zé),而成功的倫理行為要比有一個(gè)好的算法更重要。在過去的二十年中,越來越多的研究人員呼吁通過以用戶為中心和對價(jià)值敏感的設(shè)計(jì)等產(chǎn)品設(shè)計(jì)方法,在設(shè)計(jì)過程中盡早納入倫理考慮。例如,范登·霍文曾呼吁“一種旨在使道德價(jià)值成為技術(shù)設(shè)計(jì)、研究和開發(fā)組成部分的道德行為方式”(Van den Hoven,2005年)。價(jià)值敏感設(shè)計(jì)是“一種基于理論的技術(shù)設(shè)計(jì)方法,在整個(gè)設(shè)計(jì)過程中以原則和全面的方式考慮人類價(jià)值”(Friedman等人,2013年)。根據(jù)這一學(xué)派的觀點(diǎn),應(yīng)通過工程師和倫理學(xué)家的合作,在設(shè)計(jì)層面主動融入倫理價(jià)值觀,而不是僅僅在技術(shù)開發(fā)過程的最后進(jìn)行討論[9]。
從理論上看,根據(jù)人類預(yù)設(shè)的道德原則進(jìn)行道德決策的機(jī)器人可以成為只能做好事的“道德楷?!?,而且在一定程度上還可以避免人們對其的不當(dāng)使用、惡意利用和濫用[10]。2019年國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則》,明確提出:和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。類似于此的算法倫理審查的標(biāo)準(zhǔn)化規(guī)定了算法及其自身的道德義務(wù),把合理合規(guī)的道德規(guī)范植入算法之中,是規(guī)避算法風(fēng)險(xiǎn)的必要舉措。在試圖為人工智能和智能機(jī)器制定倫理審查標(biāo)準(zhǔn)時(shí),研究人員和從業(yè)者應(yīng)該努力更好地理解現(xiàn)有的倫理原則,以便他們能夠?qū)惱碓瓌t應(yīng)用于研究活動,并幫助培訓(xùn)開發(fā)人員建立道德的人工智能。
算法倫理的制度化是其倫理審查制度化的前提條件。倫理是具有情境性的,在特定環(huán)境下能正常接受的倫理,遷移到另外一種情境中就會發(fā)生變化。有學(xué)者認(rèn)為,倫理制度化是將社會中自發(fā)形成以及民眾中自愿遵守的倫理要求,通過明文規(guī)定的形式加以制度化表達(dá),進(jìn)而借助制度的強(qiáng)制約束性提升社會主體遵守規(guī)則的執(zhí)行力。倫理制度化的核心便是將制度的強(qiáng)制力量融入道德規(guī)范之中,以健全的倫理制度推行價(jià)值理念。算法已經(jīng)成為信息社會和智能社會的生產(chǎn)力核心要素,而算法倫理制度化則是在標(biāo)準(zhǔn)化基礎(chǔ)上的進(jìn)一步發(fā)展,夯實(shí)了倫理對算法的輻射影響,倫理制度的作用得以彰顯。
從算法層面來看,目前談?wù)撦^多的便是倫理約束,即為機(jī)器人等智能體設(shè)置一定的道德制度規(guī)范,使得他們的行為表達(dá)和功能屬性在一定的倫理范圍內(nèi)運(yùn)行,從而更符合我們所追求的科技向善準(zhǔn)則。算法作為工程師設(shè)計(jì)者的產(chǎn)物,繼承了人類的道德理念,或好或壞。因此,建立標(biāo)準(zhǔn)化的倫理制度,進(jìn)而規(guī)制算法風(fēng)險(xiǎn),降低風(fēng)險(xiǎn)的破壞力,顯然是迫切和關(guān)鍵的。2018年,亞馬遜的招聘算法——旨在確保亞馬遜能夠找到最有可能在該公司表現(xiàn)出色的人——成為女性簡歷偏見的頭條新聞。用來訓(xùn)練算法的數(shù)據(jù)集是關(guān)于誰已經(jīng)在亞馬遜工作的歷史數(shù)據(jù)。因?yàn)椤皝嗰R遜雇員”通常是男性,所以該算法采取了這種偏見并加以放大。在使用人工智能技術(shù)的過程中,不恰當(dāng)?shù)乃惴ㄆ娀蚱缫暱赡軙?dǎo)致不良后果,如性別偏見和種族偏見等,造成輸出結(jié)果的偏差,這也直接驗(yàn)證了倫理制度的重要性,需要從制度層面加以有效約束。
算法倫理審查的制度化則是算法倫理制度化的重要組成部分,其本質(zhì)內(nèi)涵是通過健全完善的倫理審查制度體系來提升外界監(jiān)管力度,最終達(dá)成“合乎人性”的發(fā)展目標(biāo)。2021年9月,國家互聯(lián)網(wǎng)信息辦公室等九部委制定了《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,強(qiáng)調(diào)“企業(yè)應(yīng)建立算法安全責(zé)任制度和科技倫理審查制度”“逐步建立治理機(jī)制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局”。因?yàn)樗惴ǖ脑O(shè)計(jì)者便是我們?nèi)祟愖陨?,設(shè)計(jì)者的主觀意愿和社會認(rèn)知等要素,不僅體現(xiàn)在技術(shù)層面上,也同樣顯現(xiàn)在道德倫理等非技術(shù)性層面上。由于支持?jǐn)?shù)據(jù)挖掘的模型的許多特性、度量和分析結(jié)構(gòu)都是由其設(shè)計(jì)人員選擇的,因此這些技術(shù)可能會復(fù)制其設(shè)計(jì)人員的偏見。為避免此類偏見的產(chǎn)生,推進(jìn)算法的道德化進(jìn)程,主要途徑便是建立倫理制度框架下的社會治理模式,根據(jù)倫理規(guī)則調(diào)整制度設(shè)計(jì),進(jìn)而實(shí)現(xiàn)算法倫理審查的制度化。算法倫理審查的制度化則涵蓋法律法規(guī)建設(shè)、安全風(fēng)險(xiǎn)評估、備案管理制度、技術(shù)監(jiān)管方式等核心要素,形成“監(jiān)測—評估—備案—監(jiān)管”一體化的倫理審查制度體系,建構(gòu)規(guī)范化的倫理審查制度框架,從外界打破算法自身的偏見與不透明,為人們理解使用算法提供更為科學(xué)的認(rèn)知指向。
2017年《新一代人工智能發(fā)展規(guī)劃》中明確:“開展人工智能行為科學(xué)和倫理等問題研究,建立倫理道德多層次判斷結(jié)構(gòu)及人機(jī)協(xié)作的倫理框架。”[11]不同階層、領(lǐng)域、群體對人工智能的算法風(fēng)險(xiǎn)認(rèn)知出發(fā)點(diǎn)不盡相同,概念認(rèn)知上的混亂混淆,群體或個(gè)人喜好上的不同,容易造成算法風(fēng)險(xiǎn)的認(rèn)知偏差,這種偏差或樂觀、或悲觀。牛津互聯(lián)網(wǎng)學(xué)院教授桑德拉·沃克特認(rèn)為,人工智能的風(fēng)險(xiǎn)和收益會因?yàn)樾袠I(yè)、應(yīng)用和環(huán)境有差異。人工智能技術(shù)的創(chuàng)新發(fā)展是否需要設(shè)置應(yīng)用邊界,這個(gè)應(yīng)用邊界需要如何設(shè)置,倫理道德的作用如何發(fā)揮等,這些問題已經(jīng)成為政府與學(xué)術(shù)界普遍關(guān)注的熱點(diǎn)。技術(shù)的發(fā)展過程之中如果缺少智慧審視與原則考量,喪失安全這一底線,最終就有可能讓人類付出更大的代價(jià)去補(bǔ)償,這驗(yàn)證了建構(gòu)一種相對穩(wěn)定可靠倫理結(jié)構(gòu)的重要性。
算法風(fēng)險(xiǎn)從主體使用者的角度出發(fā),可區(qū)分為意外風(fēng)險(xiǎn)或惡意使用。意外風(fēng)險(xiǎn)可能更多地?fù)诫s善意因子,而惡意使用帶來的技術(shù)濫用,特別是在軍事領(lǐng)域的濫用,則可能打破原本健康有序的應(yīng)用環(huán)境,使得技術(shù)發(fā)展陷入惡性競爭之中。因此,嚴(yán)格規(guī)范人工智能這一重要行業(yè)和領(lǐng)域的規(guī)則,從頂層設(shè)計(jì)和源頭治理層面推動人工智能規(guī)范發(fā)展,是人類迎接挑戰(zhàn)、規(guī)避風(fēng)險(xiǎn)的必要路徑。由于算法本身的發(fā)展不是靜態(tài)的,而是動態(tài)變化的,雖然法律、規(guī)則、技術(shù)等維度的約束在其中占有重要地位,而倫理規(guī)約的約束力可能相對有限,但其始終是不可忽略的一個(gè)重要環(huán)節(jié)。通過制定超越技術(shù)標(biāo)準(zhǔn)、法律條文等硬性規(guī)范的倫理守則,能夠有效規(guī)范人工智能應(yīng)用的行為道德,進(jìn)一步擴(kuò)大算法風(fēng)險(xiǎn)治理結(jié)構(gòu)的彈性空間。構(gòu)建倫理軟約束治理機(jī)制,能夠從道德層面緩沖人工智能風(fēng)險(xiǎn)治理的強(qiáng)度,并對可能存在的風(fēng)險(xiǎn)進(jìn)行前瞻性的預(yù)見,這種規(guī)約機(jī)制是基于多元主體自愿、共識基礎(chǔ)之上的倫理治理路徑,具有明顯的風(fēng)險(xiǎn)規(guī)避優(yōu)勢。
人工智能算法對作為現(xiàn)代倫理支撐的主體性原則、社會正義觀和實(shí)質(zhì)結(jié)果主義提出了嚴(yán)峻挑戰(zhàn)。這種挑戰(zhàn)主要體現(xiàn)為人的主體性地位的消解、群組正義觀代替?zhèn)€人正義觀、人工智能在算法結(jié)果上的標(biāo)簽化效應(yīng)等[12]。因此,應(yīng)對算法風(fēng)險(xiǎn)需要從不同的倫理角度來對其表現(xiàn)形式、運(yùn)行機(jī)理、工具理性、多元價(jià)值等進(jìn)行批判審視。算法技術(shù)發(fā)展中伴隨而來的各種風(fēng)險(xiǎn)首先可以通過增強(qiáng)技術(shù)可靠性以及開拓技術(shù)周邊措施的方式來增加公眾信任[13]。建構(gòu)算法設(shè)計(jì)、開發(fā)和使用的倫理原則,確定相對穩(wěn)定的實(shí)用框架和審查機(jī)制,通過可靠的倫理結(jié)構(gòu)來確保道德施治。這樣的倫理審查結(jié)構(gòu)化表達(dá)方式對算法治理至關(guān)重要,有助于從框架到實(shí)踐全面實(shí)施和執(zhí)行算法的道德規(guī)范,促進(jìn)人工智能的倫理治理,推動人工智能的道德化進(jìn)程。
算法風(fēng)險(xiǎn)的治理有賴于道德閾限與問責(zé),在框定算法風(fēng)險(xiǎn)的道德邊界時(shí),更要明確各主體應(yīng)承擔(dān)的責(zé)任,既要確保在算法設(shè)計(jì)之初便有合適的倫理嵌入其中,也要確保算法運(yùn)用過程符合倫理審查要求。這樣既從算法本身進(jìn)行了道德層面的閾限,也從外部環(huán)境進(jìn)行了必要的倫理約束,同時(shí)也明確了各多元主體及算法運(yùn)行各層級的責(zé)任劃分。算法的道德閾限強(qiáng)調(diào)了算法的應(yīng)用軌跡與框架,其核心在于讓算法更加透明、更加公開、更加有序,其中涉及算法倫理審查的標(biāo)準(zhǔn)化、制度化和結(jié)構(gòu)化。因此,合理可靠的算法倫理審查機(jī)制應(yīng)包括以下內(nèi)容:科學(xué)理性的道德承載,精準(zhǔn)規(guī)范的責(zé)任歸屬以及程序公正的倫理審查。這樣從倫理道德層面審視駕馭算法風(fēng)險(xiǎn),才能確保其科學(xué)防范與治理成效。
“算法的社會本質(zhì)是一種權(quán)力”[14]。而這種“權(quán)力”應(yīng)始終在倫理的引導(dǎo)下推進(jìn)發(fā)展,倫理也是算法設(shè)計(jì)與應(yīng)用的框架和底線,倫理審查則應(yīng)一直貫穿于算法技術(shù)發(fā)展運(yùn)用的全周期。我們應(yīng)客觀看到人工智能倫理審查的多元復(fù)雜性,其涵蓋數(shù)據(jù)倫理審查、算法倫理審查、產(chǎn)品倫理審查等多個(gè)維度,也要辨識算法倫理審查在其中的特殊性。我國在推進(jìn)算法倫理審查的制度體系建設(shè)進(jìn)程中取得了顯著進(jìn)步,2021年《新一代人工智能倫理規(guī)范》等規(guī)章制度的發(fā)布,標(biāo)志著算法綜合治理格局的健全完善。算法與人之間的人機(jī)關(guān)系逐漸成長為理性健康、融合互通的價(jià)值共同體,雙方在不斷縮小價(jià)值理性偏差的過程中重塑了新型人機(jī)共生關(guān)系,這也是正式推動算法倫理審查的初衷和目的所在。