魏光禧
(重慶警察學院 重慶國家安全與社會治理研究院,重慶 401331)
人工智能是模擬、延伸和擴展人類智能的理論、方法、技術(shù)。人工智能的發(fā)展跌宕起伏,先后經(jīng)歷了三次浪潮。第一次浪潮是1956年到20世紀70年代初,人工智能從理論走向?qū)嵱?,人們看到了人工智能與具體應用相結(jié)合的巨大魅力,主要標志性成果是專家系統(tǒng)。第二次浪潮出現(xiàn)在20世紀80年代初到90年代初,其特點是對分門別類的大量知識的多種處理方法,標志是日本政府推出的“第五代機”項目。第三次浪潮出現(xiàn)在21世紀,其主要原因是深度學習技術(shù)的出現(xiàn),解決了“梯度消失”“梯度爆炸”和自動提取并表征復雜的特征等問題。特別是在2016年3月,基于搜索技術(shù)和深度學習方法的人工智能圍棋系統(tǒng)AlphaGo戰(zhàn)勝了世界圍棋冠軍李世乭,人工智能引起了全世界的廣泛關(guān)注。
烏爾里希·貝克指出,科學技術(shù)不僅是解決問題的源泉,也是制造新的問題的原因,甚至科學技術(shù)的安全風險會以更高的比例增長[1]。近年來,此起彼伏的人工智能傷人事件也拷問著人們,這個技術(shù)是給人類帶來福祉,還是反過來破壞原有的生存和安全體系。人工智能對人類的安全帶來嚴峻挑戰(zhàn),也使人與機器、人與人、人與自然之間的倫理關(guān)系變得更加復雜。這正如尼克·博斯特羅姆所言:人工智能不僅是一項顛覆性技術(shù),也是人類目前遇到的最具破壞性的技術(shù)[2]。
人工智能作為一種新技術(shù),既有安全賦能效應,也具有安全問題伴生效用。所謂安全賦能效應,就是提升安全領(lǐng)域的勢能:一方面是賦能攻擊,讓安全問題變得更加嚴峻;另一方面是賦能防御,通過新技術(shù)解決安全問題。所謂安全伴生效應,就是新技術(shù)的出現(xiàn)往往伴生著新的安全問題:一方面,新技術(shù)的脆弱性導致新技術(shù)系統(tǒng)自身出現(xiàn)安全問題,稱之為“內(nèi)生安全”;另一方面,新技術(shù)的脆弱性被攻擊者利用從而引發(fā)其他領(lǐng)域的安全問題,稱之為“衍生安全”。根據(jù)引發(fā)安全問題的內(nèi)因,可以將人工智能安全分為三類:人工智能助力安全(Artificial Intelligence for Security)、人工智能內(nèi)生安全(Artificial Intelligence Security)和人工智能衍生安全(Artificial Intelligence Safety)[3]。人工智能助力安全主要是指利用人工智能技術(shù)突破其原有攻擊能力而引發(fā)的安全問題;人工智能內(nèi)生安全是指人工智能的脆弱性導致的自身受損的安全問題;人工智能衍生安全是指人工智能的脆弱性導致的危害其它領(lǐng)域的安全問題。人工智能助力安全體現(xiàn)的是人工智能技術(shù)的賦能效應,而人工智能內(nèi)生安全和人工智能衍生安全都是人工智能技術(shù)的伴生效應引起的。從賦能攻擊的角度看,違法犯罪分子可能利用人工智能提升原有的破壞力,帶來更多的安全隱患和災難。例如,可能實施自動挖掘漏洞、生成高仿假視頻、生成智能惡意代碼、在神經(jīng)網(wǎng)絡模型植入后門、大面積投放釣魚郵件等行為。人工智能在框架和組件、算法、數(shù)據(jù)、模型等方面就存在一些脆弱性、不可靠的問題。例如,深度學習難以確保算法的正確性,無人駕駛汽車的很多安全事故就是不正確的算法所造成的。而數(shù)據(jù)的丟失、變形以及噪音數(shù)據(jù),都可能影響人工智能生成正確的推理判斷。同樣,模型也難以保證不被盜竊或者污染。人工智能的一些脆弱性并不影響自身的安全,但是可能被違法犯罪分子利用,引發(fā)其他領(lǐng)域的安全問題。例如,無人駕駛汽車的智能化判斷高度依賴輸入數(shù)據(jù),這種脆弱性并不影響汽車本身的運行,但違法犯罪分子可能利用這種脆弱性對傳感設(shè)備進行干擾,從而制造交通事故。讓科學家和倫理學家最為擔憂的是,人工智能具有自主學習和自我進化的能力,當發(fā)展到強人工智能時代時,人工智能行為體可能會脫離人類的控制,甚至可能會傷害人類,這也是人工智能衍生的安全問題。
作為人工智能安全風險的回應,倫理規(guī)制這一路徑引起廣泛關(guān)注。正如格倫瓦爾德所言:當科學技術(shù)的開發(fā)應用帶來規(guī)范標準的不確定性問題時,就有倫理反思的必要[4]??茖W技術(shù)是人類認識和改造客觀物質(zhì)世界的產(chǎn)物,因此從最開始其就內(nèi)就嵌著人類倫理道德的基因。在持續(xù)不斷的倫理反思中,科技倫理與科技進步實現(xiàn)矛盾的統(tǒng)一,在防范和控制科技安全風險上發(fā)揮著道德的導向和約束作用。即使是那些主張科技與倫理無涉論的學者,也并不否認科技工作者的職業(yè)道德和科技應用中的道德性[5]。人工智能的倫理是人類倫理體系下的具象化的科技倫理,包括實現(xiàn)人與機器、人與人、人與自然和諧發(fā)展的,與人工智能活動相關(guān)的觀念、情感、意志、信念、原則、規(guī)范、范疇以及價值判斷標準[6]。人工智能不僅能代人勞動、代人思考和記憶,甚至能夠代人決策。在深度參與人類社會實踐活動時,會深刻影響人與機器、人與人、人與自然的倫理關(guān)系。特別是在人工智能的研發(fā)和應用中,用途和目的往往導致了規(guī)范標準的不確定性和道德爭議,還會產(chǎn)生不確定的倫理負效應,例如倫理關(guān)系失調(diào)、社會失序、機制失控、行為失范等。這就是弗洛里迪所描述的,人類希望人工智能提高人類的能力、幫助人類實現(xiàn)自我,讓人工智能代理自己,但同時也隱藏著侵蝕人類自決能力、失控、責任缺失、鴻溝加劇等風險[7]。人工智能倫理的表現(xiàn)形式取決于技術(shù)條件及其與人類社會的結(jié)合程度。因此,人工智能安全的倫理規(guī)制需要從人工智能技術(shù)和社會制度的具體環(huán)境中,去考察倫理規(guī)制與其他規(guī)制路徑的互動關(guān)系。本文將著眼于人工智能產(chǎn)業(yè)發(fā)展的現(xiàn)實和未來,聚焦人工智能安全的倫理議題,闡述人工智能安全倫理規(guī)制的主體、準則和機制,進而在元規(guī)制模式下探索人工智能安全倫理規(guī)制的優(yōu)化路徑。
近代以來,科學技術(shù)的革命性突破引發(fā)了大量安全風險,促使人們以倫理為主題發(fā)展出一套自我規(guī)制的治理架構(gòu)。法律的確認,使之前自愿性質(zhì)的治理架構(gòu)在一定程度上被強制化,這稱之為“倫理規(guī)制”[8]。對人工智能行為進行倫理規(guī)制,發(fā)揮道德的導向和約束作用,是防范和控制人工智能安全風險的重要手段。
無論是采用強力法還是訓練法,現(xiàn)有的人工智能技術(shù)都是在封閉性的應用場景實施的,因此與人工智能安全相關(guān)的規(guī)制主體是人類,而人工智能尚不具備道德地位,也不具有規(guī)制的主體地位。但與其它技術(shù)不同的是,人工智能具有高度的自主性,有自我學習、自我約束的能力。因此,將倫理價值和倫理準則嵌入到人工智能技術(shù)中,讓人工智能自主或者半自主地實現(xiàn)規(guī)制目標,也是人工智能安全倫理規(guī)制的重要途徑[9]。例如,在人工智能的設(shè)計中嵌入“切斷開關(guān)”,當存在危害人類的重大風險時由系統(tǒng)自動決策來關(guān)閉該系統(tǒng),防止發(fā)生不可逆的嚴重后果??傊?,只要將倫理規(guī)范具體化為封閉性條件的一部分,那么,在該場景中,人工智能就能夠自主地執(zhí)行這些倫理規(guī)范。對于未來可能出現(xiàn)的非封閉性的場景,則不能依靠人工智能的自主性,必須堅持人類的介入。人,作為責任主體,永遠都不能放棄自己的規(guī)制責任。
具體到實踐中,人工智能安全倫理規(guī)制的主體主要是社會主體,包括行業(yè)協(xié)會、社會團體、研究機關(guān)、企業(yè)、科學家、公眾等。人工智能安全的倫理規(guī)制,更多是依靠行業(yè)和技術(shù)的力量。據(jù)初步統(tǒng)計,全球范圍內(nèi)的企業(yè)、社會組織、國際組織、學術(shù)團體等利益相關(guān)者,已經(jīng)制定了160多個原則或者倡議,構(gòu)成了人工智能安全倫理規(guī)制的“軟法體系”[10]。建立行業(yè)、企業(yè)的人工智能安全倫理審查組織,制定行業(yè)、企業(yè)倫理規(guī)范,是保證人工智能產(chǎn)業(yè)健康發(fā)展的必要條件。倫理規(guī)范一般都是軟措施,缺少國家強制力的保障,需要各個主體的共同參與,形成倫理共識,并作為共同的行為規(guī)范。
早在1950年,阿西莫夫就在其科幻小說中提出了著名的“機器人學三大法則”,即機器人不得傷害人類、機器人必須服從人類的命令以及在不違背前兩條法則的情況下機器人必須保護自己。之后,各國以及有關(guān)組織都在積極發(fā)展人工智能技術(shù)的同時,不斷探索人工智能倫理建設(shè)。筆者對主要組織和國家制定的倫理準則進行了梳理(見表1)。
表1 主要國家及組織人工智能安全倫理準則
續(xù)表1
可以看到,各國及有關(guān)組織在人工智能安全倫理準則上的要求基本一致,已經(jīng)初步達成了共識。有學者將主要國家及組織的人工智能安全倫理準則進行了對比研究,按照出現(xiàn)頻率排序分別是透明、公正、不傷害、責任、隱私、有益、自由與自主、信任、可持續(xù)、尊嚴[11]。總體來講,人工智能安全倫理準則主要包括三個方面:一是人類根本利益原則,即人工智能應以實現(xiàn)人類的福祉為終極追求。人工智能應促進人類向善,避免人工智能軍備競賽。在算法上要保障人的基本權(quán)利和自由,并加強對數(shù)據(jù)的控制。二是風險原則,即盡可能降低人工智能的安全風險。對人工智能始終保持審慎的原則,只有在封閉性應用場景中才能開展研發(fā)和應用。要體現(xiàn)人類的知情權(quán)和控制權(quán),當人工智能系統(tǒng)給人類造成損害時,可追溯查實并及時補救的。三是責任原則,即人類要對人工智能負責任并且可以問責。人工智能的設(shè)計者、使用者和相關(guān)利益者都要對人工智能行為產(chǎn)生的損害負責,并有責任去消除這些負面影響。
規(guī)制機制就是要選擇合適的規(guī)制工具,并根據(jù)實施效果來不斷調(diào)整[12]。學界對人工智能倫理準則的討論較多,但對人工智能倫理規(guī)制機制的探索才剛剛起步[13]。倫理準則不可能自我實施,只有借助于規(guī)制工具才能得到落實。這如同法律條文一樣,如果缺乏實施的機制,制訂得再好也沒有任何意義。人工智能的應用非常廣泛,不同的場景,有不同的倫理準則和相應的規(guī)制機制。例如,無人駕駛汽車和醫(yī)療機器人的情況就各不相同。但總體來講,有這些規(guī)制工具可供選擇:一是嵌入設(shè)計。將倫理準則嵌入到人工智能算法中,實現(xiàn)技術(shù)層面的倫理規(guī)制。例如,哥倫比亞大學開發(fā)的DEEPXPLORE系統(tǒng)就具有“糾錯”的功能,當數(shù)據(jù)出現(xiàn)偏離有關(guān)倫理準則的情況時,嵌入神經(jīng)網(wǎng)絡的誘導系統(tǒng)能夠夠讓這些缺陷暴露出來,并自動進行掃描和糾錯[14]。二是技術(shù)標準。將倫理準則融入技術(shù)標準,來規(guī)范人工智能的研究和開發(fā)。研發(fā)人員在適用這些技術(shù)標準時,自動遵守了倫理準則。例如,電氣和電子工程師協(xié)會就在P7000系列技術(shù)標準中體現(xiàn)了可解釋性等大量倫理準則。三是倫理審查。國家、組織和企業(yè)等各個層面設(shè)置人工智能安全的倫理審查委員會,在研發(fā)計劃、研發(fā)過程和產(chǎn)品上市等各個環(huán)節(jié)進行倫理審查,對不符合倫理準則的人工智能采取取消投入、禁止研發(fā)、不予批準上市等措施。四是第三方認證。由獨立的第三方進行人工智能的倫理認證,符合相關(guān)倫理準則的才能頒發(fā)許可證,不符合的則不能頒發(fā)。沒有獲得倫理認證的產(chǎn)品則難以進入有關(guān)市場領(lǐng)域,或者難以取得保險公司的投保。五是輿論約束。通過教育和社會輿論進行引導,宣揚人工智能安全道德規(guī)范,形成人工智能安全文化。吸納公眾參與,對違反人工智能安全倫理準則的行為進行監(jiān)督。完善人工智能安全社會評價機制,使具有更高安全可靠性的人工智能產(chǎn)品獲得更多的認可和更高的聲譽。
如上所述,人工智能安全的倫理規(guī)制是一種自我規(guī)制,依賴行業(yè)協(xié)會、社會團體、研究機關(guān)、企業(yè)、科學家、公眾等社會主體對自身施加約束。在通常情況下,規(guī)制主體與被規(guī)制者為同一主體或者有緊密關(guān)系,而且倫理準則又缺乏強制執(zhí)行力的保障,因此人工智能安全的倫理規(guī)制只是一種“軟約束”。隨著人工智能安全風險日益嚴峻,國家政府也開始釋放出強化規(guī)制的信號。但考慮到人工智能安全倫理問題的復雜性,以及人工智能技術(shù)創(chuàng)新的自由空間的需要,行政規(guī)制介入的程度和方式還需要深入分析探討。
1.從內(nèi)源性邏輯看,倫理準則多為原則性、抽象性的規(guī)定,操作性不足。原則性、抽象性的規(guī)定不夠清晰明確,難以形成應對各種具體情形的規(guī)范體系。實踐中必須根據(jù)經(jīng)驗和專業(yè)素養(yǎng)進行主觀判斷,容易陷入“各執(zhí)一詞”的分歧。以《新一代人工智能倫理規(guī)范》為例,該倫理準則首先在第三條提出了“增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責任擔當、提升倫理素養(yǎng)”6條原則。之后,分別從管理規(guī)范、研發(fā)規(guī)范、供應規(guī)范和使用規(guī)范三個方面,提出了若干原則,缺乏明確的責任義務規(guī)定。其中,第十二條是“增強安全透明”的原則,規(guī)定“在算法設(shè)計、實現(xiàn)、應用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性”,“逐步實現(xiàn)可驗證、可審核、可監(jiān)督、可追溯、可預測、可信賴”。這些寬泛的概念都缺乏明確的定義,留給規(guī)制者的自由裁量空間過大。
2.從功能性邏輯看,倫理準則缺少強制力的保障,執(zhí)行力不足。倫理準則大多是軟法,其執(zhí)行主要依靠內(nèi)部力量。而且在實踐中,有些行業(yè)組織、企業(yè)成立了倫理審查委員會,但審查的對象是同行或者同事,很難保證能夠中立且嚴格地執(zhí)行審查程序。現(xiàn)實經(jīng)驗也表明,倫理審查大概率都是順利通過,很多是做做樣子、走走形式。
3.從現(xiàn)實性邏輯看,倫理規(guī)制與經(jīng)濟利益之間存在沖突。對人工智能的研發(fā)提出倫理的要求,往往意味著企業(yè)需要投入大量的財力和人力進行試驗或者尋找替代方案,這就必然導致經(jīng)濟成本的增加。企業(yè)也會傾向于將倫理審查簡單化,盡可能地節(jié)約成本。而且,倫理規(guī)制也可能與科學研究之間產(chǎn)生沖突,減緩技術(shù)開發(fā)的進度,影響技術(shù)進入市場的時間。特別是人工智能是新興產(chǎn)業(yè),不確定性很多,有些領(lǐng)域還存在叢林法則,嚴格進行自我規(guī)制的企業(yè)反而會因為成本的增加而在競爭中處于不利地位,出現(xiàn)“劣幣驅(qū)逐良幣”的情況,因而企業(yè)主動進行倫理規(guī)制的意愿有限。
如上所述,人工智能安全倫理規(guī)制的“軟約束”存在失靈的問題,行政規(guī)制的介入非常有必要。簡單來講,行政規(guī)制一般是指政府為了保護公共利益的需要,在市場失靈的情況下,而實施對市場行為的干預。行政規(guī)制有國家資源和強制力作為保障,規(guī)制的力度大、效率高[15]。政府多采用一些命令控制型規(guī)制工具,被規(guī)制者必須服從,能夠談判的空間很小。行政規(guī)制的后果包括消極的,例如刑事處罰、吊銷許可證、罰金、警告等;也包括積極的,例如政府補貼、政府獎勵等。無論是被處罰,還是相比競爭對手而言失去了獎勵的機會,都對被規(guī)制者有重大的影響。因此,行政規(guī)制的威懾很大,約束力很強。
但是,人工智能安全行政規(guī)制的“硬約束”也面臨失靈的問題。一方面,倫理規(guī)制針對未來可能發(fā)生的風險,而行政規(guī)制主要是基于既定的制度和社會實踐,政府的過度干預可能會遏制人工智能的發(fā)展。人工智能倫理是基于一定的價值觀念,但在多元化的社會,價值觀念很難統(tǒng)一。而且,隨著人工智能技術(shù)的發(fā)展,人與機器、人與人、人與自然之間的關(guān)系總在不斷演變。在此背景下,政府過度強化某一種倫理主張,反而會引起社會的分裂,也無法及時回應人工智能倫理的變遷,影響人工智能技術(shù)的創(chuàng)新。另一方面,人工智能具有技術(shù)鴻溝,政府獲取信息的成本過高。行政規(guī)制要求規(guī)制者獲取并理解人工智能安全的信息,這個需要消耗大量的成本。特別是有些人工智能算法具有不可解釋性,不具有很強技術(shù)背景的政府工作人員很難理解。因此,完全從外部監(jiān)管人工智能安全存在信息成本過高的問題,影響了人工智能安全行政規(guī)制的效益。
如上所述,倫理規(guī)制的“軟約束”和行政規(guī)制的“硬約束”都存在失靈的問題。因此,不應該簡單地在自由和控制兩個極端中選擇,要么把自由裁量權(quán)完全交給社會主體任由其自我規(guī)制;要么剝奪社會主體的自由裁量權(quán)來實施威懾性的命令控制。而應該建立一種合作規(guī)制架構(gòu),使政府和社會主體能夠持續(xù)的交換資源、相互溝通,發(fā)揮規(guī)制空間的系統(tǒng)性作用。元規(guī)制模式為人工智能安全倫理規(guī)制的優(yōu)化提供了進路。
元規(guī)制是指外部規(guī)制者根據(jù)公共規(guī)制目標,促使被規(guī)制者自身針對公共問題,作出內(nèi)部的、自我規(guī)制性質(zhì)的回應[16]。外部規(guī)制者是根據(jù)公共規(guī)制目標有意而為,包括對不采取自我規(guī)制的被規(guī)制者給予處罰,或者對采取自我規(guī)制的被規(guī)制者給予獎勵。因此,元規(guī)制也經(jīng)常被稱之為“約束性自我規(guī)制”。元規(guī)制的特點是外部規(guī)制與內(nèi)部規(guī)制的結(jié)合,被規(guī)制者自身可以構(gòu)成規(guī)制自身活動的來源。一般來講,政府發(fā)現(xiàn)某一公共問題時,命令相關(guān)被規(guī)制者自己制定方案來解決問題,在被規(guī)制者作出回應后,政府對這個過程進行規(guī)制,也可以說元規(guī)制是對自我規(guī)制的再規(guī)制。在人工智能安全的倫理規(guī)制中,元規(guī)制可以發(fā)揮它的優(yōu)勢,表現(xiàn)為:
1.將倫理規(guī)制納入法治化軌道?;谠?guī)制,政府對社會主體的地位及其制定的倫理準則進行行政確認,而社會主體將自己定位為公共事務規(guī)制者角色,履行相應的行政法責任。這種行政確認將倫理規(guī)制納入法治化規(guī)定,賦予其公法的效力和權(quán)威。
2.確保倫理規(guī)制符合公共利益。在元規(guī)制模式下,政府承擔公共利益的擔保責任[17]。一方面,政府制定確保社會主體履行公共事務的法律制度,通過框架設(shè)定、引導、監(jiān)督等擔保責任實現(xiàn)方式,保障人工智能安全倫理規(guī)制的質(zhì)量和效果;另一方面,在社會主體的倫理規(guī)制失靈并危害公共利益時,由政府承擔接管責任。
3.成本最低。元規(guī)制模式給予人工智能行業(yè)組織、企業(yè)、科研人員等相當大的自由裁量空間,以便于回應人工智能技術(shù)和倫理觀念的變化,畢竟他們對市場和技術(shù)的發(fā)展最為敏感。這種對倫理規(guī)制的吸納的益處在于,社會主體掌握更多的信息,更有可能找到以最低的成本實現(xiàn)最有效規(guī)制的方案。而且,相對于硬性的強制性命令,社會主體更加有積極性遵守自己制定的倫理準則,進一步減少了對立沖突的成本。
基于元規(guī)制理論,人工智能安全倫理規(guī)制需要在合作規(guī)制框架下,合理分配行政規(guī)制和倫理規(guī)制的權(quán)力和責任。行政規(guī)制重點關(guān)注對人類發(fā)展和社會公眾人身安全有實質(zhì)性影響的重大倫理議題,而一般的倫理問題則充分依賴自我規(guī)制。從國家層面進行合作規(guī)制的框架性立法,將倫理規(guī)制納入法治化軌道。行政規(guī)制介入的范圍、程度和方式都需要慎重考慮,如果干預過多,不僅擠占了自我規(guī)制的空間,而且執(zhí)法成本也過高。社會主體可以有充分的自由裁量權(quán),根據(jù)實際情況將規(guī)制程序和要求具體化。
在合作規(guī)制框架中,承擔人工智能安全倫理規(guī)制這個公共事務的主體,是分散的、多中心的任務實現(xiàn)結(jié)構(gòu),既包括政府,也包括社會主體,例如行業(yè)組織、企業(yè)、科研院所、公眾等。無論是政府,還是社會主體,只要承擔維護人工智能安全的公共任務,都具有公法主體地位和權(quán)力。社會主體的這一主體地位和權(quán)力,不是來自于行政組織法上的授權(quán)或者委托,而是基于元規(guī)制精神。政府應當尊重社會主體在人工智能安全倫理規(guī)制中的優(yōu)先規(guī)制和平等主體地位,讓社會主體分享合作規(guī)制權(quán)力、承擔合作規(guī)制義務,并在此基礎(chǔ)上,重新定位政府的角色——不僅是人工智能安全倫理規(guī)制的合作者,還需扮演框架設(shè)計者、監(jiān)督者、評估者等角色,承擔擔保責任。
1.政府對倫理規(guī)制活動的監(jiān)管是合作規(guī)制的關(guān)鍵,它是外部規(guī)制與內(nèi)部規(guī)制兩個系統(tǒng)之間建立耦合關(guān)系的聯(lián)結(jié)點。通過監(jiān)管制度的設(shè)計,行政規(guī)制的目標被輸送到倫理規(guī)制系統(tǒng)中,與自我規(guī)制形成共振。它通過對自我規(guī)制的引導、監(jiān)督,確保倫理規(guī)制能夠?qū)崿F(xiàn)人工智能安全的公共利益。政府的監(jiān)管活動具有“四兩撥千斤”的作用,既達到了規(guī)制目標,也節(jié)約了大量的行政成本。當然,政府必須履行最后的擔保責任,當自我規(guī)制存在徇私舞弊,或者出現(xiàn)規(guī)制漏洞時,必須走上前臺接管規(guī)制活動并修正自我規(guī)制行為,這也稱之為“后設(shè)規(guī)制”[18]。例如,在人工智能產(chǎn)業(yè)聯(lián)盟中,大企業(yè)往往掌握著倫理準則的制定權(quán)。因此,可能會忽視小企業(yè)的利益,甚至可能借助倫理準則來打壓競爭對手,這就需要政府的介入。后設(shè)規(guī)制既包括對自我規(guī)制的規(guī)制程序的監(jiān)督,也包括對作為規(guī)制者的社會主體的監(jiān)督,使其具有可問責性。雖然政府可以通過強制措施、行政處罰等命令控制型手段來維護人工智能安全的倫理底線,但也需要更多地利用激勵措施來引導倫理秩序和倫理文化。例如,可以給予建立了完善的倫理審查機構(gòu)和倫理審查程序的企業(yè)更多的財政資金支持,在項目評審上予以政策性傾斜,這將極大激發(fā)企業(yè)進行倫理規(guī)制的主動性。政府還要幫助社會主體規(guī)制者完善自我規(guī)制程序,并為利益相關(guān)者設(shè)計抗辯、糾紛解決機制??傊谌斯ぶ悄馨踩膫惱硪?guī)制中,社會主體必須意識到,在自己的規(guī)制不合法時,就會面臨行政規(guī)制的接管。
2.人工智能安全的倫理規(guī)制不僅要有合法性的監(jiān)管,也要有合理性的考量,這就是對倫理規(guī)制效果的評估,目標是追求“更好的規(guī)制”?!案玫囊?guī)制”涉及不同利益和社會性目標之間的權(quán)衡和取舍。對于人工智能安全倫理規(guī)制的評估,不同的視角,會有不同的評估基準。一般而言,主要包括:是否有清晰的安全目標,并能夠有效實現(xiàn)這個目標;是否有堅實的倫理基礎(chǔ);考慮到人工智能產(chǎn)業(yè)的發(fā)展,所產(chǎn)生的的收益是否大于所付出的成本;盡量減少對人工智能科學研究的限制;通過市場激勵和基于安全的進路促進創(chuàng)新;是否透明公正;人工智能的用戶是否能夠理解這樣的倫理準則并充分表達意見。很清楚的一點就是,以成本最低、干預程度最低的方式實現(xiàn)所規(guī)定的安全目標。典型的倫理規(guī)制效果的評估程序包括評判倫理準則選擇的影響,擬定的規(guī)制方案的風險、收益和成本,以及被規(guī)制者如何實現(xiàn)合規(guī)、被規(guī)制者的意見等。倫理規(guī)制效果的評估不是“一次性”的靜態(tài)評價,而是要促進形成一種漸進式的規(guī)制進路,允許不同主體相互協(xié)商,并調(diào)整不同規(guī)制者的作用。這種反思性、動態(tài)性進路,使得能夠根據(jù)人工智能技術(shù)的發(fā)展和安全偏好的變化,對安全倫理準則進行不斷的修正和調(diào)適。
之前已經(jīng)論證,人工智能安全的倫理準則作為軟法,其約束力有限。因此,應當在合作規(guī)制框架下,將倫理準則與法律法規(guī)相銜接,保持軟法與硬法的平衡和一致,實現(xiàn)軟硬并舉??梢酝ㄟ^立法技術(shù)推動軟法的硬法化,使倫理準則能夠產(chǎn)生硬法上的效力,打通倫理規(guī)制與行政規(guī)制之間的通道。我國法律一定程度上注意到了倫理規(guī)制的重要性,但難以直接適用。例如,我國《民法典》第1008條、第1009條規(guī)定了在有關(guān)醫(yī)學和科研活動中開展倫理規(guī)制的要求,《科學技術(shù)進步法》第29條規(guī)定“國家禁止違反倫理道德的科學技術(shù)研究開發(fā)活動”??梢钥闯觯墒切拘缘匾笥嘘P(guān)活動要遵守倫理準則,但是沒有明確要遵守哪些倫理準則以及違法這些倫理準則的不利后果。法律應該采用“轉(zhuǎn)介條款”“引致條款”等銜接法律規(guī)則與倫理準則的立法技術(shù)。通過“轉(zhuǎn)介條款”“引致條款”,指向具體的倫理準則,并從法律上賦予該倫理準則以法律效力,明確相關(guān)的權(quán)利義務和責任。進行個案的裁決時,先引用“轉(zhuǎn)介條款”“引致條款”,再按圖索驥找到具體的倫理準則來進行判斷。這樣既保障了倫理準則的法律效力,又保留了其靈活性。
我國目前人工智能安全的倫理規(guī)制還處于線形規(guī)制狀態(tài),規(guī)制主體與被規(guī)制者是單一的、單向的線形關(guān)系,規(guī)制主體之間也是缺少合作和互相監(jiān)督的平行線關(guān)系。根據(jù)元規(guī)制原則,應當形成所有主體共同參與的規(guī)制空間。在該規(guī)制空間中,政府、行業(yè)組織、企業(yè)、科研院所、公眾等不同主體各占據(jù)一個節(jié)點,共同織成一張人工智能安全倫理規(guī)制的網(wǎng)絡。每個節(jié)點根據(jù)其掌握的規(guī)制資源,分配相應的規(guī)制權(quán)力和責任。每個節(jié)點都有自身的利益訴求,但相互作用之下的共同目標是實現(xiàn)公共利益的最大化。因此,還應當設(shè)計相關(guān)的機制,使他們之間能夠互相監(jiān)督。例如,可以要求充分的信息披露,說明倫理審查的程序、依據(jù)和結(jié)論,并接受同行互查和第三方獨立機構(gòu)的復審。另外,還需要制定程序規(guī)定來規(guī)范規(guī)制行為,使政府和社會主體能夠持續(xù)的交換資源、相互溝通,發(fā)揮規(guī)制空間的系統(tǒng)性作用。