孫麗文 李少帥
[摘 要] 人工智能在釋放巨大潛能、產(chǎn)生經(jīng)濟(jì)價(jià)值和帶動(dòng)廣泛的產(chǎn)業(yè)變革同時(shí),也產(chǎn)生了諸多風(fēng)險(xiǎn)。而現(xiàn)有治理體系難以適應(yīng)人工智能的高度開放性和不確定性,無法滿足風(fēng)險(xiǎn)治理需求,同時(shí)人工智能技術(shù)應(yīng)用引發(fā)的新興風(fēng)險(xiǎn)治理議題超越了既有治理體系范圍,傳統(tǒng)風(fēng)險(xiǎn)治理體系急需向以倫理嵌入為關(guān)鍵支撐的新興風(fēng)險(xiǎn)治理體系遷移。從倫理嵌入視角出發(fā),構(gòu)建了新型風(fēng)險(xiǎn)治理體系,摒棄了傳統(tǒng)以政府為絕對(duì)主導(dǎo)的弊端,采取多主體參與的協(xié)同治理模式,強(qiáng)調(diào)風(fēng)險(xiǎn)治理主體之間的“垂直連通”和“水平協(xié)商”,并充分發(fā)揮倫理道德能動(dòng)作用,將治理觸角滲透進(jìn)人工智能技術(shù)創(chuàng)新到規(guī)?;瘧?yīng)用的諸多階段,治理范圍更加寬泛,治理方式更加靈活多樣。同時(shí),倫理道德通過內(nèi)嵌于人工智能技術(shù)研發(fā)、技術(shù)測(cè)試、技術(shù)轉(zhuǎn)移和技術(shù)產(chǎn)業(yè)化四個(gè)階段,形成兼具分段治理和整體協(xié)同的風(fēng)險(xiǎn)治理路徑。研究旨在降低人工智能風(fēng)險(xiǎn)等級(jí),為發(fā)展負(fù)責(zé)任的人工智能提供理論指導(dǎo)和有益啟示。
[關(guān)鍵詞]風(fēng)險(xiǎn)治理;倫理嵌入;責(zé)任式創(chuàng)新;科技向善;人工智能
[中圖分類號(hào)] F204[文獻(xiàn)標(biāo)識(shí)碼]A[文章編號(hào)]1673-0461(2021)07-0022-07
一、引 言
作為21世紀(jì)最具深遠(yuǎn)影響的新興技術(shù)[1],人工智能無疑擁有巨大的潛力和價(jià)值。人工智能技術(shù)的整體突破性創(chuàng)新使其跨越工業(yè)化應(yīng)用紅線,被廣泛地應(yīng)用于人類的生產(chǎn)生活實(shí)踐,持續(xù)催生新商業(yè)模式、新經(jīng)濟(jì)業(yè)態(tài),與實(shí)體經(jīng)濟(jì)融合程度也持續(xù)加深,成為極具發(fā)展前景的經(jīng)濟(jì)新動(dòng)能。但在人工智能與社會(huì)生態(tài)系統(tǒng)交互性持續(xù)加深的同時(shí),極具變革性的人工智能也引發(fā)了數(shù)據(jù)安全、隱私保護(hù)、算法歧視等風(fēng)險(xiǎn)問題 [2-3],加劇了人類和人工智能技術(shù)之間的矛盾。如何應(yīng)對(duì)和化解人工智能風(fēng)險(xiǎn)危機(jī),避免其陷入“科林格里奇困境”[4],實(shí)現(xiàn)經(jīng)濟(jì)效益和風(fēng)險(xiǎn)防范的合理平衡,成為目前對(duì)實(shí)踐與研究都具有挑戰(zhàn)性和突破性的議題。
現(xiàn)實(shí)層面,由人工智能引致的數(shù)據(jù)安全、隱私保護(hù)、算法歧視等風(fēng)險(xiǎn)已經(jīng)成為國(guó)際社會(huì)近幾年關(guān)注的焦點(diǎn)問題,并引發(fā)了全球范圍內(nèi)對(duì)人工智能技術(shù)創(chuàng)新及其產(chǎn)業(yè)化應(yīng)用影響的倫理反思和討論 [5-6],基于倫理嵌入的風(fēng)險(xiǎn)治理開始從幕后走向前臺(tái),成為應(yīng)對(duì)和化解人工智能風(fēng)險(xiǎn)的關(guān)鍵考慮。在此背景下,從政府到企業(yè)界再到學(xué)術(shù)界,掀起探索制定人工智能倫理原則與框架的高潮。歐盟、OECD、G20、IEEE、英國(guó)、德國(guó)、谷歌、微軟等均從各自的角度提出了相應(yīng)的人工智能倫理原則或框架,共同加強(qiáng)人工智能知識(shí)的共享和可信人工智能的構(gòu)建。雖然各界已經(jīng)達(dá)成基于倫理觀的人工智能風(fēng)險(xiǎn)治理共識(shí),但是由于既有治理方法、治理工具等在面向人工智能等新興技術(shù)風(fēng)險(xiǎn)治理時(shí)存在倫理缺失,對(duì)于基于倫理嵌入的風(fēng)險(xiǎn)治理原則、主體、模式、工具等關(guān)鍵問題仍缺乏系統(tǒng)性實(shí)踐探索。
理論層面,人工智能技術(shù)創(chuàng)新及產(chǎn)業(yè)化應(yīng)用的風(fēng)險(xiǎn)雖然同樣引起了道德倫理和風(fēng)險(xiǎn)治理的相關(guān)討論,但是整體理論研究進(jìn)程明顯滯后,難以成為風(fēng)險(xiǎn)治理實(shí)踐的“及時(shí)雨”。當(dāng)學(xué)者們將目光停留在如何將現(xiàn)有治理經(jīng)驗(yàn)“移植”和“嫁接”于人工智能風(fēng)險(xiǎn)治理時(shí),基于倫理嵌入視角的相關(guān)研究正不斷開辟風(fēng)險(xiǎn)治理新空間,勾勒出適用于人工智能風(fēng)險(xiǎn)治理體系的新圖景,由此可見,從理論而言,倫理嵌入下的風(fēng)險(xiǎn)治理是構(gòu)建人工智能新型風(fēng)險(xiǎn)治理體系的關(guān)鍵支撐。目前,學(xué)者們圍繞風(fēng)險(xiǎn)治理流程開展了探索性研究,閆坤如從技術(shù)研發(fā)與設(shè)計(jì)理論出發(fā),認(rèn)為人工智能風(fēng)險(xiǎn)與技術(shù)設(shè)計(jì)存在較強(qiáng)關(guān)聯(lián),當(dāng)設(shè)計(jì)不完備、設(shè)計(jì)目的與實(shí)際結(jié)果和使用者需求不相符時(shí)都會(huì)產(chǎn)生風(fēng)險(xiǎn),因此人工智能的研發(fā)設(shè)計(jì)應(yīng)思索其是不是具有道德行動(dòng)者地位和“道德嵌入”(moral embedding)合理性等問題,應(yīng)強(qiáng)調(diào)設(shè)計(jì)者的責(zé)任意識(shí)和體現(xiàn)“科技向善”(technology for good)[7]。蔣潔認(rèn)為需要從算法、數(shù)據(jù)和社會(huì)影響方面對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行系統(tǒng)性的評(píng)估,并且強(qiáng)化倫理對(duì)于風(fēng)險(xiǎn)治理的作用[8]。張富利基于復(fù)雜性范式,認(rèn)為人工智能技術(shù)產(chǎn)業(yè)化過程因與資本的耦合而規(guī)避了深層次的倫理探討,帶來了硬規(guī)則的普遍適用,導(dǎo)致建立在創(chuàng)新與安全之上的傳統(tǒng)治理范式難以應(yīng)對(duì),因此人工智能風(fēng)險(xiǎn)治理急需探索能容納多維度的倫理治理范式[9]。雖然上述研究成果反映出風(fēng)險(xiǎn)治理不同節(jié)點(diǎn)需要關(guān)注的重點(diǎn)問題,但是依然無法形成完整且清晰的體系框架。對(duì)于倫理嵌入下的新型風(fēng)險(xiǎn)治理體系包含哪些要素?各要素主要功能是什么?新型風(fēng)險(xiǎn)治理體系如何發(fā)揮其作用?風(fēng)險(xiǎn)治理路徑如何?諸多此類問題亟待深入研究。
基于此,本文從倫理視角出發(fā),探索和構(gòu)建基于倫理嵌入的人工智能新型風(fēng)險(xiǎn)治理體系,并且深度解析風(fēng)險(xiǎn)治理路徑,促進(jìn)人工智能經(jīng)濟(jì)效益與風(fēng)險(xiǎn)防控的動(dòng)態(tài)平衡,以回應(yīng)上述問題。
二、基于倫理嵌入的風(fēng)險(xiǎn)治理體系構(gòu)建
(一)人工智能風(fēng)險(xiǎn)引發(fā)的治理挑戰(zhàn)
作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性支撐力量,人工智能本身擁有溢出帶動(dòng)性極強(qiáng)的“頭雁”效應(yīng),能夠?yàn)楸姸嘈袠I(yè)領(lǐng)域帶來深刻變革,同時(shí)在隱私、歧視、安全、責(zé)任、就業(yè)等方面的負(fù)外部性也引發(fā)了風(fēng)險(xiǎn)治理領(lǐng)域的嚴(yán)峻挑戰(zhàn)[2]。
首先,人工智能具有極強(qiáng)的開放性,數(shù)字和智能時(shí)代的降臨更使得基于代碼的生產(chǎn)門檻大幅度降低 [10],這是人工智能技術(shù)創(chuàng)新與應(yīng)用規(guī)律的必然,但同時(shí)高度的開放性也帶來了風(fēng)險(xiǎn)的極大不確定性,而既有治理體系對(duì)此難以給出有效的具體方案。一方面,人工智能高度開放性的生產(chǎn)模式使得現(xiàn)有監(jiān)管機(jī)構(gòu)難以找到明確的監(jiān)管實(shí)體,政府試圖照搬先前全范圍覆蓋的事前管控方式已經(jīng)不可能。另一方面,自上而下的科層制的治理結(jié)構(gòu)既不能有效地將信息傳遞到相應(yīng)的技術(shù)產(chǎn)業(yè)化主體,而且信息的不對(duì)稱性還可能使得施力方向和監(jiān)管方式難以把控,甚至導(dǎo)致風(fēng)險(xiǎn)治理的異化??梢?,傳統(tǒng)治理體系的僵化性難以應(yīng)對(duì)人工智能開放性和不確定性所帶來的嚴(yán)峻挑戰(zhàn),甚至可能導(dǎo)致人工智能成為公共危險(xiǎn)的源頭,釀成大規(guī)模的連鎖性傷害,急需調(diào)整現(xiàn)有治理結(jié)構(gòu)和治理邏輯,以加快形成能夠匹配高度開放性和不確定性內(nèi)在需求的新型風(fēng)險(xiǎn)治理體系。
其次,以因果關(guān)系為主線的治理邏輯極難適應(yīng)以算法和數(shù)據(jù)為主體的人工智能應(yīng)用情境。長(zhǎng)期以來,人類通過實(shí)踐總結(jié)建立起基于對(duì)自身行為因果的法律、行為規(guī)范等多種規(guī)制體系構(gòu)成了現(xiàn)代治理的核心邏輯,即通過評(píng)估行為結(jié)果的影響性來對(duì)以后發(fā)生的行為進(jìn)行定性和規(guī)制[11]。但是,因果關(guān)系邏輯卻不能完全適用于人工智能風(fēng)險(xiǎn)治理,這是因?yàn)槿斯ぶ悄艿恼嬲齼r(jià)值并不在于模仿人類行為,而在于所具備的自主學(xué)習(xí)和決策能力,即人工智能技術(shù)并不是人類意志的充分表達(dá),程序設(shè)計(jì)者給出的只是學(xué)習(xí)規(guī)則,最終決策權(quán)卻在于海量規(guī)模數(shù)據(jù)訓(xùn)練后的人工智能算法,而該結(jié)果與程序設(shè)計(jì)者本身意志之間并不存在較強(qiáng)的直接因果關(guān)系,由此通過探究行為與后果之因果關(guān)系來規(guī)范人類行為的法律等規(guī)制體系遭遇窘境。
最后,人工智能風(fēng)險(xiǎn)治理挑戰(zhàn)不僅體現(xiàn)在與既有治理體系的不匹配,更有新興風(fēng)險(xiǎn)治理議題的模糊甚至空白,如數(shù)據(jù)隱私保護(hù)、算法安全、算法歧視以及濫用等新興風(fēng)險(xiǎn)治理議題,在人工智能興起之前這些問題并不存在,或者說并不突出,但是伴隨人工智能技術(shù)創(chuàng)新和產(chǎn)業(yè)化應(yīng)用的快速發(fā)展,新興風(fēng)險(xiǎn)日漸凸顯。既有治理體系在應(yīng)對(duì)和化解人工智能風(fēng)險(xiǎn)時(shí)滯后和乏力,迫切需要發(fā)展新型治理工具和構(gòu)建與之相適應(yīng)的風(fēng)險(xiǎn)治理體系,以確保新興技術(shù)朝著有利于人類發(fā)展的方向演進(jìn)。
(二)倫理嵌入下人工智能風(fēng)險(xiǎn)治理體系構(gòu)建
隨著技術(shù)創(chuàng)新與科技政策交互性增強(qiáng),科學(xué)和社會(huì)之間的關(guān)系從“科學(xué)與社會(huì)”(science and society)、“社會(huì)中的科學(xué)”(science in society)逐步向“科學(xué)伴隨社會(huì)”(science with society)和“科學(xué)為了社會(huì)”(science for society)轉(zhuǎn)變[12]。人工智能等新興技術(shù)創(chuàng)新與應(yīng)用的風(fēng)險(xiǎn)治理也逐漸從科學(xué)共同體的內(nèi)部自治轉(zhuǎn)向更加寬泛的社會(huì)道德倫理層面的治理[13]。21世紀(jì)以來,美國(guó)召開了一系列有關(guān)“科學(xué)與治理”的會(huì)議并發(fā)布了相關(guān)文件,將“治理”理念引入科技政策領(lǐng)域,用以描述科學(xué)、技術(shù)和政治間的不同特性、流動(dòng)合作和互惠影響。此后,在生物醫(yī)學(xué)技術(shù)的治理議題研究過程中,“倫理治理”(ethical governance)理念被提出,希望通過吸收“治理”的公正、民主的多元對(duì)話和協(xié)商機(jī)制,促使有關(guān)的各利益相關(guān)者都參與到努力解決科技發(fā)展和風(fēng)險(xiǎn)治理議題的過程中。
與之相關(guān),國(guó)際社會(huì)各界也紛紛制定相應(yīng)的倫理準(zhǔn)則或者框架。如英國(guó)已經(jīng)成立數(shù)據(jù)倫理和創(chuàng)新中心(CDEI),視倫理為人工智能創(chuàng)新管理的核心之一并考慮制定普適的人工智能倫理框架。歐盟人工智能三大支柱之一就是確保自身具備與人工智能發(fā)展應(yīng)用相匹配的倫理及法律框架,為此歐盟委員會(huì)已經(jīng)草擬了人工智能倫理指南(AI ethics guidelines)[14]。中國(guó)的人工智能頂層設(shè)計(jì)政策也要求制定促進(jìn)人工智能發(fā)展的倫理規(guī)范。目前,國(guó)際社會(huì)組織已經(jīng)達(dá)成了兩個(gè)影響廣泛的人工智能倫理共識(shí):“阿西洛馬人工智能原則”(Asilomar AI Principles)和國(guó)際電氣電子工程師協(xié)會(huì)(IEEE)組織倡議的人工智能倫理標(biāo)準(zhǔn),其中“阿西洛馬人工智能原則”倡導(dǎo)安全、失敗透明、審判透明、負(fù)責(zé)、與人類價(jià)值觀一致性、保護(hù)隱私等倫理價(jià)值和倫理原則。2017年3月,IEEE在《IEEE機(jī)器人與自動(dòng)化》雜志發(fā)表了名為“旨在推進(jìn)人工智能和自治系統(tǒng)的倫理設(shè)計(jì)的 IEEE全球倡議書”,倡議建立人工智能倫理的設(shè)計(jì)原則和標(biāo)準(zhǔn),并提出人權(quán)(human rights)、福祉(wellbeing)、問責(zé)(accountability)、透明(transparent)和慎用(use with caution)五原則。中國(guó)新一代人工智能治理原則也于2019年6月17日發(fā)布,提出和諧友好、公平公正、包容共享等八項(xiàng)基本原則,發(fā)展負(fù)責(zé)任的人工智能。通過對(duì)國(guó)內(nèi)外人工智能主要倫理原則的論述,本文認(rèn)為現(xiàn)有人工智能智能倫理原則雖然具體內(nèi)容相異,但是其本質(zhì)卻相通,都強(qiáng)調(diào)維護(hù)人類根本利益和主體地位,借鑒其核心思想,同時(shí)結(jié)合人工智能風(fēng)險(xiǎn)治理的內(nèi)在需求,本文認(rèn)為倫理嵌入下人工智能風(fēng)險(xiǎn)治理需遵循以人為本、開放合作和互動(dòng)協(xié)商的基本原則。
作為新興風(fēng)險(xiǎn)治理范式 [15-16],基于倫理嵌入的風(fēng)險(xiǎn)治理不僅是對(duì)治理效果的短期考慮,更是對(duì)面向未來治理結(jié)構(gòu)和治理邏輯的高屋建瓴,引導(dǎo)人工智能技術(shù)創(chuàng)新與應(yīng)用向負(fù)責(zé)、安全、普惠的實(shí)踐道路前進(jìn)[17]。倫理嵌入下,風(fēng)險(xiǎn)治理不再以政府為絕對(duì)主導(dǎo),而強(qiáng)調(diào)更廣泛的風(fēng)險(xiǎn)治理主體參與,雖然政府在一定程度上依然發(fā)揮著重要作用,但是社會(huì)組織、企業(yè)、社會(huì)公眾等逐漸成為風(fēng)險(xiǎn)治理的基本力量,以政府主導(dǎo)、社會(huì)協(xié)同、公眾參與的治理體系格局正在形成 [18-19]。與傳統(tǒng)科層制“自上而下”的風(fēng)險(xiǎn)治理不同,倫理嵌入的風(fēng)險(xiǎn)治理更加關(guān)注治理的上下融通和橫向聯(lián)結(jié),因此主張采取“自上而下”和“自下而上”相聯(lián)合,以及多主體參與的“水平協(xié)商”治理模式 [20]。倫理嵌入風(fēng)險(xiǎn)治理范式下,不再將法律規(guī)范等作為核心治理工具,而是在吸收“法治”(rule of law)的合理性基礎(chǔ)上,進(jìn)一步將風(fēng)險(xiǎn)治理重心轉(zhuǎn)移至“人治”(rule of human),即以提升和規(guī)范利益相關(guān)者的倫理道德為出發(fā)點(diǎn),充分激發(fā)倫理道德對(duì)風(fēng)險(xiǎn)治理的能動(dòng)作用,其治理方式涵蓋預(yù)測(cè)式治理、公眾參與治理、響應(yīng)式治理等 [21-22],更加靈活多樣。同時(shí),通過基于倫理嵌入的風(fēng)險(xiǎn)治理,可將治理觸角滲透到從人工智能技術(shù)創(chuàng)新到產(chǎn)業(yè)化應(yīng)用的諸多階段,治理范圍同既有風(fēng)險(xiǎn)治理體系相比更加寬泛。基于此,本文歸納出基于倫理嵌入的人工智能新型風(fēng)險(xiǎn)治理體系如圖1所示。
三、基于倫理嵌入的風(fēng)險(xiǎn)治理路徑解析
人工智能技術(shù)本身雖然并沒有倫理道德品質(zhì),但技術(shù)研發(fā)者可通過算法設(shè)計(jì)、數(shù)據(jù)選擇、模型優(yōu)化等方式賦予其倫理價(jià)值,因此人工智能技術(shù)并非中立,其中飽含了人類太多對(duì)于現(xiàn)在和未來的思考及決定,為以倫理嵌入實(shí)施風(fēng)險(xiǎn)治理指明了方向,因此非常有必要對(duì)人工智能風(fēng)險(xiǎn)治理過程進(jìn)行更加全面和深刻的倫理思考,將倫理嵌入到人工智能技術(shù)創(chuàng)新與應(yīng)用的每個(gè)階段。即在人工智能技術(shù)研發(fā)、技術(shù)測(cè)試、技術(shù)轉(zhuǎn)移和技術(shù)產(chǎn)業(yè)化的每個(gè)階段,根據(jù)其階段性特征實(shí)施相應(yīng)的規(guī)約方式,對(duì)其風(fēng)險(xiǎn)進(jìn)行有效防范和控制。
(一)技術(shù)研發(fā)階段的倫理設(shè)計(jì)
通過技術(shù)研發(fā)階段的倫理設(shè)計(jì)能夠使人工智能技術(shù)從誕生便負(fù)載一定的價(jià)值傾向,并符合特定的倫理道德考慮,讓具體價(jià)值導(dǎo)向和倫理道德規(guī)范內(nèi)化于人工智能技術(shù)結(jié)構(gòu)之中,并通過相應(yīng)的功能展現(xiàn)出來。不僅技術(shù)領(lǐng)先可行,能夠?qū)崿F(xiàn)經(jīng)濟(jì)效益的大幅增加,而且還要滿足社會(huì)期望、道德倫理可接受,即實(shí)施責(zé)任式創(chuàng)新范式下的技術(shù)研發(fā)與創(chuàng)新。當(dāng)技術(shù)的調(diào)解作用及其倫理對(duì)于風(fēng)險(xiǎn)治理的價(jià)值被發(fā)掘之后,技術(shù)研發(fā)能力較強(qiáng)的企業(yè)可對(duì)人工智能技術(shù)進(jìn)行明確的倫理設(shè)計(jì)。菲貝克(Fi beck)認(rèn)為道德化設(shè)計(jì)可分成隱性道德設(shè)計(jì)和顯性道德設(shè)計(jì),隱性道德設(shè)計(jì)努力避免不合理的調(diào)解作用,防止非道德的技術(shù)研發(fā),顯性道德設(shè)計(jì)則通過設(shè)計(jì)具有特定調(diào)解作用的技術(shù),使倫理道德融于技術(shù)功能。由于隱性調(diào)解設(shè)計(jì)無法實(shí)施技術(shù)概念分析和技術(shù)原型開發(fā),因此顯性調(diào)解設(shè)計(jì)成為人工智能技術(shù)研發(fā)階段的必要選擇[23]。首先,對(duì)即將嵌入人工智能的目標(biāo)價(jià)值進(jìn)行分析,即技術(shù)概念解析。企業(yè)中的技術(shù)研發(fā)人員和倫理學(xué)家通過跨領(lǐng)域合作對(duì)人工智能技術(shù)研發(fā)進(jìn)行全局性考慮,明晰技術(shù)研發(fā)過程中的價(jià)值合理性、規(guī)范沖突、人類主體地位以及其他潛在風(fēng)險(xiǎn)等問題,同時(shí)界定利益相關(guān)者,分析人工智能目標(biāo)價(jià)值對(duì)其影響性,并且探討倫理嵌入所引起道德領(lǐng)域的積極變化[24]。其次,把人工智能技術(shù)價(jià)值落實(shí)到具體架構(gòu)內(nèi),包括物理載體、算法和接口,即技術(shù)原型開發(fā)。具體操作過程可借鑒洛克頓(Lockton)所提出的建筑模式、放錯(cuò)模式、勸導(dǎo)模式等6種技術(shù)道德化設(shè)計(jì)模式[25]。再次,把人工智能技術(shù)研發(fā)與應(yīng)用場(chǎng)景相結(jié)合,確保經(jīng)由倫理設(shè)計(jì)的價(jià)值規(guī)范能夠充分發(fā)揮其風(fēng)險(xiǎn)防范作用??赏ㄟ^企業(yè)技術(shù)研發(fā)人員的合理性想象、擴(kuò)展建構(gòu)性技術(shù)評(píng)估和應(yīng)用場(chǎng)景模擬的方式提高風(fēng)險(xiǎn)防范能力[26]。最后,對(duì)經(jīng)由倫理設(shè)計(jì)的人工智能技術(shù)價(jià)值規(guī)范的合理測(cè)評(píng)。需要注意和強(qiáng)調(diào)的是,人工智能技術(shù)研發(fā)設(shè)計(jì)必須保持治理主體之間的互動(dòng)協(xié)商和開放合作,以便發(fā)揮各自的獨(dú)特優(yōu)勢(shì)并結(jié)合實(shí)際應(yīng)用情況不斷對(duì)研發(fā)設(shè)計(jì)方案進(jìn)行適應(yīng)性調(diào)整優(yōu)化。
(二)技術(shù)測(cè)試階段的倫理評(píng)估
與技術(shù)研發(fā)階段由企業(yè)的研發(fā)設(shè)計(jì)者主導(dǎo)并面向個(gè)體不同,技術(shù)測(cè)試階段的倫理評(píng)估往往是由社會(huì)組織(如倫理委員會(huì)等)主導(dǎo)并面向社會(huì)群體層面,探討如何以負(fù)責(zé)任的方式進(jìn)行技術(shù)創(chuàng)新及風(fēng)險(xiǎn)治理[27-28]。因此,該階段人工智能技術(shù)倫理評(píng)估本質(zhì)上是對(duì)其道德倫理進(jìn)行積極的分析和建構(gòu),并形成對(duì)風(fēng)險(xiǎn)治理具有實(shí)際操作意義的倫理評(píng)估準(zhǔn)則。通常情形下倫理評(píng)估需要組建倫理委員會(huì),預(yù)測(cè)和識(shí)別潛在風(fēng)險(xiǎn)、分析與澄清風(fēng)險(xiǎn)問題、開發(fā)與確定倫理解決方案,以及通過同行評(píng)議對(duì)解決方案進(jìn)行審議,并就方案與政府機(jī)構(gòu)、社會(huì)公眾相互溝通以確定倫理評(píng)估結(jié)果。倫理評(píng)估需要如下具體環(huán)節(jié):
首先,最大化預(yù)測(cè)和識(shí)別人工智能技術(shù)潛在風(fēng)險(xiǎn)危害。由于算法與數(shù)據(jù)是人工智能發(fā)展邏輯形成的根源,也是引發(fā)風(fēng)險(xiǎn)的重要因素,因此為全面合理地進(jìn)行風(fēng)險(xiǎn)預(yù)測(cè)和識(shí)別,本文提出面向數(shù)據(jù)和算法的人工智能風(fēng)險(xiǎn)評(píng)估指標(biāo)體系(見表1),該體系包括數(shù)據(jù)風(fēng)險(xiǎn)(數(shù)據(jù)安全風(fēng)險(xiǎn)、數(shù)據(jù)偏見風(fēng)險(xiǎn))和算法風(fēng)險(xiǎn)(算法安全風(fēng)險(xiǎn)、可解釋性風(fēng)險(xiǎn)和決策風(fēng)險(xiǎn))在內(nèi)的11項(xiàng)具體風(fēng)險(xiǎn)指標(biāo),用以輔助倫理委員會(huì)進(jìn)行風(fēng)險(xiǎn)預(yù)測(cè)和識(shí)別,在實(shí)踐中可根據(jù)實(shí)際情景設(shè)置各指標(biāo)權(quán)重,靈活運(yùn)用。其次,對(duì)已經(jīng)識(shí)別出的風(fēng)險(xiǎn)進(jìn)行倫理追溯,探索風(fēng)險(xiǎn)背后的價(jià)值沖突和倫理困境。再次,形成人工智能技術(shù)的共識(shí)框架并以此為基礎(chǔ)提供倫理導(dǎo)向準(zhǔn)則。在對(duì)風(fēng)險(xiǎn)背后價(jià)值沖突與倫理困境的追溯和確定后,需要進(jìn)一步在不同利益相關(guān)者中形成基于倫理的風(fēng)險(xiǎn)治理共識(shí)框架。在此過程中,尋找開放、公平的協(xié)商平臺(tái)或者對(duì)話空間成為關(guān)鍵舉措。最后,通過同行評(píng)議的方式對(duì)框架的合理性以及新出現(xiàn)的風(fēng)險(xiǎn)進(jìn)行實(shí)際考察和修正,并與政府機(jī)構(gòu)、社會(huì)公眾持續(xù)溝通??梢?,該環(huán)節(jié)是風(fēng)險(xiǎn)信息不斷增加和利益相關(guān)者逐步深度參與和反復(fù)協(xié)商的過程,需要保持倫理共識(shí)框架與實(shí)踐的持續(xù)動(dòng)態(tài)反饋。同時(shí),整個(gè)技術(shù)測(cè)試階段的倫理評(píng)估也為技術(shù)轉(zhuǎn)移階段的倫理調(diào)適營(yíng)造了更加適宜的環(huán)境氛圍。
(三)技術(shù)轉(zhuǎn)移階段的倫理調(diào)試
技術(shù)與社會(huì)之間是雙向建構(gòu)的,技術(shù)對(duì)社會(huì)道德倫理觀念的調(diào)試沒有明確導(dǎo)向性,本質(zhì)上是適應(yīng)和自適應(yīng)相結(jié)合的過程,但是社會(huì)倫理可通過明確的導(dǎo)向性,造就技術(shù)的倫理角色[23]。因此,在人工智能技術(shù)轉(zhuǎn)移階段所采用的倫理調(diào)試
第一,由政府機(jī)構(gòu)參與的制度調(diào)試。即通過國(guó)家法律強(qiáng)制手段推進(jìn)和規(guī)范人工智能技術(shù)轉(zhuǎn)移。制度調(diào)試需以風(fēng)險(xiǎn)治理為基本導(dǎo)向,采取“分級(jí)分類”和“標(biāo)準(zhǔn)認(rèn)證”相聯(lián)合的思路,一方面,人工智能技術(shù)創(chuàng)新及風(fēng)險(xiǎn)的快速迭代使專門的立法很難跟上風(fēng)險(xiǎn)治理步伐,因此應(yīng)遵循分級(jí)分類的方式,在技術(shù)轉(zhuǎn)移階段建立法律約束與風(fēng)險(xiǎn)危害程度相匹配的監(jiān)管機(jī)制,如避免過于嚴(yán)格和細(xì)致的法律要求,而應(yīng)該采取先行先試、事后追責(zé)等輕監(jiān)管模式;另一方面,制定和頒布人工智能技術(shù)及應(yīng)用的標(biāo)準(zhǔn)和認(rèn)證體系。如中國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)頒布的《信息安全技術(shù) 指紋識(shí)別系統(tǒng)技術(shù)要求》和《信息安全技術(shù) 虹膜識(shí)別系統(tǒng)技術(shù)要求》標(biāo)準(zhǔn)。在歐盟的《人工智能白皮書:通往卓越與信任的歐洲之路》中也明確提出對(duì)滿足特定倫理標(biāo)準(zhǔn)的產(chǎn)品和服務(wù)提供監(jiān)管部門的標(biāo)簽認(rèn)證,以提高其在消費(fèi)者心中的信譽(yù)。
第二,由社會(huì)組織和社會(huì)公眾參與的輿論調(diào)試。在技術(shù)轉(zhuǎn)移過程中,社會(huì)公眾對(duì)技術(shù)的態(tài)勢(shì)通常是一項(xiàng)新興技術(shù)被倡導(dǎo)或禁止的重要因素[29]。社會(huì)組織和社會(huì)公眾通過營(yíng)造優(yōu)良價(jià)值導(dǎo)向的社會(huì)氛圍和輿論環(huán)境,使那些具有可用(available)、可靠(reliable)、可知(comprehensible)、可控(controllable)性質(zhì)的人工智能技術(shù)能夠?qū)崿F(xiàn)更高程度和更高效率的轉(zhuǎn)移效果,其相應(yīng)智能產(chǎn)品和服務(wù)同樣也會(huì)獲得更好的社會(huì)評(píng)價(jià)和經(jīng)濟(jì)效益,從而實(shí)現(xiàn)良性增值循環(huán)。輿論調(diào)試可細(xì)分為輿論宣傳和輿論監(jiān)督兩種方式,其中輿論宣傳指的是借助公共媒體對(duì)社會(huì)價(jià)值(如可信、公正、透明等)宣揚(yáng),推動(dòng)人工智能技術(shù)轉(zhuǎn)移和應(yīng)用的科技向善。輿論監(jiān)督指的是通過公共媒體等以信息公開為核心的輿論引導(dǎo),形成由社會(huì)公眾參與的輿論監(jiān)督氛圍,對(duì)明顯有悖于社會(huì)主導(dǎo)價(jià)值(如歧視、侵犯隱私等)的人工智能技術(shù)及轉(zhuǎn)移進(jìn)行遏制。
第三,由學(xué)界參與的教育調(diào)試。學(xué)界(教育、科研)通過建立健全覆蓋全社會(huì)的技術(shù)安全認(rèn)知和培訓(xùn)體系,為人工智能技術(shù)高質(zhì)量轉(zhuǎn)移提供智力和倫理道德保障。教育調(diào)試的具體方式可分為學(xué)校調(diào)試和學(xué)者調(diào)試,其中學(xué)校調(diào)試指建立適用于不同人群的有關(guān)人工智能科學(xué)認(rèn)知的教育體系;學(xué)者調(diào)試指在學(xué)術(shù)界充分認(rèn)識(shí)人工智能技術(shù)創(chuàng)新在理論和產(chǎn)業(yè)化應(yīng)用層面的雙重性,聚焦人工智能的風(fēng)險(xiǎn)治理議題,倡導(dǎo)“責(zé)任式創(chuàng)新”(responsible innovation),為人工智能技術(shù)創(chuàng)新可持續(xù)發(fā)展提供借鑒[22]。
(四)技術(shù)產(chǎn)業(yè)化階段的倫理建構(gòu)
該階段是人工智能技術(shù)邁向大規(guī)模商業(yè)化進(jìn)程中,對(duì)以倫理嵌入進(jìn)行風(fēng)險(xiǎn)治理的實(shí)戰(zhàn)化檢驗(yàn)和體系建立。企業(yè)把經(jīng)由倫理設(shè)計(jì)的人工智能技術(shù)廣泛應(yīng)用于研發(fā)設(shè)計(jì)、生產(chǎn)建造、供應(yīng)管理、服務(wù)營(yíng)銷等具體流程之中,而作為人工智能產(chǎn)品和服務(wù)的終端使用者(社會(huì)公眾等),既可以遵循經(jīng)設(shè)計(jì)的使用規(guī)劃,也可按照自身的道德倫理認(rèn)知體系使用智能產(chǎn)品和接受智能服務(wù)。同時(shí),政府機(jī)構(gòu)、相關(guān)社會(huì)組織和學(xué)界也對(duì)人工智能技術(shù)應(yīng)用實(shí)踐中引發(fā)的風(fēng)險(xiǎn)進(jìn)行審視和反思??梢姡夹g(shù)產(chǎn)業(yè)化階段的倫理建構(gòu)具有雙重性,既有終端使用者、政府機(jī)構(gòu)、社會(huì)組織和學(xué)界對(duì)具有明確道德指向性的人工智能產(chǎn)品和服務(wù)的認(rèn)同和遵守,又有對(duì)人工智能技術(shù)基于特定道德理想與倫理追求的創(chuàng)造性建構(gòu)。在此過程中,以基于倫理嵌入的風(fēng)險(xiǎn)治理體系通過理論和實(shí)踐之間的正向迭代和多次循環(huán)得以持續(xù)改進(jìn)優(yōu)化,最終實(shí)現(xiàn)經(jīng)濟(jì)效益和風(fēng)險(xiǎn)防范的動(dòng)態(tài)平衡。
通過上述分析發(fā)現(xiàn),基于倫理嵌入的風(fēng)險(xiǎn)治理路徑可歸結(jié)為倫理設(shè)計(jì)、倫理評(píng)估、倫理調(diào)試和倫理建構(gòu),整體降低人工智能的風(fēng)險(xiǎn)等級(jí),使人工智能更加安全和可控。本文歸納基于倫理嵌入的人工智能風(fēng)險(xiǎn)治理具體路徑如圖2所示。
四、結(jié) 語
在經(jīng)歷曲折發(fā)展后,人工智能技術(shù)終于突破工業(yè)化紅線走向產(chǎn)業(yè)化應(yīng)用。然而其產(chǎn)生的數(shù)據(jù)安全、隱私保護(hù)、算法歧視等風(fēng)險(xiǎn)問題,引發(fā)了深刻的風(fēng)險(xiǎn)治理挑戰(zhàn)[9,11],傳統(tǒng)風(fēng)險(xiǎn)治理體系急需向以倫理嵌入為關(guān)鍵支撐的新興風(fēng)險(xiǎn)治理體系遷移。本
研究的價(jià)值體現(xiàn)在:聚焦人工智能風(fēng)險(xiǎn)治理體系與治理路徑,從倫理嵌入視角出發(fā),構(gòu)建了囊括治理原則、主體、模式、工具及方式等在內(nèi)的人工智能新型風(fēng)險(xiǎn)治理體系,并系統(tǒng)解析了基于倫理嵌入的風(fēng)險(xiǎn)治理路徑,從而為風(fēng)險(xiǎn)治理體系遷移提供了有益啟示。本文具體研究結(jié)論如下。
第一,基于倫理嵌入的新型風(fēng)險(xiǎn)治理體系更加適用于人工智能技術(shù)創(chuàng)新及治理。具體而言,基于倫理嵌入的風(fēng)險(xiǎn)治理摒棄了傳統(tǒng)以政府為絕對(duì)主導(dǎo)的弊端,而采取多主體參與的協(xié)同治理模式,強(qiáng)調(diào)風(fēng)險(xiǎn)治理的“垂直連通”和“水平協(xié)商”,并充分發(fā)揮倫理道德能動(dòng)作用,而非將訴諸立法作為治理重心,將治理觸角滲透到人工智能技術(shù)創(chuàng)新到規(guī)?;瘧?yīng)用的諸多階段,治理范圍更加寬泛,治理方式也更加靈活多樣,更加匹配人工智能風(fēng)險(xiǎn)治理需求。第二,基于倫理嵌入的風(fēng)險(xiǎn)治理不僅作為有效的工具手段,更是風(fēng)險(xiǎn)治理的價(jià)值追求和美好愿景,即堅(jiān)持人類利益至上、體現(xiàn)人文關(guān)懷,最大程度地實(shí)現(xiàn)治理的正義性及平等性,推動(dòng)負(fù)責(zé)任的研究和確保科技向善[30]。第三,基于倫理嵌入的風(fēng)險(xiǎn)治理路徑具有階段性特征。①在技術(shù)研發(fā)階段進(jìn)行倫理設(shè)計(jì),倫理學(xué)家和技術(shù)研發(fā)人員通過跨領(lǐng)域合作,通過“價(jià)值分析-框架內(nèi)嵌-場(chǎng)景結(jié)合-評(píng)估設(shè)計(jì)”,使價(jià)值導(dǎo)向和倫理道德規(guī)范內(nèi)化于人工智能技術(shù)結(jié)構(gòu)之中,并通過相應(yīng)的功能展現(xiàn)出來;②在技術(shù)測(cè)試階段進(jìn)行倫理評(píng)估,由社會(huì)組織(倫理委員會(huì)等)對(duì)風(fēng)險(xiǎn)進(jìn)行預(yù)測(cè)和識(shí)別、倫理追溯并達(dá)成共識(shí)性框架,以及同行評(píng)議對(duì)防范風(fēng)險(xiǎn)框架的及時(shí)修訂;③在技術(shù)轉(zhuǎn)移階段進(jìn)行倫理調(diào)試,通過以政府機(jī)構(gòu)參與的制度調(diào)試,以社會(huì)組織和社會(huì)公眾參與的輿論調(diào)試、以學(xué)界參與的教育調(diào)試共同推動(dòng)人工智能技術(shù)的責(zé)任式創(chuàng)新,實(shí)現(xiàn)人工智能產(chǎn)品及服務(wù)與社會(huì)價(jià)值系統(tǒng)的深度融合;④在技術(shù)產(chǎn)業(yè)化階段進(jìn)行倫理建構(gòu),政府機(jī)構(gòu)、企業(yè)、社會(huì)公眾、社會(huì)組織和學(xué)界共同參與,通過對(duì)具有明確道德指向性的人工智能產(chǎn)品及服務(wù)的認(rèn)可和基于特定道德理想與倫理追求的創(chuàng)造性建構(gòu),以及理論和實(shí)踐循環(huán)迭代持續(xù)優(yōu)化風(fēng)險(xiǎn)治理體系,實(shí)現(xiàn)經(jīng)濟(jì)效益和風(fēng)險(xiǎn)防范的平衡。
[參考文獻(xiàn)]
[1]TEECE DAVID J. Profiting from innovation in the digital economy: enabling technologies, standards, and licensing models in the wireless world[J]. Research policy,2018,47(8):1367-1387.
[2]張成崗.人工智能時(shí)代:技術(shù)發(fā)展、風(fēng)險(xiǎn)挑戰(zhàn)與秩序重構(gòu)[J].南京社會(huì)科學(xué),2018(5):42-52.
[3]李俠.基于大數(shù)據(jù)的算法殺熟現(xiàn)象的政策應(yīng)對(duì)措施[J].中國(guó)科技論壇,2019(1):3-5.
[4]JUTTA WEBER. Making worlds: epistemological, ontological and political dimensions of technoscience[J]. Poiesis & praxis, 2010, 7(1-2):17-36.
[5]EUROBAROMETER S. Social values, science and technology[R]. Eurobarometer Special Report,2005.
[6]ASHRAFIAN HUTAN. Artificial intelligence and robot responsibilities: innovating beyond rights[J]. Science & engineering ethics, 2015, 21(2):317-326.
[7]閆坤如.人工智能設(shè)計(jì)的風(fēng)險(xiǎn)及其規(guī)避[J].理論探索,2018(5):22-26.
[8]蔣潔.人工智能應(yīng)用的風(fēng)險(xiǎn)評(píng)估與應(yīng)對(duì)策略[J].圖書與情報(bào),2017(6):117-123.
[9]張富利.全球風(fēng)險(xiǎn)社會(huì)下人工智能的治理之道——復(fù)雜性范式與法律應(yīng)對(duì)[J].學(xué)術(shù)論壇,2019,42(3):68-80.
[10]BENKLER YOCHAI. The wealth of networks: how social production transforms markets and freedom[M]. Yale University Press, 2006.
[11]賈開,蔣余浩.人工智能治理的三個(gè)基本問題:技術(shù)邏輯、風(fēng)險(xiǎn)挑戰(zhàn)與公共政策選擇[J].中國(guó)行政管理,2017(10):40-45.
[12]MEJLGAARD N, BLOCH C. Science in society in Europe[J]. Science and public, policy, 2012,39(6):695-700.
[13]CSONKA A L. Responsible science in societies[J]. Responsible innovation, 2014(57):12-35.
[14]THE EUROPEAN COUNCIL, THE COUNCIL, et al. Artificial intelligence for Europe [R]. European Commission, 2018.
[15]HESSEN J. Computer and communication ethics:encyclopedia of applied ethics[M]. Academic Press, 2012.
[16]程現(xiàn)昆.科技倫理研究論綱[M].北京:北京師范大學(xué)出版社,2011.
[17]梅亮,陳勁,吳欣桐.責(zé)任式創(chuàng)新范式下的新興技術(shù)創(chuàng)新治理解析——以人工智能為例[J].技術(shù)經(jīng)濟(jì),2018,37(1):1-7,43.
[18]樊春良,張新慶,陳琦.關(guān)于我國(guó)生命科學(xué)技術(shù)倫理治理機(jī)制的探討[J].中國(guó)軟科學(xué),2008(8):58-65.
[19]王立,胡平.新時(shí)期下的倫理治理理念、內(nèi)涵及路徑分析[J].社會(huì)科學(xué)研究,2017(6):118-123.
[20]魯傳穎,約翰·馬勒里.體制復(fù)合體理論視角下的人工智能全球治理進(jìn)程[J].國(guó)際觀察,2018(4):67-83.
[21]STILGOE J, OWEN R, MACNAGHTEN P. Developing a framework for responsible innovation[J]. Research policy, 2013, 42(9):1568-1580.
[22]梅亮,陳勁,李福嘉.責(zé)任式創(chuàng)新:“內(nèi)涵-理論-方法”的整合框架[J].科學(xué)學(xué)研究,2018,36(3):521-530.
[23]王鈺,程海東.人工智能技術(shù)倫理治理內(nèi)在路徑解析[J].自然辯證法通訊,2019,41(8):87-93.
[24]JEROEN V D H, MANDERSHUITS N. Valuesensitive design[J]. Interactions, 2009, 3(6):16-23.
[25]LOCKTON D, HARRISON D, STANTON N A. The design with intent method: a design tool for influencing user behavior [J]. Applied ergonomics, 2010, 41(3):382-392.
[26]VERBEEK P. Materializing moralitydesign ethics and technological mediation[J]. Technology and human values, 2006, 31(3):361-380.
[27]梅亮,陳勁.責(zé)任式創(chuàng)新:源起,歸因解析與理論框架[J]. 管理世界, 2015(8):39-57.
[28]VAN DEN HOVEN J. Options for strengthening responsible research and innovation: report of the expert group on the state of art in Europe on responsible research and innovation[R]. Publications office of the European Union, 2013.
[29]JONAS H. The imperative of responsibility: in search of an ethics for the technological age [M]. University of Chicago Press, 1984.
[30]張成崗.人工智能的社會(huì)治理:構(gòu)建公眾從 “被負(fù)責(zé)任”到 “負(fù)責(zé)任”的 理論通道[J].中國(guó)科技論壇,2019(9):1-4.
Study on Avoiding New Risks of Artificial Intelligence and Analysis
on the Management Systems of AI on the Basis of Ethics
Sun? Liwen,? Li? Shaoshuai
(School of Economics and Management,Hebei University of Technology, Tianjin 300401,China)
Abstract: Artificial intelligence is fulfilling its enormous potential, generating economic value, and even bringing a wide range of industrial evolution. At the same time, it also creates many risks. The existing management system cannot cope with the uncertainty and the endless possibilities of the AI, so it cannot meet the needs of minimizing the risks. Whats more, managing the new risks triggered by the application of artificial intelligence technology goes beyond the scope of the existing management system. So it is high time that the traditional riskmanagement system shift to a new way of management on the basis of ethics. The authors propose that the new management systems of AI application risks should be established on the basis of the ethics; the traditional system which relied too much on the government should be replaced by a collaborative management system participating by various parties; it should be emphasized that the participants should cooperate within one field as well as in transfield ways; professional ethics should be put into practice not only in technological innovation process but also in the mass application of the AI, therefore the ethics can be used in broader range and in a more flexible way. In this way, the new management system can be formed where ethics is used in the four different stages of AI development, such as the research and development, testing, technological conversion, and technological industrialization. The paper can help reduce the risk level of AI and provide theoretical guidance and enlightenment for developing responsible artificial intelligence.
Key words: risk management; ethics; responsible innovation; technology for good;
artificial intelligence
(責(zé)任編輯:李 萌)