劉露 ,楊曉雷 ,高文
(1.北京大學(xué)法學(xué)院,北京 100871;2.北京大學(xué)法律與人工智能研究中心,北京 100871;3.北京大學(xué)計算機(jī)科學(xué)技術(shù)系,北京 100871)
人工智能(AI)作為新興產(chǎn)業(yè)的支撐技術(shù),發(fā)展具有高度的不確定性;產(chǎn)業(yè)界在強(qiáng)調(diào)“技術(shù)先行”的同時,往往忽略了蘊藏的倫理風(fēng)險 [1]。在推進(jìn)新型基礎(chǔ)設(shè)施建設(shè)的背景下,人工智能技術(shù)帶來了跨行業(yè)、跨領(lǐng)域的連貫性與凝聚力;這種革命性的變化在放大產(chǎn)業(yè)優(yōu)勢的同時,也會同步放大技術(shù)應(yīng)用帶來的社會安全危機(jī)。目前人工智能的倫理風(fēng)險已經(jīng)逐步顯現(xiàn),如互聯(lián)網(wǎng)平臺對大量用戶信息的濫用以及過度商業(yè)化加工,伴生了不同程度的社會信任危機(jī);人工智能技術(shù)可以輔助人類從一般的智能活動中擺脫出來,但就業(yè)替代效應(yīng)可能造成勞動力市場的結(jié)構(gòu)不平衡;一系列交通事故爭議,凸顯了基于人工智能的無人駕駛汽車推向市場的倫理門檻。
文獻(xiàn) [2]對各倫理體系在人工智能場景中的發(fā)揮作用進(jìn)行了分析對比,論證了人工智能倫理指南的有效性與可行性。文獻(xiàn) [3]認(rèn)為,人工智能風(fēng)險是從利益驅(qū)動到技術(shù)發(fā)展、在場域和頻度方面均逐步減少的過程。文獻(xiàn) [4]以自動駕駛為例,提出了保障公共安全、鼓勵科技創(chuàng)新發(fā)展的統(tǒng)一治理原則。這些研究多從倫理學(xué)、市場應(yīng)用角度對人工智能應(yīng)用進(jìn)行剖析。與之對應(yīng),本文重點在于面對倫理治理困境,提出將法律、政策與倫理監(jiān)管進(jìn)行結(jié)合的多維度建議,從科研、行業(yè)、公眾等多個視角開展綜合性研判,以期為健全國家工程科技倫理治理體系提供理論參考。
人工智能技術(shù)進(jìn)步極大促進(jìn)了社會發(fā)展,但也導(dǎo)致社會關(guān)系日益復(fù)雜。以電氣與電子工程師協(xié)會(IEEE)發(fā)布的《人工智能設(shè)計的倫理準(zhǔn)則》為代表,諸多信息領(lǐng)域倫理監(jiān)管建議文件都著重提及了機(jī)器權(quán)利與人類價值觀、人權(quán)的關(guān)系;一般認(rèn)為,應(yīng)保證人工智能系統(tǒng)的設(shè)計與運作符合人類的尊嚴(yán)、權(quán)利、自由、文化 [5],不得侵犯人權(quán)。
在機(jī)器“權(quán)利”“義務(wù)”方面,2016年歐洲議會法律事務(wù)委員會(JURI)發(fā)布《歐盟機(jī)器人民事法律規(guī)則》,主張賦予高水平智能機(jī)器人以電子人主體資格,這與自然人是同等主體地位;2017年沙特阿拉伯王國授予機(jī)器人以公民資格。國際社會已在探討賦予機(jī)器部分人格的權(quán)利,但在主張機(jī)器權(quán)利的同時,提出更要對其加以義務(wù)限制(包含法律、道德保障)。
在控制權(quán)歸屬方面,“無人駕駛”的倫理困境成為人類與機(jī)器操控權(quán)分配的典型代表。“輔助駕駛系統(tǒng)”能力的夸大、人類對駕駛控制權(quán)的放棄,共同導(dǎo)致此類自動駕駛事故不斷發(fā)生。2019年出現(xiàn)的民航飛機(jī)自動駕駛系統(tǒng)存在錯誤現(xiàn)象(飛行控制計算機(jī)出現(xiàn)“數(shù)據(jù)錯誤”),導(dǎo)致飛行員無法奪回飛行控制權(quán)而最終釀成事故。
在勞動力結(jié)構(gòu)變化方面,伴隨數(shù)字化帶來的產(chǎn)業(yè)結(jié)構(gòu)升級,自動化機(jī)器代替了重復(fù)勞動,智能化設(shè)備可以輔助相關(guān)決策;雖然長期來看數(shù)字基礎(chǔ)設(shè)施建設(shè)有利于高素質(zhì)人才培養(yǎng)、創(chuàng)造新增就業(yè)機(jī)會,但導(dǎo)致越來越多的技能落伍人員面臨勞動力市場的重新選擇,結(jié)構(gòu)性就業(yè)矛盾難以避免。
一是“虛擬現(xiàn)實”并非現(xiàn)實。數(shù)字基礎(chǔ)設(shè)施建設(shè)中的第五代移動通信(5G)+虛擬現(xiàn)實(VR)/增強(qiáng)現(xiàn)實(AR)/擴(kuò)展現(xiàn)實(XR)場景應(yīng)用,在醫(yī)學(xué)領(lǐng)域、建筑設(shè)計等方面帶來體驗革命,人類可在“虛擬”“現(xiàn)實”之間無縫穿梭?!八固垢1O(jiān)獄實驗”“米爾格倫實驗”等大量心理學(xué)實驗證實,VR可能對人類的行為產(chǎn)生影響,且這種影響會延續(xù)到現(xiàn)實世界中。在虛擬社會“相逢不相識”的情況下,道德主體會出現(xiàn)社會感淡漠現(xiàn)象,容易沖破道德底線,發(fā)生“逾越”行為;在可能造成網(wǎng)絡(luò)暴力、惡意信息大規(guī)模傳播的同時,嚴(yán)重沖擊社會誠信體系。
二是聲音偽造與人臉變造。人工智能算法偽造的個人筆跡、聲音、動畫、視頻具有極高仿真度,使得日常社會活動中的合同、契約、證書、法律文本的防偽鑒定面臨困難,對社會秩序各個層面都構(gòu)成潛在的嚴(yán)重威脅。宣揚錯誤政治觀點的政客偽造視頻、對抗網(wǎng)絡(luò)生成的“虛擬特工”、基于通用語言模型GPT-3的“最強(qiáng)假新聞生成器”等各種智能造假手段,干擾了社會正常秩序,構(gòu)成巨大的輿論壓力。
三是智能家居設(shè)備的安全隱患。家庭智能設(shè)備涵蓋廣泛的應(yīng)用場景,為居民生活帶來極大便利;也要注意到,規(guī)模數(shù)量巨大、可以被遠(yuǎn)程控制的智能家電在物聯(lián)網(wǎng)中多屬于安全性偏低、易受攻擊的設(shè)備群體。智能家居設(shè)備的認(rèn)證機(jī)制、平臺數(shù)據(jù)保護(hù)系統(tǒng)、網(wǎng)絡(luò)端口數(shù)據(jù)泄露等,都可能是個人信息隱私保護(hù)的薄弱環(huán)節(jié)。智能攝像頭、智能音箱、兒童監(jiān)視器等遭到黑客入侵的案件已有發(fā)生,為倫理安全、社會安全帶來了巨大的負(fù)擔(dān)。
數(shù)據(jù)安全已成為全球性問題。數(shù)據(jù)安全性喪失,不僅給國家安全帶來風(fēng)險,也會造成企業(yè)的直接或間接經(jīng)濟(jì)損失,威脅個人用戶的信息與隱私安全。“去中心化”帶來大量信息的網(wǎng)絡(luò)空間遷移,數(shù)據(jù)的流動性、可復(fù)制性使得實施相應(yīng)數(shù)據(jù)監(jiān)管非常困難。具有強(qiáng)針對性和破壞性的外部網(wǎng)絡(luò)攻擊、企業(yè)內(nèi)部數(shù)據(jù)服務(wù)器保護(hù)措施不力、個人隱私保護(hù)措施不合規(guī)等,都會造成不可挽回的數(shù)據(jù)安全損失。還需注意的是,隨著跨行業(yè)、融合領(lǐng)域信息工程的實施,需要保護(hù)的基礎(chǔ)設(shè)施將大規(guī)模增加,數(shù)據(jù)安全挑戰(zhàn)從高新產(chǎn)業(yè)擴(kuò)展到了眾多橫向產(chǎn)業(yè);網(wǎng)絡(luò)攻擊從數(shù)字空間延伸到物理空間,“小概率事件引發(fā)大問題”的隱患依然存在 [6]。
基于大數(shù)據(jù)分析的智能化商業(yè)推薦系統(tǒng),帶來了全新的營銷模式,營銷效率呈現(xiàn)指數(shù)倍增效應(yīng)。在巨大的利益誘惑面前,包含個人隱私和敏感信息的數(shù)據(jù)被單純地視為牟利的工具、隨意轉(zhuǎn)賣的商品,個人隱私權(quán)因合理保護(hù)不足而受到侵犯。目前,非法搜集用戶信息形成了灰色利益鏈,隱私泄露更是上升為國際政治問題,如“棱鏡門”事件是典型的“第三只眼”代表。
一是算法并非客觀。智能算法的設(shè)計目的、數(shù)據(jù)運用、結(jié)果表征等,都是開發(fā)者、設(shè)計者的主觀價值選擇,人員持有的偏見通常會嵌入到智能算法之中 [7];智能算法又可能將這種歧視性傾向進(jìn)一步放大或固化。例如在美國,國家層面及各州都將存在實質(zhì)性歧視影響的算法納入法律調(diào)整的范圍,對歧視性算法進(jìn)行司法審查。
二是算法的透明性?;谥悄芩惴ǖ娜斯ぶ悄軟Q策與傳統(tǒng)的決策系統(tǒng)不同,公眾無法理解復(fù)雜算法的機(jī)制原理和框架模型;針對輸入數(shù)據(jù),計算模型自行完成智能演算過程,甚至算法設(shè)計者也無法清晰解釋機(jī)器的具體操作過程?!昂谙洹眴栴}由此出現(xiàn),自主決策系統(tǒng)結(jié)論的可解釋性成為算法利用方面的難題。
三是“數(shù)字鴻溝”和社會分化現(xiàn)象加劇。進(jìn)入社會化媒體時代后,在算法推薦系統(tǒng)的不利影響下,多通道的傳播形態(tài)反而不利于信息的自由傳播。新媒體在傳播過程中會出現(xiàn)“回音室效應(yīng)”“信息繭房”“網(wǎng)絡(luò)巴爾干化”等有意識或無意識形成的不良現(xiàn)象 [8],導(dǎo)致人們沉浸在自己偏好的信息世界中,可能造成嚴(yán)重的公眾意識形態(tài)分化、網(wǎng)絡(luò)群體極化現(xiàn)象。
一是人工智能時代的數(shù)據(jù)確權(quán)。數(shù)據(jù)的所有權(quán)、知情權(quán)、采集權(quán)、保存權(quán)、使用權(quán)等成為每個公民的新權(quán)益。從數(shù)據(jù)生命周期角度來看,數(shù)據(jù)的生產(chǎn)、采集、傳輸、存儲、加工、銷毀,數(shù)據(jù)的處理主體隨著信息產(chǎn)業(yè)鏈的細(xì)分而不斷分化,數(shù)據(jù)內(nèi)容在整個信息鏈條上呈現(xiàn)高度耦合特征。數(shù)據(jù)的權(quán)益界限較為模糊,在公開、公平、公正的原則下,賦予數(shù)據(jù)主體的自主權(quán)利、解決主體間的權(quán)屬爭議成為新的倫理問題。
二是智能設(shè)備的能力認(rèn)證。傳統(tǒng)產(chǎn)業(yè)尤其是交通、城市建設(shè)、醫(yī)療等基礎(chǔ)行業(yè)領(lǐng)域,在從“自動化”向“數(shù)字化”“智能化”發(fā)展過程中,智能信息系統(tǒng)的倫理漏洞會給整個行業(yè)甚至社會帶來巨大的安全隱患。例如,自動駕駛、法律決策、醫(yī)療診斷等特定領(lǐng)域,面臨智能機(jī)器在執(zhí)行操作時需要具備駕駛執(zhí)照、律師資格、行醫(yī)資格等行業(yè)相關(guān)部門的許可,具備相關(guān)職業(yè)道德水平以保障人類權(quán)益等迫切問題。
三是智能設(shè)備的法律主體資格。在現(xiàn)行民事法律體系之下,智能設(shè)備作為權(quán)利客體、法定支配權(quán)的對象,尚不具備成為法律主體的條件。服務(wù)的責(zé)任歸屬需要考慮特定場合中對相互沖突的利益進(jìn)行道德判斷和取舍,如人工智能創(chuàng)作成果的知識產(chǎn)權(quán)歸屬 [9]、無人駕駛事故的民事法律責(zé)任分配等現(xiàn)實問題,都需要盡快作出明確的規(guī)定。
人工智能技術(shù)倫理問題帶來的國際安全和治理問題是雙重的:一方面是技術(shù)自身的風(fēng)險,如算法歧視、對抗樣本攻擊等技術(shù)能力缺陷或針對技術(shù)的攻擊;另一方面是智能技術(shù)與原有社會問題相互交織引發(fā)的全球危機(jī),如大數(shù)據(jù)跨國犯罪、致命性自主武器應(yīng)用等。國際組織、諸多國家都投入了較多的研究資源,積極把控人工智能技術(shù)產(chǎn)業(yè)變革對社會各方面的影響,力爭作出明智的政策選擇 [10]。
不同國家和地區(qū)的人工智能產(chǎn)業(yè)發(fā)展路徑不盡相同,對相關(guān)問題的關(guān)注點也有所區(qū)別。①美國借助倫理倡議,注重技術(shù)發(fā)展和國家安全;《維持美國人工智能領(lǐng)導(dǎo)地位行政令》強(qiáng)調(diào)提升社會對倫理問題的關(guān)注程度,要求在保護(hù)公民自由、隱私、基礎(chǔ)價值觀的基礎(chǔ)上,充分挖掘人工智能技術(shù)的潛能;美國國家科學(xué)技術(shù)委員會發(fā)布《國家人工智能研究與發(fā)展戰(zhàn)略計劃》,要求人工智能系統(tǒng)必須值得信賴,應(yīng)當(dāng)采取維護(hù)公平、透明度、問責(zé)制等舉措,設(shè)計符合倫理道德的人工智能體系。②歐盟委員會提出“信任生態(tài)系統(tǒng)”概念;下設(shè)的人工智能高級專家組發(fā)布《可信人工智能倫理指南》,提出四大基本倫理原則、7項基礎(chǔ)要求、可信人工智能評估清單,期望確保數(shù)字經(jīng)濟(jì)健康穩(wěn)定發(fā)展、在規(guī)范層面占據(jù)領(lǐng)先位置;歐洲多國政府正在通過雙邊或多邊協(xié)議的形式,加強(qiáng)人工智能技術(shù)研發(fā)合作、倫理政策議題對話,如25國2018年簽署的《人工智能合作宣言》。
目前,美國已與日本、韓國、德國、波蘭、英國、意大利等國共同建立了多邊論壇,形成了一些有關(guān)人工智能的軟法性、自治性規(guī)范。盡管這些規(guī)范當(dāng)前并沒有強(qiáng)制性法律效力,但其中的許多原則、規(guī)則在未來條件成熟時必然成為監(jiān)管的重點方向,極有可能成為具有強(qiáng)制性的法律規(guī)定,甚至成為未來人工智能領(lǐng)域的國際規(guī)則。對此應(yīng)給予足夠的關(guān)注。
2019年7月,《國家科技倫理委員會組建方案》獲得審議通過,開啟了我國科技倫理治理制度化的新進(jìn)程。這一政策文件指出,科技倫理是科技活動必須遵守的價值準(zhǔn)則;組建國家科技倫理委員會,推動構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系。2019年6月,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理框架和行動指南;突出發(fā)展負(fù)責(zé)任的人工智能這一主題,強(qiáng)調(diào)和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等8條原則。
相關(guān)科研單位、企業(yè)也在不斷推進(jìn)人工智能倫理監(jiān)管與治理的研究。2019年5月,北京智源人工智能研究院聯(lián)合北京大學(xué),清華大學(xué),中國科學(xué)院自動化研究所、計算技術(shù)研究所等單位,共同發(fā)布了《人工智能北京共識》,提出人工智能研發(fā)、使用、治理應(yīng)遵循的15條原則。2019年7月,騰訊研究院發(fā)布《智能時代的技術(shù)倫理觀——重塑數(shù)字社會的信任》研究報告,包含技術(shù)信任、個體幸福、可持續(xù)踐行“科技向善”三方面內(nèi)容。
整體來看,我國長期支持信息技術(shù)領(lǐng)域的科研和產(chǎn)業(yè)發(fā)展,對新興技術(shù)秉持積極關(guān)注、促進(jìn)發(fā)展的態(tài)度;在國家層面積極發(fā)揮體制優(yōu)勢,及時出臺多項促進(jìn)數(shù)字基礎(chǔ)設(shè)施安全、網(wǎng)絡(luò)安全、人工智能“產(chǎn)學(xué)研”協(xié)同發(fā)展的政策法規(guī)。也要注意到,已有政策偏重宏觀層面的產(chǎn)業(yè)促進(jìn),對于具體專業(yè)技術(shù)方向的發(fā)展指導(dǎo)仍顯不足,亟需加強(qiáng)國家指導(dǎo)性政策、地方資源保障性政策與產(chǎn)業(yè)技術(shù)標(biāo)準(zhǔn)的有機(jī)結(jié)合。國家信息領(lǐng)域工程倫理的研究和監(jiān)管仍處于有待深化發(fā)展的過渡階段。
技術(shù)研發(fā)是倫理治理的第一道防線,在研發(fā)階段需要做好治理策略的融入,避免算法、程序上的原始缺陷,為技術(shù)應(yīng)用示范與推廣打好堅實的倫理基礎(chǔ)。技術(shù)倫理研究不能僅滿足于對現(xiàn)行技術(shù)和社會影響進(jìn)行評價或批評,而是要在技術(shù)研發(fā)過程中發(fā)揮塑造作用,在技術(shù)演進(jìn)方面更多地融入倫理價值,盡早介入科技對社會的建構(gòu)。隨著人工智能技術(shù)與醫(yī)療、汽車、金融、教育等諸多應(yīng)用領(lǐng)域的深入結(jié)合,傳統(tǒng)的社會倫理學(xué)方法已不再匹配人工智能技術(shù)的發(fā)展需求,人工智能倫理研究隊伍呈現(xiàn)多元化、跨學(xué)科特征;法學(xué)、社會學(xué)、哲學(xué)、倫理學(xué)等專業(yè)領(lǐng)域的研究者共同組成了具有復(fù)合特征的倫理學(xué)研究群體,同時計算機(jī)和人工智能專家、生命科學(xué)家、社會公眾也參與了對新興技術(shù)的反思。
建立企業(yè)、行業(yè)的自律組織,出臺行業(yè)自律規(guī)范,是保證相關(guān)產(chǎn)業(yè)健康發(fā)展的必要條件。數(shù)字化企業(yè)是推動人工智能技術(shù)成果開展社會轉(zhuǎn)化的重要驅(qū)動力,在技術(shù)工程的開發(fā)、設(shè)計、應(yīng)用方面均應(yīng)恪守正確的價值觀、科技倫理基本原則。國內(nèi)有企業(yè)提出,要堅定把握人工智能應(yīng)用初衷,將安全、倫理、廣泛的社會關(guān)懷融入到發(fā)展過程。一些國際性企業(yè)在內(nèi)部成立了人工智能倫理道德委員會,提出了發(fā)展人工智能的自有準(zhǔn)則;成立獨立的全球性咨詢委員會,旨在提供與人工智能和其他新興技術(shù)有關(guān)的倫理問題建議,然而相關(guān)機(jī)構(gòu)因人員設(shè)置不合理而引發(fā)了公眾異議。這表明,僅有重視是不夠的,需要在倫理機(jī)構(gòu)設(shè)置、人員安排、中立性保證、員工認(rèn)可度等方面進(jìn)行持續(xù)努力,也應(yīng)在政府引導(dǎo)下兼顧市場自治和行業(yè)自律。
倫理規(guī)范是軟措施,本身并不以國家強(qiáng)制力作為后盾。需要綜合運用社會輿論、政策引導(dǎo)、法律規(guī)范等多種力量,引導(dǎo)人工智能技術(shù)的安全有序發(fā)展。動態(tài)評估和響應(yīng)技術(shù)發(fā)展形勢,開展跨學(xué)科的調(diào)查、各利益相關(guān)方的對話與公共討論,據(jù)此整體性預(yù)估信息產(chǎn)業(yè)對國家發(fā)展的影響并積極制定應(yīng)對策略。人工智能所開啟的技術(shù)革新被普遍視為“第四次產(chǎn)業(yè)革命”,我國宜積極跟進(jìn)國際發(fā)展態(tài)勢,在這一決勝未來的關(guān)鍵性技術(shù)競爭中,既要保持國內(nèi)企業(yè)、研究機(jī)構(gòu)在技術(shù)研發(fā)與創(chuàng)新方面的優(yōu)勢地位,也要積極參與國際規(guī)則制定過程并發(fā)揮更大的影響力,為產(chǎn)業(yè)健康發(fā)展、參與國際合作與競爭謀取更大的機(jī)遇。
“科技向善”才能建立公眾的使用信任。然而近年來隱私泄露、算法歧視、“信息繭房”等有關(guān)人工智能應(yīng)用的負(fù)面影響,使得公眾對數(shù)據(jù)使用、人工智能技術(shù)的信任度降低;數(shù)字經(jīng)濟(jì)浪潮下的“數(shù)字鴻溝”導(dǎo)致不同社會群體之間形成新的“權(quán)利溝”“知識溝”,反而會阻礙社會能力的全面提升。應(yīng)正確引導(dǎo)公眾數(shù)據(jù)的使用方式,提倡技術(shù)使用的自由、平等、誠信、自律,同步支持公眾適應(yīng)數(shù)字時代帶來的環(huán)境挑戰(zhàn)、勞動力市場結(jié)構(gòu)變化 [11]。同時,創(chuàng)造開放、公平的話語空間,適應(yīng)公眾對技術(shù)參與度不斷提升的客觀態(tài)勢;借助多學(xué)科的社會科學(xué)經(jīng)驗描述方法,深入了解公眾對技術(shù)的價值期待。從公眾的角度確定“什么是可接受的技術(shù)”“技術(shù)可行性的邊界在哪里”,從而為科技政策制定提供倫理基礎(chǔ)與道德辯護(hù) [12]。
人工智能領(lǐng)域工程倫理的研究,與人工智能技術(shù)應(yīng)用導(dǎo)致的社會生活沖突及失序是緊密聯(lián)系的。按照研究范圍的逐步延伸可以將相應(yīng)倫理研究劃分為3 個階段。
第一階段,對技術(shù)自身倫理的研究。以慎重的態(tài)度使用智能技術(shù),多方面考慮人工智能技術(shù)使用的社會后果,是對人工智能技術(shù)倫理的最基本要求。算法“黑箱”、算法異化等由于客觀技術(shù)缺陷導(dǎo)致的倫理問題,需要在技術(shù)層進(jìn)行修正和完善。對技術(shù)倫理自身進(jìn)行研究,是將“負(fù)責(zé)任的創(chuàng)新”落實到具體技術(shù)開發(fā)層面的關(guān)鍵內(nèi)容,也是人工智能倫理最為基礎(chǔ)的研究部分,還是科技倫理參與人工智能技術(shù)進(jìn)步塑造的核心環(huán)節(jié)。
第二階段,對網(wǎng)絡(luò)空間倫理的研究?!盁o處是邊緣、處處是中心”,互聯(lián)網(wǎng)帶來了信息傳播方式、人際社會交往的全面變革;人工智能技術(shù)應(yīng)用的不平衡,體現(xiàn)在不同國家、地域、族群;在數(shù)字時代,主張個體性的同時,倫理關(guān)系日趨復(fù)雜。建立虛擬空間中的新道德關(guān)系、基于信息網(wǎng)絡(luò)空間的倫理秩序,實現(xiàn)對作為現(xiàn)實社會延伸的網(wǎng)絡(luò)社會全面覆蓋。
第三階段,對人工智能社會倫理的整體研究。人工智能倫理研究范圍已不限于技術(shù)和網(wǎng)絡(luò),更要偏重在整個經(jīng)濟(jì)社會發(fā)展背景下的信息社會倫理問題。融合計算機(jī)科學(xué)、傳播學(xué)、社會學(xué)、哲學(xué)等學(xué)科形成新的工程應(yīng)用倫理體系,克服新技術(shù)濫用帶來社會信任危機(jī)、數(shù)字貨幣的金融沖擊、致命性自主武器應(yīng)用等人工智能技術(shù)的倫理問題。
1.建立多維度監(jiān)管框架
面對人工智能技術(shù)革命帶來的倫理挑戰(zhàn),倫理監(jiān)管體系的制定既要以及時、準(zhǔn)確、全面的信息作為支撐,也要實現(xiàn)倫理、政策、法律的有效合作以重新調(diào)整社會道德秩序。倫理是價值選擇的基礎(chǔ),應(yīng)倫理先行,就“可持續(xù)發(fā)展”達(dá)成共識——滿足當(dāng)代人的需求而不影響后代人滿足需求的能力 [13]。政策是兼顧靈活性、強(qiáng)制力的國家治理手段,可運用政策來調(diào)控人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展進(jìn)程,促進(jìn)在安全、效率之間達(dá)成適度平衡。法律是倫理底線、根本性治理手段,應(yīng)提供充分的法律保障,堅持前期引導(dǎo)、中期約束、后期干預(yù)的立法邏輯。
2.嘗試制定示范性政策法規(guī)
人工智能技術(shù)領(lǐng)域相關(guān)制度和政策的規(guī)約,應(yīng)突破技術(shù)概念框架,聚焦現(xiàn)實社會的倫理問題,確保具體技術(shù)應(yīng)用的可行性和公眾的可接受性。人工智能技術(shù)應(yīng)用領(lǐng)域跨度大,在制定新的法律法規(guī)之前,需要評估現(xiàn)有的政策工具并謹(jǐn)慎使用。過度嚴(yán)格的法律法規(guī)和管理政策,可能會限制創(chuàng)業(yè)公司、小型企業(yè)的技術(shù)創(chuàng)造積極性和推廣使用動力。針對當(dāng)前較為明確和成熟的技術(shù)應(yīng)用場景,可以借鑒國際通行的“監(jiān)管沙箱”制度;對于新興產(chǎn)品或服務(wù),在確保風(fēng)險可控的前提下,簡化市場準(zhǔn)入、標(biāo)準(zhǔn)和程序的方式,提供包容性的試驗和示范平臺,為相關(guān)技術(shù)和產(chǎn)業(yè)提供搶占先發(fā)優(yōu)勢的條件。
3.提供足夠的社會言論空間
建議保持公平開放的言論空間,讓行業(yè)專家、技術(shù)人員、產(chǎn)業(yè)投資者、普通民眾均有機(jī)會表達(dá)意見,形成倫理方面的充分社會共識,避免倫理規(guī)范形成過程中對風(fēng)險的錯誤估計。在共同的社會價值取向之下,建立科技倫理的理論、規(guī)范、監(jiān)管體系,對原有的技術(shù)體系、治理體系作出必要改變,以與人工智能技術(shù)風(fēng)險監(jiān)管責(zé)任相匹配?;诂F(xiàn)有的體制優(yōu)勢,開展跨學(xué)科調(diào)查、各利益相關(guān)方的對話與公共討論,針對人工智能技術(shù)帶來的影響開展動態(tài)評估和政策調(diào)整。
4.完善科技倫理監(jiān)管組織機(jī)構(gòu)
建議逐級成立科技倫理委員會,集合人工智能相關(guān)的技術(shù)、行業(yè)產(chǎn)業(yè)、法律、社會團(tuán)體等不同領(lǐng)域代表,盡可能地納入社會各個階層與群體的利益及要求,在科技倫理委員會的決策程序中予以反映。國家科技倫理委員會站位于國家高度,全面把握科學(xué)前沿與新興技術(shù)的發(fā)展?fàn)顟B(tài)及深遠(yuǎn)后果,以其權(quán)威性、嚴(yán)正性對科技活動加以統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào) [14,15];行業(yè)工程倫理委員會由行業(yè)協(xié)會或科技企業(yè)組織,對內(nèi)體現(xiàn)企業(yè)之間的平等協(xié)商,對外展示行業(yè)規(guī)范和良好風(fēng)貌;科研機(jī)構(gòu)學(xué)術(shù)倫理委員會應(yīng)加強(qiáng)培養(yǎng)科研人員、教師學(xué)生的倫理意識,促使相關(guān)人員充分理解科技倫理的價值、歷史、邏輯、規(guī)范 [16]。
5.參與人工智能國際規(guī)則制定
當(dāng)前,有關(guān)人工智能治理的規(guī)律已經(jīng)開始在發(fā)達(dá)國家形成擴(kuò)散態(tài)勢,推動了人工智能治理規(guī)則的全球共享。我國已有一些互聯(lián)網(wǎng)企業(yè)加入了人工智能合作伙伴關(guān)系(P人工智能),將與全球行業(yè)同道一起推進(jìn)人工智能實踐、優(yōu)化人工智能對人類的影響。在后續(xù)人工智能治理研究過程中,我國應(yīng)持續(xù)關(guān)注國際合作與競爭的趨勢,通過開放協(xié)作來提升產(chǎn)業(yè)的國際競爭力;積極參與國際規(guī)則制定過程并發(fā)揮爭取更大的影響力,為我國產(chǎn)業(yè)謀取更大的發(fā)展機(jī)會 [16]。