杜嚴勇
隨著人工智能科技與產(chǎn)業(yè)的快速發(fā)展,人工智能引發(fā)的倫理問題日益突出,引起了國際組織、各國政府、學(xué)術(shù)界及社會公眾的高度關(guān)注。在世界各國競相加大人工智能科研投入的歷史背景中,的確應(yīng)該加強對人工智能的倫理反思。只有從倫理、法律等角度對人工智能科技進行合理的引導(dǎo)與規(guī)范,才能使其真正給人類帶來福祉而不是威脅與傷害,其重要性并不亞于人工智能科技本身的發(fā)展。
人工智能倫理風(fēng)險及其防范研究既有來自人工智能、機器人學(xué)、計算機科學(xué)、認知科學(xué)等領(lǐng)域的科學(xué)家與工程師,也有來自未來學(xué)、科技哲學(xué)、科技倫理、公共管理、法學(xué)、社會學(xué)等領(lǐng)域的人文學(xué)者,研究人員的學(xué)術(shù)背景、研究目標與思維方式等方面的差異使得相應(yīng)的研究側(cè)重點及學(xué)術(shù)觀點存在一定差別。因此,本文嘗試就人工智能倫理風(fēng)險防范研究的“現(xiàn)狀與前景、戰(zhàn)略目標聚焦與當前主要任務(wù)”等若干基礎(chǔ)性問題做出初步探討,以期引起更多的討論,從而在一定程度上凝聚共識、形成合力,切實推動人工智能倫理風(fēng)險防范研究走向深入。
人工智能倫理問題很早就得到學(xué)術(shù)界的關(guān)注。圖靈(Alan Turing)于20 世紀50 年代曾多次論及人們對機器智能的發(fā)展可能產(chǎn)生的焦慮與擔憂。①Jack Copeland,The Essential Turing:Seminal Writings in Computing,Logic,Philosophy,Artificial Intelligence,and Artificial Life, Oxford:Oxford University Press,2004,p.485.20 世紀60 年代,美國哲學(xué)家普特南(Hilary Putnam)撰文討論人類應(yīng)該如何看待機器人的生命與權(quán)利等問題。①Hilary Putnam,Robots:Machines or Artificially Created Life?,The Journal of Philosophy,1964,Vol.61,No.21,pp.668-691.20 世紀80 年代,就有美國學(xué)者開始較為全面地討論人工智能倫理問題,包括建構(gòu)人工智能是否合乎倫理,人工智能是否擁有權(quán)利、情感,是否可以進行道德判斷等問題,②Michael LaChat,Artificial Intelligence and Ethics:An Exercise in the Moral Imagination,The AI Magazine,1986,Vol.7,No.2,pp.70-79.等等。但總地來說為數(shù)較少,也沒有產(chǎn)生較大的影響。
人工智能倫理引起西方學(xué)術(shù)界的普遍關(guān)注是從2004 年開始的,其標志性事件是于2004 年1 月在意大利圣雷莫召開的第一屆機器人倫理學(xué)國際研討會,會上正式提出了“機器人倫理學(xué)(Roboethics)”這個術(shù)語。機器人是人工智能研究的一個重要分支學(xué)科,在許多討論人工智能的著作與論文中都有涉及機器人的內(nèi)容。這兩個概念當然是有區(qū)別的,但從科技倫理研究的角度看,機器人倫理與人工智能倫理的基本觀點、理論與方法在很大程度上是通用的。此后,機器人與人工智能倫理研究很快得到越來越多的學(xué)者的關(guān)注。許多英文期刊如《IEEE 智能系統(tǒng)》(IEEE Intelligent Systems)、《信息技術(shù)與倫理》(Ethics and Information Technology)、《人工智能與社會》(AI &Society)、《心靈與機器》(Minds and Machines)等刊載人工智能倫理研究論文,或者出版???。《心靈與機器》2017 年、2021 年開辟“人工智能與機器人倫理”??缎畔⒓夹g(shù)與倫理》在2010 年、2012 年、2013 年、2016 年、2017 年、2018 年、2020 年和2021 年,開辟??懻摍C器人與人工智能倫理問題。在谷歌學(xué)術(shù)中搜索“artificial intelligence ethics”,可以找到近百萬條結(jié)果,西方學(xué)術(shù)界對相關(guān)研究之關(guān)注可見一斑。
中國政府與學(xué)術(shù)界同樣高度重視人工智能倫理研究。早在1992 年,楊通進、張業(yè)清在《科學(xué)與道德》第五章《機器人計算機倫理問題分析》中就探討了機器人與計算機可能引發(fā)的倫理問題。③楊通進、張業(yè)清:《科學(xué)與道德》,太原:山西教育出版社,1992 年,第128—147 頁。之后中國學(xué)者對包括計算機在內(nèi)的信息技術(shù)倫理研究關(guān)注較多,而對機器人與人工智能倫理卻涉及較少。中國學(xué)者主要從2013 年開始發(fā)表人工智能倫理的研究成果,從2017 年起論文數(shù)量大幅增長,其中中國知網(wǎng)上能夠查到的2020、2021 兩年中發(fā)表的期刊論文題名中含有“人工智能+倫理”的論文就有兩百余篇,實際相關(guān)論文顯然更多。許多學(xué)術(shù)期刊紛紛開設(shè)關(guān)于人工智能倫理研究的??c專欄,相關(guān)的著作亦大幅增長??梢?,近幾年來人工智能倫理迅速成為中國科技倫理研究中的熱門話題。
從人工智能倫理研究內(nèi)容的角度看,可以從宏觀上將其大致分為倫理風(fēng)險(問題)研究與倫理風(fēng)險防范研究兩個方面。倫理風(fēng)險是指在人與人、人與社會、人與自然、人與自身的倫理關(guān)系方面由于正面或負面影響可能產(chǎn)生不確定事件或條件,尤指其產(chǎn)生的不確定的倫理負效應(yīng),諸如倫理關(guān)系失調(diào)、社會失序、機制失控、人們行為失范、心理失衡等。④陳愛華:《高技術(shù)的倫理風(fēng)險及其應(yīng)對》,《倫理學(xué)研究》2006 年第4 期。綜覽相關(guān)研究成果,早期人工智能倫理研究論著,大多數(shù)主要聚焦于澄清倫理問題、剖析倫理風(fēng)險,雖然不少論著或多或少地都涉及倫理風(fēng)險防范的內(nèi)容,但總地來看風(fēng)險防范問題不是學(xué)界關(guān)注的重點。
隨著人工智能倫理風(fēng)險研究的深入,特別是一些現(xiàn)實倫理風(fēng)險的凸顯,人們愈加重視倫理風(fēng)險防范研究,而且不僅僅局限于理論探討,而是逐漸落實到社會政策、規(guī)章制度等更具體更現(xiàn)實的方面。近五年來,無論是聯(lián)合國與各國政府,還是各類學(xué)術(shù)團體與企業(yè),都熱衷于制定、發(fā)布涉及人工智能倫理風(fēng)險防范的各類規(guī)劃、宣言與報告。據(jù)不完全統(tǒng)計,相關(guān)材料有近百種之多。也就是說,人工智能倫理風(fēng)險防范的學(xué)術(shù)研究與政策制定,是在人工智能倫理風(fēng)險研究產(chǎn)生一定影響之后,才引起較多關(guān)注的。需要注意的是,法學(xué)家對包括倫理風(fēng)險在內(nèi)的人工智能風(fēng)險防范研究比哲學(xué)家更為重視。人工智能風(fēng)險防范研究的論文有相當一部分發(fā)表在法學(xué)類期刊而非哲學(xué)類期刊,即是明證。不過,從總體上看,對于如何對人工智能進行科學(xué)有效的倫理風(fēng)險防范,包括具體的防范目標、進路、機制與策略等,相關(guān)的研究與實踐尚處于初創(chuàng)階段。
盡管相關(guān)研究才剛剛起步,但其具有極為重要的社會意義??梢钥吹?,很多國家都發(fā)布了國家層面的人工智能發(fā)展規(guī)劃,而且絕大多數(shù)都強調(diào)要重視對人工智能倫理風(fēng)險的防范與治理。中國政府同樣高度重視相關(guān)問題,在2017 年7 月國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,對于人工智能倫理風(fēng)險防范亦提出了具體的要求。2018 年10 月,習(xí)近平總書記在中共十九屆中央政治局第九次集體學(xué)習(xí)時指出:“人工智能技術(shù)發(fā)展和其他技術(shù)進步一樣,也是一把‘雙刃劍’。由于技術(shù)的不確定性和應(yīng)用的廣泛性,人工智能發(fā)展可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律和社會倫理、侵犯個人隱私、挑戰(zhàn)國際準則等問題。……我們要未雨綢繆,加強戰(zhàn)略研判,確保人工智能安全、可靠、可控?!雹僦泄仓醒朦h史和文獻研究院:《習(xí)近平關(guān)于防范風(fēng)險挑戰(zhàn)、應(yīng)對突發(fā)事件論述摘編》,北京:中央文獻出版社,2020 年,第79 頁。
政府層面的高度重視既彰顯了相關(guān)問題的重要性與緊迫性,也為相應(yīng)的學(xué)術(shù)研究提供了強有力的政策支持與資源保障。另外,人工智能倫理風(fēng)險防范研究在學(xué)術(shù)探討的交叉性與直接的社會效益兩方面發(fā)揮的重要功能,也可以證明其具有的光明前景。
從學(xué)術(shù)研究交叉性的角度看。相關(guān)研究可以搭建人工智能科技工作者與人文學(xué)者的合作平臺,促進科學(xué)文化與人文文化的融合。人工智能倫理風(fēng)險防范需要相關(guān)領(lǐng)域的科學(xué)家、工程師、政府管理人員、人文學(xué)者與社會公眾積極對話與合作,才能真正解決問題,任何一方的缺席都可能導(dǎo)致倫理風(fēng)險防范的失敗。騰訊研究院院長司曉等人認為:“盡管人們對人工智能未來將走向何方眾說紛紜,但對人工智能加以倫理規(guī)制,已經(jīng)成為一個基本共識?!雹谒緯?、馬永武:《科技向善》,杭州:浙江大學(xué)出版社,2020 年,第6 頁。不過,盡管人工智能科學(xué)家、工程師與企業(yè)家等已經(jīng)認識到了人工智能倫理風(fēng)險防范的重要性,但在倫理思想資源與方法應(yīng)用等方面亟待人文學(xué)者的支持與配合。目前,人們已經(jīng)開始嘗試通過建設(shè)人工智能聯(lián)合實驗室、學(xué)術(shù)論壇等多種形式進行合作與對話,已經(jīng)取得初步成效。隨著人工智能倫理風(fēng)險防范研究的深入,所有利益相關(guān)者的對話、合作與交流都將成為常態(tài),特別是科學(xué)家、企業(yè)家與哲學(xué)家的對話與合作將打破文化間的隔閡,實現(xiàn)多種文化的有機融合。
從人工智能倫理風(fēng)險防范研究可能產(chǎn)生的直接社會效益來看。相關(guān)研究可以引導(dǎo)公眾克服人工智能科技排斥與恐懼思想,進而全面客觀認識人工智能的社會影響,使公眾理性接納人工智能產(chǎn)品。由于媒體對超級智能、通用人工智能思想的宣傳,以及對當前人工智能技術(shù)的某些夸大性報道,加上部分科幻文學(xué)與影視作品的影響,導(dǎo)致了人工智能威脅論的廣泛流行,使得不少公眾對人工智能產(chǎn)生了一定程度的排斥甚至是恐懼心理,認為人工智能會很快影響社會就業(yè)結(jié)構(gòu),導(dǎo)致普遍失業(yè)與社會不公,甚至?xí)绊懭祟愓w的生存與發(fā)展。因此,理性批判人工智能威脅論,全面澄清人工智能倫理風(fēng)險,提出切實可行的防范措施,并在現(xiàn)實社會中產(chǎn)生實際影響,有助于公眾增強人類有效控制人工智能技術(shù)的信心,從而克服對人工智能科技與產(chǎn)品的排斥與恐懼心理。人工智能科技要得到長時期的快速發(fā)展,智能產(chǎn)品的產(chǎn)業(yè)化是一個關(guān)鍵因素。全面深入的人工智能倫理風(fēng)險研究,可以幫助公眾客觀理性地認識人工智能的社會影響,并為將來的生活提前做好某些準備。人工智能倫理風(fēng)險防范研究在深入探討影響人們接受人工智能產(chǎn)品的各種不利因素的基礎(chǔ)上,提出人工智能技術(shù)接受模型,從而引導(dǎo)公眾合理接受人工智能產(chǎn)品,避免人工智能時代的數(shù)字鴻溝,使人工智能更好地服務(wù)于人類社會。
當然,與人工智能倫理風(fēng)險防范研究的光明前景相伴隨的是相關(guān)研究的動態(tài)性、長期性與復(fù)雜性。人工智能倫理風(fēng)險防范絕不可能是畢其功于一役的任務(wù),而是一項長期任務(wù)。從科技本身內(nèi)在的不確定性角度看,人工智能的科技基礎(chǔ)、管理政策、應(yīng)用范圍、使用效果等各個方面均存在不確定性,這些不確定性伴隨著人工智能科技的所有方面,也是產(chǎn)生倫理風(fēng)險的根源,而且不確定性的表現(xiàn)會隨著人工智能科技的發(fā)展而不斷演變。因此,人工智能倫理風(fēng)險防范的目的,不是去消除人工智能內(nèi)在的不確定性,事實上這也是不可能做到的,而是通過一套能夠動態(tài)調(diào)整的風(fēng)險防范機制,將不確定性控制在一定的可接受范圍之內(nèi),與之共存,使人工智能科技與風(fēng)險防范措施共同發(fā)展進步。同時,智能社會的快速發(fā)展也要求社會公眾在倫理觀念方面的進化與變革,人類的哪些倫理觀念、道德規(guī)范應(yīng)該調(diào)整,又如何調(diào)整,這同樣也是一個長期性的復(fù)雜問題。因而,應(yīng)該在科技與社會共同發(fā)展進化中對人工智能進行倫理規(guī)制,客觀認識相關(guān)研究的靈活性、動態(tài)性、長期性與復(fù)雜性。
毋庸置疑,人工智能倫理風(fēng)險防范研究對于智能時代的社會發(fā)展將發(fā)揮重要的支撐作用。在強調(diào)以下四點的基礎(chǔ)上能夠進一步凝練人工智能倫理風(fēng)險防范研究的戰(zhàn)略目標,并將相關(guān)研究與實踐盡可能服務(wù)于這一戰(zhàn)略目標。
人們通常按智能水平的高低把人工智能分為弱人工智能、強人工智能、通用人工智能以及超級智能等不同類別。盡管關(guān)于強、弱人工智能的區(qū)分存在一定爭議,但兩者之間有著本質(zhì)性的區(qū)別這一點是公認的。有些學(xué)者認為強人工智能、通用人工智能或超級智能在不久的將來即可實現(xiàn),而且可能對人類社會產(chǎn)生本質(zhì)性的改變,比較有代表性的就是庫茲韋爾(Ray Kurzweil)的奇點理論與波斯特洛姆(Nick Bostrom)的超級智能理論。但是,學(xué)術(shù)界對奇點理論遠未達成共識。或許因為奇點理論在學(xué)術(shù)界受到較多的批判,加上研究人員學(xué)術(shù)觀點的轉(zhuǎn)變,位于美國加州的“奇點研究院(Singularity Institute)”于2013 年2 月正式更名為“機器智能研究院(Machine Intelligence Research Institute)”。近些年來,在相關(guān)的英文學(xué)術(shù)論著中,已很少有學(xué)者提及奇點概念與理論。
目前,不少學(xué)者將人工智能倫理風(fēng)險防范研究的對象要么定位于通用人工智能或超級智能,要么對弱人工智能與強人工智能并未進行明確區(qū)分,這種研究對象定位的局限性是不言而喻的。定位于強人工智能、超級智能方面的風(fēng)險防范研究一方面容易產(chǎn)生恐慌效應(yīng),造成不必要的誤解,另一方面也脫離了人工智能科技與產(chǎn)業(yè)發(fā)展的現(xiàn)狀,僅僅停留于理論探討的層面,而對現(xiàn)實中已經(jīng)產(chǎn)生或即將產(chǎn)生的問題不夠重視。正如博登(Margaret Boden)所言,人類水平的強人工智能的前景看起來黯淡無光①博登:《人工智能的本質(zhì)與未來》,孫詩惠譯,北京:中國人民大學(xué)出版社,2017 年,第180 頁。,她呼吁人工智能研究團體、政策制定者和普通老百姓更多地關(guān)注一些切實存在的危險②博登:《人工智能的本質(zhì)與未來》,孫詩惠譯,第197 頁。??紤]到學(xué)術(shù)界對“強/弱人工智能”并未形成共識,因此,人工智能倫理風(fēng)險防范研究對象應(yīng)該明確定位于“現(xiàn)階段人工智能”,重點關(guān)注人工智能已經(jīng)和即將產(chǎn)生的倫理風(fēng)險,同時兼顧人工智能未來的發(fā)展趨勢。至于人工智能對人類的生存性威脅等較長期的風(fēng)險,當然可以進行理論探討,但不應(yīng)該成為倫理風(fēng)險防范研究的核心內(nèi)容。
從現(xiàn)代科技發(fā)展與倫理法律的密切關(guān)系及其相互作用的角度來看,恰當?shù)膫惱硪?guī)約并不會阻礙科學(xué)技術(shù)的發(fā)展,反而會產(chǎn)生積極的推動作用。相反,如果只擁有強大的人工智能科技與智能產(chǎn)品,而對倫理方面的內(nèi)容考慮不夠,很可能會導(dǎo)致公眾對智能產(chǎn)品產(chǎn)生排斥現(xiàn)象,進而影響人工智能科技與產(chǎn)業(yè)的發(fā)展。正如上海交通大學(xué)人工智能研究院首席顧問李仁涵教授指出的那樣:“AI 的前期研發(fā)主要是由其技術(shù)屬性推動,大規(guī)模嵌入到社會與經(jīng)濟領(lǐng)域時,其社會屬性有可能決定AI 應(yīng)用的成敗。”③李仁涵:《人工智能技術(shù)屬性及其社會屬性》,《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2020 年第4 期。谷歌眼鏡是一款增強現(xiàn)實型穿戴式智能眼鏡,曾經(jīng)名噪一時,但由于其引發(fā)人們對某些倫理風(fēng)險與負面影響的普遍擔憂,最終被迫暫時停售。④Jonathan Roberge,Louis Melancon,Being the King Kong of Algorithmic Culture is a Tough Job after all:Google’s Regimes of Justification and the Meanings of Glass,Convergence,2017,Vol.23,No.3,pp.306-324.因此,應(yīng)該努力從倫理風(fēng)險防范的角度,為中國人工智能發(fā)展提供道德哲學(xué)基礎(chǔ)與倫理戰(zhàn)略支持,保證人工智能在快速發(fā)展的同時,盡可能規(guī)避倫理風(fēng)險。
而且,相對于法律的“剛性”監(jiān)管,從倫理的角度對人工智能科技進行“軟治理”,具有十分重要的理論與現(xiàn)實意義。眾所周知,目前世界各國都在加快人工智能科技發(fā)展的步伐,搶占人工智能發(fā)展高地,爭做人工智能科技的領(lǐng)導(dǎo)者,因此人們普遍擔心嚴格的管理措施會影響人工智能科技的發(fā)展。中國作為世界上最大的發(fā)展中國家,科技毫無疑問是保障社會發(fā)展的重要支撐力量。正如習(xí)近平總書記指出的那樣:“人工智能、大數(shù)據(jù)、量子信息、生物技術(shù)等新一輪科技革命和產(chǎn)業(yè)革命正在積聚力量,催生大量新產(chǎn)業(yè)、新業(yè)態(tài)、新模式,給全球發(fā)展和人類生產(chǎn)生活帶來翻天覆地的變化。我們要抓住這個重大機遇,推動新興市場國家和發(fā)展中國家實現(xiàn)跨越式發(fā)展?!雹倭?xí)近平:《習(xí)近平談治國理政》(第3 卷),北京:外文出版社,2020 年,第444—445 頁。中國人工智能科技雖然近些年來發(fā)展迅猛,但整體上與西方發(fā)達國家仍存在一定的差距。除了一些特殊領(lǐng)域或問題之外,當前中國人工智能倫理風(fēng)險防范并不需要廣泛的嚴格監(jiān)管,而應(yīng)該更多地注重軟性約束與道德自律。因此,人工智能倫理風(fēng)險防范研究絕對不是要去阻礙科技的發(fā)展進步,事實上任何人都做不到這一點,而是要為中國人工智能快速健康發(fā)展提供倫理戰(zhàn)略與倫理支持。
關(guān)于人工智能倫理風(fēng)險防范研究,國外研究雖然開展得相對較早,但中國的相關(guān)研究也并未滯后太長時間,這就為中國在相關(guān)研究領(lǐng)域與國外學(xué)者共同競爭、進行國際對話提供了可能。人工智能如何發(fā)展、如何防范風(fēng)險是一個全球性問題,中國作為世界上最大的發(fā)展中國家,必須在人工智能的全球治理中掌握必要的話語權(quán)。習(xí)近平總書記曾強調(diào):“我們應(yīng)該共同探討建立面向新科技革命和產(chǎn)業(yè)變革的政策制度體系,營造國際合作環(huán)境,讓科技創(chuàng)新成果為更多國家和人民所及、所享、所用?!兏镞^程應(yīng)該體現(xiàn)平等、開放、透明、包容精神,提高發(fā)展中國家代表性和發(fā)言權(quán)。”②習(xí)近平:《習(xí)近平談治國理政》(第3 卷),第459 頁。
近幾年來,美國、歐盟等的許多學(xué)術(shù)團體與科研機構(gòu)競相加大對人工智能倫理風(fēng)險防范研究的投入力度,試圖占據(jù)該研究領(lǐng)域的主導(dǎo)地位,掌握相應(yīng)的話語權(quán)。如果中國研究進展緩慢,很可能與國外學(xué)者逐漸拉開差距,從而在某些方面陷入被動。特別是許多國家與機構(gòu)爭相發(fā)布各類人工智能倫理原則與倫理指南,而包括中國在內(nèi)的發(fā)展中國家對此問題重視不夠。當下,必須高度重視創(chuàng)建并發(fā)布具有中國特色的人工智能倫理原則,并對其進行詳細解釋,防止發(fā)達國家利用中國在此方面的不足,將某些不合倫理的研究轉(zhuǎn)移給我們。③吳紅、杜嚴勇:《人工智能倫理治理:從原則到行動》,《自然辯證法研究》2021 年第4 期。另一方面,不同的文化傳統(tǒng)使得不同民族的倫理觀念與思維方式存在明顯差異,相同的人工智能技術(shù)引發(fā)的倫理風(fēng)險在不同的社會環(huán)境中亦會有不同的表現(xiàn)形式,因而需要結(jié)合中國的實際情況,對國外的倫理風(fēng)險防范經(jīng)驗進行批判性分析。只有形成具有中國特色的人工智能倫理風(fēng)險防范研究成果,才能真正在人工智能的現(xiàn)實應(yīng)用環(huán)境中產(chǎn)生實效,并在人工智能國際治理中貢獻中國智慧。目前,人類命運共同體研究受到學(xué)術(shù)界的高度重視,但鮮見將其與科技發(fā)展聯(lián)系起來的理論探討?;诖?,就應(yīng)以人工智能倫理風(fēng)險的國際治理為著力點,從建構(gòu)人類命運共同體的戰(zhàn)略高度,研究人工智能倫理風(fēng)險防范的普遍性與特殊性規(guī)律,由此才能爭取相應(yīng)研究的主動性與話語權(quán)。
國內(nèi)外目前相關(guān)研究成果,既有從宏觀上探討人工智能倫理風(fēng)險防范的原則與思路,也有從倫理治理、責(zé)任創(chuàng)新、技術(shù)標準、治理模型等角度分析人工智能倫理風(fēng)險防范的具體途徑,還有對包括隱私風(fēng)險、歧視與偏見等具體細致的倫理風(fēng)險防范進路的探討,內(nèi)容非常豐富和全面。不過,現(xiàn)有的人工智能倫理風(fēng)險防范研究雖然涉及面廣,但主要以理論探討為主,實踐性較弱。許多國際組織與學(xué)術(shù)團體大多偏向提出某些人工智能倫理原則與倫理指南,但這些原則如何貫徹實施,卻并沒有具體的執(zhí)行機制與監(jiān)管措施。不過,令人倍感振奮的是,不少科技工作者已經(jīng)充分認識到了相關(guān)工作的重要性。中國計算機學(xué)會名譽理事長李國杰院士強調(diào):“人工智能倫理和人工智能監(jiān)管是我國明顯的短板,應(yīng)立即加強有關(guān)布局和規(guī)劃。”④李國杰:《有關(guān)人工智能的若干認識問題》,《中國計算機學(xué)會通訊》2021 年第7 期。有科技工作者的大力支持,人工智能倫理風(fēng)險防范研究的落地便指日可待。
2021 年12 月17 日,習(xí)近平總書記主持召開中央全面深化改革委員會第二十三次會議,審議通過了《關(guān)于加強科技倫理治理的指導(dǎo)意見》,2022 年3 月20 日,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《關(guān)于加強科技倫理治理的意見》?!兑庖姟返某雠_充分彰顯了中國政府對包括人工智能在內(nèi)的新興科技倫理風(fēng)險防范的高度重視,主要目的就在于進一步加強科技倫理治理,有效防范科技創(chuàng)新可能帶來的倫理風(fēng)險,推動科技向善。人工智能倫理風(fēng)險防范研究應(yīng)該以《意見》為研究綱領(lǐng),在理論探討的基礎(chǔ)上,緊密結(jié)合人工智能科技研究與產(chǎn)業(yè)發(fā)展,建立健全具有中國特色的人工智能倫理治理體系。對人文學(xué)者來說,不能僅僅局限于撰寫學(xué)術(shù)論文,而是應(yīng)該主動到人工智能實驗室與生產(chǎn)企業(yè)中去,深入了解人工智能產(chǎn)品研發(fā)現(xiàn)狀與當前倫理風(fēng)險防范舉措的成效及不足,與科學(xué)家、企業(yè)家共同努力解決具體的現(xiàn)實問題。
總地來說,人工智能倫理風(fēng)險防范研究的戰(zhàn)略目標是,在澄清不同種類、不同階段倫理風(fēng)險的基礎(chǔ)上,采取靈活多樣的柔性措施防范倫理風(fēng)險,高度重視理論研究成果的可操作性,積極參與人工智能國際治理,引導(dǎo)與規(guī)范人工智能科技與產(chǎn)業(yè)發(fā)展,實現(xiàn)人工智能與社會共同發(fā)展進步的最終目標。
結(jié)合目前國內(nèi)外人工智能倫理研究現(xiàn)狀,針對上述提及的戰(zhàn)略目標,可以從以下五個方面展開深入細致的研究工作。
古今中外有大量倫理學(xué)的經(jīng)典著作,也有各種不同的學(xué)術(shù)流派提出了風(fēng)格各異的倫理思想理論。近幾十年來,學(xué)術(shù)界關(guān)于新興技術(shù)的倫理反思亦積累了大量的研究成果。只有在充分吸取各類理論資源的基礎(chǔ)上,把相關(guān)問題置于廣闊的倫理思想史的學(xué)術(shù)背景之中,才能在人工智能倫理研究中做到從容不迫、游刃有余。因此,需要結(jié)合人工智能科技的特點,挖掘已有的經(jīng)典倫理學(xué)說與科技倫理思想中可以應(yīng)用于人工智能倫理風(fēng)險防范研究的理論資源,充分對比各自的異同,深入研究不同學(xué)說的合理性與局限性,分析其適用的具體問題與社會環(huán)境。
人工智能發(fā)展的倫理支持,關(guān)鍵在于倫理規(guī)制和倫理觀念創(chuàng)新的學(xué)理支撐①王天恩:《論人工智能發(fā)展的倫理支持》,《思想理論教育》2019 年第4 期。,可以采用發(fā)展倫理、美德倫理、底線倫理、商談倫理、技術(shù)建構(gòu)主義、風(fēng)險社會、利益相關(guān)者理論、行動者網(wǎng)絡(luò)理論以及建設(shè)性后現(xiàn)代等理論資源考察人工智能倫理風(fēng)險,豐富人工智能風(fēng)險防范的方法論與工具庫,進一步拓展人工智能倫理風(fēng)險防范研究的理論基礎(chǔ),進而實現(xiàn)相關(guān)研究的理論基礎(chǔ)創(chuàng)新。比如,發(fā)展倫理學(xué)不僅是一種“評價論”,更是一種“選擇論”,發(fā)展倫理學(xué)的核心目標是“選擇”更加合理的發(fā)展目標、發(fā)展手段與發(fā)展模式。②陳忠:《發(fā)展倫理研究》,北京:北京師范大學(xué)出版集團,2013 年,第29 頁。人工智能倫理風(fēng)險防范研究的本質(zhì)就是要為人工智能科技“選擇”更加合理的發(fā)展道路與發(fā)展模式,理應(yīng)吸取發(fā)展倫理學(xué)的理論資源。又如,風(fēng)險社會學(xué)認為,相比于其他個別因素,技術(shù)可能性的巨大擴展對吸引公眾關(guān)注風(fēng)險的貢獻更大③[德]盧曼:《風(fēng)險社會學(xué)》,孫一洲譯,南寧:廣西人民出版社,2020 年,第127 頁。,風(fēng)險社會學(xué)的理論與實踐有助于更全面地認識與防范人工智能的倫理風(fēng)險,等等??傊瑢掗煹膶W(xué)術(shù)視野與理論基礎(chǔ)有利于在人工智能倫理風(fēng)險防范研究中爭取更大的主動性、靈活性與話語權(quán)。
首先,人工智能科技已經(jīng)產(chǎn)生或即將產(chǎn)生各種倫理風(fēng)險,對這些客觀存在的倫理風(fēng)險,需要倫理學(xué)家與科學(xué)家、工程師密切合作,正確把握人工智能科技與產(chǎn)業(yè)發(fā)展現(xiàn)狀,克服片面樂觀與盲目悲觀的傾向,全面評估倫理風(fēng)險。其次,人工智能倫理風(fēng)險既有客觀性的成分,也受人類不同個體與群體主觀認知的影響。特別是部分倫理風(fēng)險極可能通過媒體、網(wǎng)絡(luò)等渠道被歪曲或放大,甚至產(chǎn)生嚴重的誤導(dǎo)現(xiàn)象。全面客觀地評價倫理風(fēng)險,準確認識公眾對倫理風(fēng)險的認知模式,系統(tǒng)梳理倫理風(fēng)險的傳播與放大途徑,是實現(xiàn)有效風(fēng)險防范的前提性與基礎(chǔ)性工作。因此,不僅需要重視客觀的人工智能倫理風(fēng)險,還要重點研究不同群體對人工智能倫理風(fēng)險的評價與認知的問題,深入分析如何通過倫理評估與倫理參與等合理的方式,引導(dǎo)公眾理性認識人工智能的倫理風(fēng)險。正如段偉文所指出的,促進開發(fā)者和使用者切實認知人工智能倫理風(fēng)險的關(guān)鍵在于:一方面技術(shù)監(jiān)管者應(yīng)該要求企業(yè)對技術(shù)應(yīng)用在相關(guān)群體中造成的負面影響展開預(yù)見性的倫理評估,另一方面應(yīng)該通過建設(shè)性與參與性的倫理評估,使利益相關(guān)者參與到相關(guān)環(huán)節(jié)之中。①段偉文:《信息文明的倫理基礎(chǔ)》,上海:上海人民出版社,2020 年,第256 頁。
人工智能倫理風(fēng)險種類繁多,涉及人們工作生活的方方面面。但是,只要抓住若干核心倫理風(fēng)險,其他許多風(fēng)險可能就迎刃而解了。就目前人工智能科技水平及社會影響現(xiàn)狀而言,最核心的倫理風(fēng)險可能是安全風(fēng)險與公正風(fēng)險。世界經(jīng)濟論壇創(chuàng)始人兼執(zhí)行主席施瓦布(Klaus Schwab)認為:“第四次工業(yè)革命在帶來巨大好處的同時,也會帶來巨大挑戰(zhàn),其中不平等現(xiàn)象的加劇尤其令人擔憂?!雹赱德]施瓦布:《第四次工業(yè)革命》,李菁譯,北京:中信出版社,2016 年,第9 頁。李開復(fù)亦擔心,利用人工智能獲取巨大利益會產(chǎn)生顯著不平等,同時也導(dǎo)致社會的不穩(wěn)定。③李開復(fù):《AI·未來》,杭州:浙江人民出版社,2018 年,第194 頁。
就安全風(fēng)險而言,從技術(shù)角度看,可以借鑒人工智能哲學(xué)、認知科學(xué)與哲學(xué)等研究成果,增強人工智能理解人類常識的能力,減輕人工智能技術(shù)可能出現(xiàn)的“人工愚蠢”,實現(xiàn)人工智能系統(tǒng)的穩(wěn)健性、可靠性;從使用者的角度看,目前人們普遍關(guān)注的是隱私風(fēng)險等問題,如人臉識別技術(shù)已經(jīng)引發(fā)了廣泛的爭議,社會各界迫切希望能夠切實加強個人隱私的保護。就公正風(fēng)險而言,人們較為關(guān)注人工智能系統(tǒng)已經(jīng)和可能出現(xiàn)的各種歧視與偏見,即算法霸權(quán)、數(shù)字鴻溝與信息壟斷,以及人工智能對就業(yè)與教育的影響等問題。另外,值得一提的是,需要特別關(guān)注人工智能與環(huán)境正義問題,系統(tǒng)研究人工智能科技對可持續(xù)發(fā)展的正面與負面影響。
無論是未來學(xué)家,還是人文學(xué)者、科技工作者,大家?guī)缀跻恢抡J為,應(yīng)該將人類的價值規(guī)范嵌入人工智能系統(tǒng),使之做出符合人類倫理道德的判斷與行為,這是從根本上防范人工智能倫理風(fēng)險的重要手段,但哲學(xué)界與科技界對于倫理原則的選擇、倫理設(shè)計的過程與倫理設(shè)計結(jié)果的評價等各個環(huán)節(jié)均存在不同意見。筆者認為,人工智能倫理設(shè)計是實現(xiàn)倫理風(fēng)險防范有效性、長效化的根本保障,必須予以高度重視,倫理設(shè)計應(yīng)該是哲學(xué)家與科學(xué)家、工程師進行有效合作的最佳領(lǐng)域。目前,需要全面對比不同學(xué)者、不同學(xué)科關(guān)于人工智能倫理設(shè)計的理論探索與實踐成果,同時通過建設(shè)聯(lián)合實驗室等手段搭建與科技工作者對話合作的平臺,根據(jù)當前中國人工智能科技研發(fā)現(xiàn)狀,總結(jié)提煉出人工智能倫理設(shè)計的基本原則、程序與評價標準,并在人工智能技術(shù)研發(fā)中進行實際應(yīng)用并反復(fù)完善改進,確保從技術(shù)層面實現(xiàn)人工智能向善。
人工智能倫理風(fēng)險防范涉及宏觀層面(國際組織與國家)、中觀層面(企業(yè)、科研機構(gòu)與學(xué)術(shù)團體等)以及微觀層面(用戶與受眾)等多種防范主體,需要針對不同層面的防范主體選擇恰當?shù)膫惱盹L(fēng)險防范工具,同時各種防范工具不可避免地會涉及多種防范主體。應(yīng)該針對不同層面的防范主體,重點研究包括科技政策、倫理原則、責(zé)任機制與職業(yè)規(guī)范等在內(nèi)的各種防范工具的適用范圍、具體內(nèi)涵、操作流程、預(yù)期目標與評估模式,從而建構(gòu)起一整套覆蓋全面、運作靈活、切實有效的倫理風(fēng)險防范工具庫。綜上可見,第三、四、五方面的研究明確體現(xiàn)了人工智能倫理風(fēng)險防范注重實踐維度的重要特征,因為具有可操作性與現(xiàn)實針對性的研究成果才能規(guī)避各種倫理風(fēng)險。
目前人工智能倫理風(fēng)險防范進路研究大多偏向于某一方面,如科學(xué)家偏向于重視“物”,即重視人工智能技術(shù)的穩(wěn)健性、可靠性,哲學(xué)家則重點關(guān)注“人”,即從倫理原則、責(zé)任機制、職業(yè)規(guī)范等角度規(guī)范人的行為。人工智能倫理風(fēng)險防范研究需要全方位、多層次展開,注重“見物又見人”的研究思路,從“技術(shù)、制度與人”三個層面入手,建構(gòu)全面系統(tǒng)的倫理風(fēng)險防范體系。首先,重視技術(shù)本身的因素,從倫理設(shè)計、穩(wěn)健性、人性化等角度強化人工智能技術(shù)本身,實現(xiàn)從源頭上防范倫理風(fēng)險;其次,高度重視人的因素,從風(fēng)險認知、倫理參與、道德想象力、道德責(zé)任以及知情選擇等角度突出人的能動性、選擇性來防范倫理風(fēng)險;再次,亦強調(diào)制度、文化的重要功能,從科技政策、科學(xué)文化的角度營造良好的倫理風(fēng)險認知與防范氛圍,從而建構(gòu)起全面系統(tǒng)的人工智能倫理風(fēng)險防范框架體系,等等。
本文的論證試圖表明,人工智能倫理風(fēng)險防范研究應(yīng)該以建構(gòu)友好的、可信任、可持續(xù)的人工智能科技為目標,以現(xiàn)階段人工智能為主要研究對象,同時兼顧人工智能未來發(fā)展趨勢,在對人工智能倫理風(fēng)險形成全面、客觀認識的基礎(chǔ)上,提出一系列具有可操作性、能夠產(chǎn)生實效的倫理風(fēng)險防范機制與工具,從而為中國人工智能科技健康快速發(fā)展提供倫理戰(zhàn)略與倫理支持,并為中國爭取人工智能國際治理的話語權(quán)提供理論依據(jù)與實踐智慧。1950 年,圖靈在《計算機器與智能》論文中的最后一句話指出,我們只能向前看到一小段距離,但即使如此我們在這段可見視域內(nèi)仍有大量工作要做。①AlanTuring,Computing Machinery and Intelligence,Mind,1950,Vol.59,No.236,pp.433-460.在當前人工智能倫理風(fēng)險防范研究中,有很多艱苦細致的工作需要哲學(xué)工作者貢獻智慧與汗水。