張正清 北京航空航天大學(xué)馬克思主義學(xué)院講師、博士
2019年中國政府工作報告指出: “打造工業(yè)互聯(lián)網(wǎng)平臺,拓展‘智能+’,為制造業(yè)轉(zhuǎn)型升級賦能”,并提出 “深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,培育新一代信息技術(shù)、高端裝備、生物醫(yī)藥、新能源汽車、新材料等新興產(chǎn)業(yè)集群,壯大數(shù)字經(jīng)濟。”這是我國政府連續(xù)三年在政府工作報告中提及人工智能的發(fā)展政策,2017年提出 “把智能制造業(yè)作為主攻方向”,2018年又提出 “發(fā)展智能產(chǎn)業(yè),拓展智能生活”。人工智能的戰(zhàn)略意義還體現(xiàn)在對于社會問題的治理上,每年消耗在社會問題的定性與分析上的成本是驚人的,而人工智能基于對社會信息的高效處理,可以給出更為經(jīng)濟、準確的方案,從而優(yōu)化政策制定過程[1]。可見,人工智能的生產(chǎn)化、社會化是并行展開的,如何發(fā)展實用、適用的人工智能,是我們的著力點。
不同于人工智能產(chǎn)業(yè)的蓬勃發(fā)展,人工智能本身的規(guī)范問題沒有得到與之相匹配的重視程度。在政策制定層面,倫理規(guī)范往往只是錦上添花的部分或者實現(xiàn)目的的手段。法國政府呼吁考慮世界范圍內(nèi)已有的人工智能政治、倫理規(guī)則,為的是能在產(chǎn)業(yè)發(fā)展中表達自己的規(guī)則,確立領(lǐng)先地位[2]。善的人工智能社會 (Good AI Society)計劃也表明[3],在美國、英國、歐盟的人工智能政策制定中,政府、企業(yè)與研究者的角色與責(zé)任是目前最關(guān)注的內(nèi)容。人工智能規(guī)制架構(gòu)所指導(dǎo)的框架、監(jiān)管、流程與部門規(guī)定,往往側(cè)重于行業(yè)標準和產(chǎn)品設(shè)計[4]。
不同于政策的偏重,倫理學(xué)的研究對于人與機器的互動更關(guān)注。從計算機、人工智能的倫理研究過程看,在20世紀80年代中期,人們就開始爭論計算機是否產(chǎn)生出控制人類行為的技術(shù)路徑,從而引發(fā)人們對于計算機倫理問題的關(guān)注;在20世紀90年代,政策制定者們提出了關(guān)于計算機犯罪、數(shù)據(jù)安全、數(shù)字專利和電子商務(wù)的第一批規(guī)定。2000年以后,一系列道德困境出現(xiàn)了,在機器人產(chǎn)業(yè)和機器學(xué)習(xí)中,人們提出了新的應(yīng)用倫理學(xué)領(lǐng)域,例如 “機器人倫理學(xué)”和 “機器倫理學(xué)”[5]。從2016年開始,人工智能形成了較為完整的倫理規(guī)約框架,規(guī)范人工智能的四個治理方向已初步形成,關(guān)注于人工智能的社會意涵、人工智能的技術(shù)影響、人工智能的法律與規(guī)范、人工智能的倫理[6]。即便存在這樣一些規(guī)范框架,產(chǎn)業(yè)政策與倫理規(guī)范之間依然存在側(cè)重、發(fā)展與規(guī)制上的巨大差異。
發(fā)展錯位與內(nèi)外差異性使得學(xué)界與產(chǎn)業(yè)界在一些核心議題上存在爭論。例如,目前學(xué)界認為,未來社會存在人工智能取代智力型工作的遞進階段[7],當(dāng)經(jīng)歷過這幾個階段之后,處于工作崗位上的人會被人工智能完全替代。同樣,還有一種說法,認為有些職業(yè)存在被替代的風(fēng)險,甚至有人預(yù)測出了各職業(yè)被人工智能取代的概率[4]。然而這些研究與論述很少體現(xiàn)在政策規(guī)范文本與產(chǎn)業(yè)發(fā)展規(guī)劃之中,導(dǎo)致這種理論關(guān)注與現(xiàn)實規(guī)范不對等的原因有以下兩個:
(1)行業(yè)與學(xué)界的發(fā)展錯位。技術(shù)先行、倫理配套是一系列新興技術(shù)發(fā)展的事實過程。每一代新技術(shù)的產(chǎn)生都是在其應(yīng)用到一定階段時,人們才能真正認識到倫理問題的重要性。歷史地看,倫理實現(xiàn)規(guī)范功能的滯后性是普遍現(xiàn)象,對于現(xiàn)在的人工智能產(chǎn)業(yè)也依舊如此。但是新興技術(shù)又呈現(xiàn)另一種特殊性,例如人體增強技術(shù)、納米技術(shù)、人工智能技術(shù),在尚未在產(chǎn)業(yè)界應(yīng)用之前,就已經(jīng)引起了廣泛的倫理討論。這種現(xiàn)象導(dǎo)致了一種行業(yè)與倫理討論的分離,目前在人工智能的倫理討論中就出現(xiàn)了這種分離。在人工智能的倫理研究中,存在一種未來主義的觀點,其倫理思考與規(guī)范建立在當(dāng)下尚未出現(xiàn)的技術(shù)條件之上。例如在親密關(guān)系機器人的倫理反思中,很多學(xué)者指出可以順暢交流、進行肢體動作互動的機器會替代目前的家庭成員;而社會機器人的從業(yè)者指出,目前的商用機器人在外觀上依然無法實現(xiàn)被人完全接受的水平,更談不上替代人類家庭成員,因此主張的機器道德能力、道德價值是有問題的[8]。這種沖突還體現(xiàn)在強-弱人工智能的分歧、長期-短期人工智能發(fā)展的分歧之中。強人工智能或許可能擁有類人的思維能力,或者與人不同的思維能力,但是已經(jīng)成為很多學(xué)者討論的起點;而弱人工智能強調(diào)智能機器只是服務(wù)人性,而不是創(chuàng)造一種新的人性,智能機器有一些輔助人智力的能力即可[9],這是政策制定的認識基礎(chǔ)。這些分歧導(dǎo)致規(guī)范性研究與產(chǎn)業(yè)研究之間溝通的障礙,也造成了政策、戰(zhàn)略與行業(yè)規(guī)范之間的錯位。
(2)內(nèi)在與外在兩種進路的分歧。人工智能的倫理研究與哲學(xué)研究側(cè)重對心智、語言、意向性等內(nèi)在性問題的討論,而規(guī)范、政策與戰(zhàn)略規(guī)劃關(guān)注于人工智能的社會表現(xiàn)與互動,這導(dǎo)致了倫理規(guī)范與技術(shù)現(xiàn)實之間的內(nèi)外分歧。對于人工智能這種特殊技術(shù)來說,其對人類社會深度、自動 (自主)的參與,使人看到了自身行使道德行為的影子。雖然對于每個技術(shù)物,都有合倫理設(shè)計的要求,但是對于人工智能來說,符合倫理不只是從一個被動的參與者角度來討論,更是一種主動的、游走在受控與非受控之間的模糊對象。正是這種模糊性,使得人工智能很早就被人發(fā)現(xiàn)存在倫理問題,因為我們無法像對待一般的電器那樣處理智能機器?,F(xiàn)在的技術(shù)確實制造了一些可以自我決策的自動機器,但是其自主性還非常有限,除非機器有一種類人的道德能力[10]。而問題在于,半個多世紀的人工智能討論,在起伏間從未拋棄道德問題的關(guān)懷,卻至今沒有產(chǎn)生一個系統(tǒng)的、公認的規(guī)范方式,更多的理論仍然糾纏在意識問題、主體問題之上。
從戰(zhàn)略、框架走向具體規(guī)范的中間環(huán)節(jié),要求考慮具體的行動方案。這種行動方案的重點在于消除技術(shù)現(xiàn)實與倫理規(guī)范之間的分歧,讓技術(shù)設(shè)計者與政策制定者之間達成共識,并讓這種共識可以被社會一般成員所接受?;谶@個目的,我們提出一些規(guī)范性的取舍方式,為人工智能政策制定提供建議。
(1)在把道德能力作為評價道德機器的基礎(chǔ)標準之外,進一步關(guān)注人工智能的道德接受性。首先,一項技術(shù)的社會接受程度和道德可接受性之間存在關(guān)聯(lián)[11],對于制定人工智能的倫理規(guī)范來說,對于接受性的考察遠比對于智能能力的評估重要。人工智能會有何種程度的道德表現(xiàn),不是一個具體實行的道德規(guī)范需要考慮的問題。因為對于目前階段的人工智能來說,我們規(guī)范的對象應(yīng)該以智能能力最低限位為標準。一味假設(shè)人工智能在將來的超前發(fā)展狀況、預(yù)測人工智能在未來可能產(chǎn)生的影響,會影響那些使用情景更普遍化的社會機器。人工智能目前行為的合理性尚在建構(gòu)之中,我們無法通過現(xiàn)行的人類自身的倫理規(guī)范來很好地規(guī)定人工智能。此時人機互動的社會接受度就是制定人工智能道德規(guī)范的標準,因為只有被社會廣泛接受的行為才有可能是道德的行為,這是一條自下而上的決策路線。其次,人工智能倫理規(guī)范應(yīng)該是全社會都接受的規(guī)范,而不是專業(yè)團體內(nèi)部的規(guī)范。目前,各個與人工智能產(chǎn)業(yè)相關(guān)的共同體都在試圖制定規(guī)范人工智能的行業(yè)標準,這是有益的嘗試,但是這些行業(yè)規(guī)范不能直接轉(zhuǎn)化成人工智能的全社會道德規(guī)范,因為行業(yè)規(guī)范主要站在設(shè)計者的角度來思考人工智能的倫理問題,這種產(chǎn)品、服務(wù)層面的規(guī)范無法直接使用在人機交往的現(xiàn)實活動中。更為深層的原因是,人工智能的設(shè)計者、生產(chǎn)者目前是以人類的智能定義為目標來行動的,因此會產(chǎn)生類人的道德規(guī)范或者混雜著與人相關(guān)的道德規(guī)范。對于更廣大的社會成員來說,他們并沒有智能模擬和實現(xiàn)層面的策略性考慮,所以專業(yè)團體內(nèi)部規(guī)范會潛移默化地塑造社會成員,這有失倫理規(guī)范的公平性。因此,人工智能從業(yè)者應(yīng)該謹慎地推廣本領(lǐng)域內(nèi)部共識標準,應(yīng)該嘗試轉(zhuǎn)譯和還原內(nèi)部標準,以形成更普遍的標準,從而獲得更廣泛的社會接受程度。
(2)在現(xiàn)行道德規(guī)則的框架下,把共識性知識作為另一個重要的影響因素。對常識性道德知識進行技術(shù)層面的規(guī)范化,要優(yōu)先于對傳統(tǒng)倫理學(xué)規(guī)則的模擬。在機器行為與機器學(xué)習(xí)的研究中,一直存在兩種截然不同的路徑,如暴力法與訓(xùn)練法、事理圖譜與知識圖譜等。雖然孰優(yōu)孰劣存在爭議,但都體現(xiàn)了人工智能內(nèi)在的邏輯方式。對于道德行為來說,目前很多學(xué)者仍然使用規(guī)則優(yōu)先的道德推理方式,強調(diào)從一般的倫理原則到具體行為的推論模式。實際上,倫理學(xué)內(nèi)部對于基本規(guī)則的討論尚未定論,各個規(guī)則之間也充斥著矛盾。如果以某種倫理原則為基礎(chǔ),如功利主義,不但會在解釋行為的一致性上產(chǎn)生問題,更會使得持有其他倫理原則的互動者無法接受。設(shè)計道德機器與倫理教育有內(nèi)在的一致性,問題不是在于學(xué)習(xí)了多少倫理理論與原則、規(guī)范,關(guān)鍵在對于社會普遍接受的行為如何理解與執(zhí)行。道德溝通與互動不是基于雙方行為的倫理學(xué)來源,而是基于行為本身。這不是在主張一種后果主義的評價標準,而是要在道德動機、道德判斷、道德說明、道德行動的全過程中,把共識性道德知識放在首要地位。因此,人工智能的倫理邏輯應(yīng)該是模仿與學(xué)習(xí),這與目前的倫理教育的內(nèi)核是一致的,更容易被社會成員所接受。在這種理念下,內(nèi)在進路所帶來的設(shè)計與評價的矛盾就可以被解決。內(nèi)在進路對倫理規(guī)則的內(nèi)在化,是建立于相信由規(guī)則推導(dǎo)出的行為的正確性,以及出于接受規(guī)則而接受行為的推論。而人對機器的接受是極為苛刻的,人與人之間在倫理規(guī)則上的讓步與妥協(xié),很難出現(xiàn)在人與機器之間的關(guān)系上。因此,外在進路所主張的行為評價與道德期望就變得更加合理。
(3)除了對于利益相關(guān)者的道德規(guī)范外,還要關(guān)注對 “人機互動”中的一般參與者的規(guī)范。智能機器的倫理規(guī)范不僅僅應(yīng)該是對于機器、設(shè)計者、生產(chǎn)者的規(guī)范,還應(yīng)該是對于使用者等更廣泛意義上的參與者的規(guī)范。目前人工智能的倫理討論更像是行業(yè)規(guī)范,只針對人工智能產(chǎn)業(yè)內(nèi)部相關(guān)人士進行規(guī)定。對于人工智能人工物的行為規(guī)范性討論較少,而得到討論的主要問題是對人工智能的責(zé)任問題,很少討論整體上的規(guī)范性。而大眾使用人工智能的規(guī)范就少之又少,鮮有人提及?;谂c非人實體的道德關(guān)系而進行規(guī)范,目前在動物保護、環(huán)境生態(tài)領(lǐng)域比較常見,人對于非人存在的對待方式,在很大程度上反映了人自身的道德品質(zhì)。人對自動化機器的非道德行為,會塑造人的道德自我,從而影響人對其他互動對象的道德意向性。在社會機器人的研究中,道德心理學(xué)研究者極其關(guān)注與機器互動所培養(yǎng)出來的行為習(xí)慣,這種習(xí)慣本身就是倫理規(guī)范的表現(xiàn)。因此,對于使用者進行規(guī)范,還可能反向推動規(guī)范設(shè)計行為,設(shè)計與倫理的時間錯位也會得到解決。并且,由于不是讓大眾被動接受專業(yè)團體的道德知識,大眾可以更多地發(fā)揮常識知識的作用,更容易形成社會共識;而專業(yè)團體因此受到更普遍的道德規(guī)則約束,更容易形成與一般社會成員在行為規(guī)范上的相互建構(gòu)。