王 亮
(西安交通大學(xué) 馬克思主義學(xué)院,陜西 西安 710049)
關(guān)于人工代理(Artificial Agents)的道德責(zé)任問題的理論紛爭由來已久,并且持續(xù)發(fā)酵,溫斯伯格和羅賓斯(Aimee van Wynsberghe 和 Scott Robbins)在2019年所發(fā)表的論文中對支持人工代理具有道德責(zé)任的理由提出了質(zhì)疑[1]。波爾森(Adam Poulsen)等人則通過聯(lián)合一些機器倫理學(xué)家和評論家在2019年所發(fā)表的論文中對溫斯伯格和羅賓斯所提出的質(zhì)疑一一進行了反駁,并且就人工代理的道德責(zé)任的有用性和價值性達成了一致性的肯定意見[2]。然而,要想肯定人工代理具有道德責(zé)任,僅從有用性和價值性上做出回答是不夠的,必須要直面問題本身,并且提出合適的解決方案,即人工代理到底具有何種道德責(zé)任?如何對人工代理進行道德“追責(zé)”?本文正是通過對弗洛里迪和桑德斯(Luciano Floridi 和 J. W. Sanders)的人工代理“道德問責(zé)”理論以及科克爾伯格(Mark Coeckelbergh)的“虛擬責(zé)任”理論進行梳理和反思來為以上問題提供可能的參考答案,并為以后其他更好的方案提供啟發(fā)式的借鑒。
弗洛里迪和桑德斯借用計算機科學(xué)中常用的方法——“抽象性層次(Level of Abstraction,LoA)”方法來分析人工代理的特性。弗洛里迪和桑德斯認為:“抽象性層次是一組有限但非空的可觀察量,并且這一可觀察量是非序列式的,在一個以它們的定義為特征的理論中,可觀察量被認為是組成參數(shù)。”[3]基于此,弗洛里迪和桑德斯認為這一方法的優(yōu)勢在于,“抽象性充當(dāng)精確定義背后的‘隱藏參數(shù)’,對定義產(chǎn)生至關(guān)重要的影響”,而“每個定義都是通過一個隱式抽象性層次預(yù)先格式化的;可以說,它是穩(wěn)定的,允許一個恰當(dāng)?shù)亩x”[4]。也正是因為這個優(yōu)勢,經(jīng)過“抽象性層次”方法抽取出來的“可觀察量”對于某一定義有穩(wěn)定和兼容作用,這樣一來,它就能解決某些定義的模糊性、易變性或復(fù)雜性問題。弗洛里迪和桑德斯認為“代理”就是這類模糊、易變、復(fù)雜的定義[4]。因此,面對棘手的“代理”定義,弗洛里迪和桑德斯不得不使用“抽象性層次”方法。
如何用這一方法來定義人工代理呢?弗洛里迪和桑德斯認為,我們可以從人類身上抽象出3個“可觀察量”:“交互性”“自主性”和“適應(yīng)性”[4]。具體來說,“交互性意味著代理及其環(huán)境(可以)相互作用”[4];“自主性是指代理能夠在不直接響應(yīng)交互的情況下更改狀態(tài):它可以執(zhí)行內(nèi)部轉(zhuǎn)換來更改其狀態(tài)”[4];“適應(yīng)性意味著代理的交互可以改變它改變狀態(tài)的轉(zhuǎn)換規(guī)則”[4]。那么這3個“可觀察量”能否經(jīng)得起人工代理的檢驗?zāi)??弗洛里迪和桑德斯列舉了一個網(wǎng)絡(luò)機器人(Webbot)的例子,他們認為,通過適當(dāng)?shù)剡\用“抽象性層次”方法,可以抽象出網(wǎng)絡(luò)機器人的3個“可觀察量”,“交互性”(它能收發(fā)電子郵件,有輸入和輸出值)、“自主性”(它能自動處理電子郵件)和“適應(yīng)性”(它能夠根據(jù)人類的偏好來選擇性地處理電子郵件),因此,它可以看作是人工代理[4]。需要注意的是,并不是說網(wǎng)絡(luò)機器人只有這3個“可觀察量”,其“可觀察量”的多少取決于我們運用“抽象性層次”方法的程度,“抽象性層次越高,具體的參數(shù)越少,外延越大”[5]。這一點為后面弗洛里迪和桑德斯反駁人工代理的“意向性”奠定了基礎(chǔ)。
在運用“抽象性層次”方法分析完人工代理之后,弗洛里迪和桑德斯論證了人工代理也是道德代理。他們首先給出了一個命題“O”:“(O)當(dāng)且僅當(dāng)行為能引起道德上的善或惡時,該行為才被認為是道德上可限定的。一個代理人被稱為道德代理人,當(dāng)且僅當(dāng)它具有道德上可限定的行為的能力?!盵4]“O”命題實質(zhì)上是指,具備能夠引起道德上的善或惡的能力的代理,都可以稱為道德代理。那么人工代理能否引起道德上的善或惡呢?弗洛里迪和桑德斯認為,傳統(tǒng)道德理論通常將惡區(qū)分為由人類產(chǎn)生的“道德惡(Moral Evil)”和由非人類產(chǎn)生的“自然惡(Natural Evil)”,但是“最近,由于網(wǎng)絡(luò)空間中自主性代理的發(fā)展,一種新的有趣而重要的混合惡浮出水面”,這種“惡”就是“人工惡(Artificial Evil)”[6]。需要注意的是,“人工惡”也是一種道德上的惡,只不過其形成的原因是由于人工代理的形成。再結(jié)合“O”命題可以推斷,人工代理可以稱為道德代理。
盡管將人工代理稱為道德代理的相關(guān)論證比較充分,但是弗洛里迪和桑德斯認為,學(xué)者們可能還會主要從人工代理的“意向性”“自由”和“道德責(zé)任”3方面提出反對意見,為此,他們進行了一一回應(yīng)[4]。首先,弗洛里迪和桑德斯認為,對于“意向性狀態(tài)”的分析不僅不必要而且在實踐中還很難實現(xiàn),因為我們很難“進入代理的精神或意向性狀態(tài)”中[4]。而“抽象性層次”方法則可以避免“意向性”分析在實踐中的困難,因為它的機理是分析者依據(jù)理論需要,在適當(dāng)?shù)摹俺橄笮詫哟巍鄙?,抽象出分析對象的“可觀察量”。因此,“它保證了一個人的分析真正僅僅基于特定的可觀察量而不是某些心理猜測”[4]。其次,弗洛里迪和桑德斯認為經(jīng)過“抽象性層次”方法定義的人工代理同樣具有“自由”特征。他們認為“抽象性層次”方法揭示了人工代理的3個最基本的“可觀察量”:“交互性”“自主性”和“適應(yīng)性”。人工代理的自由體現(xiàn)為,“如果它們有不同的選擇,它們可以采取不同的行動”[4]。人工代理不僅可以自主地改變內(nèi)部狀態(tài),而且可以依據(jù)外部環(huán)境調(diào)整內(nèi)部狀態(tài)變化的規(guī)則,這些既取決于外在條件約束,又取決于人工代理自身的選擇。
此外,弗洛里迪和桑德斯認為,表面上我們很難從道德層面譴責(zé)機器人,但實際上“我們能夠避免與‘沒有責(zé)任,就沒有道德代理,就沒有規(guī)范行為’相對應(yīng)的‘責(zé)任+道德代理=規(guī)范行為’的二分法。即使沒有責(zé)任(Responsibility),只有道德問責(zé)(Moral Accountability)和道德行為的能力,促進規(guī)范行為也是完全合理的”[4]。弗洛里迪和桑德斯建議我們要突破傳統(tǒng)的追責(zé)觀,即不要將道德責(zé)任和道德代理捆綁在一起,我們可以把焦點放在“道德問責(zé)”和“道德行為的能力”上,這樣做也可以“促進規(guī)范行為”??梢哉f,弗洛里迪和桑德斯的這一建議是為人工代理量身定做的。如前所述,人工代理之所以能成為道德代理,是因為人工代理能引起道德上的善或惡,而這恰恰體現(xiàn)了人工代理具備“道德行為的能力”。盡管這樣,對于不可承擔(dān)道德責(zé)任的人工代理而言不能真正地去追責(zé),而只能“問責(zé)”。道德問責(zé)和道德責(zé)任看似十分相似,但仍存在差別。一般來說,問責(zé)是指在事情發(fā)生之后才會讓一個人去承擔(dān)的責(zé)任,而責(zé)任可以產(chǎn)生在事情發(fā)生之前,也可以產(chǎn)生在之后。當(dāng)人工代理的行為產(chǎn)生了“人工惡”的后果時,我們可以采取一系列做法去制止或者處理它們,可以實現(xiàn)對它們“問責(zé)”,但無法讓它們承擔(dān)責(zé)任。
可以看出,通過對道德問責(zé)和道德責(zé)任的區(qū)分,弗洛里迪和桑德斯不僅合理地解決了人工代理的道德責(zé)任困境,而且使得相關(guān)責(zé)任的分配更加清晰,道德責(zé)任可以由相關(guān)責(zé)任人(人類)來承擔(dān),同時也可以對人工代理進行“問責(zé)”。弗洛里迪和桑德斯還指明了人工代理的“問責(zé)”方式。他們認為,“為了保持人類和人工道德代理之間的一致性,我們可以考慮如下類似步驟來譴責(zé)不道德的人工代理:(a)監(jiān)測和修改(即‘維修’);(b)斷開網(wǎng)絡(luò)鏈接;(c)從網(wǎng)絡(luò)空間刪除(無備份)?!盵4]如果說,弗洛里迪和桑德斯通過引入“道德問責(zé)”來做“減法”,成功地將道德責(zé)任從人工代理中分離了出去,卻又沒有免除人工代理的“責(zé)任”,那么科克爾伯格則通過引入“虛擬責(zé)任”來做“加法”,賦予了人工代理“虛擬道德責(zé)任”。
與弗洛里迪和桑德斯的直面應(yīng)對不同,科克爾伯格將“自由”和“意向性”問題高高掛起,對它們進行了懸置性處理??瓶藸柌袷紫韧ㄟ^以機器人為例子的人工代理提出了自己的方案。他認為:“不要問機器人是否有意識、理性、自由意志等等,讓我們把注意力轉(zhuǎn)向機器人是如何表現(xiàn)的:它是否‘表現(xiàn)’出了人類應(yīng)該具備的能力?如果是這樣,那么無論機器人是否真的具有這些能力和心理狀態(tài),我們都應(yīng)該將道德代理和道德責(zé)任賦予機器人?!盵7]科克爾伯格這樣做的理由是什么?為什么“表現(xiàn)”如此重要?這需要從他的理論源頭中尋找依據(jù)。科克爾伯格曾經(jīng)將自己的倫理學(xué)方法和傳統(tǒng)的應(yīng)用倫理學(xué)方法進行過對比,他認為傳統(tǒng)的應(yīng)用倫理學(xué)方法將道德原則抽象化,使得它“外在于人機交互”,不僅如此,抽象化的道德原則成為衡量人機交互結(jié)果的標(biāo)尺,“將道德規(guī)范限定在關(guān)注人機交互可能出錯的事情上”[8]。因此,它不僅無法合理地闡釋具體情境中的人機交互道德問題,而且也忽視了人機交互對于增進人類福祉的美德倫理問題。為了彌補這兩方面的缺陷,科克爾伯格認為,“除了上述方法論取向之外,另一種可能的選擇是轉(zhuǎn)向外觀倫理和人類善的倫理,即被理解為產(chǎn)生于經(jīng)驗和實踐的倫理”[8]。“人類善的倫理”與“虛擬懲罰”的最終目的有關(guān),后文將做詳細討論。而上述科克爾伯格所注重的“表現(xiàn)”就是來源于這里的“外觀倫理”。并且可以看出,無論是“人類善的倫理”,還是“外觀倫理”,它們產(chǎn)生的根源都是“經(jīng)驗和實踐”,這就為科克爾伯格從正面論證為什么要在人工代理的道德責(zé)任分析過程中懸置“自由”和“意向性”,而注重“表現(xiàn)”提供了理論依據(jù)。現(xiàn)實的道德實踐給予我們的經(jīng)驗是什么呢?科克爾伯格認為,現(xiàn)實的經(jīng)驗告訴我們,當(dāng)追究他人的道德責(zé)任時,我們既沒有“深入到他們思想的‘深處’”,又不是根據(jù)他們真正的“精神狀態(tài)”,而是“根據(jù)他們在我們面前的樣子”[7]。這正體現(xiàn)了外觀倫理的精髓,所謂“外觀”,就是指“表現(xiàn)”“樣子”等可以為對方所體驗、描述和把握的特性,顯然,外觀倫理更符合我們道德實踐的經(jīng)驗,并且是可描述和分析的,這也是外觀倫理方法的優(yōu)勢所在。
科克爾伯格還分析了專注于“自由”和“意向性”問題的傳統(tǒng)倫理學(xué)方法的困境和局限性,即從反面論證了為什么要在人工代理的道德責(zé)任分析過程中懸置“自由”和“意向性”,而注重外觀“表現(xiàn)”??瓶藸柌裾J為,傳統(tǒng)的定義分析和概念分析都無法解決被定義為“心理問題”的“人工代理的道德代理和道德責(zé)任問題”,而定義、概念分析法實則是一種將人工代理與其特性割裂開的認識論上的二分法。弗洛里迪和桑德斯之前已經(jīng)討論過這種方法在實踐中應(yīng)用的困難,并指出了“抽象性層次”方法的相對優(yōu)勢??瓶藸柌癞?dāng)然也認識到了這一方法的局限性,并提出了一種“非二元論的認識論”方法,這種方法的核心就是拒絕實體(人工代理)和實體的外觀之間的二分,它其實就是外觀倫理方法的重要體現(xiàn)。這一方法的優(yōu)勢至少有兩點:第一,可以彌補因“先驗的本體論或解釋學(xué)的優(yōu)先權(quán)”所導(dǎo)致的認識論鴻溝;第二,可以“接受一個實體可以以幾種方式出現(xiàn)在我們面前”[9]。前者可以避免傳統(tǒng)的定義分析和概念分析所帶來的困境;后者可以很好地“容納”不同的道德體驗,并可以對道德責(zé)任做出符合情境的解釋?!耙粋€實體可以以幾種方式出現(xiàn)在我們面前,”并不是說,實體(人工代理)自身發(fā)生變化,而是指隨著人機交互情境的變化,我們對實體(人工代理)的道德體驗或者感受會發(fā)生改變。如果將人機交互的道德責(zé)任問題放在更大的情境之中來考慮,它可能還會涉及跨文化的維度。科克爾伯格以無人駕駛汽車為例,認為“在不同的文化背景下,對自動化技術(shù)的感知、體驗和使用可能是不同的。這很可能對行使和承擔(dān)責(zé)任的條件產(chǎn)生后果。此外,責(zé)任的概念通常以文化上獨立的方式來界定,但不同的文化對責(zé)任的理解可能略有不同”[10]。在不同文化背景中,人們對于相同的人工代理所產(chǎn)生的行為可能會有不同的道德責(zé)任觀念。由阿瓦德(Edmond Awad)等學(xué)者帶領(lǐng)的來自哈佛大學(xué)和麻省理工學(xué)院的團隊通過模擬無人駕駛汽車道德決策場景,在線調(diào)查了全球233個國家和地區(qū)數(shù)百萬人的道德決策偏好,得出不同地區(qū)的文化傳統(tǒng)、經(jīng)濟、法制狀況與人的道德決策偏好、道德責(zé)任觀念緊密相關(guān)[11]。
人工代理的“自由”和“意向性”被懸置后,我們是否還能夠?qū)ζ洹白坟?zé)”呢?科克爾伯格對此進行了肯定的答復(fù)。他認為,“我創(chuàng)造了‘虛擬代理’和‘虛擬責(zé)任’這兩個術(shù)語,指的是人類基于對他人的體驗和表現(xiàn)而賦予彼此和(一些)非人類的責(zé)任。這個概念描述了我們現(xiàn)在和將來在道德上所談?wù)摰囊恍┓侨祟?包括人工代理),并維持我們的道德實踐?!盵7]可以看出,在人機交互過程中,“虛擬責(zé)任”取代了傳統(tǒng)的道德責(zé)任,成為“維持我們的道德實踐”的根據(jù)?!疤摂M責(zé)任”的形成土壤是“體驗和表現(xiàn)”,而它的形成動力學(xué)機制則是道德想象力。科克爾伯格認為,“無論人類善是否可能外在于人類體驗,我們必須研究、想象和塑造善可能會出現(xiàn)于其中的人類與機器人共同生活的具體情境。讓我們聆聽人們的體驗,并運用我們的道德想象力,找出是否有可能增進人類繁榮和福祉的人—機共同生活?!盵8]可以看出,道德想象力的重要作用就在于將源于人機交互的具體體驗與增進人類福祉的“人類善的倫理”緊密聯(lián)系在一起,為人機交互情境開辟了一條“道德通道”,也為對人工代理進行合理“追責(zé)”提供了參考依據(jù)。
接下來的問題是,如何對人工代理的“虛擬責(zé)任”進行“追責(zé)”呢?也就是說,當(dāng)人工代理犯了錯誤時,我們該如何來責(zé)備或者懲罰它們呢?科克爾伯格認為,“基于虛擬代理的虛擬責(zé)任應(yīng)該遵循虛擬指責(zé)和懲罰(如果有的話),而不是真正的責(zé)備和懲罰。”[7]所謂“虛擬懲罰”主要是指被懲罰的一方只要表現(xiàn)出“不愉快的心理狀態(tài)”的外觀就足夠了。 從表面上看,“虛擬懲罰”的力度太低了,其實不然,不是為了懲罰人工代理而進行懲罰,“虛擬懲罰”是為了維持良性的人機交互,而最終的目的是“增進人類繁榮和福祉的人—機共同生活”。從上述討論中可以看出,“虛擬懲罰”及其目的的順利實現(xiàn),必須要同時具備兩個條件:第一,人工代理要具有能表現(xiàn)出“不愉快”的能力和外觀;第二,“虛擬懲罰”要達到假戲真做的效果。就第一個條件而言,它是“虛擬懲罰”是否成功實施了的重要標(biāo)準(zhǔn),當(dāng)人工代理表現(xiàn)出“不愉快”,說明“虛擬懲罰”是有效的,反之則無效。然而,人工代理是人造的,具體來說,其“不愉快”的能力和外觀是設(shè)計師設(shè)計出來的。因此,“對于設(shè)計師來說,挑戰(zhàn)在于創(chuàng)造一個人造的‘演員’來產(chǎn)生這種外觀。那么,就道德地位和道德責(zé)任而言,重要的不是人工代理的人工智能(AI),而是與人工代理的外觀相關(guān)的人工表現(xiàn)(AP)。這種解決問題的方式更接近于許多設(shè)計師在實踐中真正的目標(biāo)。這也是一個對人類和人工代理交互的準(zhǔn)社會(Quasi-social)方面做出公正評價的概念。這就要求我們把人工代理納入道德考慮的范圍,通過認真對待它們,把它們當(dāng)作準(zhǔn)社會實體,因為它們憑借它們的外觀已經(jīng)成為我們社會考慮范圍的一部分。”[7]可以看出,重要的不是考慮設(shè)計師在實踐中是否能夠設(shè)計出“不愉快”外觀的人工代理,而是設(shè)計師對于這種“不愉快”外觀的人工代理的態(tài)度和接納程度,是否“把它們當(dāng)作準(zhǔn)社會實體”,進而將這一設(shè)計理念貫徹到所設(shè)計的人工代理之中。事實上,除了設(shè)計師之外,用戶也需要持有這種接納的理念。這就涉及了上述的第二個條件,就第二個條件而言,它是“虛擬懲罰”是否能達到最終目的的關(guān)鍵,只有當(dāng)事人(用戶)認可這種“虛擬懲罰”,并把它當(dāng)真的時候,人機交互才能持續(xù)進行下去,進而“增進人類繁榮和福祉的人—機共同生活”才能得以推進。要想用戶真正進入“角色”,將“虛擬懲罰”當(dāng)真,必須首先要將人工代理當(dāng)作“準(zhǔn)社會實體”,從思想觀念上接納它。但我們并不能因此就認為最終人工代理的道德責(zé)任歸因于設(shè)計師和用戶。對此的理解應(yīng)當(dāng)是,人類是促使人工代理的道德“追責(zé)”得以實現(xiàn)的關(guān)鍵,人類只有改變自己的觀念,接受 “人—機共同生活”的事實,并把“虛擬責(zé)任”當(dāng)作是人類倫理道德思想的一部分,對人工代理進行道德“追責(zé)”才有可能。
弗洛里迪和桑德斯與科克爾伯格對人工代理的道德責(zé)任研究有3點不同之處:第一,采用的方法不同。弗洛里迪和桑德斯通過“移花接木”的方式將一種計算機科學(xué)中的方法——“抽象性層次”方法運用于分析人工代理道德責(zé)任問題;而科克爾伯格則通過強調(diào)“道德體驗”“道德想象”等人文式的“外觀倫理”方法來感受和想象“虛擬責(zé)任”。第二,對“自由”和“意向性”的處理方式不同。弗洛里迪和桑德斯利用“抽象性層次”方法為人工代理量身打造了“可觀察量”(參數(shù))來替代傳統(tǒng)意義的“自由”和“意向性”;科克爾伯格則通過“外觀倫理”方法將道德責(zé)任問題的注意力轉(zhuǎn)移至“道德體驗”,同時懸置了“自由”和“意向性”。第三,對人工代理能否承擔(dān)道德責(zé)任的回答不同。弗洛里迪和桑德斯反對讓人工代理來承擔(dān)道德責(zé)任,同時肯定人工代理具備“道德行為的能力”,并可以對此進行“問責(zé)”;科克爾伯格則立足于人機交互的“道德體驗”提出了一種新型道德責(zé)任——“虛擬責(zé)任”,并進一步肯定了人工代理是可以承擔(dān)這種新型道德責(zé)任的。此外,弗洛里迪和桑德斯與科克爾伯格對人工代理的道德責(zé)任研究也有相同之處。他們最大的相同之處體現(xiàn)為,對傳統(tǒng)意義的“自由”和“意向性”與道德責(zé)任之間的關(guān)系的合理性存疑。弗洛里迪和桑德斯認為對經(jīng)由“抽象性層次”方法抽象出來的“可觀察量”的分析比對“自由”和“意向性”的“心理猜測”更可靠;科克爾伯格認為外觀倫理更符合我們道德實踐的經(jīng)驗,而不是思想深處的“自由”和“意向性”。
其實,“自由”和“意向性”不只是弗洛里迪和桑德斯與科克爾伯格分析人工代理道德責(zé)任的共同關(guān)注點,很多探討人工代理道德責(zé)任問題的學(xué)者都將它們視為核心問題。例如,蘇林斯(John P. Sullins)贊同弗洛里迪和桑德斯的“抽象性層次”方法,但與他們不同的是,蘇林斯不是用抽象后的“可觀察量”來取代“自由”和“意向性”,而是將“抽象性層次”作為人與人工代理之間的道德調(diào)節(jié)器,根據(jù)人機交互的水平來調(diào)節(jié)人工代理的“自由”和“意向性”層次,他認為,“當(dāng)存在合理的抽象層次時,我們必須承認機器人有自主的意圖和責(zé)任,機器人就是道德主體?!盵12]可見,蘇林斯并沒有回避人工代理是否具有“自由”和“意向性”這一問題,而是利用“抽象性層次”方法賦予其較大的解釋張力,結(jié)合具體的人機交互水平肯定了人工代理承擔(dān)道德責(zé)任的能力。安德森(Susan Leigh Anderson)則認為“自由意志”和“意向性”“這兩種屬性都不是在道德困境中做道德正確的行動和證明它的必要條件”。因此,她避免了對人工代理是否能夠承擔(dān)道德責(zé)任這一問題的討論,而是關(guān)注于人工代理的行為是否符合道德[13]。李倫和孫保學(xué)認為,由于人類還沒有足夠的處理“人工智能機器的錯誤”的經(jīng)驗,還未做好充分準(zhǔn)備,“將情感和自由意志賦予人工智能有可能會打開‘潘多拉的魔盒’”[14]。還有一些學(xué)者既沒完全否定也沒肯定人工代理具有“自由”和“意向性”屬性,而是將其和人工智能技術(shù)的發(fā)展程度捆綁在一起。摩爾(James H. Moor)認為人工代理作為道德代理主要有4個層次:“道德影響代理” “內(nèi)隱式道德代理”“外顯式道德代理” “完全道德代理”,而只有在“完全道德代理”或者之后的階段人工代理才有可能具有“自由”和“意向性”屬性[15]。通過上述的比較分析可以看出,“自由”和“意向性”是人工代理道德責(zé)任研究中的核心問題,對這一問題的不同處理方式直接決定了人工代理道德責(zé)任不同的研究路徑。究其根源,學(xué)者們對“自由”和“意向性”與道德責(zé)任之間的關(guān)系持不同的觀點,下面將從多個角度來考察它們之間的關(guān)系,以此來加深理解弗洛里迪和桑德斯與科克爾伯格關(guān)于人工代理道德責(zé)任的理論差異。
人工代理何以可能承擔(dān)道德責(zé)任?一般來說,若要能承擔(dān)道德責(zé)任,必須具備兩個基本條件,“自由”和“意向性”。“一個人只有是自由的,他才能對其行為負有道德責(zé)任?!盵16]但持決定論觀點的人認為人不是自由的,由此,學(xué)界產(chǎn)生了“相容論”和“自由論”之爭。簡單來說,“相容論”主張“自由以及道德責(zé)任與決定論是相容的”[16];相反,“自由論者主張自由(以及道德責(zé)任)與決定論是不相容的”[17]。盡管“相容論”和“自由論”持有不同的觀點,但需要注意,他們的爭論焦點是自由(以及道德責(zé)任)與決定論之間的“相容”關(guān)系,而并沒有否認“自由是道德責(zé)任的前提條件”[17]。美國學(xué)者亨馬(Kenneth Einar Himma)在分析道德代理的前提條件時也提出過類似的看法,他將“自由選擇自己行為的能力”看作是成為道德代理的必備條件之一[18]。其實,亞里士多德早在《尼各馬可倫理學(xué)》中就指出:當(dāng)人出于自身的意愿,自由地選擇去做一些美德之事時,應(yīng)當(dāng)受到“稱贊”;選擇去做一些惡事時,應(yīng)當(dāng)受到“譴責(zé)”。相反,當(dāng)人在違反意愿的情況下,去做一些不道德之事時,可以“得到原諒甚至有時得到憐憫”[19]。很顯然,是否出于意愿是一種自由意志的體現(xiàn),因此,從傳統(tǒng)的觀點來看,“自由”是能承擔(dān)道德責(zé)任的必要前提之一。
意向性是能承擔(dān)道德責(zé)任的另一個必要前提。一般來說,當(dāng)行為人對某一不道德的行為后果是有意為之的,他應(yīng)當(dāng)要對這一行為后果承擔(dān)道德責(zé)任。然而,如果行為人的行為產(chǎn)生了目標(biāo)后果以外的其他后果,但這一后果是行為人事前所能預(yù)見的,只是不希望它發(fā)生,那么,這種非目標(biāo)后果的道德責(zé)任能否也歸因于行為人的“意向性”呢?美國學(xué)者米爾和斯韋爾德利克(Alfred Mele 和 Steven Sverdlik)認為,邊沁(Bentham)通過區(qū)分“直接意向性”和“間接意向性”迂回地解決了可預(yù)見的后果和有意為之的后果之間的差別[20]。在行為人發(fā)起的行為過程中,可預(yù)見的后果既包括行為人有意為之的后果,也包括行為人不希望發(fā)生的后果?!爸苯右庀蛐浴睂?yīng)于“有意為之”的后果,“間接意向性”對應(yīng)于“可預(yù)見”但不希望發(fā)生的后果。在肯定邊沁貢獻的同時,米爾和斯韋爾德利克也指出了其不足,他們認為,盡管邊沁將意向性區(qū)分為“直接意向性”和“間接意向性”,但是他并沒有明確“間接意向性”與行為后果的道德責(zé)任之間的關(guān)系[20]。相反,他們認為西奇威克(Sidgwick)通過對“意向性”的補充性說明將“意向性歸因明確地與道德責(zé)任聯(lián)系在一起”,即“它使我們能夠讓一個人對他能夠預(yù)見但不希望發(fā)生的行為后果負責(zé)”[20]?!澳軌蝾A(yù)見但不希望發(fā)生的行為后果”就是指行為人的“間接意向性”所引起的后果。至此,我們可以看到,行為人因其行為后果而承擔(dān)的道德責(zé)任或者歸因于“直接意向性”,或者歸因于“間接意向性”。
綜合以上論述可以看出,在傳統(tǒng)道德責(zé)任觀中,“自由”和“意向性”不可或缺。
盡管上述的一些理論明顯強調(diào)了“自由”和“意向性”是人工代理能夠承擔(dān)道德責(zé)任的前提,但是在某些情況下,經(jīng)常會出現(xiàn)一些不滿足該前提的道德責(zé)任事實。例如,受身體機能影響的限制性選擇行為所造成的道德責(zé)任,或者我們經(jīng)??吹降摹昂眯霓k壞事”(無法預(yù)見的)而造成的道德責(zé)任。對于前一個情境而言,道德責(zé)任承擔(dān)者在當(dāng)時的情況下是被限制的,因而明顯沒有自由;對于后一個情境而言,道德責(zé)任承擔(dān)者的“意向性”不僅“失靈”了,而且還產(chǎn)生了意想不到的結(jié)果。因此,我們需要對看似合理的道德責(zé)任的基石——“自由”和“意向性”進行再質(zhì)疑。除了上述通過具體生活情境來對“自由”和“意向性”進行質(zhì)疑之外,還有學(xué)者從神經(jīng)科學(xué)的角度對“自由”和“意向性”作為道德責(zé)任的前提進行了反駁。一般來說,承擔(dān)道德責(zé)任的行動者的行動直接來源于其大腦的決定,而大腦的活動主要依賴于我們的神經(jīng)系統(tǒng),也就是說,“我們的決定早已由神經(jīng)系統(tǒng)代為作出”[21]。因此,看似自由的決定其實早已被“決定”,可見,不自由的行動者依舊要承擔(dān)道德責(zé)任。同樣,我們的“意向性”也是來源于神經(jīng)系統(tǒng),那么在“意向性”形成之前必然存在一種生理物質(zhì)發(fā)揮作用的“前意向”,而這種“前意向”是“意向性”得以形成的生理基礎(chǔ)。因此,我們常常認為有意而為之的事情,是否能夠被理解為是被神經(jīng)系統(tǒng)“強迫”而為之的呢?其實,目前已經(jīng)有神經(jīng)科學(xué)家和機器人專家著手設(shè)計“意向性代理”了,盡管目前還沒有實現(xiàn)目標(biāo),但可以猜測“意向性代理”的意向性也只是電流的產(chǎn)物。宋尚瑋從演化論的角度認為,道德準(zhǔn)則的內(nèi)化使得“自由意志不是道德責(zé)任的必要條件而是充分條件”[21]。張正清和黃曉偉分別通過反駁人類“智能優(yōu)越論”和類比智能機器與人類的“行為偏差概率”,對傳統(tǒng)意義上的自主性進行了質(zhì)疑,此外,他們還通過關(guān)注智能機器的“行為恰當(dāng)性”和否定“道德狀態(tài)”確證的必要性,對傳統(tǒng)意義上的“意向性”進行了質(zhì)疑,并且他們認為這些質(zhì)疑與“現(xiàn)代社會中智能機器的廣泛應(yīng)用”有關(guān)[22]。其實,以人工智能技術(shù)為典型的現(xiàn)代技術(shù)不僅只是從必要條件上引起了道德責(zé)任的相關(guān)質(zhì)疑,而且它們還形成了使傳統(tǒng)道德責(zé)任觀發(fā)生改變的場域基礎(chǔ)。
從歷史唯物主義視角來看,道德責(zé)任源于我們的日常生產(chǎn)、生活活動,它是人們在社會實踐過程中相互協(xié)作、協(xié)調(diào)利益的必然結(jié)果。因此,道德責(zé)任并不是一成不變的,而是具有很強的社會歷史性。隨著現(xiàn)代科學(xué)技術(shù)的發(fā)展,人與技術(shù)、技術(shù)與社會深度融合,人的實踐活動被卷入到了現(xiàn)代技術(shù)場域之中,它引起了傳統(tǒng)道德責(zé)任觀的改變,這種改變主要體現(xiàn)在兩個方面:
第一,技術(shù)的發(fā)展和應(yīng)用加速推進了道德的“物轉(zhuǎn)向”。不同于傳統(tǒng)的掌握在人的“手中”的“工具”技術(shù),新興的人工智能技術(shù)、數(shù)據(jù)技術(shù)等已經(jīng)嵌入到我們的身心之中,技術(shù)與人的高度融合模糊了人類與機器的界限,“行動者”(拉圖爾語)成為我們社會的一部分,在關(guān)系的“網(wǎng)絡(luò)”中與人相互構(gòu)建,這必將引起道德嵌入技術(shù)與技術(shù)塑造道德的雙向運動。道德的“物轉(zhuǎn)向”已經(jīng)跳出了傳統(tǒng)的人與人之間的道德觀,而進入到“人—技術(shù)”的道德解釋框架之中。在這一新的解釋框架內(nèi),“人—技術(shù)”時常呈現(xiàn)為交互式道德責(zé)任,并且道德責(zé)任相關(guān)的“自由” “意向性”也不限于人類,還應(yīng)當(dāng)涵蓋“人—技聯(lián)結(jié)體”混合式的自由、“技術(shù)意向性”[23]。作為一種“人—技聯(lián)結(jié)體”混合式的自由,不再完全由人類主體實現(xiàn),而是在技術(shù)內(nèi)化、互動、調(diào)解過程中建構(gòu)性地實現(xiàn)著;在人與技術(shù)共同參與的活動中,技術(shù)通過“放大” “縮小” “激勵” “抑制” “表現(xiàn)” “建構(gòu)”等一系列機制來共塑“意向性”[24]??梢?,在技術(shù)的深度融合下,技術(shù)與道德的雙向作用使傳統(tǒng)道德責(zé)任觀發(fā)生了新的改變。
第二,在現(xiàn)代科技的深遠影響下,道德責(zé)任實現(xiàn)了“遠距離”延伸。一般來說,傳統(tǒng)道德責(zé)任觀更加關(guān)注當(dāng)下的責(zé)任問題,并且也通常立足于特定的文化傳統(tǒng)來考慮道德責(zé)任問題。但是現(xiàn)代新興技術(shù)憑借其影響深度、作用廣度、復(fù)雜程度打破了傳統(tǒng)的道德責(zé)任時空界限,將其延伸至未來,拓展至全球。而這種“時間上未來的人類和空間上遙遠的區(qū)域”實則是“遠距離”的[25]。也就是說,我們必須要對因“技術(shù)文明”的跨時空作用所產(chǎn)生的后果承擔(dān)道德責(zé)任,為子孫后代負責(zé),為全人類負責(zé)。例如,人工智能技術(shù)已經(jīng)席卷全球,并且深刻影響未來社會的發(fā)展,其可能會產(chǎn)生的道德風(fēng)險不再局限于眼前和特定地區(qū),因此,它所指向的道德責(zé)任應(yīng)當(dāng)是“遠距離”的。盡管,“遠距離”道德責(zé)任的本意是對人類提出要求,但考慮到其時間跨度之長,從長遠來看,人與技術(shù)必將深度融合,諸如“電子人”“賽博人”等人機結(jié)合體必然也會成為我們的“社會成員”。因此,我們是否有必要給它們也賦予承擔(dān)道德責(zé)任的能力呢?總之,技術(shù)發(fā)展和應(yīng)用的累積效應(yīng)不僅僅是從時間和空間上延展了道德責(zé)任的范圍,同時也將“不在場”的“道德行動體”納入道德責(zé)任的考量之中。
結(jié)合之前弗洛里迪和桑德斯以及科克爾伯格對人工代理的道德責(zé)任分析可以看出,科克爾伯格顯然已經(jīng)意識到了現(xiàn)代技術(shù)場域?qū)Φ赖仑?zé)任的改變。例如,他在分析“人類善的倫理”時強調(diào)了當(dāng)事者要發(fā)揮“道德想象力”,而想象力是指向未來的人機交互情境的,這與“遠距離”道德責(zé)任中的時間維相符;他在分析無人駕駛汽車情境中的道德責(zé)任時強調(diào)了跨文化的維度,這與“遠距離”道德責(zé)任中的空間維相符。此外,他還認為人工代理可以當(dāng)作“準(zhǔn)社會實體”,其實就是默認了人工代理能夠承擔(dān)道德責(zé)任,只不過這是一種新型的道德責(zé)任——“虛擬責(zé)任”。而弗洛里迪和桑德斯并沒有真正承認人工代理的道德責(zé)任,只是小心翼翼地將道德責(zé)任從人工代理中分離了出來,但分離的好處是為社會技術(shù)系統(tǒng)中的“分布式”道德責(zé)任打下了基礎(chǔ)。
可見,科克爾伯格已經(jīng)跳出了傳統(tǒng)的道德責(zé)任研究范式,關(guān)注到了現(xiàn)代技術(shù)場域中的道德責(zé)任的新變化,真正做到了“與時俱進”,而弗洛里迪和桑德斯則還沉浸在傳統(tǒng)道德責(zé)任研究范式里,用“抽象性層次”方法來為人工代理量身打造“自由”“意向性”等傳統(tǒng)道德責(zé)任的必要條件。相比而言,科克爾伯格的理論更貼近當(dāng)今科技發(fā)展的事實,并體現(xiàn)出較強的生命力。因此,筆者更為認同科克爾伯格的人工代理道德責(zé)任理論。
鑒于已有的技術(shù)水平和人類的道德觀念、認知水平,人工代理的道德“追責(zé)”還有很長的路要走。第一,人工情感表達是對人工代理的“虛擬責(zé)任”進行“追責(zé)”的前提,但目前的技術(shù)水平難以保證人工代理具備表達豐富情感的能力,鑒于情感難以分類、界定,人工情感是當(dāng)前人工智能的棘手問題。第二,傳統(tǒng)道德觀念有很強的歷史慣性,盡管現(xiàn)代技術(shù)改變了道德責(zé)任的場域,但人們的觀念依舊容易停留于傳統(tǒng)之中,賦予人工代理“準(zhǔn)社會實體”的身份將是一個漫長的過程,這點從動物被人類馴化的漫長歷史就可以看出,更何況人工代理還是非生物體。第三,盡管我們可以憑借“道德想象”對道德“追責(zé)”進行“遠距離”籌劃,但鑒于新興技術(shù)的加速發(fā)展,未來的技術(shù)—道德圖景將會十分復(fù)雜,“想象”同樣也會有邊界??傊覀兗纫吹綄θ斯ご磉M行道德“追責(zé)”的理論可能性,又要清醒地認識到理論成為現(xiàn)實的過程不是一蹴而就的。因此,我們不能因為要對人工代理進行“追責(zé)”而忽視了人類自身的道德責(zé)任。其實,正如科克爾伯格所強調(diào)的,人類自身才是促進實現(xiàn)人工代理的道德“追責(zé)”的關(guān)鍵因素,科技進步、社會發(fā)展是時代的潮流,人工智能應(yīng)當(dāng)促進人類的福祉已經(jīng)成為社會的廣泛共識。因此,我們需要發(fā)揮“完全道德能動體”的作用。一方面,在社會技術(shù)系統(tǒng)的道德分配網(wǎng)絡(luò)中積極承擔(dān)道德責(zé)任;另一方面,要及時更新思想觀念,讓倫理道德的思想寶庫成為人類幸福的燈塔。