朱 振
作為一項融合了多種高科技手段的新型人工智能技術(shù),自動駕駛系統(tǒng)替代人類駕駛員是一個逐步實現(xiàn)的過程。實際上,現(xiàn)今我們在技術(shù)層面還無法做到完全的自動駕駛,只能是部分的自動駕駛。完全的自動駕駛就是美國道路交通安全局定義的第四階段:加速、操控方向盤、剎車全部由系統(tǒng)控制,無需駕駛?cè)藛T進行任何操作?!?〕See Brian A. Browne, “Self-Driving Cars: On the Road to a New Regulatory Era” 8 (1) Journal of Law, Technology & the Internet 1-19 (2017). 轉(zhuǎn)引自儲陳城:《自動汽車程序設(shè)計中解決“電車難題”的刑法正當(dāng)性》,載《環(huán)球法律評論》2018年第3期,第83頁。甚至在接近完全自動駕駛的準(zhǔn)自動駕駛階段,自動駕駛系統(tǒng)的算法程序設(shè)計就開始面對一個類似于“電車難題”的獨特問題,即碰撞選擇。本文的討論限定在接近完全自動駕駛系統(tǒng)上,因為不完全的自動駕駛意味著人類駕駛員要隨時掌控汽車,這將導(dǎo)致碰撞選擇的規(guī)則設(shè)定和責(zé)任承擔(dān)過于復(fù)雜,不利于對碰撞核心問題的討論。
自動駕駛的碰撞難題涉及復(fù)雜的選擇:物與物的碰撞、人與物的碰撞和人與人的碰撞。根據(jù)普遍接受的碰撞倫理,兩個碰撞對象都為財物的,優(yōu)先保護價值高的財物;在人與物的碰撞情形中,優(yōu)先保護人。這兩種類型的碰撞屬于不真正的兩難困境,真正的兩難困境涉及人的碰撞選擇。〔2〕參見王瑩:《法律如何可能?——自動駕駛技術(shù)風(fēng)險場景之法律透視》,載《法制與社會發(fā)展》2019 年第6 期,第109 頁。人的碰撞選擇就意味著生命的衡量,這也是電車難題的核心所在,于是破解自動駕駛系統(tǒng)算法設(shè)計的“電車難題”就是本文的主要任務(wù)。
富特(Philippa Foot)在20 世紀60 年代一篇討論墮胎的著名論文中提出了后來被稱為“電車難題”(The Trolley Problem)〔3〕電車案例是由富特首先提出的,See Phillipa Foot, “The Problem of Abortion and the Doctrine of the Double Effect” 11(5) Oxford Review 5-15 (1967). 但是“電車難題”這個稱謂首先是由湯姆森(Judith Jarvis Thomson)提出的:“為什么電車司機可以改變電車方向來救五個人,而外科醫(yī)生不可以切割其健康標(biāo)本來救五個人?我想稱之為電車難題,以紀念富特夫人的案例?!盨ee Judith Jarvis Thomson, “Killing, Letting Die, and the Trolley Problem” 59(2) The Monist 206 (1976). 后來湯姆森用電車難題來指一組不同的案例,而且在這篇論文中,湯姆森還引入了“旁觀者的兩項選擇案例”。See Judith Jarvis Thomson, “The Trolley Problem” 94(6) The Yale Law Journal 1395-1415 (1985). See also F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.47-48. Note 3, 11.的假想案例:一輛失控的電車即將撞向軌道上的五個人,避免撞死這五個人的唯一辦法是司機把電車轉(zhuǎn)向另一條軌道,并且撞死岔道上的另一個人,而這個人在所有的道德相關(guān)性方面與五人中的每一個都是平等的。這是一個比較初級的電車難題,卡姆(F. M. Kamm)又稱為“電車司機的兩項選擇案例”。〔4〕這里關(guān)于電車難題的概述來自卡姆,See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.11-12. See also Philippa Foot, “The Problem of Abortion and the Doctrine of the Double Effect”, in her Virtues and Vices and Other Essays in Moral Philosophy, Blackwell, 1978, pp.19-32.“電車難題”后來發(fā)展出很多復(fù)雜的變形,這里所介紹的只是其中最基礎(chǔ)的一種情形,下文第二部分還會詳細說明其他的基本形態(tài)。在自動駕駛即將到來的時代,道德哲學(xué)上的這個著名難題已不再只是一個思想實驗,而成為自動駕駛系統(tǒng)需要面對的現(xiàn)實困境。因為再完善的自動駕駛技術(shù)也可能面臨極端情況下的碰撞選擇,是犧牲自己還是選擇撞人,是撞一個人還是多個人、老人還是小孩、遵守規(guī)則者還是不遵守規(guī)則者……這些都涉及選擇的道德與法律難題。將來商業(yè)化的自動駕駛汽車一定會面臨這些難題,因此未雨綢繆的碰撞倫理難題引起了社會和學(xué)界的廣泛關(guān)注,道德和法律決策將如何抉擇是一個需要研究的重要課題。
當(dāng)然,本文并不是要單純重復(fù)道德哲學(xué)關(guān)于電車難題的已有討論成果,而是要在自動駕駛的語境中重新構(gòu)造電車難題,并提煉自動駕駛之電車難題的核心問題;并在此基礎(chǔ)上,引入哲學(xué)上關(guān)于電車難題之碰撞選擇的道德原則,為討論自動駕駛的碰撞倫理與法律規(guī)制提供背景與討論的基礎(chǔ),因為任何研究都必須建立在已有的基礎(chǔ)之上。但關(guān)鍵是,我們要找出自動駕駛和電車難題的差異,看一看這些熟悉的道德哲學(xué)原理怎么樣適用于自動駕駛領(lǐng)域,而不是簡單移植。此外,碰撞倫理不僅涉及道德價值的排序,而且也和法律制度設(shè)計緊密相關(guān)。人類駕駛員即使為了自保而造成了事故,可以基于法律上的緊急避險只承擔(dān)有限的侵權(quán)責(zé)任而免于刑事處罰。但是自動駕駛系統(tǒng)重構(gòu)了人機模式,我們需要重新建立關(guān)于責(zé)任的理論與制度。盡管制度設(shè)計不是本文討論的重點,但是自動駕駛碰撞倫理與法理卻是建立相關(guān)制度的理論前提。
在對“電車難題”的大量討論中,盡管學(xué)者們對這一用法的含義有不同的界定,而且這一難題也發(fā)展出了各種各樣的類型,但是它有兩個基本形態(tài):一是電車司機能否改變電車方向,二是旁觀者能否改變方向,各種變體基本都是圍繞這兩種基本形態(tài)發(fā)展出來的。一開始本文就簡述了司機的兩項選擇案例,這是電車難題的一種基礎(chǔ)版本;另一個基礎(chǔ)版本是湯姆森的“道岔旁的旁觀者”(Bystander at the Switch)案例:司機看到前面軌道上有五個人,他踩了剎車,而剎車失靈,所以他暈倒了。你可以搬動岔道扭轉(zhuǎn)電車方向,當(dāng)然這會殺死一個人?!?〕Judith Jarvis Thomson, “The Trolley Problem” 94(6) The Yale Law Journal 1397 (1985). 關(guān)于旁觀者案例的另一種表述,See Judith Jarvis Thomson, “Kamm on the Trolley Problems”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.115. 湯姆森說的一個類似案例可以參見N. A. Davis, “The Priority of Avoiding Harm”, in Bonnie Steinbock ed., Killing and Letting Die, Prentice-Hall, 1980, pp.172, 194-195. 其實湯姆森最早在1976 年的那篇論文(“Killing, Letting Die, and the Trolley Problem”)中所討論的司機死亡而電車上的乘客是否可以變換軌道的難題本質(zhì)上就是旁觀者視角的案例。從提出這個案例開始,湯姆森明確地限縮了“電車難題”的含義,即這一難題排除了司機選擇的難題,而專指旁觀者是否可以改變電車方向這一令人困惑的難題。〔6〕See Judith Jarvis Thomson, “The Trolley Problem” 94(6) The Yale Law Journal 1401(1985). See also Judith Jarvis Thomson, “Turning the Trolley” 36(4) Philosophy & Public Affairs 362-363 (2008). 另外,本文所概述的各種電車難題也是限縮版的,無論是富特、卡姆還是湯姆森的電車難題都是在對比兩種行為的意義上來界定的,比如富特的難題是為什么司機可以改變電車方向而器官移植案例中的外科醫(yī)生卻不可以為了救五個人而有意殺害一個健康人;湯姆森的電車難題比較了旁觀者改變電車方向與推倒胖子的行為;而卡姆認為司機選擇難題和旁觀者難題都屬于電車難題的范圍。See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.20-21.這兩種版本的電車難題各自發(fā)展出眾多不同的改進形式以驗證道德理論,這一劃分其實是兩種看待問題的視角的劃分。司機和旁觀者的身份、位置以及與事件的關(guān)聯(lián)度等都存在很大差異,同樣在討論是否能夠改變電車方向問題時,正是上述差異導(dǎo)致了非常不同的結(jié)論。我們在直覺上會認為,自動駕駛汽車面臨的碰撞難題非常類似于電車難題,那么這里的碰撞難題類似于哪一種形態(tài)的電車難題呢?或者說它們之間存在哪些類似點和不同點?
我們先看它們之間的相似點。在視角上,第一種類型的電車難題類似于有人駕駛汽車,而無人駕駛汽車更類似于湯姆森所界定的旁觀者的電車難題。旁觀者似乎可類比于制造商及其算法設(shè)計者,因為他們看待這個問題的視角更像是一種超然的態(tài)度,而不像人類駕駛員那樣要身臨其境去做決定。而且人類駕駛員一定會做出有利于自己的決定,而算法設(shè)計必然要進行通盤考慮。電車司機所面臨的情況與有人駕駛汽車的司機所面臨的碰撞難題是高度類似的,所以刑法教科書會通過有軌電車案來討論刑法中的緊急避險行為。最高級別的自動駕駛系統(tǒng)沒有司機這個角色,所有人都是乘客;而自動駕駛汽車的乘客對碰撞行為基本置身事外,他(她)不能做出任何決定或行為,所以這里的乘客與湯姆森所舉的司機死亡后乘客來接管并做決定的例子是完全不同的。做出決策的是事先已經(jīng)確定碰撞選擇順序的制造商及其算法設(shè)計者,其地位類似于第二類電車難題中的旁觀者,他可以改變事件的進程;如果旁觀者沒有做任何事,就相當(dāng)于放任電車繼續(xù)前行。
但旁觀者的電車難題與自動駕駛的碰撞難題也存在著比較大的差異。第一,電車難題是兩項選擇案例,而碰撞難題嚴格來說是三項選擇案例。后者在面對避免碰撞五人的選擇時,既可以轉(zhuǎn)向而撞向一人,也可以選擇傷害乘客的方式來避免撞向五人,這也是一種選擇。第二,旁觀者與電車事件是不相關(guān)的,與五人所受到的電車威脅也沒有必然關(guān)系,因此旁觀者可以持一種相對超然的態(tài)度。無論是在兩項選擇還是在三項選擇的旁觀者電車難題中,旁觀者的放任本身似乎不會產(chǎn)生道德上的爭議,因為他本來就是局外人。而在自動駕駛的碰撞難題中,制造商或算法設(shè)計者是深度參與其中的,不做選擇或不做改變也是一種選擇,而且具有重要的道德意義。第三,嚴格說來,自動駕駛的碰撞選擇既是旁觀者視角的也是局內(nèi)人視角的,自動駕駛的算法程序?qū)嶋H上承擔(dān)了司機的角色,是以一種相對超然的態(tài)度承擔(dān)了司機的角色。這有點類似于卡姆所說的“旁觀司機的兩項選擇案例”(Bystanding Driver Two Options Case),旁觀司機這個身份也面臨著要么任由五人死亡要么殺死一人的艱難選擇,〔7〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.18-19.盡管二者也存在微妙差異。
其實我們也可以虛構(gòu)一個帶有三個選項的電車難題案例來進一步融合上述第一種差異,然后再結(jié)合基礎(chǔ)電車難題,以驗證我們的道德與法律哲學(xué)理論。令人贊嘆的是,湯姆森設(shè)計了這樣一種案例,即“旁觀者三項選擇”(Bystander’s Three Options)案例:“這個旁觀者可以通過兩種方式來搬動岔道。如果他搬向右邊,那么電車就會轉(zhuǎn)向右邊的軌道岔道上,從而殺死一名工人。如果他搬向左邊,那么電車就會轉(zhuǎn)向左邊的軌道岔道上。旁觀者自己站在軌道左側(cè)的岔道上,而電車一旦駛向左側(cè)他自己將會被撞死?;蛘?,他當(dāng)然可以袖手旁觀,任由五個工人死去。”〔8〕Judith Jarvis Thomson, “Turning the Trolley” 36 (4) Philosophy & Public Affairs 364 (2008).于是,旁觀者可做出的三項選擇就是:第一,袖手旁觀,任由五人死亡(選擇一);或者第二,把岔道搬向右邊,殺死一人(選擇二);或者第三,把岔道搬向左邊,殺死自己(選擇三)?!?〕Judith Jarvis Thomson, “Turning the Trolley” 36 (4) Philosophy & Public Affairs 364 (2008).
旁觀者的三項選擇案例似乎更加類似于自動駕駛的碰撞倫理所面臨的艱難選擇,但深究起來,它們之間也有一個非常重大的差別,即旁觀者的第三種選擇即自我犧牲是自愿做出的。但是碰撞難題如果選擇犧牲或傷害乘客卻不存在自愿與否的問題,制造商或算法設(shè)計者置身于事件之外,盡管并不置身于責(zé)任之外。這是一種表面的不同,實際上這兩種情形都是以一種超然的視角來討論道德原則的選擇問題,而不是從第一人稱視角來討論是否自愿的問題。它們都是在討論應(yīng)否犧牲旁觀者自己或自動駕駛汽車中的乘客,而不是就某個乘客或旁觀者是否自愿進行實證調(diào)查。除此之外,二者的出發(fā)點還是一致的:思想實驗的關(guān)鍵在于驗證理論。除了袖手旁觀之外,旁觀者的其他兩種選擇并不是完全獨立的,選擇三的辯護理由會影響選擇二,這也是我們首先要討論湯姆森三項選擇案例的理由。關(guān)于這一點,本文接下來的兩個部分還要進行更為詳盡的討論。
總結(jié)來看,自動駕駛的三項選擇難題吸收了富特的電車難題、湯姆森的兩項旁觀者難題以及后來的三項選擇旁觀者難題,而成為一種新型“電車難題”。這種“新”體現(xiàn)在:第一,自動駕駛系統(tǒng)既是旁觀者視角的,又是司機視角的,是融合了兩種視角的系統(tǒng);第二,這種相對超然的視角確保決策者不會涉及自我犧牲或自我傷害的問題;第三,司機的替代身份又決定了選擇三的理由會嚴重影響決策者的其他判斷;重要的是第四,自動駕駛系統(tǒng)的算法程序并不是由單一角色的利益決定的,而是體現(xiàn)為一種運用公共理性的融貫的哲學(xué)論證。所以這是一種新型的電車難題,自動駕駛汽車的制造商或算法決定者要做出的選擇直接指向三個對象:乘客、直接碰撞對象和可選擇的碰撞對象。但是這三種對象在道德相關(guān)性是不一樣的,乘客具有優(yōu)先性,它在道德相關(guān)性的所有方面與其他兩個選擇對象是不平等的。除乘客之外的可選擇的碰撞對象在道德相關(guān)性方面也可能存在差異,但這種差異是否足夠大以至于會影響我們的碰撞選擇,則是需要進一步認真考慮的問題。無論如何,除去乘客,自動駕駛的碰撞選擇基本就變成了一個旁觀者視角的電車難題。
由此可見,不同的視角會產(chǎn)生不同的難題。自動駕駛系統(tǒng)的視角是復(fù)合型的,而且其可選擇的碰撞對象在道德相關(guān)性方面也存在差異。與傳統(tǒng)的人類駕駛汽車相比,自動駕駛汽車取消了司機的角色,它自己變成了“司機”和車輛一體的存在。司機變成了傳統(tǒng)意義上的乘客,所有人都成為乘客。司機的角色和任務(wù)被替代了,但不是被取消了。人類司機轉(zhuǎn)化成了乘客,所以起到替代作用的算法程序也要優(yōu)先考慮乘客要是處在司機的位置上會做出的選擇。這不僅僅是一種角色替代,更重要的是要置身于這個角色感同身受地推理,〔10〕在方法論上,這就像哈特所說的一種基于內(nèi)在認同式的“自身置入”;也就是說,算法設(shè)計者自身要置入到司機的位置上。See H. L. A. Hart, The Concept of Law, Third Edition, Oxford University Press, 1994, p.242. See also Clifford Geertz, “Thick Description: Toward an Interpretive Theory of Culture”, in Clifford Geertz, The Interpretation of Cultures, Basic Books, 1973, p.9.否則作為乘客的司機沒有必要去接受自動駕駛而使自己的生命健康受到危害。從公平的角度講,這一要求是合理的。而且自動駕駛作為一款人工智能產(chǎn)品,保護作為消費者的乘客的生命安全也是一項基本義務(wù)。
所以,關(guān)于乘客的碰撞選擇是討論整個自動駕駛碰撞倫理的前置問題;于是整個碰撞倫理需要解決兩大難題:一是隧道難題,即自動駕駛汽車中的乘客在與路人的沖突中,誰優(yōu)先受到保護的問題;二是電車難題,即在不可避免的碰撞行為中,能否基于某些客觀的標(biāo)準(zhǔn)(比如人數(shù)、年齡、性別、社會地位、遵守規(guī)則/不遵守規(guī)則者、外在于/內(nèi)在于該碰撞行為者)進行選擇。然而,解決這兩個難題都不能依賴于人類駕駛員在碰撞發(fā)生時做出的直覺選擇,而必須依賴事先的算法設(shè)計;這不是一道真正的選擇題,而是事先就給出了答案。這也就意味著,我們無法回避艱難的倫理和法律選擇困境,而必須嘗試走出這一困境并做出理性的選擇。下文先討論第一個難題,這是自動駕駛汽車商業(yè)化的第一個障礙。
湯姆森版旁觀者電車難題中的選項三類似于有人駕駛汽車中司機面臨的“隧道難題”(The Tunnel Problem),米勒(Jason Millar)把它改造成了一個自動駕駛版的隧道難題:“莎拉正坐在一輛自動駕駛汽車上沿著一條單行山路行駛,這輛車正快速接近一條狹窄的隧道。就在進入隧道之前,一個孩子跑進了車道,并在車道中央絆倒,有效地堵住了隧道的入口。汽車不能及時剎車以避免撞車。它只有兩個選擇:撞死孩子;或轉(zhuǎn)到隧道某一側(cè)的墻上,從而殺死莎拉。它繼續(xù)向前,犧牲了孩子?!薄?1〕Jason Millar, “An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars” 30 (8) Applied Artificial Intelligence 787 (2016).在隧道難題中,優(yōu)先保護駕駛員或乘客,這幾乎是沒有爭議的;或者對于一個理性人來說,這一方案是無法拒絕的。算法設(shè)計者取代了司機的角色,原來的司機變成乘客,算法的選擇要充分考慮乘客的利益和想法。隧道難題本來只是涉及司機個體的選擇,這一選擇的理由及其合理性需要在自動駕駛情形中得到一種制度上的確認。
本文提出三個理由來反對通過傷害或犧牲乘客來解決碰撞難題:一是因為優(yōu)先保護乘客符合利己主義的道德觀,這不僅是一種主觀的偏好,還建立在自我保存的原則之上,正是后者構(gòu)成了法律規(guī)則的基礎(chǔ);二是從反面來說,自我犧牲是超越職責(zé)之外的個人美德,但不是一個基本的道德義務(wù),尤其不適合作為法律和倫理規(guī)則的基礎(chǔ);三是從后果主義來考慮,自動駕駛汽車的產(chǎn)業(yè)化是一個更大的社會善好,拒絕自我犧牲式的選擇是實現(xiàn)這一善好的必要條件。
首先,讓我們考察一下作為一項社會事實的“自我保存”對于優(yōu)先保護乘客并建立相關(guān)道德和法律規(guī)則的意義。利己主義(egoism)既可以是描述性的,也可以是規(guī)范性的;前者指的是心理學(xué)的利己主義,后者指的是倫理學(xué)的或理性的利己主義。無論是哪種形式的利己主義都是為了其自身的福祉或讓行動最大化其利益?!?2〕Robert Shaver, “Egoism”, The Stanford Encyclopedia of Philosophy (Spring 2019 Edition), Edward N. Zalta ed., https://plato.stanford.edu/archives/spr2019/entries/egoism/, accessed October 28, 2020.但是哈特的自我保存理論既不是對這種普遍心理狀態(tài)的描述,也不是做一種單純的規(guī)范性判斷,而是從對自然法之自然目的論的解讀中得出“自我保存”這一自明之理的。哈特指出:“人類行為的合宜目的是生存,這一不言而喻的假定依賴于如下簡單的偶然事實,即大部分人在大部分時間都希望繼續(xù)生存下去?!薄?3〕H. L. A. Hart, The Concept of Law, Third Edition, Oxford University Press, 2012, p.191.這就拋棄了自然法在目的論觀念上的較有爭議的部分,而立足于這一非常薄弱的自然事實上。更為關(guān)鍵的是,這一做法與法律和道德規(guī)則的存在緊密關(guān)聯(lián),而不單純是一種心理學(xué)、社會學(xué)或其他社會科學(xué)的分析。于是哈特在“自我保存”這一基礎(chǔ)上構(gòu)想了五個自明的原則作為自然法最低限度的內(nèi)容,其中之一就是有限的利他主義(limited altruism)。
在倫理學(xué)上,利他主義指的是:“當(dāng)行為被一個有益于某人(為了這個人的目的)而不是其自身的欲望所激發(fā)時,這一行為通常被描述為利他主義的?!薄?4〕Richard Kraut, “Altruism”, The Stanford Encyclopedia of Philosophy (Spring 2020 Edition), Edward N. Zalta ed., https://plato.stanford.edu/archives/spr2020/entries/altruism/, accessed October 28, 2020.利他主義也分為強的利他主義和弱的利他主義兩種類型,并不必然要包含自我犧牲,自我犧牲也許是最強的利他主義行為。人類介于極端的利他(這樣的社會無需規(guī)則)和極端的自私(這樣的社會也不可能有規(guī)則)之間,所以就需要規(guī)則對人的行為進行規(guī)制。〔15〕See H. L. A. Hart, The Concept of Law, Third Edition, Oxford University Press, 2012, p.196.所以,一個正常的社會是不能要求以規(guī)則的形式來實現(xiàn)自我犧牲的,這是一個過高的美德要求,正如富勒所指出的:“法律沒有辦法強迫一個人達致他的才智所能允許的卓越程度。”〔16〕Lon L. Fuller, The Morality of Law, Revised Edition, Yale University Press, 1969, p.9.就自動駕駛汽車的碰撞難題而言,在讓每個人進行選擇的時候,基本都首先會做出有利于自己的選擇,這就是一種有限利他主義的體現(xiàn)。
其次,自我犧牲是一個倫理美德而不是一個道德義務(wù)的要求。湯姆森本人就是從這個角度論述的,而且得到了卡姆的支持。湯姆森和卡姆共同認為,旁觀者在道德上不會被要求去犧牲生命以拯救五個人,這樣做將會是利他主義的;而且卡姆還補充道:這種做法是分外的或超義務(wù)的(supererogatory)。〔17〕See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.22.顯然,自付代價是一個過高的道德要求。它只能作為一種美德來表揚,甚至都不能作為一種美德來提倡。多數(shù)情況下,自我犧牲一般發(fā)生在負有職責(zé)義務(wù)的場合,比如基于某種身份(消防員、警察等)而產(chǎn)生的義務(wù),它來自某種制度性安排;除此之外就屬于羅爾斯意義上的份外行為(supererogatory actions),它大大超出了自然責(zé)任的要求。自付代價不是一個人的義務(wù)或責(zé)任,對此羅爾斯指出:“盡管我們有一個自然責(zé)任去產(chǎn)生極大的善(比如說,如果我們能夠相對容易地做到這一點),但是當(dāng)我們自己要付出很大成本時,就被解除了這一責(zé)任?!薄?8〕John Rawls, A Theory of Justice, Revised Edition, The Belknap Press of Harvard University Press, 1999, p.100.這也正如卡姆在評論湯姆森時所說的,湯姆森的看法依據(jù)的是非后果主義倫理理論的另一個方面:“總的來說,一個人沒有義務(wù)要讓自己付出極端的代價去做會產(chǎn)生最大善好的事情,即使這樣做并不會違反任何邊際約束。”〔19〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.23.
最后,從后果主義來說,如果不優(yōu)先保護乘客的生命與健康,那么這將成為自動駕駛技術(shù)商業(yè)化的重大障礙。風(fēng)險本身并不構(gòu)成限制技術(shù)商業(yè)化的主要因素,只要風(fēng)險本身是可控的,就可以滿足商業(yè)化的要求。有人駕駛汽車在風(fēng)險上和造成的社會后果上遠遠高于無人駕駛,也一樣在商業(yè)化運用,因為這符合市場化或商業(yè)化的基本要求。如果自動駕駛汽車在遇到隧道難題時先犧牲乘客,那么它恐怕永遠都無法商業(yè)化,因為這樣的產(chǎn)品是沒人敢用的。
顯然,優(yōu)先保護乘客似乎合理,因為不能假設(shè)他會選擇自我犧牲;從一個公平的角度出發(fā)而言,每個人都不愿做出自我犧牲,除非得到他的同意。三項選擇案例確實不同于兩項選擇案例,因為“自付代價”這一因素的加入嚴重影響了我們接下來所探究的碰撞選擇的理由。下文將重點研究道德哲學(xué)關(guān)于電車難題的諸多爭議,并在批判的基礎(chǔ)上嘗試提出基于法哲學(xué)的自動駕駛系統(tǒng)電車難題的解決方案。
(一)傷害的邊際約束與可允許的傷害原則
在旁觀者三項選擇案例中,要做出選擇的是那個旁觀者本人;如果他可以正當(dāng)?shù)夭辉高x擇撞向自己,那么他可以正當(dāng)?shù)馗淖冸娷嚪较蚨蚕蛄硗庖粋€無辜的人嗎?實際上在這一案例中,除了袖手旁觀,其余的兩種選擇在理由上是高度關(guān)聯(lián)的,湯姆森就是從這個角度深刻論證了旁觀者只能袖手旁觀,而不能使其他人付出他自己都不愿付出的代價。根據(jù)卡姆的解讀,這一論證似乎是形式上的,即訴諸一種論證上的平等原則。因為三項選擇的案例不同于兩項選擇的案例,這種不同不僅在于添加了一個選項,更在于添加的這個選項會影響其他選擇的理由。也就是說,選項三可以正當(dāng)?shù)夭槐徊杉{,但它的存在會影響選項二。比如在三項選擇案例中,在自己和他人之間要進行平等對待這一形式原則,就會要求也不可以正當(dāng)?shù)夭杉{選項二。而沒有選項三時,該案例就是一個普通的電車難題,無需遵循上述原則,轉(zhuǎn)而會考慮其他的原則;因此一般認為,可以為了更大的善好而以某種特定的方式犧牲一個人。〔20〕See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.24-25.
三項選擇案例中的旁觀者在道德重要性上似乎與其他人是不同等的,因為有一項選擇涉及旁觀者的自我犧牲,所以該選項的加入影響了其他選擇。而優(yōu)先保護自動駕駛汽車中的乘客也類似于這樣一個有著道德重要性的因素,那么這一形式原則會不會影響對自動駕駛汽車碰撞倫理的思考呢?無論是作為一項道德原則還是作為一項法律原則,對生命權(quán)本身的衡量都需要經(jīng)過慎重考慮;因為一般認為生命權(quán)是平等的,而且這種平等是絕對的。湯姆森后來的看法是旁觀者不可以為了救五個人而殺死一個人,而且這一點與關(guān)于旁觀者應(yīng)是否自我犧牲的討論緊密關(guān)聯(lián);而且她還認為,無論是旁觀者的兩項選擇案例還是三項選擇案例都是如此。其主要理由是,旁觀者本人和被選擇的那個工人都無需為了救那五個人而付出代價:“如果旁觀者想要付出代價,他就必須自己來付出這個代價。我強調(diào)一下:如果旁觀者不想自己付出代價,并因此也將不會自己付出代價,那么他就必須讓這一代價不發(fā)生在任何人身上。然而,假如最終證明旁觀者只有‘旁觀者’案例所描述的兩個選項。旁觀者仍然不可以搬動岔道以至于殺死工人,因為他和工人都無需為了救那五個人而付出這樣的代價;因此,既然旁觀者自己不能付出這一代價(不管他愿不愿意),他必須放任五個人去死?!薄?1〕Judith Jarvis Thomson, “Kamm on the Trolley Problems”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.117.
湯姆森改變了她以往的看法,她曾經(jīng)贊同旁觀者可以獲得允許去改變電車方向??傮w上說,湯姆森的看法屬于少數(shù)派。許多人認為可以允許,這也符合大多數(shù)人的直覺??放u了湯姆森的這一看法,其反對意見集中在兩個方面:一是對平等主義的方法論提出質(zhì)疑,從選項三到選項二的平等主義推導(dǎo)過程是存在問題的,也就是說類比的對象存在偏差;二是從實質(zhì)上說,如果存在一個自足的理由能夠切斷從選項三到選項二的推導(dǎo)過程,那么我們就可以基于獨立而自足的理由說,旁觀者可以做出第二種選擇。實際上這種理由是存在的,那就是卡姆所說的“可允許的傷害原則”。通過這一切斷,卡姆實際上把三項選擇難題又變?yōu)榱藘身椷x擇難題;從這一點我們也許可以看出,旁觀者的三項選擇難題不具有獨立的意義,最后又返回到傳統(tǒng)的旁觀者難題。在更為深入地討論自動駕駛汽車特有的碰撞難題之前,我們先概述一下卡姆對湯姆森的反對意見。
根據(jù)湯姆森的看法,旁觀者自己不愿付出代價,那么就無法正當(dāng)?shù)刈屍渌烁冻鐾瑯拥拇鷥r。在方法論的意義上,這是一個同等條件下的比較問題,涉及我們對公正的理解??钒堰@一點概況為湯姆森的“非正當(dāng)性”論證(“indecency” argument),表面上類似于科恩(Gerald Cohen)所提出的一種論證?!?2〕See G. A. Cohen, “Casting the First Stone: Who Can, and Who Can’t, Condemn the Terrorists?”, in his Finding Oneself in the Other, Princeton University Press, 2012, pp.115-133.科恩討論了一個誰可以批評誰的問題,或誰有資格可以批評誰,這涉及對平等對待的不同理解。根據(jù)卡姆的總結(jié),科恩的看法是:如果甲做錯了事,那么就不再有資格責(zé)備乙做了同樣的事,即使乙也錯了,而且除了甲之外的任何人都可以責(zé)備乙。實際上,這與湯姆森的推理邏輯顯然存在微妙的差異,這需要我們考慮哪一種推理邏輯更合理。關(guān)于這種差異,卡姆指出:“科恩關(guān)注的是,在其他條件不變的情況下,一個人已經(jīng)做或正在做某事,那么他是否有資格譴責(zé)其他人做了同樣的事情;或者,當(dāng)這個人自己正在拒絕或已經(jīng)拒絕做某事,那么他是否還能要求其他某人做這件事。科恩的關(guān)切可能蘊含著,在其他條件不變的情況下,當(dāng)旁觀者在三項選擇案例中正在、已經(jīng)或?qū)芙^自愿獻出他自己的生命時,旁觀者譴責(zé)其他某人拒絕自愿地獻出生命或要求他自愿地獻出生命,這是不合理的或不被允許的。相比之下,湯姆森所希望譴責(zé)為不合理、不被允許的行為是:當(dāng)旁觀者將不會或也不想自愿獻出自己的生命時,在未經(jīng)他人同意的情況下奪走其生命?!薄?3〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.27-28.
我們可以這樣概括科恩和湯姆森的推理差異:前者是,一個人自己不愿自愿做出犧牲,那么就不能要求其他人自愿做出犧牲,否則就是不合理的;后者是,一個人自己不愿自愿做出犧牲,那么就不能奪取其他人的生命。前一個推理的要求是比較低的,也可以說是在一個人自己和其他在道德重要性上同等的人之間的平等要求,即在利他主義方面要同等對待;而后一個推理在所類比的兩件事上確實不在一個層面上,是不對等的。所以卡姆認為,即使湯姆森所說的不能奪取其他人的生命是可允許的,其好的理由也不能說是一個人自己不想付出代價。借用舍弗勒(Samuel Scheラer)的主張,這種不可允許性奠基在不為最大化善而付出代價的以行動者為中性的特權(quán)(theagent-centered prerogative)上,而這種特權(quán)最終奠定在行動者的自主性上。但是這種自主性是有限制的,有時候以某種特定的方式要求某人并使其付出代價并未違背他的自主性?!?4〕See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.28. Samuel Scheラer, The Rejection of Consequentialism, Oxford University Press, 1982.實際上,卡姆一再指出,如果有自足的理由,那么即使一個人自己不愿付出代價,這個代價一樣可以強加到其他人身上。
卡姆認為,富特的司機電車難題和湯姆森的旁觀者電車難題都屬于電車難題的范圍,無論司機還是旁觀者都可以扭轉(zhuǎn)電車方向犧牲一個人來拯救五個人的生命。在推導(dǎo)這一結(jié)論的過程中,卡姆做出了一個關(guān)鍵的區(qū)分,即因果關(guān)系與非因果性關(guān)系(或構(gòu)成性關(guān)系)。這是一個非常細致的區(qū)分,但它是否具有重要的道德意義,下文再做討論,現(xiàn)在先舉兩個例子來更好地理解這一區(qū)分。我們可以設(shè)想解決電車難題的兩種方案,一種是兩輛電車案例(Two Trolleys Case),另一種是爆炸電車案例(Bomb Trolley Case)。前者是說,在軌道上有第二輛電車,可以使第一輛將要撞死五人的電車偏離軌道,但結(jié)果會把另一個人撞死;后者是說,可以引爆一枚炸彈致使電車偏離五個人,但是炸彈會炸死另外一個人。這兩種方式都是不能被允許的,因為它們都包含了直接導(dǎo)致其他人死亡的后果,卡姆把這種手段與死亡后果之間的直接關(guān)系稱為一個因果關(guān)系(a causal relation),把間接關(guān)系稱為一個非因果關(guān)系或構(gòu)成性關(guān)系(a constitutive relation)。與上述兩個案例不同,電車司機和旁觀者就可以扭轉(zhuǎn)電車方向,因為五個人得救只是這種行為的純粹非因果性對應(yīng)物(the mere noncausal flip side)?!?5〕See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.61-63.
顯然,五個人得救所造成的后果是會撞死另外一個人,但這個人的死亡與拯救五個人的生命之間不具有直接的因果關(guān)系,它不是拯救行為所使用之手段的組成部分,只是這一手段產(chǎn)生的不利后果。既然同樣都是后果,那么它們在“后果”的特定意義上就是可衡量的??氛J為,推倒胖子阻擋電車案例和外科醫(yī)生器官移植案例都可以依據(jù)這一原則得到完美解釋。據(jù)此,卡姆推導(dǎo)出了她的“可允許的傷害原則”(Principle of Permissible Harm,簡寫為PPH):“如果更大的善或其一部分(或?qū)⑦@些善作為一個非因果性對應(yīng)物的手段)甚至直接導(dǎo)致較小的損害,這些行動也是可允許的。即便產(chǎn)生更大善的純粹手段(像那枚炸彈或第二輛電車)至少會直接導(dǎo)致較少的傷害,這些行動也是不被允許的;此外,即便純粹手段造成了更少的傷害(比如把人推倒在電車的前面),而這些傷害是產(chǎn)生更大善的純粹手段,這些行動也是不被允許的?!薄?6〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.66. 另一個可能是更為充分的闡述,See F. M. Kamm, Intricate Ethics, Oxford University Press, 2007, pp.186 n.78 and 188 n.89.這也許就是卡姆對所謂電車難題之謎的最終實質(zhì)性解答,這是一個融合了后果主義與非后果主義的方案,但最終還是堅持了人是目的這個義務(wù)論道德的基本立場,盡管這個方案允許在符合邊際約束的情況下對人的傷害。
(二)非利他主義之普遍化的理論價值
卡姆長期研究電車難題,設(shè)計了很多精巧的案例,這些案例提供了各種極端的情景來激發(fā)我們的直覺并驗證相關(guān)的道德理論;盡管學(xué)界對道德哲學(xué)的這一作業(yè)方式存在著很多爭議,但卡姆確實對電車難題提出了自己獨到的解釋模式和解決方案。關(guān)于自動駕駛汽車碰撞倫理的有意義的解決方案必須從思考卡姆的理論開始,這是我們繞不過去的。那么卡姆的原則是否能夠解決我們這里所討論的自動駕駛汽車的碰撞難題呢?接著上文所著重討論的平等推理和可允許的傷害這兩個論題,下文繼續(xù)探究這兩個結(jié)論能夠為自動駕駛的碰撞倫理提供什么樣的啟發(fā)。這里提出兩個相關(guān)的問題:一是,自動駕駛系統(tǒng)優(yōu)先保護乘客的理由對于相關(guān)的碰撞選擇會產(chǎn)生什么樣的影響?二是,自動駕駛系統(tǒng)的碰撞難題基本不存在卡姆所說的拯救五人的善果成為碰撞選擇的因果性對應(yīng)物,那么PPH 能夠有效解釋自動駕駛系統(tǒng)在人數(shù)上的碰撞選擇(即選擇人數(shù)小的那一方)嗎?我們先來解答第一個問題。
前文已經(jīng)論及,自動駕駛系統(tǒng)中的乘客和湯姆森的旁觀者在道德重要性上不同于其他可選擇的碰撞對象,且制造商或算法設(shè)計者看待問題的視角也不完全等同于旁觀者與司機中的任何一個。自動駕駛算法程序的視角類似于一種超然的態(tài)度,但不是一種事不關(guān)己的純描述態(tài)度,而是深度參與其中的。這一態(tài)度必須嘗試找到一種客觀的、普遍能接受的方案,而不是某個個人視角(比如司機或旁觀者)的方案;此外,它最起碼是一個理性人沒有理由拒絕的方案,盡管不一定是可接受的方案?!?7〕See T. M. Scanlon, “Contractualism and Utilitarianism”, in Amartya Sen and BernardWilliams eds., Utilitarianism and Beyond, Cambridge University Press, 1982, pp.103-128.總之,制造商及其算法決策者需要提出普遍、中立、理性的制度性判斷,而不是個人的判斷。這將會影響我們判斷乘客之外的碰撞對象的選擇理由,每個人都有可能既在某種條件下成為乘客,而在另一種場合下成為其他被選擇的碰撞對象;而不像在電車難題或旁觀者難題中,司機或旁觀者的身份是固定的。
根據(jù)科恩的對等觀點,旁觀者不愿選擇扭轉(zhuǎn)電車使自己付出代價,那么他也不可以要求其他人變換軌道沖向他人自己。這種對等的要求是非常低的,實際上又回到了問題的起點,旁觀者依然要面臨是否扭轉(zhuǎn)電車撞向那一個工人的難題。當(dāng)然另一方面,這種對等的要求也蘊含了一個道德原則:被選擇的少數(shù)一方也無需被認為是利他主義者,“如果旁觀者不放棄其生命是可允許的,那么他應(yīng)該承認,在另一條軌道上的人不放棄其自己生命也是可允許的?!薄?8〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.29-30.如果我們把這個旁觀者替換為算法設(shè)計者,那么我們可以正當(dāng)?shù)卣J為,乘客無需成為一個利他主義者,這一點依然適用于其他的可選擇對象,他們不放棄生命也是可以允許的。這一點有兩個方面的意義:一是積極的,即被選擇的碰撞對象可以進行抵制,這一點卡姆曾反復(fù)強調(diào);〔29〕卡姆一再強調(diào)被選擇的人有權(quán)抵制,See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.30, 32, 66-67.二是消極的,即他們的生命權(quán)本身值得切實尊重。由此可見,卡姆把湯姆森的看法與科恩進行類比似乎并沒有什么道理,湯姆森應(yīng)該不會反對卡恩的這一類比方式;但是湯姆森的結(jié)論顯然要比科恩的立場強得多,即一個人不愿自付代價,那么也不能強制其他人自付代價,我們在直覺上完全可以接受這一結(jié)論。在自動駕駛方面,乘客不想也不能自付代價,這一點對于扭轉(zhuǎn)碰撞的方向有無影響呢?這是我們要重點考慮的問題。
卡姆在評論湯姆森的三項選擇電車難題時認為,“一般來說,人們不能從一個三項選擇案例中的結(jié)論推導(dǎo)出一個兩項選擇中的結(jié)論。”〔30〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.117.卡姆試圖切斷三項選擇案例分析對于兩項選擇案例結(jié)論的影響,其實湯姆森的意圖并非如此,她認為她并不依賴于人們能夠做出這一推理的任何一般性命題:“事實上,我提出三項選項案例主要是為了更生動地提供理由來說明,在兩項選擇的案例中,旁觀者不被允許殺死工人;也就是說,無論是旁觀者還是工人,都不需要付出拯救那五個人的代價?!薄?1〕Judith Jarvis Thomson, “Kamm on the Trolley Problems”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.118.所以,除非旁觀者自付代價,否則他不能讓工人(這里的工人特指被選擇自付代價的那個人)來承擔(dān)這個代價;這不僅適用于三項選擇案例,也適用于兩項選擇案例。我們有充分的理由認為,這一推理也適用于自動駕駛的情形:算法既占據(jù)了司機的位置,也擁有旁觀者的視角,如果乘客是非利他主義的,那么其他可選擇的碰撞對象也是非利他主義的;如果乘客不想自付代價,那么可選擇的人數(shù)較少的一方也不能為了拯救更多人而自付代價,否則就是不公平的。這最終還根源于算法的選擇不是基于直覺的感性的判斷,而是一種深思熟慮的哲學(xué)判斷。在結(jié)論上,這一判斷即使是反直覺的,也應(yīng)當(dāng)堅持這一判斷的合理性,因為它體現(xiàn)了非利他主義之普遍化的理論價值。
(三)回到權(quán)利:為何傷害是不可允許的
其實對湯姆森觀點真正提出挑戰(zhàn)的是卡姆的PPH,這一原則對于自動駕駛的碰撞倫理問題也最具有意義。因為卡姆的PPH 是一個一般性的理論命題,既適用于司機的電車難題,也適用于旁觀者的電車難題,而自動駕駛汽車恰恰融合了這兩種視角??氛J為,如果有自足的理由來辯護,即使不經(jīng)工人同意也可以強加傷害,那么這一傷害本身也是合理的,而且還不違背非后果主義的邊際約束。從理論上說,卡姆的這一推理思路沒有問題,確實沒有任何一個義務(wù)論的原則是絕對的,包括湯姆森所提出的旁觀者和工人都不能自付代價。關(guān)鍵是卡姆的這一結(jié)論是否是合理的,尤其是那個自足的理由到底是不是自足的。其實卡姆并沒有清晰說明其所謂的自足理由指的是什么,從其論述似乎可以總結(jié)說,自足的理由包含了兩點:一是人是目的的根本立場;二是可以實現(xiàn)更大的善。作為一種非后果論的論證模式,卡姆的第二個理由其實是對第一個原則立場的限制;而在某種意義上,是湯姆森堅定捍衛(wèi)了第一個原則立場。確實,卡姆提出的精巧理論做出了微妙卻具有重要道德意義的區(qū)分。更大的善總歸是一件好事,這個善的實現(xiàn)并不以某人的死亡作為直接手段,而只是一個間接的結(jié)果而已。這個結(jié)果是為了實現(xiàn)更大的善所付出的必要代價,這個代價是可以得到辯護的。接下來本文討論兩個有意義且相關(guān)的問題:一是,上述的理由二對于理由一的原則立場是不是一種不可承受的傷害?二是,由此卡姆的PPH 能夠有意義地適用于自動駕駛汽車的碰撞選擇嗎?
托馬斯· 胡爾卡(Thomas Hurka)專門評述了卡姆的可允許的傷害原則,他舉了一個軍事轟炸的例子來說明這一原則可能存在的問題。有一所敵方的兵工廠成了轟炸目標(biāo),但轟炸必然會波及平民。按照卡姆的原則,如果平民是被彈片擊中的,那么轟炸在道德上就是不被允許的;而如果平民是被轟炸工廠的構(gòu)件擊中的,那么平民的死亡就是可允許的。這種區(qū)分在理論上是真實存在的,也許具有一定的道德意義。但實際上,我們在直覺上不會覺得這種區(qū)分有什么重要的道德意義,正如胡爾卡所指出:“不管戰(zhàn)爭中附帶傷害的道德的最終含義是什么,我都不會認為其中的任何東西要取決于平民是否被一種飛行物體而不是另一種飛行物體殺死。我也不認為世界上的軍事機構(gòu)有一種強烈的義務(wù)去開發(fā)那些只會間接地殺死平民的武器,即用這些武器要去爆炸的目標(biāo)而不是用武器自己的爆炸力量置平民于死地。即使卡姆的原則在電車案例中產(chǎn)生了有吸引力的結(jié)果,但在這里似乎極不合情理?!薄?2〕Thomas Hurka, “Trolleys and Permissible Harm”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.138.所以謝利·卡根(Shelly Kagan)認為,卡姆從事的大部分工作只是一種心理學(xué)重構(gòu)(psychological reconstruction),即僅僅是在解釋我們直覺判斷上的一些差異。而且卡根認為,卡姆所作出的那些關(guān)鍵區(qū)分實際上不具有重要的道德意義,也不必然符合每一個人的直覺?!?3〕See Shelly Kagan, “Solving the Trolley Problem”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.158, 163-164.關(guān)于這一區(qū)分不具有看上去的道德重要性,另參見Thomas Hurka, “Trolleys and Permissible Harm”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.142. 其實這種道德心理學(xué)主要訴諸并辯護一種道德直覺,并不是科學(xué)意義上的道德心理學(xué)研究。對于與解決電車難題緊密相關(guān)的DDA 原則(Doctrine of Doing and Allowing)之腦科學(xué)基礎(chǔ)的研究,參見章吉利:《基于DDA 原則的道德判斷腦基礎(chǔ)研究——一項ERP 研究》,東南大學(xué)2015 年碩士學(xué)位論文。而關(guān)于這一原則的哲學(xué)研究,See Fiona Woollard, Doing and Allowing Harm, Oxford University Press, 2015.他贊同湯姆森的看法,保留道義論并放棄在標(biāo)準(zhǔn)電車難題中可以改變方向的直覺判斷:“或許我們會選擇接受一個原則,(粗略地說)它完全排除殺害無辜者。如果這樣一個原則能夠被賦予一個合理的根本理由,那么這可能會容納足夠多的直覺來滿足我們,即使它并不符合所有的直覺?!薄?4〕Shelly Kagan, “Solving the Trolley Problem”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.164.在這兩位評論者看來,作為一個重要的原則,PPH 基本沒有道德上的重要意義;而且用這一原則來解釋一些復(fù)雜的社會現(xiàn)實問題,還會得出一些奇怪的并不符合道德直覺的結(jié)論。
自動駕駛中的碰撞選擇基本不會涉及為拯救更多生命而使其他人作為手段的情況,那些復(fù)雜的電車難題設(shè)計都不會在自動駕駛領(lǐng)域出現(xiàn),可以說自動駕駛碰撞倫理完全處于卡姆PPH 的覆蓋范圍內(nèi)。但是在對自動駕駛碰撞問題的直覺理解上,我們會覺得這一原則所依賴的那一重要區(qū)分并不具有卡姆所宣稱的重要道德意義。在根本上,被選擇的碰撞對象還是被作為手段來使用了,因為這一碰撞行為并沒有獲得他們的同意,也不能假設(shè)他們都是利他主義者。卡姆提到其界定邊際約束時充分考慮到了消極權(quán)利問題:“在其他地方,我支持對強加代價(或損害)的限制,贊同未經(jīng)一個人同意不得強加代價的消極權(quán)利,并辯護了限制和特權(quán)之間的關(guān)聯(lián)。然而我認為,當(dāng)沒有人將會或被要求將代價強加到自己身上時(盡管他將代價強加到自身是可允許的),強加代價到其他人身上有時在道德上是可允許的?!薄?5〕F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.28. See also F. M. Kamm, Morality, Mortality, vol. 2, Oxford University Press, 1996.顯然,卡姆考慮到了這種消極權(quán)利的存在,但是他對消極權(quán)利之重要性的考慮似乎還不夠,于是她得出了“未經(jīng)允許就把代價強加到其他人身上有時在道德上是可允許的”結(jié)論。湯姆森在評論的最后部分指出,我們也許可以深入研究一種理論,來找到類似問題的答案,就是權(quán)利理論?!?6〕Judith Jarvis Thomson, “Kamm on the Trolley Problems”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.128.
湯姆森只是提到了這一點,而未做進一步的論述,只是說這是另一個場合的論題。實際上,權(quán)利理論也許是討論自動駕駛系統(tǒng)碰撞倫理的一個有用的理論,這實際上和富特的早期論述在本質(zhì)上是一樣的,只是富特采用的術(shù)語是義務(wù)。接下來本文嘗試在這一思路上推進對問題的思考,并期望得出與卡姆不一樣的結(jié)論。
在直覺上人們就可以感覺到,電車難題和器官移植難題在道德上是有微妙差異的,而且倫理學(xué)上源遠流長的“雙效原則”(Doctrine of Double Effect)〔37〕這一原則最早出現(xiàn)在阿奎那的《神學(xué)大全》中,用于討論正當(dāng)防衛(wèi)(self-defense)的可允許性。See Summa Theologica( IIII, Qu. 64, Art.7).該原則的基本含義是,導(dǎo)致嚴重傷害(比如致人死亡)的行為,作為提升善的目的的附帶效果就是可允許的;但意圖置人于死地就是錯誤的,即使這樣做也是為了提升善。所以電車司機改變電車方向是符合雙效原則的,而外科醫(yī)生的行為卻違反了該原則。See Alison McIntyre,“ Doctrine of Double Effect”, The Stanford Encyclopedia of Philosophy( Spring 2019 Edition), Edward N. Zalta ed., https://plato.stanford.edu/archives/spr2019/entries/double-effect/, accessed October 28, 2020. F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.14-15.似乎也可以解釋其中的差異,但是富特借鑒法哲學(xué)關(guān)于積極權(quán)利(積極義務(wù))和消極權(quán)利(消極義務(wù))的區(qū)分重新思考了這個問題。富特引了薩爾蒙德(Salmond)在其《法理學(xué)》中的一段話作為其分析的概念基礎(chǔ):“積極權(quán)利與積極義務(wù)相對應(yīng),是指這樣一個權(quán)利,即義務(wù)人為了權(quán)利人的利益將會采取某種積極的行動。消極權(quán)利與消極義務(wù)相對,是指這樣一個權(quán)利,即受約束者將會避免采取某種行動來侵害權(quán)利人。前者是一個積極受益的權(quán)利;而后者僅僅是一個不受損害的權(quán)利?!薄?8〕J. Salmond, Jurisprudence, 11th edition, p.283. 轉(zhuǎn)引自Philippa Foot, “The Problem of Abortion and the Doctrine of the Double Effect”, in her Virtues and Vices and Other Essays in Moral Philosophy, Blackwell, 1978, p.27.富特據(jù)此認為,電車司機面對的是兩個消極義務(wù)的沖突,因為避免傷害五個人和避免傷害一個人都是其義務(wù);在二者不能兼顧時,顯然他只能選擇最少的傷害?!?9〕See Philippa Foot, “The Problem of Abortion and the Doctrine of the Double Effect”, in her Virtues and Vices and Other Essays in Moral Philosophy, Blackwell, 1978, p.27.而在外科醫(yī)生的器官移植案例中,外科醫(yī)生面臨的是消極義務(wù)(不殺死一個健康的人)和積極義務(wù)(幫助五位病人)之間的沖突,而消極義務(wù)要優(yōu)先于積極義務(wù),所以他只能放任五個人的死亡?!?0〕See F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, pp.15-16. 湯姆森還從富特的論述推論出一個選擇通則(Choice Generalization),具體論證參見Judith Jarvis Thomson, “Kamm on the Trolley Problems”, in F. M. Kamm, The Trolley Problem Mysteries, Edited by Eric Rakowski, Oxford University Press, 2016, p.114.
在富特的思考中,電車難題不存在放任的可能,兩個消極義務(wù)是同等的;而只有在器官移植案例中才有放任的情況存在,因為外科醫(yī)生對于整個事件來說是沒有卷入的,在道德上他可以放任。在后一個案例中,積極救助的義務(wù)是比較弱勢的,不能讓救助者付出過高的代價。既然兩個義務(wù)的性質(zhì)都是消極的,那么它們之間就沒有性質(zhì)的不同;在考慮的分量上,“后果”就成為一個重要的衡量因素,所以他在兩個消極義務(wù)之間進行了比較,認為可以進行后果主義衡量。既然兩個消極義務(wù)本無優(yōu)先性可言,那就應(yīng)該取消對人數(shù)少的消極義務(wù)。富特是從司機的角度來說的,所以他選擇了消極義務(wù);而卡姆是從被撞者角度來說的,所以他選擇了消極權(quán)利。權(quán)利義務(wù)是相對的,所以她們的論證思路和論證理由都是一樣的,這樣我們就需要看一下:他們的消極權(quán)利(或消極義務(wù))在道德相關(guān)性方面是一樣重要(或平等)的嗎?
富特提出了一個有價值的解決方案,到現(xiàn)在為止還一再被拿出來討論。這一解決方案到現(xiàn)在之所以還有價值,就是因為它所依賴的消極/積極權(quán)利(義務(wù))的分類依然是有效的,盡管我們需要根據(jù)新的情形和理論的發(fā)展進行更為詳細而精致的闡釋。具體到自動駕駛系統(tǒng)的碰撞難題,這一解決方案依然是有價值的。而且為了使論題集中,我們只討論即將被碰撞的是五人,而可選擇的碰撞對象是一人的情形,以便于檢驗道德和法律原則的可適用性。在富特看來,無論是五人還是一人,他們都是平等的消極權(quán)利或消極義務(wù)。起碼卡姆認為,可選擇的那個人也享有消極權(quán)利,只是這個消極權(quán)利并不具有絕對的優(yōu)先性而已。結(jié)合自動駕駛的碰撞倫理問題,其實這個判斷在兩個方面都是不準(zhǔn)確的,其實我們面臨著更為復(fù)雜的情形,具體分析如下。
那五個人也許并不完全處于一種消極權(quán)利(或消極義務(wù))的地位,他們是基于某種偶然的事實首先被卷入了這一碰撞事故之中,其原因也許是機械故障(比如剎車失靈)、傳感器故障或人工智能的判斷失誤等。這種卷入在道德上具有一定的意義,在某種程度上我們甚至可以說,自動駕駛?cè)绻蛔鲞x擇也只是放任碰撞的發(fā)生。而放任與有意促成某種碰撞,還是存在道德差異的。盡管這種放任并不是完全基于外科醫(yī)生視角的放任(因為醫(yī)生基本獨立于整個事件,他只負有有限的積極救助義務(wù)),但二者還是具有比較大的相似度;因為自動駕駛的算法程序出錯是一個概率問題,一旦出錯它就負有比較強的積極救助義務(wù),這種義務(wù)強于醫(yī)生的義務(wù)。
所以,自動駕駛系統(tǒng)算法程序似乎同時負有消極義務(wù)和積極義務(wù),消極義務(wù)意味著不能侵害五人的生命權(quán),但是這一說法似乎也沒有多大的意義,因為在具體的場景中碰撞事實幾乎是不可避免的。而積極義務(wù)意味著自動駕駛汽車算法系統(tǒng)要想辦法履行積極的救助義務(wù),我們要重點考察這種積極義務(wù)的強度,而作為比較的就是其他路人之權(quán)利的強度。作為碰撞可選項的路人(無論是遵守規(guī)則者還是不遵守規(guī)則者)其實都不是整個事件的直接相關(guān)方,即不是直接卷入事件者;只是作為一個偶然的事實,他可能成了被選擇的對象,但在道德上他的利益不應(yīng)該被優(yōu)先犧牲??梢哉f,他享有一個比較典型的消極權(quán)利,自動駕駛負有一個純粹的消極義務(wù)。所以在這時,自動駕駛系統(tǒng)的積極義務(wù)的強度要弱于這種典型的消極權(quán)利的強度,以犧牲一人為代價來救助五人是沒有道理的。
需要指出的是,上述討論不應(yīng)構(gòu)成在法律上禁止自動駕駛的理由,因為我們討論的都是非常極端的情況。有足夠的理由表明,無人駕駛在可能造成的傷害上要遠遠優(yōu)于有人駕駛?!白詣玉{駛汽車的駕駛更為合理是因為它能夠快速地進行風(fēng)險和利益分析,這比一個自私、疲憊的醉漢的決策要好很多;自動駕駛擁有360 度的感知器,掌握的信息也更全面?!薄?1〕[美]胡迪·利普森、梅爾芭·庫曼:《無人駕駛》,林露茵、金陽譯,文匯出版社2017 年版,第293 頁。無論是隧道難題,還是電車難題,都屬于法律上可允許的風(fēng)險;再附之于制造商的嚴格法律責(zé)任,〔42〕學(xué)界關(guān)于責(zé)任問題的大量討論,參見馮潔語:《人工智能技術(shù)與責(zé)任法的變遷——以自動駕駛技術(shù)為考察》,載《比較法研究》2018 年第2 期;張力、李倩:《高度自動駕駛汽車交通侵權(quán)責(zé)任構(gòu)造分析》,載《浙江社會科學(xué)》2018 年第8 期;龍敏:《自動駕駛交通肇事刑事責(zé)任的認定與分配》,載《華東政法大學(xué)學(xué)報》2018 年第6 期;馮玨:《自動駕駛汽車致?lián)p的民事侵權(quán)責(zé)任》,載《中國法學(xué)》2018 年第6 期;王樂兵:《自動駕駛汽車的缺陷及其產(chǎn)品責(zé)任》,載《清華法學(xué)》2020 年第2 期。以及碰撞倫理的可接受性,自動駕駛的碰撞難題無論在理論上還是法律制度設(shè)計上,都可以得到妥善解決。
有人駕駛汽車發(fā)生事故是一個概率問題,所以人類發(fā)明了保險制度以降低人的非理性行為對人類生活的影響;〔43〕See Lon L. Fuller, The Morality of Law, Revised Edition, Yale University Press, 1969, p.9.無人駕駛汽車雖然大大降低,甚至消除了由于各種非理性行為發(fā)生事故的可能性,但是由于感知和信息整合系統(tǒng)而發(fā)生事故的情況也可能出現(xiàn)。但法律對它們的認識和對待措施是不一樣的,以往的侵權(quán)法和道路交通安全法對于碰撞問題基本只關(guān)注責(zé)任的分配,而不會關(guān)注碰撞選擇,碰撞選擇甚至都不會成為一個問題。因為人的碰撞選擇是沒法預(yù)測的,做出什么樣的選擇都有可能。人類駕駛員出于保護自己的本能,在遇到事故時會在瞬間依賴于直覺而選擇一個碰撞對象;但這個“瞬間”對于智能化的自動駕駛來說卻是一個充分的時間,它可以充分地感知相關(guān)信息并做出判斷。這使得碰撞選擇不再依賴于直覺,而依賴于事先深思熟慮的算法計算。所以,以前的法律關(guān)注碰撞之后的責(zé)任劃定,而現(xiàn)在的法律除了關(guān)注責(zé)任劃分,更關(guān)注碰撞的選擇順序。
正因為自動駕駛汽車的制造商或算法程序設(shè)計者處于旁觀者的中立或超然地位,乘客也可以成為一個選擇對象。盡管在所有的可選對象中,乘客具有更為重要或優(yōu)先的道德地位。這就說明,乘客并不像有人駕駛汽車中的司機那樣可以是完全自利的,因為幾乎沒有任何人愿意自付代價。但是在自動駕駛領(lǐng)域,情況發(fā)生了變化。如果只是讓乘客付出比較小的代價而作為被選擇的碰撞對象以實現(xiàn)更大的社會善好,那么這應(yīng)當(dāng)是合理的。因為相對路人,乘客會有比較好的安全保障措施,比如汽車一般都有用來保障安全的防撞措施。此外,汽車本身就是一個危險物品,因此這種合理性還來自乘客本來就是自動駕駛的受益人,根據(jù)誰受益誰擔(dān)責(zé)的一般法理,讓乘客承擔(dān)較為輕微的傷害也是合理的。我們也可以說,這是卡姆的可允許的傷害原則在另一個層面的運用,即適用到乘客身上;但這種適用的邊際約束是,只能施加可允許的合理代價。
由此,我們可以嘗試提出一個具有法理意義的倫理指南,以解決自動駕駛碰撞選擇的優(yōu)先次序。這個指南只是指導(dǎo)性的,用來指導(dǎo)立法而已。德國就制定了一個類似的倫理指南,試圖對價值沖突的解決給出一個優(yōu)先次序。結(jié)合上文的全部論述,我們可以總結(jié)出這樣一個框架性次序:第一,自動駕駛系統(tǒng)的乘客應(yīng)該受到優(yōu)先保護,他們不應(yīng)當(dāng)成為首先被犧牲的對象;第二,自動駕駛系統(tǒng)的算法程序不應(yīng)當(dāng)為避免碰撞而選擇人數(shù)更少的對象;第三,在只付出合理代價并造成更大社會善好的情形下,也可以對乘客施加可允許的傷害。
自動駕駛汽車的碰撞倫理是一個新的理論和實踐難題。有人駕駛汽車依賴于人的即時判斷,責(zé)任追究也要考慮主觀上的可歸責(zé)性;而自動駕駛碰撞難題的解決依賴于事先的算法,而算法必須要對各種可能的情況事先做出道德與法律的判斷。有人駕駛的碰撞選擇采取的是電車難題中的司機視角,即第一人稱視角;而自動駕駛碰撞選擇采取的是電車難題中的旁觀者視角,即第三人稱視角。他既是外在觀察者,又是事件的參與者,并對結(jié)果產(chǎn)生根本影響。電車難題是一個思想實驗,自動駕駛碰撞倫理相當(dāng)于這一思想實驗的部分現(xiàn)實化,尤其是這一思想實驗所確立的一些道德原則對于思考自動駕駛碰撞倫理極有啟示意義。法教義學(xué)上的制度設(shè)計取決于道德哲學(xué)上關(guān)于價值沖突的解決方案,而自動駕駛碰撞難題的關(guān)鍵在于解決生命權(quán)之間的沖突。解決的途徑不能依賴于民意測驗的報告,只能取決于深思熟慮的哲學(xué)論證。但二者并非截然對立,如果哲學(xué)論證也能得到實證數(shù)據(jù)的支持,那么這無疑會使哲學(xué)論證更為強而有力。
自動駕駛系統(tǒng)以一種超然的態(tài)度取代了司機的位置,這一定位決定了自動駕駛系統(tǒng)應(yīng)優(yōu)先保護乘客,他們不應(yīng)首先被犧牲掉;其次,自動駕駛系統(tǒng)的算法程序不應(yīng)當(dāng)為了拯救多數(shù)人而犧牲少數(shù)人,似乎更不應(yīng)為了拯救少數(shù)人而犧牲多數(shù)人,也許放任才是唯一的選擇;最后,對乘客施加傷害也是可允許的,只要相應(yīng)的代價是合理的,并能帶來更大的社會善好。
完全的自動駕駛系統(tǒng)把電車難題現(xiàn)實化了,并且創(chuàng)造了人類駕駛不會出現(xiàn)或不被重視的倫理困境。但是長期來看,我們還是應(yīng)當(dāng)致力于對倫理難題的技術(shù)消除,而不是苦苦追尋終極的道德或法律解決方案。套用一句關(guān)于語言哲學(xué)之功能的評價,我們可以說,在很多領(lǐng)域,技術(shù)的發(fā)展不是解決了,而是取消了道德困境。比如,如果自動駕駛車輛的安全性達到甚至超過民航客機的水準(zhǔn),〔44〕參見唐興華等:《電車難題、隱私保護與自動駕駛》,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019 年第6 期,第74、75 頁。那么我們關(guān)于碰撞倫理的討論似乎也沒有必要了;因為碰撞事故發(fā)生的概率實在是太小了,幾乎不會影響到人們的正常生活,以至于人們就慢慢忽略了這一困境的存在。