蘇令銀
作為應(yīng)用倫理學(xué)一個(gè)新興的領(lǐng)域,機(jī)器倫理(Machine Ethics)正呈現(xiàn)出強(qiáng)大的發(fā)展動(dòng)力,這在很大程度上得益于人工智能技術(shù)的蓬勃發(fā)展和人工道德主體(Artificial Moral Agents)的飛速發(fā)展及應(yīng)用,而這些人工道德主體已經(jīng)(或正在)大量應(yīng)用于社會(huì)領(lǐng)域,執(zhí)行著可能產(chǎn)生某種道德后果的行為。[注]R. Sparrow, “Killer Robots”,Journal of Applied Philosophy, Vol.24,no.1(2007), p.64.它們和人類一樣,審慎地執(zhí)行著我們?yōu)樗鼈兯A(yù)先設(shè)計(jì)好的道德行為準(zhǔn)則。那么,在人工道德主體發(fā)展創(chuàng)新和應(yīng)用過(guò)程中,到底應(yīng)該遵循什么樣的倫理框架?在大多數(shù)情況下,這樣的疑問(wèn)意味著應(yīng)該如何把一個(gè)既定的倫理框架應(yīng)用到人工道德主體建構(gòu)中。但從沒(méi)有人懷疑過(guò):這種既定的倫理框架是否應(yīng)該被外加于人工道德主體本身?把一個(gè)既定的倫理框架賦予人工道德主體能否獲得成功?也就是說(shuō),人工道德主體最終能否成為真正的道德主體?因此,從工程技術(shù)的角度出發(fā),為人工道德主體的健康發(fā)展和積極創(chuàng)新建構(gòu)科學(xué)合理的倫理框架,就成為當(dāng)前機(jī)器倫理研究所面臨的一個(gè)最迫切的任務(wù)。
探討究竟應(yīng)該創(chuàng)造什么樣的人工道德主體,是當(dāng)前人工智能發(fā)展面臨的一個(gè)最基本的問(wèn)題,這比如何完善人工道德主體的程序更加重要。如果不能首先創(chuàng)造合乎倫理的人工道德主體,那么關(guān)于如何實(shí)現(xiàn)人工道德主體合乎倫理的應(yīng)用就不可能最終實(shí)現(xiàn)。無(wú)論如何,后者產(chǎn)生的問(wèn)題往往使得前者顯得更加迫切。比如,如果不能在人工道德主體的設(shè)計(jì)過(guò)程中始終如一地遵循某種道德準(zhǔn)則,那么要把創(chuàng)造合乎倫理的人工道德主體放在機(jī)器倫理發(fā)展的首位就是不可能的。換句話說(shuō),如果人們認(rèn)為最好的選擇是把某種外在的倫理框架強(qiáng)加在人工道德主體上去的話,那么,其結(jié)果就是要么不可能最終產(chǎn)生真正的人工道德主體,要么就會(huì)違背某種道德信條,所建構(gòu)的機(jī)器倫理的框架也是令人難以置信的。實(shí)現(xiàn)倫理道德和人工道德主體之間的一致性,亦即建構(gòu)一個(gè)倫理框架可以成功地應(yīng)用于人工道德主體本身就成為機(jī)器倫理面臨的一個(gè)任務(wù)。在這樣一種倫理框架內(nèi),人工道德主體能夠采取道德的行為,并按照這一倫理框架把創(chuàng)造人工道德主體作為機(jī)器倫理發(fā)展的首要目標(biāo)。在這里主要通過(guò)檢視康德的義務(wù)論道德入手來(lái)分析和闡釋這一任務(wù)。
在機(jī)器倫理的建構(gòu)過(guò)程中,盡管像艾倫( C. Allen)、格勞(C. Grau)、納多(J. E. Nadeau)等學(xué)者提出了不同于康德式的倫理分析框架。[注]C. Allen, W. Wallach & I. Smit,“Why Machine Ethics?”IEEE Intelligent Systems, Vol.21,no.4(2006), pp.12-17; C. Grau, “There is No ‘I’ in ‘Robot’: Robots and Utilitarianism”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.52-55;J. E. Nadeau, “Only Androids can be Ethical”, In K. Ford, C. Glymour & P. J. Hayes (Eds.), Thinking about Android Epistemology, MIT Press,2006, pp. 241-248.但是,作為一種重要的道德理論,康德的義務(wù)論倫理學(xué)仍被許多倫理學(xué)家應(yīng)用于機(jī)器倫理的建構(gòu)過(guò)程中。例如,美國(guó)著名的倫理學(xué)家鮑威爾(T. Powers)就認(rèn)為,康德的義務(wù)論分析框架被認(rèn)為是把倫理道德成功運(yùn)用到自主的機(jī)器人身上的最好機(jī)會(huì)。[注]T. Powers,“Prospects for a Kantian Machine”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.46-51; W. Wallach, C. Allen & I. Smit,“Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”,AI & Society, Vol.22(2008), pp.565-582.美國(guó)學(xué)者安德森(M. Anderson, S. L. Anderson)也主張:“康德的以義務(wù)論為基礎(chǔ)的倫理分析框架可以說(shuō)是建構(gòu)機(jī)器倫理最有前途的一種分析理路。”[注]M. Anderson, S. L. Anderson,“The Status of Machine Ethics: A Report from the AAAI Symposium”,Minds and Machines, Vol.17(2007a), pp.1-10; M. Anderson & S. L. Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent”,AI Magazine, Vol.28,no.4(2007b), pp.15-26.他認(rèn)為,作為一種典型的倫理范例,康德的義務(wù)論倫理學(xué)為我們提供了一種可成功用于人工道德主體本身并被它們有效遵守的倫理框架。當(dāng)然,這種可能性仍然需要我們進(jìn)一步追問(wèn):康德式的倫理分析框架是否真正把創(chuàng)造合乎倫理的人工道德主體放在首位?[注]到目前為止,在建構(gòu)機(jī)器倫理中對(duì)康德義務(wù)論進(jìn)行最深刻分析的是鮑威爾,盡管鮑威爾對(duì)康德倫理學(xué)的分析仍然停留在應(yīng)用的層次上,但他從未考慮過(guò)它是否真正把創(chuàng)造合乎倫理的人工道德主體放在第一位。而一旦這個(gè)問(wèn)題被明確提出來(lái),也就意味著,試圖創(chuàng)造康德式人工道德主體最終可能會(huì)是反康德式倫理的。一方面,嚴(yán)格來(lái)說(shuō),康德式人工道德主體并非真正的道德主體;另一方面,即使它們是真正的道德主體,那么這些人工道德主體的創(chuàng)造最終卻違背了康德的義務(wù)論道德律。正因?yàn)槿绱?,康德式人工道德主體的創(chuàng)造與康德義務(wù)論的分析框架是自相矛盾的。既然人們要求人工道德主體發(fā)展與倫理道德相一致,那么把人類所預(yù)先設(shè)計(jì)的外在的倫理規(guī)范強(qiáng)加于人工道德主體就是不可接受的。這一切所導(dǎo)致的結(jié)果就是,機(jī)器倫理學(xué)家必須另辟蹊徑去尋求把倫理道德成功地應(yīng)用于人工道德主體的分析路徑。
目前學(xué)術(shù)界在機(jī)器倫理研究中主要關(guān)注的就是賦予人工道德主體一個(gè)最好的倫理框架,以便使得人工道德主體本身及其行為更符合倫理。在建構(gòu)機(jī)器倫理的研究過(guò)程中,許多不同的建議被提出來(lái)了,從工程學(xué)的角度來(lái)看,有一些建議是非常有前途的。當(dāng)然在建構(gòu)機(jī)器倫理的過(guò)程中,人們必須把創(chuàng)造合乎倫理的人工道德主體作為機(jī)器倫理的首要目標(biāo)。盡管像安德森提出的“道德是否是一種可以被計(jì)算的事情”[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”, p.18.是正確的,人們?nèi)匀恍枰穯?wèn):這種給定的道德是否應(yīng)該被計(jì)算?美國(guó)著名倫理學(xué)家艾倫就非常清楚地表明:“機(jī)器倫理學(xué)家必須評(píng)估任何可以用于指導(dǎo)計(jì)算機(jī)程序做出倫理決策的道德理論和分析框架?!盵注]C. Allen, W. Wallach & I. Smit, “Why Machine Ethics?”,p.15.事實(shí)上,僅僅這樣要求還不夠,還必須從發(fā)展的視角,進(jìn)一步評(píng)估現(xiàn)有的道德理論是否更加有助于它的積極創(chuàng)新和健康發(fā)展,而不是僅僅停留在它對(duì)人工道德主體的約束性應(yīng)用上。要求人們所創(chuàng)造的合乎倫理的人工道德主體和人類的行為有很大差異,或者允許它們違反相同的道德框架而去服從某種既定的倫理規(guī)范,在道德上是不一致的。而適應(yīng)這種道德上的一致性,對(duì)機(jī)器倫理的建構(gòu)來(lái)講是一個(gè)迫在眉睫的任務(wù)。這種道德一致性的要求是多方面的,人們既需要人工道德主體能夠始終如一地遵守它既定的道德規(guī)范,也同樣要求所建構(gòu)的機(jī)器倫理框架保持內(nèi)部的一致性,從而保證在今后出現(xiàn)類似的道德情景時(shí)能夠做出相似的道德價(jià)值判斷。而且,人們也需要在不同倫理框架之間建立其內(nèi)部的自洽性,使得這些倫理框架不僅在創(chuàng)建人工道德主體的階段,而且在保障人工道德主體健康發(fā)展及應(yīng)用等方面,都保持道德上的一致性,避免自相矛盾。
盡管人們希望人類所創(chuàng)造的人工道德主體在某些方面更合乎倫理,但是,只是一味地讓人類所創(chuàng)造的人工道德主體遵守某種既定的倫理框架,而不是把創(chuàng)造合乎倫理的人工道德主體放在首位,這確實(shí)是虛偽的。正如納多所指出的:“人類道德行為的地位在某種意義上來(lái)說(shuō)是投射到人工道德主體身上而體現(xiàn)出來(lái)的?!盵注]納多在這方面走得更遠(yuǎn),他甚至認(rèn)為只有機(jī)器人可能是道德的,而人是不道德的。參見J. E. Nadeau, “Only Androids can be Ethical”, In Thinking about Android Epistemology, pp.241-248.換句話說(shuō),由于人類不是康德式的,甚至有時(shí)候還違背了康德式的道德理論,因此,人們希望創(chuàng)造一個(gè)康德式人工道德主體并嚴(yán)格要求它遵守康德式的倫理框架是根本不可能的。嚴(yán)格依據(jù)康德式的倫理框架所創(chuàng)造的人工道德主體恰恰是不道德的,因?yàn)椋罁?jù)這樣一種既定的康德式的倫理框架去創(chuàng)造人工道德主體,恰恰違背了康德的義務(wù)論道德律。當(dāng)然,并不是說(shuō)依據(jù)既定的康德的義務(wù)論倫理框架去創(chuàng)造人工道德主體根本不可能,只是說(shuō)這樣所創(chuàng)造的人工道德主體,結(jié)果卻是反康德義務(wù)論的。但是有一點(diǎn)我們必須堅(jiān)信,人工道德主體的創(chuàng)造與機(jī)器倫理的發(fā)展及應(yīng)用是可能的。問(wèn)題的關(guān)鍵是,為了做到這一點(diǎn),必須找到一個(gè)與人工道德主體的創(chuàng)造及應(yīng)用相匹配,并且能夠應(yīng)用,也允許應(yīng)用于人工道德主體的倫理框架。當(dāng)然,在回應(yīng)這些爭(zhēng)議之前,人們必須清楚當(dāng)前機(jī)器倫理研究面臨的主要任務(wù)是什么。
在現(xiàn)實(shí)環(huán)境中,人工道德主體能夠做出道德判斷和執(zhí)行道德行為決策,并產(chǎn)生一定的道德后果。艾倫、摩爾(Moor)、瓦拉赫(Wallach)等倫理學(xué)家都主張,這種人工道德主體必定會(huì)出現(xiàn)。[注]C. Allen, W. Wallach & I. Smit,“Why Machine Ethics?”, pp12-17; J. H. Moor,“The Nature, Importance and Difficulty of Machine Ethics”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.18-21; W. Wallach, C. Allen & I. Smit,“Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”, pp.565-582.安德森也強(qiáng)調(diào)指出:“機(jī)器倫理的終極目標(biāo)就是創(chuàng)造這樣一種人工道德主體,它應(yīng)該作為人類明確的道德能動(dòng)體?!盵注]M. Anderson & S. L. Anderson,“The Status of Machine Ethics: A Report from the AAAI Symposium”, pp.1-10; M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”, pp.15-26.美國(guó)著名倫理學(xué)家吉普斯(Gips)則走得更遠(yuǎn),他甚至主張:“建立合乎倫理的人工道德主體應(yīng)該是整個(gè)計(jì)算機(jī)和人工智能技術(shù)研究中面臨的一個(gè)巨大的挑戰(zhàn)?!盵注]J. Gips, “Towards the Ethical Robot”. In K. Ford, C. Glymour & P. Hayes (eds.), Android Epistemology, MIT Press,1995,pp.243-252.無(wú)論創(chuàng)造這樣的人工道德主體是否可能,人們都會(huì)把在現(xiàn)實(shí)世界中創(chuàng)造這種人工道德主體作為機(jī)器倫理建構(gòu)的首要目標(biāo)。
那么,究竟什么是人工道德主體(又稱道德的機(jī)器人,或道德的機(jī)器)?在這里,筆者比較認(rèn)同詹姆斯·摩爾對(duì)人工道德主體所做出的四種類型的區(qū)分:[注]J. H. Moor, “The Nature, Importance and Difficulty of Machine Ethics”,pp.18-21.(1)受道德影響的人工道德主體;(2)隱性的人工道德主體;(3)顯性的人工道德主體;(4)完整的人工道德主體。根據(jù)摩爾的觀點(diǎn),所謂的“受道德影響的人工道德主體”,指的是在某些方面對(duì)其環(huán)境有道德影響的計(jì)算技術(shù)。為此,摩爾首先舉了一個(gè)在卡塔爾開展的駱駝比賽的例子。隨著現(xiàn)代技術(shù)的發(fā)展,在卡塔爾曾經(jīng)作為“奴隸男孩”的駱駝騎手已經(jīng)被機(jī)器人取代,從而大大減輕了對(duì)這些“男孩”生命的強(qiáng)制性奴役。另一個(gè)例子是作為大規(guī)模殺傷性武器的原子彈。在這一層次上,人工道德主體根本沒(méi)有什么道德性可言,它們也完全沒(méi)有什么自主行動(dòng)的特征。這些人工道德主體只是微弱意義上的道德主體,它們的功能所體現(xiàn)出的目的僅僅具有較弱的直接或間接的道德后果。
而在“受道德影響的人工道德主體”類型之上就是摩爾所指的“隱性的人工道德主體”。摩爾指出,在這種類型中,人工道德主體被設(shè)計(jì)成隱性地遵循某種道德規(guī)則,這樣的人工道德主體不會(huì)做出不道德的行為。之所以會(huì)這樣,首先是因?yàn)樗鼈兇蠖嘣谌魏螐?qiáng)有力的情形中都無(wú)法采取真正的行動(dòng)。如自動(dòng)駕駛汽車和自動(dòng)柜員機(jī)(ATM)就屬于這種類型的人工道德主體。這些被設(shè)計(jì)的道德規(guī)則隱性地約束著人工道德主體的行為,以便使它們的行為在道德上可以被接受。這里重點(diǎn)強(qiáng)調(diào)兩個(gè)方面:一是這些人工道德主體不能做出不道德的行為,除非它們出現(xiàn)機(jī)械故障;二是盡管它們?cè)诂F(xiàn)實(shí)世界中做出行動(dòng),但是它們?cè)谶@一層面上的行動(dòng)幾乎是沒(méi)有自主權(quán)的。如果它們做出錯(cuò)誤的行為,責(zé)任往往不在它們,而在于其設(shè)計(jì)者或用戶。按照這種方式,正像摩爾所指出的那樣:“人工道德主體的功能是一個(gè)隱性的道德主體,并不表示它們是成熟的人工道德主體?!盵注]J. H. Moor, “The Nature, Importance and Difficulty of Machine Ethics”,p.19.
接下來(lái)兩類人工道德主體具有獨(dú)特的特點(diǎn)和功能。它們?cè)谑澜缟喜粌H經(jīng)常表現(xiàn)出來(lái),也可以在很少有人監(jiān)督或者無(wú)人監(jiān)督的情形下這樣做,因?yàn)椤帮@性的人工道德主體”有能力做出明確的道德判斷和道德證明。美國(guó)已經(jīng)提出或者正在使用的自主性自動(dòng)武器就屬于此類。[注]R. Sparrow,“ Killer Robots”,pp.62-77.比如,由美國(guó)海軍研制的名為“鬼蝠”的水下無(wú)人航行器,它能夠自動(dòng)地搜尋、攻擊和摧毀敵人的潛艇。[注]R. Sparrow,“ Killer Robots”,pp.63.“顯性的人工道德主體”最好與摩爾所描述的“完整的人工道德主體”并列起來(lái)去理解?!巴暾娜斯さ赖轮黧w”超越了“顯性的人工道德主體”,因?yàn)樗鼈冞€具備了自我意識(shí)、意向性、情感性、創(chuàng)造性和自由意志等能力,它就像是一個(gè)正常的成年人??梢哉f(shuō)到目前為止,尚未有人工道德主體達(dá)到“完整的人工道德主體”的水平,這類機(jī)器倫理研究的主要目的,是調(diào)查是否有可能去最終創(chuàng)造出“完整的人工道德主體”。值得注意的是,關(guān)于人工道德主體概念的爭(zhēng)論仍在繼續(xù),一些人認(rèn)為人工道德主體在任何重要的情況下都不能作為道德主體而存在,比如黛博拉·約翰遜(Johnson)就主張:“計(jì)算機(jī)系統(tǒng)可能是一種道德上的實(shí)體,盡管它們不能成為人工道德主體?!盵注]D. G. Johnson,“Computer Systems: Moral Entities but Not Moral Agents”,Ethics and Information Technology, Vol.8(2006), pp.195-204.斯帕魯(Sparrow)也主張:“即使人工道德主體是自主的,但是它們永遠(yuǎn)不可能對(duì)自己的行為承擔(dān)責(zé)任?!盵注]R. Sparrow,“ Killer Robots”,pp.62-77.托倫斯(Torrance)同樣認(rèn)為:“人工道德主體不可能成為真實(shí)的道德共同體的成員,因?yàn)樗鼈儾痪邆渖飳?shí)體的某些獨(dú)特的屬性?!盵注]S. Torrance,“Ethics and Consciousness in Artificial Agents”,AI & Society,Vol.22,no.4(2008), pp.495-521.另一方面,也有許多倫理學(xué)家提出了一些相反的看法,比如英國(guó)牛津大學(xué)教授佛羅里迪(Floridi)就主張:“人工道德主體可以成為‘完整的人工道德主體’,盡管它們也許只是在某種抽象的層次上?!盵注]L. Floridi & J. W. Sanders,“On the Morality of Artificial Agents”,Minds and Machines, Vol.14,no.3(2007), pp.349-379.甚至有個(gè)別學(xué)者,比如卡爾弗利(D. J. Calverley)在這方面走得更遠(yuǎn),他主張:“人工道德主體應(yīng)該被賦予類似于人一樣的法律地位?!盵注]D. J. Calverley,“Imagining a Non-biological Machine as a Legal Person”,AI & Society,Vol.22,no.4(2008), pp.523-537.對(duì)這些爭(zhēng)論,這里不再一一贅述。目的不在于探討人工道德主體是否可以滿足任何特征道德主體的標(biāo)準(zhǔn),而在于它們是否符合康德式的道德標(biāo)準(zhǔn)。這也就是為什么筆者總體上不反對(duì)人工道德主體的創(chuàng)造,而是主張康德式人工道德主體的創(chuàng)造違背了康德的道德原則。在這里更關(guān)心的是任何顯性的或完整的人工道德主體,即那些在世界上具有自主行動(dòng)能力的、更加發(fā)達(dá)的人工道德主體的特征尤其與這里的討論密切相關(guān)。一旦人工道德主體被禁止在現(xiàn)實(shí)世界中行動(dòng),那么人們所有的那些擔(dān)憂就是多余的。同樣,在這里大量的利害關(guān)系是基于這樣一種觀點(diǎn):人工道德主體在很大程度上是自主的。而康德的道德理論認(rèn)為,如果人工道德主體不是自主性的,那么它們就不是一種康德式的智能道德主體,因此,它們不應(yīng)該,也不可能會(huì)受康德道德理論的約束;如果它們是自主性的,那么盡管它們是康德式人工道德主體,它們的存在也不過(guò)是一個(gè)道德悖論。為什么會(huì)做出如此的判斷?有必要簡(jiǎn)要地介紹一下康德的倫理學(xué)理論。
鑒于這里討論的是一個(gè)跨學(xué)科性質(zhì)的話題,關(guān)于康德的倫理學(xué)理論的細(xì)節(jié)問(wèn)題在這里不再贅述。這里突出強(qiáng)調(diào)康德倫理思想的三個(gè)主要方面:(1)道德主體的基礎(chǔ);(2)絕對(duì)命令在道德決策中的作用;(3)責(zé)任的概念。
依據(jù)康德的觀點(diǎn),道德主體有兩個(gè)主要的組成部分:理性和自由(或自主)。只有那些具有理性和自由的實(shí)體才能夠成為道德主體。只有那些超越先天經(jīng)驗(yàn)而僅僅源于純粹理性的道德律才對(duì)所有理性的生命體具有必然的、普遍的約束力。作為理性的法則,客觀的道德律的目標(biāo)是充當(dāng)人們道德行動(dòng)的指南,作為理性和理智的形式存在的人類自由意志必然會(huì)面對(duì)兩個(gè)相互競(jìng)爭(zhēng)性的沖突。然而,作為意志的傾向性是為了滿足人們獲得快樂(lè)和生存的基本需求(簡(jiǎn)言之,偶然性在很大程度上意味著欲望的結(jié)束)。理性具有不同的作用,理性按照客觀道德律指導(dǎo)人們的行動(dòng),最終指向建立善良意志和道德品質(zhì)。依據(jù)康德的觀點(diǎn),人類相互競(jìng)爭(zhēng)性的沖突之所以出現(xiàn),只是因?yàn)槿祟愅鶗?huì)違背道德律和屈服于感官滿足的誘惑。正如康德在《道德形而上學(xué)》中所指出的,“責(zé)任意味著理性必將征服惡因滋生的傾向性”,[注]I. Kant,The Metaphysics of Morals ,Trans. M. Gregor, Cambridge University Press,1996,p.141.換句話說(shuō),采取負(fù)責(zé)任的行動(dòng)的力量,部分源于人們可能會(huì)采取另外一種行動(dòng)這一基本事實(shí)。在《道德形而上學(xué)》中,康德非常明確地提出:“一個(gè)人的道德能力如果不是在解決強(qiáng)有力的沖突過(guò)程中產(chǎn)生的力量的話,那么這種道德能力就不會(huì)是美德。在很大程度上,美德是純粹實(shí)踐理性的產(chǎn)物,在自由的基礎(chǔ)上,美德獲得了至高無(wú)上的超越意識(shí)傾向性的優(yōu)勢(shì)?!盵注]I. Kant,The Metaphysics of Morals, p.221.
道德主體因?yàn)閾碛凶杂梢庵?,因此,它們可以違背道德責(zé)任(盡管這樣不道德)。根據(jù)康德的思想,自由具有積極的自由和消極的自由兩種形式。作為一個(gè)理性的道德主體,從消極的意義上來(lái)說(shuō),道德主體只要沒(méi)有外在因果力量的支配就應(yīng)該是自由的。從積極的意義上來(lái)說(shuō),道德主體只有在理性能夠自由地賦予自身和遵循理性創(chuàng)造的道德律的情況下才是自由的,在這里自由意志僅僅隸屬于主體本身。因此,在這種情況下道德主體能夠完全自主和為自身立法??档轮赋?,“遵循道德規(guī)范會(huì)導(dǎo)致自由意志的弱化”,為了更好地理解作為誘發(fā)道德因果關(guān)系的自我,有必要預(yù)先假定自由的概念,并因此而構(gòu)想出所有呈現(xiàn)因果關(guān)系的理性的存在。這樣,面對(duì)意志傾向性的誘惑,絕對(duì)的自由意志就能夠依據(jù)作為決策工具的理性去揭示自我的因果關(guān)系。在理性和自由作為道德的兩個(gè)出發(fā)點(diǎn)的基礎(chǔ)上,康德進(jìn)一步通過(guò)絕對(duì)命令來(lái)闡明道德法則。為了評(píng)估某種行為在道德上是否被允許,一個(gè)道德主體必須測(cè)試作為個(gè)體行動(dòng)原則的主觀能動(dòng)性準(zhǔn)則對(duì)于客觀的絕對(duì)命令的反對(duì)程度。為了符合某一道德準(zhǔn)則,必須使得這一準(zhǔn)則滿足普遍道德一致性的需要。概括地說(shuō),也就是對(duì)所有道德主體來(lái)說(shuō),在給定相同道德情景的情況下,依據(jù)相同的道德準(zhǔn)則會(huì)做出(也應(yīng)該做出)行動(dòng)。雖然康德明確表達(dá)了決定命令的幾種形式,但他認(rèn)為這些形式的絕對(duì)命令在總體上都可以達(dá)到同一的客觀道德律。正如羅爾斯所指出的:“要想獲得一個(gè)行動(dòng)的道德地位,必須有助于應(yīng)用既定的規(guī)則去審視所有的不同形態(tài)的絕對(duì)命令,從而在某種直接的情形中提供不同的角度?!盵注]J. Rawls,Lectures on the History of Moral Philosophy, Harvard University Press,2000,pp.121-123.通過(guò)這種方式,絕對(duì)命令在決定哪些行為是負(fù)責(zé)任的、哪些行為是不負(fù)責(zé)任的方面具有啟發(fā)性。就我們的目的而言,有必要明確前兩種形式的絕對(duì)命令:
絕對(duì)命令一:只有當(dāng)且僅當(dāng)基于同一的自由意志的那些道德規(guī)則而采取的行動(dòng)才能夠成為普遍的道德律。
絕對(duì)命令二:你要這樣對(duì)待人性,即無(wú)論是你的人格中的人性,還是其他任何一個(gè)人格中的人性,在任何情況下你都要同時(shí)把人當(dāng)作目的,而不是僅僅當(dāng)作一種手段。
依據(jù)奧尼爾(O’Neill)對(duì)康德倫理學(xué)的解讀,所謂道德規(guī)則就是只需要據(jù)此行動(dòng),而不能被標(biāo)注為概念上或意向性的不一致性。在某種程度上,一個(gè)概念上的不一致性存在于依據(jù)從外部世界排除了道德規(guī)則而行動(dòng)的領(lǐng)域,因此,它就是個(gè)矛盾。倘若來(lái)自現(xiàn)實(shí)道德規(guī)則的要求是不可能的,那么,作為普遍的概念化的規(guī)則本身就是不可能的。例如,“一個(gè)人應(yīng)該成為奴隸主”這樣的道德規(guī)則是不可思議的,因?yàn)檫@樣的道德規(guī)則普遍化,它卻忽視了“因?yàn)榇嬖谂`主,也必須存在奴隸”這樣的觀點(diǎn)。但如果所有的道德主體都是奴隸主,那么沒(méi)有人愿意繼續(xù)作為奴隸而存在??梢姡f(shuō)所有的道德主體應(yīng)該擁有奴隸主地位,這在概念上是不可能的,因?yàn)橐环N絕對(duì)的、一分為二的關(guān)系必然使它們?cè)谡w上受到損害。那些和意志力相矛盾的道德規(guī)則,往往產(chǎn)生于當(dāng)?shù)赖乱?guī)則和道德主體的自由意志不一致的時(shí)候;這種不一致經(jīng)常產(chǎn)生于和道德主體不同的想法或競(jìng)爭(zhēng)性的利益中,個(gè)體道德意志與自我發(fā)生了矛盾,并且未能作為同時(shí)達(dá)到規(guī)定的結(jié)果的手段。換句話說(shuō),一個(gè)道德主體間接地排除了應(yīng)該自我負(fù)責(zé)的道德規(guī)則,想象自己是規(guī)則的例外,而其他的所有道德主體都受到約束,或者它同時(shí)希望兩個(gè)相互矛盾的道德規(guī)則。對(duì)此,康德曾經(jīng)明確提出:“如果我們現(xiàn)在偶爾參與我們自己違反責(zé)任的罪過(guò),我們將會(huì)發(fā)現(xiàn),事實(shí)上我們并沒(méi)有將我們的道德準(zhǔn)則看作一個(gè)普遍道德律的意愿。這對(duì)我們來(lái)說(shuō)是不可能的。相反,只有當(dāng)我們對(duì)自己所假定的自由能夠支持(僅僅為了這一次),或贊成做出我們意志傾向的例外時(shí),我們才會(huì)把我們的對(duì)立面看作一個(gè)普遍道德律?!边@種類型矛盾的一個(gè)例子是,主張?jiān)谑澜缟舷`制,但同時(shí)又投票給某個(gè)容忍奴隸制的政黨從而在某個(gè)州或國(guó)家保留奴隸制。在這里,意志沖突的產(chǎn)生是因?yàn)橐粋€(gè)人不能始終如一地主張廢除奴隸制,同時(shí)又愿意采取某種手段去維護(hù)它。[注]O. O’Neill, Constructions of reason: Explorations of Kant’s practical philosophy, Cambridge University Press,1989,pp.89-91.康德的道德框架是義務(wù)論的,這意味著它是建立在知道自己做什么是對(duì)的觀點(diǎn)之上的,而不是基于職責(zé)做出行動(dòng)。依據(jù)康德的觀點(diǎn),理性的人通過(guò)運(yùn)用自己的理性而自主決定他們的職責(zé)。盡職盡責(zé)地行動(dòng)是通向建立善良意志的唯一道路,這種善良意志是唯一不附加任何條件的善。在康德的倫理學(xué)中,責(zé)任的關(guān)鍵點(diǎn)是:為了某個(gè)道德的行動(dòng),它必須同時(shí)源于并遵守責(zé)任。在某些出于責(zé)任考量而行動(dòng)(比如通過(guò)反射而承諾的行動(dòng))沒(méi)有完成的情況下,盡管它們可能符合責(zé)任,但是嚴(yán)格來(lái)講它們是不道德的。
以上對(duì)康德倫理學(xué)做了簡(jiǎn)要概括。根據(jù)康德倫理學(xué)的觀點(diǎn),道德行為是指那些符合絕對(duì)命令這一道德客觀規(guī)律的行為;這些行為都是為了道德考量而出于責(zé)任做出的行為,它們都是由理性和自由的人(或道德主體)付諸實(shí)施的。接下來(lái),筆者認(rèn)為人工道德主體不能是康德式的,因?yàn)榭档率饺斯さ赖轮黧w本質(zhì)上是不自由的,而且它們?cè)诤芏喾矫孢`反了絕對(duì)命令這一道德律。因此,把康德的道德理論應(yīng)用于此,已經(jīng)走得太遠(yuǎn)了。通過(guò)這樣一種方式,從康德式倫理學(xué)的視角去建構(gòu)機(jī)器倫理,不能適應(yīng)上面所提到的挑戰(zhàn),因此有必要尋求并確定一種能夠?qū)嵤?,也允許實(shí)施的道德理論框架。
康德式人工道德主體的創(chuàng)造并不符合康德倫理學(xué),因?yàn)樗⒎钦嬲饬x上的道德主體,其創(chuàng)造在很多方面違背了絕對(duì)命令這一根本道德律。因?yàn)槿藗円罂档率饺斯さ赖轮黧w能夠道德地行動(dòng),事實(shí)上其發(fā)展卻違反了康德倫理學(xué),從而使得這種人工道德主體創(chuàng)造的道德性受到質(zhì)疑,也使得人工道德主體創(chuàng)造者顯得有些偽善。這樣所產(chǎn)生的結(jié)果就是,盡管康德倫理學(xué)可以被應(yīng)用于機(jī)器倫理的建構(gòu),但是,至少?gòu)乃鼈冊(cè)诂F(xiàn)實(shí)世界所表現(xiàn)出的行動(dòng)而言,這些人工道德主體不應(yīng)得到發(fā)展??梢詮乃膫€(gè)方面來(lái)論證這種觀點(diǎn)。
回顧一下,根據(jù)康德的觀點(diǎn),道德主體的本質(zhì)屬性是雙重的:既是理性的又是自由的。那么在其中一個(gè)或者兩個(gè)屬性都缺失的情況下,真正的道德主體也必然是不存在的。在這里假定所有的道德主體都是理性的,因?yàn)樘热魶](méi)有理性,人工道德主體就不會(huì)是康德式人工道德主體。我所感興趣的是人工道德主體是否自由,從而能夠滿足康德式人工道德主體前述兩個(gè)方面的需求。人工道德主體往往以一種編程的方式被限制,甚至被阻止了行動(dòng)的自由,事實(shí)上,所有針對(duì)道德主體的操作都必須遵循預(yù)先的程序,并由這些程序規(guī)則決定。[注]這一說(shuō)法確實(shí)很有爭(zhēng)議,一些人認(rèn)為可以把自由意志灌輸給人工道德主體。具體參見J. McCarthy,“Free Will—Even for Robots”,Journal of Experimental and Theoretical Artificial Intelligence, Vol.12,no.3(2000), pp.341-352.所有的行動(dòng)被決定的人都不具備自由意志,尤其是對(duì)于機(jī)器倫理學(xué)家來(lái)說(shuō),首先要保證人工道德主體的行為是道德的,這一點(diǎn)是非常明顯的。機(jī)器倫理的目標(biāo)是創(chuàng)建一個(gè)合乎倫理的人工道德主體,而不是創(chuàng)造有時(shí)候道德地行為,有時(shí)候不道德地行為的道德主體。一方面,人工道德主體將按照預(yù)先植入程序的規(guī)則采取行動(dòng),決定執(zhí)行某些功能、以某些方式采取行動(dòng)、堅(jiān)持某種認(rèn)知真理,等等,重要的是它們不能超越既定的程序而采取行動(dòng)(假定是最優(yōu)化的行動(dòng))。另一方面,人工道德主體也將被編程而不能執(zhí)行某些行動(dòng),不能以特定的方式行動(dòng),等等,盡管它們有這樣采取行動(dòng)的潛力。這樣,康德式人工道德主體無(wú)論是就消極意義上的自由還是積極意義上的自由來(lái)說(shuō),都是不自由的。從積極意義上的自由來(lái)說(shuō),康德式人工道德主體是不自由的,因?yàn)橥皇菣C(jī)器本身而是程序員的規(guī)則限制了人工道德主體的行動(dòng);同樣,從消極意義上的自由來(lái)說(shuō),康德式人工道德主體也是不自由的,因?yàn)閺囊欢ǔ潭壬蟻?lái)說(shuō),作為外部力量的程序員的意圖往往決定了人工道德主體的行動(dòng)。這樣,人工道德主體所遵循的規(guī)則就是外部強(qiáng)加給它們的,而不是由它們自己創(chuàng)造的。軍事的人工道德主體應(yīng)該在眼前的目標(biāo)是無(wú)辜平民時(shí)不開火,但是它無(wú)法抗拒依據(jù)既定的命令程序向敵方目標(biāo)開火。比如,殺人機(jī)器人被用于軍事目的,當(dāng)它只能在某些程序員所賦予的程序規(guī)則范圍內(nèi)行動(dòng)時(shí),表明它是缺乏自由的。此外,人們可能不希望人工道德主體能夠自由行動(dòng),尤其是可能會(huì)導(dǎo)致它們行為的部分不道德時(shí)。當(dāng)然,并非所有不是出于自由的行為都是違反道德的。但涉及人工道德主體,限制不道德行為的情況就意味著某種自由的行為受到禁止。
此外,無(wú)論人們多么希望人工道德主體擁有自由意志,為了使它們成為康德式人工道德主體,它們需要自由和理性。在某種程度上,只有它們是自由的,其行為才是道德的,因?yàn)樗鼈兠黠@克服了一種非責(zé)任的傾向;否則,它們的行為既是不道德的,也是不能為自己的行為承擔(dān)責(zé)任的。根據(jù)康德的觀點(diǎn),一個(gè)道德主體部分地?fù)碛锌刂谱约悍纯鼓撤N道德律令的資格,從而具有了可以自由操作的能力,這是不道德的。[注]I. Kant,The Metaphysics of Morals,p.148.然而機(jī)器倫理的目標(biāo)恰恰是減少人工道德主體在道德上某些不可挑戰(zhàn)的傾向性。一方面,如果康德式人工道德主體不自由,那么它們就不是真正的道德主體。在這種情況下,機(jī)器不會(huì)認(rèn)為自己受到既定道德規(guī)則的約束和限制,要?jiǎng)?chuàng)造合乎倫理的人工道德主體的目標(biāo)就是失敗的。雖然人工道德主體有可能道德地行動(dòng)(因?yàn)樗鼈儧](méi)有自由去做其他的),然而它們卻是缺乏道德的道德主體。更重要的是,人工道德主體不是一個(gè)恰當(dāng)?shù)牡赖轮黧w,但也不是一個(gè)可以恰當(dāng)?shù)匕H的對(duì)象(這一點(diǎn)將在后面討論)。另一方面,如果人工道德主體是自由的,它們可能會(huì)不管它們的程序指令而故意做出不道德行為的選擇。艾倫對(duì)此也表達(dá)了相同的看法:“正如康德認(rèn)為的那樣,如果人工道德主體具有努力成為善的意愿,并且擁有道德破壞的資格,然而我們使它們不具有做出不道德行為的能力,那么,我們將不可能創(chuàng)造出真正的人工道德主體,具有某種道德破壞能力的某種自主性將會(huì)是作為人工道德主體所必不可少的(最初所強(qiáng)調(diào)的)?!盵注]C. Allen, G. Varner & J. Zinser,“Prolegomena to Any Future Artificial Moral Agent”,Journal of Experimental and Theoretical Artificial Intelligence, Vol.12,no.3(2000), p.254.
因此,創(chuàng)造真正的人工道德主體的唯一途徑,就是在某種程度上確保它們即使選擇不道德行為時(shí)也是自由的,這是最有可能不被機(jī)器倫理學(xué)家理所當(dāng)然接受的一個(gè)結(jié)果。否則,即使可以創(chuàng)造既有理性又有自由的康德式人工道德主體,然而在其他方面卻違背了康德倫理學(xué)。其余的爭(zhēng)論都圍繞著康德式人工道德主體的創(chuàng)造可能以某種方式違背了絕對(duì)命令道德律展開,正因?yàn)檫@樣,這對(duì)于提出創(chuàng)造康德式人工道德主體的明確的、可普遍化的主觀規(guī)則是有益的。機(jī)器倫理的原則可以明確地表示如下:它必須能夠創(chuàng)造出在世界上產(chǎn)生合乎倫理的行為結(jié)果、顯性(或完整)的人工道德主體。機(jī)器倫理未能在幾個(gè)方面堅(jiān)持康德的道德法則,這并不是說(shuō)不同的規(guī)則制定方法不能避免這種結(jié)果。例如,人們用“美德的”取代“康德式的”,這當(dāng)然需要一個(gè)獨(dú)立的調(diào)查來(lái)評(píng)估美德倫理的原則是否符合創(chuàng)造此類人工道德主體。當(dāng)然,這不是說(shuō)人工道德主體永遠(yuǎn)不可能被創(chuàng)造出來(lái),關(guān)鍵是所建構(gòu)的機(jī)器倫理的框架應(yīng)該是把創(chuàng)造這種類型的人工道德主體放在首要地位。盡管這樣做可能與康德的倫理原則相抵觸,但康德的倫理原則卻可以實(shí)現(xiàn)。當(dāng)然,“它是否比其他道德原則更好”仍然是一個(gè)懸而未決的問(wèn)題。
創(chuàng)造康德式人工道德主體,人們只是把它們當(dāng)作手段而不是作為目的而對(duì)待。根據(jù)康德的倫理思想,人工道德主體自我生成,因此,它們應(yīng)該受到尊重。違反這一道德律意味著把人工道德主體僅僅作為客體和用于實(shí)現(xiàn)其他目的的手段看待。對(duì)于人工道德主體是否可以被看作自我生成的,目前尚不清楚??档轮鲝垼骸白鳛榈赖轮黧w的人類被看作人(即理性道德實(shí)踐的主體),是超越于任何物體的價(jià)值的。因?yàn)樽鳛橐粋€(gè)屬人的本體,他不僅僅是作為他人價(jià)值甚至自我價(jià)值實(shí)現(xiàn)的手段,而且作為一個(gè)終極意義上的、擁有尊嚴(yán)(絕對(duì)的內(nèi)在價(jià)值)的自我,必須尊重這個(gè)世界上所有理性的生命,他可以基于和他們平等的地位去權(quán)衡自己與其他生命體的價(jià)值。”[注]I. Kant,The Metaphysics of Morals,p.186.為了被作為一個(gè)終極意義的自我而對(duì)待,康德式人工道德主體必須擁有尊嚴(yán),并應(yīng)該在道德社區(qū)中作為平等的一員得到所有人類(或其他道德主體)的尊重。這就需要像人類的權(quán)利、機(jī)會(huì)和地位那樣,去賦予人工道德主體權(quán)利、機(jī)會(huì)和地位,這不是一個(gè)機(jī)器倫理學(xué)家希望走的路。無(wú)論如何,這對(duì)那些想要把人類的權(quán)利賦予人工道德主體以便使它們能理性行動(dòng)的人來(lái)說(shuō),都是一種不小的負(fù)擔(dān)。無(wú)論如何,現(xiàn)階段的人類意識(shí)表明,人類都還沒(méi)有把人工道德主體作為終極手段以外的意圖。一旦人們用于考察他們創(chuàng)造更高級(jí)的人工道德主體的原因的時(shí)候,這種意圖就變得很明顯。艾倫就曾經(jīng)強(qiáng)調(diào)指出:“人工道德主體擁有自主行動(dòng)的能力對(duì)人類是有益的同時(shí),也是有害的?!盵注]C. Allen, G. Varner & J. Zinser,“Prolegomena to Any Future Artificial Moral Agent”, p.251.為此,摩爾總結(jié)了發(fā)展顯性的人工道德主體的三個(gè)理由:[注]J. H. Moor,“The Nature, Importance and Difficulty of Machine Ethics”,p.21.(1)倫理道德非常重要,人們希望人工道德主體更好地對(duì)待自己;(2)因?yàn)槿斯さ赖轮黧w變得越來(lái)越復(fù)雜,使人們的生活變得越來(lái)越有趣,未來(lái)的人工道德主體會(huì)增加控制和自主行動(dòng)權(quán);(3)編程和教會(huì)人工道德主體使它們道德地行動(dòng),將有助于人們更好地理解倫理道德。摩爾的創(chuàng)造人工道德主體的理由非常清晰,假如人工道德主體能夠以與道德完全相關(guān)的方式對(duì)待人類,人們就會(huì)希望它們能夠更好地對(duì)待人類。同樣,似乎也證明,假如人工道德主體在這個(gè)世界上是強(qiáng)有力的道德主體,那么,人們也會(huì)希望它們?cè)诘赖律鲜瞧降鹊?。此外,摩爾也不是唯一一個(gè)認(rèn)為機(jī)器倫理研究對(duì)于從整體上理解倫理學(xué)是有深刻洞見的。正像安德森所提出的:“機(jī)器倫理在實(shí)現(xiàn)我們發(fā)現(xiàn)當(dāng)前倫理理論的問(wèn)題并重新推進(jìn)我們從總體上思考倫理學(xué)方面,比以往任何時(shí)候的倫理發(fā)展都更加精致?!盵注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”,p.11.盡管合理性就在于這些理由都是面向人類的終極價(jià)值——保護(hù)人類免受不道德行為的對(duì)待和價(jià)值的滿足,提高人類對(duì)道德的理解;作為人類倫理代理的人工道德主體,提高人類享受的人工道德主體的創(chuàng)造等等——但是,卻沒(méi)有注意到作為人工道德主體本身的終極價(jià)值。因此,康德式人工道德主體的創(chuàng)造,似乎違背了絕對(duì)命令的第二條原則。這樣,康德式人工道德主體的發(fā)展就走向了康德倫理學(xué)的對(duì)立面。
在《面向道德的機(jī)器人》一書中,吉普斯主張:“機(jī)器人的方法試圖為了機(jī)器人自身的利益去建構(gòu)道德推理系統(tǒng)或道德的機(jī)器人,因?yàn)檫@個(gè)道德推理系統(tǒng)可以為類似世界上的‘演員’和‘導(dǎo)演’帶來(lái)好處,并且這個(gè)方法有助于提高人們對(duì)倫理學(xué)的理解?!盵注]J. Gips,Towards the Ethical Robot,p.11.值得注意的是,吉普斯的道德推理大部分是人類中心主義的,他認(rèn)為,道德的機(jī)器人的創(chuàng)造應(yīng)該是為了“它們自己的利益”。如果這是正確的,那么,這種道德的機(jī)器應(yīng)該(也能夠)把它們自身看作目的,而不是僅僅作為手段而看待。如果是這種情況,那么康德式人工道德主體的創(chuàng)造最終和康德倫理學(xué)可能就是一致的。但是,吉普斯也不能提供任何支持他的觀點(diǎn)的理由,實(shí)際上,即使人們希望這樣做,但要想為了機(jī)器人自身的利益而創(chuàng)造道德的機(jī)器人是很困難的。在創(chuàng)造它們之前,對(duì)他們來(lái)說(shuō)“利益”是不在場(chǎng)的,一旦它們被創(chuàng)造出來(lái),它們就不可能會(huì)由人類賦予它們獨(dú)立“利益”。對(duì)吉普斯來(lái)說(shuō),也許有一種為了機(jī)器自身的利益而去創(chuàng)造它們的方法,這種方法只能是慈善意義上的。然而,提出支撐這種有爭(zhēng)議的觀點(diǎn)的論據(jù)是有難度的。在缺乏論據(jù)支撐的情況下,康德式人工道德主體的創(chuàng)造顯然違背了絕對(duì)命令二。
康德式人工道德主體的創(chuàng)造,可以說(shuō)也暗含了其他人工道德主體的創(chuàng)造,斯帕魯說(shuō):“如果這樣的人工道德主體受到道德意義上的贊揚(yáng)或批評(píng),它將是唯一起作用的方法?!盵注]R. Sparrow,“Killer Robots”,pp.62-77.正因?yàn)槿绱?,?dāng)驗(yàn)證道德規(guī)則的時(shí)候,(人類)道德主體需要考慮把人工道德主體包含在那些適用于共同的道德主體的、可普遍化的道德規(guī)則中。然而,由于人們一開始就把它們僅僅作為實(shí)現(xiàn)人類終極目的的手段而看待,人工道德主體自身將不會(huì)被寬恕(作為持久的機(jī)器倫理規(guī)則),因?yàn)?,人們?huì)理解為這與它們被既定程序所賦予的康德倫理學(xué)不相符??档率饺斯さ赖轮黧w承認(rèn)機(jī)器倫理規(guī)則不能普遍化,因?yàn)樗`背了絕對(duì)命令二(正像前面所論述的)。因此,它就不能作為其他所有道德主體必須遵守的規(guī)則,從而也就違背了絕對(duì)命令一。人工道德主體僅僅被作為手段而看待,這是不能寬恕的。因此,它不能認(rèn)同機(jī)器倫理規(guī)范,從而導(dǎo)致了機(jī)器倫理規(guī)范違背了絕對(duì)命令一。
但值得注意的是,在道德考量的過(guò)程中,這個(gè)問(wèn)題的結(jié)果無(wú)法僅僅通過(guò)簡(jiǎn)單地省略包含人工道德主體在內(nèi)的更多道德主體成員的道德行為而得以避免。這些群體中真正的道德主體成員受到康德道德律令的約束是至關(guān)重要的,因?yàn)橐坏┻@些人工道德主體不受道德律令的約束,它們就不會(huì)是合乎倫理的人工道德主體。在最壞的情況中,這些人工道德主體就會(huì)意識(shí)到它們的存在不符合它們被程序設(shè)計(jì)的、應(yīng)該遵循的道德規(guī)則。因此,它們可能會(huì)意識(shí)到它們的存在在道德上是令人厭惡的。人們會(huì)發(fā)現(xiàn)人工道德主體處在了一種道德異化的狀態(tài)中。人們甚至?xí)l(fā)現(xiàn),為了在世界上堅(jiān)守道德,合乎倫理的人工道德主體可能會(huì)走向康德所說(shuō)的“英雄的自殺”。[注]在《道德講演錄》中,康德區(qū)分了責(zé)任以外的英雄的自殺、該受責(zé)備的可惡的自殺和可允許的意外自殺之間的區(qū)別。英雄的自殺代表了在世界上基于堅(jiān)守道德規(guī)范而采取的自我生命的終結(jié),此種情況下,茍延殘喘意味著會(huì)引起更加嚴(yán)重的道德悖論。總之,如果它們是康德式人工道德主體,那么它們被要求去遵守程序設(shè)計(jì)所賦予它們的道德律令,會(huì)使其認(rèn)識(shí)到它們的存在不符合道德。
通過(guò)發(fā)展這樣的人工道德主體,康德式人工道德主體的開發(fā)人員部分地暗示,當(dāng)今世界應(yīng)該把人工道德主體當(dāng)作它們自己的終極目的而不是僅僅作為手段。這暗含著預(yù)先程序設(shè)計(jì)的人工道德主體必須遵循康德倫理學(xué)。與此同時(shí),開發(fā)人員僅僅把這些人工道德主體作為實(shí)現(xiàn)終極目的的手段而看待。因此,人工道德主體的創(chuàng)造者將要求它們自己去做不可能做的某些事情。在某種意義上,康德式人工道德主體的開發(fā)者將會(huì)間接地譴責(zé)人工道德主體的創(chuàng)造(不論他們是否承認(rèn))。人們會(huì)要求人工道德主體能夠道德地行動(dòng),然而通過(guò)這種特有的創(chuàng)造,人們恰恰是違背了道德。人們會(huì)要求自己像把其他道德主體作為終極目的那樣去對(duì)待人工道德主體,但與此同時(shí),卻把人工道德主體僅僅作為實(shí)現(xiàn)人類中心主義的手段而看待。機(jī)器倫理規(guī)范提出康德倫理學(xué)應(yīng)該被世界上所有其他的人工道德主體遵守。這個(gè)推論源于人們希望世界上所有人工道德主體的行為都應(yīng)該是道德的。因此,不能同時(shí)堅(jiān)持兩個(gè)道德原則(機(jī)器倫理和反機(jī)器倫理)都是普遍的,其中一個(gè)原則必須終止。
總之,這里提供了四個(gè)方面的論據(jù),來(lái)論證康德式人工道德主體的創(chuàng)造與康德倫理學(xué)是相互矛盾的。由于這些原因,機(jī)器倫理學(xué)家必須另外去尋找創(chuàng)造自主的人工道德主體目的的道德原則。
正像前面提到的那樣,這種論述不能應(yīng)用于非顯性的人工道德主體的創(chuàng)造。所有提出的反對(duì)康德式人工道德主體發(fā)展的爭(zhēng)論,往往被“在世界上行動(dòng)的人工道德主體并非真正的道德主體”這種觀點(diǎn)所圍繞。如果人們限制康德式人工道德主體的角色,以便它們?cè)谑澜缟喜徊扇⌒袆?dòng)或者作為人類做出道德行動(dòng)決策的代理人,這種擔(dān)心就煙消云散了。
這種例子很多,包括像醫(yī)學(xué)倫理機(jī)器人那樣,一個(gè)被設(shè)計(jì)的機(jī)器人為我們提供生命倫理學(xué)方面的建議。[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”,pp.15-26.像麥克拉倫(McLaren)的“說(shuō)真話者”(這是一個(gè)被設(shè)計(jì)成旨在幫助學(xué)生區(qū)分說(shuō)真話和撒謊的“詭辯的計(jì)算推理”的情況),[注]B. McLaren,“Computational Models of Ethical Reasoning: Challenges, Initial Steps and Future Directions”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.29-37.以及由加里尼(Guarini)所設(shè)計(jì)的、成功運(yùn)用道德規(guī)則使之能夠?qū)W習(xí)小說(shuō)的鏈接式網(wǎng)絡(luò)等,[注]M. Guarini,“Particularism and the Classification and Reclassification of Moral Cases”, IEEE Intelligent Systems, Vol.21,no.4(2006), pp.22-28.這些機(jī)器人被保證運(yùn)用機(jī)器倫理來(lái)從整體上更好地理解倫理學(xué)。在這個(gè)世界上,沒(méi)有任何機(jī)器人可以這樣做,因此,它們的任何行為都不會(huì)產(chǎn)生直接的道德結(jié)果。這些機(jī)器人不會(huì)被看作真正自主的人工道德主體,它們的存在并不必然要求實(shí)現(xiàn)它們的行動(dòng)與設(shè)計(jì)程序賦予它們的倫理框架相一致,從而在這個(gè)層次上不會(huì)發(fā)生任何的道德違規(guī)。然而,一旦人工道德主體應(yīng)用于世界,那么道德上的一致性就變得不可避免。
盡管本文大部分是批評(píng)性的,但是它對(duì)機(jī)器倫理的建構(gòu)還是有很好的積極影響的。通過(guò)證明康德式人工道德主體的創(chuàng)造是矛盾的,從而使得人們把某種可能的倫理框架成功地應(yīng)用于人工道德主體的范圍相應(yīng)縮小。通過(guò)這種方式,人類會(huì)比以前更加接近找到應(yīng)用于人工道德主體的恰當(dāng)?shù)膫惱硪?guī)范。這用于強(qiáng)調(diào)這樣一個(gè)觀點(diǎn):自我強(qiáng)加給機(jī)器倫理的終極目的——?jiǎng)?chuàng)造在世界中自主地行動(dòng)的人工道德主體——不一定在道德上完全不被允許。說(shuō)到此,筆者懷疑其他的倫理框架也可能會(huì)提出同樣類型的擔(dān)憂。比如,某些功利的方法可能與功利主義的人工道德主體的發(fā)展不相一致。功利主義通常把“最大多數(shù)人的最大利益”作為其善的基本原則。這里的“善”(即效用)通常被認(rèn)為是幸?;蛘呖鞓?lè),但可能會(huì)被擴(kuò)大到包括整體的仁慈之類的東西。[注]參見密爾的作為典型的功利者意義上的功利主義。這樣,人工道德主體的發(fā)展可能會(huì)否定“效用”。例如,出于對(duì)貨幣資源的尊重而創(chuàng)造人工道德主體,像投資數(shù)十億元去發(fā)展自主的、道德的機(jī)器人,或許會(huì)被恰當(dāng)?shù)赜糜诮K結(jié)全民的醫(yī)療保健、提高公共教育等。目前美國(guó)軍隊(duì)單獨(dú)預(yù)留給未來(lái)作戰(zhàn)系統(tǒng)項(xiàng)目的預(yù)算估計(jì)在690億—1650億美元之間(2006—2025年間)。[注]The U.S. Army Future Combat Systems Program. www.cbo.gov/ftpdoc.cfm?index=7122,2017年7月31日檢索??梢哉f(shuō),實(shí)現(xiàn)這些目標(biāo)將總體上有利于人類的善,因此,這將是“功利意義上要去做的事”。此外,大量的資源被用于軍事領(lǐng)域,其目的是為了發(fā)展日益復(fù)雜的戰(zhàn)斗性武器,進(jìn)一步強(qiáng)化了非仁慈的要求。殺人無(wú)數(shù)并非意味著功利論的終結(jié),盡管并非所有終結(jié)道德的機(jī)器人的發(fā)展都是軍事的,而且創(chuàng)造它們所帶來(lái)的一些后果無(wú)疑對(duì)社會(huì)公益是有利的。但是,人們需要發(fā)展功利論意義上的機(jī)器人,以及評(píng)估這種特殊類型的人工道德主體是否應(yīng)該在被創(chuàng)造之前應(yīng)用“功利的算計(jì)”。這些主張?zhí)峁┝艘环N令人信服的、反對(duì)功利論意義上的人工道德主體發(fā)展的論點(diǎn),但關(guān)鍵是要考慮到所有把道德運(yùn)用到人工道德主體上的倫理框架,需要在實(shí)施階段之前就去評(píng)估這些倫理框架是否允許人工道德主體的發(fā)展。即使康德倫理學(xué)、功利主義倫理學(xué)等能夠成功應(yīng)用到人工道德主體上,這種倫理框架可能也不會(huì)把創(chuàng)造道德的人工道德主體放在首位。
如果事實(shí)證明創(chuàng)造康德式人工道德主體符合康德倫理學(xué),那么作為一種規(guī)則對(duì)機(jī)器倫理來(lái)說(shuō)就更好了。但令人擔(dān)憂的是它們可能不是這樣的。在這里,機(jī)器倫理面臨的挑戰(zhàn)是在我們“想實(shí)施什么”和“應(yīng)該實(shí)施什么”之間保持一致性。而要找到滿足這些要求的倫理框架原則上是不可能的。未來(lái)這一領(lǐng)域的研究不應(yīng)該局限于實(shí)施的問(wèn)題,研究人員也應(yīng)該考慮選擇用于最終實(shí)施的、倫理框架的倫理維度。否則,創(chuàng)建真正的人工道德主體的目標(biāo)就會(huì)受到極大的威脅。
正像布魯克斯(Brooks)所指出的:“我期望創(chuàng)造能夠與當(dāng)今人類共存的、完全自主的人工道德主體,并被人類看作擁有自我權(quán)利的智能生命……我在應(yīng)用程序上毫無(wú)興趣。在我看來(lái),有一點(diǎn)是非常清楚的,那就是如果倫理框架僅僅通過(guò)我們(或他們)的想象力就決定了它在這些生命上的應(yīng)用范圍是有限的,那么我的目標(biāo)就可以實(shí)現(xiàn)。我對(duì)哲學(xué)意義上的生物沒(méi)有任何特別的興趣,盡管很明顯它有著重要的影響?!盵注]R. A. Brooks,“Intelligence without Representation”,Artificial Intelligence,Vol.47(1991), p.145.本文試圖探討康德式人工智能道德主體的哲學(xué)意蘊(yùn),但這卻是比較困難的。至少出于對(duì)康德倫理學(xué)的尊重來(lái)說(shuō),人工道德主體是不應(yīng)該被創(chuàng)造的。康德式人工道德主體不是真正的道德主體,因此,它們不應(yīng)受康德道德律的約束,也不應(yīng)是道德褒貶的對(duì)象。但是,這種觀點(diǎn)恰恰引起了爭(zhēng)議。因此,即使康德式人工道德主體是真正的道德主體(人們一直是不愿意賦予人工道德主體的),它們的存在也違背了康德倫理學(xué)絕對(duì)命令的兩個(gè)原則,同時(shí)也出現(xiàn)了自由意志上的矛盾。
人們要求道德規(guī)范的一致性,這種一致性的要求超出了人工道德主體的行為、道德準(zhǔn)則和世界之間的關(guān)系。人們要構(gòu)建的機(jī)器倫理框架,要求把道德規(guī)范運(yùn)用到人工道德主體上,使得它把人工道德主體的創(chuàng)造和發(fā)展作為其首要目標(biāo)。一旦缺乏這種道德規(guī)范的一致性,人工道德主體將不會(huì)是真正的道德主體,它們的開發(fā)人員會(huì)偽善地要求在創(chuàng)造這些人工道德主體的過(guò)程中遵循它們自己違背的道德信條。令人擔(dān)憂的是,在缺乏把建立道德規(guī)范一致性放在首位的情況下而去創(chuàng)造人工道德主體,這在道德上是有問(wèn)題的。盡管成功地把康德倫理學(xué)運(yùn)用到人工道德主體的情況還是存在的,但是,所創(chuàng)造的康德式人工道德主體恰恰是反康德倫理的,要求建立這種道德規(guī)范一致性也是不可能的。這就要求人們需要找到兩個(gè)方面都可以實(shí)施的、更好的倫理框架選擇,并且這些原則必須把創(chuàng)造合乎倫理的人工道德主體放在第一位,這對(duì)機(jī)器倫理框架的建構(gòu)來(lái)說(shuō)是一個(gè)亟待解決的任務(wù)。