孟 歌(新疆師范大學(xué) 政法學(xué)院,新疆 烏魯木齊 830017)
科學(xué)技術(shù)的迅速發(fā)展, 人工智能技術(shù)尤其是具有一定自主性的人工智能體(無(wú)人駕駛汽車、智能機(jī)器人等)在社會(huì)生活中得到廣泛的應(yīng)用[1]。一方面,人工智能的智能化和自主性不斷提升, 人工智能在人類的生活情景中逐漸擔(dān)負(fù)著重要的作用。另一方面,人工智能的“道德過(guò)失”問(wèn)題也逐漸顯露,例如智能手術(shù)機(jī)器人造成醫(yī)療事故、 無(wú)人駕駛汽車追尾事故等,喚起了人們對(duì)人工智能道德失范的擔(dān)憂,也引發(fā)了學(xué)界對(duì)人工智能是否能承擔(dān)道德責(zé)任問(wèn)題的思考和研究。尼克·博斯特羅姆(Nick Bostrom)和埃利澤·尤德考斯基(Eliezer Yudkowsky)認(rèn)為:“人工智能機(jī)器人可能引發(fā)一系列的倫理問(wèn)題, 他既要涉及確保智能機(jī)器人不會(huì)損害人類以及相關(guān)聯(lián)的其他存在者,也與智能機(jī)器人本身的道德地位有關(guān)。 ”[2]那么,人工智能所造成的行為及其后果是否要求他們承擔(dān)道德責(zé)任呢?強(qiáng)決定論立場(chǎng)的反對(duì)者認(rèn)為,人工智能無(wú)非是執(zhí)行指令的程序, 他們采取的行為是由內(nèi)置的核心裝置所決定的,是設(shè)計(jì)者的先在的設(shè)計(jì),只能遵循既定程序行動(dòng), 因而不能作為道德責(zé)任歸責(zé)的對(duì)象。實(shí)用主義的贊成者認(rèn)為,道德責(zé)任概念從根本上是一種實(shí)用責(zé)任概念 (Practical Conception of Moral Responsibility)①。 依據(jù)實(shí)用責(zé)任概念的觀點(diǎn),人工智能可以承擔(dān)道德責(zé)任, 因?yàn)樗麄冊(cè)谝欢ǔ潭壬峡梢詭?lái)我們想要的改變[3]。 還有一種贊成的觀點(diǎn),筆者稱之為“他者期待責(zé)任能力”道德責(zé)任歸責(zé)觀點(diǎn)。該觀點(diǎn)認(rèn)為人工智能可以成為“新的他者期望型道德能動(dòng)者”,“這種新的道德能動(dòng)者有著和我們一樣的現(xiàn)代性境遇——低自主性、無(wú)明確自我目的、依賴社會(huì)系統(tǒng)分配責(zé)任, 但是也與我們的道德能動(dòng)性所要求的一樣,處于社會(huì)責(zé)任網(wǎng)絡(luò)之中,承擔(dān)道德責(zé)任,進(jìn)行道德實(shí)踐。 ”[4]
上述的觀點(diǎn)都頗有一番道理, 值得我們學(xué)習(xí)和研究,但仍然存在一些理論問(wèn)題。如強(qiáng)決定論者的觀點(diǎn), 他們認(rèn)為包括人工智能在內(nèi)的整個(gè)世界都處在控制之中,人類自出生始便會(huì)受到周圍環(huán)境的影響,人的性格、品德、情感無(wú)不例外由所處環(huán)境所決定。如果強(qiáng)決定論為真, 那么任何人都不能為自己的行為承擔(dān)道德責(zé)任,道德責(zé)任也會(huì)失去它的意義,這是因?yàn)槿说囊磺卸际潜粵Q定的, 任何人都不能擺脫被決定的命運(yùn),而一個(gè)被決定的人類世界,道德也會(huì)失去它存在的位置。實(shí)用主義的支持者,他們贊成人工智能承擔(dān)道德責(zé)任的可能性, 因?yàn)槿斯ぶ悄芸梢酝ㄟ^(guò)一些調(diào)整和設(shè)定帶來(lái)我們想要的結(jié)果。 但是如果實(shí)用主義為真, 那么任何一個(gè)物質(zhì)都可以進(jìn)行道德責(zé)任歸責(zé),因?yàn)榭梢岳米匀灰?guī)律改變他們的性質(zhì),或作為他物起到某種效用。 “他者期待責(zé)任能力”的觀點(diǎn)有一定說(shuō)服力, 強(qiáng)調(diào)要與人工智能建立一種他者期待的關(guān)系。 但筆者認(rèn)為他們的觀點(diǎn)存在兩方面的誤區(qū):(1)他們將人工智能的偏差概率的自主性和人類的自主性等量齊觀, 從根本上誤解了人作為行為主體“自主性”的本質(zhì)。 因?yàn)槿说摹白灾餍浴睆母旧隙圆⒎且环N概率的問(wèn)題,而概率是一種隨機(jī)性,這種隨機(jī)性不能作為道德責(zé)任歸因的依據(jù);(2)他們沒(méi)有解釋這種期待是否是一種依據(jù)道德規(guī)范的內(nèi)在規(guī)范,以及人工智能是否能理解這種規(guī)范性期待。因?yàn)槠诖陌l(fā)起者包括我們?nèi)祟悾?人類的期待是建立在某種內(nèi)在規(guī)范上[5],而內(nèi)在規(guī)范要以公正的道德規(guī)范為依據(jù)[6]245-249,要求被期待者能夠理解這種期待。
考慮上述理論面臨的困境, 文章將從道德責(zé)任歸責(zé)的行為主體的“自主性”來(lái)探究人工智能是否符合道德責(zé)任歸責(zé)的合適對(duì)象的要求。行為主體的“自主性” 是建立在肯定道德責(zé)任意義的基礎(chǔ)上討論人工智能的歸責(zé)問(wèn)題, 這在一定程度上可以避免強(qiáng)決定論對(duì)道德責(zé)任價(jià)值的否定。 行為主體的“自主性”包含三種要素:自主選擇、理解規(guī)范的理性思維能力和自我否決能力。這將在文章第二部分詳細(xì)討論。隨后,文章將在第三部分再次提及“他者型期待型”的觀點(diǎn)所面臨的挑戰(zhàn),以及證明文章的基本觀點(diǎn):雖然人工智能可以具有行為主體“自主性”的三種要素的部分構(gòu)成, 但這不能使我們肯定他們是道德責(zé)任歸責(zé)的合適對(duì)象。
道德責(zé)任是一個(gè)傳統(tǒng)的又有持續(xù)熱度的倫理學(xué)經(jīng)典問(wèn)題。 學(xué)界對(duì)道德責(zé)任(moral responsibility)普遍認(rèn)同是,一個(gè)能動(dòng)者為其所作所為(或不作為)及其相關(guān)后果負(fù)有道德責(zé)任, 指的是此能動(dòng)者應(yīng)當(dāng)由此得到相應(yīng)的贊賞或責(zé)備[7]。上述的能動(dòng)者筆者稱之為行為主體(agent)。 一個(gè)主體是否能夠成為道德責(zé)任歸責(zé)的對(duì)象(行為主體)必須要具備一種 “自主性”, 即要求主體具有:(1) 自主選擇自己行為的能力;(2)能夠認(rèn)識(shí)和理解行為及其后果,并且能夠理解道德規(guī)范以及與他者的內(nèi)在規(guī)范的理性思維能力;(3)自我否決能力[8]。
早在古希臘時(shí)期,亞里士多德在他的《尼各馬可倫理學(xué)》[9](第三卷前五章)中詳細(xì)的闡述了只有當(dāng)主體能夠“自主選擇”(這里借以“自主選擇”來(lái)代表亞氏的觀點(diǎn)) 的時(shí)候才能成為道德責(zé)任歸責(zé)的合適對(duì)象。自主選擇也是哲學(xué)家們普遍認(rèn)同的歸責(zé)條件,他要求主體的行為是自己選擇的結(jié)果。 自主選擇在我們?nèi)粘I钪斜毁x予了十分重要的意義, 我們可以選擇自己上學(xué)的形式,選擇自己喜歡的衣服,選擇幫助這個(gè)人而不是另一個(gè)人, 選擇聽(tīng)搖滾音樂(lè)或民族音樂(lè), 這些選擇可以說(shuō)是行為主體最真實(shí)的直覺(jué)體驗(yàn)。 當(dāng)然,自主選擇也不是無(wú)條件的,他作為道德責(zé)任歸責(zé)的條件有兩個(gè)方面的要求: 控制力條件和認(rèn)知條件[6]28。 例如:
A1:沙沙喜歡古玩,夏日的某一天她來(lái)到了古玩店,因?yàn)橄矚g一個(gè)紫色的瓷器。 老板見(jiàn)她如此喜歡,便示意她可以拿起來(lái)觀摩, 正當(dāng)她小心翼翼地拿起瓷器時(shí),因?yàn)樘鞖庋谉嵘成车氖中挠泻梗饧有那榫o張,不小心把瓷器滑落掉摔在地上。
A2:沙沙喜歡古玩,夏日的某一天她來(lái)到了古玩店,因?yàn)橄矚g一個(gè)紫色的瓷器。 老板見(jiàn)她如此喜歡,便示意她可以拿起來(lái)觀摩, 正當(dāng)她小心翼翼拿起瓷器時(shí),突然發(fā)生了地震,不可抗拒的力量把沙沙手中的瓷器掉落在了地上。
從A1 來(lái)看,我們能直觀地判決沙沙應(yīng)當(dāng)為自己的行為承擔(dān)責(zé)任, 因?yàn)樗系赖仑?zé)任歸責(zé)主體的自主選擇的兩個(gè)方面的要求。首先,沙沙符合控制力條件。 她可以選擇拿起瓷器, 也可以選擇不拿起瓷器,她還能夠選擇其他類型的行為,因?yàn)檫@些行為在她的控制之下,并沒(méi)有外在力量的強(qiáng)制。 其次,沙沙符合認(rèn)知條件。 因?yàn)樗軌蛘J(rèn)識(shí)到瓷器的重要性以及可能出現(xiàn)的后果。 即使夏天的炎熱引起的手心出汗,導(dǎo)致她不小心把手中瓷器摔落在地,但是她本可以認(rèn)識(shí)到或提前預(yù)知這樣行為及其后果出現(xiàn), 因此她要為自己的選擇和不細(xì)心承擔(dān)道德責(zé)任。 相較于A1,A2 的情景中沙沙不能承擔(dān)道德責(zé)任, 因?yàn)樗に榇善鞯脑蛟谟诓豢煽咕艿牧α浚?并非她能控制的范圍之內(nèi)。 她可以預(yù)防夏天流汗會(huì)摔碎瓷器的后果,卻不能預(yù)防地震引起的擺動(dòng)所造成的后果。這正如相容論者華萊士(R.Jay Wallace)所承認(rèn)的:“只有當(dāng)一個(gè)行為主體的行為違背道德義務(wù)時(shí), 他才能被責(zé)備; 而當(dāng)一個(gè)行為主體的行為是他自己選擇的結(jié)果時(shí),他的行為才違背了道德義務(wù)”[10]。 如果沙沙沒(méi)有對(duì)自己的行為有任何自主選擇, 她行為的一切都是由一種強(qiáng)大的外在力量所決定的, 在這樣的決定下,她所有的行為都是一種必然的結(jié)果,我們更沒(méi)有理由認(rèn)為她的行為適用于道德責(zé)任歸責(zé)。
上一部分已經(jīng)談到行為主體作為道德責(zé)任歸責(zé)的對(duì)象需要滿足認(rèn)知條件, 即對(duì)自己的行為及其后果有一定認(rèn)知能力。 而這個(gè)認(rèn)知能力是人的理性思維能力一種表現(xiàn)。 行為主體生來(lái)就具有一種對(duì)外部世界產(chǎn)生認(rèn)知和思考的理性思維能力, 這也是人類所獨(dú)有的能力, 因?yàn)槿瞬⒉幌衿渌麆?dòng)物一樣被動(dòng)的接受外部環(huán)境的一切, 人類可以自覺(jué)地對(duì)自然規(guī)律產(chǎn)生某種理性的認(rèn)識(shí), 并將這種認(rèn)識(shí)作為一種思維材料,通過(guò)實(shí)踐活動(dòng)轉(zhuǎn)化,形成對(duì)外在規(guī)律的正確認(rèn)識(shí)。 這種理性思維能力要求行為主體能夠理解道德規(guī)范對(duì)他提出的合理性要求, 通過(guò)這種理解可以形成自覺(jué)的道德意識(shí), 自律自愿的遵守道德規(guī)范和道德準(zhǔn)則。 現(xiàn)在讓我們假設(shè)一種情景用于討論缺乏理性思維能力是否能夠歸責(zé)的問(wèn)題。
沙沙因?yàn)橄忍斓纳眢w問(wèn)題對(duì)道德規(guī)范缺乏一定的認(rèn)知能力,她不能認(rèn)識(shí)到道德規(guī)范的合理性要求。她不能理解什么是善的行為、 什么是惡的行為。 一天,有個(gè)壞人讓她做一件壞事。她并不能理解這個(gè)事情本身是善還是惡,由于她的樂(lè)于助人的性格,她應(yīng)邀去做了這件事。
在這種情況, 我們通常認(rèn)為沙沙因?yàn)槿狈σ环N先天的理性思維能力, 不能理解道德規(guī)范的合理性要求, 對(duì)于什么是善的行為或什么是惡的行為全然無(wú)知。即使沙沙如實(shí)地做了壞人要求的事情,她也因缺乏理解道德規(guī)范的理性思維能力, 不能認(rèn)為她是道德責(zé)任歸責(zé)的合適對(duì)象。此外,理性思維能力還要求能夠理解他者與他者之間的內(nèi)在規(guī)范, 能夠理解他者對(duì)自我行為的意圖、態(tài)度的合理性期待。 例如:沙沙和小歌處在一種相互的交互式關(guān)系之中, 這種交互式關(guān)系是會(huì)使得一方對(duì)另一方產(chǎn)生一種內(nèi)在要求,是對(duì)另一方行為的意圖、態(tài)度或是目的的一種期待性要求[5]。 當(dāng)沙沙遇到困難的時(shí)候,她會(huì)期待小歌能夠伸出援手去幫助她, 這種期待就是對(duì)小歌同她所處的一種交互式關(guān)系的內(nèi)在規(guī)范。 理性思維能力同樣被要求能夠理解這種內(nèi)在規(guī)范, 理解在交互式關(guān)系中他者對(duì)另一個(gè)他者的合理性要求, 而一個(gè)無(wú)法理解內(nèi)在規(guī)范的行為主體, 同樣不能認(rèn)同他是承擔(dān)道德責(zé)任的合適對(duì)象。總而言之,不管是道德規(guī)范還是內(nèi)在規(guī)范都是對(duì)道德行為與道德之間的關(guān)系規(guī)范,也同樣要求我們理解這種規(guī)范關(guān)系的涵義。 “只有具備能夠理解道德行為與道德之間關(guān)系的正常行為主體才能承擔(dān)道德責(zé)任。 ”[11]值得指出的是,內(nèi)在規(guī)范也要符合道德規(guī)范的合理性要求。 一名學(xué)生期待老師對(duì)他考試開(kāi)小灶的內(nèi)在規(guī)范并不符合道德規(guī)范的合理性要求; 而一名學(xué)生期待老師認(rèn)真?zhèn)湔n的內(nèi)在規(guī)范是符合道德規(guī)范的合理性要求。 這是因?yàn)閷W(xué)生對(duì)考試開(kāi)小灶的期待不符合道德規(guī)范對(duì)學(xué)生公正考試的要求, 而老師備好課的期待符合道德規(guī)范對(duì)老師認(rèn)真負(fù)責(zé)的要求。
上世紀(jì)八十年代, 精神學(xué)家李百特(Benjamin Libet)做了一系列的精神時(shí)間的實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果顯示任何一個(gè)行為主體的簡(jiǎn)單的意愿性活動(dòng), 總有一個(gè)神經(jīng)元活動(dòng)在受試者的意愿知覺(jué)時(shí)間前的350~800毫秒發(fā)生[12]。 這說(shuō)明那些看似自發(fā)性的意愿活動(dòng),其實(shí)在大腦之前已經(jīng)有了預(yù)兆[6]106。 李百特認(rèn)為我們的意愿或意圖雖被大腦的神經(jīng)元所控制了, 但仍然有一定的空窗期可以否決這個(gè)意愿或意圖。 他推測(cè)這種能夠否決意愿和意圖的能力就是我們的自由意志。但是,李百特又認(rèn)為這樣的自由意志有時(shí)候可以超出我們物理規(guī)律的范圍之外,如果決定論為真,那么我們就不會(huì)有任何自由的體驗(yàn)。
文章認(rèn)為李百特的觀點(diǎn)為我們帶來(lái)一種對(duì)“自由” 的理解, 但他的觀點(diǎn)的部分內(nèi)容也是值得懷疑的。 我們?cè)诂F(xiàn)實(shí)生活中總能感受到一種自我否決的直覺(jué)體驗(yàn),這種感受是直觀的,似乎是我們對(duì)自由的最純粹的感受。例如,你在圖書(shū)館哲學(xué)書(shū)架挑選所看的書(shū)籍,當(dāng)你選擇拿起一本哲學(xué)書(shū)時(shí),你突然驚訝,我選擇這本書(shū)是不是被外在的東西決定了? 當(dāng)你否定這個(gè)想法時(shí),你也可以否定你是被決定的想法,以此類推。我們總可以否定掉我們的選擇,也能否定我們的否定。這種否定感受是真實(shí)的,是我們本身?yè)碛械淖罨镜哪芰ΑD敲?,在某種決定的世界中能否有某種否定的體驗(yàn)?zāi)??我想是肯定的,正如某種被設(shè)定好的電腦(無(wú)差錯(cuò)),它能夠否定掉我們的任何指令,包括否定我們不讓它否定的指令的指令。 當(dāng)我們向這臺(tái)電腦發(fā)送打開(kāi)網(wǎng)頁(yè)的信息,它能夠否定我們的指令;當(dāng)我們?cè)噲D讓它不要否定我們的指令時(shí),它仍然可以否定我們這一指令。 我們從被決定的電腦的這個(gè)例子能夠看到,即使是被決定好的電腦,依舊能夠讓我們感受到一種否定的體驗(yàn)。那么,決定論的否決的體驗(yàn)是不是對(duì)我們自由或道德責(zé)任的否定? 可能并不是, 行為主動(dòng)的否決能力的最大特點(diǎn)是“自由”。 因?yàn)樾袨橹黧w的否決能力是自覺(jué)的否決,而不是機(jī)械的“輸入-輸出”的否決;是能夠感受意義和價(jià)值的否決,而不是機(jī)械的無(wú)意義被動(dòng)的否決。 因此,否決能力是行為主體自覺(jué)意識(shí)的體驗(yàn), 是我們考慮行為主體是否作為道德責(zé)任歸責(zé)合適對(duì)象的一個(gè)必要的因素。
雖然人工智能的自主性隨著科學(xué)技術(shù)的發(fā)展不斷提升,但人工智能的自主性不同于行為主體的“自主性”,他們不能滿足道德歸責(zé)的全部要素,也不能成為道德責(zé)任歸責(zé)的合適對(duì)象。 那么人工智能的自主性滿足哪些要素的構(gòu)成?為什么不滿足全部要素?文章將從三個(gè)部分展開(kāi)論述。
人工智能是否有自主選擇呢? 那就要看人工智能能否滿足自主選擇的兩個(gè)條件, 即認(rèn)知條件和控制力條件。 可以說(shuō)人工智能在某種程度上,可以滿足自主選擇的認(rèn)知條件。 如美國(guó)學(xué)者大衛(wèi)·弗拉德克(David Vladeck)認(rèn)為人工智能可以自主獲取數(shù)據(jù)、處理和分析數(shù)據(jù),并通過(guò)數(shù)據(jù)的分析自主的行動(dòng)[13]。駱正言認(rèn)為人工智能Nico 可以通過(guò)了“智者難題”(Wise-men Puzzle)的測(cè)試,具有自我意識(shí),具備理解自己行為的自我性能力[14]。
但是人工智能并不能滿足控制力條件, 因?yàn)槿斯ぶ悄艿淖灾餍员憩F(xiàn)為在不同形勢(shì)下做出不同的行動(dòng),不能表現(xiàn)為在相同情況下做不同的行動(dòng)[11]。 現(xiàn)在讓我們回到“他者期待責(zé)任能力”的觀點(diǎn),他們對(duì)自主性的質(zhì)疑提出了“一種概率意義上的行為多樣性假設(shè), 即機(jī)器行為發(fā)生偏差的幾率與人類不按照他人期望行事的幾率大致相同”[4]28。認(rèn)為機(jī)器人的自主性等價(jià)于人的“自主性”。 人的“自主性”要求一種控制力,即自己的行為是自己的。從本質(zhì)上講人類即使不按照他人期望行事,也可以是一種“自主性”的表達(dá), 正如一個(gè)妒忌的人因?yàn)槎始晒室獠粷M足他者的期待。 而人工智能行為發(fā)生偏差的幾率是一種概率問(wèn)題, 從某種程度上來(lái)說(shuō)這既不被人工智能自身所控制,也不能為外在設(shè)計(jì)者所控制。 概率是偶然的,但概率一旦被確定,它本身又是一種必然的。不管是偶然還是必然都不能作為道德責(zé)任歸責(zé)的條件。 這是因?yàn)榕既坏氖澜缰校?任何一個(gè)行為主體的行為意圖、態(tài)度或是目的都是偶然的,他的所有的行為都處在一定的概率變化之中, 誰(shuí)也不能對(duì)他的行為充滿期待,因?yàn)槲覀兏静恢浪麜?huì)怎么行動(dòng);必然的世界中,任何一個(gè)行為主體的意圖、態(tài)度或是目的都是必然的, 他的所有的行為都處在一個(gè)必然決定的狀態(tài)之中, 對(duì)一個(gè)必然的行為主體任何期待都變的毫無(wú)意義,因?yàn)槿魏螌?duì)象都無(wú)法改變必然的行為結(jié)果。因此, 人工智能本身的這種自主性并不等同于人類本身的“自主性”,人工智能的自主性可以滿足自主選擇的認(rèn)知條件,但不能滿足控制力條件。
柯林·艾倫 (Colin Allen)、 加理·瓦爾納(Gary Varner)和杰森·辛瑟(Jason Zinser)構(gòu)造了“道德圖靈測(cè)試”用于測(cè)試人工智能是否具備道德能力[15]。 實(shí)踐表明,被設(shè)計(jì)好的人工智能可以通過(guò)“道德圖靈測(cè)試”,它能夠理解符號(hào)化和規(guī)范化的道德規(guī)范和道德準(zhǔn)則,并以此為依據(jù)調(diào)解道德沖突。 但是,人工智能是否真的能夠理解道德規(guī)范的實(shí)質(zhì)嗎? 文章認(rèn)為當(dāng)前的人工智能并不能理解。人工智能所理解的內(nèi)容,是由設(shè)計(jì)者設(shè)定的, 人工智能可以在道德規(guī)范和道德準(zhǔn)則的符號(hào)化和規(guī)范化的內(nèi)容中進(jìn)行分析處理,但他們不能理解道德規(guī)范對(duì)行為主體道德行為的要求的背后的意涵,簡(jiǎn)單來(lái)說(shuō),人工智能不能理解我們?yōu)槭裁匆袷氐赖乱?guī)范。讓我們?cè)俅位氐健八咂诖?zé)任能力” 觀點(diǎn), 該觀點(diǎn)認(rèn)為可以將人工智能視為“新的他者期望型道德能動(dòng)者”, 以此作為人工智能承擔(dān)道德責(zé)任依據(jù)。 但是要從“他者期待責(zé)任能力”觀點(diǎn)回答人工智能的道德責(zé)任問(wèn)題, 必然會(huì)面臨內(nèi)在規(guī)范的問(wèn)題, 而且這個(gè)內(nèi)在規(guī)范同時(shí)需要符合道德規(guī)范的合理性要求。 人工智能不具備理性思維能力,他從根本上不能理解“他者的期待”。因?yàn)檫@種期待是對(duì)他者的行為態(tài)度、 目的或意圖的一種期待性的情感價(jià)值, 要求被期待者能夠理解我為什么會(huì)對(duì)你有這種期待,而人工智能并不能理解這種“期待”的含義, 不能理解我們對(duì)他們期望的行為是為了什么, 因此不能將人工智能視為道德責(zé)任歸責(zé)的合適對(duì)象。
人工智能在一定意義上可以具備否決能力,設(shè)計(jì)者可以設(shè)定人工智能對(duì)外在刺激的反應(yīng)給予一種否定的回應(yīng)。 例如:我們可以設(shè)定一臺(tái)智能機(jī)器人,當(dāng)他面對(duì)一個(gè)拿書(shū)的指令時(shí),他可以否定這個(gè)指令,去做別的行為, 甚至可以設(shè)計(jì)讓他面對(duì)多次同樣要求的指令時(shí),發(fā)出一種抗拒的語(yǔ)音。 同時(shí),我們也可以設(shè)定人工智能面對(duì)某一指令時(shí), 有一定概率否定執(zhí)行的指令,增加人工智能行為的不可預(yù)測(cè)性。但問(wèn)題是, 即使這種設(shè)定人工智能從表面上看是充滿自由的,但人工智能的否決能力是被動(dòng)的,他不同于行為主體的“自主性”的否決功能;前者的否決只是“輸入-輸出”式的否決能力,后者“自主性”的否決功能是一種自覺(jué)的否決能力, 可以在不受任何外部刺激作用下自主否決。因此,人工智能只能具備被動(dòng)的否決能力,而不能具有自主自覺(jué)的否定能力。而只能具備被動(dòng)的否決能力的人工智能, 我們不能認(rèn)定他們是道德責(zé)任歸責(zé)的合適對(duì)象。
文章通過(guò)考察道德責(zé)任歸責(zé)的對(duì)象——行為主體所需具備的“自主性”的三種要素,即自主選擇、理解規(guī)范的理性思維能力和自我否決能力, 來(lái)闡述人工智能并非道德責(zé)任歸責(zé)的合適對(duì)象。通過(guò)考察,文章得出的結(jié)論是: 人工智能的可以具備自主選擇的認(rèn)知條件,但不具備自主選擇控制力條件;人工智能可以具備理解道德規(guī)范和道德準(zhǔn)則的符號(hào)化和規(guī)范化內(nèi)容,不能理解道德規(guī)范的實(shí)質(zhì),不能理解道德規(guī)范對(duì)行為主體的道德行為要求的背后的意義, 也不能理解與他者關(guān)系的內(nèi)在規(guī)范; 人工智能可以具備否決能力,但人工智能僅具備被動(dòng)的否決能力,不具備自主自覺(jué)的否決能力。因此,人工智能雖然具備行為主體“自主性”的部分要素的構(gòu)件,但這些要素構(gòu)件不具備一種強(qiáng)健性, 不足以使我們承認(rèn)人工智能是適合的道德責(zé)任歸責(zé)的對(duì)象。
雖然當(dāng)前的人工智能并不能作為道德責(zé)任歸責(zé)的合適對(duì)象, 但并不妨礙人工智能作為一個(gè)可期待的對(duì)象, 我們可以視人工智能同貓狗等一樣具有一定認(rèn)知能力,可以賦予一種精神上和情感上寄托。同時(shí),人工智能技術(shù)還在不斷發(fā)展和進(jìn)步,人工智能會(huì)逐漸在人類社會(huì)中占據(jù)重要的地位。 我們要合理看待技術(shù)進(jìn)步帶來(lái)的對(duì)人“自主性”的挑戰(zhàn),一方面,我們要逐漸弱化人類中心主義的思想, 實(shí)現(xiàn)同其他共同體的和諧共生;另一方面,要積極的通過(guò)實(shí)踐的努力認(rèn)識(shí)和掌握規(guī)律,不斷的深化人的“自主性”,擴(kuò)大人的自由。
注 釋:
①實(shí)用主義的決定論立場(chǎng)與強(qiáng)決定論立場(chǎng)不同,前者承認(rèn)道德責(zé)任的存在意義。 實(shí)用責(zé)任概念是在決定論的立場(chǎng)下,認(rèn)為一個(gè)人要對(duì)某一行為負(fù)責(zé), 由于這個(gè)行為可以用一個(gè)實(shí)用理由(practical reason)的方式來(lái)對(duì)待他。例如,沙沙今天幫助了一名同學(xué)帶飯,同學(xué)十分的感謝她并贈(zèng)送了糖果。 “感謝和贈(zèng)送糖果”,可以看作沙沙幫助同學(xué)帶飯的一個(gè)實(shí)用理由。