• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能倫理規(guī)范是什么類型的規(guī)范?

      2020-03-20 03:46吳童立
      文史哲 2020年2期

      吳童立

      摘 ?要:人工智能倫理規(guī)范的制定是人工智能研究領(lǐng)域的重大議題,大多數(shù)人都遵循一種“理想規(guī)則主義”的設(shè)計(jì)思路。然而,這種思路在理論上無法成立,在實(shí)踐中會(huì)帶來更大風(fēng)險(xiǎn),其深層預(yù)設(shè)是看待人工智能的工具主義態(tài)度。實(shí)際上,基于因果推理模型的人工智能具有真正意義上的自主性,有充分理由被賦予道德主體的資格。因此,一種關(guān)系性規(guī)則的設(shè)置才能更好地處理人工智能的倫理問題,這要求它們能夠?yàn)樽约旱男袨樨?fù)責(zé),其重要條件就是具有一定程度的產(chǎn)權(quán)。

      關(guān)鍵詞:人工智能道德主體;儒家倫理規(guī)范;理想規(guī)則主義;關(guān)系性規(guī)則

      一、引言

      長(zhǎng)久以來,機(jī)器作為工具的一種被視為人類能力和心智的延伸。自新千年開始,隨著大數(shù)據(jù)、深度學(xué)習(xí)、仿生技術(shù)、人工知覺等領(lǐng)域的快速發(fā)展和不斷交叉融合,具有更強(qiáng)自主能力的人工智能產(chǎn)品被不斷研發(fā)出來并獲得廣泛應(yīng)用。無論是具有一定“判斷能力”的無人機(jī),還是能夠機(jī)智地回答問題的Siri,已經(jīng)真正進(jìn)入到人們的視野和生活中。一個(gè)共識(shí)正在形成:人類終將制造出外形與行為與我們相似人工智能,并與它們?cè)谕粋€(gè)世界中共處。這個(gè)共識(shí)自然地引發(fā)了一種擔(dān)憂:人工智能會(huì)給人類社會(huì)帶來何種風(fēng)險(xiǎn)?這種風(fēng)險(xiǎn)是否可以被人類預(yù)測(cè)并控制?為了控制這種風(fēng)險(xiǎn)應(yīng)該對(duì)人工智能的研發(fā)和使用制定什么樣的規(guī)范?政府和學(xué)術(shù)團(tuán)體已經(jīng)行動(dòng)起來,2016年歐洲議會(huì)發(fā)布的關(guān)于人工智能和機(jī)器人的報(bào)告,表達(dá)了其對(duì)于機(jī)器人將給人類帶來的風(fēng)險(xiǎn)的關(guān)注;聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)于2016年的報(bào)告,討論了人工智能技術(shù)進(jìn)步帶來的社會(huì)與倫理問題;我國(guó)在2017年7月發(fā)布了《新一代人工智能發(fā)展規(guī)劃》;耶魯大學(xué)于2017年組織了“We Robot”跨學(xué)科會(huì)議。

      但分歧依然廣泛存在。一種的聲音把人工智能視為人類的潛在挑戰(zhàn)者,認(rèn)為一旦人工智能具有了與人類相當(dāng)甚至超過人類的智能水平,那么它們將成為代替人類的新物種和人類歷史的終結(jié)者,人類應(yīng)該首要地考慮這種存在論意義上的風(fēng)險(xiǎn)。另一種聲音則把人工智能當(dāng)作一種具有更高自動(dòng)化程度的機(jī)器,認(rèn)為從弱人工智能到強(qiáng)人工智能的跨越還很遙遠(yuǎn)甚至永遠(yuǎn)無法實(shí)現(xiàn),我們更應(yīng)該關(guān)注的是對(duì)人工智能算法、標(biāo)準(zhǔn)和使用進(jìn)行規(guī)范,以避免產(chǎn)生一系列具體的技術(shù)、倫理、法律風(fēng)險(xiǎn)。這種分歧形成了一種潛在的非此即彼的預(yù)設(shè):人工智能要么類似于超人,要么類似于機(jī)器。這個(gè)預(yù)設(shè)又牽涉到一些更為古老和根深蒂固的觀念:人類的主體性似乎與一個(gè)包含著諸如意識(shí)、自由意志、情感、善惡識(shí)別能力等組成的概念集合聯(lián)系在一起。我們將指出,尤其是在討論有關(guān)人工智能的倫理議題時(shí),這些預(yù)設(shè)是有害的。不假思索地接受它們,會(huì)讓我們錯(cuò)失一些重要的思考維度。本文試圖表明,并沒有充分理由把主體性視為是先天地屬人的,即使是弱人工智能也應(yīng)當(dāng)被賦予至少一定程度的道德主體資格,以某種較為對(duì)等的方式與人類在同一個(gè)社會(huì)中共處;從一種關(guān)系論角度考慮人工智能的倫理規(guī)范,在理論上可以得到有效的辯護(hù),在實(shí)踐上亦有助于更好地處理人工智能引發(fā)的倫理、法律和社會(huì)問題。劉紀(jì)璐教授的文章《儒家機(jī)器人倫理》(以下簡(jiǎn)稱“劉文”)代表了一種與筆者大相徑庭的主流思路,其論述邏輯嚴(yán)謹(jǐn)而富于洞見,通過與它的對(duì)話可以更清晰地呈現(xiàn)出我們的問題意識(shí)。因此,本文的討論將從對(duì)劉文的分析開始。

      二、“儒家機(jī)器人”不能做什么

      劉文試圖回答兩個(gè)彼此相關(guān)的問題。第一,與人工智能倫理的主流理論,即阿西莫夫三定律、康德式道義論、功利主義相比,為何儒家倫理原則更好且更適合作為機(jī)器人的倫理規(guī)范?第二,如何對(duì)儒家倫理法則進(jìn)行詮釋并使之成為一種可以被算法化的規(guī)則?

      作者首先指出了三種主流理論的困難。阿西莫夫機(jī)器人定律由于只是寬泛地給出了不傷害、服從命令、自我保護(hù)等原則,而沒有給出更豐富的要素以對(duì)不同的道德情境進(jìn)行辨識(shí)、區(qū)分和比較,故無法適用于很多道德選擇的情況。尤其是在傷害無法避免的情形如電車難題中,機(jī)器人將陷于進(jìn)退兩難無法行動(dòng)的困境??档碌懒x論應(yīng)用于機(jī)器人,會(huì)遭遇一個(gè)元問題層面的悖論:康德理論要求行動(dòng)者具有自發(fā)的能動(dòng)性以成為“目的王國(guó)”的公民,但機(jī)器人本質(zhì)上是人造的工具,這本身就違背了康德原則。功利主義的首要問題是人們不愿意把讓機(jī)器人把這個(gè)原則應(yīng)用于自己,同時(shí),這個(gè)原則在有些情形中顯得過于激進(jìn)的以至于對(duì)個(gè)人的權(quán)利造成侵害。基于這些分析,作者進(jìn)一步提出了儒家機(jī)器人的原則:“忠”被詮釋為機(jī)器人對(duì)自身功能性角色的恪守,“恕”對(duì)應(yīng)著一種對(duì)負(fù)面價(jià)值和負(fù)面結(jié)果的禁止行動(dòng)的“消極黃金法則”,“仁”則體現(xiàn)為幫助人類行善并禁止幫助人類作惡的道德命令。這種儒家式機(jī)器人會(huì)積極地完成自己角色設(shè)定內(nèi)的功能,在此設(shè)定之外則通常選擇不進(jìn)行干涉,同時(shí)能夠保證不作惡和不協(xié)助作惡。作者指出,它在道德決策中的表現(xiàn)會(huì)優(yōu)于其他幾種主流模型,例如,在電車情形和天橋情形中能夠以絕大多數(shù)人認(rèn)同的方式行動(dòng),在自動(dòng)駕駛情形中則選擇優(yōu)先保護(hù)駕駛員。

      可以清楚地看到,劉紀(jì)璐教授的討論主要針對(duì)只有局部智能與人類相當(dāng)?shù)娜跞斯ぶ悄埽P(guān)注的是如何設(shè)計(jì)它們的行動(dòng)準(zhǔn)則以使其更好地服務(wù)人類且不造成意外的風(fēng)險(xiǎn)。這種關(guān)注隱含了一種我稱之為“理想規(guī)則主義”的預(yù)設(shè)。劉文中引用的一段話概括了這個(gè)預(yù)設(shè):“機(jī)器倫理的終極目標(biāo)……是要?jiǎng)?chuàng)造一種機(jī)器,它自己遵循一套理想的道德準(zhǔn)則;也就是說,機(jī)器是由這個(gè)原則或這些原則決定的,它決定了可能采取的行動(dòng)”。這種觀點(diǎn)可以分解為兩個(gè)底層主張:第一,可以設(shè)計(jì)出一種通用的、普適的理性規(guī)則體系來處理所有道德情境;第二,只要嚴(yán)格地使用這種規(guī)則體系,就可以使得機(jī)器人避免道德風(fēng)險(xiǎn)。與之相對(duì)應(yīng),我們可以提出兩個(gè)問題:第一,存在一種普適的人工智能道德規(guī)則體系嗎?第二,即使這種體系在某種意義上可以被創(chuàng)造出來,它是處理人工智能道德問題的最佳方式嗎?我們對(duì)兩個(gè)問題的回答都是否定的。

      劉文的立論主要基于兩個(gè)廣受關(guān)注的道德思想實(shí)驗(yàn),即電車難題和自動(dòng)駕駛選擇難題。已經(jīng)有不少研究指出了,這些思想實(shí)驗(yàn)由于過于抽象和簡(jiǎn)化地設(shè)置了道德情境,可能導(dǎo)致忽略一些重要的因素。以人工駕駛為例,MIT媒體實(shí)驗(yàn)室制作的“道德機(jī)器”網(wǎng)站,就列出了13種可能場(chǎng)景供受訪者進(jìn)行考慮,其中涉及司機(jī)和路人的性別、年齡段、職業(yè)、社會(huì)身份或地位、是否特殊人群(如孕婦)、是否遵守交通規(guī)則、物種(人或動(dòng)物)等要素。孫保學(xué)指出,自動(dòng)駕駛難題中涉及的價(jià)值不僅是雙方的生命,而是包含著多元價(jià)值維度,因此除了一些普遍原則,還應(yīng)該依據(jù)情境引入特殊的價(jià)值要素(如違反交通規(guī)則者承擔(dān)更多責(zé)任,孕婦和兒童享有優(yōu)先權(quán)等)作為重要參量。如果把視角延伸到這種更豐富語(yǔ)境組成案例系列中,儒家機(jī)器人的“優(yōu)先保護(hù)司機(jī)”的功能主義法則就顯得過于單薄和缺乏說服力。

      電車難題的兩種情形常常被視為分別屬于功利主義和道義論的應(yīng)用場(chǎng)景,但細(xì)究起來,其中要考慮的要素也很多,尤其是,如何對(duì)這些要素進(jìn)行界定以判定它們適用于何種原則,也依然是充滿爭(zhēng)議的。例如,如果天橋上的胖子不算涉事者故不應(yīng)該被牽扯進(jìn)來,那么電車支線軌道上的那個(gè)人應(yīng)被算作涉事者嗎?如果推胖子被視為制造了一個(gè)新的威脅因而算作主動(dòng)傷害,電車轉(zhuǎn)向支線軌道算不算主動(dòng)傷害?根據(jù)什么原則來判定“把人當(dāng)作工具”,又根據(jù)什么原則來判定“副作用”?對(duì)這些要素的考察并不是無關(guān)緊要的。情境的輕微變化就會(huì)導(dǎo)致對(duì)要素的不同判定。在湯姆森設(shè)計(jì)的環(huán)軌情形中,電車的支線與主線在另一端匯合為一個(gè)環(huán)軌,根據(jù)他的解釋,殺死支線上的一個(gè)人就不再僅僅是避開5人產(chǎn)生的副作用,而成為救5人的必要手段——如果電車不是因?yàn)樽驳侥莻€(gè)人而停下來,它依然會(huì)通過環(huán)軌回頭撞死5人。不難看到,由于沒有考慮這些要素及其情境依賴的不同排序方式,儒家機(jī)器人不能有效區(qū)分電車情形和環(huán)軌情形。

      劉紀(jì)璐教授也許會(huì)申辯說,之所以不考慮某些要素,是因?yàn)檫@些要素是對(duì)人類不可見的或無暇顧及的,例如,司機(jī)既無法知道路人的身份也來不及反應(yīng)和判斷。但是,這種能力缺乏對(duì)人工智能而言很可能不成立。未來社會(huì)完全有可能對(duì)每個(gè)個(gè)體的數(shù)據(jù)進(jìn)行電子標(biāo)記,人工智能可以在極短時(shí)間內(nèi)進(jìn)行預(yù)先識(shí)別并據(jù)此做出判斷。劉紀(jì)璐教授可以進(jìn)一步聲稱,對(duì)于一個(gè)具有特定功能的機(jī)器人,其功能范圍之外的要素對(duì)于道德判斷而言是無關(guān)的。但是,一個(gè)基于功能的行動(dòng)所涉及的范圍并不總是能夠被涇渭分明地界定出來。如果說自動(dòng)駕駛機(jī)器人的功能包含著最小傷害,那么這個(gè)最小傷害優(yōu)先適用于司機(jī)還是路人,則很難說先天地包含在功能的定義中。另一方面,如果即將撞到的路人是一位軍政要人,其突然死亡可能導(dǎo)致更大的混亂和傷亡,就需要更加謹(jǐn)慎地考慮“一視同仁”的原則是否適用。

      這些理由都不是決定性的。劉紀(jì)璐教授可以綜合考量多種因素在不同情境中的取舍和配比,通過添加次級(jí)法則對(duì)他的儒家機(jī)器人進(jìn)行調(diào)整,其規(guī)則體系在原則上仍然可以得到辯護(hù)。我們必須對(duì)理想規(guī)則主義給予致命一擊。這個(gè)論證的最嚴(yán)格的版本是哥德爾給出的。上世紀(jì)初,他曾判決性地證明了不完備性定理,即在任何一個(gè)豐富到足以包含算數(shù)的形式系統(tǒng)中,系統(tǒng)的一致性都不可能在這個(gè)系統(tǒng)自身之中得到證明。這種特性也可以延伸到語(yǔ)義系統(tǒng)中:“在語(yǔ)言A的內(nèi)部不可能給出一個(gè)對(duì)于它自身的完全的認(rèn)識(shí)論描述,因?yàn)锳的句子的真理概念不能在A的內(nèi)部得到定義。這個(gè)定理乃是包含算術(shù)的形式系統(tǒng)中不可判定命題的存在的真正根據(jù)?!睋Q言之,一個(gè)形式系統(tǒng)或語(yǔ)義系統(tǒng)為真的條件是,其中存在著某種不確定性。至于道德的理想規(guī)則系統(tǒng),盡管與這種形式系統(tǒng)不盡相同,但其真依然部分地依賴于系統(tǒng)的一致性,故無法避免地具有某種不可判定性。另一方面,道德規(guī)則系統(tǒng)的問題甚至更復(fù)雜,它還具有另一重真值來源,即人類的道德直覺和理性辯護(hù)。這些道德直覺豐富多元,而且時(shí)常彼此沖突或不一致。在電車難題中,這種沖突體現(xiàn)為,哲學(xué)家對(duì)選取哪種理由為主流的選擇進(jìn)行辯護(hù)產(chǎn)生了嚴(yán)重的分歧。在自動(dòng)駕駛難題中,直覺的不一致表現(xiàn)地更為明顯:人們普遍認(rèn)為配備功利主義算法的自動(dòng)駕駛汽車最符合道德,但并不想購(gòu)買這種汽車。不能把這種現(xiàn)象簡(jiǎn)單地視為私心與道德感的斗爭(zhēng),或是源于某種類似意志薄弱的不徹底性,更恰當(dāng)?shù)姆绞绞前阉斫鉃閮煞N關(guān)于正確性的不同標(biāo)準(zhǔn)的沖突。趙汀陽(yáng)因此評(píng)論道:“嚴(yán)格地說,這是人的悖論,不是機(jī)器的悖論。機(jī)器只是遵循規(guī)則而已,問題在于我們不知道應(yīng)該為自動(dòng)汽車選定什么樣的規(guī)則?!?/p>

      面對(duì)紛繁復(fù)雜的情境和彼此沖突的直覺,人類本能地想要找到一種簡(jiǎn)單的、標(biāo)準(zhǔn)的規(guī)則體系。但是只要觀察一下我們的日常生活,就會(huì)發(fā)現(xiàn)這種理想道德行為指南很少能夠?qū)崿F(xiàn),如果回顧一下人類歷史,還會(huì)發(fā)現(xiàn)這種想法有時(shí)甚至是危險(xiǎn)的。人們或許會(huì)把這歸結(jié)為人類情感和理性的不一致、每個(gè)人獨(dú)特的個(gè)體性或彼此差異的利益訴求,諸如此類。人工智能的出現(xiàn)又一次激發(fā)了人類對(duì)理想規(guī)則體系的本能訴求。與人類不同,人工智能沒有情感干擾、沒有自我邊界、沒有利益訴求,能夠絕對(duì)理性地遵從指令,用一個(gè)教科書式的規(guī)則體系對(duì)它進(jìn)行規(guī)范似乎是理所當(dāng)然的。但是,這個(gè)貌似無懈可擊的推論中存在著一個(gè)未言明的預(yù)設(shè),我們認(rèn)為這個(gè)預(yù)設(shè)是錯(cuò)誤的。

      根據(jù)前文的分析,“理想道德規(guī)則體系不存在”的依據(jù)在于道德體系自身的不完備性和道德直覺的多元性。進(jìn)一步認(rèn)可“人類可以不按照理想規(guī)則行動(dòng)”的依據(jù),除了對(duì)上述事實(shí)的承認(rèn),還在于對(duì)人類道德主體資格的認(rèn)可——人們有權(quán)且道德上允許按照某一個(gè)可以得到辯護(hù)的道德直覺來行動(dòng),如果這一行動(dòng)的理由和結(jié)果與共同體認(rèn)可且得到充分辯護(hù)的某種準(zhǔn)則不一致,行動(dòng)主體應(yīng)該承擔(dān)道德責(zé)任。由此反觀,認(rèn)為“人工智能只能按照理想規(guī)則行動(dòng)”的依據(jù),就在于人工智能沒有這種道德主體資格。但是,缺乏情感、自我邊界和利益訴求的特點(diǎn),并不是沒有主體資格的理由。這種觀點(diǎn)背后的真正預(yù)設(shè),正如瓊森所言:人工智能只是純粹的機(jī)器和工具。劉文雖然在引論部分談到了“人工道德主體”,但是在論證過程中并沒有涉及這種主體性。我們?cè)诤笪膶⒅赋?,這一立場(chǎng)在理論上是無法得到有效辯護(hù)的,在實(shí)踐上則難以處理人工智能社會(huì)引發(fā)的一系列問題。拋棄這一立場(chǎng),則會(huì)根本上改變我們對(duì)人工智能倫理規(guī)則的構(gòu)想方式,以及人類與人工智能關(guān)系的看法。

      三、人工智能主體意味著什么

      面對(duì)人工智能這一“新物種”,大多數(shù)人并沒有做好心理準(zhǔn)備。我們會(huì)把戰(zhàn)勝人類頂級(jí)棋手的AlphaGo稱做“阿爾法狗”,這種暗含貶低的稱呼折射了人們對(duì)待人工智能的心態(tài):一方面承認(rèn)它在某方面智能上的強(qiáng)大已經(jīng)遠(yuǎn)超人類極限,另一方面則認(rèn)為它不過是一個(gè)沒有智慧和心靈的低等造物,一個(gè)機(jī)械裝置,一個(gè)工具。在這里,人類的智能、自主意識(shí)、情感、道德等能力似乎被想象成一種難以探究的、甚至帶有神秘色彩的東西。這些東西為人類所獨(dú)有,人因此配享道德上的主體資格。但是,這種“獨(dú)有性斷言”真的完全成立嗎?進(jìn)一步來說,即使人工智能真的在這些方面與人類有重大差別,這能構(gòu)成它們不是道德主體的有效理由嗎?

      一個(gè)最常見的說法來自對(duì)圖靈測(cè)試的攻擊。塞爾在《思想、大腦和程序》一文中提出了著名的“中文屋”思想實(shí)驗(yàn),用來證明人工智能只是一堆程序,它根本沒有“理解”自己在做什么,故沒有真正的智能。假設(shè)密室里有一個(gè)人按照某個(gè)程序(此程序可以翻譯中文)操作一些字符串,來對(duì)外面的人遞進(jìn)來的中文問題字條以中文字條進(jìn)行回答,那么盡管此人完全不懂中文,但外面的人會(huì)以為他懂得中文。把中文屋里的人換做人工智能,就可表明:即使通過了圖靈測(cè)試,也并不代表具備了真正的理解和智能。我認(rèn)為,這種觀點(diǎn)既過高地估計(jì)了人類的“理解”,也過低地估計(jì)了人工智能的“計(jì)算”。

      讓我們對(duì)上述思想實(shí)驗(yàn)稍加改動(dòng):有一個(gè)英語(yǔ)國(guó)家的人被植入了一種大腦芯片,此芯片可以在極短的瞬間把英文翻譯為中文(也可以把中文翻譯成英文),這個(gè)人通過一段時(shí)間的練習(xí)可以熟練地與中國(guó)人交談,由于芯片信息傳遞速度非常快,他也完全適應(yīng)了這種交流方式,以至于常常意識(shí)不到自己是在通過芯片的“翻譯”在和中國(guó)人談話。這種技術(shù)在未來是完全有可能實(shí)現(xiàn)的,如果我們問那個(gè)人是否會(huì)說中文,他很有可能回答“是”,至少不像中文屋情形中那樣非常確定地給出否定回答。人們經(jīng)常認(rèn)為理解伴隨著的一種特殊的感覺和能力,這個(gè)思想實(shí)驗(yàn)告訴我們,“理解的感覺”完全可以通過偶然的方式被建構(gòu)出來,因此它不像人們想象的那么重要。反過來就證明了,“理解”的核心特質(zhì)是能夠在相關(guān)情形中“使用”某種規(guī)則。這一點(diǎn)在下棋的情況中體現(xiàn)得更加明顯:沒有任何證據(jù)表明柯潔比AlphaGo對(duì)圍棋的理解更加深刻。另一方面,塞爾的支持者低估了人工智能使用規(guī)則所需要的“能力”的復(fù)雜程度。中文屋思想實(shí)驗(yàn)的誤導(dǎo)在于把這種能力簡(jiǎn)化為一個(gè)程序和幾張紙條,但是這個(gè)程序至少包括了對(duì)詞性區(qū)分的規(guī)則、對(duì)句法組織的規(guī)則、對(duì)句子屬性區(qū)分的規(guī)則、同一個(gè)詞在不同語(yǔ)境中的應(yīng)用規(guī)則、中文日常知識(shí)的數(shù)據(jù)庫(kù),等等。要使用這個(gè)程序,也不僅僅是輸入一個(gè)字符串這么簡(jiǎn)單,而是涉及復(fù)雜的、多步驟的操作。丹尼爾·丹尼特因此總結(jié)道,我們總以為人類的理智能力來自于他們能理解,其實(shí)理解本身不是一種原因,而是一種效果,它從成堆的能力中涌現(xiàn)出來,是各種能力疊加生成的。對(duì)“理解”的這種分析和還原表明,我們沒有自認(rèn)為的那么“理解”,人工智能也不是想象中的那么“無理解”。看來,人類是時(shí)候放下對(duì)理解能力之獨(dú)有性的傲慢偏見了。

      另一種對(duì)人工智能主體資格的質(zhì)疑,其理由是人工智能缺乏一些必要的心理成分,如情感和感受。這種觀點(diǎn)認(rèn)為,苦樂、愛恨、羞恥、自尊等情感和感受是人格和德性的基礎(chǔ),如果缺乏這些特質(zhì)就不能夠成為道德上的主體。這是一種典型地來自人類經(jīng)驗(yàn)的立場(chǎng):我們的確是在各種情感和感受中建構(gòu)起自我的人格,辨識(shí)和塑造了自身的道德品質(zhì)。但是,這并不表明它是主體性和道德的先天條件??档乱呀?jīng)給出了一個(gè)著名的反駁路徑:主體性來自于為自身訂立并遵守一種可普遍化法則的能力,它屬于包括但不限于人類的任何理性存在者。情感主義的支持者也許會(huì)說,至少同情或移情應(yīng)該被視為道德能力的一個(gè)基石,如果缺少了它,道德所必須的交互主體性和敏感性將會(huì)坍塌。同時(shí),心理成分依賴于人類的生理結(jié)構(gòu),人工智能沒有這樣的結(jié)構(gòu)也就不具有相應(yīng)的情感和感受。我們對(duì)此的回應(yīng)是,應(yīng)該對(duì)“情感反應(yīng)”和“情感體驗(yàn)”做出區(qū)分。人工智能的確不具備人類的情感體驗(yàn),但這對(duì)主體性和道德資格都不是必須的。另一方面,完全可以用一些規(guī)則設(shè)置來讓人工智能做出與情感反應(yīng)等價(jià)的行為,例如,把同情心定義為“己欲立而立人”或“己所不欲勿施于人”,把羞恥感定義為“對(duì)于被規(guī)定為錯(cuò)誤的行為,每觀察到一次則為其負(fù)值增加一個(gè)分值的權(quán)重標(biāo)記”。

      對(duì)人工智能主體資格最主要的反駁是,它缺乏真正的自主性。這類反駁主要集中在三個(gè)方面。第一,自主性要求一種內(nèi)在狀態(tài),內(nèi)在狀態(tài)由欲望、信念和其他有意識(shí)的狀態(tài)組成,以保證行動(dòng)是出于主體的意圖而做出的。人們普遍認(rèn)為人工智能缺乏這種內(nèi)在意圖。有論者進(jìn)一步提出,意圖應(yīng)然是自然生成的,而人工智能的所謂“意圖”無非是設(shè)計(jì)者植入的東西。第二,自主性要求行動(dòng)者對(duì)于自己的行動(dòng)有所意識(shí),因?yàn)橹挥幸粋€(gè)有意識(shí)的行動(dòng)才具有道德屬性,才能夠被贊揚(yáng)或譴責(zé)。然而,人工智能被認(rèn)為是不具有意識(shí)的。第三,自主性要求行動(dòng)者具有自由意志,能夠做出真正的選擇被視為自主性的一個(gè)特征。定律可以限制但不能構(gòu)成人類的自主性,但是對(duì)于人工智能來說,代碼形式的定律構(gòu)成并定義了它的全部行為,它沒有超出定律的自由意志。

      在我看來,這些觀點(diǎn)貌似有理,實(shí)則獨(dú)斷。自主性的概念并未包含如此多的要求,它們主要來自于對(duì)人類經(jīng)驗(yàn)的耦合。本文無意在形而上學(xué)層面討論諸如“意識(shí)的本質(zhì)”、“自由意志是否存在”這類問題,我們的關(guān)注點(diǎn)在于闡明一種在直覺上有效、在經(jīng)驗(yàn)中可行的對(duì)自主性的理解,以澄清何種行動(dòng)者有資格被視為道德主體。首先,內(nèi)在意圖與內(nèi)在心理狀態(tài)的類比是模糊的甚至隱喻性的。有時(shí)候甚至連我們也說不清自己的欲望和信念來自哪里、如何形成,在康德主義者看來,它們不過是一種被給予之物。所謂內(nèi)在的、自然生成的特性,更多是基于一種未經(jīng)充分辨析的經(jīng)驗(yàn)性感受,其是否成立都很可疑,更談不上是本質(zhì)特征。自主性的實(shí)質(zhì)是一種自治,正如弗洛里迪·盧西亞諾和杰夫·桑德斯所指出的,是在沒有外部刺激的情況下可以自己調(diào)整內(nèi)部狀態(tài)或特征,從而不受他者(即人類)干預(yù)地控制自己的行為;進(jìn)一步的要求是,通過改變自己的特征或內(nèi)部狀態(tài)來改進(jìn)自身規(guī)則。面對(duì)一個(gè)這樣的人工智能,我們很難拒絕承認(rèn)它具有真正意義上的自主性。薩爾托指出,即使它的意圖不是“原初的”,只要人們對(duì)他進(jìn)行了“認(rèn)知授權(quán)”,那么機(jī)器人按照規(guī)則自主產(chǎn)生的決策都可以視為出于自身意圖的。其次,關(guān)于有意識(shí)地行動(dòng)之要求,暫且不說意識(shí)極有可能是一種涌現(xiàn)出來的效應(yīng)甚至幻覺,關(guān)于“有意識(shí)地行動(dòng)”之定義本身也存在爭(zhēng)議。以自動(dòng)駕駛為例,如果人工智能可以提前對(duì)情況做出預(yù)判并且根據(jù)某個(gè)規(guī)則行動(dòng),有什么理由說它不是有意識(shí)地這樣做呢?對(duì)于意識(shí)的經(jīng)驗(yàn)性感覺的執(zhí)念,再一次影響了人們對(duì)問題實(shí)質(zhì)的把握。況且,意識(shí)對(duì)于道德責(zé)任也不見得是必須的,實(shí)用主義觀點(diǎn)的支持者認(rèn)為,具有穩(wěn)固的、可觀察的行為就足以支持我們對(duì)道德主體的責(zé)任要求。最后,自由意志與自主性、道德主體資格的強(qiáng)相關(guān)性也是相當(dāng)可疑的。法蘭克福已經(jīng)出色地論證,道德責(zé)任并不依賴于一種基于可供取舍的可能性(alternative possibilities)的自由意志觀點(diǎn)??档抡J(rèn)為,自由意志不在于跳出規(guī)則,而恰恰在于遵從規(guī)則。在這個(gè)意義上,納多甚至聲稱只有機(jī)器人才有真正的自由。

      因此,一種能夠獨(dú)立地對(duì)情況進(jìn)行判斷,通過調(diào)整和使用規(guī)則做出決策的人工智能,具有一種真正意義上的自主性,應(yīng)當(dāng)被賦予道德主體的資格。人們或許仍然對(duì)此抱有疑慮。中文屋里的圖靈機(jī)器人的刻板印象揮之不去,目前主流的深度學(xué)習(xí)機(jī)器人,只是用概率計(jì)算的方式把海量大數(shù)據(jù)與多層神經(jīng)網(wǎng)絡(luò)進(jìn)行耦合,這看起來只是一個(gè)沒有能動(dòng)性的高級(jí)木偶。近年來人工智能算法領(lǐng)域興起的因果推理模式,為機(jī)器人具有真正的“智能”帶來了曙光。加州大學(xué)洛杉磯分校計(jì)算機(jī)系的玻爾(Judea Pearl)教授和朱松莼教授是此領(lǐng)域的代表人物,玻爾的《因果性》一書在2011年獲得了計(jì)算機(jī)圖靈獎(jiǎng)。根據(jù)朱松莼的介紹,不同于流行的“大數(shù)據(jù)、小任務(wù)”模式,這是一種“小數(shù)據(jù)、大任務(wù)”模式。前者的目標(biāo)是通過大數(shù)據(jù)匹配來實(shí)現(xiàn)鸚鵡學(xué)舌式的精確模仿(被動(dòng)學(xué)習(xí)),后者的目標(biāo)則是讓人工智能通過觀察學(xué)習(xí)和因果推理,在復(fù)雜情況中自主地找到合理解決方案。他舉了一個(gè)例子:日本研究人員發(fā)現(xiàn)一只烏鴉通過把堅(jiān)果放在路中間讓汽車壓碎的方式吃到了果仁。這不是一個(gè)簡(jiǎn)單的任務(wù)。砸碎堅(jiān)果超出了烏鴉的物理動(dòng)作能力,它首先嘗試高空拋物等方法未果,然后想到汽車可以壓碎堅(jiān)果,它要觀察車流的變化,以安全的方式把堅(jiān)果放在路上并取回果仁。任務(wù)的完成并不是像AlphaGo那樣通過無數(shù)次的大數(shù)據(jù)訓(xùn)練實(shí)現(xiàn)的,而是通過動(dòng)機(jī)—觀察—推理—假設(shè)—驗(yàn)證這樣的過程實(shí)現(xiàn)的。這種方法類似于人類解決問題的方法,是歸納學(xué)習(xí)(inductive learning)和演繹學(xué)習(xí)(deductive learning)的結(jié)合。沿著這個(gè)方向設(shè)計(jì)的人工智能,可以通過一個(gè)定義好的身體基本行動(dòng)功能和一個(gè)包含價(jià)值函數(shù)與決策函數(shù)的模型空間,做出具有真正自主性的行動(dòng)。

      不難發(fā)現(xiàn),這樣的人工智能不是按照一個(gè)標(biāo)準(zhǔn)手冊(cè)來行動(dòng),而是用常識(shí)和理性對(duì)特殊情形做出回應(yīng)。關(guān)鍵是,如同人類行動(dòng)一樣,這種回應(yīng)的方式不能被完全預(yù)測(cè)到——我們不能再把他們簡(jiǎn)單地視為機(jī)械工具了。對(duì)于這樣的人工智能,丹尼爾·丹尼特建議人們最好使用“意向立場(chǎng)”(the intentional stance)去理解和對(duì)待。意向立場(chǎng)通過諸如欲望和信念等認(rèn)知狀態(tài)去理解一個(gè)實(shí)體的行為,它代表了我們解釋和預(yù)測(cè)可以采取有目的行動(dòng)的復(fù)雜實(shí)體之行為的唯一可能視角。與物理立場(chǎng)和設(shè)計(jì)立場(chǎng)進(jìn)行對(duì)比,有助于我們更清楚地理解這種視角。物理立場(chǎng)是通過以自然法則為說明框架的物理性質(zhì)或條件來解釋實(shí)體的行為,如用氣壓、溫度、濕度等變量關(guān)系來解釋為何下雨;設(shè)計(jì)立場(chǎng)則是通過裝置的設(shè)計(jì)或功能來說明實(shí)體的行為,如用設(shè)計(jì)原理來說明手表為何能指示時(shí)間。這兩種立場(chǎng)顯然難以說明人工智能的自主行為,相反地,如果我們使用意向立場(chǎng),把人工智能當(dāng)作理性智能體來看待,就可以通過分析它所處的場(chǎng)域、身位和動(dòng)機(jī),來判斷它所具有的欲望和信念,并大致預(yù)測(cè)它將決定采取何種行動(dòng)來實(shí)現(xiàn)其目的。如果我們認(rèn)識(shí)到更完善的自主能力是人工智能的發(fā)展趨勢(shì),就不得不承認(rèn)唯有采取意向立場(chǎng),才能更加準(zhǔn)確地理解和預(yù)測(cè)它們的行為,才能最大程度地避免它們帶來的各種問題。由于這種立場(chǎng)也是人類理解自身和其他高等動(dòng)物的方式,它也就自然地賦予了人工智能一種“類人的”而非“擬人的”屬性以及真正的主體資格。我將進(jìn)一步闡明,這種視角會(huì)改變?nèi)祟悓?duì)自身與人工智能關(guān)系的理解方式,從而啟發(fā)人們用一種新的倫理和行動(dòng)規(guī)則來對(duì)人工智能進(jìn)行設(shè)計(jì)。

      四、從正確性規(guī)則到關(guān)系性規(guī)則

      與人類共處于同一個(gè)世界,作為行動(dòng)主體的人工智能會(huì)以何種方式、何種規(guī)則做出具有道德意義的判斷呢?如前文所述,具有自主性的人工智能,其行動(dòng)是由外來的數(shù)據(jù)、構(gòu)成性的任務(wù)和內(nèi)在的推理模型共同構(gòu)成的。觀察數(shù)據(jù)主要用于學(xué)習(xí)統(tǒng)計(jì)中要素的相關(guān)性,推理模型構(gòu)成了判斷和決策的能力,而任務(wù)則不只是作為被給定的功能角色那么簡(jiǎn)單。引發(fā)人類偏好的任務(wù),是生物進(jìn)化和文化傳承所塑造的一些值得追求的價(jià)值,以及它們與其他價(jià)值錯(cuò)綜復(fù)雜的相互關(guān)系。不同的任務(wù)要求從環(huán)境中提取特定變量而忽視其他變量。這些都需要學(xué)習(xí)和推理,而不是通過簡(jiǎn)單的設(shè)定就能實(shí)現(xiàn)的??梢?,即使對(duì)于用來“驅(qū)動(dòng)”人工智能的價(jià)值函數(shù)來說,自下而上的觀察學(xué)習(xí)也至關(guān)重要。道德是社群行為規(guī)范的一種,當(dāng)人工智能進(jìn)入人類的社群,它首先要觀察社群的規(guī)范、理解社群的訴求、把握社群的內(nèi)部和外部關(guān)系,這些是人工智能進(jìn)行道德判斷必不可少的訓(xùn)練。一個(gè)理想規(guī)范手冊(cè)無法窮盡情況的復(fù)雜性,如同人類一樣,人工智能的道德訓(xùn)練只能在大量的具體案例中,尤其是在互動(dòng)中才能逐漸塑造出“道德品格”。這種品格包含了對(duì)情境的敏感性、對(duì)核心要素的辨別、對(duì)次級(jí)相關(guān)性的提取和權(quán)衡等,唯有據(jù)此做出的道德判斷才能被認(rèn)為是正當(dāng)?shù)?、可靠的和相?duì)安全的。

      如此看來,電車難題也許并不是一個(gè)最具代表性的案例。它通過一種抽象過濾了若干要素,把細(xì)微而復(fù)雜的道德考量極端化為非此即彼的選擇。盡管這種情形有出現(xiàn)的可能,但這絕不是日常和典型的道德情形。最近正在熱播的劇集《都挺好》可以為我們提供一個(gè)更加常見的倫理情境。假設(shè)現(xiàn)在有一個(gè)人工智能保姆來照顧父親蘇大強(qiáng),它該以何種方式處理遇到的日常問題呢?請(qǐng)注意,這里的人工智能不是一個(gè)只會(huì)被動(dòng)地接受人類指令的服務(wù)工具,它可以自主地進(jìn)行決策。為了在這個(gè)問題家庭中照顧好這個(gè)愛找麻煩的老人,人工智能需要知道哪些事物和行為對(duì)老人有好處、哪些應(yīng)該被禁止,它還需要了解老人的脾氣性格以找到最能夠讓他接受的服務(wù)方式,它也要了解雇主(老人子女)的要求和偏好,理解他們的家庭關(guān)系甚至清楚他們的財(cái)務(wù)狀況。在如此復(fù)雜的情形中,不可能預(yù)先設(shè)計(jì)出一個(gè)最優(yōu)解植入到機(jī)器人的數(shù)據(jù)庫(kù)中,也不可能指望它一開始就把所有事情處理得當(dāng)。人工智能與人類保姆一樣,需要與這個(gè)家庭逐步磨合,通過一次次的互動(dòng)來積累和調(diào)整自己的數(shù)據(jù)庫(kù),反向推理、學(xué)習(xí)和估算這個(gè)家庭成員的價(jià)值函數(shù),從而最終達(dá)到一個(gè)良好的功能角色。

      在這里,真正的學(xué)習(xí)是一個(gè)交互的過程,但人工智能的交互性方面往往被低估。香農(nóng)的信息論認(rèn)為,交流就是編碼和解碼,只要雙方有一個(gè)共同的碼本和一些共享的背景知識(shí),就總是能夠成功實(shí)現(xiàn)通訊。這種觀念的影響一直持續(xù)到今天。大部分人仍然認(rèn)為,碼本和背景知識(shí)理所當(dāng)然地可以被標(biāo)準(zhǔn)化,此為理想規(guī)則主義的來源之一。被忽略的是,背景知識(shí)不等于公共知識(shí),更多情況下它是“本地知識(shí)”。如果交流雙方?jīng)]有共享同一個(gè)本地知識(shí),就很難從對(duì)方的“編碼”中準(zhǔn)確地提取意義。例如,西方人不太理解中國(guó)電影《流浪地球》中人類帶著地球逃離太陽(yáng)系這一故事設(shè)置,中國(guó)人也常常抓不住西方笑話的“笑點(diǎn)”。要掌握這種本地知識(shí),需要引入一種關(guān)系性視角:我們總是在一種(至少是想象的)關(guān)系中把握具體的“應(yīng)當(dāng)”。朱松莼總結(jié)道:“兩個(gè)人之間至少要表達(dá)五個(gè)腦袋minds:我知道的東西、你知道的東西、我知道你知道的東西、你知道我知道的東西、我們共同知道的東西。還有,對(duì)話的時(shí)候你的意圖是什么等等諸多問題。”

      關(guān)系在道德中的重要性早已耳熟能詳。列維納斯寫道:“在道德中,關(guān)系是先在的;道德不是實(shí)體,而是體現(xiàn)在一種優(yōu)先的關(guān)系中?!崩麏W波特則論證了倫理關(guān)系的可拓展性,他指出倫理所適用的“共同體”概念是逐步擴(kuò)大的:最初只適用于主人,然后擴(kuò)展到人類,未來還應(yīng)該進(jìn)一步擴(kuò)展到“土地”——包括土壤、水、植物和動(dòng)物。我們不知道倫理關(guān)系是否真的能拓展到土地上的一切,但它至少應(yīng)該包含具有自主性的人工智能。筆者認(rèn)為,應(yīng)該區(qū)分兩種不同的規(guī)則:正確性規(guī)則和關(guān)系性規(guī)則。前者是一些得到倫理辯護(hù)的正確行為準(zhǔn)則,后者則是引導(dǎo)與共同體達(dá)成合理關(guān)系的那些機(jī)制性行動(dòng)框架。誠(chéng)然,人類需要對(duì)人工智能嵌入一些守則式的正確性規(guī)范,但從關(guān)系主義的視角來看,這些規(guī)范至多是次級(jí)規(guī)范。既然人工智能有資格作為道德主體,那么在這些規(guī)范之上還應(yīng)該有一些更高層級(jí)的規(guī)范,即指導(dǎo)主體間互動(dòng)方式的關(guān)系性規(guī)范。

      我們無意窮舉這類規(guī)范,在此僅展示一條作為示例:人工智能應(yīng)當(dāng)做那些其所處的共同體會(huì)給予正面反應(yīng)的事情,避免做共同體會(huì)給予負(fù)面反應(yīng)的事情。需要指出,其中的“正面反應(yīng)”和“負(fù)面反應(yīng)”都是動(dòng)態(tài)的,因?yàn)樯鐣?huì)規(guī)范就是人們?cè)诟?jìng)爭(zhēng)與合作過程中達(dá)到的“準(zhǔn)平衡態(tài)”。社群規(guī)范可以是多維的,其中的平衡也是動(dòng)態(tài)的。事實(shí)上,劉文中提出的三條儒家規(guī)范,即忠(忠誠(chéng))、?。ɑセ荩⑷剩ㄈ说溃┒紟в袕?qiáng)烈的關(guān)系性色彩。遺憾的是,作者對(duì)它們進(jìn)行了一種標(biāo)準(zhǔn)規(guī)范式解讀?!爸摇北欢x為忠于角色,行文中又對(duì)角色職責(zé)進(jìn)行了類似于行為守則的明確規(guī)定;“恕”所表達(dá)的“己所不欲勿施于人”被解讀為一個(gè)禁止行動(dòng)的類別清單;“仁”則被簡(jiǎn)化為“做好事要請(qǐng)示人類”和“禁止協(xié)助作惡”。不難發(fā)現(xiàn),這種解讀把多元的、立體的、動(dòng)態(tài)的關(guān)系扁平化和靜態(tài)化了,作為關(guān)系主義之核心特征的語(yǔ)境論和交互性也就不復(fù)存在。儒家式倫理——尤其是內(nèi)嵌于中華政治—文化—社會(huì)生態(tài)的那種規(guī)范體系,奠基于一種由血緣關(guān)系到社會(huì)關(guān)系的類比,從而形成一個(gè)類似于同心圓的社會(huì)—文化結(jié)構(gòu);當(dāng)這個(gè)結(jié)構(gòu)被置于一個(gè)科層制的等級(jí)關(guān)系中,同心圓又被立體化為一個(gè)金字塔的結(jié)構(gòu)。通過天人關(guān)系的宇宙論圖景的加持,這一結(jié)構(gòu)把個(gè)體看作是內(nèi)在地歸屬于群體的(不同于西方文明“個(gè)體組成群體”的觀念),從而強(qiáng)烈地要求用一種關(guān)系主義的方式理解倫理規(guī)范。因此,一種真正的儒家機(jī)器人需要嵌入的是這種關(guān)系性和結(jié)構(gòu)性的規(guī)則。

      在關(guān)系主義的視角下,一個(gè)自然的問題是:人與人工智能是什么關(guān)系?既然前文已經(jīng)為人工智能的主體地位做出了辯護(hù),那么首先肯定的是,我們不主張一種工具性關(guān)系。除此以外,兩個(gè)主體之間還可以有主奴關(guān)系、領(lǐng)導(dǎo)關(guān)系、伙伴關(guān)系、情侶關(guān)系等多種關(guān)系。我們建議,可以對(duì)這些類型的關(guān)系持有一種開放態(tài)度。正如人們之間的關(guān)系是在一種社會(huì)結(jié)構(gòu)和生活場(chǎng)景下經(jīng)過自然平衡而建立起來,人工智能與人的關(guān)系也應(yīng)在同一個(gè)過程中得到觀察和發(fā)展。

      不過,對(duì)于道德主體之間的關(guān)系,仍有一些必要的前提需要強(qiáng)調(diào),其中最核心的就是為自己的行為負(fù)責(zé)。負(fù)責(zé)的首要條件就是能夠接受懲罰。有人認(rèn)為人工智能先天地缺乏對(duì)懲罰的敏感性,懲罰所具有的威懾、補(bǔ)償、勸誡三大作用對(duì)它們都不成立,理由是人工智能既不會(huì)產(chǎn)生恐懼、愧疚這樣的情感,也不具有賠償能力。這種觀點(diǎn)沒有看到,懲罰的關(guān)鍵并不在于被懲罰者的主觀體驗(yàn),而在于對(duì)其后續(xù)行為產(chǎn)生的實(shí)際影響。只要內(nèi)置了關(guān)系性規(guī)則的人工智能可以接受到公眾的正面或負(fù)面反應(yīng)并據(jù)此調(diào)整自己的行為,懲罰就是對(duì)它們具有客觀效力的。至于補(bǔ)償?shù)哪芰?,我們?yōu)槭裁床荒芙o予人工智能以一定程度的產(chǎn)權(quán)呢?法學(xué)家烏戈·帕加羅創(chuàng)造性地提出了“數(shù)字特有產(chǎn)”的概念。他指出,古羅馬的奴隸主一方面為了保證奴隸可以作為代理人進(jìn)行自主交易,另一方面保證自己的利益不受奴隸行為的負(fù)面影響,而賦予奴隸或家子一定數(shù)額的獨(dú)立財(cái)產(chǎn),即“特有產(chǎn)”。受此啟發(fā),他建議通過數(shù)字賬戶的形式賦予人工智能以“數(shù)字特有產(chǎn)”,它可以是一種保險(xiǎn),也可以是主人私有產(chǎn)權(quán)的延伸(例如增加擔(dān)保)。我認(rèn)為,其中一部分還可以通過社會(huì)公共基金的形式來支付,其數(shù)額可用事故概率和補(bǔ)償成本經(jīng)過大數(shù)據(jù)測(cè)算來決定。一旦擁有了獨(dú)立產(chǎn)權(quán),人工智能就可以作為法律上的代理人自主行動(dòng)(例如,與交易方簽訂合同),并有能力對(duì)自己的行動(dòng)負(fù)責(zé)。這樣,在未來世界人工智能將作為一種獨(dú)特但真正意義上的社會(huì)成員,與人類共同參與到社會(huì)生活中去。

      五、結(jié)語(yǔ)

      自古希臘以來,自然物和人工物的區(qū)分成為人類認(rèn)知的一個(gè)基礎(chǔ)性分類框架,隨著現(xiàn)代生物學(xué)的發(fā)展,它又與有機(jī)體和無機(jī)體的區(qū)分相結(jié)合,融入到人們對(duì)生命的理解中。這一分類學(xué)曾經(jīng)彰顯出人類執(zhí)著而強(qiáng)烈的自我意識(shí),也限定了人類認(rèn)知事物的邊界。當(dāng)我們站在即將到來的人工智能社會(huì)的十字路口,更加細(xì)致的反思和分析告訴我們,這個(gè)邊界并非如想象的那樣清晰和堅(jiān)固?,F(xiàn)在還沒有證據(jù)表明硅基的人工物不可能具有生命,更沒有充分理由斷言具有真正自主性的人工智能不能被賦予主體資格。我們應(yīng)該以一種更加平等和開放的態(tài)度與這個(gè)新的物種相互認(rèn)識(shí),相互適應(yīng)。盡管現(xiàn)在還難以想象人工智能具有情感體驗(yàn)和自我意識(shí),但作為一個(gè)行動(dòng)主體,它們與我們并無二致。如果用一種因果推理模型和關(guān)系主義規(guī)則來設(shè)計(jì)人工智能,它們與我們的“思維方式”也會(huì)大致相似。

      但是,也不能由此斷言人工智能與人類沒有實(shí)質(zhì)性差別。至少存在著三個(gè)真正的差異,可能會(huì)造成人工智能的行為和社會(huì)結(jié)構(gòu)產(chǎn)生顯著偏離。第一,人工智能可以通過聯(lián)機(jī)成為一個(gè)“榮格式集體存在物”,它們的個(gè)體邊界在原則上是可消除的。第二,人工智能具有一種“蘇格拉底式的透明性”,對(duì)它們而言不存在人類那樣的“認(rèn)知”與“接受”之間的鴻溝,或者說,它們是先天地知行合一的。第三,人工智能原則上可以通過數(shù)據(jù)復(fù)制轉(zhuǎn)移實(shí)現(xiàn)“不死”,生存也不是它們的首要需求。不難設(shè)想,根據(jù)這些特征形成的人工智能社會(huì)(假設(shè)獨(dú)立于人類社會(huì)),很可能會(huì)演化出完全不同的社會(huì)結(jié)構(gòu)。因此,如何與這樣一類行動(dòng)主體共處于同一個(gè)社會(huì),仍是擺在人類面前的重大課題。一種樂觀的看法把人工智能視為服務(wù)型機(jī)器,一種悲觀的看法則把它們視為完全異于人類的怪物,二者都是偏頗的,更加理智的看法是把它們當(dāng)作一個(gè)可交流但有差異的族類。與這個(gè)族類和諧共處無疑是一個(gè)巨大的挑戰(zhàn),這種挑戰(zhàn)在人類的歷史和現(xiàn)實(shí)生活中都曾反復(fù)出現(xiàn)。無論人工智能社會(huì)將帶來什么,都是人類必須要積極面對(duì)的。

      [責(zé)任編輯 鄒曉東]

      固原市| 武平县| 武胜县| 佛冈县| 唐河县| 六安市| 浮山县| 永修县| 阿荣旗| 万山特区| 离岛区| 榆中县| 徐闻县| 滦南县| 安化县| 平乡县| 佛山市| 大厂| 湖口县| 剑河县| 黑山县| 邵东县| 仲巴县| 宁乡县| 桃园县| 图们市| 濉溪县| 东兴市| 香格里拉县| 承德市| 安图县| 丁青县| 鸡泽县| 聊城市| 罗山县| 醴陵市| 托里县| 温宿县| 昭苏县| 神木县| 新邵县|