• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      從“關(guān)系情境主義”到馬克思主義道德學(xué)說的“語境主義”
      ——人工智能倫理范式基礎(chǔ)的轉(zhuǎn)換

      2022-02-04 12:13:14
      云南社會(huì)科學(xué) 2022年3期
      關(guān)鍵詞:克爾伯格范式

      王 亮

      不同的人工智能倫理研究范式有著不同的理論前提預(yù)設(shè),即人工智能倫理主要是立足于人工智能體,還是立足于人本身的美好生活、人的自由等,這些理論前提構(gòu)成了人工智能倫理研究范式的基礎(chǔ),它不僅決定了人工智能倫理研究的方向,也體現(xiàn)著人工智能倫理的價(jià)值底蘊(yùn)。因此,對(duì)這些理論前提的探討有助于推進(jìn)人工智能倫理的深入研究。

      一、“以人工智能體為中心”的人工智能倫理

      目前的人工智能倫理研究主要是圍繞人工智能體進(jìn)行,它的研究分為兩個(gè)層面:第一個(gè)層面是對(duì)人工智能體是否可以承擔(dān)倫理責(zé)任進(jìn)行追問;第二個(gè)層面是對(duì)人工智能體的倫理設(shè)計(jì)、監(jiān)管等問題進(jìn)行探討。相比較而言,第一個(gè)層面更為基本,它是第二個(gè)層面的研究得以開展的前提。

      一些學(xué)者認(rèn)為人工智能體可以承擔(dān)倫理責(zé)任。蘇爾林斯(John P.Sullins)認(rèn)為,只要機(jī)器人滿足相對(duì)獨(dú)立性、行為的可解釋性、理解力三個(gè)條件,它的道德權(quán)利和責(zé)任就與其身份無關(guān)。①Sullins J P,When is a robot a moral agent,Machine ethics,2006,pp.151-160.費(fèi)爾貝克(Peter-Paul Verbeek)認(rèn)為,人工物和設(shè)計(jì)者、使用者之間具有交互式倫理責(zé)任。②Verbeek P,Design Ethics and the Morality of Technological Artifacts,Vermaas P E.,Kroes P.,Light A.,et al.Philosophy and Design:From Engineering to Architecture,Dordrecht:Springer Netherlands,2008,pp.91-103.柯恩科威克和舒科呂(Gordana Dodig Crnkovic &Baran ?ürüklü)認(rèn)為:“所有的人類利益相關(guān)者(機(jī)器人設(shè)計(jì)師、制造商、維護(hù)人員和用戶)都有特定的責(zé)任來保證安全、適當(dāng)?shù)男阅?,而機(jī)器人則需要不斷地發(fā)展人工倫理能力,包括為自己的行為承擔(dān)功能性責(zé)任的能力。”①Crnkovic G D,?ürüklü B.,Robots:Ethical by Design,Ethics and Information Technology,2012,Vol.14,No.1,pp.61-71.波爾森等人(Adam Poulsen et al.)認(rèn)為:“機(jī)器倫理領(lǐng)域關(guān)注的是如何將倫理行為或確定倫理行為的方法嵌入到人工智能(AI)系統(tǒng)中。其目標(biāo)是生產(chǎn)出具有隱性倫理(旨在避免不道德后果)或顯性倫理(旨在行為合乎倫理)的人工道德代理(AMAs)?!雹赑oulsen A.,Anderson M.,Anderson S L.,et al.,Responses to a Critique of Artificial Moral Agents,https://arxiv.org/ftp/arxiv/papers/1903/1903.07021.pdf,2019/2019-05-15.正如波爾森所言,在肯定人工智能體可以承擔(dān)倫理責(zé)任的基礎(chǔ)上,一些人工智能倫理研究者分別從人工智能體的倫理設(shè)計(jì)路徑、倫理數(shù)據(jù)庫構(gòu)建、價(jià)值觀嵌入等方面研究了人工智能體的倫理設(shè)計(jì)問題。就人工智能體的倫理設(shè)計(jì)路徑而言,瓦拉赫和艾倫(Wendell Wallach &Colin Allen)可以說是該領(lǐng)域的奠基者,他們?cè)凇兜赖聶C(jī)器:如何讓機(jī)器人明辨是非》一書中詳細(xì)對(duì)比了“自上而下式(top-down) ”進(jìn)路和“自下而上式(bottom-up) ”進(jìn)路,認(rèn)為“自上而下式”進(jìn)路由于涉及抽象的倫理“原則”或“規(guī)范”,因此具有“全面的解決方案”的優(yōu)勢(shì),但同時(shí)面臨著“繁重的計(jì)算需求”的劣勢(shì);“自下而上式的策略有望產(chǎn)生對(duì)人工道德智能體整體設(shè)計(jì)而言不可或缺的技術(shù)和標(biāo)準(zhǔn),但這些策略相當(dāng)難以進(jìn)化或發(fā)展”③[美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機(jī)器:如何讓機(jī)器人明辨是非》,王小紅等譯,北京:北京大學(xué)出版社,2017 年,第71—99 頁。。在綜合分析“自上而下式”和“自下而上式”進(jìn)路的基礎(chǔ)上,瓦拉赫和艾倫提出了一種“混合式美德倫理”進(jìn)路,并認(rèn)為它綜合了“美德的自上而下進(jìn)路”和“聯(lián)結(jié)主義式的美德”進(jìn)路,適合作為人工道德智能體的有效設(shè)計(jì)進(jìn)路。④[美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機(jī)器:如何讓機(jī)器人明辨是非》,第102—109 頁。就人工智能體的倫理數(shù)據(jù)庫構(gòu)建而言,德加尼等人(Morteza Dehghani et al.)倡導(dǎo)通過創(chuàng)建數(shù)據(jù)庫來為人工智能的道德決策提供參考依據(jù)。⑤Dehghani M,Tomai E,Forbus K,et al.,An Integrated Reasoning Approach to Moral Decision Making,New York:Cambridge University Press,2011,pp.422-441.穆恩等人(AJung Moon et al.)提出采用開源模式共建人工智能的倫理知識(shí)庫。⑥Moon A,Calisgan C,Operto F,et al.,Open roboethics:Establishing an online community for accelerated policy and design change,http://robots.law.miami.edu/wp-content/uploads/2012/01/Moon_et_al_Open-Roboethics-2012.pdf,2012/2019-04-05.徐英瑾深刻分析了人工智能中的“人工神經(jīng)元網(wǎng)絡(luò)”計(jì)算模型與儒家傳統(tǒng)的“德性熏養(yǎng)”以及“儒家德性樣板庫”的隱喻性投射之間的關(guān)系。⑦徐英瑾:《儒家德性倫理學(xué)、神經(jīng)計(jì)算與認(rèn)知隱喻》,《武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2017 年第6 期。價(jià)值觀嵌入也是人工智能體倫理設(shè)計(jì)的重要內(nèi)容之一,施皮克曼(Sarah Spiekermann)將設(shè)定和理解價(jià)值目標(biāo)作為人工智能系統(tǒng)倫理設(shè)計(jì)的第一步。⑧Spiekermann S.,Ethical IT innovation:A value-based system design approach,New York:Auerbach Publications,2015,pp.239-241.拉根伯格(Michael Nagenborg)認(rèn)為,在人工道德代理人的設(shè)計(jì)中價(jià)值觀總是被有意識(shí)地嵌入到“倫理子程序”中。⑨Nagenborg M.,Artificial moral agents:an intercultural perspective,International Review of Information Ethics,2007,Vol.7,No.9,pp.129-133.李倫和孫保學(xué)認(rèn)為,人工智能系統(tǒng)應(yīng)當(dāng)內(nèi)置價(jià)值糾偏機(jī)制。⑩李倫、孫保學(xué):《給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個(gè)維度》,《教學(xué)與研究》2018 年第8 期。

      也有一些學(xué)者認(rèn)為人工智能體無法承擔(dān)倫理責(zé)任。西普內(nèi)恩(Mikko Siponen)認(rèn)為,目前的人工智能實(shí)體不能視為具有倫理責(zé)任的代理,將倫理責(zé)任轉(zhuǎn)移至人工代理也不利于對(duì)開發(fā)人員或用戶進(jìn)行追責(zé)。?Siponen M.,A pragmatic evaluation of the theory of information ethics,Ethics and Information Technology,2004,Vol.6,No.4,pp.279-290.米勒(Keith Willam Miller)認(rèn)為,人工智能體的倫理責(zé)任應(yīng)當(dāng)由設(shè)計(jì)者、開發(fā)者、評(píng)估者和使用者來承擔(dān)。?Miller K W.,Moral Responsibility for Computing Artifacts:" The Rules",IT Professional,2011,Vol.13,No.3,pp.57-59.溫斯伯格和羅賓斯(Aimee van Wynsberghe &Scott Robbins)認(rèn)為,構(gòu)建人工道德代理人的理由不夠充分,沒有嵌入倫理的機(jī)器人也可以發(fā)揮作用。?Van Wynsberghe A,Robbins S.,Critiquing the reasons for making artificial moral agents,Science and engineering ethics,2018,pp.1-17.弗洛里迪和桑德斯(Luciano Floridi &J.W.Sanders)通過抽象層次方法(LoA)將責(zé)任和道德代理相分離,認(rèn)為人工道德代理盡管不能承擔(dān)責(zé)任,但作為道德行為能力者仍有必要接受相關(guān)的道德行為規(guī)范。①Floridi L,Sanders J W.,On the morality of artificial agents,Minds and machines,2004,Vol.14,No.3,pp.349-379.因此,這也為人工智能倫理研究開辟了另一條路徑,即從外部對(duì)人工智能體進(jìn)行倫理規(guī)范,而非其內(nèi)部的倫理設(shè)計(jì),相關(guān)研究主要集中于工程師倫理責(zé)任、倫理準(zhǔn)則、倫理監(jiān)管等方面。赫?qǐng)D寧等人(Anniina Huttunen et al.)主張通過工程人員學(xué)習(xí)“新阿基米德誓言(New Archimedes' Oath)”來解決人工智能體的倫理問題。②Huttunen A,Brace W,Kantola V,Lechner L,Kulovesi J,Silvennoinen K.,Cross-cultural Application of Ethical Principles in the Design Process of Autonomous Machines,http://www.iiis.org/CDs2010/CD2010IMC/ICEME_2010/PapersPdf/FB476NT.pdf,2010/2019-4-2.木村剛(Takeshi Kimura)認(rèn)為機(jī)器人工程師應(yīng)當(dāng)熟悉不同的社會(huì)、文化和倫理內(nèi)涵,要具備良好的倫理責(zé)任意識(shí)。③Kimura T.,Roboethical arguments and applied ethics:Being a good citizen,Cybernics.Springer,Tokyo,2014,pp.289-298.溫菲爾德(Alan Winfield)對(duì)世界上部分人工智能研究機(jī)構(gòu)或政策機(jī)構(gòu)所制定的倫理準(zhǔn)則進(jìn)行了總結(jié)。④Winfield A.,An Updated Round Up of Ethical Principles of Robotics and AI,http://alanwinfield.blogspot.com,2019-04-18/2019-05-02.伍敏敏總結(jié)了國外人工智能倫理標(biāo)準(zhǔn)的制定情況,并分別從“人類社會(huì)倫理標(biāo)準(zhǔn)優(yōu)化、人類對(duì)人工智能技術(shù)探索的倫理標(biāo)準(zhǔn)、人工智能體的倫理規(guī)約標(biāo)準(zhǔn)”三個(gè)層面對(duì)人工智能倫理標(biāo)準(zhǔn)化體系構(gòu)建進(jìn)行了思考。⑤伍敏敏:《人工智能倫理標(biāo)準(zhǔn)化體系初探》,《中國標(biāo)準(zhǔn)化》2018 年第21 期。孫保學(xué)認(rèn)為,“自上而下”和“自下而上”的人工智能道德決策研究進(jìn)路并不能完全解決問題,還需要結(jié)合“外部制約”和“內(nèi)部監(jiān)控”。⑥孫保學(xué):《人工智能如何進(jìn)行道德決策》,http://www.xinhuanet.com/tech/2017-09/11/c_1121640568.htm,2017-09-11/2019-05-02。蘇令銀認(rèn)為,“自上而下”和“自下而上”的倫理嵌入路徑存在困難,應(yīng)當(dāng)采取“法律規(guī)制、技術(shù)監(jiān)管、倫理建模、程序正義等綜合策略”。⑦蘇令銀:《能將倫理準(zhǔn)則嵌入人工智能機(jī)器嗎?——以無人駕駛汽車為例》,《理論探索》2018 年第3 期。

      可以看出,對(duì)人工智能體的倫理責(zé)任追問是“以人工智能體為中心”的人工智能倫理研究的前提問題,它直接影響著對(duì)人工智能體的倫理設(shè)計(jì)、監(jiān)管等問題的探討,并由此形成了人工智能倫理研究的兩條不同的路徑:內(nèi)部倫理設(shè)計(jì)和外部倫理監(jiān)管。而人工智能體的倫理責(zé)任追問所對(duì)應(yīng)的深層次理論問題是“人工智能體是什么”?是純粹的人工智能物(系統(tǒng))還是具備倫理責(zé)任的人工道德智能體?這些問題的答案構(gòu)成了“以人工智能體為中心”的人工智能倫理范式的理論基石。然而,科克爾伯格(Mark Coeckelbergh)并不滿足于對(duì)“人工智能體是什么”的探討,而是深入分析人工智能體與人之間的關(guān)系,從美德倫理的視角分析“人工智能體應(yīng)該是什么”,因此,他將人和人工智能體同時(shí)融入人工智能倫理范式之中,并且重點(diǎn)突出了倫理視域下人工智能體對(duì)人的影響。

      二、科克爾伯格“關(guān)系情境主義”視域下的“外觀倫理”和“人類善的倫理”

      與主張倫理設(shè)計(jì)和倫理監(jiān)管的人工智能倫理范式不同,科克爾伯格明確提出,“將個(gè)人機(jī)器人倫理學(xué)作為一種外觀倫理學(xué)、美好生活倫理學(xué)、體驗(yàn)倫理學(xué)和想象力倫理學(xué)”⑧Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,International Journal of Social Robotics,2009,Vol.1,No.3,pp.217-221.。他這樣做的依據(jù)何在?其倫理范式與“以人工智能體為中心”的人工智能倫理范式的區(qū)別是什么?為了更好地回答這些問題,科克爾伯格首先對(duì)傳統(tǒng)的人工智能倫理范式進(jìn)行了分析,他認(rèn)為:“倫理學(xué)通常被理解為應(yīng)用倫理學(xué)。從這個(gè)角度來看,如果要評(píng)估人機(jī)交互(可能包括人機(jī)關(guān)系),應(yīng)該將倫理標(biāo)準(zhǔn)——倫理理論提供的道德原則——應(yīng)用于手頭的問題或案例。這就允許人們判斷所發(fā)生的事情在倫理上是否可以被接受。在機(jī)器人倫理學(xué)中,這種方法意味著外在于人機(jī)交互的倫理標(biāo)準(zhǔn)應(yīng)用于其中?!雹酑oeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.顯而易見,科克爾伯格認(rèn)為傳統(tǒng)的人工智能倫理范式的核心是對(duì)“倫理標(biāo)準(zhǔn)”的運(yùn)用,而這一運(yùn)用的方式正如之前所探討的,可以分為外部倫理監(jiān)督和內(nèi)部倫理設(shè)計(jì)兩條路徑,前者主要體現(xiàn)為人類運(yùn)用“倫理標(biāo)準(zhǔn)”來評(píng)判人工智能體的一些行為特性“在倫理上是否可以被接受”,后者主要體現(xiàn)于“倫理標(biāo)準(zhǔn)”的內(nèi)化,“對(duì)于設(shè)計(jì)師來說,這種‘外在的’方法意味著他們的目標(biāo)是嘗試在機(jī)器人中‘內(nèi)置’規(guī)則”。①Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.同時(shí)也要注意到,科克爾伯格認(rèn)為傳統(tǒng)人工智能倫理范式中的“倫理標(biāo)準(zhǔn)”是外在于人機(jī)交互的,因此,“這種倫理方法,無論是應(yīng)用于人類還是應(yīng)用于機(jī)器人,不僅在具體的情境中遇到麻煩(正如阿西莫夫自己的故事所顯示的),而且還忽略了其他類型的倫理問題”②Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.,“這種方法忽略了更廣泛的倫理問題,比如人們想要什么樣的生活”③Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。至此,科克爾伯格指出了傳統(tǒng)人工智能倫理范式的兩大缺點(diǎn):第一,缺乏人機(jī)交互情境的倫理解釋力;第二,忽略了與人類美好生活相關(guān)的美德倫理問題。而這也正是科克爾伯格想要通過新的人工智能倫理范式所要解決的問題。他認(rèn)為:“除了上述方法論取向之外,另一種可能的選擇是轉(zhuǎn)向外觀倫理(ethics of appearance)和人類善的倫理(ethics of human good),即在體驗(yàn)和實(shí)踐中出現(xiàn)的倫理。”④Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.可以看出,科克爾伯格新倫理范式的內(nèi)核就是“外觀倫理”和“人類善的倫理”。

      何為“外觀倫理”?科克爾伯格提出,“我建議我們從人類與基于表象而非真實(shí)的人形特征(智力,意識(shí),情感等)的機(jī)器人相互作用的研究開始,而不是探究類人機(jī)器人如何能成為具有代理、自主性和責(zé)任感的機(jī)器人。例如,一個(gè)特定機(jī)器人的臉看起來像人嗎?如果是,我們?nèi)绾卧谂c那個(gè)機(jī)器人的交互中體驗(yàn)這個(gè)特征?機(jī)器人對(duì)我們做了什么,取決于它們?cè)谖覀兠媲暗臉幼樱皇撬鼈冋嬲谙胧裁础雹軨oeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.?!巴庥^倫理”的獨(dú)特之處就在于研究基于表象的人機(jī)互動(dòng),而非人工智能體的自主性、倫理責(zé)任等屬性。相較而言,“外觀倫理”的優(yōu)勢(shì)在于,它彌合了因?qū)嶓w與其外觀的二分而造成的倫理理論與現(xiàn)實(shí)情境脫節(jié)的解釋力鴻溝??瓶藸柌裾J(rèn)為,“屬性觀假設(shè)一個(gè)實(shí)體只有一個(gè)‘正確’的本體狀態(tài)和意義,與機(jī)器人的‘外觀’和‘感知’形成對(duì)比。那些指責(zé)人們行為不‘應(yīng)該’的人依賴于道德立場(chǎng)的科學(xué),而道德立場(chǎng)的科學(xué)假定了實(shí)體(例如,機(jī)器人,作為一個(gè)物自體本身)和實(shí)體的外觀之間的二分法。但可以想到另一種非二元論的認(rèn)識(shí)論,它拒絕這種二分法,接受一個(gè)實(shí)體可以以幾種方式出現(xiàn)在我們面前,而這些方式都沒有先驗(yàn)的本體論或解釋學(xué)的優(yōu)先權(quán)”⑥Coeckelbergh M.,The moral standing of machines:Towards a relational and non-Cartesian moral hermeneutics,Philosophy &technology,2014,Vol.27,No.1,pp.61-77.。科克爾伯格對(duì)于實(shí)體(人工智能體)屬性觀的探討將人工智能倫理范式中的“外觀倫理”問題直接推向了其理論的源頭,即對(duì)道德地位的分析。很明顯,科克爾伯格不贊成基于實(shí)體(人工智能體)屬性的道德地位觀點(diǎn),他認(rèn)為,“我們需要將道德地位置于情境中,而不是在道德地位科學(xué)的解剖劇場(chǎng)中把實(shí)體作為原子主義的珍玩來研究”⑦Coeckelbergh M.,The moral standing of machines:Towards a relational and non-Cartesian moral hermeneutics,pp.61-77.??瓶藸柌竦牡赖碌匚磺榫痴摵退膶?shí)體與其外觀的非二元論是一致的,在具體的情境之中實(shí)體(人工智能體)及其外觀直接向人呈現(xiàn),和人發(fā)生相互作用,并且與人是一種天然的關(guān)系性存在,正因如此,“一個(gè)實(shí)體的道德地位是建立在作為認(rèn)知主體的實(shí)體與我們之間的關(guān)系的土壤上的”⑧Coeckelbergh M.,The moral standing of machines:Towards a relational and non-Cartesian moral hermeneutics,pp.61-77.。在具體的情境中,不存在任何“本體論”的優(yōu)先性,在分析與人相互作用的實(shí)體(人工智能體)屬性之前,關(guān)系就已經(jīng)存在。這種生長(zhǎng)于情境關(guān)系的道德地位觀較好地解決了倫理理論與現(xiàn)實(shí)情境脫節(jié)問題,例如,當(dāng)人們?cè)谔接懼悄芊?wù)機(jī)器人倫理時(shí),“欺騙”是一個(gè)很重要的倫理問題,但現(xiàn)實(shí)的情況卻并非如此,一些老年人或者兒童在現(xiàn)實(shí)的人機(jī)互動(dòng)過程中十分投入,完全忽視了“欺騙”問題,同時(shí)這種投入的人機(jī)互動(dòng)還對(duì)他們產(chǎn)生了積極的效果?!捌垓_”的前提是從本體論上首先認(rèn)定機(jī)器人不是情感物,對(duì)于傳統(tǒng)的倫理學(xué)理論而言“欺騙”確實(shí)是不道德的,而“外觀倫理”理論認(rèn)為在具體的關(guān)系情境中,不存在任何“本體論”的優(yōu)先性,只有人機(jī)互動(dòng)的關(guān)系性和體驗(yàn)性,所以也無所謂“欺騙”,正如科克爾伯格所言:“首先,我對(duì)外觀(荷蘭語:verschijning;德語:Erscheinung)的關(guān)注旨在引起人們對(duì)體驗(yàn)的關(guān)注。重點(diǎn)不在于機(jī)器人的作用(它的行為),而在于它對(duì)我們的作用?!雹貱oeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.如果將“外觀倫理”理論應(yīng)用于更大的情境之中——人類生活——就會(huì)形成另一種新的倫理內(nèi)容,即“人類善的倫理”。

      科克爾伯格的“人類善的倫理”與“外觀倫理”一脈相承,他提出,“我建議,我們也應(yīng)該,尤其是考慮個(gè)人機(jī)器人可能為人類的福祉做出的潛在貢獻(xiàn),而不是將人機(jī)交互的倫理評(píng)估局限于與道德權(quán)利有關(guān)的問題”②Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。很明顯,“人類善的倫理”的要旨或者目標(biāo)是指向人類的福祉,而非“局限于與道德權(quán)利有關(guān)的問題”,它在理論方向上與“外觀倫理”保持高度的一致,盡力避免對(duì)人工智能倫理進(jìn)行抽象的道德屬性探討。為了更深入地闡述這一理論主張,科克爾伯格對(duì)比了兩種不同的人工智能倫理方法,“人類的善是多樣的。然而,這些人類的善是什么?為了評(píng)估個(gè)人機(jī)器人需要什么樣的方法?以上提出的倫理問題至少可以用兩種方法來回答”③Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.?!耙环N方法是從人類的善、人類的繁榮、幸福、友誼和愛的某種觀念出發(fā)”④Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.,這種方法可以稱之為“觀念的方法”,科克爾伯格認(rèn)為它能夠給出“更精確和更可行的人類善的定義”,并且能提供“標(biāo)準(zhǔn)清單”,借此可以對(duì)機(jī)器人進(jìn)行倫理方面的判斷,是一種“技術(shù)倫理的創(chuàng)新”⑤Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。但同時(shí),科克爾伯格也深刻意識(shí)到了“觀念的方法”的弊端,他直言不諱,“然而,如果這些關(guān)于善的概念和這些清單被視為先驗(yàn)標(biāo)準(zhǔn),善的先存概念(pre-conceptions of good),那么這種方法是有問題的。前文我拒絕了外在主義的道德方法。標(biāo)準(zhǔn)可能是如此籠統(tǒng)或遠(yuǎn)離人機(jī)交互情境,它們并不是非常有用。因此,我們必須通過更強(qiáng)有力的方式將理論與實(shí)踐聯(lián)系起來,認(rèn)真對(duì)待新技術(shù)的特性及其對(duì)我們的影響”⑥Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.??梢钥闯?,科克爾伯格將“觀念的方法”看作是一種“外在主義的道德方法”,認(rèn)為它是從具體的人機(jī)交互情境中抽象出去的、外在的、先驗(yàn)的是將理論與人類生活實(shí)踐脫離的,因此,“是有問題的”,且“不是非常有用”。那么,對(duì)于“人類善的倫理”而言,什么樣的方法才是合理的呢?科克爾伯格基于其“關(guān)系情境”理論提出了一種“體驗(yàn)和想象的方法”,他認(rèn)為:“我們需要從人機(jī)交互的具體體驗(yàn)和想象開始,然后討論善在性能清單方面是如何被理解的,而不是從作為先驗(yàn)道德規(guī)范的性能清單開始?!雹逤oeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.“因此,無論人類善是否可能外在于人類體驗(yàn),我們必須研究、想象和塑造善可能會(huì)出現(xiàn)于其中的人類與機(jī)器人共同生活的具體情境。讓我們聆聽人們的體驗(yàn),并運(yùn)用我們的道德想象力,找出是否有可能增進(jìn)人類繁榮和福祉的人—機(jī)共同生活?!雹郈oeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.科克爾伯格將人—機(jī)共同生活看作是人機(jī)交互的最廣闊情境,而“人類善的倫理”就是倡導(dǎo)人們利用已有的人機(jī)交互體驗(yàn)和“道德想象力”,構(gòu)建“增進(jìn)人類繁榮和福祉的人—機(jī)共同生活”。

      至此,可以看出,科克爾伯格利用其“關(guān)系情境主義”理論為人工智能倫理勾勒了一幅極具吸引力的美德倫理式的宏偉畫卷。他不僅通過“人類善的倫理”將人工智能倫理范式從“以人工智能體為中心”轉(zhuǎn)換為“以人為中心”,而且將人工智能倫理的研究視域從抽象的概念、屬性分析轉(zhuǎn)換為對(duì)具體的、體驗(yàn)式的美好生活的探討。更為重要的是,科克爾伯格十分注重倫理理論對(duì)于現(xiàn)實(shí)的解釋力,強(qiáng)調(diào)理論的可用性及其與人類生活實(shí)踐的關(guān)聯(lián)性,其關(guān)于人機(jī)共同塑造“美好生活”“人類福祉”等方面的理論闡述對(duì)于人工智能倫理范式的轉(zhuǎn)向具有重要的價(jià)值導(dǎo)向性。然而就實(shí)現(xiàn)這些美好的倫理價(jià)值追求的方法方式而言,科克爾伯格卻背離了理論與實(shí)踐應(yīng)強(qiáng)有力結(jié)合的主張,“體驗(yàn)”和“道德想象力”的方法使其倫理范式掉入了認(rèn)識(shí)論窠臼,與其說科克爾伯格的人工智能倫理范式體現(xiàn)的是“人工智能體應(yīng)該是什么”這一命題,不如說其所表達(dá)的是“人類眼中或者期待的人工智能體應(yīng)該是什么”。要想走出科克爾伯格人工智能倫理范式的理論困境,必須立足于更為宏大、深遠(yuǎn)的理論視野來分析人工智能與人類倫理道德之間的深刻關(guān)系,而馬克思主義道德學(xué)說的“語境主義”恰恰具備這一理論品質(zhì)。

      三、唯物史觀視野下的人工智能倫理

      加拿大著名哲學(xué)家凱·尼爾森(Kai Nielsen)立足于唯物史觀提出了馬克思主義道德學(xué)說的“語境主義”理論,這不僅開闊了馬克思主義倫理學(xué)學(xué)理基礎(chǔ)的研究,而且也拓展了倫理學(xué)理論的廣度和深度。尼爾森是如何從唯物史觀的豐富資源中萃取“道德精華”的呢?首先,尼爾森對(duì)“語境主義”進(jìn)行了準(zhǔn)確的說明,他認(rèn)為:“語境主義(當(dāng)它被運(yùn)用于道德時(shí))是這樣一個(gè)命題,即,道德要求幾乎毫無例外地隨語境而發(fā)生較大程度的改變。語境主義并不是那種認(rèn)為對(duì)或錯(cuò)、善或惡是由一個(gè)人的態(tài)度和承諾或一個(gè)人所愿意接受的任何可普遍化命令來決定的主張;毋寧說,對(duì)或錯(cuò)、善或惡,在相當(dāng)大的程度上是由客觀情境決定的,在這些情境中,人們可以發(fā)現(xiàn)他們自身?!雹賉加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識(shí)形態(tài)與歷史唯物主義》,李義天譯,北京:人民出版社,2014 年,第1 頁。在此,尼爾森表達(dá)出了三點(diǎn)看法:第一,在道德學(xué)說的“語境主義”理論中,道德不是抽象的、永恒的存在,而是隨情境變化發(fā)生改變;第二,變化著的情境是“客觀情境”而非取決于“態(tài)度”“承諾”等主觀因素的情境;第三,“在這些情境中,人們可以發(fā)現(xiàn)他們自身”。前兩點(diǎn)是尼爾森“語境主義”與唯物史觀結(jié)合的關(guān)鍵,歷史唯物主義強(qiáng)調(diào)人類歷史發(fā)展規(guī)律的客觀性,它體現(xiàn)了更為宏大的客觀情境。正因如此,尼爾森認(rèn)為:“歷史唯物主義自身創(chuàng)造了這樣一種從道德層面觀察事物的方式,在重要的意義上,這種觀察方式是語境主義的,但依然絕非相對(duì)主義的。”②[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識(shí)形態(tài)與歷史唯物主義》,第159 頁。不可否認(rèn),“語境主義”的提出為歷史唯物主義中的道德理論合理性提供了有力的支撐。然而,道德合理性不等于道德本身,“語境主義”的道德內(nèi)容正是隱藏于上述的第三個(gè)觀點(diǎn)之中,即人在客觀情境中發(fā)現(xiàn)自我。在人類宏大的歷史發(fā)展進(jìn)程中,發(fā)現(xiàn)自我的過程就是人的自由實(shí)現(xiàn)的過程?!白鳛槿说拇嬖谛螒B(tài),自由既有其本體論的意義,又包含價(jià)值論的內(nèi)涵。從價(jià)值論的角度看,自由具體展開為二個(gè)維度:在類或社會(huì)的層面,它以人向自身的復(fù)歸為其深刻內(nèi)容,在個(gè)體層面,它所指向的,則是真、善、美統(tǒng)一的存在境界;二者統(tǒng)一于走向自由王國的歷史過程”③楊國榮:《自由的形上意蘊(yùn)》,《文史哲》 2004 年第6 期。。而這也被尼爾森敏銳地捕捉到了,并將其作為評(píng)判道德進(jìn)步的標(biāo)準(zhǔn),“即,人有能力理性地評(píng)價(jià)道德規(guī)定并相信道德進(jìn)步。隨著生產(chǎn)力的發(fā)展,它們?yōu)樾腋!⑷说呐d旺,特別是為更多的人擁有更大的生活控制權(quán)進(jìn)而為更多的人享有更大的自主性,開啟了越來越多的可能”④[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識(shí)形態(tài)與歷史唯物主義》,第159 頁。。在這里,尼爾森并沒有直觀地提到人的自由,而是重點(diǎn)闡述了唯物史觀視野下人的“自主性”程度和廣度的拓展問題。然而,自主性、自由與道德倫理又是緊密相關(guān)的,“正因?yàn)槲覀兇嬖谟谶@種自由之中,我們的生活與行動(dòng)在任何時(shí)候都不會(huì)有‘非如此不可’的必然性處境,或者說,我們的生活或行為在任何時(shí)候都不會(huì)被鎖定在一個(gè)既定的唯一軌道上;相反,總還有其他可能性呈現(xiàn)在我們眼前。在這個(gè)意義上,自由使我們永遠(yuǎn)處在能夠自主決斷的處境之中,自由使我們永遠(yuǎn)面臨著自主決斷的任務(wù)。所以,對(duì)于人這種存在者,才面臨著應(yīng)當(dāng)或不應(yīng)當(dāng)?shù)膯栴},也才會(huì)提出應(yīng)當(dāng)或不應(yīng)當(dāng)?shù)囊?,并因此才?huì)有各種倫理價(jià)值。在這個(gè)意義上,我們可以說,自由使一切倫理價(jià)值成為可能而構(gòu)成了一切倫理價(jià)值的基礎(chǔ)”⑤黃裕生:《論自由與倫理價(jià)值》,《清華大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2016 年第3 期。。

      其實(shí),作為德國古典哲學(xué)的代表人物,康德和黑格爾都曾經(jīng)深入研究過自由與倫理之間的關(guān)系?!翱档掳训赖禄A(chǔ)從經(jīng)驗(yàn)外在對(duì)象物轉(zhuǎn)移到先驗(yàn)主體人的意志上來,以意志自律原則批判了經(jīng)驗(yàn)的他律原則,在倫理學(xué)上進(jìn)行了一場(chǎng)所謂‘哥白尼式革命’,建立起以人的意志自由為中心的主體倫理思想體系”①程惠蓮:《康德倫理學(xué)的主體性思想及其影響》,《湖北大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》1993 年第2 期。。黑格爾在《法哲學(xué)原理》中直接強(qiáng)調(diào),“倫理是自由的理念。它是活的善,這活的善在自我意識(shí)中具有它的知識(shí)和意志,通過自我意識(shí)的行動(dòng)而達(dá)到它的現(xiàn)實(shí)性;另一方面自我意識(shí)在倫理性的存在中具有它的絕對(duì)基礎(chǔ)和起推動(dòng)作用的目的。因此,倫理就是成為現(xiàn)存世界和自我意識(shí)本性的那種自由的概念”②[德]黑格爾:《法哲學(xué)原理》,范揚(yáng)、張企泰譯,北京:商務(wù)印書館,1961 年,第164 頁。??梢钥闯?,康德和黑格爾都從主體意識(shí)、意志等主觀方面來界定倫理,強(qiáng)調(diào)主體對(duì)道德律令、倫理秩序有發(fā)自內(nèi)心的期盼和認(rèn)同,并且自覺、自愿遵從,這些都深刻體現(xiàn)了主體意志之自由。恩格斯也認(rèn)為:“如果不談?wù)勊^自由意志、人的責(zé)任、必然和自由的關(guān)系等問題,就不能很好地討論道德和法的問題?!雹邸恶R克思恩格斯選集》(第 3 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1972 年,第152—153 頁。然而要注意的是,唯物主義和唯心主義在關(guān)于自由的倫理觀立場(chǎng)上有本質(zhì)的區(qū)別,馬克思認(rèn)為:“從前的一切唯物主義——包括費(fèi)爾巴哈的唯物主義——的主要缺點(diǎn)是:對(duì)對(duì)象、現(xiàn)實(shí)、感性,只是從客體的或者直觀的形式去理解,而不是把它們當(dāng)作人的感性活動(dòng),當(dāng)作實(shí)踐去理解,不是從主體方面去理解。因此,結(jié)果竟是這樣,和唯物主義相反,唯心主義卻發(fā)展了能動(dòng)的方面,但只是抽象地發(fā)展了,因?yàn)槲ㄐ闹髁x當(dāng)然是不知道現(xiàn)實(shí)的、感性的活動(dòng)本身的?!雹堋恶R克思恩格斯選集》(第1 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1995 年,第58 頁。唯心主義過于夸大主體的能動(dòng)性,而唯物主義在肯定主體的能動(dòng)性的同時(shí)強(qiáng)調(diào)了實(shí)踐對(duì)于主體的重要意義。唯物主義的立場(chǎng)恰恰是“語境主義”道德學(xué)說的理論出發(fā)點(diǎn):在人類歷史的發(fā)展進(jìn)程中,道德的進(jìn)步體現(xiàn)為,人在現(xiàn)實(shí)的實(shí)踐中自由的實(shí)現(xiàn)程度。這里的自由是人對(duì)于自身的解放,人向自身本質(zhì)的復(fù)歸的自由,也正因此,它體現(xiàn)為一種“解放的道德”⑤[英]史蒂文·盧克斯:《馬克思主義與道德》,袁聚錄譯,北京:高等教育出版社,2009 年,第27 頁。。

      如果對(duì)尼爾森的“語境主義”再做進(jìn)一步探討就會(huì)提出質(zhì)疑:當(dāng)“自由的實(shí)現(xiàn)”成為道德進(jìn)步的標(biāo)準(zhǔn)時(shí),“自由”本身是否會(huì)成為脫離實(shí)踐的抽象原則?事實(shí)上,為了更好地說明客觀情境與道德之間的關(guān)系,尼爾森預(yù)設(shè)了“道德公理(moral truism)”的存在,但他同時(shí)也表明了其與先驗(yàn)真理、道德原則等之間的區(qū)別,他認(rèn)為,“在沒有什么爭(zhēng)議性的意義上,道德公理也很瑣碎,它與永恒原則或道德真理(假定我們知道其內(nèi)涵)的差別在于,它不是先驗(yàn)真理(分析的或綜合的,如果具體說來就是這些),也不是自明地確定的道德真理或道德原則”⑥[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識(shí)形態(tài)與歷史唯物主義》,第14 頁。?!半m然它們?cè)诶碚摶蛟瓌t上可能消失,但事實(shí)上不會(huì),而且沒有理由認(rèn)為,它們會(huì)在任何心理或社會(huì)層面上有所改變的環(huán)境中消失?!雹遊加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識(shí)形態(tài)與歷史唯物主義》,第15 頁??梢钥闯?,盡管“道德公理”沒有理論的抽象形式,但它卻在實(shí)踐中永存。尼爾森通過這種方式將道德的根基深深地扎入了客觀情境之中,結(jié)合唯物史觀的視角,“人的自由是善”這一命題就是隱藏于人類歷史實(shí)踐活動(dòng)之中的“道德公理”,它也因此成為道德判斷的標(biāo)尺。馬克思曾經(jīng)將人的發(fā)展過程分為了三個(gè)大的歷史階段:“人的依賴關(guān)系”階段、“物的依賴關(guān)系”階段、“自由個(gè)性”階段,其中“自由個(gè)性”的階段是建立在“共同的社會(huì)生產(chǎn)能力”之上的。⑧《馬克思恩格斯全集》(第46 卷·上),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1979年,第104 頁。所以也就不難理解為什么尼爾森將生產(chǎn)力的發(fā)展看作是道德進(jìn)步的動(dòng)力。

      科技是第一生產(chǎn)力,人工智能從本質(zhì)上來看是一種新興的科學(xué)技術(shù),它引領(lǐng)并推動(dòng)著第四次工業(yè)革命。馬克思指出:“自然科學(xué)卻通過工業(yè)日益在實(shí)踐上進(jìn)入人的生活,改造人的生活,并為人的解放做準(zhǔn)備?!雹帷恶R克思恩格斯文集》(第1 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,2009 年,第193 頁。人工智能所引領(lǐng)的第四次工業(yè)革命分別從物質(zhì)財(cái)富、自由時(shí)間、主體性等方面,為人

      的解放、人的自由的實(shí)現(xiàn)作著充分的準(zhǔn)備,從而也為人工智能倫理的“語境主義”進(jìn)路奠定了堅(jiān)實(shí)的現(xiàn)實(shí)基礎(chǔ)。人工智能技術(shù)滲透到各行各業(yè),深刻地改變著人的生產(chǎn)方式和生活方式,為人類帶來日益豐富的產(chǎn)品和服務(wù),為社會(huì)創(chuàng)造出巨大的物質(zhì)財(cái)富。人工智能在家居、教育、醫(yī)療、交通、物流、金融、社交、傳播、裝備制造等領(lǐng)域顯現(xiàn)出巨大的應(yīng)用潛力,就近期來看,“IDC 統(tǒng)計(jì)數(shù)據(jù)顯示,人工智能市場(chǎng)規(guī)模在2024 年將達(dá)到470 多億美元”①張彥坤、劉鋒:《全球人工智能發(fā)展動(dòng)態(tài)淺析》,《現(xiàn)代電信科技》2017 年第1 期。。此外,人工智能的應(yīng)用使得勞動(dòng)生產(chǎn)率大幅度提高,這為人類節(jié)省出非常多的“自由時(shí)間”。馬克思認(rèn)為時(shí)間對(duì)人的存在和發(fā)展意義重大,他指出,“時(shí)間實(shí)際上是人的積極存在,它不僅是人的生命的尺度,而且是人的發(fā)展的空間”②《馬克思恩格斯全集》(第 47 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1979 年,第532 頁。。并且強(qiáng)調(diào),“自由時(shí)間”是“從事較高級(jí)活動(dòng)的時(shí)間”,“個(gè)人得到充分發(fā)展的時(shí)間”。③《馬克思恩格斯全集》(第46 卷·下),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1980 年,第225—226 頁。那么什么樣的活動(dòng)是“較高級(jí)活動(dòng)”?人工智能如何使人有大量從事較高級(jí)活動(dòng)的自由時(shí)間,進(jìn)而讓人自身得到充分發(fā)展呢?福克斯(Christian Fuchs)曾經(jīng)按照不同的勞動(dòng)(工作)對(duì)象對(duì)人類所從事的勞動(dòng)進(jìn)行了簡(jiǎn)單的劃分,他認(rèn)為:“農(nóng)業(yè)和采掘勞動(dòng)以自然為對(duì)象,工業(yè)勞動(dòng)以人造自然為對(duì)象,信息勞動(dòng)以思想和人的主體性為對(duì)象?!雹蹻uchs C.,Digital Labour and Karl Marx,New York:Routledge,2014,p.247.很明顯,從目前人類發(fā)展的歷史階段來看,在這三種勞動(dòng)中,“信息勞動(dòng)”可以稱得上高級(jí)勞動(dòng)形式,而人工智能則是信息勞動(dòng)的高級(jí)階段,它是人類對(duì)腦信息、感官信息乃至心理信息、情感信息等進(jìn)行模擬的產(chǎn)物或過程?!氨M管目前的人工智能距離所設(shè)想的超級(jí)人工智能還十分遙遠(yuǎn),其在局部領(lǐng)域展示出的強(qiáng)大能力和應(yīng)用潛力已經(jīng)足夠令人瞠目結(jié)舌。IBM 開發(fā)的Watson 系統(tǒng)與醫(yī)生在提供肺癌、結(jié)腸癌和直腸癌治療建議方面一致性比例分別高達(dá)96%、81%和93%,最近中國本土開發(fā)人工智能神經(jīng)影像系統(tǒng)判別病例的準(zhǔn)確率超過了人類醫(yī)學(xué)專家約20 個(gè)百分點(diǎn)。谷歌和微軟旗下的語音識(shí)別技術(shù)準(zhǔn)確率都已經(jīng)達(dá)到95%左右,接近人耳的極限。微軟提供的智能語音語義分析不僅能夠?qū)τ趩我徽Z言有效識(shí)別,更能夠進(jìn)行分析和轉(zhuǎn)化,自動(dòng)翻譯成世界范圍內(nèi)60 種語言?!雹萦峤ㄍ希骸段磥砘斯ぶ悄艿纳鐣?huì)角色與倫理》,北京:中國發(fā)展研究基金會(huì)、微軟公司,2018 年,第1—37 頁。不難看出,人工智能通過對(duì)人的感官能力、大腦思維等各種復(fù)雜信息處理過程的模擬,使人從復(fù)雜的腦力勞動(dòng)中得以解放,從而使人有更多的時(shí)間來從事更為高級(jí)的腦力勞動(dòng)——?jiǎng)?chuàng)造,而創(chuàng)造力本身就是人類智能最核心的能力,世界著名心理學(xué)家霍華德·加德納(Howard Gardner)曾經(jīng)強(qiáng)調(diào):“智能是一種計(jì)算能力——即處理特定信息的能力,這種能力源自人類生物的和心理的本能。盡管老鼠、鳥類和計(jì)算機(jī)也具有這種能力,但是人類具有的智能,是一種解決問題或創(chuàng)造產(chǎn)品的能力?!雹轠美]霍華德·加德納:《多元智能新視野》,沈致隆譯,北京:中國人民大學(xué)出版社,2008 年,第7 頁。但同時(shí)也要注意,人的創(chuàng)造能力不僅僅局限于智能領(lǐng)域,人作為一種主體性的存在,具有復(fù)雜而綜合的本質(zhì)特性,智能的發(fā)展只是為主體創(chuàng)造能力的提升拓展了空間,這種創(chuàng)造不僅僅是霍華德所說的“創(chuàng)造產(chǎn)品的能力”,而是進(jìn)行自我創(chuàng)造的能力?!岸斯ぶ悄軙r(shí)代的來臨,可能會(huì)更加鼓勵(lì)我們選擇區(qū)別于此兩者的第三種方法,即對(duì)自我的創(chuàng)造。也就是說,不僅僅是‘重估一切價(jià)值’,更是重估一切賴以重估的存在本身。人不僅要突破‘話語關(guān)系’的束縛,還要突破肉體生命的束縛,從而徹底地掌握自己”⑦高奇琦:《人工智能、人的解放與理想社會(huì)的實(shí)現(xiàn)》,《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018 年第1 期。。歸根到底,人的創(chuàng)造活動(dòng)是要最終實(shí)現(xiàn)人的自由,由此反觀之,致力于人的自由的實(shí)現(xiàn)的人的創(chuàng)造活動(dòng)才是真正意義上的“較高級(jí)活動(dòng)”,而人工智能的應(yīng)用和發(fā)展使人的創(chuàng)造活動(dòng)得以深化,進(jìn)而也促進(jìn)了人的自由的實(shí)現(xiàn)和人的充分發(fā)展。正是在這個(gè)意義上,與人的自由緊密相關(guān)的馬克思主義道德學(xué)說的“語境主義”賦予了人工智能倫理全新的研究范式和價(jià)值內(nèi)涵。

      四、結(jié) 語

      盡管科克爾伯格所提出的人工智能倫理范式在盡力避免倫理的抽象化,在論述的過程中也使用了“實(shí)踐”的概念,但他過于夸大主觀作用,他將人機(jī)的互動(dòng)實(shí)踐置于心理感受的體驗(yàn)之上,將人機(jī)互動(dòng)的美好情境置于主觀的道德想象之中。與此不同,馬克思主義道德學(xué)說的“語境主義”將道德的進(jìn)步根植于人類具體的感性的歷史實(shí)踐活動(dòng)之中,從客觀的人類歷史發(fā)展規(guī)律出發(fā),消除了主觀的倫理道德臆想。因此,新的人工智能倫理范式的出發(fā)點(diǎn)不再是人機(jī)互動(dòng)的心理體驗(yàn),而是唯物史觀視野中的人的自由的實(shí)現(xiàn);新的人工智能倫理范式的道德推動(dòng)力也不再是人機(jī)互動(dòng)的道德想象,而是具體而現(xiàn)實(shí)的人類實(shí)踐。同時(shí)不可否認(rèn),科克爾伯格的“人類善的倫理”為人工智能倫理探索了美德倫理進(jìn)路,使得人們能更加關(guān)注人工智能與“美好生活”的緊密關(guān)系。然而,對(duì)于有無限發(fā)展可能的人而言,真正的“美好生活”不是止于人和機(jī)器之間和諧、動(dòng)人的情境,而是人的本質(zhì)、人的自由的實(shí)現(xiàn)。正如胡爾卡(Thomas Hurka)所言:“這一道德理論始于對(duì)人類美好生活或真正的理想生活的描述。它以獨(dú)特的方式描繪了這種生活。某些構(gòu)成人的本質(zhì)或者是人最根本的特性使人成為人自身。美好生活使這些特性發(fā)展到一個(gè)新的高度或者體現(xiàn)著人的本質(zhì)的核心。不同版本的(道德)理論可能對(duì)相關(guān)特性是什么有不同意見,因此對(duì)美好生活的內(nèi)容持不同意見。但他們有著共同的基本觀點(diǎn),即人的本質(zhì)的實(shí)現(xiàn)過程是善?!雹貶urka T.,Perfectionism,New York:Oxford University Press,1993,p.16.可以看出,基于馬克思主義道德學(xué)說的“語境主義”的人工智能倫理的另一理論優(yōu)勢(shì)就是將人的根本目的——人的本質(zhì)、人的自由的實(shí)現(xiàn)——看作是倫理道德的最終歸宿,同時(shí)賦予了“美好生活”最深刻的價(jià)值內(nèi)涵。

      猜你喜歡
      克爾伯格范式
      我的爸爸叫焦尼
      以寫促讀:構(gòu)建群文閱讀教學(xué)范式
      甘肅教育(2021年10期)2021-11-02 06:14:08
      范式空白:《莫失莫忘》的否定之維
      孫惠芬鄉(xiāng)土寫作批評(píng)的六個(gè)范式
      深受喜愛的作家、《老虎來喝下午茶》的作者朱迪絲·克爾逝世,享年95歲
      英語文摘(2019年9期)2019-11-26 00:56:30
      “我”來了
      管窺西方“詩辯”發(fā)展史的四次范式轉(zhuǎn)換
      扎克伯格寫給初生女兒的信
      基于普克爾效應(yīng)的雙晶體互易型光學(xué)電壓傳感器
      該怎樣向扎克伯格學(xué)習(xí)——讀《像扎克伯格一樣思考》
      法人(2014年5期)2014-02-27 10:45:04
      招远市| 乌恰县| 临桂县| 鄂伦春自治旗| 徐水县| 夏津县| 宣恩县| 阿城市| 利川市| 崇阳县| 蓬莱市| 南雄市| 集贤县| 信丰县| 天门市| 黄大仙区| 渭源县| 赫章县| 溆浦县| 广河县| 盐源县| 蕲春县| 如东县| 铁力市| 阿拉善盟| 柳江县| 墨竹工卡县| 台湾省| 潼南县| 涞源县| 普兰县| 宜昌市| 卓尼县| 南平市| 隆尧县| 盐池县| 丽水市| 清水县| 乌什县| 肃宁县| 久治县|