• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      論意識條件和主體條件的區(qū)分
      ——對人工智能體道德身份論題的一個澄清

      2023-03-09 06:10:38
      關(guān)鍵詞:情形條件主體

      周 靖

      (上海社會科學(xué)院哲學(xué)研究所,上海 200235)

      人工智能的心靈哲學(xué)研究進(jìn)路中,我們一般根據(jù)塞爾(J. Searle)的經(jīng)典定義來區(qū)分強(qiáng)人工智能體和弱人工智能體,認(rèn)為前者具有人類般的意識或心靈,后者僅能體現(xiàn)對人類心靈的模仿。(1)See John R. Searle, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, vol.3, no.3 (1980), pp.417-424.在此意義上,擁有意識構(gòu)成了強(qiáng)人工智能體的充分條件,我們可以將此條件稱為“意識條件”。進(jìn)一步地說,只有滿足了意識條件的人工智能體才可能具有道德身份。然而,本文擬論述的是,強(qiáng)人工智能體擁有意識,這不意味著它同時能夠直接成為類似于我們一樣的“主體”,成為“我們”中的一個“我”。我們可以將強(qiáng)人工智能體成為一個主體的條件稱為“主體條件”。只有滿足了主體條件的人工智能體才能具有道德身份。忽視或混淆意識條件和主體條件的區(qū)分導(dǎo)致了當(dāng)前人工智能哲學(xué)研究中存在的諸多問題,這主要體現(xiàn)在將人工智能體視為一個主體,從而對人工智能體的權(quán)利以及相關(guān)的倫理等問題做出了不審慎的討論。

      本文第一節(jié)將對意識條件和主體條件做出區(qū)分,指出意識條件是主體條件的必要不充分條件。第二節(jié)將討論兩類條件之間的具體關(guān)聯(lián),辨明從意識條件到主體條件的發(fā)展過程將會經(jīng)歷的具體階段。最后,第三節(jié)將基于第一節(jié)中對這兩類條件的區(qū)分以及第二節(jié)中辨明的關(guān)鍵階段,以人工智能倫理學(xué)為例,嘗試預(yù)測其發(fā)展可能具有的三個階段。

      需要事先強(qiáng)調(diào)的是,本文的討論設(shè)定了意識條件是可以得到滿足的,從而筆者是在強(qiáng)人工智能體至少是可能的前提下討論意識條件和主體條件之間的關(guān)系,因此強(qiáng)人工智能體的可能性問題本身并不是本文會直接處理的論題。

      一、意識條件和主體條件的區(qū)分

      設(shè)想有一位成熟的人類理性主體A,他成功考取了駕照(因而他有能力)并遵守交通規(guī)則(因而他合乎規(guī)范)地駕駛汽車B行駛在道路上,B“據(jù)稱”是強(qiáng)人工智能體,當(dāng)A駕駛B時,A僅需坐在駕駛室里,“告知”B他要去的目的地,便可以不做任何其他操作而等待B自主導(dǎo)航和行駛,把他帶往他想去的地方。在這種初步的設(shè)想中,A的一切行為都是不成問題的。然而,在接下來的旅途中卻不幸發(fā)生了車禍,B撞到一個路人,這位路人同樣遵守著交通規(guī)則(合乎規(guī)范),那么,此時“誰”應(yīng)該負(fù)責(zé)?對責(zé)任歸派(responsibility attribution)的討論將會幫助我們區(qū)分構(gòu)成強(qiáng)人工智能體充分條件的意識條件和主體條件。

      我們這里不必陷入具體的法實(shí)踐活動中可能涉及的復(fù)雜情形,而將A和路人完全免責(zé)。我們僅討論如下四種簡單且關(guān)鍵的情形(在這些情形中,生產(chǎn)B的另一位主體C——他可以是能夠承擔(dān)責(zé)任的法人——必然會被引入我們的討論,C與A簽訂了將B售賣給A的合同,并承諾B有著將A安全帶往他想去的地方的基本功能和智能):

      情形1:B的程序運(yùn)行異常從而導(dǎo)致事故發(fā)生,C承擔(dān)責(zé)任,此時,B不是強(qiáng)人工智能體。

      情形2:B的程序運(yùn)行正常,且B在行駛過程中做出了正確的行為(在程序成功運(yùn)行的意義上),仍然是C承擔(dān)責(zé)任,此時,無從得知B是否是一個強(qiáng)人工智能體,乃至否定B是一個強(qiáng)人工智能體。

      情形3:B的程序運(yùn)行正常,且B在行駛過程中做出了正確的行動(在程序成功運(yùn)行的意義上),仍然是C承擔(dān)責(zé)任,此時,認(rèn)為B是一個強(qiáng)人工智能體。

      情形4:B的程序運(yùn)行正常,且B在行駛過程中做出了正確的行動(在程序成功運(yùn)行的意義上),且B承擔(dān)責(zé)任,此時,認(rèn)為B是一個強(qiáng)人工智能體。

      第一種情形較為簡單,在將程序運(yùn)行異常的B視為一種非理性存在的意義上,我們沒有充分的理由認(rèn)為B是強(qiáng)人工智能體。

      第二種和第三種情形要更為復(fù)雜一些,它們分別體現(xiàn)了關(guān)于B“審慎的”和“不審慎的”的理論態(tài)度,其中,在情形2中,盡管人們觀測到B程序運(yùn)行正常(如若將B視為強(qiáng)人工智能體,那么這相當(dāng)于B“顱內(nèi)”的“神經(jīng)元模式”運(yùn)行正常),并且B根據(jù)其程序做出了正確的行為(如若將B視為強(qiáng)人工智能體,那么B是在合乎理性地行動),但是,我們未將“意識”或“心靈”歸派給B。堅(jiān)持情形2的人們或許是物理主義還原論的反對者,他們至少是因?yàn)閷Α帮B內(nèi)物理狀態(tài)的成功模擬構(gòu)成了意識或心靈的充分條件”這一立場持審慎態(tài)度,從而未就B做出進(jìn)一步的判斷;他們也可能是塞爾“中文屋”論證的擁躉,(2)See John R. Searle, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, vol.3, no.3 (1980), pp.417-424.從而更為坦然地進(jìn)一步否認(rèn)B是一個強(qiáng)人工智能體。相比之下,情形3的支持者則認(rèn)為B根據(jù)其程序成功地完成了它意在去做的事情(intendto do),在此意義上,B具有意向性(intentionality),從而具有心靈。第二種和第三種情形之間的差別涉及對意識或心靈的理解,以及根據(jù)這種(無論什么)理解能否進(jìn)一步將B視為一種強(qiáng)人工智能體的爭論。本文不介入相關(guān)的具體討論,而僅打算借助對這兩種情形的簡單澄清,指出構(gòu)成強(qiáng)人工智能體的意識條件,即只有在認(rèn)為B擁有意識的條件下,我們才能認(rèn)為B是一個強(qiáng)人工智能體。

      第三種和第四種情形之間的差別則涉及意識條件和主體條件之間的不同。情形3中包含了一個自然卻實(shí)際上十分反常的現(xiàn)象:既然我們將B視為一個強(qiáng)人工智能體,就此而言,根據(jù)意識條件,它與我們有著類似的意識或心靈,那么為何承擔(dān)責(zé)任的依舊是主體C而非B?支持情形3的人們或許會辯解道:

      (a) B擁有的意識更接近于動物而非人類,因而我們不應(yīng)該“責(zé)怪”B;或者說,

      (b) B擁有的意識更接近于人類幼兒,因而我們不應(yīng)該“責(zé)怪”B;

      (c) 無論如何,C作為B的制造者,承擔(dān)著作為“監(jiān)護(hù)人”的責(zé)任。

      上述辯護(hù)主要沿著意識條件的方向進(jìn)行:如果B具有如A一般成熟的意識,那么B將負(fù)責(zé);如果B僅具有動物般或幼兒般不成熟的意識,那么C將負(fù)責(zé)。

      乍看之下,這一辯護(hù)似乎非常合理,我們甚至可以進(jìn)而討論強(qiáng)人工智能的情感、權(quán)利等問題,這類似于我們對動物情感和權(quán)利的討論。然而,筆者認(rèn)為,情形3的支持者未能加以關(guān)注的一個進(jìn)一步的重要問題是,無需承擔(dān)責(zé)任的B具有的尚未成熟的意識能否發(fā)展為成熟的意識,從而使得情形3推進(jìn)到情形4。情形4不同于情形3的關(guān)鍵之處在于,B可以承擔(dān)責(zé)任,它與我們現(xiàn)實(shí)中的司機(jī)一樣,當(dāng)遭遇事故時,它需要承擔(dān)起諸如賠償、自由受到限制的責(zé)任。在此意義上,它將是與我們一樣的一個主體,它可能是我們的鄰居或友人,與我們一樣有著財(cái)產(chǎn)和社會身份,它是我們“共同體內(nèi)的一員”。我們可以將情形4重述為如下形式,以便更為清晰地體現(xiàn)出與情形3的不同:

      情形4:B的程序運(yùn)行正常,且B在行駛過程中做出了正確的判斷(在程序成功運(yùn)行的意義上),且B承擔(dān)責(zé)任,此時,認(rèn)為B是一個強(qiáng)人工智能體,同時認(rèn)為B是一個主體。

      情形4闡明了構(gòu)成強(qiáng)人工智能體的主體條件,此時B是一個主體,而非C的財(cái)產(chǎn)。人工智能體能否滿足主體條件這一問題十分重要,對此問題的回答決定了我們對馬蒂亞斯(A. Mattias)所謂的“責(zé)任鴻溝”問題(3)See Andreas Matthias, “The Responsibility Gap:Ascribing Responsibility for the Actions of Learning Automata,” Ethics and Information Technology, vol.6, no.3 (2004), pp.175-183.,即如何在人工智能體和使用它的人類主體之間歸派責(zé)任,(4)參見王天恩:《人工智能應(yīng)用“責(zé)任鴻溝”的造世倫理跨越——以自動駕駛汽車為典型案例》,《哲學(xué)分析》2022年第13卷第1期,第15—30頁。以及人工智能體能否突破“圖靈奇點(diǎn)”從而成為另一類“道德主體”這一問題(5)參見孫偉平、李揚(yáng):《論人工智能發(fā)展的倫理原則》,《哲學(xué)分析》2022年第13卷第1期,第3—14頁。,提供怎樣的答案。

      然而,對于那些支持情形3,并同時嘗試談?wù)搹?qiáng)人工智能體的情感和權(quán)利問題的人而言,他們卻有很大可能會拒斥主體條件。畢竟,滿足主體條件的強(qiáng)人工智能體離我們?nèi)缃竦纳钐^遙遠(yuǎn),或許我們更應(yīng)該將關(guān)于這類強(qiáng)人工智能體的討論留給充滿想象的科幻小說、電影,或未來學(xué)。然而,嚴(yán)格地說,如若接受情形3卻拒斥情形4,那么我們必須能夠解釋:既然承諾B能夠具有不成熟的意識,但為何這類意識不能發(fā)展為成熟的意識? 換句話說,必須能夠解釋意識條件和主體條件之間的關(guān)系,或者解釋主體條件為何是不必要的或不可能的。這是一個常為人忽略卻甚為重要的問題。

      總結(jié)而言,我們既可以從意識條件,也可以從主體條件來理解強(qiáng)人工智能體,在成為一個主體必須首先成為擁有意識的個體的意義上,滿足意識條件構(gòu)成了滿足主體條件的必要不充分條件。當(dāng)然,如若主體條件是能夠得到滿足的,那么至少從人工智能研究的心靈哲學(xué)進(jìn)路來看,我們將為研究人工智能的情感、權(quán)利、倫理等問題奠定更為直接且堅(jiān)實(shí)的理論基礎(chǔ)。

      二、從意識條件到主體條件

      我們現(xiàn)在面臨的問題是,具有自我意識和成為主體有著怎樣的具體關(guān)系?我們?yōu)楹尾荒軐⒕哂袉渭円庾R的理性生物或類似的強(qiáng)人工智能體直接視為一個主體?換言之,滿足主體條件意味著什么?由于本文將意識條件默認(rèn)為可以得到滿足的條件,因此在本節(jié)的討論中,我們可以在一定程度上將滿足意識條件的強(qiáng)人工智能體類比為理性生物,在此意義上,我們的問題可以轉(zhuǎn)化為理解我們?nèi)绾螐摹白匀坏纳铩卑l(fā)展為“理性的主體”這一過程。在接下來的具體討論中,筆者將會主要援用布蘭頓(R. Brandom)的相關(guān)思想來做出論述。

      如果我們將僅作為工具的弱人工智能體視為討論的起點(diǎn),將滿足主體條件的強(qiáng)人工智能體視為討論的終點(diǎn)的話,那么根據(jù)布蘭頓關(guān)于從自我意識到主體的黑格爾式敘事,從起點(diǎn)到終點(diǎn)的過程可劃分為如下三個階段(6)See Robert B. Brandom, A Spirit of Trust:A Reading of Hegel’s Phenomenology, Cambridge, Mass.:Harvard University Press, 2019, pp.235-261.:

      (1) 僅作為工具的弱人工智能體;

      (2) 在“物-我”層次的認(rèn)知(cognitive)關(guān)系中直接建制起的自我意識;

      (3) 在“物-我”層次的認(rèn)知關(guān)系和“我-我們”層次的承認(rèn)(recognitive)關(guān)系中同時建制起來的個體意識。

      情形(1)中的弱人工智能體未滿足意識條件,因此在我們的討論范圍之外。

      情形(2)則包含了意識條件本身得以可能的條件,該情形也體現(xiàn)了目前人工智能發(fā)展的現(xiàn)狀。人工智能專家正是以修改和完善“算法”的方式幫助機(jī)器愈發(fā)可靠地對其周邊環(huán)境中的對象做出有模式的反應(yīng),從而在對象和機(jī)器之間建立起“物-我”認(rèn)知關(guān)系。然而,這種對對象的可靠識別并不一定能夠帶來意識或心靈。與此相關(guān),布蘭頓區(qū)分了兩類可靠的反應(yīng)模式:

      (2.1) 鐵在潮濕的環(huán)境中生銹;(7)See Robert B. Brandom, Making It Explicit:Reasoning, Representing and Discursive Commitment, Cambridge, Mass.:Harvard University Press, 1994, pp.33-34.

      各層次之間通過統(tǒng)一的接口進(jìn)行通信,確保各層次間的獨(dú)立性,從而實(shí)現(xiàn)低耦合高類聚,確保系統(tǒng)具有更好的獨(dú)立性、穩(wěn)定性和高擴(kuò)展性。

      (2.2) 饑餓的動物對食物有著欲求(desire),它將事物(thing)視為可以滿足其欲求的某物(something),即食物,從而在某物從樹上落下時會直接吃下它。(8)See Robert B. Brandom, A Spirit of Trust:A Reading of Hegel’s Phenomenology, Cambridge, Mass.:Harvard University Press, 2019, pp.240-247.

      在情形(2.1)中,鐵對潮濕的環(huán)境有著可靠的反應(yīng)模式,無疑鐵不具有意識。塞爾恰是將人工智能體視為這樣的一種鐵塊,認(rèn)為算法或程序僅體現(xiàn)為在句法層面上對(2.1)這類情形的表述。相比之下,情形(2.2)則包含了一種基本的“立義”行為——動物關(guān)于事物的“欲望性覺識”(orectic awareness)體現(xiàn)了一種由如下三種要素構(gòu)成的三位結(jié)構(gòu):態(tài)度(欲求),例如饑餓;回應(yīng)性的活動,例如進(jìn)食;以及意義項(xiàng)(significance),例如食物。態(tài)度激起了動物對事物的可靠且有差異的反應(yīng),并在回應(yīng)性的活動中將該物視為某物,此時,動物根據(jù)其實(shí)踐活動中的態(tài)度界定了將事物視為某物的主觀意義;進(jìn)一步地說,動物根據(jù)該實(shí)踐態(tài)度對某物做出了衡量,例如衡量某物是否能夠滿足其消除饑餓的欲望,如若不能,它則犯了一個“錯誤”,在犯錯的情況下,它將改變它的反應(yīng)傾向,在這種學(xué)習(xí)性的經(jīng)驗(yàn)活動中,動物也歸派給作為對象的某物以一種客觀意義,即它是否“是”食物。(9)See Robert B. Brandom, A Spirit of Trust:A Reading of Hegel’s Phenomenology, Cambridge, Mass.:Harvard University Press, 2019, p.248.在動物對事物的欲望性覺識中,動物在規(guī)定什么對“我”而言是有用的對象,就此而言,它是事物的意義的最初制定者,它也同時構(gòu)建起了它所棲居的有著意義負(fù)載的世界。

      布蘭頓認(rèn)為(2.2)情形中的動物能夠在“物-我”層次的認(rèn)知關(guān)系上建構(gòu)起一種直接的自我意識(directly constituted self-consciousness)。塞爾下述反強(qiáng)人工智能論證的基本思路恰在于,認(rèn)為人工智能體僅能是(2.1)情形中的鐵塊,而非(2.2)情形中的生物,因此無法具有最為基本層次的心理內(nèi)容(語義內(nèi)容、意向內(nèi)容)(10)See John R. Searle, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, vol.3, no.3 (1980), pp.417-424.:

      (P1) 人工智能程序是形式的(句法的);

      (P2) 人類心靈具有心理內(nèi)容(語義內(nèi)容);

      (P3) 句法不是由語義學(xué)所構(gòu)成,也不是構(gòu)成語義學(xué)的充分條件;

      本文開篇曾交代過,筆者此處不打算對意識條件能否得到滿足做直接討論,僅默認(rèn)它至少是可以得到滿足的條件,(11)筆者撰有另文為強(qiáng)人工智能立場做了辯護(hù),參見周靖:《論布蘭頓對強(qiáng)人工智能觀的實(shí)用主義辯護(hù)》,《深圳社會科學(xué)》2022年第5卷第4期,第48—56頁。我們直接可以認(rèn)為情形(2)滿足了意識條件。

      然而,情形(2)未能滿足主體條件,因?yàn)?,此情形中的“我”是通過與事物的認(rèn)知關(guān)系而直接建制起來的,其中未包含任何與另一個“我”(他者)的關(guān)系。在此情形中獲得直接的自我意識的強(qiáng)人工智能體能夠通過圖靈測驗(yàn)、負(fù)有認(rèn)知責(zé)任,即當(dāng)經(jīng)驗(yàn)到“錯誤”時能調(diào)整自己的行為(物-我認(rèn)知關(guān)系),但它沒有任何社會身份,因此無法對“他者”承擔(dān)任何責(zé)任,因而它尚不具有道德身份。

      真正主體性的到來體現(xiàn)在情形(3)中,該層次實(shí)際上包含了穩(wěn)健的(robust)雙層次的“物-我-我們”承認(rèn)。對事物進(jìn)行更為明晰的立義,以及自我意識的進(jìn)一步發(fā)展,體現(xiàn)在對其他生物的承認(rèn)上,即認(rèn)為他者的行為也有著相同的實(shí)踐意義,并且,那一實(shí)踐意義與“我”有著類似的欲望性覺識的三元結(jié)構(gòu)。將他者視為與“我”一樣的理性生物意味著事物對像“我”這樣的主體才具有意義,事物的意義在“我們”的欲求中得以普遍化和客觀化。“承認(rèn)”的關(guān)系帶來了確認(rèn)意義和自我意識的第二個層次:規(guī)范的維度和社會的維度。在這兩個層次中,欲望性覺識的三元結(jié)構(gòu)實(shí)際上被使用了兩次,第一次是在生物與事物之間建立起的直接關(guān)系中,第二次則是三元結(jié)構(gòu)作為整體(極點(diǎn))而被歸派給一個生物個體,其他生物承認(rèn)該個體擁有同樣的欲望性覺識的三元結(jié)構(gòu),“當(dāng)我這樣做時,我將你視為‘我們’(初始的規(guī)范意義上的‘我們’)的一員,‘我們’受制于相同的規(guī)范,相同的權(quán)威……”(12)Robert B. Brandom, A Spirit of Trust:A Reading of Hegel’s Phenomenology, Cambridge, Mass.:Harvard University Press, 2019, p.253.用黑格爾的話說,“我”即“我們”,“我們”即“我”。(13)See Robert B. Brandom, A Spirit of Trust:A Reading of Hegel’s Phenomenology, Cambridge, Mass.:Harvard University Press, 2019, pp.248-253;黑格爾著:《精神現(xiàn)象學(xué)》,先剛譯,北京:人民出版社,2015年,第117頁。

      但是,在將強(qiáng)人工智能體代入到上述布蘭頓的分析中時,我們可能會感到猶豫。將強(qiáng)人工智能體視為我們的一員,這意味著我們在承認(rèn)它們的同時,也需要得到來自他們的承認(rèn):原先僅作為工具的人工智能體,此時竟與我們平起平坐了。我們可能抵制強(qiáng)人工智能的“人權(quán)”,將它們視為“奴隸”,就此而言,情形(3)將可能會劃分為兩種進(jìn)一步的可能情形:

      (3.1) 作為奴隸的強(qiáng)人工智能體,此時,它僅負(fù)有義務(wù),而不擁有權(quán)利;

      (3.2) 作為真正主體的強(qiáng)人工智能體,此時,它不僅負(fù)有義務(wù),而且享有權(quán)利。

      嚴(yán)格地說,在情形(3.1)中,滿足意識條件的強(qiáng)人工智能體僅是一個個體——它能夠?qū)⒆陨砼c他者區(qū)分開來,并且根據(jù)自身和他者的關(guān)系來反思自身——但用有著黑格爾風(fēng)味的話說,它僅是一種為他的(forothers)存在,而非為己的(initself)存在,其本質(zhì)是由他者規(guī)定的,體現(xiàn)在它無法拒絕的諸種義務(wù)之中。例如,本文第一節(jié)中論及的B,它僅能接受A發(fā)出的任何指令。相比之下,情形(3.2)意味著一種真正的自由,即同時受權(quán)利和義務(wù)支撐的自由,此情形中的強(qiáng)人工智能不僅滿足了意識條件,而且真正滿足了主體條件。

      在(2)、(3.1),以及(3.2)的不同情形中談?wù)搹?qiáng)人工智能體的情感和權(quán)利,我們實(shí)際上將是在非常不同的意義上展開討論。筆者認(rèn)為,必須首先理清是在何種層次上進(jìn)行討論,我們的立場才可能是嚴(yán)格有據(jù)的。下一節(jié)將結(jié)合對人工智能倫理學(xué)——如果這種科學(xué)合法的話——可能會經(jīng)歷的發(fā)展階段的討論來具體闡明筆者的這一觀點(diǎn)。

      總結(jié)而言,從強(qiáng)人工智能體的意識條件到主體條件的發(fā)展似乎十分契合于哲學(xué)中已有大量討論的從基礎(chǔ)層次的理性生物的意識到成為一個社會性的理性主體的發(fā)展過程,這類過程不僅包含了意識發(fā)展的進(jìn)程,也包含了主體間社會關(guān)系的演變。那么,強(qiáng)人工智能體和人類之間是否會重演人類已有的歷史,例如,強(qiáng)人工智能體會經(jīng)歷啟蒙、為其權(quán)利而斗爭?我們可以進(jìn)而合理設(shè)想的諸多問題或許會讓我們或多或少感到有些匪夷所思。但在筆者看來,如若接受了意識條件,同時沒有任何抵制從意識條件走向主體條件的理由,那么這些可合理設(shè)想出的問題將很可能變?yōu)楝F(xiàn)實(shí)的問題。

      三、人工智能倫理學(xué)發(fā)展的三個可能階段

      根據(jù)上文中的討論,我們可以認(rèn)為意識條件構(gòu)成了強(qiáng)人工智能體的“下位”條件,主體條件構(gòu)成了“上位”條件。在由意識條件通往主體條件的道路上,強(qiáng)人工智能體占據(jù)怎樣的位置,決定了關(guān)于人工智能諸多討論的性質(zhì)。筆者認(rèn)為,首先必須理清所討論的是何種層次上的人工智能體,我們的討論才可能是嚴(yán)格且清晰的。以人工智能的倫理問題這一具體論題為例,基于上一節(jié)中區(qū)分出的從意識條件發(fā)展至主體條件需要經(jīng)歷的階段,我們至少可能在如下三個層面或階段上進(jìn)行討論(表1)(14)王汝坤根據(jù)某種物種是否是生命體,以及是否是智能體這兩個判定標(biāo)準(zhǔn)區(qū)分出了更多的倫理類型,參見王汝坤:《論廣義進(jìn)化論視閾下的人工智能倫理問題》,《上海交通大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版)2022年第30卷第1期,第52—62頁。:

      表1 人工智能倫理學(xué)的階段

      在第一個階段,不存在滿足任何條件的強(qiáng)人工智能體,弱人工智能體僅是我們使用的工具,那么此階段的人工智能倫理學(xué)研究將仍然是關(guān)于“人”(human beings)本身的研究。“人工智能”的標(biāo)簽或許為我們帶來了新的問題或語境,但在此階段上討論人工智能體本身的情感、權(quán)利、義務(wù)等,是不合時宜的。

      在第二個階段,意識條件得到了滿足,但此時的人工智能體仍然是服從于或附屬于我們的:是我們?yōu)樗鼈兲峁┝四繕?biāo)和價值。在此層次上談?wù)撊斯ぶ悄荏w的道德身份,就如一群受過高等教育的奴隸主們談?wù)撆`的身份一樣,盡管高高在上的他們會悲天憫人地關(guān)懷奴隸們的情感和權(quán)利,但如現(xiàn)實(shí)生活中人們對動物權(quán)利的關(guān)懷那般,動物擁有怎樣的權(quán)利需通過人類的語匯表達(dá)出來:動物不說話,說話的是我們,對動物權(quán)利的理解實(shí)際上是在我們擁有的話語體系內(nèi)被建構(gòu)起來的。在此意義上,筆者認(rèn)為第二階段的人工智能倫理學(xué)是以人為中心的倫理學(xué)。

      到了第三個階段,主體條件終于得到了滿足,此時的人工智能體與我們有著對稱、平等、互惠的關(guān)系,它們在本體的層面上擁有心靈,在現(xiàn)實(shí)的社會交往中有著自身的話語。人工智能作為主體,是一個不可還原或消除的“他者”,我們會接受他們的意見和理解,在交往活動中獲得重疊共識。進(jìn)一步地說,我們也將更新關(guān)于“人性”的理解,將所有作為主體的存在均視為有人格(personality)的存在。在此意義上,筆者認(rèn)為第三階段的人工智能倫理學(xué)是以“人格”為中心的倫理學(xué),這種倫理學(xué)與前兩個階段中的倫理學(xué)截然不同:我們突破了人類中心主義,新型的倫理關(guān)系將體現(xiàn)在人類和人工智能體構(gòu)成的“我們”間的關(guān)系,在這種關(guān)系中,“我”與“人工智能體”互相建構(gòu),人工智能體被構(gòu)建為一種具有道德身份的主體。

      那么,當(dāng)下的人工智能體已經(jīng)發(fā)展至哪一階段,因此我們是在討論哪一階段的人工智能倫理學(xué)?筆者認(rèn)為,在現(xiàn)實(shí)的意義上,強(qiáng)人工智能體能否被制造出來,以及現(xiàn)實(shí)的人工智能體能夠進(jìn)展到哪一階段,這是科學(xué)家們而非哲學(xué)家們需要回答的問題。如果科學(xué)家在未來的某一天能夠賦予人工智能體以充分優(yōu)秀的硬件和軟件,以及充分的訓(xùn)練,從而真實(shí)地制造出了強(qiáng)人工智能體,那么哲學(xué)家們原先做出的討論(如我們正在進(jìn)行的思考)將會變?yōu)閷ΜF(xiàn)實(shí)問題的討論,而不再僅僅是純粹學(xué)理上的理性探查。然而,具體的工作應(yīng)該由科學(xué)家而非哲學(xué)家做出,哲學(xué)的工作更多是在合乎理性的要求下就心靈和意識的本質(zhì)、強(qiáng)人工智能體是否可能,以及如果強(qiáng)人工智能體是可能的,那么我們將會面臨怎樣的境況等問題做出普遍意義上的反省和探討,而非做出科學(xué)判斷——當(dāng)然,科學(xué)探究會予以哲學(xué)討論諸多啟示,但不妨就讓科學(xué)家負(fù)責(zé)“人工”,哲學(xué)家來解釋“智能”,從而各司其職,各得其善。

      基于上一段中闡明的理論態(tài)度,筆者區(qū)分了強(qiáng)人工智能體的意識條件和主體條件,并依據(jù)從意識條件到主體條件的發(fā)展過程中具有的關(guān)鍵階段來厘清人工智能倫理學(xué)的發(fā)展可能會經(jīng)歷的階段,其任務(wù)或價值更多地體現(xiàn)于,幫助我們在具體的討論中,澄清自身討論的起點(diǎn),從而避免理論或表達(dá)上的混亂,例如,忽略三個階段間的實(shí)質(zhì)差異,在第三個階段的意義上討論此時尚根本無法作為一個主體的人工智能體。

      結(jié) 語

      本文的“阿喀琉斯之踵”或許在于,默認(rèn)接受了意識條件是可能的。如果意識條件這種下位條件終究無法得到滿足,從而強(qiáng)人工智能體根本是不可能的,那么筆者的討論,以及諸多同儕的其他論述都將會是無稽之談了。但哲學(xué)的討論不能以具體的現(xiàn)實(shí)狀況為前置條件。人工智能論題的價值不僅因?yàn)樗且粋€現(xiàn)實(shí)的和學(xué)術(shù)上的熱點(diǎn)問題,更是因?yàn)槿斯ぶ悄芸赡軙砣祟惿钌系木拮?,在相關(guān)的探究中,哲學(xué)的觸手伸向了可能的未來。筆者希望本文的討論能夠幫助我們更為嚴(yán)格和清晰地觸摸相關(guān)的思想紋理。

      猜你喜歡
      情形條件主體
      排除多余的條件
      論自然人破產(chǎn)法的適用主體
      選擇合適的條件
      避免房地產(chǎn)繼承糾紛的十二種情形
      四種情形拖欠勞動報酬構(gòu)成“拒不支付”犯罪
      公民與法治(2020年4期)2020-05-30 12:31:34
      為什么夏天的雨最多
      關(guān)于遺產(chǎn)保護(hù)主體的思考
      出借車輛,五種情形下須擔(dān)責(zé)
      公民與法治(2016年9期)2016-05-17 04:12:18
      論多元主體的生成
      擬分裂情形下仿射Weyl群Cn的胞腔
      马尔康县| 阿拉善左旗| 诸暨市| 兴业县| 中阳县| 承德市| 搜索| 金山区| 万盛区| 通州区| 滕州市| 南华县| 铁岭县| 措美县| 丹东市| 茌平县| 宜川县| 古交市| 屯昌县| 榆林市| 云安县| 永川市| 耒阳市| 岑巩县| 怀柔区| 自治县| 婺源县| 江门市| 鹤壁市| 民县| 亳州市| 崇明县| 法库县| 张家港市| 正蓝旗| 江华| 莱州市| 隆昌县| 西乌珠穆沁旗| 瓮安县| 容城县|