• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      弱道德人工智能可行嗎*——從精神醫(yī)學(xué)用途到道德增強

      2020-02-16 23:31:03
      醫(yī)學(xué)與哲學(xué) 2020年13期
      關(guān)鍵詞:蘇格拉底助手動機

      尹 潔

      1 神經(jīng)科學(xué)與人工智能技術(shù)的交叉應(yīng)用

      一直以來,神經(jīng)倫理和人工智能倫理關(guān)注的熱點問題并不重合,前者更為關(guān)注諸如藥物增強、大腦干預(yù)、神經(jīng)成像等引發(fā)的倫理問題,而后者的問題則更集中在討論諸如機器人權(quán)利、算法的透明性、人工智能系統(tǒng)中的偏見等。但一直以來,人工智能的歷史不可避免地與神經(jīng)科學(xué)的歷史糾纏在一起,當(dāng)代人工智能的術(shù)語更是從神經(jīng)科學(xué)和心理學(xué)借鑒良多,比如人工神經(jīng)網(wǎng)絡(luò)(artificial neural networks,ANN)[1]和深度神經(jīng)網(wǎng)絡(luò)(deep neural networks,DNN)[2]等。不僅如此,當(dāng)代技術(shù)發(fā)展引發(fā)的諸多倫理問題出現(xiàn)在這兩個領(lǐng)域的交叉之處[3-4],例如,在臨床神經(jīng)科學(xué)中人工智能技術(shù)被使用來提高診斷的精確度;來自臨床的數(shù)據(jù)可借助機器學(xué)習(xí)算法被灌輸給人工智能,由此為精神疾病作出自動化的、更為準(zhǔn)確的診斷;更為重要的是,一些必要的試驗,可借助于人工智能技術(shù)對于大腦機制和過程的模擬,而不再需要使用動物或人類作為受試者,從而避免了一系列相關(guān)的倫理問題。

      經(jīng)由人工智能技術(shù)所達(dá)成的道德增強,正是神經(jīng)科學(xué)和人工智能科學(xué)相關(guān)技術(shù)合并應(yīng)用背景下產(chǎn)生的倫理問題關(guān)涉的核心。當(dāng)前的精神醫(yī)學(xué)中,道德增強的應(yīng)用可被落實到更為具體的領(lǐng)域,即用于改善抑郁癥、焦慮癥、雙相情感障礙甚至精神分裂癥患者的情緒和認(rèn)知。傳統(tǒng)精神醫(yī)學(xué)中基于認(rèn)知行為療法(cognitive behavioral therapy,CBT)的治療成分被整合進(jìn)入人工智能算法的設(shè)計,從而使得特定精神治療用途的聊天機器人(chatbots)得以產(chǎn)生。盡管目前大部分處于商業(yè)運營階段,尚未真正被醫(yī)院或診所等臨床機構(gòu)采用,但有基于實證的研究[5]表明,人工智能技術(shù)在精神醫(yī)學(xué)領(lǐng)域的應(yīng)用前景已初步顯現(xiàn)。近期,由于人們在生活和工作上的壓力增高,聊天機器人Wysa (https://www.wysa.io)的下載量一度激增到200萬次,數(shù)字化和人工智能時代的人們在尋求心理幫助和支持的方式上發(fā)生了重大的變化。相較于道德生物增強的科幻式遠(yuǎn)景而言,精神醫(yī)學(xué)當(dāng)中的這種人工智能應(yīng)用是一種在目前科技條件下較為可行且已具有初步效果的實踐。與本文探討主題相關(guān)的是,這種聊天機器人所完成的恰好是一種弱意義上的道德(信息)增強(moral info-enhancement),而非意圖在改變動機上的、強意義上的道德增強。在承認(rèn)這一精神醫(yī)學(xué)領(lǐng)域的潛在應(yīng)用價值基礎(chǔ)上,本文試圖探索更為一般性意義上的道德(信息)增強,尤其是基于所謂蘇格拉底式助手模型的弱道德人工智能,其自身是否隱含著一個悖論,以及這個悖論是否有消除的可能。

      2 道德生物增強的主要倫理困境:隱私與自主性

      為了更好地審視弱道德人工智能,有必要先回顧什么是一般意義上的道德增強,以及為什么在一種強意義上的道德增強面臨諸多挑戰(zhàn)。道德增強,指的是有意地對于一個人的性格、動機或行為等進(jìn)行道德提升。按照這樣的定義,道德增強不是一個全新的實踐,在日常生活中人們也常常借助于各種方法,諸如道德模范故事的學(xué)習(xí)和領(lǐng)會、有意識的道德反思等來提升道德品質(zhì)或行為。但近年來人們對于這一道德增強的興趣主要源自神經(jīng)科學(xué)與技術(shù)新進(jìn)展帶來的沖擊,科學(xué)技術(shù)的發(fā)展使得大腦狀態(tài)甚至功能的改變逐漸成為可能,從而給基于生物性改變的道德增強提供了新的契機。但究竟在什么意義上這種實踐是可操作的卻不十分明晰,Shook[6]曾寫道:“沒有一個所謂整合的認(rèn)知系統(tǒng)來為道德判斷的形成和實施負(fù)責(zé),因為可分離的因素比起其他而言,本身在某種程度上更多地被用于一些類型的道德判斷?!毖韵轮猓P(guān)于大腦產(chǎn)生道德判斷的機制究竟如何,我們還沒有一個清晰的答案,而一旦我們連這一自身的生理和心理機制都所知甚少,更難以想象的是如何進(jìn)行道德增強。

      不可否認(rèn),當(dāng)今的神經(jīng)科學(xué)和技術(shù)發(fā)展連同人工智能的進(jìn)展,確實為人們的未來生活新圖式打開了一扇大門,但盡管人工智能和大數(shù)據(jù)技術(shù)已然在改變甚至改善人類生活,到目前為止現(xiàn)實中技術(shù)所處的階段離科幻電影中描述的還很遠(yuǎn),即便在新聞報道中一再看到各種[7]試圖通過對于腦神經(jīng)的刺激達(dá)到某些治療目的的研究,但真正的臨床應(yīng)用卻較為罕見。這不僅使得人們質(zhì)疑,究竟關(guān)于新興技術(shù),我們是否存在某種認(rèn)知上的偏差或一種盲目的樂觀自信?換句話說,當(dāng)我們在談?wù)摰赖律镌鰪姷母鞣N論證的時候,似乎多數(shù)是在談?wù)撈浔旧硎欠窨捎?desirability),而不是在說它本身是否可行(feasibility)。談?wù)搼?yīng)該做什么和需要做什么的這一趨勢的形成,主要表現(xiàn)為哲學(xué)家專注于討論規(guī)范性問題,而不是聚焦于科學(xué)性問題。遺憾的是,科學(xué)細(xì)節(jié)尚未揭示出有關(guān)如何在現(xiàn)實中進(jìn)行道德生物增強實踐的有用信息。盡管Wiseman[8]相信未來可能會實現(xiàn)道德增強,但他認(rèn)為現(xiàn)有主流的生物學(xué)和神經(jīng)科學(xué)方法(例如采集血樣或使用功能性磁共振成像等)并不能達(dá)到這個目標(biāo)。他寫道:“目前研究道德功能的大腦-還原方法可能本質(zhì)上無法處理道德功能所涵蓋的一系列復(fù)雜現(xiàn)象……因此,如果道德增強愛好者想在通過藥物或其他手段對道德行為和判斷進(jìn)行神經(jīng)調(diào)節(jié)上展示出一個可信的科學(xué)基礎(chǔ)的話,這一大腦-還原的方法會是相當(dāng)糟糕的一個奠基?!边@意味著為了使得道德增強成為可能,我們在研究人類自身機制的方法論上都很可能還有很長的一段路要走。

      在考察用于認(rèn)知增強的人工智能,尤其是與道德慎思(moral deliberation)相關(guān)的那些增強技術(shù)應(yīng)用的理論與實踐之時,文獻(xiàn)中常見的倫理關(guān)涉大都圍繞著這樣兩個主要的方面:一是對于隱私侵犯的擔(dān)憂,二是對于損害自主性的擔(dān)憂[9]。諸如經(jīng)顱磁刺激(transcranial magnetic stimulation)之類的先進(jìn)神經(jīng)技術(shù)的使用往往導(dǎo)致人們對于隱私侵犯可能性的擔(dān)憂。更多的負(fù)面意見集中在討論道德生物增強對自主性的影響。例如,Harris[10]認(rèn)為,為了增強道德而使用諸如選擇性血清素再吸收抑制劑之類的生物化學(xué)物質(zhì)剝奪了其接受者選擇墮落的自由(the freedom to fall),因而對道德行動主體本身構(gòu)成了一定的威脅。Huang[11]則從不同的角度提出了相同的觀點,聲稱道德生物增強令人反感是因為它破壞了人類的道德行動主體性,通過阻礙作為其基礎(chǔ)的準(zhǔn)確的自我反思和選擇。這些反對理由看似各自從不同的角度出發(fā),但共同點在于否認(rèn)生物醫(yī)學(xué)層面道德增強的可欲求性。

      3 弱道德人工智能:繞過動機的道德增強方式

      如果說道德生物增強的可行性和可欲求性面臨著諸多挑戰(zhàn),那么道德人工智能作為試圖以人工智能方式來達(dá)到增強目的的嘗試,在本來已經(jīng)復(fù)雜的爭議之上就又多增加了一個層次上的困難。在構(gòu)想道德人工智能之時會發(fā)現(xiàn)它本身具有極大的吸引力,但倘若考察其可行性卻找得出更多反對的理由或論證,這一點在下面的論證中可窺見一斑。與生物學(xué)方式進(jìn)路的增強不同的是,道德人工智能至少可在一種弱意義上來達(dá)到增強,即通過推進(jìn)信息增強來間接達(dá)到道德增強的目的,而不是借由生物增強來直接操控或影響道德主體,就信息增強而言,腦科學(xué)、神經(jīng)科學(xué)、醫(yī)學(xué)等領(lǐng)域的革新起到的作用并不如計算機科學(xué)和技術(shù)層面的影響大。所謂弱道德人工智能與以往慣常談?wù)摰牡赖略鰪娛侄蜗啾?,關(guān)鍵差別在于,傳統(tǒng)的道德增強多主張采取生物醫(yī)學(xué)手段的增強,直接作用于道德動機,而弱道德人工智能試圖通過采取信息增強的方式繞過對于動機的直接影響,希望借此回避掉隱私侵犯和自主性損害的倫理隱患。

      Savulescu等[12]提出了一個弱道德人工智能模型,他們認(rèn)為通常那些用于針對道德增強的反駁意見并不適用于此,在他們看來,道德人工智能可以幫助道德行動主體克服其自然的心理和生理局限性,從而不僅不會減少或消解而是會更有助于確證或增強道德行動主體性(moral agency)。人類由于心理和進(jìn)化機制上的局限,會傾向于發(fā)展自身群體內(nèi)部的親和力,這一自然趨勢無法否認(rèn),因此即便道德發(fā)展確實如同我們預(yù)設(shè)的那樣一直在進(jìn)化,也并不會將其應(yīng)用擴展到自身所屬群體之外的人。Persson等[13]則認(rèn)為,由于人類“道德上的束縛”,社會文化層面的干預(yù)并不能成為實現(xiàn)道德進(jìn)步的唯一途徑;生物醫(yī)學(xué)的增強盡管可能不是唯一的途徑,但卻是提高道德的最重要方法之一。盡管Savulescu認(rèn)為人類道德在某種程度上是“硬接連的”(hard-wired),但他也認(rèn)為弱道德人工智能會很有用,即便它只是在道德慎思方面為人們提供了幫助而對動機沒有太大影響。Savulescu所參與的西班牙跨學(xué)科研究項目“人工智能和道德生物增強”持有關(guān)于增強的一個類似的基本構(gòu)想,它的基本假設(shè)是,由于計算機可用于增強數(shù)據(jù)的管理和處理,因此人工智能可用于增強我們的邏輯和慎思能力,基于此種假設(shè),他聲稱該項目旨在探索“用道德信息增強來補充不同方式的道德生物增強之可能性,也就是說,計算機科學(xué)在道德決策中的新穎應(yīng)用”[14]。

      Savulescu等[12]關(guān)于道德人工智能的論點類似于Lara等[15]提出的觀點。他們認(rèn)為,在討論道德增強時,動機不應(yīng)是唯一要考慮的因素。如果我們可以繞過動機并使用所謂的“徹底的增強”(exhaustive enhancement),就可以把所有道德決定留給機器來做。諸如通過將計算機芯片植入大腦并告訴人體遵循指令,或者可以通過設(shè)置好人工智能系統(tǒng)然后讓我們遵循它發(fā)出的指令,或者可以由現(xiàn)實的某個政治系統(tǒng)來強制執(zhí)行那些通過人工智能系統(tǒng)輸出的道德推薦意見。不同之處只是在于那種植入芯片的模型迫使人類根據(jù)人工智能系統(tǒng)的輸出采取行動,但設(shè)置好人工智能系統(tǒng)再由人類執(zhí)行則需要人類的服從。無論哪種模型,都使人成為多余的人,盡管給人們省去了花費在復(fù)雜的道德考量和因可能的錯誤而造成的重復(fù)、冗余和迂回的勞動,并且由于道德判斷全盤“外包化”,動機被繞過,由此也避免了破壞隱私和影響自主性的問題。

      相對于Savulescu這樣較為徹底的方案或預(yù)想而言,Lara等[15]提出了較為“適度”的人工智能助手模型,該機器僅以蘇格拉底式的方式提出問題,也就是使用者與這個蘇格拉底式的道德助手一直處于對話之中,道德助手機器人在對話中可以質(zhì)疑使用者的假設(shè),或澄清使用者表達(dá)出來的概念,或通過提供最佳推理和決策所需的有用信息,或幫助使用者檢驗其論點的連貫性等。一言以蔽之,機器不會為代理做出決定,而只是以對話的形式幫助加強論證本身。以此方式,作為機器人的道德機器并不旨在教導(dǎo)或內(nèi)化任何道德學(xué)說。它不同于那種本身自主的道德機器,后者可以獨立運作而不依賴人類,因此不會有所謂信任上的問題,因為最終仍然是由人為主導(dǎo)而不是機器。事實上,如果我們對計算機是否可以提供可靠的指導(dǎo)來給道德論證提供支持,那么這種擔(dān)心似乎是多余的,因為只要算法在技術(shù)上可行,計算機在完成分配給它的任務(wù)時一般而言比起人都更為可靠。按照這樣的模型,人們通過與道德機器進(jìn)行交互,學(xué)會如何以一種概念化的、能收集和吸納盡量完整真實信息的和合乎邏輯的方式來進(jìn)行自己的思考。換句話說,這像是一個認(rèn)知的“凈化”或“改善”過程。同樣地,在精神醫(yī)學(xué)咨詢和治療中使用的聊天機器人,無論是否以一種模擬人類的方式存在(即無論是否模擬人的口吻、特定人格或是僅僅作為無人格和情感偏好的對話機器),由于僅僅聚焦于信息增強,也就在一種類似的蘇格拉底式助手意義上發(fā)揮作用,只不過精神醫(yī)學(xué)的目的不是為了成就更好的道德判斷或造就道德上更好的人,而只是達(dá)到精神治療的特定目的,比如通過促進(jìn)積極樂觀的情緒和正向的思維方式來促進(jìn)精神健康。

      4 作為蘇格拉底式助手的弱道德人工智能之悖論

      4.1 蘇格拉底式的助手這一模型可行嗎

      Lara等[15]認(rèn)為其蘇格拉底式助手模型比傳統(tǒng)意義上必須通過動機起作用的增強要具有不少優(yōu)勢,最重要的原因是自主性和隱私的問題可以被很好地避免。不僅如此,由于不需要在人腦或體內(nèi)植入計算機芯片或設(shè)備,它也會更安全。它還給道德行動主體做出最后的道德判斷留下了空間,尊重了道德多元性。它不僅充當(dāng)?shù)赖律魉嫉闹a(chǎn)士,還可以作為實現(xiàn)道德進(jìn)步的教育方法。但是,直覺上看,如果道德人工智能模型只是繞過動機的話,似乎不符合道德心理學(xué),換言之,如何構(gòu)想人類在繞過動機的情況下來直接根據(jù)道德判斷采取行動呢?注意這里的問題是針對可行性而不是可欲求性,即,究竟道德人工智能助手在不影響動機的情況下是否有用,是如何起作用的?事實上這個問題導(dǎo)向另一個更為古老的哲學(xué)問題,即道德判斷本身是否可以發(fā)揮作用而不引起任何的動機變化?

      盡管Lara等[15]聲稱這個模型繞過了與動機相關(guān)的問題,例如對道德主體的自主和隱私的負(fù)面影響,但道德人工智能的信息增強真的能夠在不影響動機的情況下起到預(yù)想的效果嗎?盡管他們承認(rèn),蘇格拉底式的人工智能系統(tǒng)也可能改變動機。通過說“不能排除人工智能的認(rèn)知幫助可能間接改變道德主體的動機和情感傾向的可能性”,它們承認(rèn)了可能性,但關(guān)于如何可能卻語焉不詳,所謂“間接改變動機和情感傾向”的含義是什么并不清楚,而我們需要知道在什么情況下可以改變動機或情感傾向。例如,我們的人類經(jīng)驗中到底哪些因素會導(dǎo)致動機和情感傾向的改變?

      此外,人類的道德發(fā)展似乎也不是從自發(fā)產(chǎn)生的道德動機開始,而是通過被養(yǎng)成的道德行為開始,兒童在不完全了解道德意味著什么和要求做什么之時,被家長和社會刻意按照某些特定的、基于個別道德行為疊加起來的習(xí)慣來培養(yǎng)。由此可見,如果這樣的道德人工智能能夠以某種方式促進(jìn)道德行為的培養(yǎng),那么它可能會促進(jìn)動機和情感傾向的改變。但是,無論是根據(jù)Savulescu等人還是Lara等人的想法,培養(yǎng)道德行為都不是其設(shè)計的道德人工智能的目標(biāo)。但如果蘇格拉底式助手的道德人工智能,如同他們原初構(gòu)想的那樣,僅僅旨在為行動主體提供選擇上的建議的話,那么它對行動主體的影響似乎是非常外部的,因此在促成道德行為的意義上,極有可能無效。我們可以將這種情況與視頻游戲的情況進(jìn)行比較,例如,倘若有一個叫“我們都是道德人”的游戲,參與游戲者基于設(shè)計的特定算法而與道德機器互動,從而在游戲中扮演道德人的角色,但在現(xiàn)實生活中卻拒絕按照算法推薦方案來行事。在大多數(shù)情況下,真正的道德要求犧牲自己的利益,事實上,由于自己的利益與道德的要求之間經(jīng)常發(fā)生明顯的沖突,如何理解道德動機就更是一個困難的問題。哲學(xué)家想知道道德判斷和動機之間存在什么樣的關(guān)系,正是因為知曉正確道德判斷的主體不一定有動機去做正確的事情。這種情況是頻繁出現(xiàn)的:不道德的人是完全理性的人,能夠進(jìn)行道德行為,但根本不愿意這樣做。

      4.2 道德判斷的無力

      為了理解道德判斷與動機之間的關(guān)系,哲學(xué)家給出了截然不同的觀點和相應(yīng)的解釋。在元倫理學(xué)中,有著關(guān)于道德動機的經(jīng)典討論,其中,休謨主義和反休謨主義各執(zhí)一詞[16]。雙方討論的目的在于知曉道德判斷與道德動機之間是否存在必要的聯(lián)系。用另一種方式來構(gòu)想這個問題,就是在問,道德判斷的存在是否會激發(fā)采取行動的動力。休謨主義者認(rèn)為道德判斷本身無法激發(fā)行動者采取行動,而是需要一種額外的行動,該行動可以產(chǎn)生欲望,或者存在預(yù)先存在的欲望狀態(tài)(conative),有時被稱為“贊成的-態(tài)度”(pro-attitude)。柏拉圖最早提出了反休謨主義中最為激進(jìn)的版本,他認(rèn)為對道德觀念形式的理解應(yīng)該能夠為行動主體的行動提供壓倒一切其他因素的動力。還有一種類似的觀點認(rèn)為,如果道德判斷沒有提供足夠的動機來按照自己的判斷行事,那么道德判斷就不能算作真正的道德判斷,因此,當(dāng)人們談到道德判斷時,她或他必須默認(rèn),將道德判斷歸于某人就已經(jīng)意味著,具有這個特定道德判斷的人就具有相應(yīng)的道德動機。

      但是,我們不必視這種觀點為理所當(dāng)然。關(guān)于道德判斷是否能夠自身提供足夠動力去行動的核心爭論實際上揭示了一些有關(guān)道德人工智能算法設(shè)計的洞見,因為如果休謨主義者是對的,而且我們確實需要額外的資源來產(chǎn)生動機,那么作為蘇格拉底式助手的弱道德人工智能在產(chǎn)生道德行為上就起不到直接的作用,它最多只能提供合理的、第三人稱意義上的道德判斷。作為蘇格拉底式助手的道德人工智能無法處理諸如動機或非認(rèn)知元素之類的問題,但弱道德人工智能目的本身難道不就是僅僅提供道德判斷嗎?為什么要去苛責(zé)它不能作用于動機這一點?休謨主義與反休謨主義之間的區(qū)別似乎正好對應(yīng)著弱道德人工智能與(強意義上的,或者說作用于動機的)道德增強之間的區(qū)分,然而關(guān)于道德動機的哲學(xué)論爭表明,經(jīng)驗研究無法解決某些特定的問題,因為但凡道德心理學(xué)有了確定結(jié)論的話,就不再需要這一哲學(xué)辯論,因為彼時我們應(yīng)該能夠基于復(fù)雜的人類心理學(xué)知識構(gòu)建出強道德人工智能,彼時算法設(shè)計也不是難題,可以借鑒關(guān)于那些被認(rèn)為具有道德品質(zhì)的人的心理學(xué)研究結(jié)果。話雖如此,哲學(xué)未能使我們就道德判斷本身是否直接帶來動機提供統(tǒng)一的答案,也未能告訴我們?nèi)绻鸢甘欠穸ǖ?,還需要些什么。如果這仍然是一個尚未得到回答的問題,結(jié)果便是,不僅我們不知道如何達(dá)成強意義上的道德增強,即那種能產(chǎn)生影響道德行動主體的道德判斷的,更麻煩的是,我們甚至不知道這種所謂弱道德人工智能是否達(dá)到預(yù)期。

      道德機器看起來很像我們參與的那些在線測試,比如麻省理工學(xué)院媒體實驗室(MIT Media Lab)那個有關(guān)駕駛的道德決策的研究[17]。其在線調(diào)查由各種設(shè)計的道德困境組成,要求測試人員選擇答案。典型的問題一般是這樣:是選擇沿汽車的原始路線行駛并在行人線上撞到A,還是選擇操縱方向盤并在道路另一側(cè)撞到B。該測試賦予A和B各種值,例如一個老人和一個嬰兒,或者一個具有較高社會經(jīng)濟地位的人與另一個具有較低社會經(jīng)濟地位的人的值的組合。這是一個經(jīng)典的電車難題,大多數(shù)人會發(fā)現(xiàn)幾乎無法找到滿意的答案。但是測試的設(shè)計是迫使參與者在有價值的事物(包括人類和動物)之間進(jìn)行排序。假設(shè)我們確實有關(guān)于不同人群的選擇構(gòu)成的詳細(xì)描述,并且基于這些數(shù)據(jù),我們能夠根據(jù)生活中有價值的事物的排名來設(shè)計算法并構(gòu)建交互式人工智能作為道德助手,模仿實際人類的反應(yīng)。這樣,我們就有可能通過以下方式與機器通訊:通過獲取我們的信念和偏好輸入,我們可以進(jìn)行某種對話,從而提出建議。但是,目前尚不清楚這種對話是否會起到激勵作用。更重要的是,甚至還不清楚,在一種道德推薦的規(guī)范性意義上,哪種答案應(yīng)該被推薦。誠然,這樣的實證研究并不需要就解決道德困境應(yīng)采取的措施作出規(guī)范性的回答,對于它的探究可能有助于分析人類的道德心理學(xué)。然而,道德推理遠(yuǎn)比當(dāng)前的經(jīng)驗研究告訴我們的要復(fù)雜得多。心理學(xué)家有時認(rèn)為道德判斷是對矛盾案例的直覺反應(yīng)的一種特殊的合理化,這種觀點認(rèn)可了認(rèn)知和情感處理的相對獨立。例如,Greene等[18]認(rèn)為,我們對道德困境的直觀反應(yīng)取決于在任何給定時間哪個子系統(tǒng)具有更大的作用力,但是許多哲學(xué)家認(rèn)為Greene等的論點基于一個與道德無關(guān)的假設(shè),這種假設(shè)是有問題的,因為它基于道德推理的神經(jīng)生物學(xué)基礎(chǔ)的某種可疑觀點[19]。Greene等再次使用經(jīng)驗層面的假設(shè)去解釋了經(jīng)驗層面的結(jié)果,并未能就人類道德行為的規(guī)范性框架告訴我們些什么,而這些關(guān)于規(guī)范性框架的知識是達(dá)到道德增強所必需的前提條件。換句話說,如果沒能明確人類道德性的指向,那么所謂對于道德增強的設(shè)計也就失去了目標(biāo)或方向。

      然而,弱道德人工智能的捍衛(wèi)者可能會回應(yīng)這一點質(zhì)疑,認(rèn)為道德機器并不一定要把壞人變成好人,它只是教會好人或至少是比較好的人如何提高他們的道德推理能力,而這是以行動主體的意圖為前提的。對于一個無意進(jìn)行任何道德行為的人來說,道德人工智能肯定是毫無用處的。考慮到弱道德人工智能的目標(biāo),這似乎是正確的。這里暫時不需引入非常復(fù)雜的道德認(rèn)識論來論證,但一個簡單的問題是,倫理學(xué)機器是否像他們所聲稱的那樣只是作為蘇格拉底式助手發(fā)揮作用,如果是的話,這種應(yīng)用在多大程度上是可行的并且值得付出代價?我們是否需要進(jìn)行大量的研究來進(jìn)行這種僅僅完成信息增強而不影響動機的機器?我們關(guān)于蘇格拉底式道德助手的研究和設(shè)計的場景中似乎存在一個悖論,因為我們既可以像我們現(xiàn)在所理解的那樣建造機器,也就是將它作為蘇格拉底式的助手來建造,這樣的話機器的應(yīng)用會非常有限,或者,我們不能從技術(shù)上構(gòu)建真正能夠獨自解決道德困境的人工智能,僅僅是因為我們沒有關(guān)于道德推理的足夠的經(jīng)驗或科學(xué)證據(jù)。換句話說,為了保障安全性同時避免影響行動主體的自主和侵犯其隱私,這個弱道德人工智能模型似乎將嬰兒與洗澡水一起倒掉了。除非我們能夠證明,蘇格拉底式道德助手的設(shè)計是達(dá)成(強意義上的)道德增強的先決條件,也就是說,弱道德人工智能有其自身的工具性效用,但到目前為止,(強意義上的)道德增強自身的可欲求性和可行性也遭到了高度的質(zhì)疑。一個可能的關(guān)于弱道德人工智能應(yīng)用前景的案例仍是本文第一部分所談到的那種,鑒于目前精神醫(yī)學(xué)治療中聊天機器人使用的趨勢,我們也許可以說,即便道德增強的目的暫時無法達(dá)到,我們至少在好的方向上推進(jìn),精神疾病患者或者日常生活中飽受壓力和焦慮困擾的人群,都可以受益于類似Wysa這樣的在線聊天機器人,這種人工智能的使用促進(jìn)了人們的精神和心理健康。盡管我們可能不知道在這一方向上能走多遠(yuǎn),但這不妨礙當(dāng)前弱道德人工智能的發(fā)展必要性。

      4.3 道德硬接連與弱人工智能的局限

      弱道德人工智能可能沒法起作用的原因在于,道德行動中的那些阻滯性的因素根本無法通過有效或合理的道德論點來消除。Persson等[13]在《道德硬接連與道德增強》中寫道,由于人類道德心理學(xué)的特征,生物醫(yī)學(xué)道德增強可能不是道德進(jìn)步的唯一方法,但卻是最重要的方法之一。針對鮑威爾和布坎南的觀點,即由于社會文化手段更有效、更安全因此無需生物醫(yī)學(xué)手段的這一觀點,Persson等認(rèn)為,盡管有些態(tài)度可以通過理解和接受更好的理性論據(jù)(例如我們在種族主義和性別歧視這種例子里面確實可以因為慢慢接受更為合理的論證而肅清原先的偏見),從而確實可以通過社會文化干預(yù)而改變,但這些很難解釋乃至撼動動機性質(zhì)的或非認(rèn)知性質(zhì)的因素。

      換句話說,Persson和Savulescu所說的“道德硬接連”指的是人類在道德發(fā)展環(huán)境中幾乎不變的并且對理性的說服力不敏感的那部分。與種族主義和性別歧視不同,裙帶關(guān)系這種偏見不能通過社會文化干預(yù)來消除。困難部分的存在表明人類當(dāng)中確實存在一些頑固的偏見,而這些偏見不容易糾正。在這種情況下,如果道德人工智能只是提供一些幫助使行動主體意識到隱藏的邏輯謬誤或概念的模糊性,那么它的應(yīng)用將非常有限并且最終無效。對于某些人來說,指出他們邏輯推理的不一致確實有用,因為有認(rèn)知能力的情況下這些人實際上會承認(rèn)此類錯誤,這樣的話就有可能進(jìn)一步影響他們的動機并可能觸發(fā)道德行為。但是,這并不適用于所有人。有些人完全具有認(rèn)知能力,也能夠在邏輯推理中意識到自己的錯,但是不會改變,或者只會堅持自己的假設(shè),不會設(shè)身處地為他人著想,這使得任何道德的說服都無濟于事,更別說道德人工智能助手了。無所謂道德的人(amoralist)也類似,只不過他們不會按照自己堅持認(rèn)為的對與錯的判斷來行事,因為這樣的道德判斷對于他們沒有意義。

      4.4 動機倫理:源自道德行動主體和行為的評價

      動機之所以重要,不僅是因為我們直覺上似乎更珍視那些單純出于道德目的而做出的行為。需要追問的是,與邏輯合理的那種道德慎思相比,我們究竟應(yīng)該在什么程度上重視動機本身。將道德行為和行為者都考慮在內(nèi)的道德理論也許可能有助于理解動機的重要性,以及在弱人工智能那里聲稱的所謂“繞過動機”(bypassing motivation)到底意味著什么。正如Coakley所寫的,常見的道德理論要么只討論道德行動主體,要么只注重行為本身。例如,在道德層面評估對象時,我們要么評估人的行為,詢問諸如道德主體的行為對與錯之類的問題,要么我們評估道德行動主體的道德特征或道德品格[20]。正如人們在倫理學(xué)史中所看到的那樣,大部分倫理學(xué)理論要么討論行為的道德正確性,要么討論道德行動主體的正確性。Coakley提出了一個有趣且有意義的問題,即,假設(shè)在一種道德理論A的框架下,某些行為可以被判斷為正確的行為,這個結(jié)論是否與另一種就道德主體的特征或品質(zhì)做出判斷的道德理論B相吻合?表面看來這個答案應(yīng)該很簡單,因為我們傾向于假設(shè)不同類型的道德評估之間存在一致性,但Coakley通過研究諸如結(jié)果論和道義論之類的主要理論揭示出事實上想要得到一個一致的答案是相當(dāng)困難的。在他看來,為了解決這種結(jié)論難以調(diào)和的問題,動機倫理可能是替代方案,這一評價標(biāo)準(zhǔn)認(rèn)為“道德行動主體越有動機去推進(jìn)(整體)的善,那么他在道德意義上就越是更好的人”[20],這樣才能把有關(guān)動機和行為的評估整合成為一個。盡管Stonestreet指出Coakley的理論取決于讀者是否接受他將“整體善”(overall good)的概念作為道德意義上的善[21],這似乎是Coakley有必要回應(yīng)的一個反駁。但是,撇開該假設(shè),Coakley確實通過“道德主體問題”(moral agent problem)提示了:如果道德理論過分強調(diào)行動的評估,就不足以評估行動本身,從而導(dǎo)致道德評估的不同途徑之間存在不一致的問題。我們并不一定需要接受Coakley的動機倫理理論本身,但是他建議同時考慮動機和行為這一點值得注意。對動機重要性的理論性反思表明,蘇格拉底式助手的道德人工智能可能由于繞過動機而同時也使得使用者失去了接受此種道德評價的資格(eligibility)。這意味著,盡管Savulescu等和Lara等提出的模型通過繞過動機避免了來自以侵犯隱私和損害自主性為名的指責(zé),但他們的弱點也恰恰在于他們放棄了動機這一環(huán)節(jié)。

      從一種單純的康德式義務(wù)論角度評價,動機則是更為重要甚至是評價道德價值的唯一標(biāo)準(zhǔn)。康德認(rèn)為道德價值僅來自出于義務(wù)動機的行為[22],除了義務(wù)以外其他動機道德上都不正確,即使同情心也被排除在外。雖然看上去有些反常識,康德義務(wù)論卻揭示了道德深層次的本質(zhì)。正如Savulescu和Maslen所設(shè)想的那樣,弱道德人工智能可以發(fā)揮一系列工具性的作用,諸如作為道德環(huán)境的監(jiān)督者、道德組織者、道德促進(jìn)者、道德顧問、保護免受不道德的影響以及可以維護道德自主性和群體層面的道德人工智能。但是,以上這些功能,無論如何精心設(shè)計,似乎都無法在使用或與此類人工智能交互的道德行動主體中產(chǎn)生出義務(wù)(或與之相關(guān)的,被康德稱為是“敬重”的情感)。這意味著,持有強康德主義立場的話,蘇格拉底式助手類型的道德人工智能將永遠(yuǎn)無法在幫助我們成為“道德”行動主體上發(fā)揮直接的作用。換句話說,如果弱道德人工智能可以按預(yù)期成功地工作,那么它最多可以提供幫助來生成較為合理的道德決策,而不是為行動主體本人做出實際決策,更不用說最后是否能導(dǎo)向道德行為。行動主體,無論他從所謂的道德人工智能機器中獲取了多少信息,都必須最終決定自己要做什么,并實際執(zhí)行他選擇的行為。在這里道德人工智能會顯得無效,即,如果我們確實采取動機倫理觀點來評估行為主體,而不是僅僅關(guān)注行為,那么我們就會關(guān)注到這種蘇格拉底式助手意義上的弱道德人工智能對動機沒有任何影響。盡管它肯定會通過提供各種幫助來影響道德判斷,但卻不能決定行動主體的動機(按照康德的表述是“規(guī)定意志”),從一種徹底的康德義務(wù)論觀點來看,任何并非純粹出于義務(wù)動機的行為都沒有道德價值。只不過,對于任何僅需要評估行動結(jié)果的情況而言這不是一個問題,例如,在用群體人工智能來做資源分配決策推薦的情況中,一般會根據(jù)集體決策而不是根據(jù)針對個體進(jìn)行評估,這里可采用基于結(jié)果論或功利主義的標(biāo)準(zhǔn),不需要一定采取動機倫理的視角。

      5 結(jié)語

      上述論述質(zhì)疑了弱道德人工智能的實際效用,即認(rèn)為如果這種弱道德人工智能只能實現(xiàn)信息增強和在與行動主體的對話中充當(dāng)蘇格拉底式助手的話,這種作用并不能幫助我們成為更好的道德行動者。換句話說,弱道德人工智能作為蘇格拉底式助手的應(yīng)用頗為有限,這使得這一層面的信息增強處于尷尬的境地。此外需要注意的是,這仍是在我們首先懸置了另外一個問題的情況下考慮的,這個更為深層次的問題是,究竟我們能否定義什么是道德上的善,以及如何評價道德上的善。而即便撇開這個蘇格拉底式助手的弱道德人工智能不考慮,單純道德信息增強本身的可行性尚不清楚,這需要對科學(xué)事實有足夠的了解才能知曉,諸如那些關(guān)于大腦如何捕獲那些使功能性大腦狀態(tài)符合道德目的的信號的知識,而更進(jìn)一步追問什么才是真正的道德目的,也只能說是由道德行動主體所在社群共有的價值觀所蘊含的。

      一旦解決了可行性問題,弱人工智能可具有良好的教學(xué)應(yīng)用前景,適用于那種處理大量復(fù)雜的信息來進(jìn)行道德決策的場景。此外,蘇格拉底式助手的道德人工智能可以提供虛擬現(xiàn)實體驗,通過這種體驗,人們可能對根本沒有機會體驗的事情產(chǎn)生同理心或同情心,這也有助于改變一個人的道德考量,并具有影響動機的可能性,這一可能性,如前所述,確實被這一模型的提出者所承認(rèn)。然而,如果這行得通,似乎不再是一個弱道德人工智能了,那種聲稱可以繞過動機的弱道德人工智能和直接影響動機的道德增強之間的界線被模糊了。這里的關(guān)鍵在于,僅憑提供虛擬現(xiàn)實這一事實并不是區(qū)分弱和強的標(biāo)準(zhǔn),按照提出弱道德人工智能模型的人自己給出的定義來看,并不是由一個增強手段所完成的任務(wù)來定義它究竟是弱還是強,而是看是否通過對于動機的影響來實現(xiàn)道德增強目的來確定其性質(zhì)。

      通過強調(diào)信息增強,弱道德人工智能的主張似乎暗示著一些有用的東西。道德信息增強和道德生物增強不一定彼此排斥。道德生物增強強調(diào)的是手段,即只是說使用生物醫(yī)學(xué)手段來增強目的,因此,廣義上來看,藥物、外科手術(shù)和腦機接口等方式都可以達(dá)到生物增強的目的。道德信息增強,則強調(diào)增強的效果究竟在哪個層面完成,即被增強的維度。相反,這并不是說道德上的生物增強更可行,坦率地說,沒有太多證據(jù)表明道德推理的生化基礎(chǔ)或神經(jīng)生物學(xué)基礎(chǔ)對于我們而言更簡單易得,我們碰巧發(fā)現(xiàn)某種可以突然使人更有同情心或無私的藥物這件事的幾率似乎也相當(dāng)?shù)汀倪@個意義上講,道德信息增強和生物增強必須面對可行性上類似的挑戰(zhàn),因為它們都需要解決基本的科學(xué)問題,即如何以某種方式操縱大腦的狀態(tài),以改善人類的行為。兩者之間的聯(lián)系是,由于道德信息增強的側(cè)重點在于這一增強可以在擴展信息量和提高信息處理效率方面發(fā)揮作用,因此信息增強也可以通過生物增強方法來完成。例如,通過服藥或接受外科手術(shù)或與腦機接口連接,我們的大腦可以更快地工作,從而使受體變得極為敏感,我們將能夠處理甚至存儲大量信息。如果人的大腦和身體在生理上能夠進(jìn)行這種生物醫(yī)學(xué)增強,那么它將與信息增強的結(jié)果并無二致。通過生物醫(yī)學(xué)增強(包括藥物、腦機接口和外科手術(shù))實現(xiàn)信息增強的場景不僅是合理的,而且也是可取的,尤其是在非常復(fù)雜的日常生活或社交生活中,那里有大量我們沒有時間和精力來熟悉和處理的信息。因此,弱道德人工智能不必僅僅針對信息增強。換句話說,信息增強這一目的,或者說作為達(dá)到道德增強的階段性目標(biāo),既可以通過信息增強的手段來完成,也可以通過生物醫(yī)學(xué)增強的方式來完成。

      由于動機的重要性以及道德判斷與動機之間的鴻溝,作為蘇格拉底式助手的弱道德人工智能方案不具有實踐上的吸引力,但弱道德人工智能的局限性并不一定意味著強意義上的道德增強一定失敗(當(dāng)然這里我們暫且擱置了對于它的倫理問題的主要批評意見)。盡管以信息增強形式的蘇格拉底式助手弱道德人工智能功能有限,但是鑒于前面文字中對生物增強和信息增強之間的關(guān)系所作的說明,信息增強作為一種階段性或工具性目標(biāo),當(dāng)其與已經(jīng)可行的強意義上的道德增強手段結(jié)合使用時,會有一定的應(yīng)用空間,但這時假定強意義上的道德增強的可行就意味著至少我們已具備有關(guān)人類道德心理學(xué)和神經(jīng)生物學(xué)機制等的足夠知識,并具有改變精神狀態(tài)(mental states)和直接影響動機的能力。考慮到我們在基因上的限制和在生理上無能力存儲和處理海量信息的事實,我們也許能以某種方式將信息存儲或處理的工作外包給第三方,比如說,這個第三方能在大腦和身體外部完成信息增強。

      此外,當(dāng)我們談?wù)摰赖略鰪姇r,也可以對其具身(embodiment)的方式再細(xì)化。如果一個人工智能可以被用于道德增強,其結(jié)果既可以是:(1)經(jīng)由任何方法(包括人工智能手段和方法在內(nèi))在道德上得到了增強的道德行動主體/人,也可以是:(2)擁有超強道德推理能力的(內(nèi)置了人工智能算法的)機器,一種能夠在無需人工干預(yù)的情況下解決道德問題的機器。注意這兩者是極為不同的選擇,而在這兩種選擇之間,具有增強的道德能力的行動主體/人更為可行,其原因僅在于,為了使任何形式的道德增強成為可能,對人的道德心理學(xué)、生化和神經(jīng)生物學(xué)機制的全面了解是必不可少的,這些知識包括諸如人腦如何捕獲和處理那些具有道德重要性的信息等,因此在道德上得到增強的行動主體/人是制造出具有道德推理能力的機器的前提,即,后者的可行性取決于前者。這樣,從廣義上講,這里所能得出的思路其實更接近于腦機接口(brain-computer interface)模型,在這個模型中,動機沒有被輕易繞過去,更重要的是,自主性可以在一定程度上得到保留。如果強意義上的道德增強(如果在科學(xué)上可行),以已知的動機影響機制為前提,再聯(lián)合信息增強手段,那么自主性和隱私的關(guān)涉就會再度出現(xiàn)。很有可能的是,自主性和隱私問題無法完全避免,但是如果腦機接口具有增強人類道德的潛力且能夠為人類保留必要的自主性和隱私,這將是有希望的,但如何使得這些要素在一種操作層面上彼此相容仍需要進(jìn)一步在經(jīng)驗的層面上確認(rèn)。畢竟,道德增強的弱版本和強版本,無論是通過生物醫(yī)學(xué)手段還是人工智能技術(shù),都被同一個關(guān)于可行性的問題困擾,要想在真正意義上增強道德功能,就得先在生物化學(xué)和神經(jīng)生物學(xué)機制以及塑造道德行為和性格的社會心理環(huán)境方面進(jìn)行大量的實證性工作。

      總之,作為蘇格拉底式助手的弱道德人工智能的悖論在于,通過繞過動機,道德信息增強似乎可以避免侵犯隱私和損傷自主性的問題,但是,即便可行性問題先擱置,在沒有對道德主體產(chǎn)生動機上的直接影響的情況下,僅道德信息增強似乎并不能直接為人類的道德價值奠基。然而如果我們不對未來的技術(shù)發(fā)展做獨斷論式的猜測,那么從目前精神醫(yī)學(xué)和心理治療中所使用的這種聊天機器人的實踐和其效果來看,也許相關(guān)科學(xué)與技術(shù)對于人的認(rèn)知、情緒甚至動機的影響是有希望的,它甚至可以在一種非侵入性操作(這意味著更安全)的方式下完成,正如我們在聊天機器人Wysa那里看到的,這種互動的、基于人工智能技術(shù)的、以人機對話方式進(jìn)行的精神/心理治療實踐不正是一種蘇格拉底式助手的實例嗎?由于這一技術(shù)與實踐剛剛開始,系統(tǒng)性的、關(guān)于市場主流心理治療類聊天機器人的實證研究還很少[23]。目前Wysa通過了英國國民醫(yī)療服務(wù)體系(National Health Service,NHS)的臨床安全標(biāo)準(zhǔn)(https://www.wysa.io/safety-and-efficacy),但其在隱私保護、保密性和臨床效果上還沒有確定的結(jié)論。如果說用于精神醫(yī)學(xué)臨床的人工智能助手其臨床效果如何還拭目以待,那么究竟我們離這種由弱道德人工智能完成的道德增強還有多遠(yuǎn)似乎更難以預(yù)測,但是換個思維方式看,至少目前也沒有證據(jù)表明這一事業(yè)是不可完成的,在生物化學(xué)、神經(jīng)生物學(xué)、人工智能等技術(shù)那里和在社會與道德心理學(xué)之處的進(jìn)展和會聚會告訴我們答案。

      猜你喜歡
      蘇格拉底助手動機
      Zimbabwean students chase their dreams by learning Chinese
      二語動機自我系統(tǒng)對動機調(diào)控策略及動機行為的影響研究
      蘇格拉底的信仰
      蘇格拉底
      趣味(語文)(2019年9期)2020-01-06 03:14:46
      小助手
      靈感助手表彰大會(二)
      靈感助手表彰大會(一)
      動機不純
      像蘇格拉底一樣拒絕
      論幼兒的動機特點與良好動機的培養(yǎng)
      监利县| 左权县| 固始县| 扎赉特旗| 泾阳县| 东阳市| 福贡县| 讷河市| 措美县| 枣强县| 即墨市| 上思县| 易门县| 务川| 日土县| 容城县| 金华市| 肥东县| 新郑市| 洛浦县| 台南市| 陇西县| 且末县| 盐池县| 林周县| 顺昌县| 延寿县| 新巴尔虎右旗| 洪江市| 郓城县| 威海市| 桐城市| 大城县| 永昌县| 镇巴县| 广东省| 长泰县| 尚志市| 石渠县| 高邮市| 秦安县|