• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      新興技術(shù)與實(shí)驗(yàn)倫理學(xué)的雙向互動(dòng)

      2022-11-22 18:58:07白惠仁
      倫理學(xué)研究 2022年1期
      關(guān)鍵詞:倫理學(xué)倫理決策

      白惠仁

      除了邏輯與規(guī)范性論證,傳統(tǒng)規(guī)范倫理學(xué)在考慮人類道德直覺和道德推理問題時(shí)還常常使用思想實(shí)驗(yàn)的方法。近幾十年來,經(jīng)驗(yàn)科學(xué)開始介入到道德領(lǐng)域的研究中,羅爾斯在《正義論》中對“差別原則”的論證使用經(jīng)濟(jì)學(xué)和心理學(xué)方法便是這種“實(shí)驗(yàn)倫理學(xué)”(experimental ethics)運(yùn)動(dòng)的先驅(qū)。20世紀(jì)90 年代以來,倫理學(xué)研究日益匯聚來自眾多經(jīng)驗(yàn)科學(xué)的資源,從演化根源、環(huán)境影響、認(rèn)知機(jī)制、腦神經(jīng)關(guān)聯(lián)等方面對人類道德現(xiàn)象展開考察。近年來,面對新興技術(shù)引發(fā)道德難題的情境化、多元化、大眾化等特征,規(guī)范倫理學(xué)表現(xiàn)出某種無力感,基于新技術(shù)路徑的實(shí)驗(yàn)倫理學(xué)開始顯露其優(yōu)勢。但當(dāng)前關(guān)于新興技術(shù)的道德困境的實(shí)驗(yàn)倫理學(xué)研究卻顯現(xiàn)出一種奇特的局面:運(yùn)用基于新興技術(shù)A的實(shí)驗(yàn)倫理學(xué)來解決新興技術(shù)B 所產(chǎn)生的倫理問題,而往往新興技術(shù)A 自身還處于某些固有的倫理爭議當(dāng)中。本文希望以自動(dòng)駕駛道德決策難題的實(shí)驗(yàn)倫理學(xué)研究為例,解釋當(dāng)下新興技術(shù)與實(shí)驗(yàn)倫理學(xué)的雙向互動(dòng)關(guān)系。

      一、新興技術(shù)對倫理學(xué)的挑戰(zhàn)

      人工智能對人類社會(huì)道德秩序的攪動(dòng)是根本性的、多向性的,需要對這類新興技術(shù)做出有預(yù)見性的實(shí)踐考察,因而催生了人工智能倫理研究。在智能醫(yī)療、自動(dòng)駕駛、自主武器系統(tǒng)等具體應(yīng)用情境中,人工智能系統(tǒng)開始面對越來越多的道德決策。由此,學(xué)界開始關(guān)注人工智能系統(tǒng)是否能夠做出道德決策及決策機(jī)制的問題。然而,由于道德文化多元主義、道德決策情境的復(fù)雜性、人工智能系統(tǒng)道德歸責(zé)的困難以及公眾對人工智能道德決策的社會(huì)心理障礙這四個(gè)方面的原因,我們無法將某種既定的道德原則嵌入道德算法中以做出道德決策。因此,傳統(tǒng)的規(guī)范倫理學(xué)框架難以應(yīng)對人工智能引發(fā)的道德挑戰(zhàn)。本文將通過自動(dòng)駕駛汽車道德決策的倫理學(xué)研究表明這一立場。

      與其他人工智能技術(shù)的具體應(yīng)用場景類似,自動(dòng)駕駛的倫理問題也包含了數(shù)據(jù)所有權(quán)、隱私保護(hù)、事故責(zé)任等方面,但近幾年來的倫理學(xué)研究大量集中到了所謂的“優(yōu)化碰撞算法”的角度,即以一種近乎特設(shè)性的方式將自動(dòng)駕駛汽車的道德決策問題與倫理學(xué)中經(jīng)典的“電車難題”思想實(shí)驗(yàn)結(jié)合起來。如果不考慮其背后的媒體炒作等社會(huì)因素,這種倫理學(xué)研究背后有兩個(gè)基本想法:第一,我們需要在自動(dòng)駕駛汽車完全商用化之前預(yù)先考慮如何對自動(dòng)駕駛汽車進(jìn)行編程,以便使其成為大眾所能接受的汽車;第二,關(guān)于“電車難題”的倫理研究有助于準(zhǔn)確了解汽車需要達(dá)成或展現(xiàn)什么樣的倫理價(jià)值,最終這些價(jià)值將通過道路交通規(guī)則和法律的形式來實(shí)現(xiàn)。

      大部分道德哲學(xué)家們都基于這種假設(shè)或在這種假設(shè)的啟發(fā)下來考慮自動(dòng)駕駛汽車的倫理問題。維拉(Ivo Coca-Vila)在討論自動(dòng)駕駛汽車的程序設(shè)定面臨的功利主義原則和自我保護(hù)原則的矛盾時(shí),認(rèn)為功利主義原則在當(dāng)前交通刑事法律原則中不能得到辯護(hù),而是應(yīng)該基于一種義務(wù)論的理解,即依據(jù)所有主體在事故中的法律地位,以自主性(autonomy)和一致性(solidarity)作為道德辯護(hù)的核心[1](59-82)。德國交通部的《自動(dòng)化及網(wǎng)聯(lián)汽車倫理報(bào)告》也具有明確的義務(wù)論傾向:“對個(gè)人的保護(hù)優(yōu)先于其他所有的功利性考量。”[2]另一些規(guī)范倫理學(xué)者則基于功利主義的“可計(jì)算性”優(yōu)勢,認(rèn)為自動(dòng)駕駛的道德決策應(yīng)基于減少傷亡的原則,當(dāng)然這也符合了研發(fā)自動(dòng)駕駛汽車以減少道路交通傷亡的價(jià)值目標(biāo)。博納豐(Jean-Fran?ois Bonnefon)等提出在商業(yè)行為中自動(dòng)駕駛汽車用戶會(huì)傾向于某種功利主義算法[3](1573-1576)。在義務(wù)論與功利主義之外,一部分研究仍然以不可避免的交通事故作為理論預(yù)設(shè),他們試圖在功利主義和義務(wù)論的現(xiàn)有討論框架之外引入正義的維度[4](107-115);另一部分研究考慮到了自動(dòng)駕駛汽車在非危險(xiǎn)情況下的行為問題,引入了羅爾斯的分配正義理論,其中一些研究關(guān)注的是自動(dòng)駕駛汽車對道路交通整體運(yùn)行或社會(huì)弱勢群體的影響[5](1131-1149),另一些研究則將羅爾斯的正義原則直接運(yùn)用于作為個(gè)體行動(dòng)者的自動(dòng)駕駛汽車[6](227-249),然而我們知道羅爾斯的正義原則是針對社會(huì)基本制度(major social institutions)提出的。

      規(guī)范倫理學(xué)研究從功利主義、義務(wù)論和正義的維度考察了優(yōu)化碰撞算法的問題,這在當(dāng)前對自動(dòng)駕駛汽車的倫理問題研究中最為突出,而對這一問題的討論都是建立在“電車難題”思想實(shí)驗(yàn)這個(gè)前提之上的。也有部分研究者明確提出自動(dòng)駕駛汽車與“電車難題”有顯著差異,不應(yīng)當(dāng)作為自動(dòng)駕駛倫理問題的研究重點(diǎn),他們提供的理由包括:(1)“電車難題”所構(gòu)造的事例在現(xiàn)實(shí)世界中是不可能發(fā)生的[7](413-427);(2)“電車難題”與自動(dòng)駕駛面對的是實(shí)質(zhì)上不同的道德情境[8](1275-1289);(3)“電車難題”的基本預(yù)設(shè)是“自上而下”的道德決策設(shè)計(jì),這與自動(dòng)駕駛汽車難以相容[9](12507);(4)自動(dòng)駕駛汽車“道德算法”的設(shè)計(jì)本質(zhì)上并非道德決策,而是政治協(xié)商與一致同意[10](669-684)。

      當(dāng)前對自動(dòng)駕駛汽車倫理問題的研究有一個(gè)基本預(yù)設(shè),即當(dāng)自動(dòng)駕駛汽車面臨不可避免的交通事故時(shí),其道德決策、道德責(zé)任等問題應(yīng)當(dāng)如何處理。為了凸顯自動(dòng)駕駛汽車可能面臨的道德困境,這些不可避免的交通事故情境往往被描述為可能致人傷亡的極端狀況。然而,倫理考量應(yīng)當(dāng)貫穿自動(dòng)駕駛汽車的整個(gè)運(yùn)行過程,而不是僅局限于某些危險(xiǎn)情況。因?yàn)樽詣?dòng)駕駛汽車像任何其他交通參與者一樣,將在一個(gè)共享的公共空間中運(yùn)行,其每一個(gè)駕駛行為決定都會(huì)影響其他人的操作可能性,這關(guān)系到所有道路交通參與者的“利益”(utility)(如安全、自由、舒適度等)。因此,自動(dòng)駕駛汽車的引入將攪動(dòng)整個(gè)道路交通體系的倫理秩序。

      因此,在整個(gè)人類道路交通體系中引入自動(dòng)駕駛汽車需要考慮社會(huì)各方的整體利益,特別是考慮那些沒有直接利益相關(guān)的人(如行人、傳統(tǒng)汽車用戶等)。然而優(yōu)化碰撞算法和“電車難題”的場景將思想實(shí)驗(yàn)置于抽象和無偏見的討論之下,所以,還需要綜合考慮行人和其他第三方的利益,這大致相當(dāng)于征求那些在最初的“電車難題”中被綁在鐵軌上的人的意見,以確定道德上正當(dāng)?shù)男袆?dòng)方案應(yīng)該是什么。下面我們將以混合交通中的人機(jī)差異為例來說明這一問題。自動(dòng)駕駛汽車的設(shè)計(jì)方式是以最安全、省油和省時(shí)的方式到達(dá)目的地,這一優(yōu)化目標(biāo)對其駕駛風(fēng)格產(chǎn)生了深遠(yuǎn)影響,使它們與大多數(shù)人類駕駛員有明顯差異。例如,為了達(dá)到省油和避免擁堵的目的,自動(dòng)駕駛汽車不會(huì)大力加速,并且會(huì)輕輕剎車;自動(dòng)駕駛汽車會(huì)停留在騎車人后面更長時(shí)間才會(huì)超車;自動(dòng)駕駛汽車會(huì)在需要的時(shí)候讓路,避免超速,總是在注有停車標(biāo)志處停下來,等等。人類的行為也基于原則和規(guī)則,然而與機(jī)器駕駛不同,人類表現(xiàn)出的多是自滿而非優(yōu)化駕駛行為,其駕駛能力只需剛好能達(dá)到他們的駕駛目標(biāo)。這表現(xiàn)為在安全、燃油效率和車流量方面都不是最優(yōu)的駕駛行為,如超速、保持過短的跟隨距離等。人類駕駛員在駕駛過程中是通過對其他人類駕駛車輛在各種情況下積累的諸多預(yù)判經(jīng)驗(yàn)形成駕駛習(xí)慣,而這些預(yù)判通常不太適合自動(dòng)駕駛汽車。例如,一輛自動(dòng)駕駛汽車可能會(huì)一直跟隨在后面,而人類駕駛員的預(yù)判是它即將超車。上述的不兼容增加了自動(dòng)駕駛汽車與傳統(tǒng)汽車混合運(yùn)行時(shí)交通事故發(fā)生的可能性,從而違背了人類社會(huì)引入自動(dòng)駕駛汽車的價(jià)值基礎(chǔ)——安全原則。

      因此,自動(dòng)駕駛等新興技術(shù)的引入對現(xiàn)實(shí)社會(huì)規(guī)范的改變是全方位的,我們很難沿用義務(wù)論、功利主義或某種正義原則給予其普遍化的應(yīng)對方式。以上反對當(dāng)前自動(dòng)駕駛汽車倫理學(xué)研究的觀點(diǎn)表達(dá)了規(guī)范倫理學(xué)在面對人工智能等新興技術(shù)對人類道德秩序的攪動(dòng)時(shí)的無力感。面對自動(dòng)駕駛汽車的現(xiàn)實(shí)復(fù)雜性和利益牽涉的廣泛性,一種可能的方案是將“電車難題”的思想實(shí)驗(yàn)民主化,不僅以乘車人作為道德主體,還需要從行人和其他第三方的角度將“電車難題”應(yīng)用于自動(dòng)駕駛汽車以收集道德觀點(diǎn),與其讓自動(dòng)駕駛汽車的制造商和用戶將他們的道德偏好強(qiáng)加于他人,還不如讓整個(gè)社會(huì)都參與到道德辯論中。

      二、實(shí)驗(yàn)倫理學(xué)的應(yīng)對策略及其困難

      上一節(jié)通過對自動(dòng)駕駛優(yōu)化碰撞算法問題的倫理學(xué)研究的考察,試圖表明新興技術(shù)的應(yīng)用對人類社會(huì)規(guī)范和道德規(guī)范的改變是深刻而廣泛的,基于專家直覺的規(guī)范倫理學(xué)無法應(yīng)對新興技術(shù)所導(dǎo)致的倫理議題的普遍化,自動(dòng)駕駛汽車的道德算法和道德責(zé)任牽涉到的是所有利益相關(guān)者乃至全體公眾的道德直覺和道德判斷,可以說新技術(shù)對人類社會(huì)道德秩序的挑戰(zhàn)導(dǎo)致了倫理學(xué)議題的平民化,這就需要訴諸關(guān)注大眾直覺的實(shí)驗(yàn)倫理學(xué)而非基于專家直覺的規(guī)范倫理學(xué)。因而,在自動(dòng)駕駛的道德決策討論中出現(xiàn)了基于實(shí)驗(yàn)倫理學(xué)的研究方案。

      實(shí)驗(yàn)倫理學(xué)作為一種方法論是以實(shí)驗(yàn)哲學(xué)(experimental philosophy)的一個(gè)分支的形式出現(xiàn)的,實(shí)驗(yàn)倫理學(xué)是對道德直覺、道德判斷和道德行為的實(shí)證研究,像其他形式的實(shí)驗(yàn)哲學(xué)一樣,它涉及使用實(shí)驗(yàn)方法收集數(shù)據(jù),并使用這些數(shù)據(jù)來證實(shí)或修正倫理學(xué)理論。與實(shí)驗(yàn)哲學(xué)相區(qū)別的是,實(shí)驗(yàn)倫理學(xué)的研究還涉及我們道德判斷背后的認(rèn)知結(jié)構(gòu)、產(chǎn)生道德判斷的發(fā)展過程、道德判斷的神經(jīng)科學(xué)基礎(chǔ)等。而實(shí)驗(yàn)倫理學(xué)與道德心理學(xué)的區(qū)別在于:實(shí)驗(yàn)倫理學(xué)側(cè)重于關(guān)注對人類道德心理狀態(tài)的合理化(rationalize)解釋;道德心理學(xué)側(cè)重于關(guān)注對人類道德心理狀態(tài)的因果解釋。近幾十年來,經(jīng)驗(yàn)科學(xué)開始介入到道德領(lǐng)域的研究中也為實(shí)驗(yàn)倫理學(xué)提供了方法論的基礎(chǔ),尤其是功能性核磁共振成像(fMRI)技術(shù)的流行給認(rèn)知科學(xué)研究介入道德哲學(xué)提供了新方法,格林(Joshua D.Greene)使用功能性核磁共振技術(shù)考察道德判斷的內(nèi)在機(jī)制為現(xiàn)代實(shí)驗(yàn)倫理學(xué)做出了示范[11](2105-2108)。具體到自動(dòng)駕駛汽車的道德決策研究中,鑒于以上所述的現(xiàn)實(shí)情境的復(fù)雜性和基于專家直覺的不充分性等問題,很多研究者也開始使用實(shí)驗(yàn)倫理學(xué)的方式提取和模擬大眾道德直覺和道德判斷。

      美國麻省理工學(xué)院媒體實(shí)驗(yàn)室在Nature發(fā)表了他們關(guān)于自動(dòng)駕駛汽車道德決策原則的研究論文,從2016 年開始他們通過“道德機(jī)器”(Moral Machine)的網(wǎng)站收集了4000 萬條來自233 個(gè)國家和地區(qū)的公眾對自動(dòng)駕駛汽車可能面臨的道德困境的決策傾向。研究結(jié)果顯示絕大多數(shù)人都具有三個(gè)基本傾向:保護(hù)人而不是動(dòng)物、保護(hù)更多的人、保護(hù)更年輕的人。他們還基于道德文化多元主義的視角進(jìn)一步將不同地區(qū)公眾的道德傾向概括為:與南方和西方比,東方并不是優(yōu)先保護(hù)年輕人、地位較高者、健康者;與東方和西方比,南方并沒有對優(yōu)先保護(hù)人類有明顯的偏好[12](59)。這意味著對“道德算法”的設(shè)定還必須考慮道德文化多元主義的影響,由此就增加了未來對自動(dòng)駕駛汽車的倫理原則和相關(guān)監(jiān)管政策的規(guī)制難度。相比基于規(guī)范倫理學(xué)的道德推理研究,這種基于大數(shù)據(jù)的巨量樣本研究方法確實(shí)有效提取了公眾道德直覺,但其“實(shí)驗(yàn)方式”仍然是某種“問卷調(diào)查”式的,難以處理道德判斷的情境化問題,此外也有研究表明:多數(shù)人不喜歡人工智能在自動(dòng)駕駛、法律、醫(yī)療和軍事方面做出與道德相關(guān)的決策[13](21-34)。

      面對上述自動(dòng)駕駛汽車的道德決策困難,另外一種可能的實(shí)驗(yàn)倫理學(xué)研究方法是模擬人類在相同情境下的道德決策機(jī)制,這也符合科學(xué)界“讓人工智能更趨近于人”的主流研究思路。德國奧斯納布呂克大學(xué)認(rèn)知科學(xué)研究所的Leon R.Sütfeld 等在Frontiers in Behavioral Neuroscience上就自動(dòng)駕駛汽車模擬人類決策發(fā)表了相關(guān)研究。該研究利用沉浸式虛擬現(xiàn)實(shí)技術(shù)對人類駕駛中的道德決策進(jìn)行模擬,這項(xiàng)研究表明,在不可避免的交通碰撞事故發(fā)生時(shí),對于人類、動(dòng)物或無生命物體的生命價(jià)值,人類是有倫理判斷的,而這些判斷能夠通過算法建立模型。到目前為止,人們普遍認(rèn)為人類的道德決策往往是根據(jù)事發(fā)時(shí)的情境來確定的,因此它不能用算法進(jìn)行模擬或描述。但Leon R.Sütfeld發(fā)現(xiàn),實(shí)驗(yàn)參與者會(huì)依據(jù)對人類、動(dòng)物或無生命物體生命價(jià)值的判斷來進(jìn)行反應(yīng),根據(jù)人類這種生命價(jià)值觀,可以建立人類行為的模型,然后通過算法植入機(jī)器中[14](122)。這就為自動(dòng)駕駛汽車的“道德算法”模擬人類道德決策做出了新的探索。

      這種模擬人類在相同情境下的道德決策確實(shí)解決了問卷調(diào)查無法提取人類真實(shí)道德判斷的問題。但新的麻煩是,自動(dòng)駕駛汽車的“電車難題”式的道德決策都是即時(shí)性道德決策(in-the-moment decision-making),其容易受到“道德失聲”(moral dumbfounding)和情緒因素的影響。第一,對于一些道德情境人們無法立即就自己的判斷給予合理的解釋,影響道德決策的原因是來自一種無意識的、快速的、自動(dòng)化的直覺,這形成了“道德失聲”[15](814-834);第二,在道德決策中情緒因素會(huì)直接影響道德決策,基本的情緒來自知覺、想象和回憶,一些道德情感依賴于情境,例如厭惡、驚恐和憤怒等,而道德情感又與價(jià)值觀、社會(huì)規(guī)范和社會(huì)現(xiàn)實(shí)有關(guān),受到社會(huì)偏好等影響[16](456-465)。由此,“道德失聲”和情緒會(huì)導(dǎo)致:在不同時(shí)間,同一個(gè)人在相同道德決策情境下,會(huì)做出完全不同的道德決策,這種即時(shí)性道德決策的不穩(wěn)定性導(dǎo)致虛擬現(xiàn)實(shí)模擬的方式也無法回應(yīng)事后追責(zé)的麻煩。

      在“道德失聲”和情緒因素的影響之外,格林最近的認(rèn)知科學(xué)研究也對即時(shí)性的道德決策提供了新的證據(jù),其建立在某種自然主義的倫理學(xué)基礎(chǔ)上,以實(shí)驗(yàn)的方式探究人類做出道德決策的生理機(jī)制。第一,格林將“雙重加工理論”(dual process theory)概括為自動(dòng)設(shè)定(automatic setting)和手動(dòng)模式(manual mode),即時(shí)性道德決策觸發(fā)的是自動(dòng)設(shè)定,而他的學(xué)生穆森(Jay Musen)在實(shí)驗(yàn)研究中提出即時(shí)性道德決策僅僅對個(gè)人力量(personal force)和空間接近(spatial proximity)高度敏感[17](85),然而自動(dòng)駕駛汽車可能面臨的大量決策情境并不限于此;第二,格林提出,當(dāng)我們面對非熟知的道德難題(unfamiliar moral problems)時(shí),我們應(yīng)當(dāng)更少地依賴自動(dòng)設(shè)定(自動(dòng)情感反應(yīng)),更多地依靠手動(dòng)模式(可控的道德推理),除非有某種認(rèn)知奇跡(cognitive miracle)[18](695-726),基于這種“無認(rèn)知奇跡原則”(The No Cognitive Miracles Principle),自動(dòng)駕駛汽車所面對的道德決策情境是“非熟知的道德難題”①對于如何界定“非熟知的道德難題”,格林提出的基本框架是:第一,文化發(fā)展與新技術(shù)導(dǎo)致的道德問題(如氣候變化、全球恐怖主義、全球貧困、生命倫理等);第二,由于直覺沖突導(dǎo)致的不同社群在道德實(shí)踐中的意見不一致。,在這種情況下應(yīng)當(dāng)以“可控的道德推理”做出決策,而非直覺性的道德判斷,這就與模擬人類即時(shí)性道德決策相矛盾。

      三、新興技術(shù)與倫理學(xué)的協(xié)同演化

      上一節(jié)中,我們考察了實(shí)驗(yàn)倫理學(xué)應(yīng)對自動(dòng)駕駛的道德決策難題的方式,即基于大數(shù)據(jù)、虛擬現(xiàn)實(shí)等新技術(shù)方法來解決另一個(gè)新興技術(shù)所產(chǎn)生的倫理問題,相比于傳統(tǒng)的“問卷調(diào)查”式的實(shí)驗(yàn)倫理學(xué),這種方式可以被稱為新技術(shù)路徑的實(shí)驗(yàn)倫理學(xué)。然而,麻煩在于,新技術(shù)自身還攜帶著未能解決的倫理難題,例如虛擬現(xiàn)實(shí)的固有悖論:對虛擬的現(xiàn)實(shí)感本身是一種認(rèn)知錯(cuò)覺,沒有這種錯(cuò)覺不可能感知到虛擬現(xiàn)實(shí)并形成沉浸感,但這種對虛擬現(xiàn)實(shí)的感知和沉浸反過來會(huì)影響人對真實(shí)世界的現(xiàn)實(shí)感,甚至使其發(fā)生改變[19](103)。此外,更深層的問題是沉浸式虛擬現(xiàn)實(shí)是否會(huì)創(chuàng)造出一種新的道德實(shí)在,例如當(dāng)前虛擬現(xiàn)實(shí)技術(shù)的升級版——元宇宙,導(dǎo)致主體在虛擬世界中的體驗(yàn)與現(xiàn)實(shí)世界中的體驗(yàn)趨同,那么是否大部分元宇宙的社會(huì)規(guī)范就是人類現(xiàn)實(shí)世界社會(huì)規(guī)范的等價(jià)轉(zhuǎn)移呢?進(jìn)一步,又如果元宇宙是無限多樣化的可能世界,那么在不同的元宇宙當(dāng)中是否存在完全不同的社會(huì)規(guī)范或者道德規(guī)范呢?

      相比基于思想實(shí)驗(yàn)的規(guī)范倫理學(xué)和基于“問卷調(diào)查”的實(shí)驗(yàn)倫理學(xué),新技術(shù)路徑的實(shí)驗(yàn)倫理學(xué)確實(shí)擴(kuò)大了實(shí)驗(yàn)倫理學(xué)的研究視野和精確性,如運(yùn)用于大范圍社會(huì)倫理實(shí)驗(yàn)[20](23989-23995),但也由于使用的新技術(shù)方法所負(fù)載的倫理問題而陷入困境。那么,對諸如自動(dòng)駕駛等新興技術(shù)的實(shí)驗(yàn)倫理學(xué)研究的意義何在呢?“電車難題”與自動(dòng)駕駛進(jìn)行類比的語境設(shè)定雖確有某種特設(shè)性的蘊(yùn)含,但也有其道德實(shí)踐意義。自動(dòng)駕駛汽車的優(yōu)化碰撞算法類似我們對兒童的道德教育,我們也認(rèn)為或希望他們永遠(yuǎn)不會(huì)碰到電車難題的情況,但我們?nèi)匀辉诮趟麄円环N道德規(guī)范,如果他們碰巧處于這類極端情況下,他們就可以使用道德規(guī)范做出反應(yīng)。這種理念的要點(diǎn)是:道德是通過逐步學(xué)習(xí)和平衡抽象規(guī)則、利益以及具體情境而起作用的。因此,我們的直覺并不獨(dú)立于更深層次的機(jī)制和道德目的,相反,它們建立在這些過程之上,使道德能夠?qū)崿F(xiàn)其目的。我們教孩子們預(yù)測和處理道德選擇,正如程序員教自動(dòng)駕駛汽車預(yù)測電車難題一樣。這是新技術(shù)路徑的實(shí)驗(yàn)倫理學(xué)研究需要預(yù)設(shè)一種特定道德情境的原因。

      進(jìn)一步,如果我們想在人工智能當(dāng)中實(shí)現(xiàn)一種接近人類道德或人類能接受的道德形式,我們的直覺仍然很重要,因此,新興技術(shù)的深刻社會(huì)影響要求從專家直覺轉(zhuǎn)向大眾直覺,從而導(dǎo)致了“問卷調(diào)查”式的實(shí)驗(yàn)倫理學(xué)研究。但是,“人類能接受的道德”不應(yīng)被視為被所有人或大多數(shù)人能接受的“應(yīng)做和不應(yīng)做”的清單,這可能導(dǎo)致將強(qiáng)制性的清單施加于多元化的大眾。因此,大數(shù)據(jù)、虛擬現(xiàn)實(shí)等新技術(shù)手段被引入實(shí)驗(yàn)倫理學(xué)的研究,基于當(dāng)前對自動(dòng)駕駛汽車倫理問題研究中最重要的“道德機(jī)器”實(shí)驗(yàn)和“沉浸式虛擬現(xiàn)實(shí)”實(shí)驗(yàn)的研究,本文試圖表明,“電車難題”的道德實(shí)驗(yàn)研究的目的不是僅僅找出公眾的道德直覺,或者計(jì)算大多數(shù)道德直覺中所處的位置,以解決我們應(yīng)該在電車難題中做什么道德決策的規(guī)范性問題。相反,它是用來揭示我們的道德體系是如何運(yùn)作的,“電車難題”和更普遍的實(shí)驗(yàn)倫理學(xué)研究的目的是找出公眾道德推理的機(jī)制,實(shí)驗(yàn)方法只是其中的一個(gè)環(huán)節(jié),它豐富了抽象的哲學(xué)推理并推動(dòng)其在真實(shí)世界中變成現(xiàn)實(shí)。實(shí)驗(yàn)倫理學(xué)在此處的意義在于:實(shí)驗(yàn)研究(廣義上還包括關(guān)于道德困境和其他情景的實(shí)驗(yàn)知識)與分析性和規(guī)范性推理結(jié)合在一起,最后在現(xiàn)實(shí)生活中被測試,從而有助于考察道德推理是如何被接受的。

      自動(dòng)駕駛汽車道德決策研究的困難表明了傳統(tǒng)規(guī)范倫理學(xué)框架在面對新興技術(shù)對道德秩序形成挑戰(zhàn)時(shí)的無力,對此,引入新興技術(shù)實(shí)驗(yàn)工具的實(shí)驗(yàn)倫理學(xué)研究起到了一定的補(bǔ)充作用。單向度要求自動(dòng)駕駛汽車的道德決策更像人類的思路并不能滿足人工智能系統(tǒng)做出更好道德決策的要求,在人工智能倫理研究中,我們需要接受機(jī)器決策的某些優(yōu)勢,如可預(yù)設(shè)、即時(shí)性、基于大數(shù)據(jù)等。大范圍問卷調(diào)查是實(shí)驗(yàn)倫理學(xué)的直覺民主化體現(xiàn),新技術(shù)的倫理問題需要在人機(jī)交互的語境中討論和解決。“電車難題”和更普遍的實(shí)驗(yàn)倫理學(xué)研究的另一個(gè)作用在于探索提出一種適應(yīng)人機(jī)交互的新的道德規(guī)范。當(dāng)前對自動(dòng)駕駛汽車道德問題的研究思路集中于如何使機(jī)器的道德行為更符合人類的道德規(guī)范,然而,在混合交通中廣泛存在的人機(jī)協(xié)作和人機(jī)交互行為將產(chǎn)生更多的道德難題,需要不同于現(xiàn)有人類倫理體系的道德規(guī)范加以應(yīng)對。

      如本文第一節(jié)中所述,人機(jī)駕駛方式的差異以及二者在交通行為決策中無法形成一致的預(yù)判,將增加自動(dòng)駕駛汽車與傳統(tǒng)汽車混合運(yùn)行時(shí)交通事故發(fā)生的可能性,這違背了人類社會(huì)引入自動(dòng)駕駛汽車的價(jià)值基礎(chǔ)。在當(dāng)前技術(shù)條件下,要實(shí)現(xiàn)某種人機(jī)協(xié)調(diào)的解決方式,除了人工智能學(xué)界主流的使機(jī)器行為更趨近于人的思路之外,還可以考慮改變?nèi)祟愸{駛員的駕駛行為方式,使其接近于機(jī)器,即某種人類道德規(guī)范的智能化。就道德智能化現(xiàn)象而言可大致分為兩類,一類是延續(xù)“道德物化”的理念,將人工智能作為道德技術(shù)物的存在方式間接作用于人類行為,從而達(dá)到對人類道德意識的糾正以及對道德實(shí)踐行為的規(guī)范作用;另一類是基于道德增強(qiáng)技術(shù),對人類道德認(rèn)知進(jìn)行深度介入,以實(shí)現(xiàn)對人腦層面的道德能力的擴(kuò)展。在人機(jī)交互的應(yīng)用語境中,既有機(jī)器模擬人類道德也包含人類道德的智能化,這種人機(jī)協(xié)同演化過程中可能形成的新道德規(guī)范的合法性需要通過是否構(gòu)成某種社會(huì)整體的道德進(jìn)步來判斷。

      倫理學(xué)傳統(tǒng)中對道德進(jìn)步(moral progress)的評判有以下四種主要標(biāo)準(zhǔn):認(rèn)知標(biāo)準(zhǔn)(epistemic cri?teria),即道德規(guī)范能夠更成功地描述道德實(shí)在;形式標(biāo)準(zhǔn)(formal criteria),即道德規(guī)范的適用范圍和權(quán)威性的擴(kuò)展便意味著道德進(jìn)步;實(shí)質(zhì)標(biāo)準(zhǔn)(substantive criteria),即存在一個(gè)對道德規(guī)范進(jìn)行評價(jià)的具有普遍有效性的基礎(chǔ);功能標(biāo)準(zhǔn)(functional criteria),即對道德進(jìn)步的判斷來自道德規(guī)范是否能滿足當(dāng)下社會(huì)中道德的功能,而這一功能來自社會(huì)經(jīng)驗(yàn)[21](3-15)。若將道德視為一種人工物,那么在道德規(guī)范體系中能否更好地履行其功能便可成為衡量道德進(jìn)步的標(biāo)準(zhǔn)。就此而言,以道德功能的效用性作為評判道德進(jìn)步的標(biāo)準(zhǔn)可以為道德智能化提供合法性辯護(hù),同時(shí)能夠與道德生活實(shí)踐中的多樣性協(xié)調(diào)一致。實(shí)際上,道德智能化的傾向不僅強(qiáng)化了人類道德判斷的穩(wěn)定性,而且由于道德智能化對道德行為生成原理采取多元路徑設(shè)計(jì),改善了人類因道德認(rèn)知局限而容易陷入道德觀念誤區(qū)的狀況。

      新興技術(shù)的快速迭代對人類當(dāng)前的道德規(guī)范不斷提出新的挑戰(zhàn),實(shí)驗(yàn)倫理學(xué)研究的意義在于:進(jìn)一步揭示人類直覺性道德判斷的特點(diǎn),尋找公眾道德推理的機(jī)制,從而與機(jī)器決策形成協(xié)調(diào)機(jī)制;同時(shí),新興技術(shù)的實(shí)驗(yàn)倫理學(xué)研究實(shí)際上為我們重新審視人類自身的道德規(guī)范是否適應(yīng)社會(huì)發(fā)展提供了重要的契機(jī),特別是各種新技術(shù)路徑的實(shí)驗(yàn)方法的運(yùn)用,極大推動(dòng)了倫理問題討論的民主化,擴(kuò)展了人類道德規(guī)范的多樣性。因此,新興技術(shù)推動(dòng)了倫理學(xué)概念體系和研究框架的變革,未來二者之間的可能關(guān)系是:新興技術(shù)需要依靠倫理學(xué)更好地符合人類道德規(guī)范體系;倫理學(xué)則需要借助新興技術(shù)擴(kuò)展研究方法和進(jìn)路。當(dāng)然,從倫理學(xué)自身的理論傳統(tǒng)出發(fā),我們?nèi)匀灰獓?yán)肅對待以下問題:新技術(shù)路徑的實(shí)驗(yàn)倫理學(xué)是否突破了倫理自然主義的范疇?實(shí)驗(yàn)倫理學(xué)的設(shè)計(jì)是否只能來源于規(guī)范倫理學(xué)傳統(tǒng)中的思想實(shí)驗(yàn)?[22](24)實(shí)驗(yàn)倫理學(xué)與道德心理學(xué)究竟應(yīng)通過怎樣的標(biāo)準(zhǔn)來劃分?如果我們的道德直覺是可靠的,那么心理證據(jù)應(yīng)該在道德原則的論證中發(fā)揮怎樣的作用?[23](430)新技術(shù)是否正在將規(guī)范倫理學(xué)研究逐步推向大眾化的方向?這都需要在新興技術(shù)與倫理學(xué)框架的協(xié)同演化當(dāng)中不斷追問,需要在技術(shù)與道德的實(shí)踐交互當(dāng)中加以解釋。

      猜你喜歡
      倫理學(xué)倫理決策
      《心之死》的趣味與倫理焦慮
      為可持續(xù)決策提供依據(jù)
      開拓·前沿·創(chuàng)新與學(xué)科建設(shè)——簡評《中醫(yī)生命倫理學(xué)》
      “紀(jì)念中國倫理學(xué)會(huì)成立40周年暨2020中國倫理學(xué)大會(huì)”在無錫召開
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      決策為什么失誤了
      倫理批評與文學(xué)倫理學(xué)
      醫(yī)改莫忘構(gòu)建倫理新機(jī)制
      “蟻?zhàn)瀣F(xiàn)象”的倫理學(xué)思考
      婚姻家庭法的倫理性及其立法延展
      建德市| 蓝山县| 囊谦县| 北辰区| 中山市| 正安县| 佛冈县| 墨竹工卡县| 盖州市| 原平市| 鄂托克旗| 璧山县| 阜城县| 永靖县| 华安县| 诏安县| 宁城县| 和硕县| 广西| 曲阳县| 廉江市| 惠水县| 洪泽县| 威信县| 湘潭县| 容城县| 林西县| 江门市| 富平县| 托克逊县| 化德县| 英山县| 萨嘎县| 元江| 三门县| 孟州市| 禹州市| 海南省| 康保县| 平凉市| 浦县|