楊 萌,石旭雯
(天津醫(yī)科大學(xué)醫(yī)學(xué)人文學(xué)院,天津 300070,mengyangphilosophy@163.com)
醫(yī)療人工智能在推動(dòng)醫(yī)療領(lǐng)域快速發(fā)展的同時(shí),也面臨著社會(huì)倫理方面的嚴(yán)峻挑戰(zhàn)。為保障人工智能向著增進(jìn)人類福祉的方向發(fā)展,美國電氣電子工程師學(xué)會(huì)和歐盟相繼提出將倫理價(jià)值嵌入機(jī)器人設(shè)計(jì)之中的倡議。鑒于醫(yī)療領(lǐng)域的具體性和特殊性,應(yīng)當(dāng)重視人工智能的應(yīng)用在患者安全、自主性、權(quán)利和尊嚴(yán)等醫(yī)學(xué)倫理價(jià)值方面的思考,由此引出本文一系列倫理考量:醫(yī)療機(jī)器人倫理設(shè)計(jì)的內(nèi)涵是什么?缺乏倫理設(shè)計(jì)和價(jià)值嵌入的醫(yī)療機(jī)器人可能會(huì)導(dǎo)致哪些倫理問題和風(fēng)險(xiǎn)?機(jī)器人倫理設(shè)計(jì)的實(shí)現(xiàn)目前有哪些可行的進(jìn)路和方法?醫(yī)療機(jī)器人倫理設(shè)計(jì)應(yīng)當(dāng)選擇何種進(jìn)路?
醫(yī)療機(jī)器人是目前人工智能領(lǐng)域的研究熱點(diǎn)[1],根據(jù)用途不同,目前的醫(yī)療機(jī)器人主要分為手術(shù)機(jī)器人、康復(fù)機(jī)器人以及服務(wù)機(jī)器人。經(jīng)過醫(yī)療人工智能的初步探索,已經(jīng)制造出能夠?yàn)獒t(yī)生提供關(guān)于預(yù)測(cè)、成像、病理診斷和治療等積極輔助的醫(yī)療機(jī)器人,例如美國FDA 批準(zhǔn)的首個(gè)人工智能診斷系統(tǒng)IDx-DR能夠檢測(cè)糖尿病視網(wǎng)膜病變,BCIs幫助治療神經(jīng)系統(tǒng)紊亂[2],以及達(dá)·芬奇手術(shù)機(jī)器人通過微創(chuàng)的方法實(shí)施復(fù)雜的外科手術(shù)。在強(qiáng)大的計(jì)算結(jié)構(gòu)、大數(shù)據(jù)分析以及機(jī)器學(xué)習(xí)等技術(shù)飛速發(fā)展的同時(shí),卻是人工智能倫理設(shè)計(jì)的滯后和價(jià)值導(dǎo)向的缺失,倫理規(guī)劃并未與技術(shù)發(fā)展同步,這種“道術(shù)分離”的發(fā)展方式造成了如今的“道術(shù)沖突”的困境,導(dǎo)致了如患者隱私的侵犯和醫(yī)患關(guān)系的物化等一系列倫理問題。
鑒于此,人工智能研究組織試圖尋找技術(shù)與倫理之間的和解與平衡,提出了關(guān)于人工智能時(shí)代倫理和道德價(jià)值重建的倡議。2017年電氣電子工程師學(xué)會(huì)(IEEE)在《人工智能設(shè)計(jì)的倫理準(zhǔn)則》中提出合乎倫理地設(shè)計(jì)、開發(fā)和應(yīng)用人工智能技術(shù),指導(dǎo)人們?cè)谥悄芟到y(tǒng)設(shè)計(jì)中將以人類福祉為本的倫理價(jià)值準(zhǔn)則嵌入自主系統(tǒng)[3]。同年,IEEE發(fā)布《合乎倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)優(yōu)化人類福祉的愿景》的報(bào)告,呼吁將倫理和道德規(guī)范嵌入人工智能系統(tǒng)中,關(guān)注人工智能設(shè)計(jì)的正義性和公平問題,指出人工智能設(shè)計(jì)目的是制造出能夠進(jìn)行自我推理、判斷、決策以及行動(dòng)的技術(shù)人工產(chǎn)物[4]。2018年歐盟發(fā)布《可信AI的倫理指南草案》,提倡制造“值得信賴的人工智能”(Trustworthy AI),明確指出將倫理納入設(shè)計(jì)階段,認(rèn)為人工智能的發(fā)展不僅應(yīng)當(dāng)確保技術(shù)的魯棒性和可靠性,還應(yīng)當(dāng)具備倫理的規(guī)范性,以實(shí)現(xiàn)“道德目的”[5]。由此,機(jī)器人倫理設(shè)計(jì)指的就是在設(shè)計(jì)過程中嵌入人類的倫理規(guī)范與道德規(guī)則,這種倫理設(shè)計(jì)體現(xiàn)了人工智能設(shè)計(jì)的邏輯起點(diǎn)與本質(zhì)要求[4]。
同樣,醫(yī)療機(jī)器人倫理設(shè)計(jì)指的是將人類的倫理價(jià)值嵌入醫(yī)療機(jī)器人的設(shè)計(jì)過程中,而鑒于醫(yī)學(xué)倫理學(xué)的特殊性,醫(yī)療機(jī)器人倫理設(shè)計(jì)指的就是以醫(yī)學(xué)倫理規(guī)范為指導(dǎo)原則,以患者的基本權(quán)利和尊嚴(yán)為中心,在智能系統(tǒng)的設(shè)計(jì)中充分參考并融入醫(yī)學(xué)倫理價(jià)值,像規(guī)范醫(yī)療人員行為一樣規(guī)范醫(yī)療機(jī)器人的行為,使醫(yī)療機(jī)器人的行為遵循一般的醫(yī)學(xué)倫理原則和規(guī)范,甚至在一定程度上能夠依據(jù)具體情景進(jìn)行恰當(dāng)?shù)膫惱頉Q策,具體來說,就是將醫(yī)療領(lǐng)域認(rèn)可的醫(yī)學(xué)倫理學(xué)的道德價(jià)值理論、原則和規(guī)范程序化為道德代碼,嵌入醫(yī)療機(jī)器人的設(shè)計(jì)系統(tǒng)之中,同時(shí),利用強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù)對(duì)其進(jìn)行成長性的道德學(xué)習(xí)和倫理訓(xùn)練,使其在面臨實(shí)際的醫(yī)療倫理情景時(shí)能夠采取合乎倫理的行動(dòng)。由此,這種醫(yī)療機(jī)器人倫理設(shè)計(jì)的目標(biāo)就是在醫(yī)療人工智能的語境中,將醫(yī)學(xué)倫理規(guī)范具體化,提供醫(yī)療人工智能系統(tǒng)開發(fā)、使用與實(shí)施的依據(jù),避免醫(yī)療人工智能技術(shù)異化,使其行為能夠保障醫(yī)療主體的自主性、尊嚴(yán)、隱私、安全和利益,為醫(yī)療人工智能的發(fā)展指明一種合乎倫理的方向。
鑒于醫(yī)療機(jī)器人應(yīng)用領(lǐng)域的具體性和特殊性,倫理設(shè)計(jì)和價(jià)值嵌入對(duì)醫(yī)療機(jī)器人的作用不容忽視。下文將具體分析缺失倫理設(shè)計(jì)的醫(yī)療機(jī)器人所帶來的倫理困境和風(fēng)險(xiǎn)。
患者的自主權(quán)是指患者就有關(guān)自己的醫(yī)療問題作出決定的權(quán)利,即患者有權(quán)決定所有影響其醫(yī)療的干預(yù)措施,這是最基本的一種患者權(quán)利,彰顯了患者的生命價(jià)值和人格尊嚴(yán)。由于醫(yī)療活動(dòng)的復(fù)雜多樣性,且現(xiàn)階段醫(yī)療機(jī)器人的智能水平較低,其行動(dòng)只奉行技術(shù)主義,缺乏基本的倫理規(guī)范和價(jià)值考量,在實(shí)際使用過程中可能會(huì)出現(xiàn)過度限制患者自主意愿的現(xiàn)象。比如,當(dāng)患有高血壓心臟病的老齡患者拒絕接受護(hù)理機(jī)器人的用藥提醒或服務(wù),這時(shí)智能護(hù)理機(jī)器人可能會(huì)出于程序的指令機(jī)械地控制使用者,強(qiáng)制患者服藥,表現(xiàn)出一種令人反感的強(qiáng)家長主義;另外,根據(jù)學(xué)者的調(diào)查,一些老齡人并不希望所有人知道他們?cè)诩抑械?,認(rèn)為可以自行克服這些困難并在需要幫助的時(shí)候再通知,但是護(hù)理機(jī)器人一旦發(fā)現(xiàn)其護(hù)理對(duì)象跌倒,就會(huì)即刻通知家屬或醫(yī)護(hù)人員,這就出現(xiàn)了違背老齡患者自主意愿的矛盾[6]。由此,隨著人工智能越來越多地參與醫(yī)療活動(dòng),平衡患者的自主意愿與醫(yī)療策略的倫理問題越加突出,使得在醫(yī)療人工智能系統(tǒng)的開發(fā)設(shè)計(jì)中對(duì)患者自主權(quán)的倫理價(jià)值嵌入更為迫切。
在復(fù)雜且模糊的醫(yī)療環(huán)境下,只遵守程序卻無倫理價(jià)值嵌入的醫(yī)療機(jī)器人是危險(xiǎn)的,它們?cè)谛袆?dòng)上是不安全、不受控制且無法預(yù)測(cè)的[7]。Guang Zhong Yang等指出目前醫(yī)療機(jī)器人已經(jīng)發(fā)展到有條件的自主階段,例如手術(shù)機(jī)器人可以在操作員的密切監(jiān)督下自主完成手術(shù),可活動(dòng)的下肢假肢人工智能裝置可以感知佩戴者的欲望自動(dòng)移動(dòng)和調(diào)整,且不會(huì)引起穿戴者的任何直接注意[8]。在醫(yī)療機(jī)器人的自主性不斷提高的過程中,忽視倫理的設(shè)計(jì)和考量會(huì)對(duì)患者的生命健康和安全造成潛在的威脅,因此,醫(yī)療人工智能專家在設(shè)計(jì)之初就應(yīng)該把“不傷害原則”嵌入醫(yī)療機(jī)器人中,以保證患者生命健康為前提,從而保障醫(yī)療機(jī)器人使用的安全;另外,保守醫(yī)密作為基本醫(yī)德準(zhǔn)則體現(xiàn)了對(duì)患者權(quán)利的維護(hù)和尊重。而醫(yī)療機(jī)器人對(duì)患者信息的采集更為全面,如在特殊領(lǐng)域,護(hù)理機(jī)器人還會(huì)參與到患者的私人生活中,通過佩戴傳感器甚至視頻監(jiān)控將患者的生理狀況、飲食習(xí)慣、生活規(guī)律等用戶提供的所有信息數(shù)據(jù)進(jìn)行分析,造成了相應(yīng)的隱私數(shù)據(jù)泄露的安全隱患。隱私和數(shù)據(jù)保護(hù)必須在醫(yī)療人工智能系統(tǒng)生命周期的各個(gè)階段得到保證,這不僅需要相關(guān)主體具備一定的倫理與法律意識(shí),將隱私保護(hù)的倫理價(jià)值觀嵌入醫(yī)療機(jī)器人也是可行之路。
另外,缺乏倫理設(shè)計(jì)的醫(yī)療機(jī)器人還導(dǎo)致醫(yī)療領(lǐng)域的物化現(xiàn)象。所謂 “物化現(xiàn)象”指的是:“像對(duì)待無生命物質(zhì)那樣對(duì)待人:推、拉、拽一個(gè)人,不把他當(dāng)作一個(gè)有生命的個(gè)體[6]?!?在與患者互動(dòng)時(shí),缺失倫理設(shè)計(jì)的醫(yī)療機(jī)器人只從生物學(xué)的角度對(duì)其進(jìn)行治療,僅僅將患者視為一架需要修理的精密“機(jī)器”,按照邏輯規(guī)則行事并以完成程序?yàn)槟康腫9]。這種物化操控式的醫(yī)療服務(wù),例如替代麻醉醫(yī)師的人工智能系統(tǒng)Sedasys進(jìn)行鎮(zhèn)靜提供和監(jiān)測(cè)、護(hù)理者機(jī)器人進(jìn)行喂飯等護(hù)理工作、機(jī)器人轉(zhuǎn)運(yùn)車搬運(yùn)患者,從而導(dǎo)致對(duì)患者尊嚴(yán)和人文關(guān)懷方面的需求的忽視,嚴(yán)重阻礙了醫(yī)學(xué)自身的健康良性發(fā)展。這種物化現(xiàn)象缺乏對(duì)患者的心理關(guān)注,使得醫(yī)患關(guān)系變得淡漠,可能會(huì)產(chǎn)生新的醫(yī)療糾紛和矛盾。盡管只具備醫(yī)療職業(yè)技能卻缺乏醫(yī)學(xué)人文精神的醫(yī)療機(jī)器人永遠(yuǎn)無法替代人類醫(yī)生,但是鑒于其在醫(yī)療領(lǐng)域自主程度和參與程度的不斷提高,對(duì)醫(yī)療機(jī)器人進(jìn)行價(jià)值敏感性的設(shè)計(jì)是必要的,如此醫(yī)療機(jī)器人才更易被患者所接受,更好地為患者服務(wù),從而達(dá)到醫(yī)學(xué)治療的最佳效果。
在與患者互動(dòng)過程中,缺乏倫理價(jià)值嵌入的醫(yī)療機(jī)器人可能會(huì)忽視不同患者群體之間的差異性,如風(fēng)俗習(xí)俗、文化信仰、性別等,從而引發(fā)相關(guān)歧視等問題,影響智能醫(yī)療機(jī)器人的正義性。歐盟設(shè)立的AI高級(jí)專家組指出,無論是有意還是無意,使用AI造成的直接或間接歧視會(huì)導(dǎo)致對(duì)特定群體的偏見和邊緣化的問題[5]。例如,護(hù)理機(jī)器人為使用者推薦食譜時(shí)可能會(huì)忽略其飲食禁忌;另外,受醫(yī)療人工智能系統(tǒng)測(cè)試所需患者數(shù)據(jù)潛在偏好的影響,智能輔助診斷系統(tǒng)將某些診斷指定為致命的,可能導(dǎo)致醫(yī)師對(duì)治療方案作出不利的調(diào)整[10]。因此,為了規(guī)避偏見,保障社會(huì)公平,讓醫(yī)療人工智能系統(tǒng)更可靠,不僅應(yīng)當(dāng)將公正、非歧視等基本倫理規(guī)范嵌入倫理設(shè)計(jì)之中,還應(yīng)當(dāng)加強(qiáng)多方合作,將不同地域和不同醫(yī)療機(jī)構(gòu)的具有代表性的、結(jié)構(gòu)化、高質(zhì)量健康數(shù)據(jù)用于醫(yī)療人工智能設(shè)備的深度學(xué)習(xí)訓(xùn)練中。
在推動(dòng)人工智能倫理設(shè)計(jì)的大背景下,國內(nèi)外學(xué)者探討和研究了機(jī)器人倫理設(shè)計(jì)和價(jià)值嵌入的具體方法和進(jìn)路,目前具有代表性的主要有自上而下進(jìn)路、自下而上進(jìn)路和關(guān)系論進(jìn)路三種理論成果。
“自上而下”是一種基于規(guī)則的方法,是將倫理規(guī)范轉(zhuǎn)換為邏輯演算,編寫明確的倫理規(guī)則的程序,使機(jī)器人能夠根據(jù)程序進(jìn)行倫理判斷和選擇。目前,一些學(xué)者如安德森(Michael Anderson) 等通過案例研究,提出一種確保自主系統(tǒng)倫理行為的CPB(case supported principle-based behavior paradigm) 范式,建議通過倫理學(xué)家和人工智能科學(xué)家的合作,致力于研究能夠達(dá)成共識(shí)的倫理規(guī)范,以確定機(jī)器人行為的尺度和界限。他們認(rèn)為生物醫(yī)學(xué)倫理比其他領(lǐng)域能夠達(dá)成更多的共識(shí),所以嘗試通過一些醫(yī)學(xué)倫理案例來測(cè)試這種方法。他們以不傷害、有利、自主性為基本指導(dǎo)原則,將特定的醫(yī)學(xué)倫理案例如患者拒絕醫(yī)生提出的治療方案進(jìn)行歸納,通過機(jī)器學(xué)習(xí)技術(shù)抽象出倫理原則并編寫成計(jì)算機(jī)程序,在進(jìn)一步的案例中對(duì)此進(jìn)行檢驗(yàn),不斷重復(fù)直至最后得出與預(yù)期相符的結(jié)論。這種進(jìn)路已嘗試應(yīng)用于制造某些醫(yī)療機(jī)器人,如醫(yī)學(xué)倫理顧問系統(tǒng)Medical Ethics Expert能夠在醫(yī)學(xué)倫理困境中給用戶提供倫理建議,還有Ethical Eldercare System能夠衡量患者拒絕服藥情況以決定是否嚴(yán)重到要通知醫(yī)生或者監(jiān)護(hù)人[11]。
“自下而上”進(jìn)路指通過復(fù)雜的機(jī)器學(xué)習(xí)和適應(yīng)系統(tǒng),模擬道德心理機(jī)制以及倫理互動(dòng)的情景如學(xué)習(xí)、情感、社交等[12],使機(jī)器人能夠習(xí)得道德感知與倫理抉擇的能力。IEEE全球倫理倡議表示:“最近在機(jī)器學(xué)習(xí)和感知方面的研究可能使研究人員在探索自下而上的方法上有所突破,即人工智能系統(tǒng)像一個(gè)孩子那樣慢慢學(xué)習(xí),增加對(duì)其環(huán)境和人類價(jià)值的理解,這種方式是安全的且能夠接受的[3]?!币恍C(jī)器倫理的研究專家,如貝羅(Paul Bello)反對(duì)讓機(jī)器人固守某些倫理原則,認(rèn)為應(yīng)當(dāng)通過計(jì)算認(rèn)知結(jié)構(gòu)的方式實(shí)現(xiàn)機(jī)器人倫理建構(gòu),提出了一種建構(gòu)道德機(jī)器人的認(rèn)知模型LIDA(Learning Intelligent Distribution Agent),這種模型是唯一把感覺和感情融入認(rèn)知過程,不但可以應(yīng)用于設(shè)計(jì)自主行為體的控制系統(tǒng)和道德抉擇模型,甚至還可能有利于推進(jìn)對(duì)人類思維的認(rèn)知和理解,能夠考察與道德判斷有關(guān)的多種具體機(jī)制[13]。但鑒于目前科技水平和機(jī)器人學(xué)習(xí)能力的有限性,這種進(jìn)路的真正實(shí)現(xiàn)尚需時(shí)日。
有些學(xué)者,如考科爾伯格(Mark Coeckelbergh)主張從關(guān)注機(jī)器人的內(nèi)在狀態(tài)轉(zhuǎn)向關(guān)注機(jī)器人的外在表象和行為,重點(diǎn)探討人與機(jī)器人如何互動(dòng)。實(shí)際上,人類道德建構(gòu)在很大程度上以道德表象為基礎(chǔ),因此機(jī)器人可以通過模擬人類道德表象,表現(xiàn)得合乎倫理,從而促進(jìn)人與機(jī)器的和諧共處。對(duì)此,以護(hù)理機(jī)器人倫理問題研究為基礎(chǔ),凡·溫斯伯荷(Aimee van Wynsberghe)等提出一種價(jià)值敏感設(shè)計(jì)CCVSD (Care-Centered Value Sensitive Design)進(jìn)路,在信息系統(tǒng)設(shè)計(jì)和人機(jī)交互領(lǐng)域的設(shè)計(jì)之中嵌入道德價(jià)值,注重在不同環(huán)境中分析具體的倫理問題。他建議倫理學(xué)家與機(jī)器人設(shè)計(jì)專家進(jìn)行合作,深入具體的醫(yī)療或護(hù)理環(huán)境中,詳細(xì)識(shí)別和探討護(hù)理機(jī)器人的特征、表象及功能,以闡明其通過行為與互動(dòng)表現(xiàn)出來的各種價(jià)值[13]。這種進(jìn)路目前已經(jīng)進(jìn)行了初步嘗試,例如,哈爾濱市兒童醫(yī)院點(diǎn)醫(yī)科技聯(lián)手圖靈設(shè)計(jì)的自閉癥情感陪伴機(jī)器人RoBoHoN,通過主動(dòng)搭訕、跳舞、倒立、擁抱等肢體動(dòng)作等人機(jī)交互方式提供倫理和情感支持,消除自閉癥兒童的戒備心。
上述三種進(jìn)路各有其優(yōu)勢(shì)和不足。自上而下進(jìn)路將倫理規(guī)則明確定義出來,形成一套倫理困境的表征框架,因而具備一定的確定性和可預(yù)測(cè)性,是一種相對(duì)安全的倫理設(shè)計(jì)方法。但是,一方面,它面臨著何種道德規(guī)范和原則能夠?yàn)槿藗兯毡榻邮艿碾y題,對(duì)同一道德困境人們很難達(dá)成共識(shí);另一方面,它缺乏靈活性,將復(fù)雜的倫理活動(dòng)簡單化和固化,只能夠解決預(yù)測(cè)范圍內(nèi)的倫理問題,無法解決超出預(yù)設(shè)條件的新問題,無法兼顧不同醫(yī)療情景和患者的差異;這些不足在自下而上進(jìn)路中可以得到很好的彌補(bǔ)。自下而上進(jìn)路使人工智能系統(tǒng)在經(jīng)驗(yàn)中了解規(guī)則,具備很強(qiáng)的靈活性,能夠在不同情境中和環(huán)境下體現(xiàn)出一定動(dòng)態(tài)性和差異性,面臨新的任務(wù)和挑戰(zhàn)時(shí)能夠不斷改變和更新道德認(rèn)知和判斷的水平。但是,這種高度自主的人工智能是不確定和很難預(yù)測(cè)的,其安全性和可接受性存在一定的爭議。不僅如此,鑒于知識(shí)和技術(shù)的局限性,人工智能科學(xué)家目前研發(fā)的機(jī)器人還遠(yuǎn)不能具備像道德決策這樣高級(jí)認(rèn)知的能力,但是未來這種前景是存在的;前兩種進(jìn)路將重心放在人工智能系統(tǒng)內(nèi)部,卻遠(yuǎn)離了用戶的需求和偏好,而關(guān)系論進(jìn)路考慮到人類生活的情感和切身體驗(yàn)的需要,將這些融入設(shè)計(jì)中,具備很強(qiáng)的可操作性,這種由情感互動(dòng)、社會(huì)性和環(huán)境形成的動(dòng)態(tài)關(guān)系是機(jī)器人在社會(huì)背景下發(fā)揮功能所必不可少的。但是,關(guān)系論進(jìn)路對(duì)具體語境的依賴性過強(qiáng),在設(shè)計(jì)的步驟和過程中所需的工作量較大。
人工智能技術(shù)并非閉環(huán)系統(tǒng),對(duì)于人工智能的價(jià)值反省與倫理考量也在不斷發(fā)展,由此,機(jī)器人倫理設(shè)計(jì)應(yīng)當(dāng)遵循動(dòng)態(tài)性與差異性等基本原則。現(xiàn)實(shí)的醫(yī)療倫理情境是復(fù)雜且多樣化的,試圖將多樣與復(fù)雜的道德歸置于一元論的進(jìn)路過于片面化和理想化,上述三種倫理設(shè)計(jì)進(jìn)路各有短長,單獨(dú)使用任何一種倫理設(shè)計(jì)進(jìn)路都無法勝任,需要開發(fā)一種集成系統(tǒng)。因此,醫(yī)療機(jī)器人倫理設(shè)計(jì)的進(jìn)路的最優(yōu)選擇是一種綜合集成進(jìn)路,這是一種將各種方法結(jié)合起來,發(fā)揮各自的優(yōu)勢(shì)并克服各自的弱點(diǎn)而形成的綜合方法。
首先,這種綜合集成進(jìn)路兼顧了醫(yī)療機(jī)器人倫理設(shè)計(jì)的理論起點(diǎn)的全面性和完整性。醫(yī)療機(jī)器人的倫理設(shè)計(jì)需要尋求一種全球共識(shí),應(yīng)當(dāng)構(gòu)想一種更為合理的倫理整合方案作為設(shè)計(jì)的理論基礎(chǔ),如此才能完整揭示人類道德生活意義的全面圖景。因此,將西方責(zé)任倫理和儒家的關(guān)系倫理進(jìn)行相互補(bǔ)充和兼容,是實(shí)現(xiàn)整合性倫理一種設(shè)想,具有一定的邏輯可能性和現(xiàn)實(shí)必要性,當(dāng)代的倫理已經(jīng)初步顯露出這種匯通和整合的趨勢(shì)。其中,責(zé)任倫理將規(guī)則論和德性論統(tǒng)一起來,體現(xiàn)了規(guī)則倫理和美德倫理的融合[14]。這種責(zé)任倫理正體現(xiàn)了自上而下和自下而上相結(jié)合的混合進(jìn)路,為醫(yī)療機(jī)器人的倫理設(shè)計(jì)提供了基本的醫(yī)學(xué)倫理規(guī)則的約束,而自下而上進(jìn)路與美德倫理相契合,使醫(yī)療機(jī)器人的倫理設(shè)計(jì)蘊(yùn)含著對(duì)道德溫情和關(guān)懷原則的認(rèn)知和學(xué)習(xí);而傳統(tǒng)儒家的關(guān)系倫理強(qiáng)調(diào)互動(dòng)的意義,這與機(jī)器人倫理設(shè)計(jì)的關(guān)系論進(jìn)路相契合,體現(xiàn)了醫(yī)患互動(dòng)和關(guān)系和諧的重要性。由此,責(zé)任倫理與關(guān)系倫理的協(xié)同互補(bǔ)符合醫(yī)療機(jī)器人倫理設(shè)計(jì)和價(jià)值嵌入的理論追求和發(fā)展趨勢(shì),通過三種進(jìn)路的合作是建立一種全面的綜合倫理設(shè)計(jì)模型的可行之路。
其次,這種綜合集成進(jìn)路體現(xiàn)了醫(yī)療機(jī)器人倫理設(shè)計(jì)的特殊要求。不同于其他類型的人工智能,醫(yī)療機(jī)器人的服務(wù)對(duì)象、應(yīng)用領(lǐng)域、價(jià)值目標(biāo)和實(shí)現(xiàn)效果都具有其特殊性,醫(yī)療機(jī)器人與患者的生命健康和生活幸福息息相關(guān),因此,其倫理設(shè)計(jì)更應(yīng)當(dāng)重視原則性、靈活性和價(jià)值敏感性三者的兼容。自上而下進(jìn)路作為醫(yī)療機(jī)器人倫理設(shè)計(jì)和價(jià)值嵌入的起點(diǎn),以醫(yī)學(xué)倫理價(jià)值的預(yù)定義框架為基礎(chǔ),能夠明確醫(yī)療中不道德行為(傷害、泄露隱私)和道德行為(尊重、公正),以避免規(guī)范偏差,指明具體行為的規(guī)則界限和尺度;而對(duì)于醫(yī)療主體和倫理情景的多元性和差異性,需要運(yùn)用自下而上進(jìn)路,運(yùn)用機(jī)器學(xué)習(xí)和適應(yīng)機(jī)制積累經(jīng)驗(yàn),以應(yīng)對(duì)不同的主體和醫(yī)療環(huán)境;此外,醫(yī)療機(jī)器人的倫理設(shè)計(jì)以患者為中心,通過模擬道德表象行為和價(jià)值敏感的設(shè)計(jì),能夠促使醫(yī)療機(jī)器人與患者進(jìn)行有效交流與良性互動(dòng),更容易為患者接受和信任。由此,將三種進(jìn)路結(jié)合起來的綜合集成進(jìn)路,不僅能夠確保醫(yī)療機(jī)器人的行為符合公認(rèn)的醫(yī)學(xué)倫理規(guī)范,還能夠靈活地應(yīng)對(duì)不同的醫(yī)療倫理情景,更能夠兼顧到和諧友好的機(jī)患關(guān)系,從而達(dá)到應(yīng)用醫(yī)療機(jī)器人的最佳效果。
值得注意的是,對(duì)于醫(yī)療機(jī)器人的倫理設(shè)計(jì)和價(jià)值嵌入必須結(jié)合一定的評(píng)價(jià)方式,如道德圖靈測(cè)試和證實(shí)方法,根據(jù)評(píng)價(jià)結(jié)果和實(shí)踐效果不斷地調(diào)整和改進(jìn)倫理設(shè)計(jì)的進(jìn)路。任何關(guān)于機(jī)器人倫理進(jìn)路設(shè)計(jì)的探討都具有一定啟發(fā)意義,這需要人工智能科學(xué)家與哲學(xué)家緊密合作,更多地關(guān)注和參與到機(jī)器人倫理設(shè)計(jì)的理論和技術(shù)的研究中去。