陳安天,張新慶
(1 中國(guó)醫(yī)學(xué)科學(xué)院北京協(xié)和醫(yī)學(xué)院北京協(xié)和醫(yī)院心內(nèi)科,北京 100730,chenantian1@163.com;2 北京協(xié)和醫(yī)學(xué)院人文和社會(huì)科學(xué)學(xué)院,北京 100005)
達(dá)芬奇機(jī)器人已在臨床上應(yīng)用;常規(guī)的藥品研發(fā)過程整合生物、化學(xué)以及制藥研發(fā),流程十分復(fù)雜,AI技術(shù)已被用來輔助篩選藥物靶點(diǎn),有助于研發(fā)方案最佳化[1]。同時(shí),機(jī)器人診療引發(fā)了倫理和法律問題,包括:道德風(fēng)險(xiǎn)[2]、患者隱私泄露[3]、侵權(quán)責(zé)任[4]及主體地位[5]等。本文將重點(diǎn)討論AI輔助診療引發(fā)的倫理責(zé)任問題。在第七版《現(xiàn)代漢語詞典》中,責(zé)任指:“分內(nèi)應(yīng)做的事”和“沒有做好分內(nèi)應(yīng)做的事,因而應(yīng)當(dāng)承擔(dān)的過失”。本文中的責(zé)任的意象應(yīng)取后者。技術(shù)一詞也有兩個(gè)意象,分別為:“人類在認(rèn)識(shí)自然和利用自然的過程中積累起來并在生產(chǎn)勞動(dòng)中體現(xiàn)出來的經(jīng)驗(yàn)和知識(shí),也泛指其他操作方面的技巧”以及“技術(shù)裝備”。AI引發(fā)的責(zé)任問題應(yīng)該是“AI這一技術(shù)裝備沒有做好分內(nèi)應(yīng)做的事,因而應(yīng)當(dāng)承擔(dān)的過失”。假如機(jī)器人醫(yī)生推薦危及患者生命的診療方案,而人類醫(yī)生沒有表示異議,并實(shí)施了治療方案,最終導(dǎo)致嚴(yán)重不良事件發(fā)生,引發(fā)醫(yī)療糾紛。那么,機(jī)器人醫(yī)生是責(zé)任主體嗎?人類醫(yī)生、機(jī)器人醫(yī)生及廠家分別應(yīng)該承擔(dān)怎樣的責(zé)任?
醫(yī)學(xué)影像學(xué)技術(shù)對(duì)于疾病的診斷、評(píng)估和管理十分重要。臨床上大量影像學(xué)資料的快速積累使醫(yī)生幾乎將全部時(shí)間用于閱片,無足夠的時(shí)間結(jié)合臨床實(shí)踐分析研究結(jié)果。與此同時(shí),許多實(shí)踐中的誤診誤治也與未能正確解讀影像學(xué)圖像相關(guān)。AI技術(shù)可以作為補(bǔ)充閱片技術(shù),將醫(yī)生從繁雜的閱片工作中部分解脫出來。還可以提升閱片質(zhì)量水平,根據(jù)大數(shù)據(jù)幫助醫(yī)生選擇最合適的化驗(yàn)檢查和治療手段。持有技術(shù)樂觀主義觀點(diǎn)的論者稱,臨床上不能診斷的個(gè)案有很多,AI輔助診斷并不失為一項(xiàng)提高現(xiàn)有診斷水平的新技術(shù)[6]。
不過,有人會(huì)持有一種技術(shù)悲觀主義立場(chǎng):AI可以將既往人類的經(jīng)驗(yàn)和現(xiàn)存的海量數(shù)據(jù)結(jié)合起來,對(duì)現(xiàn)有患者情況進(jìn)行判斷,形成知識(shí)黑箱?!昂谙洹边@一概念起源于控制論,指內(nèi)部狀態(tài)不被外部知曉的系統(tǒng)。許多AI領(lǐng)域依賴的機(jī)器學(xué)習(xí),正是依靠不被外人所了解的算法來運(yùn)作的,AI內(nèi)部的算法構(gòu)成了一個(gè)算法黑箱。AI的核心是內(nèi)部的算法,這屬于共識(shí)的商業(yè)機(jī)密,公開了就會(huì)被業(yè)界模仿。AI廠商因?yàn)閾?dān)心軟件的死亡,“主動(dòng)”使得算法成為黑箱。這種人為制造不確定知識(shí)的做法誘發(fā)了針對(duì)患者的安全隱患,違反了不傷害原則。例如,AI的行為舉止都是由內(nèi)在程序預(yù)先設(shè)定的,需要足夠完善的算法保障運(yùn)行過程的正常進(jìn)行。如果算法出現(xiàn)差錯(cuò),就會(huì)使得AI天生的對(duì)特定的人群產(chǎn)生“算法歧視”。一方面,即便算法公開,也并不能解決算法歧視等問題[7];另一方面,算法與日常語言不同,是用計(jì)算機(jī)語言寫成的,其專業(yè)性也使其“被動(dòng)”的不能被外界知曉。AI研究者和使用者很難事先做到精準(zhǔn)的利弊計(jì)算,也就無法避免此類事件的發(fā)生[8]。
實(shí)際上,技術(shù)樂觀派和技術(shù)悲觀派代表了兩種截然相反的針對(duì)當(dāng)下AI算法黑箱的差異性認(rèn)知,本也無可厚非。兼聽則明,醫(yī)學(xué)專業(yè)人員需要掌控AI技術(shù)在臨床應(yīng)用中的價(jià)值,遵循收益最大化和風(fēng)險(xiǎn)最低化相結(jié)合的原則,改進(jìn)技術(shù),避免診斷過程中的算法歧視。此外,由于AI診斷完全依靠?jī)?nèi)部機(jī)器學(xué)習(xí)算法,很難確定其在診斷罕見病方面的能力,因此需要醫(yī)務(wù)人員發(fā)揮專業(yè)自主性,嚴(yán)格把關(guān),避免其蛻變成一個(gè)“知識(shí)黑箱”[9]。設(shè)計(jì)不完善的黑箱可能會(huì)引發(fā)臨床診斷的不確定性,可能存在尚未被算法納入的臨床情況導(dǎo)致算法崩潰的發(fā)生。AlphaGo在對(duì)陣?yán)钍朗瘯r(shí)就曾因?yàn)閲迓渥釉谒惴ǖ穆┒瓷蠈?dǎo)致崩盤。在臨床實(shí)踐中,這表現(xiàn)為個(gè)別化驗(yàn)檢查結(jié)果的微小偏差就會(huì)導(dǎo)致診斷結(jié)果的迥然不同,這種臨床診斷過程的不確定性是醫(yī)生和患者都不能接受的。算法黑箱還會(huì)帶來知情同意問題,患者很難認(rèn)可自己不理解的事物,尤其是沒有人類情感的冰冷的機(jī)器人,患者的不理解會(huì)給明確診斷及治療方案的選擇增加額外的難度。
算法歧視并不少見,在金融領(lǐng)域便存在弱勢(shì)群體的信譽(yù)得分被降低、拒絕有色人種貸款以及貸款信息更多地被展示給低收入群體等。目前針對(duì)醫(yī)療領(lǐng)域算法歧視的表述并不多,這里筆者結(jié)合醫(yī)學(xué)專業(yè)背景和機(jī)器學(xué)習(xí)知識(shí)進(jìn)行闡述。機(jī)器學(xué)習(xí)的過程大體上是從訓(xùn)練數(shù)據(jù)集中歸納總結(jié)出一類患者的特點(diǎn),并將此作為篩選標(biāo)準(zhǔn)應(yīng)用于測(cè)試數(shù)據(jù)集,若合格便進(jìn)一步推廣并應(yīng)用。結(jié)合其他領(lǐng)域的算法歧視實(shí)例,醫(yī)療領(lǐng)域的算法歧視可能包括:針對(duì)低收入人群推薦療效欠佳但價(jià)格較低的治療方案,診療措施受性別影響等。
目前,AI技術(shù)已在治療領(lǐng)域得到廣泛應(yīng)用,O’Sullivan等對(duì)此進(jìn)行了探討,涵蓋了法律及倫理等多方面的問題,并闡述了AI的風(fēng)險(xiǎn),比如:受到網(wǎng)絡(luò)安全的影響,需要足夠的測(cè)試,難以進(jìn)行的軟件認(rèn)證等[10]。AI的風(fēng)險(xiǎn)包括:診療失誤、產(chǎn)品缺陷、患者接受程度低、行業(yè)標(biāo)準(zhǔn)缺乏以及監(jiān)管缺失等。目前,在現(xiàn)今應(yīng)用較廣的輔助性機(jī)器人手術(shù)領(lǐng)域,相應(yīng)的行業(yè)標(biāo)準(zhǔn)還尚未建立,全自動(dòng)機(jī)器人的標(biāo)準(zhǔn)更是一片空白。即便有了相關(guān)標(biāo)準(zhǔn),患者對(duì)于全自動(dòng)機(jī)器人手術(shù)的接受度也尚未可知[11],機(jī)器人診療甚至有可能降低患者康復(fù)的信心,加重患者焦慮情緒。此外,手術(shù)機(jī)器人在實(shí)施手術(shù)過程中可能會(huì)出現(xiàn)失誤,可能是醫(yī)生操作導(dǎo)致的,也可能來源于機(jī)器人本身的缺陷,有導(dǎo)致患者的殘疾或者死亡的風(fēng)險(xiǎn)。風(fēng)險(xiǎn)既來源于AI本身,也來源于監(jiān)管的缺乏。缺乏醫(yī)療領(lǐng)域AI的準(zhǔn)入和質(zhì)量標(biāo)準(zhǔn),難以確保AI整體水平,無法保證AI的安全可靠性。監(jiān)管的缺失使得這一現(xiàn)象更加泛濫,AI技術(shù)目前缺乏規(guī)范性文件的指引,無針對(duì)相關(guān)專業(yè)人員的培訓(xùn),在模擬人的測(cè)試結(jié)果不可靠,嚴(yán)重影響醫(yī)療質(zhì)量,也帶來醫(yī)療數(shù)據(jù)信息安全問題。
人類和AI的關(guān)系是多樣的,可以將AI機(jī)器人分為兩類,一類為通過計(jì)算機(jī)領(lǐng)域的機(jī)器學(xué)習(xí)等掌握了一定的醫(yī)學(xué)知識(shí),最終具有獨(dú)立診斷能力的機(jī)器人醫(yī)生;另一類機(jī)器人則根據(jù)大數(shù)據(jù)等提供診療意見,最終診療措施由醫(yī)生審核制定,僅相當(dāng)于輔助性的診療工具。這兩類AI機(jī)器人在本質(zhì)上都可以歸于一種產(chǎn)品,其作用是自主或輔助醫(yī)學(xué)專業(yè)人員做出診斷,甚至實(shí)行治療。
目前,學(xué)者們根據(jù)現(xiàn)行的《中華人民共和國(guó)民法通則》第一百二十二條及《中華人民共和國(guó)產(chǎn)品質(zhì)量法》第四十一、四十二條,提出了產(chǎn)品方面的四種歸責(zé)原則[12]。第一種認(rèn)為產(chǎn)品責(zé)任適用過錯(cuò)責(zé)任原則,以過錯(cuò)要件為核心構(gòu)成要件。第二種認(rèn)為應(yīng)適用過錯(cuò)推定原則,這是一種介于過錯(cuò)責(zé)任及無過錯(cuò)責(zé)任之間歸責(zé)原則,值得一提的是《中華人民共和國(guó)侵權(quán)責(zé)任法》第五十八條針對(duì)醫(yī)療過錯(cuò)便采用的此原則。第三種傾向于嚴(yán)格責(zé)任,即無過錯(cuò)責(zé)任,而這也是多數(shù)學(xué)者所主張的觀點(diǎn)。最后一種相對(duì)復(fù)雜,認(rèn)為產(chǎn)品責(zé)任的適用應(yīng)當(dāng)將過錯(cuò)責(zé)任及無過錯(cuò)責(zé)任相結(jié)合,是一種二元?dú)w責(zé)原則??紤]到醫(yī)療領(lǐng)域AI的特殊性,在責(zé)任適用上存在著法律上的競(jìng)合關(guān)系:一方面適用產(chǎn)品責(zé)任歸責(zé)原則;另一方面,也適用醫(yī)療責(zé)任的歸責(zé)原則。
當(dāng)AI出現(xiàn)診療差錯(cuò),醫(yī)生、醫(yī)療機(jī)構(gòu)乃至機(jī)器人的生產(chǎn)者、銷售者是否需要承擔(dān)責(zé)任,機(jī)器人本身能否作為責(zé)任主體?
第一,醫(yī)生的責(zé)任。在診療過程中,根據(jù)機(jī)器人的智能化程度不同,醫(yī)生的角色有兩種,一種是負(fù)責(zé)審核機(jī)器人的判斷,或操作機(jī)器人完成診療的上級(jí)醫(yī)生,另一種是與更加智能化的機(jī)器人醫(yī)生共同給出診療意見的醫(yī)生,地位與機(jī)器人相同。根據(jù)醫(yī)生角色不同,責(zé)任分配上也有所區(qū)別。
第一種情況中,機(jī)器人僅起到輔助性作用,對(duì)診療過程無決定性影響。具體而言,首先由機(jī)器人分析患者各項(xiàng)檢查數(shù)據(jù),根據(jù)內(nèi)置算法及機(jī)器學(xué)習(xí)結(jié)果做出判斷。接下來人類醫(yī)生審核機(jī)器人的判斷結(jié)果,并判斷是否可行。若結(jié)果通過,相應(yīng)的結(jié)果會(huì)被反饋給患者以指導(dǎo)下一步診治;反之,醫(yī)生將對(duì)其進(jìn)行糾正后再放行。此時(shí),人類醫(yī)生是機(jī)器人的上級(jí)醫(yī)師,應(yīng)承擔(dān)相應(yīng)責(zé)任。前文提及的AI輔助臨床決策便屬于此類,目前AI的智能化程度不足,這是當(dāng)前醫(yī)療領(lǐng)域AI的主要現(xiàn)狀。新的AI輔助診斷系統(tǒng)也層出不窮,目前正處于疫情期間,已有22家AI公司推出了相關(guān)產(chǎn)品,多是通過內(nèi)置算法實(shí)現(xiàn)的深度學(xué)習(xí)技術(shù)完成對(duì)新冠肺炎患者的篩選。輔助診斷AI僅起到了輔助作用,真正為患者做出判斷的是醫(yī)師,醫(yī)師需要結(jié)合癥狀、體征、病毒核酸及抗體等輔助檢查結(jié)果及AI技術(shù),綜合判斷之后作出診斷。因此,在醫(yī)師作為機(jī)器人上級(jí)醫(yī)生時(shí),醫(yī)生是責(zé)任主體,需要對(duì)診療過程中的差錯(cuò)承擔(dān)責(zé)任。然而,若AI本身存在前文所述的算法問題,AI廠商應(yīng)根據(jù)過錯(cuò)程度承擔(dān)責(zé)任,將在下文加以探討。
第二種情況目前尚未實(shí)現(xiàn),是一種假想的情況。在這種情境下,AI機(jī)器人已經(jīng)進(jìn)一步發(fā)展成了機(jī)器人醫(yī)生,與人類醫(yī)生處于同等地位,甚至可能成為人類醫(yī)生的上級(jí)醫(yī)生。此時(shí)人類醫(yī)生不僅沒有能力干預(yù)機(jī)器人醫(yī)生所做的決定,甚至在意見不一致時(shí)需要以機(jī)器人醫(yī)生的意見為準(zhǔn)。在這種情況下,機(jī)器人本身是獨(dú)立行醫(yī)的個(gè)體,人類醫(yī)師不應(yīng)該對(duì)機(jī)器人醫(yī)生的行為承擔(dān)責(zé)任。至于機(jī)器人醫(yī)生的責(zé)任問題將在后文探討。
由此可見,醫(yī)生是否需要承擔(dān)責(zé)任是由醫(yī)師在診療過程中的地位決定的:如果診療過程中機(jī)器人附屬于醫(yī)生,最終的結(jié)論是醫(yī)師做出的,醫(yī)生需要承擔(dān)相應(yīng)責(zé)任;如果機(jī)器人醫(yī)生不受人類醫(yī)生約束,人類醫(yī)師便無須擔(dān)責(zé)。
第二,醫(yī)療機(jī)構(gòu)的責(zé)任。醫(yī)療機(jī)構(gòu)是醫(yī)生執(zhí)業(yè)的場(chǎng)所,也是診療行為發(fā)生的場(chǎng)所,AI機(jī)器人參與診療的前提是所在醫(yī)療機(jī)構(gòu)的批準(zhǔn)。法律上無論診療行為的過錯(cuò)主體是人類醫(yī)生還是機(jī)器人醫(yī)師,根據(jù)《侵權(quán)責(zé)任法》,員工(醫(yī)生)致人損害,由雇主(醫(yī)療機(jī)構(gòu))承擔(dān)無過錯(cuò)替代責(zé)任,之后可向造成損害的員工(人類或機(jī)器人醫(yī)師)追償??梢?,醫(yī)療機(jī)構(gòu)首先要承擔(dān)賠償患者及其家屬的第一位責(zé)任。接下來我們探討責(zé)任分配期間醫(yī)療機(jī)構(gòu)應(yīng)該承擔(dān)的責(zé)任。
醫(yī)療機(jī)構(gòu)作為診療場(chǎng)所,首先應(yīng)該具備完善的機(jī)構(gòu)倫理,機(jī)構(gòu)倫理意為“追求機(jī)構(gòu)的價(jià)值觀和使命,營(yíng)造機(jī)構(gòu)倫理氛圍”,完善的機(jī)構(gòu)倫理是機(jī)器人得以應(yīng)用的重要前提保障[13]。同時(shí),醫(yī)療機(jī)構(gòu)應(yīng)當(dāng)具備完善的AI機(jī)器人診療流程,如果損害結(jié)果的發(fā)生是流程缺陷直接或間接導(dǎo)致的,醫(yī)療機(jī)構(gòu)應(yīng)該按照過錯(cuò)程度承擔(dān)責(zé)任;如果流程足夠完善,醫(yī)療機(jī)構(gòu)盡到了合理的注意以及管理義務(wù),便無須承擔(dān)責(zé)任。所以說,醫(yī)療機(jī)構(gòu)承擔(dān)責(zé)任與否應(yīng)該視其是否具有過錯(cuò)而定,本質(zhì)上是過錯(cuò)責(zé)任。
具體到機(jī)器人內(nèi)部算法問題以及高度智能化的機(jī)器人醫(yī)師這兩種特殊情況時(shí),醫(yī)療機(jī)構(gòu)同樣存在承擔(dān)責(zé)任的可能,這里再次以新冠肺炎診斷相關(guān)AI為例進(jìn)行說明。若算法本身存在問題,除生產(chǎn)廠家需要承擔(dān)責(zé)任外,醫(yī)療機(jī)構(gòu)需要根據(jù)招標(biāo)流程、算法審核及安全風(fēng)險(xiǎn)管控等過程是否存在過錯(cuò)來判斷是否應(yīng)該承擔(dān)責(zé)任,并根據(jù)過錯(cuò)程度判斷責(zé)任分擔(dān)。如果機(jī)器人是完全自主的“新冠肺炎診斷機(jī)器人”,醫(yī)療機(jī)構(gòu)此時(shí)相當(dāng)于機(jī)器人的雇主兼上級(jí),則需要對(duì)機(jī)器人診療過程中的紕漏承擔(dān)責(zé)任。
第三,醫(yī)學(xué)AI廠家的責(zé)任。首先要明確的一點(diǎn)是,如果AI適用前文討論的產(chǎn)品責(zé)任,四種歸責(zé)原則中的哪一種比較合適?根據(jù)法經(jīng)濟(jì)學(xué)的觀點(diǎn),以過錯(cuò)責(zé)任為歸責(zé)原則能更好地增加消費(fèi)者剩余,并且能鼓勵(lì)生產(chǎn)者創(chuàng)新,有利于AI領(lǐng)域的發(fā)展[12]。嚴(yán)格責(zé)任顧名思義過于嚴(yán)格,生產(chǎn)者即使沒有過錯(cuò)也需要承擔(dān)責(zé)任,而過錯(cuò)責(zé)任則體現(xiàn)為瑕疵擔(dān)保責(zé)任,既可以督促企業(yè)抓好質(zhì)量,又可以使企業(yè)放心大膽的創(chuàng)新。
《侵權(quán)責(zé)任法》規(guī)定,產(chǎn)品缺陷致人損害,被侵權(quán)人可以向產(chǎn)品生產(chǎn)者或銷售者追償,AI廠家就是條款當(dāng)中的生產(chǎn)者,而且也很可能同時(shí)扮演了銷售者的角色。前文已經(jīng)論證過,當(dāng)AI內(nèi)部算法等出現(xiàn)問題時(shí),AI廠家需要承擔(dān)相應(yīng)責(zé)任,但實(shí)際上判斷算法層面上的問題并不容易。對(duì)于同一個(gè)疾病的診療,存在著不同的算法,很難比較不同算法之間的優(yōu)劣。這就好比不同的醫(yī)師根據(jù)不同的指南做出判斷,很難評(píng)判指南之間的優(yōu)劣一樣。所以,除非存在明顯的算法邏輯錯(cuò)誤,或前文提到的算法歧視問題,否則很難在算法層面上追究AI廠家的責(zé)任。
除了算法領(lǐng)域,AI廠家在其他層面上也需要承擔(dān)責(zé)任。機(jī)器人系統(tǒng)存在被黑客入侵的可能,這一問題對(duì)于獨(dú)立自主進(jìn)行手術(shù)的高級(jí)機(jī)器人更為嚴(yán)重,機(jī)器人的自主性越高,黑客入侵導(dǎo)致的損害結(jié)果就越嚴(yán)重。機(jī)器人系統(tǒng)漏洞導(dǎo)致的診療責(zé)任應(yīng)由AI廠家承擔(dān)。同樣,在大數(shù)據(jù)時(shí)代,患者的隱私保護(hù)問題十分嚴(yán)峻和重要。一方面,AI算法本身的實(shí)現(xiàn)便涉及大量患者的信息和數(shù)據(jù);另一方面,在AI運(yùn)行過程中又會(huì)有大量數(shù)據(jù)生成,患者診斷信息等均屬于道德和法律雙層面上的隱私。AI廠家要在使用海量數(shù)據(jù)的情況下保障網(wǎng)絡(luò)和數(shù)據(jù)的安全性,從而避免患者的權(quán)益受到侵犯,對(duì)自身原因引起的患者隱私泄露要承擔(dān)責(zé)任。
第一,AI機(jī)器人的主體地位考察?,F(xiàn)今的手術(shù)型機(jī)器人如達(dá)芬奇機(jī)器人實(shí)質(zhì)上是一種高級(jí)的技術(shù)產(chǎn)品,但同樣存在內(nèi)在缺陷??疾霢I的主體地位時(shí)要區(qū)分現(xiàn)在臨床使用的達(dá)芬奇手術(shù)機(jī)器人和未來的強(qiáng)AI手術(shù)機(jī)器人,前者還屬于機(jī)器的范疇,并非責(zé)任主體,技術(shù)設(shè)計(jì)缺陷而導(dǎo)致的傷害,廠家和醫(yī)院要根據(jù)過錯(cuò)程度共同承擔(dān)責(zé)任;后者在一定意義上成為責(zé)任主體時(shí),存在承擔(dān)道德責(zé)任和民事責(zé)任的可能性。顯然,低級(jí)別的受人類控制的AI機(jī)器人是不需要承擔(dān)責(zé)任的,因此不存在主體地位這一概念,這里將討論更復(fù)雜的機(jī)器人醫(yī)生。
學(xué)術(shù)界對(duì)此有諸多觀點(diǎn)。甘紹平等認(rèn)為機(jī)器人是物,不具有自主選擇性,因此不具備道德主體性[14]。然而,溫德爾·瓦拉赫等在其著作《道德機(jī)器:如何讓機(jī)器人明辨是非》一書中指出,機(jī)器可以進(jìn)行基于人類基本道德準(zhǔn)則的對(duì)錯(cuò)判斷,故具有道德性。還有學(xué)者將機(jī)器人的行為進(jìn)一步細(xì)化,認(rèn)為機(jī)器人按照設(shè)計(jì)的行為所做的決策是產(chǎn)品設(shè)計(jì)者和使用者的延伸,而超出的部分屬于機(jī)器人的自主行為,應(yīng)對(duì)這一部分承擔(dān)相應(yīng)的責(zé)任[15]。但智能機(jī)器人從本質(zhì)上并不具備自由意志,其行為不具有法律上的評(píng)價(jià)意義[16]。后一種觀點(diǎn)似乎更為可靠,內(nèi)部的程序并不等同于意志,這也是目前業(yè)界的普遍共識(shí)。來自歐洲14個(gè)國(guó)家的156名AI專家曾聯(lián)合稱:授予機(jī)器人法人資格的行為是不恰當(dāng)?shù)腫17]。
目前,AI機(jī)器人仍缺乏自主意識(shí)及理性思考能力。然而在未來,更加復(fù)雜的機(jī)器人的誕生不可避免,圖靈測(cè)試表明,復(fù)雜的AI可能具有一定的意識(shí)水平?,F(xiàn)階段的機(jī)器人僅僅是醫(yī)療從業(yè)者用以診斷、治療相關(guān)疾病的輔助工具,不具備成為責(zé)任主體的資格。隨著智能化機(jī)器人的出現(xiàn),其角色可能愈發(fā)接近于醫(yī)師,甚至成為真正的機(jī)器人醫(yī)師,具備成為責(zé)任主體的可能。
第二,AI與患者的責(zé)任。AI輔助診療需要獲得患者的知情同意,這是必要的,患者如何看待這些機(jī)器人成了一個(gè)熱點(diǎn)問題??捶ㄖ饕袃煞N,一種是將機(jī)器人當(dāng)成醫(yī)師用來輔助診療的工具,另一種是將它們看成獨(dú)立行醫(yī)個(gè)體,即機(jī)器人醫(yī)師。對(duì)于僅僅作為輔助診斷或治療的機(jī)器人來說,倫理問題仍然是客觀存在的。舉例來說,自主性不高的機(jī)器人輔助手術(shù)系統(tǒng)歸根結(jié)底是醫(yī)師操作的,但由于各個(gè)系統(tǒng)的操作方式不同,再加上醫(yī)師在機(jī)器人使用方面訓(xùn)練程度不夠,導(dǎo)致誤操作事件時(shí)有發(fā)生。這就需要建立一個(gè)通用的且行之有效的培訓(xùn)體系。
更加智能的AI或許具備一定的臨床診治決策能力道德判斷能力。完全由機(jī)器人施行的手術(shù)同樣面臨著同人類醫(yī)師一樣的艱難選擇,這些選擇應(yīng)該嚴(yán)格按照病情、生存率等患者基本情況確定,最終目的是最大限度保障患者的利益。這樣才可能消除患者被機(jī)器人決定命運(yùn)的無力感[18],AI應(yīng)該是以人類生命健康為第一要?jiǎng)?wù)的負(fù)責(zé)任的機(jī)器人醫(yī)師。
AI輔助診療機(jī)器人作為一種新事物,難免會(huì)遇到相應(yīng)規(guī)章制度及行業(yè)標(biāo)準(zhǔn)的缺乏問題。通常是先有新事物,然后才有附屬于新事物的規(guī)定,規(guī)章制度的滯后性是可以理解的。只不過醫(yī)療領(lǐng)域AI因?yàn)槠溽t(yī)療的屬性而具備了特殊性,相比自動(dòng)駕駛等其他AI而言,“最有可能”或者說最被擔(dān)心容易造成損害。也是因?yàn)檫@一屬性使得患者對(duì)醫(yī)療領(lǐng)域的AI不易接受,甚至產(chǎn)生抵觸情緒,影響知情同意甚至治療效果。AI的問題多與內(nèi)在的本質(zhì)邏輯相關(guān),算法和數(shù)據(jù)安全衍生出的倫理問題是基于機(jī)器學(xué)習(xí)這一屬性的,而安全性基于互聯(lián)網(wǎng)特性。至于算法歧視的問題,在醫(yī)療領(lǐng)域可以被解釋為疾病特點(diǎn):假如A疾病在40~50歲的男性患者中高發(fā),那么AI更容易將分布于這一年齡段的男性診斷為A疾病,很難說是一種性別歧視。但是,如果算法涉及治療方面的算法歧視問題,比如針對(duì)不同家庭條件提供不同的治療方法,這是不可取的。醫(yī)學(xué)AI目前存在的這些問題使得倫理審查十分必要。事實(shí)上,倫理審查的要點(diǎn)還包括技術(shù)層面和法律層面:技術(shù)層面的要求包括數(shù)據(jù)質(zhì)控、算法研究和臨床風(fēng)險(xiǎn)等,這也是審查關(guān)注的重點(diǎn);而法律層面的要求則包含知識(shí)產(chǎn)權(quán)等內(nèi)容[19]。
盡管AI目前存在著內(nèi)在風(fēng)險(xiǎn)和外在監(jiān)管等方面的問題,但是AI在醫(yī)療領(lǐng)域的應(yīng)用已不可避免。為了更好地使用AI,我們需要對(duì)不同行為主體的責(zé)任進(jìn)行劃分。根據(jù)機(jī)器人醫(yī)師的地位不同,人類醫(yī)師需要承擔(dān)的責(zé)任也不同,當(dāng)人類醫(yī)師是機(jī)器人的上級(jí)時(shí)需要承擔(dān)相應(yīng)責(zé)任;若機(jī)器人醫(yī)生能夠獨(dú)立行醫(yī)則人類醫(yī)生無須擔(dān)責(zé)。醫(yī)療機(jī)構(gòu)根據(jù)過錯(cuò)程度承擔(dān)相應(yīng)的責(zé)任,考察方面包括內(nèi)在的機(jī)構(gòu)倫理,機(jī)器人招標(biāo)采購(gòu)流程及診療流程等。AI廠家則需要對(duì)算法問題承擔(dān)責(zé)任,并負(fù)責(zé)保障機(jī)器人的網(wǎng)絡(luò)安全和患者的數(shù)據(jù)隱私。至于機(jī)器人本身在法律上沒有評(píng)價(jià)的意義,無須承擔(dān)責(zé)任,責(zé)任可能由雇主醫(yī)療機(jī)構(gòu)承擔(dān)。假如未來人工智能能夠主導(dǎo)診斷過程并輔助治療方案的制定,那么將深刻地改變?nèi)祟愥t(yī)師的行為、醫(yī)療教育的方式以醫(yī)患關(guān)系的性質(zhì),進(jìn)而深刻地影響整個(gè)醫(yī)療衛(wèi)生服務(wù)的提供方式,并產(chǎn)生深遠(yuǎn)的社會(huì)影響。鑒于此,前瞻性的開展針對(duì)AI輔助診療活動(dòng)的倫理反思尤為重要和緊迫。及時(shí)制定倫理準(zhǔn)則并開展倫理教育,提高倫理意識(shí)尤為關(guān)鍵。
(致謝:感謝范瑞平教授在本文構(gòu)思和寫作過程中提出的寶貴修改意見)
中國(guó)醫(yī)學(xué)倫理學(xué)2020年7期