楊 放,劉 開(kāi),常運(yùn)立
(海軍軍醫(yī)大學(xué)基礎(chǔ)醫(yī)學(xué)院,上海 200433,qqyxllxh@163.com)
人工智能(Artificial Intelligence,AI)作為新興的最前沿的熱門(mén)研究應(yīng)用課題,在各大領(lǐng)域都已經(jīng)得到了廣泛的應(yīng)用或有了明確的應(yīng)用前景。其所具有的學(xué)習(xí)能力使得它在各個(gè)實(shí)踐領(lǐng)域發(fā)揮了巨大的作用。而醫(yī)學(xué)作為一門(mén)需要扎實(shí)理論基礎(chǔ)和大量臨床經(jīng)驗(yàn)的實(shí)踐性學(xué)科,培養(yǎng)一名合格的醫(yī)生需要較長(zhǎng)的周期,與之相對(duì)的社會(huì)對(duì)于醫(yī)療服務(wù)的需求又日漸增長(zhǎng)。人工智能的出現(xiàn)提供了良好的、可以彌補(bǔ)這一供需缺口的可行性思路。然而,作為一種還尚未成熟的與“人”相關(guān)的科學(xué)技術(shù),其本身具有的主客體倫理問(wèn)題的不成熟性,加之與醫(yī)學(xué)的結(jié)合,使得其在有關(guān)倫理問(wèn)題方面面臨了許多挑戰(zhàn)。
隨著人工智能的發(fā)展,其所對(duì)應(yīng)產(chǎn)生的倫理問(wèn)題也逐步浮現(xiàn)。國(guó)際上目前有兩套被普遍認(rèn)可的人工智能倫理共識(shí):一個(gè)是“阿西洛馬人工智能原則”(Asilomar AI Principles),另一個(gè)則是國(guó)際電氣電子工程師學(xué)會(huì)(IEEE)組織提出的“人工智能設(shè)計(jì)的倫理準(zhǔn)則”[1]。
以2017年1月初舉行的“Beneficial AI”會(huì)議為基礎(chǔ)建立起來(lái)的“阿西洛馬人工智能原則”,其名稱(chēng)來(lái)自此次會(huì)議的地點(diǎn)—美國(guó)加州的阿西洛馬(Asilomar)市,旨在確保AI為人類(lèi)利益服務(wù)?!鞍⑽髀羼R人工智能原則”是對(duì)于阿西莫夫機(jī)器人學(xué)三定律的智能化擴(kuò)展?!鞍⑽髀羼R人工智能原則”分為三大類(lèi),分別為科研項(xiàng)目(Research Issues)、倫理價(jià)值(Ethics and Values)、長(zhǎng)期問(wèn)題(Longer-term Issues),共計(jì)二十三項(xiàng)。其中與倫理相關(guān)的有十三項(xiàng):安全性、透明性、司法制度性、責(zé)任性、價(jià)值歸屬、人類(lèi)價(jià)值觀、隱私性、隱私與自由的沖突性、利益分配、進(jìn)步性、人類(lèi)控制、非顛覆、人工智能軍備競(jìng)賽[1]?!鞍⑽髀羼R人工智能原則”表明了“若無(wú)必要,勿增實(shí)體”的原則。人工智能的發(fā)展應(yīng)在保證人類(lèi)不被替代的前提下展開(kāi),而并非單純的為經(jīng)濟(jì)利益所驅(qū)使。最終一切都應(yīng)當(dāng)以人類(lèi)的健康發(fā)展為最終目的。與此同時(shí),維護(hù)一個(gè)尊重隱私進(jìn)步創(chuàng)新的研究環(huán)境也是其發(fā)展進(jìn)步的前提。在這個(gè)前提下才能確保研究人員和政策的制定者在發(fā)展人工智能的同時(shí),不使用違反倫理、法律的手段進(jìn)行惡性競(jìng)爭(zhēng)。
國(guó)際電氣電子工程師學(xué)會(huì)(IEEE)于2016年12月和2017年12月先后發(fā)布兩版《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書(shū)(EthicallyAlignedDesign)。在第二版的《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書(shū)中,他們提出只有通過(guò)教育、培訓(xùn)和授權(quán),才能保證參與研究設(shè)計(jì)人工智能的各方擯棄利益最優(yōu)的原則,而優(yōu)先考慮倫理問(wèn)題。這項(xiàng)準(zhǔn)則有五個(gè)核心的原則:人權(quán)、問(wèn)責(zé)、福祉、透明、不濫用。白皮書(shū)認(rèn)為人工智能系統(tǒng)“造福人類(lèi)”的目的優(yōu)先級(jí)應(yīng)該高于“進(jìn)步與發(fā)展”。這也是這項(xiàng)科技能夠推廣使用的普遍前提[2]。
以上兩項(xiàng)作為目前國(guó)際社會(huì)相關(guān)領(lǐng)域比較公認(rèn)的倫理共識(shí),初步滿(mǎn)足了人工智能在產(chǎn)業(yè)發(fā)展過(guò)程中迫切需要的倫理學(xué)準(zhǔn)則認(rèn)定,為相關(guān)產(chǎn)業(yè)提供風(fēng)險(xiǎn)把控、評(píng)估和應(yīng)對(duì)的系統(tǒng)性指導(dǎo)。
同樣面對(duì)人工智能的迅猛發(fā)展,歐盟委員會(huì)在2019年4月8日以“建立對(duì)以人為本AI的信任”為題,發(fā)布了歐洲版的AI倫理準(zhǔn)則。歐盟AI高級(jí)專(zhuān)家組為了實(shí)現(xiàn)“可信任AI”,確立了三項(xiàng)基本原則:AI應(yīng)當(dāng)符合法律規(guī)定、AI應(yīng)當(dāng)滿(mǎn)足倫理原則、AI應(yīng)當(dāng)具有可靠性。根據(jù)這三項(xiàng)基本原則和歐洲社會(huì)價(jià)值觀,該準(zhǔn)則提出,“可信任的AI”應(yīng)當(dāng)滿(mǎn)足七項(xiàng)關(guān)鍵要點(diǎn),具體包括:人類(lèi)監(jiān)督、安全可靠、數(shù)據(jù)隱私、透明度、多樣性、非歧視性和公平性、福祉、問(wèn)責(zé)。信任的前提條件是堅(jiān)定以人為本的準(zhǔn)則不動(dòng)搖,AI應(yīng)當(dāng)是賦能于人類(lèi)而非取代人類(lèi)。因此,AI必須獲得人們的信任。雖然這些關(guān)鍵要求是所有AI使用的前提要素,但是實(shí)際應(yīng)用中還是應(yīng)當(dāng)根據(jù)實(shí)際情況制定實(shí)施標(biāo)準(zhǔn)。
我國(guó)目前也將人工智能的發(fā)展上升到了國(guó)家戰(zhàn)略的高度,相關(guān)的法律法規(guī)也已經(jīng)開(kāi)始了具體的制定和出臺(tái)。2017年7月20日,國(guó)務(wù)院印發(fā)了關(guān)于《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱(chēng)《規(guī)劃》)的文件,提出了對(duì)于人工智能管理的法律政策體系的三步走戰(zhàn)略:第一步到2020年,初步建立人工智能相關(guān)的倫理法規(guī);第二步到2025年,初步建立新一代人工智能技術(shù)體系,形成對(duì)于人工智能的安全評(píng)估和規(guī)范化管控;第三步到2030年,建成關(guān)于人工智能完善的法律法規(guī)和政策體系?!兑?guī)劃》強(qiáng)調(diào),要從法律法規(guī)、倫理規(guī)范、重點(diǎn)政策、知識(shí)產(chǎn)權(quán)與標(biāo)準(zhǔn)、安全監(jiān)管與評(píng)估、勞動(dòng)力培訓(xùn)、科學(xué)普及等方面做好人工智能發(fā)展的重要保障。2018年1月,國(guó)家人工智能標(biāo)準(zhǔn)化總體組成立,發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(shū)(2018 版)》,提出要建立一個(gè)令人工智能造福于社會(huì),保護(hù)公眾利益的政策、法律和標(biāo)準(zhǔn)化環(huán)境[3]。白皮書(shū)討論了有關(guān)人工智能安全、倫理、隱私的政策和法律問(wèn)題。其中,重點(diǎn)強(qiáng)調(diào)了兩大原則:人類(lèi)利益原則與責(zé)任原則。兩項(xiàng)原則提出,一切人工智能的發(fā)展和使用都應(yīng)以保障和實(shí)現(xiàn)人類(lèi)利益為最終目的。在發(fā)展技術(shù)和應(yīng)用實(shí)踐中要明確責(zé)任體系,落實(shí)問(wèn)責(zé)和賠償體系,保證人類(lèi)福祉的同時(shí)降低技術(shù)風(fēng)險(xiǎn)和對(duì)社會(huì)的負(fù)面影響。人工智能的開(kāi)發(fā)方應(yīng)該平衡隱私與公開(kāi)透明,擔(dān)負(fù)起與權(quán)力相匹配的責(zé)任。2019年4月,國(guó)家人工智能標(biāo)準(zhǔn)化總體組發(fā)布《人工智能倫理風(fēng)險(xiǎn)分析報(bào)告》,更進(jìn)一步闡述了人工智能的利益問(wèn)題要從算法、數(shù)據(jù)安全和社會(huì)影響三方面進(jìn)行多角度考慮。
醫(yī)療人工智能是一門(mén)通過(guò)發(fā)展研究人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用,以達(dá)到用人工智能幫助甚至于代替醫(yī)療工作者進(jìn)行診斷與治療的新興醫(yī)療科學(xué)技術(shù)。早在20世紀(jì),醫(yī)學(xué)就被認(rèn)為是人工智能最有前途的應(yīng)用領(lǐng)域之一。自20世紀(jì)中葉以來(lái),研究人員提出并開(kāi)發(fā)了許多臨床決策支持系統(tǒng)?;诨疽?guī)則建立的智能診斷系統(tǒng)在20世紀(jì)70年代取得了許多成功,并已被證明可以診斷疾病、選擇適當(dāng)?shù)闹委煼椒ā⑻峁?duì)臨床推理的解釋?zhuān)f(xié)助醫(yī)生在復(fù)雜的患者病例中進(jìn)行假設(shè)診斷[4]。像任何教科書(shū)一樣,這種智能系統(tǒng)需要人工的編撰和更新。這使其構(gòu)建成本十分高昂,且在使用上并不十分穩(wěn)定與可靠,難以在需要決策時(shí)進(jìn)行明確的表達(dá)。此外,設(shè)計(jì)者很難對(duì)于系統(tǒng)中不同專(zhuān)家撰寫(xiě)的不同知識(shí)之間的高階交互進(jìn)行編碼,使得系統(tǒng)的性能受到現(xiàn)有醫(yī)學(xué)知識(shí)和人工智能編碼能力的雙重限制。
近年來(lái),隨著人工智能的快速發(fā)展,其已經(jīng)開(kāi)始被大規(guī)模應(yīng)用于醫(yī)療相關(guān)行業(yè)中,在輔助診斷、醫(yī)學(xué)影像識(shí)別以及疾病的預(yù)防檢測(cè)等方面取得長(zhǎng)足進(jìn)展。通過(guò)對(duì)大數(shù)據(jù)的采集、分析以及應(yīng)用,醫(yī)療工作者可以通過(guò)讓智能系統(tǒng)完成一些檢測(cè)類(lèi)的重復(fù)勞動(dòng),并且輔助診斷和治療方法的決策,從而更加高效、精準(zhǔn)的為患者提供診療服務(wù)。人工智能醫(yī)療的時(shí)代已經(jīng)來(lái)臨。在歐美發(fā)達(dá)地區(qū),人工智能在醫(yī)療體系中早已廣泛應(yīng)用。 而我國(guó)的醫(yī)療人工智能作為一項(xiàng)重要提議也已被提上了日程。通過(guò)大力發(fā)展醫(yī)療領(lǐng)域人工智能,推廣其應(yīng)用成了建立精準(zhǔn)高效醫(yī)療體系的重要手段。然而,人工智能雖然能夠改善醫(yī)療服務(wù)的質(zhì)量、提高診療的效率,但是人工智能這項(xiàng)技術(shù)伴隨而來(lái)的倫理問(wèn)題是不容忽視的。
人工智能在醫(yī)療領(lǐng)域最為突出的應(yīng)用形式便是智能診斷。隨著醫(yī)療數(shù)據(jù)的積累和數(shù)據(jù)庫(kù)的建立,樣本量的增大對(duì)于人工智能的學(xué)習(xí)分析起到了極大的促進(jìn)作用。目前而言,進(jìn)行疾病診斷和治療的主體依然是醫(yī)生,但是相對(duì)傳統(tǒng)的問(wèn)診、觸診、檢測(cè)、診斷的流程而言,新的人工智能技術(shù)在判斷診療依據(jù)和技術(shù)手段上帶來(lái)了巨大的變革。從醫(yī)院技術(shù)層面上說(shuō),智能診斷是由機(jī)器通過(guò)智能化的學(xué)習(xí)、分析,發(fā)掘出的對(duì)醫(yī)療機(jī)構(gòu)或醫(yī)療人員收集的大量病例的數(shù)據(jù)依托和處理辦法,從而作出高度準(zhǔn)確的診斷決策。智能診斷可以為醫(yī)療機(jī)構(gòu)或人員提高對(duì)應(yīng)服務(wù)的效率,從而實(shí)現(xiàn)更為可靠有效的醫(yī)療服務(wù)管理。隨著人工智能不斷進(jìn)入醫(yī)療領(lǐng)域的各方面,醫(yī)生對(duì)于機(jī)器診斷的使用正在不斷增多,某些領(lǐng)域諸如放射科、影像科對(duì)于機(jī)器,尤其是能夠輔助分析的人工智能系統(tǒng)的依賴(lài)正在逐步加強(qiáng),人工智能給整個(gè)醫(yī)療體系帶來(lái)了巨大的沖擊,甚至于在某些領(lǐng)域有極大可能完全替代人類(lèi)醫(yī)生的作用。
在輔助智能診斷這一方面,人工智能也正在被應(yīng)用于一線(xiàn)臨床診斷與治療,其中最重要也是目前應(yīng)用最多、最廣為人知的應(yīng)用形式便是手術(shù)機(jī)器人。20世紀(jì)80年代以來(lái),對(duì)于手術(shù)機(jī)器人的理論和使用可行性的探索就已經(jīng)開(kāi)始,但是高昂的成本成為阻止其發(fā)展與普及的最大阻礙。而現(xiàn)在,伴隨著人工智能技術(shù)的成熟和智能設(shè)備的發(fā)展與普及,成本的下降是必然的。當(dāng)下,手術(shù)機(jī)器人在一線(xiàn)臨床的使用上已經(jīng)逐漸普及,尤其在微創(chuàng)手術(shù)領(lǐng)域,因其所具有的精準(zhǔn)性和高效性,備受醫(yī)患雙方的青睞。手術(shù)機(jī)器人分為兩個(gè)層級(jí):一是由醫(yī)生遠(yuǎn)程操控機(jī)器人進(jìn)行手術(shù)治療;二是具有學(xué)習(xí)能力的智能化全自動(dòng)的手術(shù)機(jī)器人。
人工智能已經(jīng)逐步成了醫(yī)療機(jī)構(gòu)診療過(guò)程中重要的一環(huán),其滲透的領(lǐng)域包括了在線(xiàn)預(yù)約、醫(yī)療中心在線(xiàn)簽到、醫(yī)療記錄數(shù)字化、隨訪(fǎng)提醒以及藥物處方多種藥物組合時(shí)的劑量算法和不良反應(yīng)警告。影像學(xué)是人工智能最前沿的使用學(xué)科。人工智能最初用于臨床成像中諸如圖像獲取和存儲(chǔ)之類(lèi)的管理工作,如今隨著數(shù)據(jù)分析和通信技術(shù)的發(fā)展,計(jì)算機(jī)的輔助功能已成為工作環(huán)境中不可或缺的組成部分,比如CAD(計(jì)算機(jī)輔助診斷技術(shù))已成乳腺鉬靶篩查中成了必需的環(huán)節(jié)[5]。人工智能輔助識(shí)別動(dòng)態(tài)和靜態(tài)醫(yī)學(xué)影像的能力因?yàn)槠渚哂袡z測(cè)速度快、檢測(cè)精度高、持續(xù)高效性等諸多優(yōu)點(diǎn),能夠持續(xù)快速、精準(zhǔn)高效的識(shí)別檢測(cè)出對(duì)應(yīng)病灶,已經(jīng)得到了廣泛的認(rèn)可和應(yīng)用。同時(shí)對(duì)于基層醫(yī)院診療來(lái)說(shuō),人工智能的應(yīng)用可以拉低級(jí)別醫(yī)院之間的診療水平差距,實(shí)現(xiàn)一線(xiàn)高層次醫(yī)院和基層醫(yī)院診療能力的同質(zhì)化,有效提升社區(qū)級(jí)別的基層醫(yī)療服務(wù)能力,使基層醫(yī)生通過(guò)輔助也能有效的識(shí)別病灶,進(jìn)行分診或醫(yī)治的決策[6]。
人工智能在醫(yī)學(xué)領(lǐng)域的興起并廣泛應(yīng)用,直接沖擊了傳統(tǒng)的醫(yī)學(xué)倫理規(guī)范,提出了醫(yī)療人工智能倫理治理的新需求;同時(shí),也挑戰(zhàn)了現(xiàn)有的倫理道德范式,將道德的人類(lèi)專(zhuān)屬性這一既定命題,再次置于了元倫理學(xué)的考量之中。
人工智能的基礎(chǔ)是獲取大量健康數(shù)據(jù),而大部分?jǐn)?shù)據(jù)屬于患者的個(gè)人隱私,若管理、處置和使用不當(dāng)必然產(chǎn)生隱私侵權(quán)的行為風(fēng)險(xiǎn),包括:①患者數(shù)據(jù)被二次使用;②患者數(shù)據(jù)的部分性流失;③患者數(shù)據(jù)的訪(fǎng)問(wèn)權(quán)限;④數(shù)據(jù)匿名化的有效性和完整性;⑤數(shù)據(jù)是否可能被不正當(dāng)?shù)氖褂?;⑥?shù)據(jù)是否被他人用于牟取利益[7]。對(duì)患者數(shù)據(jù)的使用必須遵從知情同意的要求,若沒(méi)有經(jīng)過(guò)患者授權(quán),任何組織或個(gè)人不得將患者數(shù)據(jù)挪于他用,更不得利用患者數(shù)據(jù)牟取個(gè)人私利,這是對(duì)患者數(shù)據(jù)保護(hù)最基本的道德要求。另外,患者數(shù)據(jù)還涉及個(gè)體或群體的安全風(fēng)險(xiǎn),人工智能通過(guò)對(duì)個(gè)體看似不相關(guān)片段數(shù)據(jù)的分析,可識(shí)別出個(gè)體的智力水平、性格特征、性別取向等,從而將個(gè)體的健康弱項(xiàng)暴露于他者之前;人工智能通過(guò)對(duì)某一民族、國(guó)家的群體性基因信息的分析與挖掘,可能會(huì)誘發(fā)基因或種族歧視,甚至基因攻擊。對(duì)此,現(xiàn)有的政策法規(guī)對(duì)于人工智能數(shù)據(jù)隱私的保護(hù)缺乏明確的限定和操作性規(guī)范,且難以靈活適用。而對(duì)于必須在現(xiàn)有監(jiān)管制度下進(jìn)行操作的臨床醫(yī)生而言也造成了一定的挑戰(zhàn),這可能會(huì)導(dǎo)致如何合理處置健康數(shù)據(jù)的不確定性,并引起對(duì)潛在法律后果的恐懼。
目前,《中華人民共和國(guó)侵權(quán)責(zé)任法》中對(duì)于醫(yī)療事故責(zé)任認(rèn)定和醫(yī)療器械損害賠償本身便存在概念相對(duì)模糊的問(wèn)題?;颊咴谠馐茚t(yī)療損害時(shí),有權(quán)利向醫(yī)療機(jī)構(gòu)索賠,也有權(quán)利向相關(guān)醫(yī)療器械生產(chǎn)單位進(jìn)行索賠,醫(yī)療器械開(kāi)發(fā)單位也應(yīng)承擔(dān)相應(yīng)責(zé)任。而在一線(xiàn)臨床實(shí)踐中,人工智能的自我判斷能力以及它的自主性,使得侵害主體、歸責(zé)對(duì)象的認(rèn)定變得更為復(fù)雜。例如由于算法錯(cuò)誤發(fā)生誤診時(shí),患者若產(chǎn)生嚴(yán)重的預(yù)后不良現(xiàn)象,責(zé)任究竟如何劃分,責(zé)任到底是在當(dāng)值醫(yī)師、對(duì)應(yīng)醫(yī)院還是診斷系統(tǒng)的開(kāi)發(fā)單位身上的問(wèn)題,目前并沒(méi)有合適的法律法規(guī)予以具體認(rèn)定和解讀[8]。如果說(shuō)對(duì)于基于模擬算法而作出判斷失誤的人工智能我們還可以找到其道德主體,那么,對(duì)于未來(lái)具有自主意識(shí)、情感取向,甚至道德觀念的強(qiáng)人工智能,相關(guān)醫(yī)療責(zé)任的追究將更加復(fù)雜,這涉及強(qiáng)人工智能是否具有道德主體資格這一現(xiàn)實(shí)命題,還涉及強(qiáng)人工智能在與患者交流時(shí)患者的相互責(zé)任,更涉及是否可以像處置發(fā)生醫(yī)療事故的醫(yī)生那樣(對(duì)其進(jìn)行調(diào)查、停職,甚至取消行醫(yī)資格),處置強(qiáng)人工智能主體——醫(yī)療機(jī)器人。
在醫(yī)療保健中使用人工智能相關(guān)的另一倫理問(wèn)題是偏見(jiàn)的風(fēng)險(xiǎn)。尤其是,偏見(jiàn)會(huì)滲透機(jī)器學(xué)習(xí)的設(shè)計(jì)、數(shù)據(jù)和實(shí)現(xiàn)中。例如,如果系統(tǒng)的訓(xùn)練數(shù)據(jù)中包含的部分群體數(shù)量不足,無(wú)法計(jì)入統(tǒng)計(jì),則該算法可能從一開(kāi)始就存在偏差,這可能會(huì)導(dǎo)致或加劇健康不平等現(xiàn)象。例如,對(duì)于少數(shù)受過(guò)外部創(chuàng)傷或者殘障人士來(lái)說(shuō),智能識(shí)別可能并不能給他們帶來(lái)正確、高效的診療體驗(yàn)。這也會(huì)讓醫(yī)生和患者失去對(duì)于人工智能的信任,導(dǎo)致臨床醫(yī)生不愿意信任并將其實(shí)施到他們的臨床決策中,患者也不愿意接受人工智能診療的結(jié)果。如果是在處于或更有可能處于不利地位或處于邊緣地位的患者群體中使用,道德規(guī)范實(shí)踐應(yīng)格外小心[9]。
常規(guī)的就診流程在于患者與醫(yī)生面對(duì)面的交流,通過(guò)問(wèn)詢(xún)、檢測(cè)、觸診等方式多角度考量,給予患者一個(gè)合適的診療方案。而將人工智能技術(shù)應(yīng)用于診斷,目的在于提高診斷治療的效率和準(zhǔn)確率,提高醫(yī)療服務(wù)的質(zhì)量。但是對(duì)于機(jī)器的依賴(lài),會(huì)使醫(yī)療人員忽略對(duì)于諸如流行病學(xué)史或多并發(fā)癥疾病的敏感性。問(wèn)診和醫(yī)生主體的功能被弱化,而輔助檢查手段被過(guò)于強(qiáng)調(diào),無(wú)益于醫(yī)患之間的正常交流,甚至?xí)尰颊邔?duì)人類(lèi)醫(yī)生的作用產(chǎn)生懷疑,繼而發(fā)生“寧信百度,不信醫(yī)生”的荒誕事件。在治療過(guò)程中,尤其是手術(shù)治療過(guò)程中,手術(shù)刀喪失了用武之地,外科醫(yī)生被剝離于手術(shù)之外,手術(shù)成功與否的喜悅和悲傷將不復(fù)存在,醫(yī)患之間的情感交流由此產(chǎn)生了根本性的斷裂。人工智能醫(yī)療機(jī)器人與患者之間能否構(gòu)成新的“醫(yī)患關(guān)系”,成為直接面臨的新問(wèn)題。
人工智能是人類(lèi)智慧的杰作,醫(yī)學(xué)的目的是救死扶傷,將人工智能用于醫(yī)學(xué)領(lǐng)域,對(duì)于提升醫(yī)療質(zhì)量,增進(jìn)醫(yī)療效能,具有無(wú)以估量的價(jià)值。然而,人工智能并不是人本身,必須思索人工智能在醫(yī)療發(fā)展和應(yīng)用方面的道德向度;另外,對(duì)人工智能的趨人性也必須給予深度的道德思考,方能迎接未來(lái)醫(yī)療人工智能的“潘多拉之匣”。
人工智能的決策,尤其是那些與公共安全和人民福祉緊密相關(guān)的決策,必須是有據(jù)可循的。 國(guó)際互聯(lián)網(wǎng)協(xié)會(huì)(Internet Society,ISOC)指出:“人工智能系統(tǒng)的設(shè)計(jì)必須滿(mǎn)足設(shè)計(jì)人員能夠說(shuō)明人工智能代理行為的最低要求。一些對(duì)公共安全有潛在嚴(yán)重影響的系統(tǒng)也應(yīng)該具有在發(fā)生事故時(shí)提供能夠相關(guān)信息的功能?!狈乐谷斯ぶ悄芟到y(tǒng)發(fā)生意外和不可預(yù)見(jiàn)的動(dòng)作應(yīng)該是開(kāi)發(fā)人員和設(shè)計(jì)人員的著重的關(guān)注點(diǎn)。建立醫(yī)療人工智能專(zhuān)業(yè)委員會(huì)以專(zhuān)業(yè)權(quán)威的力量介入來(lái)審查資源和評(píng)估項(xiàng)目,并進(jìn)行專(zhuān)業(yè)化、規(guī)范化的監(jiān)管對(duì)于確保安全至關(guān)重要。醫(yī)療領(lǐng)域的安全約束和法規(guī)本質(zhì)上旨在確保醫(yī)療程序完全有益和安全。根據(jù)現(xiàn)有的道德原則和道德價(jià)值觀,需加強(qiáng)對(duì)于醫(yī)療人工智能的監(jiān)管體系。缺乏對(duì)于醫(yī)療人工智能的監(jiān)管,可能導(dǎo)致災(zāi)難性的后果,對(duì)患者和社會(huì)造成不良的影響。但是煩瑣的法規(guī)有時(shí)也會(huì)阻礙我們充分利用醫(yī)療人工智能可以提供的所有潛在利益,因此,如何平衡法律監(jiān)管的力度是保證醫(yī)療人工智能為患者或社會(huì)服務(wù)的重要議題。
人工智能在醫(yī)療領(lǐng)域中應(yīng)用的初衷是為了提高醫(yī)療服務(wù)效率,減少人工重復(fù)勞動(dòng)帶來(lái)的疲勞,輔助醫(yī)生進(jìn)行診斷和治療,提高醫(yī)師的能力。然而在臨床實(shí)踐中,人工智能的使用可能會(huì)導(dǎo)致人類(lèi)醫(yī)生過(guò)于依賴(lài)機(jī)器而疏忽自身醫(yī)療知識(shí)的學(xué)習(xí)和臨床診斷經(jīng)驗(yàn)的積累。但是人工智能的本質(zhì)是對(duì)于已有知識(shí)、經(jīng)驗(yàn)的深度學(xué)習(xí),需要根據(jù)醫(yī)學(xué)知識(shí)的發(fā)展而由人類(lèi)醫(yī)生進(jìn)行更新,人類(lèi)醫(yī)生必須走在人工智能的前面。人工智能給醫(yī)生“減負(fù)”但并不是使醫(yī)生 “閑下來(lái)”。要明確真正的醫(yī)療主體依然是人類(lèi)醫(yī)生,通過(guò)對(duì)于智能設(shè)備的應(yīng)用,將人類(lèi)醫(yī)師從簡(jiǎn)單病癥的診療工作中解放出來(lái),使其有更多精力投入科研和前沿領(lǐng)域的研究,以增強(qiáng)醫(yī)生的臨床診療能力,由此又能用先進(jìn)的知識(shí)和方法對(duì)人工智能進(jìn)行更新,形成“人工智能代行簡(jiǎn)單診治—醫(yī)生進(jìn)行前沿研究—研究成果反饋更新人工智能”的醫(yī)生和人工智能共同提升,最終大幅度提高醫(yī)療服務(wù)質(zhì)量和效率的良性循環(huán)。顯而易見(jiàn)的,在這個(gè)循環(huán)中,“人”始終處于核心地位。
醫(yī)療人工智能系統(tǒng)的設(shè)計(jì)者和建造者需要明確,其產(chǎn)品的應(yīng)用是以用戶(hù)為中心。他們的首要原則是構(gòu)建不會(huì)給患者帶來(lái)安全風(fēng)險(xiǎn)的人工智能系統(tǒng),并考慮其集體道德責(zé)任。設(shè)計(jì)者應(yīng)當(dāng)開(kāi)發(fā)出相應(yīng)的自治系統(tǒng),并在運(yùn)行時(shí)進(jìn)行監(jiān)視,根據(jù)臨床實(shí)際需要進(jìn)行更新或更正。對(duì)于系統(tǒng)設(shè)計(jì)發(fā)展的創(chuàng)新也應(yīng)遵守道德標(biāo)準(zhǔn)。醫(yī)療人工智能系統(tǒng)設(shè)計(jì)和研究人員應(yīng)負(fù)責(zé)發(fā)布與安全漏洞和缺陷有關(guān)的任何發(fā)現(xiàn),以便改進(jìn)和修復(fù)系統(tǒng),以免造成進(jìn)一步的損害[10]。在醫(yī)療人工智能系統(tǒng)對(duì)數(shù)據(jù)的保存和使用中,醫(yī)療機(jī)構(gòu)必須負(fù)主體責(zé)任,應(yīng)該只使用所需的內(nèi)容,并篩選和及時(shí)刪除不必要的冗雜數(shù)據(jù)。系統(tǒng)應(yīng)對(duì)傳輸中和存儲(chǔ)的數(shù)據(jù)進(jìn)行加密,并對(duì)無(wú)論是授權(quán)人員還是其他人員的訪(fǎng)問(wèn)設(shè)定限制。醫(yī)療人工智能系統(tǒng)僅應(yīng)根據(jù)隱私和需要對(duì)數(shù)據(jù)進(jìn)行最優(yōu)收集、使用、共享和存儲(chǔ)。
人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用具有廣闊的前景,能夠提升醫(yī)療效率,削減醫(yī)療成本,關(guān)乎萬(wàn)千人民福祉。精準(zhǔn)快速智能的手術(shù)機(jī)器人隨著高新醫(yī)療技術(shù)的發(fā)展可能輕易完成人類(lèi)醫(yī)生難以操作的高難度手術(shù);人工智能由于需要背后數(shù)據(jù)的支撐,其診療過(guò)程的記錄均是公開(kāi)透明且可被查詢(xún)的,有助于診療記錄的智能管理,也能有效地減少醫(yī)患糾紛中由于對(duì)于診療過(guò)程的異議而發(fā)生的沖突。人工智能的最終目的是提高醫(yī)療服務(wù)效率,在當(dāng)前的醫(yī)療體系中挖掘醫(yī)療資源的增量,通過(guò)對(duì)于頂尖專(zhuān)家診療方法的大數(shù)據(jù)分析和學(xué)習(xí)記憶,訓(xùn)練出具有類(lèi)似思路和能力的“智能專(zhuān)家”,從而改善公共衛(wèi)生服務(wù)的效率和能力。然而人工智能的發(fā)展也帶來(lái)了諸多的現(xiàn)實(shí)和倫理問(wèn)題,諸如,當(dāng)人工智能的診斷準(zhǔn)確率接近甚至超過(guò)人類(lèi)醫(yī)生的時(shí)候,低成本、快速、精準(zhǔn)的人工智能必定取代傳統(tǒng)的醫(yī)生診療,此時(shí),如何界定醫(yī)患關(guān)系,如何堅(jiān)守尊重、自主和公正等倫理原則,如何體察患者及其家屬的道德情感等,都是我們需要迫切回應(yīng)的現(xiàn)實(shí)問(wèn)題。醫(yī)療人工智能越是有美好的應(yīng)用前景,就越突顯了倫理道德的重要性和倫理問(wèn)題的復(fù)雜性,在使用人工智能之前,任何可能產(chǎn)生的倫理問(wèn)題都應(yīng)該得到相應(yīng)的闡釋和解決,消解負(fù)面影響,化解道德風(fēng)險(xiǎn),這是倫理學(xué)者理應(yīng)擔(dān)負(fù)起來(lái)的責(zé)任與任命。
中國(guó)醫(yī)學(xué)倫理學(xué)2020年7期