肖志敏,沈興蓉,劉 榮,王德斌
(安徽醫(yī)科大學(xué)衛(wèi)生管理學(xué)院,安徽 合肥 230032)
人工智能的概念在1956年第一次被明確地提出,60多年以來,人工智能技術(shù)已經(jīng)取得了長足的進步,它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)[1]。人工智能在很多領(lǐng)域中發(fā)揮重要作用,其中包括醫(yī)療衛(wèi)生領(lǐng)域。醫(yī)學(xué)人工智能的應(yīng)用在給人類的健康管理與疾病診斷帶來極大的便利的同時也帶來了諸多倫理問題和挑戰(zhàn)。本文通過研究我國醫(yī)學(xué)人工智能的應(yīng)用現(xiàn)狀,分析其存在的倫理問題,并嘗試構(gòu)建我國醫(yī)學(xué)人工智能倫理治理總體框架,提高人工智能技術(shù)在醫(yī)療衛(wèi)生領(lǐng)域中的應(yīng)用水平,促進我國衛(wèi)生健康事業(yè)的發(fā)展,提高人類的健康水平。
國務(wù)院《新一代人工智能發(fā)展規(guī)劃》中明確指出要推動智能醫(yī)療發(fā)展,建立精準智能服務(wù)體系,探索智慧醫(yī)院建設(shè),開發(fā)人機協(xié)同醫(yī)療機器人、智能診療助手并加強智能健康和群體智能健康管理[2]。醫(yī)學(xué)人工智能在我國衛(wèi)生健康行業(yè)的應(yīng)用越來越廣泛,目前我國醫(yī)學(xué)人工智能的應(yīng)用主要包括7個方面:智能臨床輔助診療應(yīng)用、醫(yī)用機器人、智能公共衛(wèi)生服務(wù)應(yīng)用、智能醫(yī)院管理、智能化醫(yī)學(xué)教育培訓(xùn)、醫(yī)療設(shè)備智能化管理和人工智能輔助藥物研發(fā)[3]。這7個方面的應(yīng)用涵蓋了各級醫(yī)療衛(wèi)生機構(gòu),方便了醫(yī)生精確診治的同時有效地提升了醫(yī)師的診療質(zhì)量和工作效率,使醫(yī)院逐漸向互聯(lián)網(wǎng)化、智能化發(fā)展,大幅度提升了患者的就醫(yī)體驗和百姓的滿意度,極大地促進了我國醫(yī)療衛(wèi)生領(lǐng)域的發(fā)展。
人工智能改變著人類的日常生活和工作方式,尤其在我國醫(yī)療領(lǐng)域有著廣闊的應(yīng)用前景,促進了我國醫(yī)療衛(wèi)生事業(yè)的發(fā)展,但是隨著人工智能技術(shù)的進步和發(fā)展一些倫理問題和挑戰(zhàn)也隨之出現(xiàn),下文分析了在我國醫(yī)學(xué)人工智能的應(yīng)用中遇到的或潛在倫理問題。
我們既享受著大數(shù)據(jù)時代給我們帶來的生活或工作上的各種便利之余,又深受著隱私泄露帶來的困擾。人工智能技術(shù)的應(yīng)用則高度依賴“數(shù)據(jù)”,它們需要從海量、多樣、實時及序列的數(shù)據(jù)資源來進行訓(xùn)練和學(xué)習(xí)算法,在這一過程中,用戶的很多重要數(shù)據(jù),如身高、體重、血壓、心功能、位置信息、生活習(xí)慣等,都將不可避免地被實時地采集和保存。通過挖掘和分析這些簡單的看似是碎片化的個體資料,人工智能數(shù)據(jù)庫系統(tǒng)就可以自動生成內(nèi)容豐富的個體“肖像圖”,從而導(dǎo)致使得用戶在不知情況中失去了對自身隱私的控制權(quán)[4]。這些數(shù)據(jù)被醫(yī)院或人工智能產(chǎn)品公司掌握,由于醫(yī)療數(shù)據(jù)本身具有較高的價值,如果這些信息被販賣給騙子或者其他醫(yī)療機構(gòu),數(shù)據(jù)主體將面臨著被詐騙或被推銷醫(yī)療產(chǎn)品的風(fēng)險;另一方面,如果這些數(shù)據(jù)因為管理不當(dāng)或系統(tǒng)漏洞產(chǎn)生泄露,也將會對數(shù)據(jù)主體及其家庭造成嚴重損害。
醫(yī)學(xué)智能化的一種重要實施途徑就是“個性化”,即向每個個體提供各不相同的醫(yī)療衛(wèi)生服務(wù)。目前我國的醫(yī)療人工智能的應(yīng)用主要集中在大型醫(yī)療機構(gòu),偏遠地區(qū)或基層診所的患者或居民很難獲得足夠的機會去享受應(yīng)用這項技術(shù)。另外,由于目前我國醫(yī)療人工智能的研究與發(fā)展還正處于初始和起步時期,研發(fā)成本高、研發(fā)人才少,導(dǎo)致一些人工智能提供的服務(wù)價格高昂,只有少數(shù)有錢人可以消費得起,這也是我國人工智能醫(yī)學(xué)應(yīng)用可及性和可負擔(dān)性差的重要原因。難以保證大多數(shù)人受益,保證醫(yī)學(xué)人工智能應(yīng)用的公平性仍需一段漫長的道路[1]。
智能化系統(tǒng)的應(yīng)用,已經(jīng)大幅度地降低了檢驗、病理、影像、手術(shù)等工作負荷。持續(xù)不斷的智能化將會使越來越多的醫(yī)療衛(wèi)生人員的工作內(nèi)容發(fā)生變化、甚至變得多余,在未來高度智能化的產(chǎn)品可以直接生成檢查結(jié)果和針對患者的治療和建議,自助型的看病體驗可能會使醫(yī)生的專業(yè)權(quán)威甚至職業(yè)受到威脅,從而引發(fā)醫(yī)患之間的信任危機。
醫(yī)務(wù)人員監(jiān)督評價系統(tǒng)可以有效的促進醫(yī)務(wù)人員的診療規(guī)范化,提高工作效率,衡量績效,但如果使用不當(dāng),會日益強化醫(yī)療衛(wèi)生人員的“受監(jiān)視”感,進而促使他們的日常工作決策與行為發(fā)生相應(yīng)變化,如引發(fā)過度檢查、過度審慎、刻意規(guī)范化等一系列問題,增加醫(yī)務(wù)人員的工作量,過度檢查又會提高患者的就診費用。
一些人工智能產(chǎn)品的應(yīng)用,如醫(yī)用機器人、醫(yī)學(xué)輔助診療技術(shù)等的應(yīng)用,給醫(yī)生的診斷帶來便利的同時,如果過度使用和依賴,可能會使醫(yī)生產(chǎn)生依賴性,在專業(yè)知識和技術(shù)上產(chǎn)生懈??;游戲型大眾宣傳與醫(yī)生教育機器人、聊天型心理治療機器人等的過度使用有可能引起患者的心理依賴、情感異化、能力退化等一系列問題。
不斷完善的智能咨詢系統(tǒng)及智能化私人醫(yī)生的應(yīng)用,將慢慢改變現(xiàn)有的醫(yī)患之間存在巨大的“信息不對稱”狀況。這種改變將對醫(yī)患關(guān)系管理及醫(yī)患糾紛的防控產(chǎn)生深遠影響。智能化、網(wǎng)絡(luò)化系統(tǒng)的日益普及,會允許患者同時獲得多個醫(yī)生、多個智能系統(tǒng)的診療與治療建議。當(dāng)這些診斷與建議經(jīng)常出現(xiàn)相互矛盾時,將降低患者對醫(yī)生的信任感,可能會引起醫(yī)患糾紛[5]。
隨著醫(yī)學(xué)人工智能技術(shù)應(yīng)用的日益廣泛,因技術(shù)濫用或技術(shù)不足以及技術(shù)管制中的疏忽而導(dǎo)致患者或居民健康與生命安全問題的機率也會相應(yīng)增加。中間過程幾乎是“暗箱”的“神經(jīng)網(wǎng)絡(luò)”的技術(shù)一旦出現(xiàn)偏差往往很難發(fā)現(xiàn)?;谠贫嘶蛘呋ヂ?lián)網(wǎng)的人工智能平臺很易受到非法入侵和控制,從而做出對人類有害的事情。過時或不適宜的證據(jù)與規(guī)則的應(yīng)用在新環(huán)境中的錯誤應(yīng)用會給出錯誤的診療建議,從而有損人類的健康與安全。當(dāng)有機器人深度參與的醫(yī)療衛(wèi)生服務(wù)若出現(xiàn)事故,又該如何界定衛(wèi)生人員、機器及廠商等的責(zé)任?這一點在我國法律上還沒有明確的規(guī)定。
近些年,人工智能等前沿技術(shù)逐漸應(yīng)用到醫(yī)學(xué)的方方面面,推動了新時代新型醫(yī)學(xué)得誕生和演變,同樣也賦予了傳統(tǒng)醫(yī)學(xué)新的理念、新的內(nèi)涵、新的范圍、新的診療手段與康復(fù)模式。這些無論對醫(yī)生和患者,都帶來了深遠的影響,已經(jīng)逐漸成為時代和社會發(fā)展的一種必然趨勢。在無法逆轉(zhuǎn)社會發(fā)展潮流時,必須正確處理醫(yī)學(xué)人工智能技術(shù)在應(yīng)用中所帶來的倫理問題,推動醫(yī)學(xué)人工智能技術(shù)健康有序的發(fā)展。一些地區(qū)在人工智能倫理治理上已有所嘗試,歐盟在2019年提出“可信任的AI倫理準則”,即尊重人類自主原則、預(yù)防傷害原則、公平性原則、可解釋性原則[6]。中國臺灣在2019年發(fā)布《人工智能科研發(fā)展指引》,提出3個AI應(yīng)遵從的核心價值:以人為本、永續(xù)發(fā)展、多元包容;還有八項核心指引:共榮共利、公平性與非歧視性、自主權(quán)與控制權(quán)、安全性、個人隱私與數(shù)據(jù)治理、透明性與可追溯性、可解釋性、問責(zé)與溝通[7]。本文參考以上準則,從理念、研發(fā)、應(yīng)用、監(jiān)管4個方面提出對策和建議,確保醫(yī)學(xué)人工智能在全生命周期內(nèi)安全、穩(wěn)健、合法且符合倫理地運行。
醫(yī)學(xué)倫理學(xué)的三大基本原則為病人利益第一、尊重病人、公正。在醫(yī)學(xué)人工智能的應(yīng)用中,必須要遵循倫理學(xué)的基本原則[8],醫(yī)學(xué)人工智能產(chǎn)品是為人類的健康服務(wù),在產(chǎn)品的開發(fā)、應(yīng)用等全生命周期都應(yīng)該貫徹“以人為本”的理念。以病人的需求為出發(fā)點,在應(yīng)用人工智能的診療過程中充分尊重病人的各項權(quán)利和意愿。
一方面,制定產(chǎn)品和服務(wù)的研發(fā)標準和規(guī)范。在產(chǎn)品的研發(fā)過程中,將醫(yī)學(xué)倫理學(xué)原則和法律準則“嵌入”到人工智能“算法”中,并事先對醫(yī)學(xué)人工智能產(chǎn)品的實際應(yīng)用場景、行為特點等進行道德風(fēng)險評估,在前期進行道德防控[9];另一方面,嚴格保護系統(tǒng),防止漏洞和黑客惡意攻擊,制定和測試安全措施以最大程度地減少意外后果和錯誤,并在系統(tǒng)出現(xiàn)問題時制定可執(zhí)行的備份計劃。
醫(yī)療人工智能技術(shù)產(chǎn)品的部署和運行既要始終堅持其實質(zhì)性的公平又必須能夠保證流程的公平,應(yīng)該能夠確保其利益與成本之間的平等分配、個體和群體不被歧視或受偏見。同時,醫(yī)學(xué)人工智能技術(shù)產(chǎn)品的各種功能與目的必須嚴格地保證信息公開透明,特別是在醫(yī)學(xué)人工智能產(chǎn)品還處于臨床試驗階段時,患者應(yīng)具有知情同意權(quán),患者有權(quán)利知道醫(yī)學(xué)人工智能產(chǎn)品的精確度和局限性。
在醫(yī)學(xué)人工智能產(chǎn)品的研發(fā)、應(yīng)用、銷毀等全流程都要嚴格保護用戶的數(shù)據(jù)和隱私,確保收集到的信息不被非法利用。應(yīng)當(dāng)從法律層面清晰地明確個人對于其信息所擁有的各種基本權(quán)利,規(guī)范企業(yè)在網(wǎng)絡(luò)上搜索、發(fā)布和使用個人信息等的行為。因此,目前我國醫(yī)療人工智能的應(yīng)用仍然急需政府部門制定一系列的安全性標準和完善相應(yīng)的法律、法規(guī),以便于保護病人的信息隱私,在任何一個環(huán)節(jié)都要嚴格保護、嚴防泄露。諸如所有涉及接觸到訪問、傳遞和存放受保護病人信息的專業(yè)技術(shù)人員和單位都應(yīng)被限制在政府部門制定的相應(yīng)安全性規(guī)范內(nèi)。
建立醫(yī)學(xué)人工智能技術(shù)倫理與法律風(fēng)險審查體系。包括區(qū)域性(中央、省、地三級)及規(guī)模較大醫(yī)療衛(wèi)生機構(gòu)內(nèi)的“審查委員會”,以分別負責(zé)所在地區(qū)或機構(gòu)的醫(yī)學(xué)人工智能項目的倫理與法律風(fēng)險的審查。強調(diào)“委員會”成員的合理組合,發(fā)揮人工智能學(xué)科專家、醫(yī)學(xué)專家、哲學(xué)倫理專家、法律專家、社會學(xué)專家的協(xié)同作用。
人工智能在現(xiàn)代醫(yī)學(xué)技術(shù)中得到快速的應(yīng)用和發(fā)展,極大地促進了我國現(xiàn)代醫(yī)療衛(wèi)生事業(yè)的繁榮與發(fā)展,這已經(jīng)成為一個時代和社會發(fā)展的必然趨勢[10],必須重視醫(yī)學(xué)人工智能發(fā)展中帶來的倫理問題和挑戰(zhàn),在醫(yī)學(xué)人工智能產(chǎn)品的開發(fā)、應(yīng)用等過程中秉承以人為本的理念,保證產(chǎn)品的安全性和技術(shù)穩(wěn)健性,遵循公開透明的原則,注重隱私和數(shù)據(jù)保護,建立相關(guān)審查體系,實現(xiàn)有效監(jiān)管,讓人類更多地享受技術(shù)的進步帶來的便利,進而提高全人類的健康水平。