何 娜,李 涵
(西安交通大學第二附屬醫(yī)院眼科,陜西 西安 710004,1312046776@qq.com)
人工智能(artificial intelligence,AI)已經(jīng)在各個領(lǐng)域不同程度地被實踐與應(yīng)用。隨著“互聯(lián)網(wǎng)+醫(yī)療健康”地不斷推進,醫(yī)療人工智能也出現(xiàn)了井噴式的發(fā)展,人工智能被廣泛應(yīng)用于患者就診、輔助診斷、輔助治療、臨床研究等醫(yī)療領(lǐng)域,其高效、精準、高一致性和便捷的優(yōu)勢引起了眼科醫(yī)生的關(guān)注與青睞,但其技術(shù)缺陷和成熟度不足等問題也帶來一系列的倫理問題。
眼科疾病的診斷在很大程度上依賴于輔助檢查的結(jié)果[1],且以影像學檢查居多,如,眼底視網(wǎng)膜圖像、光學相干斷層掃描技術(shù) (optical coherence tomography,OCT)、裂隙燈檢查等。精細、復雜、大量的影像學圖像的審閱為眼科疾病的診治帶來了巨大的阻礙。在眼科疾病診治過程中應(yīng)用人工智能技術(shù),可以快速、客觀地處理大批的圖像信息[2],提高疾病的診療效率,從而減輕眼科醫(yī)生的負擔。近些年,人工智能技術(shù)已被廣泛應(yīng)用于眼科的疾病領(lǐng)域,其中糖尿病視網(wǎng)膜病變、年齡相關(guān)性黃斑變性、青光眼、白內(nèi)障等疾病的診斷和治療領(lǐng)域應(yīng)用最為廣泛[3]。
人工智能在眼科領(lǐng)域快速地崛起并得到了廣泛應(yīng)用,但其與傳統(tǒng)醫(yī)療之間畢竟存在著大的差異,在肯定它為眼科醫(yī)患帶來便利的同時,也不能忽略其背后存在的醫(yī)學倫理學問題。其中,患者安全問題、公平受益問題、隱私保護問題、醫(yī)療事故責任劃分問題等最為突出,爭議也最多。
不傷害原則是醫(yī)學倫理學的基本原則之一。無論是科研還是醫(yī)療活動,患者的安全權(quán)益應(yīng)是首要考慮的因素。在眼科領(lǐng)域應(yīng)用人工智能,其技術(shù)的可靠性和安全性也是首先應(yīng)該被關(guān)注的問題。隨著醫(yī)學影像輔助診斷技術(shù)的不斷成熟,眼科領(lǐng)域疾病的篩查、診斷和治療大多借助于人工智能,增加了疾病診斷客觀性的同時,也存在一系列的安全問題,如,由醫(yī)療數(shù)據(jù)采集環(huán)節(jié)缺陷帶來的患者疾病診斷的假陰性或假陽性問題、問診系統(tǒng)出現(xiàn)的誤診問題、智能介入診斷或治療機械臂的清洗、消毒、滅菌問題等。
利用人工智能進行疾病篩查或診斷的準確性取決于機器所存儲的該類疾病相關(guān)知識和病例資料的質(zhì)量與數(shù)量[4]。高質(zhì)量病例資料庫的建立是目前醫(yī)療人工智能面臨的最大難題,也是限制醫(yī)療人工智能技術(shù)發(fā)展最大的掣肘。若機器學習的病例數(shù)據(jù)存在偏差,會導致人工智能系統(tǒng)在疾病診療過程中所作出的決策出現(xiàn)偏差,從而導致疾病診斷的假陽性或假陰性情況,進而延誤患者疾病的治療。同時,由于“算法偏見”的存在,把設(shè)計者對疾病、性別等存在的偏見和歧視融入系統(tǒng)的判斷和智能分析中,通過系統(tǒng)學習的不斷復制或放大,將會對患者的診療安全造成極大的隱患。
眼科顯微手術(shù)機器人具有定位精度高、運動范圍小的優(yōu)勢,可以輔助眼科醫(yī)生進行小空間操作、縮短手術(shù)時間、減少醫(yī)生疲勞感。但是,介入的診斷和治療對術(shù)區(qū)的無菌操作要求較高,手術(shù)機器人器械臂的特殊材質(zhì)對其清洗、消毒、滅菌的條件也較為特殊,若為滿足其操作的精確度,稍有不慎則易引起手術(shù)區(qū)域感染,給患者帶來不可逆的傷害。
眼科領(lǐng)域應(yīng)用人工智能可以大大提升疾病篩查和診斷的效率和準確率,但是計算機的深度學習都是基于對大量的病例資料的研究,病歷資料庫的建立需要投入大量人力、物力和財力[5];加之,機器對病理圖像的分割和自動測量等技術(shù)需要較高的科技含量,這就決定了有人工智能技術(shù)參與的診療活動必將為患者帶來較高的就醫(yī)成本。結(jié)合我國的基本醫(yī)療環(huán)境,利用人工智能技術(shù)就診只能在經(jīng)濟條件較好的患者群體中展開,這與患者公平獲益的權(quán)益是相違背的。由此可見,在眼科領(lǐng)域應(yīng)用的人工智能技術(shù)將因患者群體的貧富差距而影響其就醫(yī)體驗。因此,如何提高人工智能技術(shù)在眼科疾病患者中的可及性是制約人工智能技術(shù)發(fā)展的難題。
眼科人工智能系統(tǒng)的研究和發(fā)展主要依賴于收集和分析大量的病例資料,這些病例資料中不僅包含了患者的疾病信息[6],還會涉及患者的基本信息、既往病史、就診記錄,甚至生活和飲食習慣、生理狀況等健康信息,一旦泄露將會為患者正常生活帶來影響。因此,在眼科人工智能技術(shù)研發(fā)和應(yīng)用的全過程中,病歷資料患者的隱私和數(shù)據(jù)保護是應(yīng)該重點關(guān)注的問題。這就需要從業(yè)者建立高水平的網(wǎng)絡(luò)安全保障,并不斷提升其網(wǎng)絡(luò)安全風險防控能力。
另外,人工智能設(shè)備的運營商非常集中的掌握了海量的患者數(shù)據(jù),其中,不乏我國人群的健康大數(shù)據(jù),若他們無視法規(guī)、無視患者的知情同意,在巨大利益的誘惑下利用患者的隱私來以權(quán)謀私,將會給患者帶來較大的危害。
因此,要建立眼科人工智能系統(tǒng)的患者資料庫,患者的充分知情同意、獲得這些數(shù)據(jù)的人員權(quán)限及泄露后的責任承擔主體等都是不容忽視的關(guān)鍵問題。醫(yī)療機構(gòu)管理者與企業(yè)合作過程中,都應(yīng)遵循法律法規(guī),尊重患者知情同意權(quán),建立系統(tǒng)內(nèi)完善的保護和使用、提取等監(jiān)管制度。
知情同意是受試者保護的重要措施之一[7]。無論是人工智能系統(tǒng)研發(fā)階段的患者資料收集,還是臨床診療中的人工智能產(chǎn)品應(yīng)用都應(yīng)遵循知情同意的原則,即:完全告知、充分理解、自主決定。
利用醫(yī)療人工智能技術(shù)在眼科領(lǐng)域輔助醫(yī)生開展疾病篩查、診斷和治療,在一定程度上可以減少醫(yī)生的工作負擔,為患者就醫(yī)提供便利。然而,醫(yī)療人工智能技術(shù)對醫(yī)生和患者來說都是一個全新的領(lǐng)域,在短暫的就診時間內(nèi)醫(yī)生能否將使用醫(yī)療人工智能技術(shù)開展輔助診療可能存在的風險和預期的受益向患者完全告知?患者能否在充分了解的基礎(chǔ)上進行自主決定?
一旦患者在診療過程中發(fā)生醫(yī)療安全問題,其責任的劃分將成為亟待解決的難題。不同的人工智能產(chǎn)品對疾病的診斷和辨析能力不同,對臨床醫(yī)生工作的幫助程度也有所不同,其應(yīng)用場景的特殊性決定了責任主體復雜性,如,疾病診斷系統(tǒng)因為所學習的病例資料不全面而出現(xiàn)疾病的誤診情況、使用手術(shù)機器人進行診療時出現(xiàn)的醫(yī)療事故、由于“算法偏見”的存在為就診患者帶來的傷害等,這個場景中雖然引起的醫(yī)療事故是因為人工智能產(chǎn)品的缺陷導致的,但是執(zhí)行工作的還是醫(yī)務(wù)人員,這就造成了責任劃分不清的問題。
目前,醫(yī)療人工智能監(jiān)管法規(guī)的滯后已經(jīng)成為影響醫(yī)療人工智能在眼科領(lǐng)域發(fā)展的最為關(guān)鍵的問題,建立一套與之相適應(yīng)的監(jiān)管法規(guī)尤為重要。目前,已經(jīng)有很多國家建立了符合國情發(fā)展需要的法律法規(guī)用于規(guī)范醫(yī)療人工智能技術(shù)的開發(fā)與應(yīng)用[8],如,美國出臺了關(guān)于并發(fā)癥的預測與預防、發(fā)展電子化病歷、醫(yī)療大數(shù)據(jù)、基于AL系統(tǒng)自動執(zhí)行的醫(yī)療決策與診斷等領(lǐng)域的法規(guī)政策;日本出臺了關(guān)于醫(yī)療健康和護理方面的政策法規(guī)用來應(yīng)對其嚴重的“人口老齡化”問題;英國提出了保證公眾數(shù)據(jù)的安全性和隱私性,并出臺了關(guān)于疾病的輔助診斷、流行病的早期預防控制及圖像診斷方向等方面的政策;印度則更為關(guān)注癌癥的篩查和治療領(lǐng)域的規(guī)范開展。而我國也相繼出臺了《人工智能輔助診斷技術(shù)管理規(guī)范(試行)》《關(guān)于促進規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導意見》《關(guān)于加快發(fā)展康復輔助器具產(chǎn)業(yè)的若干意見》等,用以規(guī)范醫(yī)療人工智能技術(shù)的研發(fā)與應(yīng)用。從醫(yī)療安全和數(shù)據(jù)保護的角度出發(fā),只有規(guī)范的數(shù)據(jù)采集和應(yīng)用才能從根本上保證患者的個人信息安全,更好地保護其隱私;只有建立完善的法律法規(guī),才能清晰地界定醫(yī)療人工智能產(chǎn)品的開發(fā)者、生產(chǎn)者和使用者的責任,從而保障患者的合法權(quán)益。加強對眼科疾病篩查、診斷和治療人工智能產(chǎn)品的醫(yī)療器械資格準入、臨床醫(yī)療技術(shù)準入和操作人員資格準入等措施也是保障醫(yī)療人工智能技術(shù)良性發(fā)展的重要措施。
人工智能技術(shù)屬于高科技行業(yè),將其應(yīng)用于醫(yī)療活動中的時間也不長,這就造成國家監(jiān)管和臨床應(yīng)用等方面人才緊缺的現(xiàn)狀。人工智能技術(shù)的競爭歸根結(jié)底是人才的競爭[9]。目前,醫(yī)療人工智能技術(shù)已經(jīng)處于飛速發(fā)展的階段,人工智能與醫(yī)學的復合型人才是保證其良性發(fā)展的必備要素,培養(yǎng)計算機科學、醫(yī)藥學的高層次復合型創(chuàng)新人才,加大高層次人才引進力度,完善各項配套支持,完善適合醫(yī)療人工智能技術(shù)良性發(fā)展的生態(tài)體系已迫在眉睫。
我國從二十世紀八十年代末開始探索醫(yī)工交叉、多學科交叉人才的培養(yǎng),國內(nèi)也有部分高校通過增設(shè)智能醫(yī)學專業(yè)、建設(shè)創(chuàng)新平臺等措施來為培養(yǎng)復合型應(yīng)用型人才,積極開展產(chǎn)、學、研合作,以推動人才培養(yǎng)和科技創(chuàng)新成果的轉(zhuǎn)化與應(yīng)用。
同時,在醫(yī)工交叉、多學科交叉人才培養(yǎng)過程中增加醫(yī)學倫理學的培訓,促進其倫理素養(yǎng)的提升不容忽視。目前,醫(yī)學生的培養(yǎng)課程中已經(jīng)設(shè)立了醫(yī)學倫理學相關(guān)課程,然而僅停留在理論層面,在臨床實踐中醫(yī)生往往更多的關(guān)注患者的疾病診療而忽略診療過程中倫理問題。提升計算機科學、醫(yī)藥學高層次人才的醫(yī)學倫理學素養(yǎng)可以促進醫(yī)療人工智能技術(shù)的良性發(fā)展。
醫(yī)療機構(gòu)是患者就醫(yī)、醫(yī)生職業(yè)的場所,無論是利用人工智能技術(shù)輔助醫(yī)療行為還是開展醫(yī)療人工智能技術(shù)的研發(fā),都應(yīng)該首先獲得醫(yī)療機構(gòu)及醫(yī)學倫理委員會的首肯和批準?!吨腥A人民共和國民法典》[10]中“醫(yī)療損害責任”規(guī)定:患者在診療活動中受到損害,醫(yī)療機構(gòu)或者其醫(yī)務(wù)人員有過錯的,由醫(yī)療機構(gòu)承擔賠償責任??梢姡t(yī)療機構(gòu)應(yīng)承擔所有在場所內(nèi)開展臨床醫(yī)療/科研行為過程中產(chǎn)生的患者/受試者損害的法律責任。因此,醫(yī)療機構(gòu)應(yīng)該成立醫(yī)療人工智能技術(shù)審查委員會,或者在醫(yī)學倫理委員會加入醫(yī)療人工智能和信息技術(shù)相關(guān)專業(yè)的委員,進行人工智能技術(shù)在眼科領(lǐng)域開展的可行性、患者/受試者的預期受益與風險等問題的評估,臨床醫(yī)生或研究者的培訓以及為患者/受試者提供相關(guān)知識的咨詢等工作,實現(xiàn)人工智能技術(shù)與醫(yī)患的有機結(jié)合,從而使人工智能風險最小化、效益最大化。
技術(shù)是一把“雙刃劍”,我們在享受其帶來便利的同時也不能忽視其潛在的醫(yī)療風險或意外。作為醫(yī)療智能技術(shù)產(chǎn)品的開發(fā)和使用主體人,應(yīng)該遵守國家和醫(yī)院的相關(guān)法律法規(guī)、規(guī)章制度開展臨床醫(yī)療和臨床科研活動。遵守倫理原則,開展倫理審查、嚴格執(zhí)行知情同意,避免因?qū)I(yè)知識的不對稱、醫(yī)學本身的不確定性為患者帶來傷害。
目前,人工智能在常見的眼科疾病中的應(yīng)用已經(jīng)日漸成熟,眼底疾病的自動檢測和輔助篩查技術(shù)已經(jīng)在部分國家和地區(qū)投入臨床應(yīng)用。隨著科技的不斷發(fā)展,人工智能技術(shù)的不斷優(yōu)化以及相關(guān)標準的制定和不斷完善,將會有越來越多的人工智能技術(shù)在日常診療工作中應(yīng)用。人工智能技術(shù)是實現(xiàn)智慧醫(yī)療目標的核心驅(qū)動力,它的普及將會徹底改變?nèi)祟愒\療疾病的傳統(tǒng)模式,彌補傳統(tǒng)醫(yī)療模式的短板,提升醫(yī)療水平,保障人類健康。但是,這背后存在的醫(yī)學倫理風險也是不容忽視的,健全和完善法規(guī)監(jiān)管,讓人工智能技術(shù)有的放矢地發(fā)揮優(yōu)勢,趨利避害,為衛(wèi)生事業(yè)的發(fā)展和人民健康水平的提高提供有力的支撐。