王燕萍,金 鋼, 王蓓蕾
(1.海軍特色醫(yī)學(xué)中心,上海 200433;2.海軍軍醫(yī)大學(xué)第一附屬醫(yī)院,上海 200433)
人工智能(Artificial Intelligence,AI)是研究開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。作為一項(xiàng)顛覆性技術(shù),AI對(duì)人類思維、生活方式以及社會(huì)經(jīng)濟(jì)發(fā)展產(chǎn)生了重大而深遠(yuǎn)的影響。在醫(yī)療領(lǐng)域,以計(jì)算機(jī)視覺、自然語言處理、機(jī)器學(xué)習(xí)等為代表的AI技術(shù)正逐漸應(yīng)用于輔助診療、醫(yī)療機(jī)器人、健康管理、藥物研發(fā)、醫(yī)院管理等場(chǎng)景[1],以助力降本增效、提高診療水平為核心目的,極大地提升了整個(gè)醫(yī)療體系的工作效率。然而,與其發(fā)展相伴隨的是一系列法律問題[2],涉及隱私數(shù)據(jù)安全、事故責(zé)任承擔(dān)、法律監(jiān)管等方面。例如,在醫(yī)療AI產(chǎn)品的研發(fā)過程中,需收集大量個(gè)人隱私信息(如疾病史、家族遺傳史、診療記錄,甚至社會(huì)行為等[3]),如果數(shù)據(jù)遭到泄露、篡改或破壞,很可能會(huì)對(duì)患者的隱私、聲譽(yù)或健康安全構(gòu)成威脅,嚴(yán)重時(shí)甚至影響社會(huì)的和諧穩(wěn)定。此外,多數(shù)醫(yī)療AI的訓(xùn)練建立在多層復(fù)雜神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上,其本質(zhì)是“黑箱大模型”,迄今仍無法闡明其算法邏輯,因此其輸出結(jié)果沒有安全性保證。更重要的是,不同于人類醫(yī)生,現(xiàn)階段AI在醫(yī)療實(shí)踐中的法律責(zé)任和道德義務(wù)尚不明確,一旦發(fā)生醫(yī)源性事故,如何界定事故責(zé)任和權(quán)責(zé)仍是法律盲區(qū)。最后,醫(yī)學(xué)AI的復(fù)雜性和多樣性使得法律監(jiān)管變得困難,盡管一些國(guó)家和地區(qū)已經(jīng)開始制定相關(guān)法規(guī)和政策來規(guī)范醫(yī)學(xué)AI的應(yīng)用,但整體上仍面臨許多挑戰(zhàn)。為此,本文將重點(diǎn)分析當(dāng)前醫(yī)療AI在應(yīng)用過程中可能遇到的法律問題,通過梳理、分析國(guó)內(nèi)外相關(guān)的法律現(xiàn)狀與發(fā)展趨勢(shì),提出符合我國(guó)國(guó)情的對(duì)策建議,以期促進(jìn)醫(yī)療AI的健康理性發(fā)展。
醫(yī)療AI的研發(fā)高度依賴于海量醫(yī)療數(shù)據(jù),隨著電子健康檔案、可穿戴監(jiān)測(cè)設(shè)備和基因測(cè)序等技術(shù)的興起,越來越多的醫(yī)療健康數(shù)據(jù)被挖掘,用于疾病預(yù)防、診斷、治療和隨訪[4]。然而,在獲取、保管、分析和輸出數(shù)據(jù)的各個(gè)環(huán)節(jié)中都存在隱私數(shù)據(jù)泄露的風(fēng)險(xiǎn),如使用者對(duì)設(shè)備操作不當(dāng)、利益相關(guān)者出賣用戶信息、間諜黑客惡意竊取數(shù)據(jù)、系統(tǒng)維護(hù)不當(dāng)?shù)?。隱私數(shù)據(jù)一旦被泄露,不僅侵害公民個(gè)人信息安全,還可能對(duì)社會(huì)穩(wěn)定和國(guó)家安全造成負(fù)面影響。例如,2018年,科技部公開處罰了違反人類遺傳資源管理規(guī)定的六家單位,他們將我國(guó)公民部分基因遺傳資源信息通過網(wǎng)絡(luò)傳遞出境,造成我國(guó)生物遺傳資源的大量流失;2020年,中國(guó)信息通信研究院報(bào)道近三成接受調(diào)查的醫(yī)療單位存在數(shù)據(jù)資產(chǎn)泄露的風(fēng)險(xiǎn),44.39%(7080家)的受調(diào)查單位使用了有漏洞風(fēng)險(xiǎn)的低版本組件[5]。據(jù)統(tǒng)計(jì),僅2020年,我國(guó)通過網(wǎng)絡(luò)出境的醫(yī)學(xué)影像數(shù)據(jù)就達(dá)到497萬余次,涉及境內(nèi)3347個(gè)IP地址,其中未脫敏數(shù)據(jù)達(dá)近40萬次[6];同年,我國(guó)新冠病毒相關(guān)數(shù)據(jù)出境達(dá)99萬余次,涉及境內(nèi)80個(gè)IP地址和境外1992個(gè)IP地址,給我國(guó)生物安全防控帶來了嚴(yán)峻挑戰(zhàn)[7]。由此可見,我國(guó)醫(yī)療行業(yè)的信息安全形勢(shì)不容樂觀,加強(qiáng)醫(yī)療系統(tǒng)的網(wǎng)絡(luò)安全管理能力,提升醫(yī)療行業(yè)的信息安全刻不容緩。
醫(yī)療信息具有特殊的社會(huì)價(jià)值和經(jīng)濟(jì)價(jià)值[8,9],為了保障醫(yī)療行業(yè)的數(shù)據(jù)安全,美國(guó)政府分別于1996年和2009年頒布了《健康保險(xiǎn)攜帶和責(zé)任法案(HIPPA)》和《經(jīng)濟(jì)和臨床健康衛(wèi)生信息技術(shù)法(HITECH)》,旨在推廣電子病歷的同時(shí),更好地保障醫(yī)療信息的安全性和隱私性。之后,美國(guó)衛(wèi)生與公共服務(wù)部基于HITECH法案又頒布了一項(xiàng)嚴(yán)格的違反通知規(guī)則,旨在進(jìn)一步加強(qiáng)對(duì)民眾健康隱私數(shù)據(jù)的保護(hù)[10]。在保障數(shù)據(jù)主體權(quán)益方面,歐盟于2018年通過了《通用數(shù)據(jù)保護(hù)條例(GDPR)》[11],該法規(guī)是目前全球在保護(hù)個(gè)人數(shù)據(jù)方面,規(guī)定最為嚴(yán)格、處罰最為嚴(yán)厲的法規(guī)之一,對(duì)數(shù)據(jù)不合規(guī)行為最高可處以2000萬歐元或營(yíng)業(yè)額的4%的罰款[12,13]。該條例規(guī)定了處理個(gè)人信息的幾大基本原則:合法、公平、透明、目的限定、數(shù)據(jù)最小化[14]、準(zhǔn)確、留存期限、完整性與保密以及權(quán)責(zé)一致原則,旨在規(guī)范個(gè)人數(shù)據(jù)采集、存儲(chǔ)以及處理行為。GDPR是近20年全球在個(gè)人數(shù)據(jù)保護(hù)領(lǐng)域最受關(guān)注的法律文件,有效保障了數(shù)據(jù)主體的合法權(quán)益,對(duì)醫(yī)療衛(wèi)生領(lǐng)域患者隱私數(shù)據(jù)保護(hù)制度的建立也具有深遠(yuǎn)意義。
近年來,我國(guó)政府也出臺(tái)了一系列法律法規(guī)加強(qiáng)對(duì)個(gè)人隱私數(shù)據(jù)的保護(hù),包括2010年衛(wèi)生部發(fā)布的《衛(wèi)生系統(tǒng)電子認(rèn)證服務(wù)管理辦法(試行)》、2010年衛(wèi)生部發(fā)布的《衛(wèi)生系統(tǒng)電子認(rèn)證服務(wù)體系系列規(guī)范》、2014年國(guó)家衛(wèi)計(jì)委發(fā)布的《人口健康信息管理辦法(試行)》、2016年出臺(tái)的《中華人民共和國(guó)網(wǎng)絡(luò)安全法》和2016年國(guó)務(wù)院發(fā)布的《關(guān)于促進(jìn)和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》等[15]。2021年8月,全國(guó)人大表決通過了《中華人民共和國(guó)個(gè)人信息保護(hù)法》,該法是數(shù)字時(shí)代立法的典范,全流程規(guī)范了個(gè)人信息處理活動(dòng)的各個(gè)環(huán)節(jié),全方位規(guī)定了個(gè)人信息處理不當(dāng)時(shí)需要承擔(dān)的民事、行政甚至刑事責(zé)任,為我國(guó)的互聯(lián)網(wǎng)社會(huì)、數(shù)字經(jīng)濟(jì)發(fā)展打下了堅(jiān)實(shí)的法律基礎(chǔ)。
盡管如此,迄今我國(guó)尚未出臺(tái)專項(xiàng)的政策法規(guī)來保護(hù)醫(yī)療信息安全,有關(guān)患者隱私權(quán)的法律規(guī)定較為籠統(tǒng),尚未形成統(tǒng)一的監(jiān)管體系[16]。因此,建議有關(guān)部門可參考美國(guó)、歐盟等國(guó)家和組織有關(guān)立法情況,結(jié)合我國(guó)國(guó)情,制定針對(duì)醫(yī)療健康檔案的具體法律、法規(guī),可從數(shù)據(jù)內(nèi)容、存儲(chǔ)、管理和使用過程中可能存在的風(fēng)險(xiǎn)及責(zé)任追責(zé)等方面展開[17]。首先,應(yīng)將數(shù)據(jù)內(nèi)容直接納入法律保護(hù)的范疇,借鑒其他國(guó)家和地區(qū)的立法經(jīng)驗(yàn),對(duì)患者的隱私數(shù)據(jù)進(jìn)行界定,明確電子健康檔案的所有權(quán),使用權(quán)和法律效力[18]。其次,應(yīng)規(guī)范醫(yī)療數(shù)據(jù)的采集、存儲(chǔ)、使用以及傳遞等具體流程,形成統(tǒng)一的行業(yè)標(biāo)準(zhǔn)和規(guī)范。比如供應(yīng)商如何訪問及管理其生成和傳輸?shù)尼t(yī)療信息,醫(yī)務(wù)人員如何存儲(chǔ)、訪問和處置患者信息,醫(yī)院的數(shù)據(jù)管理中心如何健全制度、強(qiáng)化技術(shù)保障醫(yī)療數(shù)據(jù)的安全等[19]。第三,政府監(jiān)管部門應(yīng)對(duì)數(shù)據(jù)平臺(tái)資質(zhì)與信用進(jìn)行風(fēng)險(xiǎn)評(píng)估、審核和監(jiān)督。由于醫(yī)療隱私數(shù)據(jù)泄露可能對(duì)公民、社會(huì)秩序和公共利益造成嚴(yán)重?fù)p害,醫(yī)療機(jī)構(gòu)或供應(yīng)商必須按照《信息系統(tǒng)安全等級(jí)保護(hù)實(shí)施指南》對(duì)患者信息和信息系統(tǒng)實(shí)施分等級(jí)保護(hù),而政府監(jiān)管部門應(yīng)依法履職,在各自職責(zé)范圍內(nèi)做好安全保護(hù)和監(jiān)督管理工作[20]。最后,應(yīng)健全相關(guān)法律法規(guī),明確界定侵犯患者隱私的行為,并提出具體的責(zé)任追責(zé)措施,如未經(jīng)授權(quán)采集、存儲(chǔ)、傳遞、泄露甚至販賣個(gè)人醫(yī)療信息,分別需承擔(dān)什么法律責(zé)任等[19]。
目前,AI作為一項(xiàng)革命性的技術(shù),在臨床診療實(shí)踐中的應(yīng)用已是大勢(shì)所趨。然而,由于數(shù)據(jù)偏倚、算法偏見、技術(shù)濫用、醫(yī)生接受度等因素,現(xiàn)階段的許多醫(yī)療AI產(chǎn)品仍存在著一定的安全隱患[21]。
影像AI在醫(yī)學(xué)領(lǐng)域中具有巨大的潛力,它通過深度學(xué)習(xí)大規(guī)模、高質(zhì)量、帶標(biāo)注的影像圖像數(shù)據(jù),獲得自動(dòng)分割、分類、檢測(cè)和配準(zhǔn)等精準(zhǔn)分析能力,進(jìn)而輔助醫(yī)生診斷疾病[22]。然而,由于訓(xùn)練數(shù)據(jù)偏倚、標(biāo)注質(zhì)量不一以及缺乏行業(yè)標(biāo)準(zhǔn)等因素,現(xiàn)階段的影像AI產(chǎn)品診斷效能參差不齊,很容易出現(xiàn)誤診、漏診問題[23]。例如,肺癌AI診斷產(chǎn)品的訓(xùn)練數(shù)據(jù)可能主要來自吸煙者和高風(fēng)險(xiǎn)人群的肺癌病例,導(dǎo)致其在低風(fēng)險(xiǎn)人群或非吸煙者中的診斷準(zhǔn)確率較低。另外,目前許多AI產(chǎn)品存在安全脆弱性,跨醫(yī)院的泛化能力弱。如《自然·機(jī)器智能》指出,新冠肺炎影像AI產(chǎn)品可能只適用于其開發(fā)醫(yī)院,無法適應(yīng)其他醫(yī)院的環(huán)境和技術(shù)要求[24]。
臨床決策支持系統(tǒng)是當(dāng)前醫(yī)療AI的另一研究熱點(diǎn),其原理是通過算法,從海量醫(yī)療數(shù)據(jù)中挖掘病癥規(guī)律,為醫(yī)生提供準(zhǔn)確的臨床決策建議[25]。然而,如果訓(xùn)練數(shù)據(jù)本身或技術(shù)算法出現(xiàn)偏倚或缺陷,可能會(huì)給臨床診療帶來巨大風(fēng)險(xiǎn),甚至造成重大醫(yī)療事故。以IBM Watson for Oncology為例,據(jù)IBM內(nèi)部公司文件,其應(yīng)用程序經(jīng)常產(chǎn)生“不安全和不正確”的診療建議[26]。例如,Watson曾向一名65歲伴有嚴(yán)重出血風(fēng)險(xiǎn)的肺癌患者開“貝伐珠單抗”,而該藥的副作用之一就是出血。另外,在一項(xiàng)針對(duì)“胸痛”的病因診斷試驗(yàn)中,Watson僅提供了“某種極少見的傳染病”的診斷建議,而漏診了心絞痛、心肌梗塞及大動(dòng)脈破裂等常見“胸痛”疾病[27]。
近年來,隨著AI、5G、大數(shù)據(jù)、工業(yè)互聯(lián)網(wǎng)等技術(shù)的發(fā)展,智能醫(yī)療機(jī)器人迎來了高速發(fā)展期。然而,與普通服務(wù)型機(jī)器人不同,醫(yī)療機(jī)器人的技術(shù)門檻要求極高,需要醫(yī)學(xué)知識(shí)、計(jì)算機(jī)知識(shí)、工業(yè)生產(chǎn)設(shè)計(jì)等各方面的相互融合,任何環(huán)節(jié)出現(xiàn)問題都可能造成嚴(yán)重的醫(yī)療事故[28]。最典型的例子是英國(guó)首例“達(dá)·芬奇”機(jī)器人心臟手術(shù)致死案,據(jù)后期調(diào)查,手術(shù)失敗的主要原因在于機(jī)器人縫合心臟的位置和方式不對(duì),主刀醫(yī)生必須拆線并重新縫合,該醫(yī)生事后也承認(rèn)并沒有完全掌握機(jī)器的操作方法[29,30]。
隨著AI技術(shù)在臨床診療領(lǐng)域的不斷拓展應(yīng)用,AI所致醫(yī)療事故不斷增多[21],由此也引發(fā)了一系列法律歸責(zé)問題:AI造成的醫(yī)療事故責(zé)任主體是誰?造成的損害如何賠償?對(duì)此,我國(guó)《侵權(quán)責(zé)任法》規(guī)定了醫(yī)療事故責(zé)任的分擔(dān)原則:在醫(yī)療服務(wù)過程中,無論是否存在過失,如果患者在醫(yī)療過程中遭受了人身損害或其他損害,責(zé)任應(yīng)由責(zé)任醫(yī)生或醫(yī)療機(jī)構(gòu)承擔(dān);如果醫(yī)療設(shè)備存在缺陷導(dǎo)致醫(yī)療損失,根據(jù)“無過失賠償”原則,責(zé)任應(yīng)由醫(yī)院和制造商共同承擔(dān)[31]。
《侵權(quán)責(zé)任法》考慮了醫(yī)療器械所致?lián)p害的責(zé)任承擔(dān)問題,但現(xiàn)階段,越來越多的AI產(chǎn)品在一定程度上還具備“自然人”的某些特點(diǎn),這就對(duì)確定醫(yī)療損害的責(zé)任主體提出了挑戰(zhàn)[32]。比如,目前受到廣泛關(guān)注的ChatGPT是一種強(qiáng)大的自然語言處理技術(shù),被認(rèn)為已具備一定的創(chuàng)造力,能夠生成新穎的觀點(diǎn)、想法和建議,該技術(shù)在居家醫(yī)療監(jiān)護(hù)、慢性病管理、臨床決策輔助支持、精準(zhǔn)醫(yī)療等方面都有廣泛的應(yīng)用前景。然而,一旦發(fā)生醫(yī)療損害事件,現(xiàn)行法律法規(guī)無法清晰界定其責(zé)任主體。除此之外,在網(wǎng)絡(luò)環(huán)境下,AI產(chǎn)品的責(zé)任主體不僅包括使用者(醫(yī)生和醫(yī)療機(jī)構(gòu))、生產(chǎn)者(AI研發(fā)人員和管理者),還包括系統(tǒng)黑客,在主體多元化背景下,如何確定各個(gè)主體的責(zé)任,也是對(duì)法律問責(zé)的一個(gè)重要挑戰(zhàn)[33]。
為了應(yīng)對(duì)上述挑戰(zhàn),許多國(guó)家已經(jīng)將“透明和問責(zé)”作為算法專門性立法的核心內(nèi)容。例如,法國(guó)在2016年10月通過了《數(shù)字共和法》,強(qiáng)調(diào)使用自動(dòng)化決策的行政機(jī)關(guān)和數(shù)字平臺(tái)運(yùn)營(yíng)者的透明度義務(wù)。美國(guó)和歐盟也相繼頒布了《算法問責(zé)法案》《算法責(zé)任與透明治理框架》等法規(guī),將算法透明和責(zé)任治理作為法律問責(zé)制度的重要工具。具體來說,美國(guó)于2019年4月發(fā)布了《算法問責(zé)法案》,著重強(qiáng)調(diào)了算法決策、效果及其他要素的影響,提出可借助專業(yè)管理組織或外部監(jiān)管組織進(jìn)行評(píng)價(jià)。與此同時(shí),歐盟也發(fā)布了《算法責(zé)任與透明治理框架》,提出了算法影響評(píng)估流程以及算法問責(zé)機(jī)制。為了進(jìn)一步應(yīng)對(duì)日益復(fù)雜的AI歸責(zé)問題,美國(guó)立法者在2022年又提出了《算法責(zé)任法(草案)》,增設(shè)了自動(dòng)化決策系統(tǒng)新的透明度要求和問責(zé)機(jī)制。
醫(yī)療行業(yè)專業(yè)壁壘高,本身就具有一定的風(fēng)險(xiǎn)性和不確定性,加上AI技術(shù)尚處于發(fā)展探索階段,不可避免會(huì)引起各種醫(yī)療糾紛和矛盾,對(duì)現(xiàn)行的法律法規(guī)提出嚴(yán)峻考驗(yàn)。為此,提出以下建議:首先,應(yīng)進(jìn)一步明確醫(yī)療AI的法律地位?,F(xiàn)階段的AI產(chǎn)品仍處于“弱人工智能”階段,尚不具有自主意識(shí),無法像人類一樣認(rèn)知、思考和創(chuàng)新[34],因此,法律上應(yīng)將其劃分為“醫(yī)療輔助產(chǎn)品”而不是“責(zé)任人”,應(yīng)當(dāng)依據(jù)《中華人民共和國(guó)產(chǎn)品質(zhì)量法》《消費(fèi)者保護(hù)法》和《民法典》中有關(guān)侵權(quán)責(zé)任的規(guī)定執(zhí)行[33]。當(dāng)然,為迎接“強(qiáng)人工智能”甚至“超人工智能”時(shí)代的到來,我們必須與時(shí)俱進(jìn),盡早制定適應(yīng)“快速發(fā)展的人工智能”的新型法律規(guī)范,明確新形勢(shì)下醫(yī)療AI的法律地位,推動(dòng)AI向善發(fā)展。其次,厘清責(zé)任權(quán)屬。針對(duì)智能醫(yī)療時(shí)代責(zé)任主體多元化的趨勢(shì),政策制定者應(yīng)將AI所致醫(yī)療損害行為的判斷標(biāo)準(zhǔn)具體化、細(xì)化,建立責(zé)任分擔(dān)機(jī)制和應(yīng)對(duì)機(jī)制來確定醫(yī)療損害責(zé)任[35]。例如,AI系統(tǒng)僅提供建議,最終決策結(jié)果由醫(yī)生決定,應(yīng)當(dāng)由使用者醫(yī)生承擔(dān);如果系統(tǒng)的建議是決策過程中關(guān)鍵影響因素,應(yīng)由使用者和生產(chǎn)者共同承擔(dān)責(zé)任[33]。具體損害行為的判斷標(biāo)準(zhǔn)應(yīng)委托第三方專業(yè)鑒定機(jī)構(gòu),依法定程序和標(biāo)準(zhǔn)確定各個(gè)主體具體承擔(dān)的責(zé)任比例。第三,建立算法問責(zé)制的法律框架。雖然,我國(guó)已先后頒布《電子商務(wù)法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》和《個(gè)人信息保護(hù)法》,不同程度涉及平臺(tái)的算法責(zé)任。然而,目前的算法規(guī)制場(chǎng)景較窄,主要集中在新聞推薦、廣告推送等定向推送領(lǐng)域,我們希望未來相關(guān)部門能建立覆蓋醫(yī)療領(lǐng)域的算法問責(zé)體系,形成符合技術(shù)邏輯和法理的科學(xué)問責(zé)思路,建立完善的平臺(tái)算法問責(zé)制度。最后 ,建立損害賠償制度。醫(yī)療AI發(fā)生侵權(quán)損害時(shí),如果追責(zé)過重,會(huì)增加科研人員的負(fù)擔(dān),不利于醫(yī)療AI的長(zhǎng)遠(yuǎn)發(fā)展;若追責(zé)較輕,又損害了被侵權(quán)者的合法權(quán)益。為更好地平衡科技創(chuàng)新與公民基本權(quán)益[36],歐盟議會(huì)法律事務(wù)委員會(huì)曾提出兩項(xiàng)議案:一是實(shí)施強(qiáng)制保險(xiǎn)制度,制造商應(yīng)強(qiáng)制性為醫(yī)療AI產(chǎn)品購買保險(xiǎn),用于賠償AI產(chǎn)品所致的損失。二是設(shè)立由投資者、制造商和消費(fèi)者共同發(fā)起的賠償基金[37]。我國(guó)也可借鑒歐盟國(guó)家的保險(xiǎn)制度經(jīng)驗(yàn),構(gòu)建醫(yī)療AI賠償保險(xiǎn)金,完善損害賠償制度,更好地保障AI產(chǎn)品的可持續(xù)發(fā)展。
AI作為一項(xiàng)新興顛覆性技術(shù)為醫(yī)療領(lǐng)域展現(xiàn)出巨大的應(yīng)用前景。然而,目前我國(guó)尚未建立完善的行業(yè)規(guī)范、監(jiān)管制度及法律約束,使得醫(yī)療AI在快速發(fā)展的同時(shí)暴露了諸多風(fēng)險(xiǎn),不僅損害了患者的合法權(quán)益,還可能影響社會(huì)的和諧穩(wěn)定[27]。例如,ChatGPT具有強(qiáng)大的文本生成能力,如果沒有定期抽檢、過濾敏感詞、提出嚴(yán)格的審查制度等針對(duì)性的監(jiān)管手段,其生成的內(nèi)容可能涉及個(gè)人隱私、國(guó)家安全、種族歧視等敏感問題,如果信息泄露或?yàn)E用,還可能引發(fā)更多問題,如隱私泄露、知識(shí)產(chǎn)權(quán)侵犯、價(jià)值觀扭曲等,影響個(gè)人甚至國(guó)家的安全和利益[38]。此外,在生產(chǎn)和使用手術(shù)機(jī)器人、AI輔助診斷系統(tǒng)等過程中,如果缺乏明確的安全標(biāo)準(zhǔn)、嚴(yán)格的監(jiān)督審查制度來約束和規(guī)范,無法保證醫(yī)療AI產(chǎn)品的安全可靠性。若存在數(shù)據(jù)偏倚、算法偏見、惡意程序植入等問題,很容易引發(fā)大范圍的醫(yī)療損害事件[39]。為了避免AI產(chǎn)品在實(shí)際應(yīng)用中出現(xiàn)不必要的風(fēng)險(xiǎn),迫切需要相關(guān)監(jiān)管部門完善制度、加強(qiáng)監(jiān)管,以防范AI決策不透明、算法失誤、隱私侵犯和數(shù)據(jù)泄露等應(yīng)用風(fēng)險(xiǎn)的發(fā)生。
近年來,美國(guó)、歐盟相繼出臺(tái)了AI相關(guān)的監(jiān)管政策。例如,美國(guó)《21世紀(jì)治愈法案》明確了美國(guó)食品藥品監(jiān)督管理局(FDA)對(duì)用于醫(yī)療保健的AI算法的監(jiān)管職權(quán)。FDA于2019年9月頒布了《器械軟件功能和移動(dòng)醫(yī)療應(yīng)用政策指南》《臨床決策支持指南草案》,以告知制造商、分銷商和其他組織,FDA對(duì)其產(chǎn)品監(jiān)管的范圍、步驟和標(biāo)準(zhǔn)。歐盟同樣通過立法為智能醫(yī)療領(lǐng)域建立了體系化的監(jiān)管方案,于2017年4月發(fā)布了新版《歐盟醫(yī)療器械法》,對(duì)醫(yī)療器械分類、安全和性能要求、器械上市后的監(jiān)管等方面都做出了細(xì)化與調(diào)整[40]。2023年6月,歐洲議會(huì)投票通過了《人工智能法案》,意圖通過統(tǒng)一的法律監(jiān)管框架,確保不同類型的AI產(chǎn)品在高度保護(hù)公民基本權(quán)利和保障公共利益的前提下開發(fā)、使用和營(yíng)銷。該法案作為世界第一部綜合性AI治理立法,可能成為全世界AI法律監(jiān)管的標(biāo)準(zhǔn)和參考。
目前,我國(guó)對(duì)醫(yī)療AI應(yīng)用的安全標(biāo)準(zhǔn)和風(fēng)險(xiǎn)監(jiān)管尚處于探索階段[41]。2017年2月,國(guó)家衛(wèi)健委員會(huì)發(fā)布了《人工智能輔助診斷技術(shù)管理規(guī)范(試行)》和《人工智能輔助治療技術(shù)管理規(guī)范(試行)》,對(duì)使用計(jì)算機(jī)輔助診斷軟件及臨床決策支持系統(tǒng)提出技術(shù)和安全要求,為AI應(yīng)用于臨床診斷和治療提供了標(biāo)準(zhǔn)規(guī)范;2018 年7 月,國(guó)家衛(wèi)健委和國(guó)家中醫(yī)藥管理局頒布了《互聯(lián)網(wǎng)醫(yī)院管理辦法(試行)》和《互聯(lián)網(wǎng)診療管理辦法(試行)》,旨在規(guī)范互聯(lián)網(wǎng)診療行為,以確保醫(yī)療質(zhì)量和安全;2018年8月1日,新版《醫(yī)療器械分類目錄》正式生效,首次明確了醫(yī)療AI產(chǎn)品的分類標(biāo)準(zhǔn);同年11月,國(guó)家藥監(jiān)局公布了AI三類器械產(chǎn)品審批的全流程;2019年7月,國(guó)家藥監(jiān)局公布了《深度學(xué)習(xí)輔助決策醫(yī)療器械軟件審評(píng)要點(diǎn)》,明確了AI產(chǎn)品審批細(xì)節(jié); 2020年,全國(guó)人大常委會(huì)立法工作計(jì)劃首次提及“人工智能立法規(guī)制”,明確要求研究AI等新技術(shù)新領(lǐng)域相關(guān)的法律問題[42];2022 年2 月,國(guó)家衛(wèi)健委發(fā)布了《互聯(lián)網(wǎng)診療監(jiān)管細(xì)則(試行)》,初步建立了互聯(lián)網(wǎng)診療監(jiān)管體系[43]。近日,《國(guó)務(wù)院2023年度立法工作計(jì)劃》正式宣布將《人工智能法(草案)》納入立法工作計(jì)劃,這標(biāo)志著我國(guó)在AI監(jiān)管立法方面邁入新的階段。
盡管付出了很多努力,但由于AI技術(shù)迭代發(fā)展速度太快,監(jiān)管和AI應(yīng)用發(fā)展之間仍存在巨大差距。為此,我們呼吁國(guó)家各監(jiān)管部門應(yīng)采取“與時(shí)俱進(jìn)、不斷創(chuàng)新”的監(jiān)管策略,制定適合我國(guó)社會(huì)環(huán)境、產(chǎn)業(yè)發(fā)展和科技創(chuàng)新的AI監(jiān)管政策。例如,針對(duì)新興技術(shù)ChatGPT,政府相關(guān)部門應(yīng)采取有效措施,規(guī)范新技術(shù)的使用,加強(qiáng)市場(chǎng)的監(jiān)管。其次,不同監(jiān)管機(jī)構(gòu)應(yīng)明確職責(zé),細(xì)化AI應(yīng)用的監(jiān)管對(duì)象、范圍和方式等,構(gòu)建完善的監(jiān)督管理體制。各監(jiān)管機(jī)構(gòu)應(yīng)相互配合,在各自職責(zé)范圍內(nèi)實(shí)現(xiàn)對(duì)醫(yī)療AI的無縫連接、有效監(jiān)管,真正通過規(guī)范監(jiān)管來保障AI的安全發(fā)展[44]。例如:國(guó)家衛(wèi)健委、工信部門、藥監(jiān)局和科技部應(yīng)共同制定國(guó)家標(biāo)準(zhǔn),重點(diǎn)監(jiān)督醫(yī)療AI在數(shù)據(jù)獲取、存儲(chǔ)和輸出、算法設(shè)計(jì)過程中是否符合法律和倫理標(biāo)準(zhǔn),避免隱私數(shù)據(jù)安全、算法偏見等問題,確保產(chǎn)品的公平可靠性。具體而言,國(guó)家藥監(jiān)局、科技部應(yīng)承擔(dān)著醫(yī)療AI產(chǎn)品的上市前審批工作,組織檢測(cè)和風(fēng)險(xiǎn)評(píng)估,提供評(píng)估結(jié)論。只有通過相關(guān)審核評(píng)估并符合行業(yè)規(guī)范要求后,醫(yī)療AI產(chǎn)品才能上市,以確保產(chǎn)品安全有效,并滿足透明、可解釋和可問責(zé)性的要求[27]??萍疾亢蜕虅?wù)部應(yīng)制定AI產(chǎn)品的應(yīng)用監(jiān)管模式,監(jiān)督醫(yī)療AI產(chǎn)品在推廣和應(yīng)用過程中產(chǎn)生的結(jié)果,并持續(xù)監(jiān)管其有效性和安全可控性[45]。如若發(fā)現(xiàn)產(chǎn)品存在缺陷,應(yīng)立即停止生產(chǎn)、銷售和使用,召回存在缺陷的產(chǎn)品,追究相關(guān)人員的責(zé)任,同時(shí)確保損害賠償制度的有效實(shí)施。
AI作為一項(xiàng)顛覆性技術(shù),為醫(yī)療領(lǐng)域提供了許多優(yōu)質(zhì)的健康科技產(chǎn)品,為醫(yī)學(xué)實(shí)踐的進(jìn)步創(chuàng)造了巨大的價(jià)值。但是,醫(yī)療AI在帶來發(fā)展契機(jī)的同時(shí),也存在著一系列嚴(yán)峻的法律問題和挑戰(zhàn)。當(dāng)前,我國(guó)醫(yī)療AI應(yīng)用仍處于探索階段,相關(guān)法律法規(guī)和監(jiān)管手段相對(duì)滯后,缺乏規(guī)范的問責(zé)機(jī)制以及權(quán)威專業(yè)的應(yīng)用指導(dǎo)。這亟待醫(yī)學(xué)、法學(xué)及政府相關(guān)部門對(duì)醫(yī)療AI應(yīng)用過程中遇到的法律問題進(jìn)行深入剖析和探討,共同制定與時(shí)俱進(jìn)的、符合我國(guó)國(guó)情的法律法規(guī),真正促進(jìn)醫(yī)療AI健康、和諧、可持續(xù)地發(fā)展。