吉 萍 郭 銳 許衛(wèi)衛(wèi) 祝丹娜 肖 平 李馥宣 周麗萍
醫(yī)療人工智能泛指應用在健康領域的人工智能技術,目的是提高醫(yī)療服務水平與效率,應用場景涵蓋智能臨床輔助診療、醫(yī)用機器人、智能公共衛(wèi)生、智能醫(yī)院管理、藥物研發(fā)、智能醫(yī)學教育以及健康管理等多個方面。雖然全球已形成廣泛接受的人工智能倫理共識與準則,但醫(yī)療人工智能作為新類型研究,倫理與法律風險防控仍然在探討與起步階段。通過2019年走訪深圳開展健康領域人工智能研發(fā)的企業(yè)、醫(yī)療機構以及研究機構的開發(fā)者,了解到相關的產業(yè)、醫(yī)療機構、科研院所以及行業(yè)監(jiān)管部門都面臨諸多實際問題[1-4],包括:(1)如何遵循醫(yī)學科研倫理審查的通用原則與標準?(2)倫理審查時應該重點關注什么:研究價值,科學有效性,如何收集、利用數(shù)據,共享數(shù)據的可行性,合作方責任與權利?(3)醫(yī)院如何定位管理:是否作為科研轉化項目,是否應歸為醫(yī)療器械進行監(jiān)管,由誰來監(jiān)管,等等?負責任開發(fā)醫(yī)療人工智能產品離不開充分、有效的監(jiān)管與支持。本文將結合上述問題,從倫理審查與法律層面探討,期望與相關方交流實踐中的具體考量。
我國已將人工智能上升為國家戰(zhàn)略,法律法規(guī)和政策體系也在進行建設。從國內外現(xiàn)有醫(yī)療人工智能倫理準則與共識來看,依據醫(yī)療領域研究廣泛遵循的《涉及人的健康研究國際倫理準則》《涉及人的生物醫(yī)學研究倫理審查辦法》以及健康大數(shù)據相關規(guī)范進行管理。我國國家衛(wèi)生健康委員會與國家食品藥品監(jiān)督管理局也陸續(xù)發(fā)布了人工智能診療、移動醫(yī)療器械注冊以及深度學習輔助決策醫(yī)療器械軟件審批要點。美國醫(yī)學會[5]、英國納菲爾德生命倫理委員會[6]對人工智能在健康領域研發(fā)及應用提出了倫理原則與考量。然而,醫(yī)療人工智能產學研轉化鏈中具有跨行業(yè)、跨機構、多學科交叉合作的特點。目前,作為重要參與方的企業(yè)以及科研院所倫理意識及倫理監(jiān)管措施相對薄弱。如果是聯(lián)合申報學術課題,一般是誰牽頭誰審批,由牽頭的醫(yī)療機構或科研院所的倫理委員會進行審查。如果是企業(yè)或研究者自發(fā)的項目,多僅靠提供數(shù)據的合作醫(yī)院做倫理審查。醫(yī)院一般沿用醫(yī)學科研倫理審查機制對醫(yī)療人工智能項目進行倫理審查,甚至存在醫(yī)院未對醫(yī)療人工智能研發(fā)進行倫理審查而直接開展的情況。從整體來看,現(xiàn)階段在醫(yī)院開展的醫(yī)療人工智能研發(fā)多是醫(yī)學數(shù)據分析的軟件,通過算法實現(xiàn)對醫(yī)療的各種輔助支持,是否應歸為并按醫(yī)療器械軟件研發(fā)進行監(jiān)管?行業(yè)內對醫(yī)療人工智能研發(fā)階段的定位管理還存在模糊地帶,是否是臨床研究項目?是否是科研轉化項目?如何收集、利用、共享數(shù)據以及各個合作方的職責權利等具體要求還未達成廣泛共識,存在盲區(qū)。
醫(yī)療人工智能技術的核心是基于數(shù)據和智能算法的決策過程,這一過程依賴大量的數(shù)據處理。目前,大多數(shù)人工智能產品是通過算法實現(xiàn)的,訓練樣本主要來自醫(yī)院患者的各類醫(yī)學數(shù)據,但醫(yī)院信息標準化和結構化工作整體還比較薄弱,數(shù)據質量不高。醫(yī)院各自為政,缺乏統(tǒng)一的信息標準、編碼和信息化系統(tǒng),很難實現(xiàn)數(shù)據集成與共享的智能化。另外,雖然僅利用和共享去標識化信息的數(shù)據,但去標識化到何種程度、數(shù)據清洗個人信息的準則以及數(shù)據標注的規(guī)范格式等尚無統(tǒng)一標準[2]。需要考慮數(shù)據收集、數(shù)據標注中完整性及可用性與保護隱私的倫理要求平衡[3],如何最大程度地保留信息滿足分析需求,又保證其數(shù)據結果最終是可解釋的、可信任的,同時避免通過信息追溯到個人。
醫(yī)學大數(shù)據共享追求的是公共利益,在充分保護個人權利的前提下,能發(fā)揮數(shù)據的潛在價值,實現(xiàn)數(shù)據使用效益最大化。一方面,健康醫(yī)療數(shù)據屬于個人敏感數(shù)據,人工智能醫(yī)學應用收集的數(shù)據需要遵守個人健康醫(yī)療數(shù)據處理的一般原則,然而,存在數(shù)據泄露或非法提供、出售等違規(guī)情況[7]。一般數(shù)據處理僅限于科研目的才可以,但合作企業(yè)長遠的最終目標是商業(yè)化應用,如何約束數(shù)據控制者和處理者的權利與義務[4]是現(xiàn)實問題;另一方面,數(shù)據的歸屬、管理責任不清。數(shù)據控制者缺乏合作觀念[7],也缺乏從最初的設計出發(fā),對數(shù)據收集、存儲、分析和共享等全過程可能涉及的倫理問題提出規(guī)范要求,在力所能及的范圍內確保公開透明與負責任的使用數(shù)據的觀念,阻礙了數(shù)據的流動與共享。
首先,要明確跨機構合作的醫(yī)療人工智能相關研究和產品開發(fā)的倫理審查應由誰來承擔?一般倫理審查采用誰發(fā)起誰承擔的形式,但醫(yī)院無論是作為發(fā)起方還是僅作為提供數(shù)據的參與方都應進行必要的、與研究風險相稱的倫理審查。對低風險項目,可以加快審核流程,避免過度監(jiān)管而影響研究效率。
醫(yī)院對開展的醫(yī)療人工智能課題進行管理時,主要按經費來源分縱向課題和橫向課題??v向課題為醫(yī)院主導獲得政府資助,多為早期以探索發(fā)現(xiàn)科研思路為主。橫向課題為醫(yī)學健康領域相關學會、協(xié)會、研究會、科研院所等以及企事業(yè)單位委托開展的合作課題,要判斷是否屬于醫(yī)療器械的產品研發(fā)范疇,如區(qū)分軟件類醫(yī)療器械、移動醫(yī)療器械與移動健康電子產品等。如果屬于醫(yī)療器械,則應按現(xiàn)行藥監(jiān)部門的注冊申請要求及路徑進行管理,并在具有資質的醫(yī)療機構開展試驗。移動醫(yī)療器械與移動健康電子產品不存在清晰的劃分界線,凡符合醫(yī)療器械定義的移動計算設備和軟件均屬于移動醫(yī)療器械。一般情況下,預期用于健康管理的、目標人群為健康人群的、記錄統(tǒng)計健康信息的移動計算設備或軟件不具有醫(yī)療目的,不屬于移動醫(yī)療器械;而預期用于疾病管理的、目標人群為醫(yī)護人員和患者的、控制驅動醫(yī)療器械的、處理分析監(jiān)測醫(yī)療數(shù)據/圖像的移動計算設備或軟件具有醫(yī)療目的,屬于移動醫(yī)療器械[8]。對于無法明確判斷醫(yī)療人工智能課題所屬類別的,可按學術性科研課題進行監(jiān)管,保障研發(fā)過程的安全、合法、可靠。
結合醫(yī)療人工智能研發(fā)項目現(xiàn)有的特點,依據醫(yī)學科研倫理基本準則與標準開展適宜的審查,審查要點包括如下內容[9]。
(1)是否具有開展的價值?換言之,研究能否為個體或公共健康做出貢獻,要關注創(chuàng)新性與重要性。國家倡導和鼓勵政策引導下,人工智能在醫(yī)療健康領域的研發(fā)日益增多。然而,多數(shù)企業(yè)、研究機構與醫(yī)院合作時,在產品應用和價值體現(xiàn)方面尚缺乏深入交流與分析。從事人工智能的研發(fā)人員多來自工科專業(yè),包括數(shù)學、電子信息、自動化和計算機專業(yè)。有訪談者表示:“懂算法的不懂醫(yī),懂醫(yī)的不懂算法?!庇行﹥H依據能獲得數(shù)據而開展研究,甚至未考慮診療中的實際情況,難免造成資源浪費。因此,人工智能項目應開展圍繞臨床和公共利益需求,以確保研究有開展的必要性。研究方案是否科學,是對科學有效性提出要求,即研究設計科學、能獲得可靠和有效的數(shù)據實現(xiàn)研究目的。人工智能項目需要關注算法設計,應當考慮算法選擇、算法訓練、算法性能評估等活動的質控要求[9]。還要考慮數(shù)據多樣性,以提高算法泛化能力,如盡可能來自多家、不同地域、不同層級的代表性臨床機構,盡可能來自多種、不同采集參數(shù)的采集設備[10]。深度學習算法的專業(yè)性可由科學審查進行或聘請獨立顧問進行判斷。
(2)如何保證數(shù)據安全可靠和隱私保護?醫(yī)療人工智能研發(fā)離不開大量醫(yī)學數(shù)據,要關注在健康領域中的數(shù)據收集、儲存和使用方面是否有充分的信息防護措施,特別是個人敏感信息處理、身份識別信息的保密辦法、與數(shù)據分析結果相聯(lián)的個人信息來源等,保證其不被泄露。另外,如何合法取得、提供、使用、共享數(shù)據,以及相應責任的承擔是否明確。相關方應建立合作協(xié)議,規(guī)定各方義務和職責。例如,數(shù)據提供方應確保收集的合規(guī)性以及質量:是否建立了數(shù)據采集操作規(guī)范,明確采集人員要求和采集過程要求;具備對數(shù)據的管理策略和能力,避免隱私信息的泄露。數(shù)據使用方應規(guī)范、合理標注,數(shù)據標注應當建立數(shù)據標注操作規(guī)范,如明確標注人員的資質、數(shù)量、培訓考核要求,以及標注流程[9]。數(shù)據使用與共享應嚴格執(zhí)行方案規(guī)定的數(shù)據享用范圍,避免濫用。
(3)風險獲益是否合理?一般合理的風險獲益比評估關注研究可能涉及的風險與預期的獲益是什么,盡可能最小化研究涉及的風險,同時避免不必要的風險。在人工智能研發(fā)中要特別關注隱私和信息安全風險,避免被不正當處理、個人信息泄露、侵害隱私權所帶來的風險。
(4)研究是一個動態(tài)的過程,在人工智能研發(fā)風險獲益的評估亦是動態(tài)的,因此應結合研究過程,開展適時的、必要的跟蹤審查。
知情同意是受試者保護的重要措施之一。但是,醫(yī)療人工智能在收集和使用健康醫(yī)療大數(shù)據時,多是整合、分析、使用常規(guī)臨床情形下收集的海量數(shù)據,以創(chuàng)造新的價值和技術,并不是要個體可識別信息。去標識化信息在使用時安全風險較低,可以酌情考慮選擇[11-13]。
(1)知情同意的豁免(waiver of informed consen):采用既往信息開展的研究可以申請免除知情同意,應滿足如下條件:①獲取個人知情同意在操作層面或經費上無法實現(xiàn);②研究必須具有重要的社會價值;③研究對受試者及其群體造成的風險不超過最小風險。
(2)泛知情同意( broad informed consent):指患者可選擇是否同意參與將來某一類型的研究,泛知情同意并不是無限制的同意;相反,其要求應詳細說明下列內容以規(guī)范患者信息在未來研究中的應用:①采集數(shù)據目的和用途;②數(shù)據的儲存條件和期限;③該信息的使用權限;④告知數(shù)據管理者的聯(lián)系方式,以便受試者可隨時了解其信息的使用情況;⑤數(shù)據信息的預期使用情況。
(3)當為了已知研究目的的研究收集數(shù)據時,應獲取具體的知情同意(specific consent)。同時,應告知研究參與者所收集數(shù)據的將來處置措施。
(4)知情選擇退出(informed opt-out):指除非患者明確拒絕,否則其相關數(shù)據可被留存并用于研究,應滿足如下條件:①患者需知曉存在該程序;②需為患者提供充分的信息;③患者需知曉其擁有撤回相關數(shù)據的權利;④需為患者拒絕參加研究提供切實可行的操作流程。如在患者就診或者入院時進行告知或公示。
醫(yī)療人工智能產品的研發(fā)往往需要大量的個人數(shù)據,研發(fā)的產品上市后可能作為醫(yī)療器械、作為輔助診斷的專家系統(tǒng)甚至作為獨立實施醫(yī)療診斷行為的智能診療主體而存在。故此,醫(yī)療人工智能產品研發(fā)中的法律考量主要有如下幾個方面:(1)個人信息收集和利用的邊界;(2)侵權責任主體的認定。
醫(yī)療人工智能產品依賴于收集和利用患者與用戶數(shù)據。無論是作為醫(yī)療人工智能產品開發(fā)前提的醫(yī)療數(shù)據儲存、醫(yī)療數(shù)據分析,還是給出輔助診斷意見或實施醫(yī)療診斷行為的醫(yī)療人工智能產品,都需要收集和利用個人信息。按照是否可以單獨或者通過與其他信息結合的方式識別出自然人個人身份的標準,這里提到的個人數(shù)據可以分為兩類:個人信息和去標識化信息。這兩類個人數(shù)據區(qū)分的標準是能否單獨或者通過與其他信息結合的方式識別出個人身份:前者能夠,后者不能夠。大量去標識化信息進行聚合形成的在健康醫(yī)療領域內能被有效利用的數(shù)據集群,稱為健康醫(yī)療大數(shù)據。 醫(yī)療數(shù)據收集和利益主體,應基于個人健康醫(yī)療數(shù)據的敏感性,充分尊重數(shù)據主體的個人信息權利,確保信息收集的來源和目的的合法、正當以及信息主體的知情同意,遵循最少夠用的信息收集原則,并嚴格遵守國家對于患者個人健康信息的特別規(guī)制。
去標識化信息屬經過特殊技術處理而降低了信息風險的個人信息,要求信息控制主體對敏感信息等進行去標識化處理,以及避免去標識化的數(shù)據被重新關聯(lián)到個體等,都是追求健康醫(yī)療大數(shù)據的有用性趨勢下對數(shù)據風險進行控制的重要手段。
醫(yī)療人工智能產品有其特有的特征,主要體現(xiàn)在軟件開發(fā)者可以在產品生命周期內改變其功能。對于需要頻繁更新軟件或依賴機器學習的產品,尤其如此。這些功能可能會帶來產品投放市場時尚不存在的新的風險。
關于侵權責任主體的認定和責任范圍的劃分,其基本原則是責任應由最合適防范風險的行為者承擔。醫(yī)療人工智能產品的開發(fā)人員最適合對開發(fā)階段和頻繁更新產生的風險負責;但在使用階段,醫(yī)療專業(yè)人士有更大的控制風險的能力,故也有可能承擔相應責任。尤其在醫(yī)療機構使用醫(yī)療人工智能產品侵害患者權利的場景下,必然產生醫(yī)療人工智能產品生產者和醫(yī)療機構作為責任主體之間的責任劃分問題。在損害完全由醫(yī)療人工智能產品缺陷導致的情況下,醫(yī)療人工智能產品生產者為實質責任的承擔主體,出于保護患者及其對于醫(yī)療機構的合理信賴的考量,若醫(yī)療機構使用的醫(yī)療人工智能產品為醫(yī)療器械,患者也可就缺陷人工智能醫(yī)療器械帶來的損害向醫(yī)療機構主張賠償責任,但醫(yī)療機構僅承擔表面責任,可就相應損失向缺陷醫(yī)療人工智能產品生產者進一步追償;在完全由醫(yī)療機構及其醫(yī)務人員的過錯致使患者在診療活動中受到損害的情況下,患者可向醫(yī)療機構主張醫(yī)療侵權責任。醫(yī)療過錯主要體現(xiàn)為醫(yī)療機構及醫(yī)務人員未盡到一定診療義務,義務來源包括與當時醫(yī)療水平相稱的、使用醫(yī)療人工智能產品相關的注意義務。醫(yī)療人工智能產品在提供決策支持時,醫(yī)務人員的診療義務很大程度上體現(xiàn)為對此決策的風險進行理性并專業(yè)的判斷和控制的義務。比較復雜的情況是導致?lián)p害的原因難以區(qū)分為醫(yī)療人工智能產品缺陷或醫(yī)療機構及其醫(yī)務人員過錯的情況下,如何認定兩個主體是否成立侵權責任或如何進一步劃定責任范圍,都應從產生損害的風險防范基本原則角度出發(fā),結合具體的實際情況來綜合判斷。
國家出臺一系列鼓勵并推動人工智能產品研發(fā)的政策,投入力度也在增加,無疑將促進我國醫(yī)療人工智能的開發(fā)。前沿醫(yī)療人工智能作為新型以數(shù)據驅動的研究類型,具有跨行業(yè)、跨機構的多學科交叉合作特點,相應的數(shù)據安全、數(shù)據利用以及數(shù)據共享有關倫理與法律問題也日益突顯。
加強人工智能在健康領域健康發(fā)展,離不開有效、充分的監(jiān)管與支持。一方面,國家應盡快明確醫(yī)療人工智能從科研到產品開發(fā)全流程中各環(huán)節(jié)的監(jiān)管主體和管理政策,尤其是數(shù)據使用,為相關責任方提供規(guī)范指引,增強合法合規(guī)意識,確保應用的安全、可靠、可控。另一方面,醫(yī)療人工智能產品作為新興類別產品,缺乏實例和經驗,針對人工智能研發(fā)特點,需要相關參與方主動、負責任地協(xié)同開展研究[14],在產品開發(fā)與評估階段遵守醫(yī)學研究倫理原則和數(shù)據規(guī)范。醫(yī)療機構作為數(shù)據提供方,應建立數(shù)據治理系統(tǒng),確保數(shù)據的儲存、使用全程監(jiān)管,并應探索課題的主動監(jiān)管,保障安全、合法、可靠地開發(fā)醫(yī)療人工智能產品。
(致謝:感謝北京大學醫(yī)學部叢亞麗教授和張海洪老師為本文提供的專業(yè)指導意見!)