王姍姍, 翟曉梅
(北京協(xié)和醫(yī)學(xué)院人文和社會(huì)科學(xué)學(xué)院,北京 100732,shanshanwang_pumc@hotmail.com)
智能涉及兩層含義,即智力和能力,是衡量一個(gè)人在各種環(huán)境中認(rèn)識(shí)活動(dòng)和進(jìn)行實(shí)際活動(dòng)的能力。20世紀(jì)50年代,人工智能(Artificial Intelligence, AI)的概念首先在達(dá)特茅斯會(huì)議上被提出,被定義為制造智能機(jī)器的科學(xué),尤其是指智能計(jì)算機(jī)程序。歐盟委員會(huì)人工智能高級(jí)專(zhuān)家組將人工智能界定為由人類(lèi)設(shè)計(jì)的,在給定某個(gè)復(fù)雜目標(biāo)的情況下,能夠在物理或數(shù)字世界中,通過(guò)感知環(huán)境、解釋收集的數(shù)據(jù),推斷從該數(shù)據(jù)獲得的知識(shí),并決定采取的最佳行動(dòng)。它是能夠根據(jù)預(yù)先定義的參數(shù)實(shí)現(xiàn)既定目標(biāo)的系統(tǒng)[1]。簡(jiǎn)言之,人工智能是指像人類(lèi)一樣能夠理性思考和行動(dòng)的智能系統(tǒng)。與人類(lèi)的智能水平相比,人工智能可分為三類(lèi):①弱人工智能;②強(qiáng)人工智能;③超級(jí)人工智能。
目前人類(lèi)社會(huì)所有應(yīng)用的人工智能均為弱人工智能技術(shù)。弱人工智能只能執(zhí)行特定任務(wù)或處理預(yù)定義問(wèn)題[2]。從軍事武器到智能音箱,從蘋(píng)果智能語(yǔ)音助手Siri到IBM超級(jí)電腦沃森(Watson),從谷歌的阿爾法圍棋(Alpha Go)至其2018年上線的第一個(gè)微信人工智能小程序“猜畫(huà)小歌”,都依賴弱人工智能技術(shù)。這些技術(shù)的應(yīng)用,可以降低經(jīng)濟(jì)成本,使得生產(chǎn)力大幅提高,社會(huì)資本高效運(yùn)作。
人工智能技術(shù)的迭代不是線性增長(zhǎng),而是呈指數(shù)化爆炸性增長(zhǎng)。弱人工智能的進(jìn)階是強(qiáng)人工智能。強(qiáng)人工智能是具有全方面人類(lèi)智能的人工智能[3]。一些專(zhuān)家相信在幾十年內(nèi)人類(lèi)社會(huì)至少會(huì)部分實(shí)現(xiàn)強(qiáng)人工智能[4]。超級(jí)人工智能是指比人腦智能水平更高的智能。超級(jí)人工智能被定義為在所有領(lǐng)域中任何超過(guò)人類(lèi)認(rèn)知表現(xiàn)的智力和能力[5]。一些人對(duì)超級(jí)人工智能充滿好奇心并期待其迅速實(shí)現(xiàn),但也有不少人對(duì)超級(jí)人工智能表示懷疑和擔(dān)憂,擔(dān)憂如果人工智能終有一天會(huì)超越人腦智能,人們甚至對(duì)此感到恐懼:超級(jí)人工智能是人類(lèi)最后的發(fā)明,同時(shí)也是人類(lèi)時(shí)代的終結(jié)[6]。
人工智能以神經(jīng)科學(xué)、心理學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算科學(xué)、數(shù)學(xué)、邏輯學(xué)、編程、哲學(xué)等學(xué)科為基礎(chǔ),在很多領(lǐng)域中發(fā)揮重要作用。在醫(yī)學(xué)領(lǐng)域中,人工智能技術(shù)可應(yīng)用于健康管理、臨床決策支持、醫(yī)學(xué)影像、疾病篩查和早期疾病預(yù)測(cè)、病歷/文獻(xiàn)分析、醫(yī)院管理等。
醫(yī)院、患者健康管理和臨床決策支持:電子病歷語(yǔ)音錄入、智能導(dǎo)診分診機(jī)器人、藥物助理等方面的應(yīng)用。人工智能技術(shù)能夠?qū)﹄娮硬v和文獻(xiàn)進(jìn)行結(jié)構(gòu)化處理,提升醫(yī)護(hù)人員檢索病案信息的效率,并從中挖掘多元數(shù)據(jù)。在醫(yī)院信息系統(tǒng)(HIS)、實(shí)驗(yàn)室信息管理系統(tǒng)(LIS)、放射信息管理系統(tǒng)(RIS)、醫(yī)學(xué)影像存檔與通信系統(tǒng)(PACS)和電子病歷(EMR)等院內(nèi)系統(tǒng)中,人工智能醫(yī)學(xué)應(yīng)用可以將患者信息和病案集合處理,通過(guò)時(shí)間順序展示每位患者的門(mén)診、住院病歷信息,滿足日益升級(jí)的醫(yī)療需求,解決醫(yī)院信息互聯(lián)問(wèn)題,方便醫(yī)生診治和患者就診。臨床決策支持系統(tǒng)(CDSS)為醫(yī)療衛(wèi)生專(zhuān)業(yè)人員提供專(zhuān)家支持計(jì)算機(jī)程序,它通過(guò)人機(jī)對(duì)話,根據(jù)患者數(shù)據(jù)并作出有關(guān)診斷、預(yù)防和治療的決策[7],提高決策有效性。人工智能醫(yī)學(xué)應(yīng)用覆蓋基層醫(yī)療衛(wèi)生機(jī)構(gòu)是我國(guó)大力發(fā)展基礎(chǔ)醫(yī)療的重要手段。
醫(yī)學(xué)影像、疾病篩查和輔助早期疾病診斷:人工智能可通過(guò)分析醫(yī)學(xué)影像和醫(yī)療信息進(jìn)行疾病篩查和疾病預(yù)測(cè),輔助醫(yī)生作出診斷。在眼科,人工智能可以通過(guò)病灶篩查糖尿病視網(wǎng)膜病變;在癌癥診療中,人工智能可對(duì)乳腺癌、鼻咽癌、肝癌和肺癌進(jìn)行靶區(qū)勾畫(huà);在外科,手術(shù)導(dǎo)航系統(tǒng)可形成臟器三維成像;在病理分析中,人工智能可通過(guò)建立病理平臺(tái)進(jìn)行病理和影像定量分析。
人工智能醫(yī)學(xué)應(yīng)用使人類(lèi)受益的同時(shí),也提出了一些倫理挑戰(zhàn)。下文將從安全性問(wèn)題、隱私保護(hù)、患者對(duì)人工智能技術(shù)的可及性和可負(fù)擔(dān)性以及責(zé)任劃分等四方面的問(wèn)題,對(duì)我國(guó)人工智能醫(yī)學(xué)應(yīng)用提出的倫理挑戰(zhàn)進(jìn)行分析和討論。
人工智能的安全性(Safety)是指人工智能系統(tǒng)在運(yùn)行全周期均是安全可靠的,并在適用且可行的情況下可驗(yàn)證其安全性[8]。保障人類(lèi)生命健康這一要求促使科學(xué)家謹(jǐn)慎地研發(fā)關(guān)乎人身安全的科學(xué)技術(shù)。成熟可靠的人工智能醫(yī)學(xué)應(yīng)用可保護(hù)和促進(jìn)人類(lèi)健康,但那些不成熟、不穩(wěn)定的應(yīng)用可能會(huì)損害人類(lèi)健康,甚至剝奪人類(lèi)的生命。
人工智能醫(yī)學(xué)應(yīng)用的安全性風(fēng)險(xiǎn)是指人工智能在應(yīng)用時(shí)可能發(fā)生的傷害。根據(jù)所出現(xiàn)概率和后果嚴(yán)重程度,風(fēng)險(xiǎn)可分為四類(lèi)。第一類(lèi)是風(fēng)險(xiǎn)出現(xiàn)概率高和后果重大;第二類(lèi)是風(fēng)險(xiǎn)出現(xiàn)概率極低,但后果一樣重大;第三類(lèi)是風(fēng)險(xiǎn)出現(xiàn)概率高,后果輕微;第四類(lèi)是風(fēng)險(xiǎn)出現(xiàn)概率低,后果輕微?;谀壳叭斯ぶ悄芗夹g(shù)和其醫(yī)學(xué)應(yīng)用的發(fā)展情況,以第一類(lèi)風(fēng)險(xiǎn)為主。
典型的例子如IBM沃森(Watson)系統(tǒng)助力輔助診療,通過(guò)海量數(shù)據(jù)分析和數(shù)據(jù)迭代分析,實(shí)現(xiàn)疾病篩查和早期疾病預(yù)測(cè)。根據(jù)外國(guó)媒體Stat新聞報(bào)道和來(lái)自IBM公司的內(nèi)部文件顯示,與該公司沃森合作的醫(yī)學(xué)專(zhuān)家在使用沃森時(shí)發(fā)現(xiàn)沃森推薦了不安全的、錯(cuò)誤的治療建議,這些建議來(lái)源于每類(lèi)腫瘤領(lǐng)域的少量專(zhuān)家的建議,而不是有關(guān)的準(zhǔn)則或可靠的證據(jù)[9]。此外,正在使用沃森腫瘤解決方案的醫(yī)生們對(duì)這樣的錯(cuò)誤治療建議提出了強(qiáng)烈的批評(píng):一些案例已經(jīng)表明沃森經(jīng)常提出不準(zhǔn)確的醫(yī)療建議,它在給出意見(jiàn)的過(guò)程和底層技術(shù)上存在嚴(yán)重的安全性問(wèn)題。例如,沃森提出的治療建議包括給有嚴(yán)重出血癥狀的肺癌患者使用會(huì)導(dǎo)致出血的抗癌藥物,而從醫(yī)學(xué)/醫(yī)生的判斷來(lái)看,這種用藥對(duì)患者是致命的[10]。
該案例揭示了人工智能醫(yī)學(xué)應(yīng)用可能產(chǎn)生破壞性的結(jié)果(如誤診)。誤診對(duì)于患者及其家庭、醫(yī)生、醫(yī)院和研發(fā)生產(chǎn)的公司來(lái)說(shuō),都是一件難以承受的事情。上述案例中沃森的錯(cuò)誤建議源于有缺陷的計(jì)算機(jī)算法。案例強(qiáng)調(diào)了有缺陷的算法對(duì)患者可以造成重大傷害、導(dǎo)致醫(yī)療事故的可能性。相對(duì)于臨床醫(yī)生誤診一位患者,一個(gè)機(jī)器學(xué)習(xí)算法可能會(huì)誤診更多的患者,因此,其誘導(dǎo)的醫(yī)源性風(fēng)險(xiǎn)出現(xiàn)的可能性更大、后果更為嚴(yán)重[11]。這也突出了人工智能醫(yī)學(xué)應(yīng)用可能會(huì)對(duì)人的生命健康帶來(lái)威脅。
我國(guó)對(duì)人工智能醫(yī)學(xué)應(yīng)用的安全性標(biāo)準(zhǔn)和風(fēng)險(xiǎn)監(jiān)管尚處于探索階段。2014年,我國(guó)頒布了《醫(yī)療器械監(jiān)督管理?xiàng)l例》(簡(jiǎn)稱(chēng)《條例》)以保障醫(yī)療器械安全,保護(hù)人的生命健康。我國(guó)將醫(yī)療器械分為三類(lèi),根據(jù)不同的產(chǎn)品類(lèi)型進(jìn)行產(chǎn)品備案或注冊(cè)?!稐l例》還提出依法追究責(zé)任人責(zé)任并詳列罰則。違反條例的,罰款不得超過(guò)5萬(wàn)元;構(gòu)成犯罪的,依法追究刑事責(zé)任;造成人身、財(cái)產(chǎn)或者其他損害的,依法承擔(dān)賠償責(zé)任。與醫(yī)療器械企業(yè)的盈利和罰金5萬(wàn)元的對(duì)比,我們不難發(fā)現(xiàn)生產(chǎn)售賣(mài)未注冊(cè)或有質(zhì)量問(wèn)題的醫(yī)療器械的違法成本極低。鑒于極低的違法成本,生產(chǎn)者可能生產(chǎn)不安全的醫(yī)療器械。
我國(guó)人工智能技術(shù)發(fā)展速度很快,醫(yī)學(xué)應(yīng)用產(chǎn)品層出不窮,但我國(guó)一直沒(méi)有統(tǒng)一的監(jiān)管人工智能醫(yī)學(xué)應(yīng)用的標(biāo)準(zhǔn),我國(guó)尚沒(méi)有通過(guò)審批的人工智能醫(yī)療器械產(chǎn)品,這影響了對(duì)該技術(shù)使用的安全性風(fēng)險(xiǎn)的把控。2017年7月,我國(guó)國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出促進(jìn)智能醫(yī)療和智能健康的目標(biāo)。國(guó)家鼓勵(lì)推廣應(yīng)用人工智能治療新模式、新手段,建立快速精準(zhǔn)的智能醫(yī)療體系以及加強(qiáng)我國(guó)的群體智能健康管理。2018年11月,國(guó)家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評(píng)中心確定了3類(lèi)人工智能醫(yī)療器械審批的全流程。但國(guó)家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評(píng)中心的審批流程只覆蓋3類(lèi)人工智能醫(yī)療器械,尚不能覆蓋所有人工智能技術(shù)在醫(yī)學(xué)領(lǐng)域的應(yīng)用。權(quán)威管理部門(mén)出臺(tái)其他類(lèi)別的人工智能醫(yī)療應(yīng)用的監(jiān)管規(guī)則,行業(yè)和公司制定有關(guān)規(guī)范都迫在眉睫。
隱私(Privacy)是一個(gè)人不容許他人隨意侵入的領(lǐng)域[12]。隱私數(shù)據(jù)在國(guó)家、企業(yè)、家庭和個(gè)人層面發(fā)揮巨大作用。我國(guó)數(shù)據(jù)主體的隱私泄露情況屢見(jiàn)不鮮,這侵犯了數(shù)據(jù)主體的權(quán)益。隱私主要通過(guò)以下三種方式泄露:
第一,隱私被有關(guān)人員有意泄露,這是指可以接觸到隱私的人帶有一定目的故意泄露數(shù)據(jù)主體的信息。在我國(guó),在獲得的便利面前,用戶只能無(wú)奈地選擇或者在不知情的情況下讓渡隱私權(quán)。手機(jī)安裝各類(lèi)健康軟件時(shí),用戶不得不在冗長(zhǎng)的用戶協(xié)議下方點(diǎn)擊同意,并且注冊(cè)賬號(hào);如若不同意,便無(wú)法使用這些軟件。得到用戶的同意后,這些軟件能夠獲取數(shù)據(jù)主體的隱私信息,如姓名、電話、照片等信息。
醫(yī)療健康數(shù)據(jù)分散,但是具有巨大的研究或商業(yè)價(jià)值。有些醫(yī)療健康數(shù)據(jù)明顯與人的健康信息相關(guān),這些數(shù)據(jù)具有敏感性和私密性,如醫(yī)療病歷記錄掌握在醫(yī)院手中,通過(guò)手機(jī)、可穿戴設(shè)備所產(chǎn)生的健康信息或數(shù)據(jù)主體自己在軟件中記錄的健康信息主要掌握在軟件公司手中。雖然有些數(shù)據(jù)雖然不明顯與健康狀態(tài)直接相關(guān)有關(guān),但可揭示個(gè)人的健康狀況。例如社交媒體活動(dòng)或互聯(lián)網(wǎng)搜索歷史可能會(huì)揭示有關(guān)數(shù)據(jù)主體或其周?chē)说慕】禒顩r[13]。
人工智能醫(yī)學(xué)應(yīng)用收集的數(shù)據(jù)在數(shù)據(jù)主體未知情的情況下可能很容易被數(shù)據(jù)收集者轉(zhuǎn)讓給其他機(jī)構(gòu)。醫(yī)療衛(wèi)生領(lǐng)域常見(jiàn)的隱私泄露情況是醫(yī)院?jiǎn)T工或軟件公司員工將信息販賣(mài)給第三方。2016年,某互聯(lián)網(wǎng)企業(yè)發(fā)生“隱私泄露事件”,該企業(yè)的數(shù)據(jù)包在黑市流通,包括用戶名、密碼、郵箱、電話號(hào)碼、身份證、QQ號(hào)等信息。騙子在數(shù)據(jù)主體購(gòu)物后快速電話聯(lián)系數(shù)據(jù)主體實(shí)施詐騙,給數(shù)據(jù)主體帶來(lái)了共計(jì)數(shù)百萬(wàn)的損失[14]。而醫(yī)療數(shù)據(jù)具有較高價(jià)值,主要包括患者姓名、年齡、就診情況、銀行賬戶、醫(yī)保賬戶等信息。如數(shù)據(jù)主體的醫(yī)療信息被售賣(mài),那么這些信息可能被騙子或其他醫(yī)療衛(wèi)生機(jī)構(gòu)獲取,他們可能向數(shù)據(jù)主體實(shí)施詐騙、推銷(xiāo)醫(yī)療產(chǎn)品或服務(wù)。
第二,隱私被有關(guān)人員無(wú)意泄露,這是指他們不帶有明確目的地泄露患者隱私。醫(yī)療衛(wèi)生領(lǐng)域中,醫(yī)生可能在無(wú)意間泄露患者隱私。公共場(chǎng)合討論患者信息、將患者的病案儲(chǔ)存在云端或公共電腦/人工智能醫(yī)學(xué)應(yīng)用中,都可能被第三方獲取,導(dǎo)致隱私泄露。
第三,隱私信息還可通過(guò)黑客攻擊的方式被泄露。黑客通過(guò)系統(tǒng)漏洞侵入電腦系統(tǒng),盜取信息資料或破壞系統(tǒng)資料。我國(guó)的醫(yī)療衛(wèi)生機(jī)構(gòu)信息化系統(tǒng)安全水平低,存在諸多系統(tǒng)漏洞,容易遭到黑客攻擊。此外,醫(yī)療記錄并沒(méi)有加密,也使得黑客盜取醫(yī)療信息輕而易舉[15]。
隱私信息泄露會(huì)對(duì)數(shù)據(jù)主體及其家庭帶來(lái)嚴(yán)重傷害。信息泄露可能導(dǎo)致公眾對(duì)于數(shù)據(jù)主體的歧視或污名化。此外,數(shù)據(jù)的泄露可能危害到國(guó)家和社會(huì)安全。因此,保護(hù)數(shù)據(jù)主體的醫(yī)療健康隱私十分重要。國(guó)家還需盡快出臺(tái)《個(gè)人信息保護(hù)法》以保護(hù)個(gè)人隱私,防止隱私泄露。
人工智能醫(yī)學(xué)應(yīng)用的可及性(Accessibility)和可負(fù)擔(dān)性(Affordability)挑戰(zhàn)主要包括數(shù)字裂溝和資源分配兩方面:
第一,數(shù)字裂溝。數(shù)字裂溝是不同社會(huì)經(jīng)濟(jì)水平的個(gè)人、家庭、企業(yè)和地區(qū)接觸信息通信技術(shù)和利用因特網(wǎng)進(jìn)行各種活動(dòng)的機(jī)會(huì)而產(chǎn)生的差距[16]。數(shù)字裂溝涉及全球或各國(guó)貧富個(gè)體間、不同性別之間、不同受教育程度之間信息技術(shù)可及的不平等和不公平[17]。數(shù)字裂溝與人工智能醫(yī)學(xué)應(yīng)用關(guān)系密切。掌握人工智能醫(yī)學(xué)應(yīng)用的國(guó)家和企業(yè)的壟斷加劇資源分配不均衡,造成新的數(shù)字裂溝,這也削弱了人工智能醫(yī)學(xué)應(yīng)用的可及。在我國(guó),各地區(qū)經(jīng)濟(jì)發(fā)展不平衡,經(jīng)濟(jì)落后地區(qū)享受到人工智能醫(yī)學(xué)應(yīng)用服務(wù)的機(jī)會(huì)相對(duì)較少,甚至無(wú)法享受到人工智能的技術(shù)紅利。
第二,醫(yī)療衛(wèi)生資源分配不公正。醫(yī)療衛(wèi)生資源分配不公正導(dǎo)致人工智能醫(yī)學(xué)應(yīng)用的可及性和可負(fù)擔(dān)性問(wèn)題。醫(yī)療衛(wèi)生資源宏觀分配是指在國(guó)家能得到的全部資源中應(yīng)該把多少分配給醫(yī)療衛(wèi)生領(lǐng)域,以及分配給醫(yī)療衛(wèi)生領(lǐng)域的資源在醫(yī)療衛(wèi)生領(lǐng)域內(nèi)部應(yīng)如何分配[18]。醫(yī)療資源少的地區(qū)的基層醫(yī)療衛(wèi)生機(jī)構(gòu)的醫(yī)療儀器少、醫(yī)務(wù)從業(yè)人員數(shù)量少、專(zhuān)業(yè)技能低,百姓無(wú)法獲得高質(zhì)量的醫(yī)療健康服務(wù)。我國(guó)人工智能醫(yī)學(xué)應(yīng)用主要集中于大型三甲醫(yī)院,偏遠(yuǎn)地區(qū)的患者很難有機(jī)會(huì)使用這些技術(shù)。此外,高昂的價(jià)格是制約人工智能醫(yī)學(xué)應(yīng)用可及的重要因素。達(dá)芬奇手術(shù)機(jī)器人能夠進(jìn)行微創(chuàng)、更精細(xì)化、更復(fù)雜的手術(shù)。因?yàn)閲?guó)家配額和機(jī)器人購(gòu)買(mǎi)和維護(hù)的巨大花銷(xiāo),所以我國(guó)只有60余臺(tái)達(dá)芬奇手術(shù)機(jī)器人。由于企業(yè)壟斷,機(jī)器人做手術(shù)的費(fèi)用大大高于傳統(tǒng)手術(shù)[19]。
或許人工智能技術(shù)在醫(yī)學(xué)領(lǐng)域應(yīng)用在其發(fā)展的初始階段難以讓大多數(shù)人獲益,確保醫(yī)學(xué)人工智能應(yīng)用的可及和可負(fù)擔(dān)尚需時(shí)間,但決策者應(yīng)該考慮如何讓更多有需要的人從技術(shù)的進(jìn)步中受益,如何進(jìn)行成本受益分析(Cost-benefit Analysis),比較人工智能醫(yī)學(xué)應(yīng)用和傳統(tǒng)醫(yī)療技術(shù)的成本受益比,以什么標(biāo)準(zhǔn)進(jìn)行資源分配?如何權(quán)衡患者健康需求和技術(shù)成本?這些都涉及我國(guó)人工智能發(fā)展中面臨的公正性和可及性的倫理挑戰(zhàn)。
人工智能醫(yī)學(xué)應(yīng)用涉及責(zé)任劃分(Responsibility)、問(wèn)責(zé)等問(wèn)題,包括輔助診斷系統(tǒng)產(chǎn)生診斷失誤、手術(shù)機(jī)器人在為患者進(jìn)行手術(shù)時(shí)操作錯(cuò)誤等。醫(yī)療服務(wù)機(jī)器人是服務(wù)類(lèi)機(jī)器人的一種,主要包括救援機(jī)器人、轉(zhuǎn)運(yùn)機(jī)器人、醫(yī)院辦公機(jī)器人、護(hù)士機(jī)器人、導(dǎo)診機(jī)器人、分藥機(jī)器人、手術(shù)機(jī)器人等[19]。如果人工智能醫(yī)療服務(wù)機(jī)器人在手術(shù)過(guò)程中出現(xiàn)機(jī)器斷電、機(jī)器故障、錯(cuò)誤操作等嚴(yán)重問(wèn)題,可能導(dǎo)致人類(lèi)受傷或死亡,這樣的后果不堪設(shè)想。因此,我們應(yīng)該根據(jù)手術(shù)的實(shí)際情況,界定利益相關(guān)者的責(zé)任,以便適當(dāng)問(wèn)責(zé)和處罰。
在制度層面應(yīng)盡快建立人工智能醫(yī)學(xué)應(yīng)用的倫理管理規(guī)范和法律問(wèn)責(zé)機(jī)制,以應(yīng)對(duì)其可能帶來(lái)的倫理和法律等挑戰(zhàn)。例如政策制定者、科學(xué)共同體可確定應(yīng)該委托給人工智能決策和操作的類(lèi)型,并采用規(guī)則和標(biāo)準(zhǔn),確保人們有效控制這些決策,以及如何為它們?cè)斐傻膿p害分配法律責(zé)任。
我國(guó)人工智能醫(yī)學(xué)應(yīng)用越來(lái)越多,但是我國(guó)侵權(quán)責(zé)任法中尚無(wú)對(duì)人工智能醫(yī)學(xué)應(yīng)用的侵權(quán)責(zé)任的明確界定。決策者應(yīng)該緊跟人工智能醫(yī)學(xué)應(yīng)用的發(fā)展步伐,建立人工智能醫(yī)學(xué)應(yīng)用的問(wèn)責(zé)機(jī)制,界定有關(guān)利益相關(guān)者的責(zé)任。
人工智能的出現(xiàn)極大地改變了人類(lèi)的生活方式,對(duì)人類(lèi)的生命健康產(chǎn)生了深遠(yuǎn)的影響。人工智能醫(yī)學(xué)應(yīng)用前景廣闊,可以滿足人們?nèi)找嬖鲩L(zhǎng)的健康需求,與此同時(shí),我們必須積極應(yīng)對(duì)人工智能醫(yī)學(xué)應(yīng)用給我們帶來(lái)的倫理挑戰(zhàn)。人類(lèi)應(yīng)確保人工智能醫(yī)學(xué)應(yīng)用的安全性,尊重?cái)?shù)據(jù)主體的自主性和充分保護(hù)個(gè)人隱私,促進(jìn)技術(shù)應(yīng)用的可及性和可負(fù)擔(dān)性,并建立相應(yīng)的倫理規(guī)范與法律機(jī)制,以確保人工智能技術(shù)以符合倫理的方式應(yīng)用。
中國(guó)醫(yī)學(xué)倫理學(xué)2019年8期