• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能醫(yī)學應(yīng)用的分類與倫理問題反思*

      2020-01-19 04:54:27周琬琳
      中國醫(yī)學倫理學 2020年7期
      關(guān)鍵詞:倫理人工智能人類

      周琬琳

      (福建醫(yī)科大學健康學院, 福建 福州 350122,ipss.ikis@gmail.com)

      2016年 3月,國務(wù)院首次將“人工智能”(Artificial Intelligence,AI)一詞寫入2016 年至2020 年中國經(jīng)濟發(fā)展的《國民經(jīng)濟和社會發(fā)展第十三個五年規(guī)劃綱要(草案)》的規(guī)劃中;2017年7月20日,國務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中指出要在醫(yī)療領(lǐng)域“推廣應(yīng)用人工智能治療新模式新手段”[1],《新一代人工智能發(fā)展規(guī)劃》是我國第一個國家層級AI 發(fā)展的中長期規(guī)劃,也是我國政府發(fā)展及推動AI發(fā)展的藍圖,它從整體上部署我國的AI 發(fā)展,并提出面向2030年我國新一代AI發(fā)展的指導思想、戰(zhàn)略目標、重點任務(wù)與保障措施等[2]。然而,人工智能醫(yī)學的快速發(fā)展同時也帶來許多倫理、社會及法律問題,包含對AI的不信任及擔憂被AI所取代等。無論是學術(shù)界或產(chǎn)業(yè)界,唯有透過層層檢視AI醫(yī)學應(yīng)用技術(shù)所帶來的倫理問題,加以反思后提出對策來作為完善制度與制定相關(guān)規(guī)范的政策建議,才能在AI醫(yī)學時代站穩(wěn)腳跟,協(xié)力開展。

      1 人工智能的發(fā)展

      被稱為“人工智能之父”的圖靈(Alan M. Turing)于 1950 年發(fā)表的“ComputingMachineryandIntelligence” (《計算器與智能》)[3]一文中,試圖回答計算器是否能具有人類智能?結(jié)論是:計算器不僅具有比人類智能更高效率的運算功能,甚至可以跟人類一樣擁有發(fā)掘與創(chuàng)造知識的能力。如果圖靈的預(yù)測是對的(事實上也是對的),那么,擁有人類智能的計算器就是我們稱作人工智能(Artificial Intelligence, AI)的最早雛形。

      從計算器到人工智能歷經(jīng)三個階段:強大運算系統(tǒng)階段、專家系統(tǒng)(Expert System,ES)階段以及機器深度學習系統(tǒng)階段。強大運算系統(tǒng)以圖靈機(Turing machine)為始祖,1936年,圖靈將人類的運算行為抽象化,并使用數(shù)學與邏輯符號加以構(gòu)建出來的超級計算模型。圖靈機具有仿人類運算能力的功能,其運算效能卻遠比人類還要快速準確,能幫助提高工作效能,在這個階段,AI可以說是計算機程序。隨著技術(shù)的突破,AI被灌注更多人類的思考方式,包含形式邏輯、數(shù)理邏輯、語言邏輯、認知邏輯等各種邏輯學的基本規(guī)律,進行歸納、演繹、推算等思維活動。當人類專業(yè)知識加上這些具有邏輯思維的計算器一起運作時,將得到1+1>2的成果,稱之為專家系統(tǒng)。簡單來說,專家系統(tǒng)就是一個知識數(shù)據(jù)庫+仿真專家推理思維機器的系統(tǒng)。世界上第一個成功運用人類專家知識與邏輯推理規(guī)則來解決特定問題的專家系統(tǒng)程序是20世紀60年代出現(xiàn)的DENDRAL程序,該程序主要幫助有機化學家根據(jù)物質(zhì)光譜推斷未知的有機分子結(jié)構(gòu)[4]。專家系統(tǒng)堪稱是當時最先進的AI技術(shù)。然而,一方面,專家系統(tǒng)有其局限性,只能就特定領(lǐng)域進行運作;另一方面,隨著生物學、神經(jīng)科學與心理學的發(fā)展,人類神經(jīng)元網(wǎng)絡(luò)的學習概念被帶入AI系統(tǒng),發(fā)展出可以仿真人類神經(jīng)元學習機制的深度學習(Deep Learning),深度學習最著名的是2016年打敗世界圍棋冠軍李世石的AlphaGo。由谷歌DeepMind所開發(fā)的AlphaGo,展現(xiàn)出AI不僅僅只是在計算機程序的控制下,機械性地完成檢索搜尋解答而已,還可以執(zhí)行高級算法。雖然2017年AlphaGo敗給它的進階版AlphaGo Zero,但也只能表明深度學習系統(tǒng)的更精進,因為AlphaGo Zero甚至不需要人類提供數(shù)據(jù)就可以進行自我學習[5]。

      2 人工智能應(yīng)用于醫(yī)學

      人工智能應(yīng)用于醫(yī)學的范圍非常廣泛,可以進一步簡單區(qū)分為三個范疇: 人工智能輔助醫(yī)療器械、AI與健康醫(yī)療大數(shù)據(jù)的應(yīng)用以及人工智能診療等。第一個范疇針對醫(yī)療器械來討論;第二的范疇主要就AI與“互聯(lián)網(wǎng)+健康醫(yī)療”的應(yīng)用進行省思;第三個范疇關(guān)注深度學習的終極版——“超級智能醫(yī)生”(Dr. Super AI)所可能衍生的倫理反思來探討。

      2.1 人工智能輔助醫(yī)療的倫理問題

      人工智能輔助醫(yī)療又可分為兩大類,一是用來輔助識別或診療的醫(yī)療器械,例如MRI、X光射線設(shè)備、CT、胸片攝影等醫(yī)學影像器械;二是醫(yī)用軟件,泛指用來搜集、儲存、分析、顯示、轉(zhuǎn)換人體健康狀態(tài)、生理參數(shù)、醫(yī)療相關(guān)紀錄等處理軟件[6]。

      由于人工智能擁有巨量的醫(yī)療大數(shù)據(jù)和高效能的運算系統(tǒng),還能半自動或全自動化學習,不僅可以快速檢閱醫(yī)療刊物和信息,輸入患者信息后能夠協(xié)助提供診療方案,同時也能減少人為誤差,有效地協(xié)助醫(yī)療人員作出更精準的醫(yī)療方案。然而,大量智能醫(yī)療器械的使用與研究開發(fā)卻也衍生出醫(yī)療資源分配正義與器械臨床試驗倫理的問題。

      首先,關(guān)于醫(yī)療資源分配正義問題。智能醫(yī)療器械造價昂貴,除三甲醫(yī)院以及大型醫(yī)學教學綜合醫(yī)院等能取得較多醫(yī)療資源的醫(yī)院之外,其余中小型醫(yī)院及基層醫(yī)院、衛(wèi)生院、醫(yī)療院所皆難以取得智能器械,間接導致國民健康照護權(quán)利的受損與不公平的醫(yī)療對待,同時也反映出城鄉(xiāng)差距與醫(yī)療資源的分配不公。此外,患者使用智能醫(yī)療器械進行輔助診療也需要支付高額診療費用,凸顯了貧富差距,“窮人沒有生病的權(quán)利”也可能加速社會階層分化,影響社會安定。與此同時,智能輔助診療器械也可能造成過度醫(yī)療的情況,智能輔助器械雖然可以降低人為誤差,但是會讓醫(yī)療從業(yè)人員太過依賴智能判斷,間接開展“濫檢查”不僅加重患者的經(jīng)濟負擔,也造成醫(yī)療資源的浪費。

      其次,關(guān)于醫(yī)療器械臨床試驗的倫理問題。人工智能醫(yī)療時代的來臨,很多公司積極地將所開發(fā)的產(chǎn)品提供給醫(yī)院免費試用,借此收集大量的臨床試驗數(shù)據(jù)。人工智能醫(yī)療器械審查注意事項的倫理委員會在審查時應(yīng)注意公平受益、失業(yè)、患者隱私、醫(yī)療安全、責任劃分和監(jiān)管等問題。然而,數(shù)據(jù)庫本身的建制不全、隱藏算法偏差及立法與監(jiān)管的缺失,都使得倫理審查有其難度,但無論如何,評估受試者的風險與受益肯定是倫理審查的核心任務(wù)[7]。

      再者,醫(yī)用軟件包含個人醫(yī)療信息的搜集與儲存,管理不當將會有導因于個人隱私泄露所造成的不當利用的風險與社會歧視的可能。此部分同時關(guān)聯(lián)到AI與健康大數(shù)據(jù)的管理與應(yīng)用。

      2.2 人工智能與健康醫(yī)療大數(shù)據(jù)的應(yīng)用的倫理問題

      健康醫(yī)療大數(shù)據(jù)作為國家戰(zhàn)略發(fā)展的重點之一,國務(wù)院辦公廳于2015年9月發(fā)布《促進大數(shù)據(jù)發(fā)展行動綱要》,2016年6月發(fā)布《國務(wù)院辦公廳關(guān)于促進和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導意見》,這兩份文件成為我國推動健康醫(yī)療大數(shù)據(jù)采集、收集與應(yīng)用的核心指導文件。國務(wù)院于2018年4月的常務(wù)會議中明確促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的舉措,不僅有利于完善醫(yī)療信息資源,對于我國醫(yī)改及衛(wèi)生健康事業(yè)的發(fā)展也起到促進作用。其中,AI的演算系統(tǒng)就是推動健康醫(yī)療大數(shù)據(jù)的輪軸。

      AI與健康醫(yī)療大數(shù)據(jù)建設(shè)過程中也涉及許多倫理問題,包含數(shù)據(jù)主體的知情同意權(quán)、個人信息隱私安全、數(shù)據(jù)開放共享的公正性以及成果分享的公益性等四大主軸。只有在充分保護個人信息安全的基礎(chǔ)上,透過推動大數(shù)據(jù)的規(guī)范治理,有效利用及運用數(shù)據(jù)來提高醫(yī)學科學水平、促進公共衛(wèi)生安全及發(fā)展產(chǎn)業(yè)運用才是可能的。其中,與AI有直接關(guān)系的部分是個人信息隱私安全問題。

      以谷哥流感趨勢預(yù)測為例,AI演算所根據(jù)的數(shù)據(jù)是基于過去用戶網(wǎng)絡(luò)搜尋關(guān)鍵詞來預(yù)測流感,換言之,大數(shù)據(jù)分析是透過相關(guān)關(guān)系而非因果關(guān)系進行預(yù)測,其可靠程度有待檢驗。其次,雖然谷歌流感預(yù)測是出于公共利益而為,并非以營利為目的,然而,用戶通過在谷歌使用搜索引擎會留下帶有自己身份的數(shù)字信息,這些信息在不同的網(wǎng)絡(luò)情境中構(gòu)成數(shù)字身份,而這個數(shù)字身份可能會泄露用戶的私人信息,包含聯(lián)系方式或用藥偏好等[8],即便是谷歌的隱私保護機制,都無法百分之百確定個人信息安全不會遭黑客盜取利用或非法使用。

      我國目前還未出臺專門的隱私權(quán)保護法,僅是在其他法律條文中有所規(guī)定,如《中華人民共和國侵權(quán)責任法》將隱私權(quán)的保護歸結(jié)成為對人格權(quán)的保護,當發(fā)生“對我國公民的隱私權(quán)造成侵害的,應(yīng)當承擔侵權(quán)責任?!?2016 年新頒布《中華人民共和國網(wǎng)絡(luò)安全法》雖然在個人信息保護方面提出了具體要求,但并未對隱私權(quán)保護提出具體要求。在人工智能高速發(fā)展時代,我國應(yīng)借鑒國際已有條款,盡快就人工智能技術(shù)加強相關(guān)部門的監(jiān)管力度,完善有關(guān)政策立法,保護個人數(shù)據(jù)隱私安全[9]。

      此外,健康醫(yī)療大數(shù)據(jù)建設(shè)的技術(shù)基礎(chǔ)是人工智能與互聯(lián)網(wǎng),也因為互聯(lián)網(wǎng)的流通,增加了個人健康信息暴露的風險,包含數(shù)據(jù)儲存技術(shù)不佳及管理不當、醫(yī)護從業(yè)人員保護患者隱私的意識不足等。前者可以通過數(shù)據(jù)安全技術(shù)的提升及數(shù)據(jù)管理監(jiān)督的機制改善,后者更需要加強醫(yī)護人員及可能接觸數(shù)據(jù)的從業(yè)人員的制度規(guī)范與素質(zhì)培養(yǎng)。

      2.3 人工智能診療的倫理問題

      如果說AI應(yīng)用在輔助醫(yī)療器械與醫(yī)用軟件方面,關(guān)聯(lián)到健康醫(yī)療大數(shù)據(jù)的應(yīng)用這些是現(xiàn)在進行式,那么,全自動人工智能診療機器與“超級智能醫(yī)生”(Dr. Super AI)的誕生就是AI醫(yī)療的未來式。

      可以想象未來有一部機器,把它稱為“自助式家用醫(yī)科診療機”,機器上面有許多按鍵鏈接著醫(yī)療大數(shù)據(jù),只需要在輸入身份標識符,個人身份標識符會連接過去的診療記錄與健康信息,然后再根據(jù)病征與發(fā)作時間進行點選,在按下最后的確認鍵時,表示已經(jīng)完成自助就醫(yī),診斷結(jié)果會顯示在屏幕上,可以存取或打印出來,診斷結(jié)果上面可能會建議到醫(yī)院找人類醫(yī)生進行較深入的診療,或是直接開藥,而藥單將會在數(shù)秒鐘之后打印出來,我們可以拿著藥單在藥物領(lǐng)取機器上自助領(lǐng)藥。如果有更高級的設(shè)備,在按下最后確認鍵的數(shù)秒后就可以領(lǐng)到藥品,無須換設(shè)備。這臺自助式家醫(yī)科診療機的操作十分便利,什么時候開始有病征,有哪些病征,連有沒有藥物過敏都可以不用點選,因為身份標識符已經(jīng)有記錄了。

      當我們?nèi)鐚嵉叵蜥t(yī)生反映身體狀況,再由醫(yī)生通過他的專業(yè)知識判斷來診斷病情,并給予對應(yīng)的藥物治療時,醫(yī)生的誤診概率會比擁有超級檢索及推算功能的“自助式家醫(yī)科診療機”低嗎?如果人類醫(yī)生誤診需要負擔責任,那么當患者因為自己輸入的病征信息不準確或有闕漏時,其所導致的醫(yī)療疏失該由誰負責?

      如果這臺“自助式家醫(yī)科診療機”是一位同時擁有人類情感意識程序的“超級智能醫(yī)生”呢?我們知道,基于大數(shù)據(jù)庫的AI首先需要保障的就是數(shù)據(jù)的準確。而在醫(yī)院就診過程中,患者隱瞞病情的情況也會發(fā)生,這對于一個經(jīng)驗豐富的醫(yī)生來說可能是極好辨認的,而對于一個不富有感情的智能AI來說,錯誤的信息輸入極可能會產(chǎn)生錯誤的診斷,從而引起錯誤的治療[10]。責任的歸屬問題確實是未來式人工智能診療的棘手問題,但是“責任鴻溝”并非不可突破。在確定不是患者自身過失的情況下,我們可以將“超級智能醫(yī)生”的錯誤分為四個類型:①系統(tǒng)設(shè)置有漏洞,造成自動化偏差;②控制監(jiān)管有疏失,忽視系統(tǒng)警訊;③醫(yī)學的不確定性與特例;④患者提供錯誤信息或缺漏重要信息所導致。在第一種犯錯的類型中,系統(tǒng)設(shè)置漏洞屬于產(chǎn)品設(shè)計不良,可采用產(chǎn)品責任的觀點來歸咎責任;在第二種類型中,監(jiān)管疏失類似于飼主疏失導致他人的損傷,可用動物管理人責任的觀點來進行究責;第三種類型嚴格來說不是犯錯,它是一種患者錯誤認知及過度期待的結(jié)果。人體是復雜的有機體,除了基因與細胞的變異之外,微生物的影響力也不容小覷。再多的數(shù)據(jù)庫和醫(yī)學文獻都有不能窮盡之處,即便是超級智能醫(yī)生也不可能達到零誤診[11]。前三類錯誤屬于AI本身技術(shù)或管理上的缺失,可以從產(chǎn)品責任及管理人責任的角度來咎責,第四種看似是患者自身疏失所導致。然而,正因為患者并非醫(yī)學專業(yè),才需要就醫(yī),由專業(yè)醫(yī)生透過勘診來判斷病情并給予治療,如果將全部的咎責歸于患者自找顯然是不適當?shù)模腔颊呷孕枰摀糠重熑?,因為即使患者所面對的是人類醫(yī)生,也可能發(fā)生同樣的憾事,特別是在技術(shù)沒有出錯的情況下,超級智能醫(yī)生的誤診率可能是遠遠小于人類醫(yī)生的。

      AI診療的責任歸屬問題勢必要有更明確的規(guī)范,畢竟懲罰一部機器甚至銷毀一位超級智能醫(yī)生對于所造成的傷害都沒有實質(zhì)上的幫助,如何能夠透過建立完整的責任制度來讓技術(shù)更精準、管理監(jiān)督更到位、使用人更信任,減少事故避免憾事才是人類福祉。

      3 人工智能醫(yī)學應(yīng)用的倫理原則

      無論是現(xiàn)在進行式或是未來式的人工智能醫(yī)學應(yīng)用,都應(yīng)當遵守基本的倫理原則,避免因為走過頭而造成不可挽救的后果。歐盟的高階AI專家小組在2019年提出“可信任的AI倫理準則”(Ethics Guidelines for Trustworthy AI, 以下簡稱“歐盟準則”),指出AI的應(yīng)用因以人類作為為中心進路(Human-Centric Approach),主張以人類基本權(quán)利作為論述基礎(chǔ),開展四項倫理原則及七項倫理要件。四項倫理原則為[12]:

      第一,尊重人類自主原則。除了要求人類在與AI互動的過程中,必須保障人類擁有完全及有效的自主之外,也要求AI的運作必須有人類的監(jiān)督。

      第二,預(yù)防傷害原則。為保護人類身心的完整性與人性尊嚴,AI技術(shù)必須是能夠強力抵御惡意之使用,包含避免對自然環(huán)境和所有生物的傷害。

      第三,公平原則。包含程序向度與實質(zhì)向度,前者要求人們可以對AI的操控者提出糾正與異議,并且要求AI的決策者應(yīng)該是可以被識別的。后者確保AI的利益是可以公平、公正分配的,并且要能夠避免任何歧視或污名。

      第四,可解釋性原則。要求AI的制造目的與具備的功能必須經(jīng)過公開協(xié)商,具備透明性并且避免“黑箱”問題。

      作為可信任的AI,每個在AI生命周期的涉利者應(yīng)該被賦予不同的倫理要求,歐盟準則提出可以歸納為七個倫理要件[13]除了系統(tǒng)層面,也將個人及社會的考慮納入制定:

      第一,AI不得侵犯人類自主性與自由:主要維系人性尊嚴并確保由人類來監(jiān)督。

      第二,AI應(yīng)具備信息安全性與正確性:要求技術(shù)強健并具備安全性。

      第三,AI搜集的數(shù)據(jù)得受到安全與隱秘的管理:著重在隱私與數(shù)據(jù)管理。

      第四,建構(gòu)AI系統(tǒng)與算法應(yīng)公開且可以追溯到開發(fā)者:要求透明性。

      第五,AI須具備多元性與公平性:避免歧視,要求公平。

      第六,AI須促進社會正面改變,且具永續(xù)性:針對社會及環(huán)境福祉。

      第七,AI須建立咎責機制:要求確立可問責性(Accountability)。

      中國臺灣地區(qū)參考歐盟準則,在2019年發(fā)布《人工智能科研發(fā)展指引》,提出三個AI應(yīng)遵從的核心價值: 以人為本、永續(xù)發(fā)展、多元包容;還有八項核心指引: 共榮共利、公平性與非歧視性、自主權(quán)與控制權(quán)、安全性、個人隱私與數(shù)據(jù)治理、透明性與可追溯性、可解釋性、問責與溝通。期望在AI的開展道路上能夠兼顧科研與倫理,這些倫理價值實踐于 AI 之研發(fā)與應(yīng)用中,以增益人類福祉[13]。 歐盟準則與中國臺灣地區(qū)的發(fā)展指引可作為中國大陸地區(qū)制定AI應(yīng)用相關(guān)的規(guī)范參考。

      4 結(jié)語

      在AI技術(shù)的發(fā)展下,智能醫(yī)療是趨勢也是雙刃劍,我們必須積極應(yīng)對人工智能醫(yī)學應(yīng)用帶給我們的倫理挑戰(zhàn)。在人工智能設(shè)計制造及應(yīng)用過程中應(yīng)始終秉著以人為本的理念,在保證安全的前提下,尊重數(shù)據(jù)主體的自主性和充分保護個人隱私,積極促進技術(shù)的可及性,并建立完善相關(guān)法律法規(guī)和倫理規(guī)范,以保證人工智能在醫(yī)療行業(yè)應(yīng)用中符合倫理規(guī)范。

      猜你喜歡
      倫理人工智能人類
      《心之死》的趣味與倫理焦慮
      人類能否一覺到未來?
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      1100億個人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      人類正在消滅自然
      奧秘(2015年2期)2015-09-10 07:22:44
      如东县| 磐安县| 葵青区| 武乡县| 建阳市| 水城县| 阿坝县| 隆德县| 新乡市| 浏阳市| 新龙县| 神木县| 罗城| 阿图什市| 游戏| 建水县| 香格里拉县| 德令哈市| 温宿县| 苍溪县| 正阳县| 长子县| 白朗县| 龙州县| 布拖县| 清丰县| 柳河县| 蓝田县| 固始县| 吕梁市| 拉孜县| 武城县| 高雄县| 中山市| 黑河市| 德江县| 孟津县| 文化| 靖安县| 织金县| 孟连|