• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能背景下醫(yī)療法律責任的現(xiàn)實困境與完善路徑

      2020-12-13 16:25:47范親敏周茂雄

      范親敏,周茂雄

      (1.福建省廈門市中級人民法院,福建 廈門 361012;2.福建警察學院 學報編輯部,福建 福州 350007)

      一、問題的提出:人工智能與醫(yī)療

      隨著大數(shù)據(jù)、云計算、深度學習算法、傳感網(wǎng)、人腦芯片等技術(shù)的發(fā)展,人工智能被運用到眾多學科領(lǐng)域,推動經(jīng)濟社會從網(wǎng)絡化、數(shù)字化階段向智能化階段發(fā)展。在人工智能技術(shù)升級和產(chǎn)業(yè)市場化推動下,從早期的Puma560工業(yè)機器人、“快捷醫(yī)療參考”軟件,到Acrobot機器人、DxPlan項目,再到DaVinci手術(shù)機器人、“沃生”電腦醫(yī)生等在醫(yī)學領(lǐng)域的運用,人工智能與醫(yī)療的深度結(jié)合被視為新的風險投資熱點和社會關(guān)注焦點。2017年,國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》就發(fā)展智能醫(yī)療提出:“推廣應用人工智能治療新模式新手段,建立快速精準的智能醫(yī)療體系。探索智慧醫(yī)院建設,開發(fā)人機協(xié)同的手術(shù)機器人、智能診療助手,研發(fā)柔性可穿戴、生物兼容的生理監(jiān)測系統(tǒng),研發(fā)人機協(xié)同臨床智能診療方案,實現(xiàn)智能影像識別、病理分型和智能多學科會診?!盵1]由此觀之,人工智能在醫(yī)學影像、藥物發(fā)掘、疾病分析、健康會診、臨床治療等醫(yī)學領(lǐng)域具有廣闊的發(fā)展空間。但人工智能本身所固有的“技術(shù)黑箱”和“自主學習”造成醫(yī)療人工智能在醫(yī)學臨床應用上存在巨大風險。例如,據(jù)報道,2007年,美國FDA就收到了來自社會的200余次投訴,指控醫(yī)療外科手術(shù)機器人導致病人遭受燒傷、切割傷與感染,甚至造成89例死亡事故[2]。醫(yī)療人工智能診斷失誤以及手術(shù)損害等不良事件的發(fā)生引發(fā)理論界和實務界對醫(yī)療人工智能的風險責任規(guī)制、醫(yī)療人工智能的法律地位、醫(yī)療損害的責任承擔等法律問題展開熱議。法律在積極回應科技發(fā)展需求的同時,也亟須應對技術(shù)革新帶來的潛在風險。醫(yī)療人工智能的發(fā)展不可避免地對現(xiàn)有的醫(yī)療法律秩序構(gòu)成挑戰(zhàn),形成了對醫(yī)療人工智能主體資格和法律責任的全面討論,特別是醫(yī)療人工智能造成醫(yī)療損害事件時,誰應當承擔責任?是醫(yī)療人工智能的生產(chǎn)者或制造者,還是醫(yī)療機構(gòu)或者醫(yī)生呢?亦或是人工智能本身能夠成為適格的責任主體?這一系列問題,均成為醫(yī)療法律責任研究關(guān)注的重點。

      二、人工智能對傳統(tǒng)醫(yī)療法律責任的現(xiàn)實挑戰(zhàn)

      關(guān)于醫(yī)療法律責任,我國《侵權(quán)責任法》按照不同的致害原因和歸責原則,分成了醫(yī)療技術(shù)損害責任、醫(yī)療倫理損害責任以及醫(yī)療產(chǎn)品責任三種基本類型。從侵權(quán)責任法范疇看,醫(yī)療損害責任屬一般侵權(quán)行為,由以下要件構(gòu)成:(1)醫(yī)療機構(gòu)或醫(yī)務人員診療過程中的診療行為具有違法性;(2)患者遭受實際損害;(3)診療行為與患者損害之間具有因果關(guān)系;(4)醫(yī)療機構(gòu)及其醫(yī)務人員主觀上具有過錯[3]。隨著醫(yī)療人工智能的快速發(fā)展,不斷出現(xiàn)的智能醫(yī)療機器人等實質(zhì)性地改變了現(xiàn)有“醫(yī)務人員”的主體認知,從而對現(xiàn)有的醫(yī)療法律責任提出了許多理論和現(xiàn)實挑戰(zhàn)。

      (一)醫(yī)療人工智能的法律主體適格問題

      責任主體是法律責任構(gòu)成的必備要件,在現(xiàn)行民法理論框架下,法律責任主體主要包括自然人和以自然人為集合的法人或其他組織。強調(diào)責任主體必須具備責任能力,追索其背后的理論淵源,來源于哲學上的自由意志理論。該理論強調(diào)只有具備自由意志支配能力的人才會對其自身行為負責。若其不具備自由意志,則其相應的行為也不具備法律效果。正如日本學者北川善太郎所言:“法的人格者等于權(quán)利能力者。”[4]《德國民法典》也規(guī)定將賦于權(quán)利能力作為是否擁有法律主體資格的制度邏輯,形成了“理性經(jīng)濟人—權(quán)利能力—法律人”的邏輯框架,無論是自然人、法人或非法人組織,其擁有法律主體資格的前提是賦予了其權(quán)利能力。具體到醫(yī)療法律責任領(lǐng)域,現(xiàn)行理論框架下的責任主體主要包括醫(yī)務人員和醫(yī)療機構(gòu)。但是,隨著人工智能技術(shù)的快速發(fā)展,智能機器人醫(yī)生等擁有越來越強大的智能,這些利用“反饋學習”機制而擁有強大學習能力和認知能力的智能醫(yī)療機器人與人類差別甚小,特別是人工智能進入強人工智能和超人工智能階段尤為如此。那個時候出現(xiàn)的醫(yī)療人工智能,將具有主體意識和獨立的思考能力,能夠自主判斷和決策,可以與擁有生物大腦的人類相媲美,甚至更強。此時,進行醫(yī)療人工智能診斷的主體是智能醫(yī)療機器人還是人類醫(yī)生?智能醫(yī)療機器人在法律上是人還是物,其是否具有獨立的法律責任主體資格?這就成為探討醫(yī)療法律責任的元命題。關(guān)于是否賦予智能機器醫(yī)生等人工智能以“法律主體資格”,在一段時間內(nèi)引發(fā)了全球范圍內(nèi)的激烈爭論。有的學者認為,在強人工智能背景下,人類只是扮演一名監(jiān)督者的角色,若其監(jiān)督行為不存在過錯或不當之處,且人工智能產(chǎn)品本身也不存在缺陷,那么,應當賦予人工智能法律主體資格[5]。持相反觀點的學者認為,“主-客體序格的自然法上服從規(guī)則的必須遵守,人工智能只能被定格在無法反應與確證自我的客觀類存在物,而不能將其人格化”[6]。

      (二)醫(yī)療人工智能的過錯責任面臨難以適用

      過錯是法律責任的核心要素,是指行為人在實施某種侵害行為時,沒有盡到特定標準的注意義務,從而造成他人損害時的一種應受非難的主觀狀態(tài)[7],包括故意和過失兩種狀態(tài)。然而,現(xiàn)行的以人的理性和自由意志為核心的過錯歸責理論,在人工智能背景下卻備受挑戰(zhàn)。伴隨人工智能技術(shù)的不斷更新迭代,在運作過程中脫離人類的預期和控制,擁有自身思考和學習能力,成為人工智能的核心特征。而這使得以行為人主觀上“明知”或“應知”的注意義務為前提的過錯法律責任難以適用因人工智能的使用而產(chǎn)生的侵權(quán)行為,肇因于以智能機器人為代表的人工智能是自主獨立運作,不是基于人的故意或者過失?那么,此時,是歸責于人工智能的設計者、開發(fā)者,亦或是生產(chǎn)者、使用者的責任?還是說可以直接歸責于人工智能本身呢?比如,在醫(yī)療人工智能中,一位人工智能外科醫(yī)生在執(zhí)行常規(guī)的腫瘤切除手術(shù)時,突然遇到邊上的動脈開裂,于是,智能醫(yī)生決定去修補動脈,監(jiān)督這臺手術(shù)的人類醫(yī)生同意該決定,智能醫(yī)生修補好動脈后,病人因出血太多,所以,智能醫(yī)生決定停止實施腫瘤切除手術(shù),監(jiān)督醫(yī)生表示同意。但病人不得不因此花費更多的住院治療費用以及腫瘤未能及時切除而造成的進一步病變的可能。經(jīng)事后評估,智能醫(yī)生的決定沒有任何錯誤,監(jiān)督醫(yī)生也不存在失職之處。對于因此而給患者帶來的相應損失及新增風險的賠償責任,應當由誰承擔?在人工智能是否具備獨立法律責任主體資格存有爭議的情況下,探討其是否存在過錯也就沒有客觀意義。那么,在這種情況下,醫(yī)療人工智能設計者、生產(chǎn)者、醫(yī)療機構(gòu)或者醫(yī)務人員等主體是否應作為責任主體呢?若要追究上述主體相關(guān)責任,直接依據(jù)是《產(chǎn)品質(zhì)量法》嚴格責任歸責原則下的產(chǎn)品缺陷責任,但醫(yī)療人工智能所造成的損失既可能是由于生產(chǎn)制造過程中存在技術(shù)缺陷,也可能是由于人工智能系統(tǒng)本身基于大數(shù)據(jù)轉(zhuǎn)化和超級算法分析后獨立思考作出的決定,現(xiàn)實中對該事實認定無法形成有效判斷。

      (三)人工智能醫(yī)療損害的因果關(guān)系認定問題

      責任認定是一個邏輯推理過程,事實差異決定了結(jié)論不同[8]。因果關(guān)系認定是分析損害原因與損害結(jié)果之間是否具有關(guān)聯(lián)的法律推理活動。事實的差異決定了因果關(guān)系的不同,從而決定了不同主體的責任承擔。隨著醫(yī)療人工智能的發(fā)展,以智能機器人醫(yī)生為代表的具有獨立思考決策能力的人工智能從事醫(yī)療診療活動,其所產(chǎn)生侵權(quán)后果的原因復雜多樣,有可能是制造設計中存在缺陷,也有可能是銷售使用中存在管理不當,還有可能是醫(yī)療人工智能自身所作出的判斷與決定,這就給醫(yī)療損害中的因果關(guān)系認定帶來巨大挑戰(zhàn)。具體主要表現(xiàn)在:一方面,應用于醫(yī)療領(lǐng)域的人工智能自身缺陷難以證明。依據(jù)《產(chǎn)品質(zhì)量法》的相關(guān)規(guī)定,生產(chǎn)者對產(chǎn)品缺陷所造成的損害承擔的是無過錯責任,而認定產(chǎn)品缺陷的標準主要有二:一是產(chǎn)品是否存在危及人身或財產(chǎn)安全的不合理危險;二是產(chǎn)品是否符合保障人體健康、人身財產(chǎn)安全的國家標準或行業(yè)標準。按照民事訴訟法“誰主張,誰舉證”原則,作為患者的受害人很難證明對其進行診療的醫(yī)療人工智能存在《產(chǎn)品質(zhì)量法》規(guī)定的缺陷,醫(yī)療人工智能高度自主性,導致侵害事實難以歸咎于設計者、生產(chǎn)者。且目前尚未制定醫(yī)療人工智能技術(shù)在保障人體健康、人身財產(chǎn)安全方面的國家標準或行業(yè)標準,使得受害人在遭受損害后,無從援引相關(guān)標準以證明相關(guān)人工智能產(chǎn)品存在缺陷。另一方面,現(xiàn)代醫(yī)療人工智能系統(tǒng)的核心技術(shù)在于深度學習和超級算法,但深度學習在廣泛快速學習的同時,也存在“不受前提預設、經(jīng)驗法則、傳統(tǒng)智慧等因素限制”,造成智能機器人醫(yī)生的生產(chǎn)者、設計者難以預見及控制未來是否會出現(xiàn)相應錯誤[9]。與此同時,算法本身也存在“技術(shù)黑箱”,所有的技術(shù)原理、信息、決策均在“黑箱”之中[10]。要對其中的算法模型和決策邏輯進行解釋,對于人工智能的研發(fā)人員尚且困難,更遑論法官、律師等法律工作者,這進一步加大了因果關(guān)系的認定難度。

      三、域外對人工智能醫(yī)療法律責任的探索借鑒

      西方國家較早開始發(fā)展人工智能,在發(fā)展和使用的過程中也最先遇到了人工智能所造成的侵權(quán)損害責任問題,并且意識到要通過改變現(xiàn)有相關(guān)法律制度的手段來實現(xiàn)對人工智能發(fā)展進行必要的規(guī)制,以保障人類安全。

      (一)歐盟關(guān)于人工智能法律責任的立法建議

      歐盟關(guān)于人工智能法律責任的研究走在世界的前列。2016年10月,歐盟議會法律事務委員會發(fā)布的《歐盟機器人民事法律規(guī)則》建議將智能機器人的設計、使用活動納入法律規(guī)范范疇,并在此基礎上提出了包括成立歐盟人工智能監(jiān)管機構(gòu)、確立人工智能倫理準則、為智能機器人重構(gòu)責任規(guī)則、考慮賦予智能機器人“電子人”身份、明確“獨立智力創(chuàng)造”、注重隱私保護、推進標準化工作、制定特定的監(jiān)管規(guī)則、關(guān)注人工智能社會影響、加強國際合作等十大建議[11];2019年4月,歐盟先后又發(fā)布了兩份代表歐盟推動人工智能治理的最新文件,即《可信人工智能倫理指南》和《算法責任與透明治理框架》,對建立人工智能的倫理和法律框架進行具體安排。總的來說,可以歸結(jié)為以下三點。

      1.人工智能時代新的民事法律責任規(guī)則

      在歐盟看來,以智能機器人為代表的人工智能與人類此前開發(fā)利用的機器工具是完全不同的,它們通過深度學習具備自主性和認知特征,其行為難以為人類所預測和控制,造成傳統(tǒng)的民事法律責任規(guī)則難以適用,需要重新制定新的規(guī)制規(guī)則。歐盟認為,這種規(guī)則應以智能機器人為其自身行為承擔責任為出發(fā)點,通過解決人工智能的法律責任主體地位來重構(gòu)新的規(guī)則。為此,在其立法建議第50(f)項中就提出,從長遠角度考慮,有必要確立智能機器人的特殊地位,至少應當確保技術(shù)系統(tǒng)最復雜的智能機器人擁有“電子人”(electronic persons)的獨立地位,使其有資格擔負自身所致?lián)p害的責任,配以登記公示制度,智能機器人負責彌補自身所引起的侵害,以及它自主決定的、與第三方獨立交往的情形[12]。

      2.“責任與機器人自主性成反比”規(guī)則

      歐盟認為,既然智能機器人的侵權(quán)行為造成損害后果,就應當追究其相應的主體責任,以補償受害人。但責任主體所負責任范圍、大小應與其賦予智能機器人自主性等級相統(tǒng)一,智能機器人的自主能動性與其他責任主體(除智能機器人本身外)應負責任成反比。簡單來說,人工智能機器人自我學習和決策的能力越強,其他與人工智能技術(shù)利益相關(guān)的主體(如制造商、所有人、使用者等)所擔責任越少。人工智能機器人的培訓者所擔責任與教育時間成正比,然而,雖然引入了“責任與人工智能機器人自主性成反比”的規(guī)則,但當將機器人的侵害行為歸因于特定身份的時候,應當對受過訓練的機器人產(chǎn)生的技能及憑其自身深度學習和自我迭代所獲得的技能加以區(qū)分,這樣才能平衡受害方與責任最終承擔者之間的利益沖突。

      3.與人工智能民事法律責任規(guī)則相配套的制度

      歐盟判斷,為人工智能造成的損害分配法律責任將是未來司法實務中面臨的極其復雜的問題。既然對于自主性程度高的智能機器人賦予獨立的“電子人”身份,以使其能夠成為法律責任歸責上的主體,那么,就應當進一步完善智能機器人獨立承擔責任的配套制度。為此,歐盟提出了許多探索性建議,比如,可以要求智能機器人相關(guān)主體為其生產(chǎn)、制造、使用的機器人承擔強制購買保險的義務;可以設立賠償金制度,補充強制保險計劃;推動智能機器人的標準化工作,確保其更具安全可靠性,針對具有特定用途的機器人和人工智能出臺特定規(guī)則;可以通過強調(diào)說明義務、黑匣子記錄義務等透明性原則,方便人工智能損害責任的事實認定等。

      (二)有關(guān)美國人工智能法律責任的實踐探索

      與歐盟相較而言,美國對人工智能侵權(quán)法律責任持相對保守態(tài)度,比如,在責任主體上,美國一些州的立法在對以自動駕駛汽車為代表的人工智能責任主體分配上,將責任分配給汽車的生產(chǎn)者、所有者或者占據(jù)所有者位置的“操作者”,在美國庭審中,對于責任的指控,更傾向于“自擔風險”抗辯規(guī)則。美國不認為當前人工智能侵權(quán)的復雜程度及后果足以根本改變現(xiàn)行民事法律責任制度,按既有的產(chǎn)品質(zhì)量責任規(guī)則追究生產(chǎn)者、銷售者及使用者責任業(yè)已足夠。對于存在侵害風險的自動駕駛汽車、電腦醫(yī)生等人工智能產(chǎn)品,可以實行召回制度,剝奪其再次開展相應行為的資格,以避免它的人工智能系統(tǒng)再次做出侵害他人的指令[13]。同時,美國關(guān)于人工智能法律責任與歐盟也有一些共同之處,比如,對于人工智能應當使用差別化的歸責原則,按照嚴格責任、過錯責任分別適用于對人工智能產(chǎn)品擁有不同控制程度的相關(guān)主體;建立包括安裝黑匣子在內(nèi)的技術(shù)手段,保存人工智能產(chǎn)品在不同領(lǐng)域的“行為”信息,以作為法律責任認定的證據(jù)參考;要求人工智能產(chǎn)品在售價中增加特定責任費用,建立政府或行業(yè)主導的儲備金;允許既懂得智能機器人專業(yè)技術(shù)知識,又擁有專業(yè)醫(yī)療知識的專家證人出庭發(fā)表意見,并推動相關(guān)政策標準的制定與執(zhí)行等。

      (三)比較與分析

      綜上所述,在探索人工智能發(fā)展所帶來的法律責任承擔問題上,美國與歐盟呈現(xiàn)出相對保守與遞進發(fā)展兩種狀態(tài)。它們都從責任主體、歸責原則、責任方式、配套保護等角度,進行了許多具有現(xiàn)實應對意義的探索。但于細微處比較,美國對人工智能的規(guī)制,更多地從現(xiàn)有法律責任制度的角度提出差別化的歸責原則,其責任主體仍舊是生產(chǎn)者、銷售者、使用者等相關(guān)主體;而歐盟則是站在社會和法律制度遞進發(fā)展角度,提議賦予人工智能獨立的主體資格,這是對現(xiàn)行法律責任制度原理的創(chuàng)新。

      四、我國人工智能醫(yī)療法律責任制度的完善路徑

      前文已述,醫(yī)療人工智能的興起與應用將對現(xiàn)行的醫(yī)療損害責任制度提出現(xiàn)實挑戰(zhàn)。這些挑戰(zhàn),既可能造成接受醫(yī)療人工智能診療的患者所遭受的損害難以得到完整補償,也會給生產(chǎn)商、制造商、醫(yī)療機構(gòu)帶來責任分擔不確定,最終影響技術(shù)進步和社會發(fā)展。為了實現(xiàn)鼓勵人工智能研究發(fā)展和最大限度保護患者權(quán)益之間的平衡,筆者在綜合國外立法探索經(jīng)驗的基礎上,嘗試性地提出以下幾點構(gòu)建意見,以供參考。

      (一)現(xiàn)有醫(yī)療法律責任歸責模式的綜合適用

      對于醫(yī)療人工智能實施侵害的責任主體,美國、歐盟均認為生產(chǎn)者、銷售者以及使用者應作為相應的責任主體,但是否將醫(yī)療人工智能視為擁有獨立人格的責任主體,卻有不同看法。歐盟認為應當賦予其法律主體資格,但卻沒有進一步明確取得主體資格后的權(quán)利義務關(guān)系,也沒有設計相應的責任承擔體系。對此,筆者認為,在現(xiàn)階段尚不需要考慮是否應當賦予醫(yī)療人工智能以獨立的主體資格,一則是醫(yī)療人工智能是由人類設計與生產(chǎn)出來的,當前階段人工智能所能完成的各項任務或采取的各種操作均取決于人類研發(fā)設計中事先制定好的代碼或程序,亦即人工智能還不具備獨立思考和獨立決策的能力,尚處在人類的掌控范圍之內(nèi),而且完全自主的醫(yī)療人工智能在短期內(nèi)尚不會出現(xiàn),因此,并不需要人工智能獨立承擔相應的民事責任;二則若要賦予醫(yī)療人工智能以獨立的主體地位,讓其能夠獨立實施行為、承擔責任,離不開法律、政策及道德規(guī)范的體系化支持與調(diào)整,但這些目前尚都處于空白階段,在匹配的制度規(guī)范體系尚不健全的情況下,如果強行賦予人工智能獨立的法律主體資格,那么,可能會造成運作偏離合理向度下的混亂局面。況且,通過現(xiàn)行法律制度的擴展適用和法律解釋技術(shù)的成熟運用能夠有效解決現(xiàn)行面對的實際問題。

      筆者認為,對于醫(yī)療人工智能引發(fā)的法律責任承擔問題,可以綜合運用現(xiàn)有的法律責任歸責模式。首先,目前醫(yī)療人工智能通常是作為醫(yī)生“助手”的身份出現(xiàn),尚未達到具有獨立自主自由意志的智能程度,也就是說,當前醫(yī)療人工智能更多表現(xiàn)為一種工具手段,對因其使用造成的醫(yī)療侵權(quán)責任,可適用《侵權(quán)責任法》的規(guī)定,對醫(yī)療機構(gòu)或醫(yī)務人員在人工智能使用過程中因操作或管理不當致使患者遭受損害的,應當由醫(yī)療機構(gòu)承擔過錯責任。其次,現(xiàn)階段的醫(yī)療人工智能尚屬于人類研發(fā)生產(chǎn)的產(chǎn)品范疇,若因醫(yī)療人工智能自身程序瑕疵或設計缺陷導致的損害,應由其設計者、生產(chǎn)者按照《產(chǎn)品質(zhì)量法》的規(guī)定承擔無過錯的產(chǎn)品瑕疵責任,并可在司法實踐中對證明責任進行傾斜分配,將人工智能是否存在缺陷、缺陷與損害事實之間因果關(guān)系等證明責任分配給設計者、生產(chǎn)者或醫(yī)療機構(gòu)承擔。最后,隨著人工智能的高度發(fā)展,可能會在超級算法和深度學習技術(shù)的深度應用下產(chǎn)生具有獨立自主意識能力的人工智能。但這是一種伴隨技術(shù)的市場化應用而產(chǎn)生的新生事物,市場化的運行方式要求醫(yī)療人工智能的生產(chǎn)者、制造者、使用者在享受其利益的同時也要具有風險承擔的能力,風險的不可預測性契合高度危險責任的適用,亦符合《侵權(quán)責任法》在社會發(fā)展與科技進步之間所做的立法選擇[14]。當然,我國現(xiàn)行《民法總則》雖未將人工智能納入法律主體范疇,但假若醫(yī)療強人工智能或超強人工智能真的出現(xiàn)并席卷人類社會時,對《民法總則》或者《民法典》再進行適時的體系修改,以滿足社會發(fā)展需要,這也符合法律制度作為上層建筑決定于社會存在的哲學本質(zhì)。

      (二)建立強制保險或儲備金制度

      在涉及人工智能所引發(fā)的醫(yī)療法律責任中,存在著責任主體難以界定、過錯責任原則難以適用、因果關(guān)系難以查清等現(xiàn)實困境,這不僅使受到損害的患者無法獲得公平賠償,而且也阻卻了生產(chǎn)者、醫(yī)療機構(gòu)進一步研發(fā)、使用先進的人工智能技術(shù)的工作熱情。為此,筆者認為可以借鑒歐美經(jīng)驗,嘗試建立強制性保險和儲備金制度,由開發(fā)者、制造商、所有者(醫(yī)療機構(gòu))等通過多種方式支付費用,建立一個專門用于醫(yī)療人工智能法律責任支付的獨立資金池,既使患者的權(quán)益能夠得到有效保障,又使相關(guān)主體免于因承擔巨大風險責任而喪失技術(shù)研發(fā)與使用的積極性[15]。該方式使得在智能醫(yī)療領(lǐng)域,因非人為因素導致的損害負擔通過風險最小化的方式實現(xiàn)化解,為救濟受害人、分散醫(yī)療風險、維護社會穩(wěn)定提供較為妥善的制度保障[16]。當人工智能醫(yī)療機器人投入醫(yī)學使用時,生產(chǎn)商可以為其購買保險,在醫(yī)療損害出現(xiàn)時,無需糾結(jié)于侵權(quán)責任的歸屬認定,由保險公司對受害人填補損害。同時,為了彌補保險制度范圍相對有限性的不足,建立儲備金制度則可實現(xiàn)優(yōu)勢互補。儲備金既包括生產(chǎn)者、銷售者、醫(yī)療機構(gòu)和患者在生產(chǎn)、銷售、使用時的附加費用分擔,也接納社會捐贈。為確保儲備金的公開透明,可配以相應的登記和公示制度。構(gòu)建強制保險和儲備金制度是擺脫囿于討論醫(yī)療人工智能是否能夠成為獨立的法律責任主體的理論爭議,而探索的一條能夠真正有效解決人工智能快速發(fā)展所面臨的法律責任問題的實踐之道。

      (三)建立專門的人工智能監(jiān)管機構(gòu)和行業(yè)標準

      在人工智能當前發(fā)展階段,我們提出通過適用不同的法律責任模式實現(xiàn)差別化歸責,但差別化責任的前提需要建立在對醫(yī)療人工智能的審批監(jiān)管機制上[17]。因此,在醫(yī)療人工智能產(chǎn)品越來越多、技術(shù)參數(shù)越來越復雜的背景下,有必要建立專門的人工智能監(jiān)管機構(gòu),通過“有形之手”監(jiān)督建立安全標準和倫理規(guī)則,實現(xiàn)對人工智能行業(yè)的監(jiān)督管理和風險預測。這種前置性的審批制度,可以實現(xiàn)兩方面的作用,一方面,可以保證人工智能的產(chǎn)品質(zhì)量,保證投入到醫(yī)療衛(wèi)生事業(yè)中的智能機器人醫(yī)生等具有保障人身安全的可靠性,增進患者采用醫(yī)療人工智能的信心;另一方面,基于人工智能的安全標準和倫理準則,也可以保證差別化醫(yī)療法律責任承擔的實現(xiàn)。對于符合一定生產(chǎn)標準并經(jīng)過審查的醫(yī)療人工智能,生產(chǎn)商、制造商實質(zhì)上只承擔有限的產(chǎn)品責任,作為受害人的患者也可以援引相應的標準和準則證明涉事醫(yī)療人工智能存在“缺陷”之處,對于沒有經(jīng)過審批的醫(yī)療人工智能,相關(guān)主體應當承擔嚴格責任,并且相互間是連帶責任關(guān)系。針對醫(yī)療人工智能監(jiān)管機構(gòu)及監(jiān)管標準,可借鑒美國食品藥品監(jiān)督管理局(FDA)創(chuàng)新設立的“數(shù)字醫(yī)療軟件預認證計劃(Precertification Program)”的監(jiān)管方法,通過設置專門負責醫(yī)療設備及科技監(jiān)管的機構(gòu) CDRH(Center for Devices and Radiological Health),按照前期試點項目中確定的客觀標準來“預先認證”符合條件的智能醫(yī)療開發(fā)主體。但是,該項目現(xiàn)存最大的問題在于智能醫(yī)療管理標準有待進一步完善。無獨有偶,歐盟、英國、德國、新加坡等也都成立專家委員會研究與人工智能有關(guān)的隱私、安全和道德的行業(yè)特定準則,以推動人工智能實現(xiàn)規(guī)范化健康發(fā)展。

      五、結(jié) 語

      醫(yī)療人工智能的產(chǎn)生和發(fā)展,一方面,給醫(yī)療領(lǐng)域?qū)崿F(xiàn)精準化、個性化、高質(zhì)量的診斷和治療帶來希望;另一方面,也因其參與診療活動而給醫(yī)療損害法律責任的分配與承擔提出了現(xiàn)實挑戰(zhàn)。伴隨生物醫(yī)學技術(shù)和人工智能的深度融合和鏈式發(fā)展,最終可能出現(xiàn)具有學習能力、思考能力和決策能力的智能機器人醫(yī)生。這種智能機器人醫(yī)生也將對傳統(tǒng)的以自然人為中心的法律責任主體制度帶來挑戰(zhàn)。但法律制度的變更與發(fā)展是與社會經(jīng)濟發(fā)展的程度相適應的。在當前人工智能尚未全面進入強人工智能的背景下,人工智能產(chǎn)品尚處于人類的掌握和控制階段,提出賦予人工智能法律責任主體地位尚不必要。當前,針對人工智能在醫(yī)學領(lǐng)域的應用,應當堅持以“前端預防”代替“末端懲治”的原則,通過現(xiàn)有法律制度的整體運用和法律原則的系統(tǒng)解釋,在結(jié)合醫(yī)療責任風險與利益的基礎上,按照生產(chǎn)者、銷售者、醫(yī)療機構(gòu)或醫(yī)務人員等相關(guān)主體不同的注意義務關(guān)系去認定各方責任,以體系性的法律規(guī)制來有效應對人工智能所帶來的挑戰(zhàn)。當然,在未來真正進入強人工智能的人機共存的時代,法律也必須面對和解決智能機器人醫(yī)生的法律行為和法律地位問題,并對其進行適時的修正和更新,為患者維護自身合法權(quán)益提供法律救濟的制度安排,增進人類健康福祉。

      安泽县| 沂水县| 黄陵县| 明光市| 临高县| 达日县| 凤山县| 贵港市| 阜南县| 淮阳县| 荥阳市| 兴义市| 洞口县| 云安县| 汶川县| 平湖市| 云南省| 东丽区| 丰镇市| 喀喇| 洞头县| 南华县| 吉首市| 泾阳县| 法库县| 竹溪县| 烟台市| 宜宾市| 龙胜| 武穴市| 来凤县| 海南省| 昂仁县| 静安区| 报价| 合水县| 临汾市| 纳雍县| 英吉沙县| 平利县| 广南县|