夏黎明,沈 堅(jiān),張榮國(guó),王少康, 陳 寬
1華中科技大學(xué)同濟(jì)醫(yī)學(xué)院附屬同濟(jì)醫(yī)院放射科,武漢 430030 2北京推想科技有限公司,北京 100025
深度學(xué)習(xí)技術(shù),作為人工智能的熱門(mén)研究領(lǐng)域,自2006年由多倫多大學(xué)教授Geoffrey Hinton[1]提出后,已在各行各業(yè)呈現(xiàn)爆炸式增長(zhǎng),并涌現(xiàn)出像AlphaGo、自動(dòng)駕駛汽車(chē)這樣的重量級(jí)應(yīng)用,繼而引發(fā)了全球范圍內(nèi)的廣泛討論及深度學(xué)習(xí)發(fā)展的潮流。
深度學(xué)習(xí)是一種對(duì)數(shù)據(jù)進(jìn)行表征學(xué)習(xí)的方法,其使用包含復(fù)雜結(jié)構(gòu)或由多重非線性變換構(gòu)成的多個(gè)處理層對(duì)數(shù)據(jù)進(jìn)行高層抽象[2]。深度學(xué)習(xí)網(wǎng)絡(luò)可理解為傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的延伸,是通過(guò)深層非線性網(wǎng)絡(luò)結(jié)構(gòu)無(wú)限逼近復(fù)雜函數(shù),以獲取數(shù)據(jù)的原始特征,進(jìn)而取代傳統(tǒng)的由人工提取數(shù)據(jù)特征的方法,實(shí)現(xiàn)讓機(jī)器自主學(xué)習(xí)并提取數(shù)據(jù)特征。同時(shí),由于網(wǎng)絡(luò)模型具有層次深、運(yùn)算量大、表達(dá)能力強(qiáng)等特點(diǎn),深度學(xué)習(xí)非常適用于大數(shù)據(jù),尤其是圖像、語(yǔ)音等直觀意義不明顯的數(shù)據(jù)。
2016年是深度學(xué)習(xí)高速發(fā)展的一年,這主要得益于大數(shù)據(jù)的支撐,圖形處理器強(qiáng)大的運(yùn)算能力,以及新型算法的不斷更新。工業(yè)界巨頭如國(guó)外的Google、Facebook以及國(guó)內(nèi)的百度、阿里巴巴、騰訊等一系列創(chuàng)新型大公司紛紛對(duì)外公開(kāi)表示人工智能尤其是深度學(xué)習(xí)將是其下一個(gè)戰(zhàn)略重心。同時(shí),許多創(chuàng)業(yè)公司在各行各業(yè)紛紛成立,均瞄準(zhǔn)了深度學(xué)習(xí)的廣闊前景。
自計(jì)算機(jī)技術(shù)得到廣泛應(yīng)用起,醫(yī)學(xué)影像研究者們就嘗試建立影像自動(dòng)分析系統(tǒng)。20世紀(jì)70年代至90年代,研究者們通過(guò)對(duì)邊、線、圓等特殊圖形的數(shù)學(xué)建模進(jìn)行醫(yī)學(xué)影像分析;90年代末開(kāi)始,以訓(xùn)練數(shù)據(jù)為基礎(chǔ)的監(jiān)督學(xué)習(xí)系統(tǒng)逐漸占據(jù)主流,但其中的關(guān)鍵步驟,提取影像特征仍由人工完成;為了實(shí)現(xiàn)計(jì)算機(jī)的自動(dòng)特征提取,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)應(yīng)運(yùn)而生,雖然最初CNN并不受重視,但Krizhevsky等[3]在2012年ImageNet大賽中應(yīng)用深度學(xué)習(xí)網(wǎng)絡(luò)AlexNet將準(zhǔn)確率足足提高了一個(gè)檔次,使得深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)成為計(jì)算機(jī)視覺(jué)以及醫(yī)學(xué)影像分析領(lǐng)域的熱門(mén)技術(shù)。自此,深度學(xué)習(xí)在醫(yī)學(xué)影像領(lǐng)域的研究逐年增加,尤其在2015年之后更是呈井噴式增長(zhǎng)[4]。
1.1.1 監(jiān)督學(xué)習(xí)
監(jiān)督學(xué)習(xí)需要通過(guò)有標(biāo)注的數(shù)據(jù)進(jìn)行訓(xùn)練得到模型參數(shù),即先輸入計(jì)算機(jī)一些問(wèn)題的正確答案,然后在這些經(jīng)驗(yàn)的基礎(chǔ)上判斷和分析新案例。在醫(yī)學(xué)影像領(lǐng)域監(jiān)督學(xué)習(xí)的應(yīng)用較多,其中常見(jiàn)模型包括CNN,以及近來(lái)頗受關(guān)注的的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks, RNN)。
1.1.2 無(wú)監(jiān)督學(xué)習(xí)
無(wú)監(jiān)督學(xué)習(xí)則是在未標(biāo)記數(shù)據(jù)的基礎(chǔ)上直接從數(shù)據(jù)中尋找規(guī)律,生成模型參數(shù),典型案例是在一些無(wú)標(biāo)簽的腫瘤圖片中分出其良惡性質(zhì)。
1.2.1 分類(lèi)問(wèn)題
分類(lèi)問(wèn)題又可稱(chēng)為診斷問(wèn)題,是深度學(xué)習(xí)最先涉及的問(wèn)題,即輸入完整或局部的醫(yī)學(xué)影像,計(jì)算機(jī)輸出單一的診斷結(jié)果,如是否存在異常。CNN是最常用的方法,此外,由于醫(yī)學(xué)影像訓(xùn)練數(shù)據(jù)的量級(jí)(成百上千)往往遠(yuǎn)小于計(jì)算機(jī)視覺(jué)模型所需的量級(jí)(數(shù)百萬(wàn)數(shù)千萬(wàn)),遷移學(xué)習(xí)也很常見(jiàn)。遷移學(xué)習(xí)可利用由其他圖片(通常是自然圖片)訓(xùn)練生成的網(wǎng)絡(luò),彌補(bǔ)醫(yī)學(xué)影像訓(xùn)練數(shù)據(jù)量不足的問(wèn)題。遷移學(xué)習(xí)在實(shí)際操作中有兩種,一是直接用網(wǎng)絡(luò)進(jìn)行醫(yī)學(xué)影像特征提取; 二是用醫(yī)學(xué)影像對(duì)網(wǎng)絡(luò)進(jìn)行進(jìn)一步微調(diào)。這兩種方法均很流行,至于哪種方法更好,學(xué)術(shù)界各執(zhí)一詞,目前尚無(wú)定論。總體上,CNN是目前影像分類(lèi)問(wèn)題最尖端的技術(shù),在某些疾病的分類(lèi)判斷上可達(dá)到人類(lèi)專(zhuān)家級(jí)別的準(zhǔn)確度。
1.2.2 檢測(cè)問(wèn)題
檢測(cè)問(wèn)題又可分為器官、區(qū)域和界標(biāo)定位以及目標(biāo)或病灶位置檢測(cè)。其中目標(biāo)或病灶位置檢測(cè)是診斷過(guò)程中的關(guān)鍵步驟,也是醫(yī)生最費(fèi)時(shí)費(fèi)力的工作之一。檢測(cè)問(wèn)題相當(dāng)于對(duì)每一個(gè)像素進(jìn)行分類(lèi),CNN依然是主要的解決方法。但與分類(lèi)問(wèn)題相比,檢測(cè)問(wèn)題的一個(gè)顯著且關(guān)鍵的區(qū)別在于目標(biāo)或病灶區(qū)域相對(duì)于整幅圖小很多,所以對(duì)每個(gè)像素分類(lèi)之后,非目標(biāo)類(lèi)的數(shù)量遠(yuǎn)遠(yuǎn)超過(guò)目標(biāo)類(lèi),這就意味著訓(xùn)練數(shù)據(jù)的分類(lèi)極度不平衡。對(duì)此,van Grinsven等[5]提出將分類(lèi)錯(cuò)誤的樣本重新送回模型進(jìn)行訓(xùn)練,以增加CNN對(duì)這些區(qū)域的敏感性。Facebook人工智能研究所的何凱明團(tuán)隊(duì)最近也提出將focal loss引入輸入樣本的權(quán)重來(lái)解決數(shù)據(jù)不平衡的問(wèn)題[6]。
1.2.3 分割問(wèn)題
分割問(wèn)題是醫(yī)學(xué)領(lǐng)域的一個(gè)重要問(wèn)題,也是學(xué)術(shù)成果產(chǎn)出最多的研究課題。對(duì)器官或其他子結(jié)構(gòu)的精確分割有利于影像上目標(biāo)物體積、形狀等臨床指標(biāo)的定量分析。應(yīng)用深度學(xué)習(xí)對(duì)醫(yī)學(xué)圖像進(jìn)行分割對(duì)將來(lái)利用計(jì)算機(jī)生成結(jié)構(gòu)化報(bào)告也具有重要意義。在處理分割問(wèn)題的過(guò)程中,研究者們提出了很多以CNN為基礎(chǔ)的新模型和新框架,其中最具影響力的是Ronneberger等[7- 8]提出的U-net,其特點(diǎn)是擁有同樣數(shù)目的上采樣及下采樣層數(shù),可對(duì)整個(gè)掃描的所有影像直接訓(xùn)練,可更有效地利用全局信息。此外,RNN在分割問(wèn)題上的應(yīng)用亦越來(lái)越多。
除了以上提到的3大類(lèi)問(wèn)題,深度學(xué)習(xí)在醫(yī)學(xué)影像的應(yīng)用還包括圖像配準(zhǔn)、影像復(fù)原、影像生成與增強(qiáng)等,其在醫(yī)學(xué)影像領(lǐng)域的應(yīng)用仍在不斷滲透。
北卡羅來(lái)納大學(xué)教堂山分校的精神病學(xué)專(zhuān)家Hazlett團(tuán)隊(duì)利用深度學(xué)習(xí)算法預(yù)測(cè)2歲前自閉癥高危兒童(有家族史)是否會(huì)在2歲后被診斷為自閉癥,其準(zhǔn)確率高達(dá)88%,遠(yuǎn)遠(yuǎn)超過(guò)準(zhǔn)確率只有50%的傳統(tǒng)行為問(wèn)卷調(diào)查法,且可更早診斷[9]。
Hazelett團(tuán)隊(duì)發(fā)現(xiàn)患有自閉癥兒童的大腦會(huì)在早期過(guò)度增長(zhǎng),往往比正常兒童大,但增大的時(shí)間點(diǎn)一直無(wú)法確定,且兒童自閉癥在實(shí)際診斷中與許多其他因素有關(guān),所以即使測(cè)得相關(guān)數(shù)據(jù),醫(yī)生也很難下定論。于是Hazelett團(tuán)隊(duì)使用深度學(xué)習(xí)算法,首先對(duì)106名有家族史的高風(fēng)險(xiǎn)兒童和42名低風(fēng)險(xiǎn)兒童在6個(gè)月和12個(gè)月的時(shí)候分別進(jìn)行磁共振掃描,并輸入每個(gè)兒童的性別、大腦表層面積、大腦顱內(nèi)體積和皮質(zhì)厚度等數(shù)據(jù)(左39區(qū)至右39區(qū)皮層半球,約312個(gè)測(cè)量數(shù)據(jù)),一共315個(gè)輸入數(shù)據(jù)。整個(gè)算法結(jié)構(gòu)采用三步帶權(quán)重的深度降維網(wǎng)絡(luò),分別從輸入315個(gè)數(shù)據(jù)降至100個(gè),再降至10個(gè),最后一層降至2個(gè)輸出數(shù)據(jù)判斷是否會(huì)患上自閉癥。這一算法在143個(gè)測(cè)試數(shù)據(jù)中取得了88%的準(zhǔn)確率,同時(shí)僅有4個(gè)假陽(yáng)性。
其他的后續(xù)研究支持了這一結(jié)論,但該理論的魯棒性依然有待驗(yàn)證,且距離臨床應(yīng)用仍具有一定距離。主要問(wèn)題在于磁共振掃描的差異和提取數(shù)據(jù)方法的不同為檢測(cè)腦結(jié)構(gòu)的微小變化增加了困難,因此是否有其他更加穩(wěn)定且精確的腦成像技術(shù)亦是問(wèn)題。有學(xué)者對(duì)該研究是否適用于普通嬰兒的預(yù)測(cè)尚存疑問(wèn)。如果這套算法被證實(shí)可應(yīng)用于臨床,將意味著可提前判斷兒童是否會(huì)患上自閉癥,從而進(jìn)行早期干預(yù)以降低幼兒患自閉癥的風(fēng)險(xiǎn)。
糖尿病性視網(wǎng)膜病變是目前越來(lái)越被人們重視的致盲病因,全球約有4.5億糖尿病患者存在該病風(fēng)險(xiǎn),若能及早發(fā)現(xiàn),可被治愈。
Google公司研究者Gulshan[10]團(tuán)隊(duì)在2016年采用深度學(xué)習(xí)網(wǎng)絡(luò)[11- 12]對(duì)128 175張已由54名美國(guó)專(zhuān)家標(biāo)注過(guò)的視網(wǎng)膜眼底圖像進(jìn)行訓(xùn)練,然后在單獨(dú)的測(cè)試數(shù)據(jù)集上進(jìn)行了驗(yàn)證,準(zhǔn)確率達(dá)到曲線下面積91%,檢測(cè)效能可與人類(lèi)專(zhuān)家相當(dāng)。
這項(xiàng)研究證明了糖尿病性視網(wǎng)膜病變?nèi)斯ぶ悄茏詣?dòng)檢測(cè)的應(yīng)用前景,可大大提高效率和可復(fù)制性,擴(kuò)大篩查范圍,減小患者就診難度,實(shí)現(xiàn)早診早治。
乳腺癌是對(duì)女性生命威脅最大的疾病之一,目前拍攝乳腺鉬靶圖像是乳腺癌最主要的篩查手段。但由于乳腺腫塊差異性較大,圖像信噪比較低,易受影像醫(yī)生診斷經(jīng)驗(yàn)影響,乳腺癌篩查存在較高的誤診率。
來(lái)自荷蘭的研究者Kooi等[14]應(yīng)用深度學(xué)習(xí)網(wǎng)絡(luò)檢測(cè)乳腺腫塊和鈣化,對(duì)45 000張有標(biāo)簽的圖像進(jìn)行訓(xùn)練,采用和OxfordNet[13]類(lèi)似的網(wǎng)絡(luò)結(jié)構(gòu),準(zhǔn)確率高達(dá)90%,超過(guò)傳統(tǒng)的計(jì)算機(jī)輔助設(shè)計(jì)系統(tǒng)。此外,哈佛大學(xué)團(tuán)隊(duì)用課程學(xué)習(xí)的方法來(lái)訓(xùn)練多尺度卷積神經(jīng)網(wǎng)絡(luò),并結(jié)合ResNet[15]結(jié)構(gòu),在一個(gè)公開(kāi)的乳腺鉬靶影像數(shù)據(jù)集(Digital Database for Screening Mammography,DDSM)上訓(xùn)練并達(dá)到了92%的準(zhǔn)確率[16]。
然而,整體數(shù)據(jù)量級(jí)相對(duì)于深度學(xué)習(xí)所需要的數(shù)據(jù)量級(jí)來(lái)說(shuō)仍太小,且現(xiàn)有模型所訓(xùn)練的數(shù)據(jù)樣本不平衡問(wèn)題突出,即正樣本(有病灶的)數(shù)量遠(yuǎn)遠(yuǎn)超過(guò)了負(fù)樣本(無(wú)病灶的)數(shù)量,導(dǎo)致預(yù)測(cè)結(jié)果偏向正樣本,這亦是今后研究所需解決的問(wèn)題。
皮膚癌是人類(lèi)最常見(jiàn)的惡性腫瘤之一,但因存在于皮膚表面,常易被忽視。皮膚癌的篩查主要通過(guò)視覺(jué)判斷,一般首先進(jìn)行臨床篩查,之后進(jìn)行皮膚鏡分析、活檢和皮膚組織病理學(xué)分析。
2017年初,斯坦福大學(xué)工程學(xué)院和醫(yī)學(xué)院合作團(tuán)隊(duì)在Nature上發(fā)布了在皮膚癌診斷領(lǐng)域的最新突破[17]。其利用深度學(xué)習(xí)網(wǎng)絡(luò)Google Inception-v3結(jié)合遷移學(xué)習(xí)技術(shù),以ImageNet上基于128萬(wàn)張圖1000種類(lèi)數(shù)據(jù)集得到的預(yù)訓(xùn)練參數(shù),訓(xùn)練了129 450張皮膚表面圖片,其中包含2032種不同種類(lèi)疾病。最后,此模型和21位皮膚科醫(yī)生進(jìn)行了兩輪較量:第一輪為最常見(jiàn)的皮膚癌識(shí)別,第二輪為最致命的皮膚癌識(shí)別,人工智能系統(tǒng)在這兩輪較量中均表現(xiàn)出與人類(lèi)專(zhuān)家不相上下的水平,人工智能的準(zhǔn)確率達(dá)到69.4%,而人類(lèi)專(zhuān)家的準(zhǔn)確率在66%左右。除此之外,該團(tuán)隊(duì)還展望未來(lái)在手機(jī)智能移動(dòng)端使用人工智能系統(tǒng)檢測(cè)皮膚癌,以大幅度降低皮膚癌篩查費(fèi)用。
基于深度學(xué)習(xí)的醫(yī)學(xué)影像處理技術(shù)目前已被證明在某些領(lǐng)域達(dá)到甚至超過(guò)了人類(lèi)專(zhuān)家水平,這項(xiàng)技術(shù)也逐漸走向臨床,開(kāi)始輔助醫(yī)生的日常工作。
2017年初,美國(guó)食品藥品監(jiān)督管理局(Food and Drug Administration,F(xiàn)DA)批準(zhǔn)了全球首個(gè)深度學(xué)習(xí)影像臨床應(yīng)用平臺(tái)Arterys Cardio DL,意味著深度學(xué)習(xí)逐漸獲得認(rèn)可。該平臺(tái)可用于診斷與檢測(cè)多種心血管疾病,自動(dòng)采集心室內(nèi)外輪廓數(shù)據(jù),具有耗時(shí)短、精度高的特點(diǎn)。其主打的產(chǎn)品ViosWorks革新了傳統(tǒng)的心臟磁共振成像方法,將掃描時(shí)間從1 h縮短至6~10 min,患者無(wú)需再屏住呼吸。此外,這款產(chǎn)品可做到從7個(gè)維度呈現(xiàn)心臟,包括3個(gè)空間維度、1個(gè)時(shí)間維度和3個(gè)速度維度。
中國(guó)醫(yī)學(xué)人工智能的發(fā)展絲毫不亞于發(fā)達(dá)國(guó)家,并且正以難以置信的速度增長(zhǎng)。最重要的原因是中國(guó)醫(yī)療數(shù)據(jù)的量級(jí)遠(yuǎn)遠(yuǎn)超過(guò)其他國(guó)家,而數(shù)據(jù)規(guī)模對(duì)于深度學(xué)習(xí)算法起到了非常關(guān)鍵的作用。2015年以來(lái),中國(guó)陸續(xù)出現(xiàn)一批基于深度學(xué)習(xí)算法的醫(yī)學(xué)影像人工智能公司。與此同時(shí),許多頂級(jí)三甲醫(yī)院積極配合并且推進(jìn)深度學(xué)習(xí)在醫(yī)學(xué)影像領(lǐng)域的臨床化。目前問(wèn)世的基于深度學(xué)習(xí)技術(shù)的產(chǎn)品主要包括X線輔助篩查系統(tǒng)和CT肺結(jié)節(jié)輔助篩查系統(tǒng)等。其中X線篩查產(chǎn)品可迅速發(fā)現(xiàn)胸部X線片中20多種異常影像學(xué)表現(xiàn),幫助醫(yī)生降低X線的漏診率。CT肺結(jié)節(jié)篩查產(chǎn)品不僅可快速識(shí)別不同大小的實(shí)性、亞實(shí)性、磨玻璃結(jié)節(jié),還可提供前后圖像對(duì)比功能,極大減輕了影像醫(yī)生的工作負(fù)擔(dān)。當(dāng)然,基于深度學(xué)習(xí)的醫(yī)療影像產(chǎn)品還不夠成熟,主要體現(xiàn)在診斷準(zhǔn)確率不足、假陽(yáng)性率高和魯棒性較差3個(gè)方面。
深度學(xué)習(xí)需要量大且質(zhì)優(yōu)的數(shù)據(jù),尤其是監(jiān)督學(xué)習(xí)需要人類(lèi)專(zhuān)家標(biāo)記數(shù)據(jù)并教給機(jī)器正確答案,才能產(chǎn)生更加準(zhǔn)確的結(jié)果,所以更多的數(shù)據(jù)庫(kù)共享、醫(yī)學(xué)影像存檔與通信系統(tǒng)的普及、以及2D到3D圖像甚至是更高維數(shù)據(jù)的同步訓(xùn)練有利于影像數(shù)據(jù)的積累與利用,也是未來(lái)發(fā)展的趨勢(shì)。
目前已經(jīng)出現(xiàn)大量?jī)?yōu)質(zhì)的算法用以實(shí)現(xiàn)各種需求,以后將會(huì)涌現(xiàn)出許多功能更強(qiáng)大、效率更高、穩(wěn)定性更好的算法與框架。算法的優(yōu)化是一方面,數(shù)據(jù)的人口代表性是另一方面。要保證模型的魯棒性還有賴(lài)于收集更全面、更具有統(tǒng)計(jì)學(xué)意義的訓(xùn)練數(shù)據(jù)集。
目前監(jiān)督學(xué)習(xí)占主導(dǎo)地位,用神經(jīng)網(wǎng)絡(luò)的方法來(lái)訓(xùn)練醫(yī)學(xué)影像的分類(lèi)、檢測(cè)、分割任務(wù)極度依賴(lài)醫(yī)生的準(zhǔn)確標(biāo)記,耗時(shí)耗力。但從人類(lèi)和動(dòng)物擁有能夠在自然環(huán)境中學(xué)習(xí)的本能來(lái)看,非監(jiān)督學(xué)習(xí)比重提高必然是未來(lái)興起的方向[2],可顯著降低影像標(biāo)記工作的時(shí)間和人力成本。
目前人工智能的發(fā)展仍然處于快速上升階段,可能面臨一些來(lái)自政策和倫理等方面的挑戰(zhàn)?!叭斯ぶ悄苁欠駮?huì)取代影像科醫(yī)生”的話題在多個(gè)學(xué)術(shù)會(huì)議上引發(fā)激烈討論,人機(jī)協(xié)作的具體落實(shí)還有待臨床流程的設(shè)計(jì)與優(yōu)化。在2017年3月,人工智能首次被列入政府工作報(bào)告,顯示了國(guó)家對(duì)這項(xiàng)高科技的重視,其未來(lái)發(fā)展不可估量。
[1] Hinton GE, Salakhutdinov RR. Reducing the dimensionality of data with neural networks[J]. Science, 2016,313: 504- 507.
[2] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521:436- 444.
[3] Krizhevsky A, Sutskever I, Hinton GE. ImageNet classifica-tion with deep convolutional neural networks[C]. Interna-tional Conference on Neural Information Processing Systems,2012:1097- 1105.
[4] Litjens G, Kooi T, Bejnordi BE,et al. A survey on deep learning in medical image analysis[J]. Med Image Anal,2017,42:60- 88.
[5] van Grinsven MJ, van Ginneken B, Hoyng CB, et al. Fast convolutional neural network training using selective data sampling: application to hemorrhage detection in color fundus images[J]. IEEE Trans Med Imaging,2016,35:1273- 1284.
[6] Lin Y, Goyal P, Girshick R, et al. Focal loss for dense ob-ject detection[C]. In ICCV, 2017.
[7] Ronneberger O, Philipp F, Thomas B. U-net: Convolutional networks for biomedical image segmentation[C].Interna-tional Conference on Medical Image Computing and Computer Assisted Intervention, 2015.
[8] ?zgün C,Abdulkadir A,Lienkamp SS, et al. 3D U-net: learning dense volumetric segmentation from sparse annotation[C]. International Conference on Medical Image Computing and Computer Assisted Intervention, 2016.
[9] Hazlett HC, Gu H, Munsell BC, et al. Early brain development in infants at high risk for autism spectrum disorder[J]. Nature,2017, 542: 348- 351.
[10] Gulshan V, Peng L, Coram M, et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs[J]. JAMA,2016 316: 2402- 2410.
[11] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[J]. Computer Science, 2015:2818- 2826.
[12] Christian S, Sergey I, Vincent V, et al. Inception-v4, inception-resnet and the impact of residual connections on learning[C]. AAAI, 2017.
[13] Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014,1556:1409.
[14] Kooi T, Litjens G, van Ginneken B, et al. Large scale deep learning for computer aided detection of mammographic lesions[J]. Med Image Anal, 2017,35: 303- 312.
[15] He K,Zhang X,Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016.
[16] Lotter, William, Greg S, et al. A multi-scale CNN and curriculum learning strategy for mammogram classification[C]. Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support, 2017: 169- 177.
[17] Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks[J]. Nature, 2017, 542:115.