• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于Inception-ResNet-V2的乳腺癌病理圖像識(shí)別研究

      2020-06-22 13:15:56劉靖雯黃理燦
      軟件導(dǎo)刊 2020年5期
      關(guān)鍵詞:數(shù)據(jù)增強(qiáng)遷移學(xué)習(xí)

      劉靖雯 黃理燦

      摘 要:乳腺癌嚴(yán)重威脅女性健康和生命,及時(shí)診斷并提供治療方案給醫(yī)生帶來了挑戰(zhàn),病理圖像分類結(jié)果是醫(yī)生確診的重要依據(jù),實(shí)現(xiàn)乳腺癌病理圖像識(shí)別分類具有重要意義及臨床應(yīng)用價(jià)值。近年來,大多數(shù)研究集中于良惡性分類,而不同類型的乳腺腫瘤本身具有不同病因及治療方法。采用Inception-ResNet-V2深度卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)對(duì)乳腺癌病理圖像的八分類,利用數(shù)據(jù)增強(qiáng)和遷移學(xué)習(xí)方法,在Matlab上對(duì)數(shù)據(jù)集BreaKHis進(jìn)行實(shí)驗(yàn)。結(jié)果表明,該方法識(shí)別率基本達(dá)到80%以上,比大部分已有研究成果效果更優(yōu)。

      關(guān)鍵詞:Inception-ResNet-V2;深度卷積神經(jīng)網(wǎng)絡(luò);數(shù)據(jù)增強(qiáng);遷移學(xué)習(xí);乳腺癌病理圖像

      DOI:10. 11907/rjdk. 192019 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

      中圖分類號(hào):TP317.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2020)005-0225-05

      0 引言

      乳腺癌細(xì)胞喪失了正常細(xì)胞特性,細(xì)胞之間連接松散,容易脫落,是目前威脅女性健康的常見腫瘤。相關(guān)統(tǒng)計(jì)數(shù)據(jù)表明,乳腺癌在癌癥死亡原因中位居第六,且在中國(guó)女性中發(fā)病率最高[1]。眾所周知,診斷乳腺癌的最可靠途徑是通過病理診斷。臨床上,相對(duì)于 X-ray及核磁共振圖像,醫(yī)生最后確診時(shí)依賴于對(duì)病理圖像的分析。已有研究多采用病理圖像分類,既費(fèi)力又費(fèi)時(shí),且采用人工提取方法有誤診的可能。計(jì)算機(jī)輔助診斷(Computer-Aided Diagnosis,CAD)可將病理圖像自動(dòng)分類,既節(jié)省人力、提高效率,診斷結(jié)果也更準(zhǔn)確可靠[2]。但實(shí)現(xiàn)較難:一是病理圖像存在微小差異,容易出現(xiàn)細(xì)胞重疊現(xiàn)象、顏色分布出現(xiàn)不均勻等情況;二是鑒于醫(yī)學(xué)圖像通常涉及病人隱私,缺乏公開的、已標(biāo)記的數(shù)據(jù)集,使得因數(shù)據(jù)量少而造成分類困難。盡管如此,仍有學(xué)者對(duì)乳腺癌病理圖像進(jìn)行大量研究,并取得了重要研究成果??纱笾路譃橐韵聝蓚€(gè)部分:

      (1)采用傳統(tǒng)機(jī)器學(xué)習(xí)算法即人工方式提取特征。2013年,Kowal等[3]利用4種不同的聚類算法在快速核分割的任務(wù)中進(jìn)行了測(cè)試和比較。將K均值、模糊C均值、競(jìng)爭(zhēng)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)和高斯混合模型相結(jié)合,用于顏色空間中的聚類以及灰度中的自適應(yīng)閾值處理。500份病例被分類為良性或惡性,識(shí)別率為 96%~100%。Zhang等[4]提出了一種基于單類核主成分分析(KPCA)模型集成的分類方案,對(duì)361張病理圖像進(jìn)行分類,識(shí)別率為92%;Spanhlol等[5]于2015年提出來源于82名患者的7 909例乳腺癌組織病理學(xué)圖像數(shù)據(jù)集BreaKHis,并且可從提供的網(wǎng)址公開獲得,采用局部二值模式(LBP)等6種特征描述子,利用支持向量機(jī)、隨機(jī)森林等不同分類算法,使得準(zhǔn)確率達(dá)到80%~85%。上述研究方法由于數(shù)據(jù)集不同導(dǎo)致實(shí)驗(yàn)結(jié)果不具有可比性,在人工設(shè)計(jì)及特征提取時(shí)也存在過程復(fù)雜的問題。

      (2)用深度學(xué)習(xí)進(jìn)行乳腺癌病理圖像分類。人工智能的發(fā)展,使得越來越多人了解卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)。近幾年,它在語音識(shí)別、信號(hào)處理、機(jī)器翻譯、計(jì)算機(jī)視覺等領(lǐng)域獲得了廣泛應(yīng)用[6],使得CNN應(yīng)用于醫(yī)學(xué)圖像成為可能[7]。此外,深度學(xué)習(xí)實(shí)現(xiàn)數(shù)據(jù)自主學(xué)習(xí)特征,解決了人工設(shè)計(jì)提取特征造成的時(shí)間長(zhǎng)及復(fù)雜性高等問題。

      2016年,Spanhol等[8]使用 AlexNet網(wǎng)絡(luò),提出一種基于圖像塊的提取方法訓(xùn)練CNN,并使用不同的融合策略分類,其識(shí)別率比傳統(tǒng)算法高6%。Bayramoglu等[9]提出兩個(gè)不同的架構(gòu):?jiǎn)我蝗蝿?wù)用于預(yù)測(cè)惡性腫瘤,多任務(wù)CNN用于預(yù)測(cè)惡性腫瘤并且同時(shí)放大圖像倍數(shù),其識(shí)別率約83%。2017年,Wei等[10]提出一種BICNN的深度卷積神經(jīng)網(wǎng)絡(luò)模型,增加了網(wǎng)絡(luò)深度和寬度,提出完全保留癌變區(qū)域的圖像邊緣特征的數(shù)據(jù)增強(qiáng)方法,使得準(zhǔn)確率達(dá)到97%。2019年,王恒等[11]以ResNet50為基礎(chǔ)框架,利用遷移學(xué)習(xí)設(shè)計(jì)了一個(gè)乳腺癌圖像二分類模型,正確率可達(dá)97.4%,并具有泛化好、深度強(qiáng)、精度高、收斂快等優(yōu)點(diǎn)。

      由上可知,采用BreaKHis數(shù)據(jù)集作為研究乳腺癌病理圖像的主要數(shù)據(jù)集,一方面識(shí)別率雖有較大提升,但針對(duì)BreaKHis數(shù)據(jù)集8種疾病的多樣性,簡(jiǎn)單的良性—惡性分類已經(jīng)不能滿足醫(yī)生實(shí)際診斷需要。

      針對(duì)上述問題,本文采用深層次混合深度卷積神經(jīng)網(wǎng)絡(luò),它可以自動(dòng)進(jìn)行八分類,不僅能判斷良性惡性,更能確定是哪一種良性或惡性腫瘤,從而更好地為醫(yī)生提供參考。同時(shí),采用數(shù)據(jù)增強(qiáng)和遷移學(xué)習(xí)防止過擬合,提高圖像識(shí)別率,以適應(yīng)高標(biāo)準(zhǔn)的實(shí)際臨床需求。

      1 研究方法

      與目前常用的深度卷積神經(jīng)網(wǎng)絡(luò)模型GoogLeNet[12]、ResNet50[13]等對(duì)比,本文使用Incetion-Resnet-V2[14]網(wǎng)絡(luò)作為基礎(chǔ)架構(gòu),如圖1所示。模型主要包括:數(shù)據(jù)讀取、數(shù)據(jù)增強(qiáng)及標(biāo)準(zhǔn)化處理、加載預(yù)訓(xùn)練網(wǎng)絡(luò)、替換最終層、訓(xùn)練網(wǎng)絡(luò)、對(duì)結(jié)果進(jìn)行預(yù)測(cè)統(tǒng)計(jì)等內(nèi)容。

      首先在源數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練得到模型的權(quán)重參數(shù),其次用得到的模型權(quán)重參數(shù)初始化新模型的殘差網(wǎng)絡(luò)層,然后在目標(biāo)數(shù)據(jù)集上進(jìn)行微調(diào)訓(xùn)練得到最終模型,最后在測(cè)試集上檢驗(yàn)?zāi)P托阅堋?/p>

      1.1 Incetion-ResNet-V2網(wǎng)絡(luò)

      2016年,Google團(tuán)隊(duì)發(fā)布Inception-ResNet-V2卷積神經(jīng)網(wǎng)絡(luò),在ILSVRC圖像分類基準(zhǔn)測(cè)試中拿下了最好成績(jī)。它從微軟的殘差網(wǎng)絡(luò)(ResNet)中得到啟發(fā),由Inception V3模型變化而來。殘差連接(Residual Connections)可以讓Shortcuts存在于模型中,從而簡(jiǎn)化Inception塊,可以讓更深的神經(jīng)網(wǎng)絡(luò)訓(xùn)練成為可能。網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

      Inception-ResNet V2設(shè)計(jì)思想如下:

      由Inception V4和ResNet 相結(jié)合;3種Inception-ResNet塊加入直連,使得通道多樣;比Inception V4參數(shù)少、收斂快;比Inception-ResNet -V1塊內(nèi)卷積核的通道更多樣化。核心結(jié)構(gòu)為Stem塊。

      3種Inception-ResNet塊:卷積核通道數(shù)與Inception V4各模塊內(nèi)的數(shù)目相比減少了,但整體寬度在模塊升維后相同(相比之下參數(shù)更少);它們都加入了直連結(jié)構(gòu)使得其更深、收斂更快;最后都用1[×]1拓寬維度。

      1.1.1 Inception

      這里存在一個(gè)重要思想,即讓網(wǎng)絡(luò)自己決定兩個(gè)過程:一是決定使用過濾器,二是決定是否池化,而不再像從前那樣人為確定參量。可人為在網(wǎng)絡(luò)中添加所有參數(shù)的可能值,將它們的輸出連接起來,讓網(wǎng)絡(luò)自主學(xué)習(xí),得知它需要哪些過濾器的組合,具體需要什么樣的參數(shù)。為了調(diào)整Inception網(wǎng)絡(luò)防止過擬合發(fā)生,網(wǎng)絡(luò)中設(shè)有Softmax分支,這樣做的目的在于正常預(yù)測(cè)圖片分類,即使在進(jìn)行特征計(jì)算時(shí)出現(xiàn)其它層,比如隱藏其中的單元或中間層參與進(jìn)來時(shí),也不會(huì)耽誤結(jié)果產(chǎn)生。

      1.1.2 ResNet的優(yōu)勢(shì)

      ResNet殘差網(wǎng)絡(luò)可認(rèn)為是殘差塊的堆疊,這樣可以將網(wǎng)絡(luò)設(shè)計(jì)得很深。殘差網(wǎng)絡(luò)和普通網(wǎng)絡(luò)的不同點(diǎn)在于,在進(jìn)行非線性變化前,部分?jǐn)?shù)據(jù)復(fù)制一份累加后進(jìn)行了非線性變換。理想狀態(tài)下,隨著網(wǎng)絡(luò)深度的增加,訓(xùn)練誤差理應(yīng)逐漸縮小,而ResNet能夠做到隨著網(wǎng)絡(luò)深度的增加,訓(xùn)練中產(chǎn)生的誤差縮小。對(duì)于CNN而言,常用的優(yōu)化算法為梯度下降等。網(wǎng)絡(luò)深度逐漸增加,會(huì)呈現(xiàn)訓(xùn)練誤差先減后增的情況。

      1.1.3 1[×]1卷積

      當(dāng)1[×]1卷積[15]出現(xiàn)時(shí),其主要作用是提高或降低通道數(shù),也即厚度,卻不改變圖片的寬和高。改變的通道個(gè)數(shù)取決于使用的過濾器個(gè)數(shù),將原來的通道數(shù)改為過濾器個(gè)數(shù),以減少運(yùn)算成本。比如,一張227[×]227且厚度為50的圖片在20個(gè)過濾器上進(jìn)行1[×]1的卷積,則結(jié)果自然變成227[×]227[×]20。另一個(gè)作用是非線性也被加入其中。先經(jīng)過CNN再經(jīng)過激勵(lì)層, 在前一層上進(jìn)行1[×]1的卷積,以提升網(wǎng)絡(luò)表達(dá)能力,則稱之為添加了非線性激勵(lì)(Non-linear Activation)。提升非線性特性要注意保證一個(gè)前提:不損失分辨率,也即維持特征圖尺度不變,最后結(jié)果是讓網(wǎng)絡(luò)更深。

      1.2 數(shù)據(jù)增強(qiáng)

      需要大量帶有標(biāo)記的樣本,這是防止過擬合情況產(chǎn)生的有效途徑,獲得醫(yī)學(xué)圖像通常需要高昂的代價(jià)且很難實(shí)現(xiàn),想要得到經(jīng)過醫(yī)生標(biāo)注的醫(yī)學(xué)圖像更是難上加難。本文在數(shù)據(jù)集BreaKHis基礎(chǔ)上,采用數(shù)據(jù)增強(qiáng)[16]加以實(shí)現(xiàn)。使用增強(qiáng)的圖像數(shù)據(jù)存儲(chǔ)可自動(dòng)調(diào)整訓(xùn)練圖像的大小[17]。指定對(duì)訓(xùn)練圖像額外執(zhí)行的增強(qiáng)操作:沿垂直軸隨機(jī)翻轉(zhuǎn)訓(xùn)練圖像,以及在水平和垂直方向上隨機(jī)平移訓(xùn)練圖像最多30個(gè)像素。

      1.3 Softmax分類器

      Softmax大部分在多分類過程中使用,多個(gè)神經(jīng)細(xì)胞的輸出映射到(0,1)區(qū)間內(nèi),形成一個(gè)概率。在全連接層輸入的特征矩陣接收到后,其輸出的是輸入所對(duì)應(yīng)的每個(gè)類別上的概率,通過這一過程實(shí)現(xiàn)多分類[18]。假設(shè)輸入圖像數(shù)目為[N],即為[xi,yimi=1],[yi∈1,2?m]標(biāo)記為每個(gè)圖像,模型中最后輸出種類數(shù)記為[mm2]。本文進(jìn)行乳腺癌八分類,因此m的值為8。[xi]為給定的輸入圖像,估計(jì)假定函數(shù)[fθxi]對(duì)應(yīng)類別的概率值[Pyi=j|xi] ?。則函數(shù)表示如式(1)所示。

      1.4 遷移學(xué)習(xí)

      遷移學(xué)習(xí)[19]思想類似于人們常說的舉一反三,本文使用已有機(jī)器學(xué)習(xí)方法解決相關(guān)實(shí)際問題。這里所說的相關(guān)是指不同領(lǐng)域但富有關(guān)聯(lián)性,目的是打通知識(shí)遷移性,解決實(shí)際問題中標(biāo)簽樣本少甚至由于現(xiàn)實(shí)條件下的各種情況導(dǎo)致標(biāo)簽樣本不存在的情況。其基本思路是使用預(yù)訓(xùn)練,將現(xiàn)有大型數(shù)據(jù)集上訓(xùn)練好的權(quán)重值作為初始化值,將它遷移到實(shí)際問題的數(shù)據(jù)集上進(jìn)行再次訓(xùn)練并且微調(diào)參數(shù)。相當(dāng)于在預(yù)訓(xùn)練中進(jìn)行學(xué)習(xí)而得到一些基本特征,可能是顏色,也可以是邊框特征,總之這種方法可以提高準(zhǔn)確率并節(jié)省訓(xùn)練時(shí)間[20]。本文使用ImageNet數(shù)據(jù)集將預(yù)訓(xùn)練好的Inception-ResNetV2網(wǎng)絡(luò)模型參數(shù)遷移到BreaKHis上進(jìn)行微調(diào)訓(xùn)練。

      2 實(shí)驗(yàn)

      2.1 數(shù)據(jù)集

      乳腺癌活檢是醫(yī)生確診的重要步驟,醫(yī)療上常采取腫物切活檢獲得最終診斷。針對(duì)這項(xiàng)技術(shù),常見方法分為4類:細(xì)針穿刺、核心穿刺活檢、真空輔助和外科(開放)活組織檢查(SOB)。通過SOB方法收集數(shù)據(jù)集中存在的樣品,也稱為部分乳房切除術(shù)或切除活組織檢查。本文所用的數(shù)據(jù)集BreaKHis[5]由SPANHOL與巴西巴拉那P&D實(shí)驗(yàn)室(病理解剖學(xué)和細(xì)胞病理學(xué))合作構(gòu)建。從82名患者(良性患者24人,惡性患者58人)收集的乳腺腫瘤組織顯微圖像,共7 909張,包含4種不同的放大因子(40X、100X、200X和400X)。內(nèi)含2 480個(gè)良性乳腺腫瘤圖像和5 429個(gè)惡性乳腺癌癥圖像(3通道RGB,每個(gè)通道8位深度,700×460像素,PNG格式),詳情如表1所示。

      根據(jù)腫瘤細(xì)胞在顯微鏡下的外觀,可以將良性和惡性乳腺腫瘤分為不同類型。 各種類型的乳腺腫瘤可具有不同的預(yù)后和治療意義。該數(shù)據(jù)集目前包含4種組織學(xué)上不同良性乳腺腫瘤,一般有較好機(jī)會(huì)治療。它們分別為:纖維腺瘤(F)、腺?。ˋ)、管狀腺瘤(TA)、葉狀腫瘤(PT)。4種惡性腫瘤(乳腺癌),均以癌癥被人們所知,它們分別為:癌(DC)、粘液癌(MC)、乳頭狀癌(PC)、小葉癌(LC)。

      每個(gè)圖像文件名存儲(chǔ)關(guān)于圖像本身的信息:程序活組織檢查方法、腫瘤類別、腫瘤類型、患者識(shí)別和放大因子。 例如,SOB_B_TA-14-4659-40-001.png是放大因子40X的圖像1,其是管狀腺瘤的良性腫瘤,原始來自載玻片14-4659,其通過程序SOB收集。

      2.2 訓(xùn)練策略

      從本實(shí)驗(yàn)中將數(shù)據(jù)集按倍數(shù)分為4組完成對(duì)BreaKHis數(shù)據(jù)集的八分類,將它隨機(jī)劃分為3個(gè)部分,即驗(yàn)證集(20%)、測(cè)試集(20%)和訓(xùn)練集(60%),并且采取相同的預(yù)處理操作,劃分為網(wǎng)絡(luò)可以接受的輸入299[×]299×3大小,以保證驗(yàn)證和測(cè)試結(jié)果的準(zhǔn)確性,并保存在data_set_split_8.m文件中。對(duì)網(wǎng)絡(luò)進(jìn)行模型訓(xùn)練和參數(shù)學(xué)習(xí)并在訓(xùn)練集中完成,以40X為例:學(xué)習(xí)率為0.001,最大迭代為2 390,驗(yàn)證集頻率為100,最小的批大小為5,訓(xùn)練時(shí)間達(dá)3小時(shí)左右。在驗(yàn)證集中主要完成以下步驟:優(yōu)化模型,在訓(xùn)練過程中對(duì)模型進(jìn)行測(cè)試,根據(jù)測(cè)試結(jié)果進(jìn)行微調(diào);提升測(cè)試模型的識(shí)別和泛化能力并在測(cè)試集中完成。本實(shí)驗(yàn)對(duì)訓(xùn)練集進(jìn)行了數(shù)據(jù)增強(qiáng),驗(yàn)證集和測(cè)試集用于測(cè)試實(shí)驗(yàn)效果;加載Inception-ResNet-V2網(wǎng)絡(luò),并替換最終網(wǎng)絡(luò)層,使得網(wǎng)絡(luò)分類個(gè)數(shù)為8;開始訓(xùn)練,并微調(diào)參數(shù),使得實(shí)驗(yàn)結(jié)果最優(yōu)。訓(xùn)練效果如圖3和圖4所示(彩圖掃描OSID碼可見,下文同),在迭代2 390次后,Loss值為1.31。

      2.3 硬件及軟件平臺(tái)

      實(shí)驗(yàn)中所用硬件配置為:64 位Windows操作系統(tǒng), 16GB內(nèi)存CPU,GEFORCE GTX1050ti顯卡。軟件方面:使用2019版Matlab以及圖像處理工具箱。

      2.4 實(shí)驗(yàn)結(jié)果及分析

      本實(shí)驗(yàn)中使用正確率ACC為評(píng)價(jià)指標(biāo),ACC的值越大,代表模型的預(yù)測(cè)和真實(shí)情況越接近,模型性能越好。假定[N]代表所有測(cè)試集圖像數(shù)目,[Nq]代表網(wǎng)絡(luò)判斷正確次數(shù)。則ACC的表達(dá)式為式(3)。

      由圖5可知,在40倍的實(shí)驗(yàn)測(cè)試數(shù)據(jù)中,綠色對(duì)角線上顯示為正確分類的圖像數(shù)目,而旁邊紅色的數(shù)據(jù)顯示為網(wǎng)絡(luò)判斷錯(cuò)誤的圖像數(shù)目,混淆矩陣邊緣數(shù)據(jù)為根據(jù)測(cè)試數(shù)據(jù)計(jì)算的準(zhǔn)確率。以良性病benign_adenosis為例:測(cè)試集中共23張圖片,網(wǎng)絡(luò)正確分類圖像數(shù)目為19張,錯(cuò)誤分類成benign_fibroadenoma為2張,占測(cè)試集總數(shù)的0.5%,被錯(cuò)分成malignant_lobular_carcinoma的數(shù)目為2張,占總測(cè)試集的0.5%;正確分類占真正實(shí)例的82.6%,錯(cuò)誤分類比例占17.4%。同理可知其余7類結(jié)果,得出最后準(zhǔn)確率為86.7%。同理,在其它倍數(shù)上也進(jìn)行了實(shí)驗(yàn)匯總,得到如表2所示結(jié)果。

      在4種放大倍數(shù)上對(duì)數(shù)據(jù)集進(jìn)行分類,實(shí)驗(yàn)結(jié)果表明,本文使用的Inception-ResNet-V2深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)效果在40X~200X時(shí)效果優(yōu)于其它兩種近幾年使用較多的卷積神經(jīng)網(wǎng)絡(luò)。但400X環(huán)境下深層次網(wǎng)絡(luò)較復(fù)雜且層數(shù)較多,導(dǎo)致實(shí)驗(yàn)結(jié)果不如ResNet50效果好,可見放大倍數(shù)對(duì)實(shí)驗(yàn)結(jié)果的影響。

      4 結(jié)語

      本文使用以Inception-ResNet-V2為架構(gòu)的深度卷積神經(jīng)網(wǎng)絡(luò),將乳腺癌病理圖像數(shù)據(jù)集分成8種不同類型的良惡性乳腺腫瘤。利用數(shù)據(jù)增強(qiáng)和遷移學(xué)習(xí)方法擴(kuò)充數(shù)據(jù)量,從而解決因標(biāo)記樣本過少帶來的過擬合問題。從實(shí)驗(yàn)結(jié)果可以看出,本文提出的方法具有較高的識(shí)別率,較其它良惡性腫瘤二分類能夠更好地為臨床醫(yī)療提供幫助。同時(shí)本文也存在不足,主要是公開可用的實(shí)驗(yàn)數(shù)據(jù)量少。因此,今后的改進(jìn)方向是使用更多的醫(yī)學(xué)真實(shí)數(shù)據(jù)進(jìn)行測(cè)試,并采用更好的卷積神經(jīng)網(wǎng)絡(luò)以提高識(shí)別率。

      參考文獻(xiàn):

      [1] STEWART B,WILD C P. World cancer report 2014[M]. Lyon:World Health Organization,2014.

      [2] 何雪英,韓忠義,魏本征. 基于深度學(xué)習(xí)的乳腺癌病理圖像自動(dòng)分類[J]. 計(jì)算機(jī)工程與應(yīng)用,2018,54(12):126-130.

      [3] KOWAL M,F(xiàn)ILIPCZUK P,OBUCHOWICZ A,et al. Computer- aided diagnosis of breast cancer based on fine needle biopsy microscopic images[J]. Computers in Biology and Medicine,2013,43(10):1563-1572.

      [4] ZHANG Y,ZHANG B,COENEN F,et al. One-class ?kernel sub-space ensemble for medical image ?classification[J]. EUR- ASIP ?Journal ?on ?Advances ?in ?Signal ?Processing,2014(1):17.

      [5] SPANHOL F A,OLIVEIRA L S,PETITJEAN C,et al. A dataset for breast cancer histopathological image classification[J]. IEEE Transactions on Biomedical Engineering,2016,63(7):1455-1462.

      [6] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks[C]. Advances in Neural Information Processing Systems,2012:1097-1105.

      [7] CHEN H,DOU Q,WANG X,et al. Mitosis detection in breast cancer histology images via deep cascaded networks[C]. Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence,2016:1160-1166.

      [8] SPANHOLF A ,OLIVEIRA L S,PETITJEAN C,et al. Breast cancer histopathological image classification using convolutional neural networks[C]. Vancouver:IEEE International Joint Conference on Neural Networks,2016.

      [9] BAYRAMOGLU N,KANNALA J,HEIKKILA J. Deep learning for magnification independent breast cancer histopathology image classification[C]. International Conference on Pattern Recognition(ICPR),2016:2441-2446.

      [10] WEI B,HAN Z,HE X,et al. Deep learning model based breast cancer histopathological image classification[C]. Chengdu: IEEE International Conference on Cloud Computing & Big Data Analysis,2017.

      [11] 王恒,李霞,劉曉芳,等. 基于Resnet50網(wǎng)絡(luò)的乳腺癌病理圖像分類研究[J]. 中國(guó)計(jì)量大學(xué)學(xué)報(bào),2019,30(1):72-77.

      [12] SZEGEDY C,LIU W,JIA Y,et al. Going deeper with convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:1-9.

      [13] HE K,ZHANG ?X,REN S,et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:770-778.

      [14] SZEGEDY C,IOFFE S,VANHOUCKE V,et al. Inception-v4,Inception-ResNet and the impact of residual connections on learning[J]. ?ARXIV,2016:1-12.

      [15] SZEGEDY C,VANHOUCKE V,IOFFE S,et al. Rethinking the inception architecture for computer vision[C]. ?Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016: 2818-2826.

      [16] SHEN D,WU G,SUK H I. Deep learning in medical image analysis[J]. Annual Review of Biomedical Engineering,2017,19(1):221-248.

      [17] 劉棟, 李素, 曹志冬. 深度學(xué)習(xí)及其在圖像物體分類與檢測(cè)中的應(yīng)用綜述[J]. 計(jì)算機(jī)科學(xué), 2016(12):20-30.

      [18] 薛迪秀. 基于卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像癌變識(shí)別研究[D]. 合肥:中國(guó)科學(xué)技術(shù)大學(xué),2017.

      [19] SHIN H C,ROTH H R,GAO M,et al. Deep convolutional neural networks for computer-aided detection:CNN architectures,dataset characteristics and transfer learning[J]. IEEE Transactions on Medical Imaging,2016,35(5):1285-1298.

      [20] BECKER A S,MUELLER M,STOFFEL E,et al. Classification of breast cancer in ultrasound imaging using a generic deep learning analysis software: a pilot study[J]. ?Br J Radiol,2018,91:20170576.

      (責(zé)任編輯:孫 娟)

      猜你喜歡
      數(shù)據(jù)增強(qiáng)遷移學(xué)習(xí)
      一種算法對(duì)于深層神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度的提升
      基于深度學(xué)習(xí)網(wǎng)絡(luò)的乳腺癌圖片分類研究
      基于卷積神經(jīng)網(wǎng)絡(luò)的森林火災(zāi)煙霧探測(cè)算法研究
      基于深度網(wǎng)絡(luò)的車輛前后端圖像識(shí)別方法研究
      基于雙卷積神經(jīng)網(wǎng)絡(luò)的鐵路集裝箱號(hào)OCR
      基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類研究
      遷移學(xué)習(xí)研究綜述
      從認(rèn)知角度探討大學(xué)英語網(wǎng)絡(luò)教學(xué)模式
      基于多特征融合的跨域情感分類模型研究
      奇異值分解與移移學(xué)習(xí)在電機(jī)故障診斷中的應(yīng)用
      特克斯县| 安徽省| 平原县| 武乡县| 高密市| 临潭县| 晋江市| 隆德县| 荣成市| 都安| 喀喇沁旗| 九江县| 廉江市| 宁武县| 濉溪县| 铜鼓县| 荥经县| 九龙县| 峨眉山市| 隆林| 永川市| 商南县| 太保市| 石棉县| 新干县| 婺源县| 承德县| 房山区| 新竹县| 乐业县| 盐亭县| 宁武县| 上林县| 万山特区| 海南省| 司法| 纳雍县| 郸城县| 贵溪市| 博白县| 清水县|