• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于深度學(xué)習(xí)的視網(wǎng)膜病變圖像識(shí)別方法

      2021-01-15 08:31:44連先峰劉志勇韓雨晨史國(guó)梅
      關(guān)鍵詞:圖像識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)卷積

      連先峰 劉志勇,2* 張 琳 韓雨晨 史國(guó)梅

      1(東北師范大學(xué)信息科學(xué)與技術(shù)學(xué)院 吉林 長(zhǎng)春 130117) 2(東北師范大學(xué)教育部數(shù)字化學(xué)習(xí)支撐技術(shù)工程研究中心 吉林 長(zhǎng)春 130117) 3(吉林大學(xué)軟件學(xué)院 吉林 長(zhǎng)春 130012)

      0 引 言

      2018年,國(guó)際糖尿病聯(lián)盟(IDF)發(fā)布的第8版糖尿病地圖數(shù)據(jù)以及《2018—2024年中國(guó)糖尿病藥物行業(yè)分析與投資決策咨詢(xún)報(bào)告》顯示:2017年,全球約有4.25億人患有糖尿病,其中我國(guó)約為1.14億,位列第一。2017年“中國(guó)糖網(wǎng)篩防工程”研究中心調(diào)研報(bào)告指出,我國(guó)糖尿病人群中糖網(wǎng)(糖尿病性視網(wǎng)膜)患病率為25%~47%,平均在30%左右,這也意味著中國(guó)有3 000萬(wàn)~3 500萬(wàn)人口患此疾病。研究表明,糖尿病性視網(wǎng)膜患者失明概率比正常人高25倍。由于發(fā)病初期眼底視網(wǎng)膜血管圖像特征變化不明顯,且存在人工識(shí)別病變圖像費(fèi)時(shí)費(fèi)力、準(zhǔn)確率不高、主觀性強(qiáng)等問(wèn)題,以至于該疾病的篩查率不足10%,延誤了患者的最佳治療時(shí)機(jī)。針對(duì)以上問(wèn)題,我們迫切需要建立一個(gè)糖尿病性視網(wǎng)膜病變圖像識(shí)別模型,高效且準(zhǔn)確地識(shí)別病變圖像,讓患者在發(fā)病初期得到有效治療。

      從2012年至今,深度學(xué)習(xí)[1]在世界上獲得突破性進(jìn)展,其中圖像識(shí)別成為廣大專(zhuān)家和學(xué)者的熱門(mén)研究點(diǎn)。李瓊等[2]以Alex-Net[3]網(wǎng)絡(luò)模型為基礎(chǔ),通過(guò)在每個(gè)卷積層和全連接層前引入批歸一化層得到結(jié)構(gòu)更復(fù)雜的卷積神經(jīng)網(wǎng)絡(luò)BN-Net。該模型將糖尿病性視網(wǎng)膜圖像按照病變程度分為5類(lèi),準(zhǔn)確率達(dá)到93%。但該方法在圖像預(yù)處理、特征提取和圖像分類(lèi)3個(gè)階段中并未形成一個(gè)完整的系統(tǒng),且Alex-Net網(wǎng)絡(luò)結(jié)構(gòu)也有待進(jìn)一步優(yōu)化。丁蓬莉等[4]通過(guò)設(shè)計(jì)緊湊的Compact-Net網(wǎng)絡(luò)模型,分類(lèi)指標(biāo)達(dá)到87%。但此網(wǎng)絡(luò)結(jié)構(gòu)對(duì)病變圖像特征提取不完整,沒(méi)有融合各網(wǎng)絡(luò)層特征,且魯棒性不高。梁平等[6]綜述了基于局部病灶、全局圖像的識(shí)別方法,同時(shí)分析了常用數(shù)據(jù)集、各類(lèi)方法優(yōu)缺點(diǎn)和識(shí)別性能,但并未涉及對(duì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化。曹桂銘等[7]提出了基于棧式稀疏自編碼器的眼底圖像特征提取及圖像識(shí)別的方法,該方法采用逐層貪婪訓(xùn)練法從無(wú)標(biāo)簽的數(shù)據(jù)集中學(xué)習(xí)到數(shù)據(jù)的內(nèi)部特征,將學(xué)習(xí)到的特征作為Softmax分類(lèi)器的輸入,識(shí)別精度達(dá)到89%。但文中數(shù)據(jù)集容量較小,使用機(jī)器學(xué)習(xí)訓(xùn)練出來(lái)的模型自適應(yīng)性不強(qiáng)。何雪英等[8]采用遷移學(xué)習(xí)優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),識(shí)別率達(dá)到91%。但遷移學(xué)習(xí)具有難于求解、容易發(fā)生過(guò)適配等問(wèn)題。

      針對(duì)以上問(wèn)題,本文提出一種基于特征融合的深度學(xué)習(xí)圖像識(shí)別方法。主要工作有以下3個(gè)方面:

      (1) 構(gòu)建了包含128 339幅眼底圖像的數(shù)據(jù)集,數(shù)據(jù)集初始來(lái)源于5個(gè)公開(kāi)眼底圖像數(shù)據(jù)庫(kù),共計(jì)30 571幅眼底圖像。初始數(shù)據(jù)集經(jīng)擴(kuò)充、統(tǒng)一化處理成為新的數(shù)據(jù)集。在新數(shù)據(jù)集上訓(xùn)練模型,使模型獲得良好的魯棒性和泛化能力。

      (2) 優(yōu)化了網(wǎng)絡(luò)結(jié)構(gòu),并調(diào)整網(wǎng)絡(luò)權(quán)重初始化的取值和學(xué)習(xí)率,提升模型的識(shí)別性能。

      (3) 設(shè)置了對(duì)比實(shí)驗(yàn),驗(yàn)證該網(wǎng)絡(luò)模型相較于Alex-Net等常規(guī)模型,能夠表現(xiàn)出更好的識(shí)別效果。

      1 數(shù)據(jù)集與預(yù)處理

      1.1 數(shù)據(jù)來(lái)源

      實(shí)驗(yàn)所用初始數(shù)據(jù)來(lái)自一些大學(xué)以及競(jìng)賽平臺(tái),主要包含5個(gè)數(shù)據(jù)集,共計(jì)眼底圖像30 571幅,其中正常圖像13 615幅,病變圖像16 956幅,詳見(jiàn)表1。

      表1 初始數(shù)據(jù)集

      初始數(shù)據(jù)集的分辨率、顏色、格式、拍攝相機(jī)、拍攝角度等屬性信息如表2所示。

      表2 初始數(shù)據(jù)集屬性表

      1.2 數(shù)據(jù)預(yù)處理

      由于初始數(shù)據(jù)分辨率大小不一,為適應(yīng)模型訓(xùn)練,使用OpenCV對(duì)眼底圖像作統(tǒng)一化和增強(qiáng)化處理。以下為具體操作步驟:

      (1) 使用OpenCV中resize()方法將眼底圖像分辨率統(tǒng)一縮小為64×64×3。

      (2) 將數(shù)據(jù)集分為兩大部分,分別記為Data1和DataFinal。其中Data1占80%,向上取整約有24 457幅眼底圖像,用于擴(kuò)充數(shù)據(jù)集;DataFinal占20%,約6 114幅眼底圖像,用于模型最終測(cè)試。

      (3) 將Data1使用OpenCV中的getAffineTransform函數(shù)、getPerspectiveTransform函數(shù)和warpPerspective函數(shù)進(jìn)行仿射變換,使用flip函數(shù)上下左右翻轉(zhuǎn)等幾種方式將數(shù)據(jù)集擴(kuò)充為原來(lái)的5倍,得到新的Data1,包含122 285幅眼底圖像。

      (4) 將Data1分為兩部分,分別記為DataTrain和DataTest。其中:DataTrain占80%,向上取整有97 828幅眼底圖像,用于訓(xùn)練模型;DataTest占20%,共24 457幅眼底圖像,用于測(cè)試模型。表3是分類(lèi)后的實(shí)驗(yàn)數(shù)據(jù)集。

      表3 實(shí)驗(yàn)數(shù)據(jù)集

      圖1是經(jīng)過(guò)處理后的部分圖像示例。

      (a) 正常圖像 (b) 病變圖像 (c) 加噪圖像 (d) 增強(qiáng)亮度圖像 (e) 仿射變換圖像圖1 部分圖像數(shù)據(jù)集

      2 實(shí)驗(yàn)方法

      2.1 反向傳播算法

      反向傳播算法[9]是目前用來(lái)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)[10](Artificial Neural Network,ANN)的最常用且最有效的算法。其主要思想是:(1) 將DataTrain數(shù)據(jù)輸入到ANN的輸入層,經(jīng)過(guò)隱藏層,最后到達(dá)輸出層并輸出結(jié)果;(2) 計(jì)算輸出結(jié)果與真實(shí)值之間的誤差,并將該誤差從輸出層向隱藏層反向傳播,直至輸入層;(3) 在反向傳播的過(guò)程中,根據(jù)誤差調(diào)整各種權(quán)重的值。迭代上述過(guò)程,直至收斂。

      (1)

      (2)

      (3)

      用hW,b(x)計(jì)算輸出結(jié)果:

      (4)

      給定一個(gè)包含m個(gè)樣本數(shù)據(jù)集M={(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))},則神經(jīng)網(wǎng)絡(luò)整體損失函數(shù)可表示為:

      (5)

      式中:W、b分別表示權(quán)重參數(shù)和偏置項(xiàng);λ為權(quán)重衰減因子。使用隨機(jī)梯度下降算法[11]更新網(wǎng)絡(luò)中的權(quán)重和偏置項(xiàng),公式如下:

      (6)

      (7)

      2.2 實(shí)驗(yàn)設(shè)計(jì)

      2.2.1模型設(shè)計(jì)

      鑒于VGG-16[12]網(wǎng)絡(luò)結(jié)構(gòu)規(guī)整、參數(shù)量較少、分類(lèi)性能較好等特點(diǎn),實(shí)驗(yàn)以VGG-16為基礎(chǔ)模型,通過(guò)融合各卷積層上提取的特征,進(jìn)一步優(yōu)化模型。圖2為改進(jìn)后的網(wǎng)絡(luò)模型。

      圖2 優(yōu)化后的實(shí)驗(yàn)?zāi)P?/p>

      特征融合有concat和add兩種方式:concat方式是將圖像的通道數(shù)合并,即圖像本身的特征數(shù)(通道數(shù))增加,特征信息沒(méi)有增加;add方式是將圖像對(duì)應(yīng)的特征信息相加,通道數(shù)不變,之后進(jìn)一步執(zhí)行卷積操作。由于每個(gè)輸出上的卷積核各自獨(dú)立,可只看單個(gè)通道的輸出。給定兩路通道分別記為X1,X2,…,XC和Y1,Y2,…,YC,兩種特征融合方式的計(jì)算公式為:

      (8)

      (9)

      式中:K表示卷積核;*表示卷積。由于concat相比add方式需要更多的參數(shù),且特征融合之后生成的維度更高,計(jì)算量較大,負(fù)載重,故在二者優(yōu)勢(shì)相當(dāng)?shù)那闆r下,本實(shí)驗(yàn)采用add方式的特征融合。

      Softmax層的分類(lèi)過(guò)程表示為:

      (10)

      2.2.2網(wǎng)絡(luò)參數(shù)

      模型中有5個(gè)Convolution層、5個(gè)Maxpool層、1個(gè)Feature Fusion層、2個(gè)Full Connection層和1個(gè)Softmax層,輸入圖像大小為64×64×3。其中Cov1、Cov2、Cov3、Cov4、Cov5中的Filter個(gè)數(shù)分別為64、128、256、512、512。Filter尺寸為3×3×3,F(xiàn)ilter stride為1。Maxpool層中Filter尺寸為2×2×3,F(xiàn)ilter stride為2。2個(gè)Full connection層的維度分別為8 192和4 096。Softmax層的輸出分為2類(lèi),分別代表正常眼底圖像和病變眼底圖像。表4為模型中參數(shù)變化情況。

      表4 實(shí)驗(yàn)?zāi)P蛥?shù)

      2.2.3模型優(yōu)化設(shè)計(jì)

      為防止網(wǎng)絡(luò)模型訓(xùn)練過(guò)程中易出現(xiàn)過(guò)擬合的問(wèn)題,實(shí)驗(yàn)采用Dropout技術(shù)[13]。Dropout的工作原理是按照一定的概率隨機(jī)斷開(kāi)一些網(wǎng)絡(luò)連接,保留網(wǎng)絡(luò)層的權(quán)重。由于被斷開(kāi)的網(wǎng)絡(luò)連接的輸出值為0,所以該連接相當(dāng)于被舍棄,達(dá)到降低模型過(guò)擬合的目的。網(wǎng)絡(luò)計(jì)算過(guò)程如下:

      Youtput=f(Xinput×Bernoulli(p)+bbias)

      (11)

      式中:Xinput、Youtput分別表示網(wǎng)絡(luò)層的輸入和輸出;Bernoulli(p)表示以概率p隨機(jī)生成的由0和1組成的向量;bbias表示偏置項(xiàng)。本實(shí)驗(yàn)?zāi)P驮贔C1和FC2兩個(gè)全連接層上使用了Dropout技術(shù),根據(jù)文獻(xiàn)[13]中的結(jié)論,Dropout丟失率p的取值范圍為0.10至0.50,被保留下來(lái)神經(jīng)元的概率為q=1-p。實(shí)驗(yàn)經(jīng)過(guò)多次嘗試,設(shè)置p=0.30時(shí)效果最佳。

      ReLU是神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù),可以將網(wǎng)絡(luò)層計(jì)算的線(xiàn)性關(guān)系轉(zhuǎn)換為非線(xiàn)性,從而構(gòu)建真正意義上的神經(jīng)網(wǎng)絡(luò),且具有收斂快、泛化性好等特點(diǎn)。公式如下:

      (12)

      2.2.4模型訓(xùn)練步驟

      基于VGG-16的特征融合眼底病變圖像識(shí)別模型訓(xùn)練步驟如下:

      1) 輸入預(yù)處理之后分辨率為64×64×3的標(biāo)準(zhǔn)眼底圖像,并初始化網(wǎng)絡(luò)權(quán)重、偏置項(xiàng)和學(xué)習(xí)率值。

      2) 設(shè)置1個(gè)訓(xùn)練樣本batch的值為30,最大迭代次數(shù)為3 000次,使用隨機(jī)梯度下降算法,不斷更新和的值。

      3) 根據(jù)反向傳播算法,計(jì)算輸出值與真實(shí)值之間的誤差值,不斷調(diào)整和的值。當(dāng)?shù)螖?shù)達(dá)到設(shè)置的最大次數(shù)時(shí),訓(xùn)練結(jié)束。

      4) 返回步驟2),循環(huán)訓(xùn)練模型,直到參數(shù)達(dá)到最優(yōu)。

      5) 將訓(xùn)練好的模型在眼底圖像測(cè)試集上做分類(lèi)測(cè)試,驗(yàn)證其識(shí)別效果。

      2.3 模型評(píng)估標(biāo)準(zhǔn)

      實(shí)驗(yàn)?zāi)P褪菍?shù)據(jù)集分為正常眼底圖像和病變眼底圖像,針對(duì)二分類(lèi)問(wèn)題,常用的模型評(píng)估標(biāo)準(zhǔn)是F1-score。該標(biāo)準(zhǔn)由準(zhǔn)確率precision和召回率recall通過(guò)進(jìn)一步計(jì)算得到,使模型評(píng)估更加穩(wěn)定、可靠。相關(guān)計(jì)算公式如下:

      (13)

      (14)

      (15)

      式中:TP表示正確分類(lèi)的正樣本的數(shù)量;FP表示負(fù)樣本中錯(cuò)誤標(biāo)記為正樣本的數(shù)量;FN表示正樣本中錯(cuò)誤標(biāo)記為負(fù)樣本的數(shù)量。F1-score的取值在[0,1]之間,值越大,分類(lèi)效果越好。

      3 實(shí) 驗(yàn)

      3.1 實(shí)驗(yàn)環(huán)境

      硬件配置:Inter(R) Core(TM) i7-3770 CPU@ 3.40 GHz;8 GB內(nèi)存;NVIDIA GeForce GTX1060 3 GB顯卡。

      軟件配置:Windows 10 64位操作系統(tǒng);Python 3.5.6編程語(yǔ)言;TensorFlow 1.0[14]深度學(xué)習(xí)框架。

      3.2 實(shí)驗(yàn)數(shù)據(jù)集

      根據(jù)數(shù)據(jù)預(yù)處理的結(jié)果,用于訓(xùn)練、測(cè)試、最終測(cè)試模型的DataTrain、DataTest和DataFinal分別包含97 828、24 457和6 114幅眼底圖像。

      3.3 實(shí)驗(yàn)結(jié)果與分析

      3.3.1Loss和Accuracy的變化情況

      實(shí)驗(yàn)過(guò)程中設(shè)置DataTrain的每個(gè)batch的值為30,最大迭代次數(shù)為3 000次。權(quán)重的初始化服從標(biāo)準(zhǔn)差為0.01、均值為0.1的截?cái)嗾龖B(tài)分布,避免了使用正態(tài)分布使權(quán)重出現(xiàn)過(guò)低或過(guò)高的情況。損失函數(shù)中權(quán)重衰減因子的值為0.1。本實(shí)驗(yàn)由于數(shù)據(jù)量較大,迭代次數(shù)較多,為加快損失函數(shù)的收斂速度,初始學(xué)習(xí)率為0.07。根據(jù)鐘志權(quán)等[15]在左右眼圖像識(shí)別中的結(jié)論,本實(shí)驗(yàn)使用Softmax分類(lèi)器。隨著迭代次數(shù)的不斷增多,Loss和Accuracy的變化曲線(xiàn)如圖3所示。

      圖3 Loss和Accuracy的變化曲線(xiàn)

      當(dāng)訓(xùn)練次數(shù)接近1 000輪時(shí),Loss的值從1.0降至0.18,Accuracy的值由0升至0.82,變化幅度最大,這是隨機(jī)梯度下降算法通過(guò)計(jì)算損失函數(shù)方向?qū)?shù)的值,不斷尋求最快下降點(diǎn)的緣故。當(dāng)訓(xùn)練次數(shù)在1 000輪和接近1 750輪之間時(shí),Loss和Accuracy的值出現(xiàn)小幅度波動(dòng),其波動(dòng)范圍分別在[0.06,0.27]和[0.73,0.94]之間,這是隨機(jī)梯度下降算法得到局部最優(yōu)解造成的。當(dāng)進(jìn)行1 750輪訓(xùn)練之后,損失函數(shù)Loss的值收斂于0.06左右,Accuracy的值也穩(wěn)定在0.94。以上結(jié)果表明,實(shí)驗(yàn)?zāi)P蛯?duì)圖像識(shí)別的效果較為理想。

      3.3.2模型對(duì)比實(shí)驗(yàn)

      模型在數(shù)據(jù)集DataTest和DataFinal上的識(shí)別情況如表5所示。

      表5 模型在測(cè)試數(shù)據(jù)集上的識(shí)別情況

      由表5可知,模型在DataTest和DataFinal上的識(shí)別準(zhǔn)確率分別為91.16%和94.41%,后者相較于前者高出3.25個(gè)百分點(diǎn)。原因是訓(xùn)練模型使用的是經(jīng)過(guò)5種方式擴(kuò)充后的數(shù)據(jù)集DataTrain,該數(shù)據(jù)集中眼底圖像特征較多,訓(xùn)練出的模型泛化能力更強(qiáng)。另外,實(shí)驗(yàn)通過(guò)融合各卷積層上的特征,使模型對(duì)眼底圖像的細(xì)微特征更加敏感,在特征相對(duì)較少的DataFinal上識(shí)別效果更優(yōu),魯棒性較好。

      為進(jìn)一步驗(yàn)證本實(shí)驗(yàn)算法的圖像識(shí)別效果,設(shè)置了與Alex-Net、Google-Net[16]、ResNet-101[17]等常規(guī)算法及文獻(xiàn)[4]中Compact-Net算法的對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)在數(shù)據(jù)集DataTest和DataFinal上F1-score的值及在兩數(shù)據(jù)集上的平均準(zhǔn)確率如表6所示。

      表6 不同網(wǎng)絡(luò)模型的F1-score值對(duì)比結(jié)果 %

      本文算法在DataTest上的F1-score值為92.34%,相較于Alex-Net、Google-Net、Compact-Net算法分別提高了9.11、6.00和4.99個(gè)百分點(diǎn),在相同數(shù)據(jù)集的情況下,本文通過(guò)特征融合優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),增強(qiáng)了算法對(duì)眼底圖像的特征提取能力和識(shí)別能力。在DataFinal上,本文算法的F1-score值相較于Alex-Net、Google-Net、Compact-Net、ResNet-101分別提高了12.01、9.60、7.03和3.02個(gè)百分點(diǎn),表現(xiàn)效果最好,即在實(shí)際應(yīng)用中,算法達(dá)到了預(yù)期要求。本文算法的平均準(zhǔn)確率為94.23%,相較于其他4種算法,分別提高了10.56、7.80、6.01和0.02個(gè)百分點(diǎn),驗(yàn)證了本文算法在對(duì)眼底圖像識(shí)別上是非常有效的。

      本文算法和ResNet-101的平均準(zhǔn)確率分別為94.23%和94.21%,十分接近。原因是ResNet-101使用了101層網(wǎng)絡(luò)結(jié)構(gòu),通常更深的網(wǎng)絡(luò)結(jié)構(gòu),圖像識(shí)別效果更好。本實(shí)驗(yàn)是基于VGG-16的16層網(wǎng)絡(luò)結(jié)構(gòu),所以在DataTest下,ResNet-101的F1-score值比本文算法高出了2.98%。但本實(shí)驗(yàn)網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)簡(jiǎn)單,參數(shù)較少,訓(xùn)練更快,同時(shí)說(shuō)明了經(jīng)過(guò)特征融合的16層網(wǎng)絡(luò)結(jié)構(gòu)達(dá)到了更深網(wǎng)絡(luò)結(jié)構(gòu)的分類(lèi)效果。

      本文通過(guò)實(shí)驗(yàn)驗(yàn)證了算法的魯棒性。為保證單一變量,從DataTest中隨機(jī)選取與DataFinal相同數(shù)量的眼底圖像,記為DataTest*。算法在DataTest*和DataFinal上F1-score的差值(DataFinal_F1-score-DataTest*_F1-score)如表7所示。

      表7 算法在DataTest*和DataFinal上F1-score的差值 %

      差值表示算法在測(cè)試集與原始數(shù)據(jù)集上識(shí)別效果的差異,其大小在一定程度上反映了算法魯棒性的好壞。差值越大,魯棒性相對(duì)越好。由表7可知,ResNet-101、Google-Net、Alex-Net、Compact-Net和本文算法的差值分別為0.05%、0.14%、0.76%、1.65%、2.01%??梢钥闯觯疚乃惴ǖ聂敯粜韵鄬?duì)較好,ResNet-101的魯棒性最差。

      3.3.3特征可視化分析

      卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取過(guò)程及特征融合如圖4所示。由圖可知,在Cov1_1、Cov_2、Cov1_3層提取了原始圖像的大部分特征信息,Cov2_1、Cov2_2和Cov2_3中只保留了原始圖像的邊緣輪廓。隨著網(wǎng)絡(luò)深度的不斷增加,Cov3_1、Cov3_2、Cov3_3、Cov4_1、Cov4_2、Cov4_3更多地提取了圖像的線(xiàn)條和輪廓,而Cov5_1只提取了原始圖像的高階特征信息。通過(guò)以上卷積過(guò)程可發(fā)現(xiàn),不同卷積核可提取到不同的特征,網(wǎng)絡(luò)層數(shù)越深,卷積核提取到的特征越抽象。特征融合作為全連接層FC1的輸入層,融合了各卷積層上的特征。通過(guò)分析卷積神經(jīng)網(wǎng)絡(luò)的工作原理,可為以后模型的優(yōu)化提供幫助。

      圖4 卷積過(guò)程部分圖像特征可視化

      3.3.4圖像錯(cuò)分類(lèi)原因分析

      本文算法的錯(cuò)誤識(shí)別率在5.77%左右,部分識(shí)別錯(cuò)誤的圖像如圖5所示。

      (a) 正常圖像(b) 病變圖像(c) 病變圖像(d) 病變圖像圖5 眼底圖像錯(cuò)誤識(shí)別示例

      圖5(b)作為對(duì)比圖片,是已經(jīng)標(biāo)注為含有血斑的病變眼底圖像。圖5(a)的標(biāo)注為正常眼底圖像,由于圖像色彩的原因,算法誤將圖5(a)中的黃斑識(shí)別為圖5(b)中的血斑,以致算法將圖5(a)判定為病變眼底圖像。圖5(c)和圖5(d)的標(biāo)注為病變眼底圖像,同樣算法將圖5(c)和圖5(d)中的血斑識(shí)別為黃斑,從而將其判定為正常眼底圖像。根據(jù)以上結(jié)果,圖像的色彩對(duì)算法的識(shí)別過(guò)程造成了一定的干擾,致使算法識(shí)別錯(cuò)誤。

      4 結(jié) 語(yǔ)

      本文針對(duì)糖尿病性視網(wǎng)膜發(fā)病初期特征不明顯、人工識(shí)別病變圖像困難、準(zhǔn)確率不高等問(wèn)題,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的眼底圖像識(shí)別方法。該方法在VGG-16網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,通過(guò)融合各卷積層上的特征,使模型對(duì)病變眼底圖像的細(xì)微特征更加敏感。為了進(jìn)一步優(yōu)化模型,使用ReLU函數(shù)加快網(wǎng)絡(luò)中參數(shù)的收斂,并在兩個(gè)全連接層上使用Dropout技術(shù),使模型識(shí)別圖像的平均準(zhǔn)確率達(dá)到94.23%,與常規(guī)算法Alex-net、Google-net、Resnet-101和文獻(xiàn)[4]中Compact-net方法相比,分別提高了10.56%、7.80%、0.02%和6.01%,驗(yàn)證了該方法的有效性。

      由于實(shí)驗(yàn)數(shù)據(jù)集使用的是RGB格式的圖像,以致色彩對(duì)圖像識(shí)別造成了一定的影響。下一階段的工作是對(duì)眼底圖像數(shù)據(jù)做二值灰度處理,并根據(jù)眼底圖像病變的程度劃分不同的等級(jí),做更加細(xì)致的分類(lèi);使用基于判別區(qū)域的網(wǎng)絡(luò)結(jié)構(gòu)算法,進(jìn)一步提高模型識(shí)別準(zhǔn)確率。

      猜你喜歡
      圖像識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)卷積
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      基于Resnet-50的貓狗圖像識(shí)別
      電子制作(2019年16期)2019-09-27 09:34:50
      高速公路圖像識(shí)別技術(shù)應(yīng)用探討
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
      電子制作(2018年19期)2018-11-14 02:37:04
      圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
      電子制作(2018年14期)2018-08-21 01:38:16
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
      知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對(duì)于創(chuàng)新績(jī)效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
      滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
      朝阳市| 新建县| 闽清县| 竹北市| 灌云县| 马龙县| 靖远县| 黔东| 万安县| 临高县| 高淳县| 濮阳市| 天峨县| 石家庄市| 准格尔旗| 东兴市| 涪陵区| 灌南县| 洪雅县| 尼勒克县| 东台市| 平舆县| 蓬安县| 大英县| 峨边| 湘阴县| 玉树县| 信丰县| 嘉义市| 肇源县| 凉山| 延川县| 彭阳县| 德保县| 大竹县| 淳安县| 巧家县| 敖汉旗| 南靖县| 西畴县| 仪陇县|