• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLOv3的瞳孔屈光度檢測(cè)方法

      2022-07-26 13:06:42李岳毅丁紅昌趙長(zhǎng)福張士博王艾嘉
      紅外技術(shù) 2022年7期
      關(guān)鍵詞:屈光度瞳孔圖像

      李岳毅,丁紅昌,2,張 雷,趙長(zhǎng)福,張士博,王艾嘉

      基于改進(jìn)YOLOv3的瞳孔屈光度檢測(cè)方法

      李岳毅1,丁紅昌1,2,張 雷3,4,趙長(zhǎng)福1,張士博1,王艾嘉1

      (1. 長(zhǎng)春理工大學(xué) 機(jī)電工程學(xué)院,吉林 長(zhǎng)春 130022;2. 長(zhǎng)春理工大學(xué) 重慶研究院,重慶 401135;3. 鄭州輕工業(yè)大學(xué) 電氣信息工程學(xué)院,河南 鄭州 450002;4. 中國(guó)煙草總公司 鄭州煙草研究院,河南 鄭州 450001)

      針對(duì)瞳孔區(qū)域屈光度識(shí)別準(zhǔn)確率低、檢測(cè)效率低等問(wèn)題,本文提出一種基于改進(jìn)YOLOv3深度神經(jīng)網(wǎng)絡(luò)的瞳孔圖像檢測(cè)算法。首先構(gòu)建用于提取瞳孔主特征的二分類檢測(cè)網(wǎng)絡(luò)YOLOv3-base,強(qiáng)化對(duì)瞳孔特征的學(xué)習(xí)能力。然后通過(guò)遷移學(xué)習(xí),將訓(xùn)練模型參數(shù)遷移至YOLOv3-DPDC(Deep Pupil Diopter Classify),降低樣本數(shù)據(jù)分布不均衡造成的模型訓(xùn)練困難以及檢測(cè)性能差的難題,最后采用Fine-tuning調(diào)參快速訓(xùn)練YOLOv3多分類網(wǎng)絡(luò),實(shí)現(xiàn)了對(duì)瞳孔屈光度快速檢測(cè)。通過(guò)采集的1200張紅外瞳孔圖像進(jìn)行實(shí)驗(yàn)測(cè)試,結(jié)果表明本文算法屈光度檢測(cè)準(zhǔn)確率達(dá)91.6%,檢測(cè)速度可達(dá)45fps,優(yōu)于使用Faster R-CNN進(jìn)行屈光度檢測(cè)的方法。

      瞳孔屈光度檢測(cè);深度學(xué)習(xí);YOLOv3網(wǎng)絡(luò);多尺度特征;機(jī)器視覺

      0 引言

      隨著移動(dòng)互聯(lián)網(wǎng)、5G技術(shù)不斷發(fā)展,手機(jī)、平板等電子產(chǎn)品在日常生活中普及,視力衰退已成為廣大青少年面臨的常見問(wèn)題,我國(guó)青少年近視呈現(xiàn)高發(fā)、低齡化趨勢(shì),嚴(yán)重影響兒童身心健康。因此,研究瞳孔屈光度檢測(cè)方法對(duì)眼睛近視及早治療與保護(hù)具有重要意義。

      目前,瞳孔屈光度的測(cè)量方法分為主觀和客觀兩大類,在臨床實(shí)踐中普遍采用主觀方法,依賴醫(yī)生通過(guò)被測(cè)者在瞳孔計(jì)或者瞳孔對(duì)照表上的測(cè)試結(jié)果,獲得屈光度數(shù)值。然而該方法對(duì)患者配合度要求高,檢測(cè)流程長(zhǎng),且存在主觀較強(qiáng)、效率低等問(wèn)題。另一類方法主要以數(shù)字?jǐn)z像為主,其基本思想是根據(jù)紅外瞳孔圖像中光亮區(qū)域的大小作為屈光度測(cè)量標(biāo)準(zhǔn)。

      薛烽等[1]基于采集到的紅外圖像,提出利用曲波變換和最小二乘法測(cè)量瞳孔屈光度,有效解決了圖像光亮區(qū)域的漸暈現(xiàn)象。但受圖像采集設(shè)備、拍攝角度、光照條件和環(huán)境變化等因素影響,所采集的圖像具有不同的質(zhì)量,決定了圖像處理的難易程度不同。胡志軒采用連續(xù)的Otsu算法[2]分割圖像,雖然硬件上有所改進(jìn),但該方法占用內(nèi)存多且耗時(shí)長(zhǎng),對(duì)硬件處理設(shè)備的要求較高。

      近年來(lái),深度學(xué)習(xí)技術(shù)在圖像分類、目標(biāo)檢測(cè)、圖像語(yǔ)義分割等領(lǐng)域取得了突破性進(jìn)展。在醫(yī)學(xué)圖像領(lǐng)域,研究基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法是突破制約瞳孔檢測(cè)的必然趨勢(shì)。目前基于深度學(xué)習(xí)目標(biāo)檢測(cè)方法[3-7]主要包括Faster R-CNN、YOLO(You only look once)。文獻(xiàn)[8]提出一種利用形態(tài)學(xué)對(duì)采集到的瞳孔圖像進(jìn)行清晰化處理,先利用Faster R-CNN算法對(duì)瞳孔圖像進(jìn)行識(shí)別,最后利用閾值分割,根據(jù)采集到的數(shù)據(jù)得出屈光度的數(shù)值。Faster R-CNN網(wǎng)絡(luò)采用Two-stage架構(gòu),相比于One-stage架構(gòu)的YOLOv3目標(biāo)檢測(cè)模型漏檢率低,該方法分兩步得出瞳孔屈光度數(shù)值,識(shí)別效率低,難以進(jìn)行快速檢測(cè)。

      綜上所述,為了提高算法在瞳孔屈光度檢測(cè)方面的適用性和準(zhǔn)確性,本文在YOLOv3算法的基礎(chǔ)上進(jìn)行改進(jìn),提出兩階段訓(xùn)練框架,根據(jù)瞳孔屈光度數(shù)值將數(shù)據(jù)集分成3類,采用滑動(dòng)窗口算法擴(kuò)充瞳孔數(shù)據(jù)集,并用遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)來(lái)解決訓(xùn)練效率低、數(shù)據(jù)集小易擬合等問(wèn)題。最后利用真實(shí)紅外瞳孔圖像進(jìn)行實(shí)驗(yàn)測(cè)試,以驗(yàn)證本文算法準(zhǔn)確性與實(shí)時(shí)性。

      1 YOLOv3目標(biāo)檢測(cè)原理

      2018年Redmon等在YOLOv2模型基礎(chǔ)上,融合特征金字塔、殘差結(jié)構(gòu)、多尺度預(yù)測(cè)模塊,設(shè)計(jì)了一種新的YOLOv3網(wǎng)絡(luò)目標(biāo)檢測(cè)算法,在保持檢測(cè)速度同時(shí)提升了目標(biāo)檢測(cè)的準(zhǔn)確率[9]。其基本步驟為,首先輸入圖像被劃分成×網(wǎng)格,當(dāng)檢測(cè)對(duì)象處于某一網(wǎng)格時(shí),負(fù)責(zé)對(duì)該對(duì)象進(jìn)行預(yù)測(cè),同時(shí)產(chǎn)生個(gè)邊界框(bounding box),以及給出邊界框的預(yù)測(cè)信息(,,,)和置信度(confidence)。其中邊界框中包含目標(biāo)的概率r以及邊界框的準(zhǔn)確度IOU共同決定置信度的大小,計(jì)算公式為:

      式中:代表檢測(cè)的類別數(shù)。

      綜上所述,瞳孔屈光度等級(jí)識(shí)別本質(zhì)上屬于一類目標(biāo)檢測(cè)問(wèn)題。整體模型框架如圖1所示,本文提出的瞳孔圖像檢測(cè)模型在第一階段以YOLOv3網(wǎng)絡(luò)模型為基礎(chǔ),保持其網(wǎng)絡(luò)結(jié)構(gòu)不變,采用遷移學(xué)習(xí)的方法,對(duì)瞳孔目標(biāo)和背景進(jìn)行分離訓(xùn)練,增強(qiáng)對(duì)瞳孔特征學(xué)習(xí)的能力。第二階段以YOLOv3-base網(wǎng)絡(luò)模型為基礎(chǔ),保持其特征提取網(wǎng)絡(luò)模塊參數(shù)不變,重新構(gòu)建FPN網(wǎng)絡(luò),將原有的3個(gè)檢測(cè)尺度提升為4個(gè),充分利用淺層高分辨率和深層高語(yǔ)義信息,提高對(duì)3個(gè)不同屈光度等級(jí)的瞳孔定位識(shí)別能力。

      2 基于YOLOv3的紅外瞳孔識(shí)別算法

      針對(duì)瞳孔屈光度快速識(shí)別難題,本文提出一種基于改進(jìn)YOLOv3網(wǎng)絡(luò)的瞳孔圖像檢測(cè)算法,主要包括主特征學(xué)習(xí)和模型遷移兩個(gè)階段。①建立YOLOv3-base網(wǎng)絡(luò)提取瞳孔特征;②采用遷移學(xué)習(xí)方法,構(gòu)建YOLOv3-DPDC多分類網(wǎng)絡(luò)。

      2.1 構(gòu)建YOLOv3-base網(wǎng)絡(luò)

      首先,考慮數(shù)據(jù)集中3種不同屈光度等級(jí)的瞳孔數(shù)量分布不均勻以及相似性的問(wèn)題,設(shè)計(jì)出基于YOLOv3的二分類檢測(cè)網(wǎng)絡(luò),如圖1所示。將數(shù)據(jù)集中的瞳孔圖像都?xì)w為一類“Eye”,然后利用YOLOv3-base網(wǎng)絡(luò)對(duì)瞳孔目標(biāo)和背景進(jìn)行訓(xùn)練,該方法能夠避免瞳孔圖像數(shù)據(jù)量的缺乏以及3種等級(jí)數(shù)據(jù)集不均衡問(wèn)題(數(shù)據(jù)集中的1等級(jí)的瞳孔數(shù)量有120個(gè),而3等級(jí)的瞳孔數(shù)量有780個(gè))所產(chǎn)生的訓(xùn)練問(wèn)題,可以加強(qiáng)模型對(duì)瞳孔圖像的識(shí)別能力。

      為了提升模型的檢測(cè)精度以及減少訓(xùn)練時(shí)間,第一階段采用遷移學(xué)習(xí)[10]的方法,訓(xùn)練過(guò)程如圖2所示。采用一個(gè)在ImageNet上已經(jīng)使用VOC2007訓(xùn)練完畢的YOLOv3模型作為預(yù)訓(xùn)練模型。

      圖1 本文提出的瞳孔識(shí)別算法示意圖

      在遷移訓(xùn)練時(shí),第一步先凍結(jié)前個(gè)殘差塊,利用DarkNet-53網(wǎng)絡(luò)對(duì)圖像特征進(jìn)行提取,使用大學(xué)習(xí)率對(duì)后面的參數(shù)進(jìn)行訓(xùn)練;第二步將前面的殘差塊解凍投入訓(xùn)練,對(duì)參數(shù)進(jìn)行微調(diào)變換學(xué)習(xí)率。訓(xùn)練結(jié)束后,提前將訓(xùn)練得到的權(quán)重文件進(jìn)行替換,然后對(duì)瞳孔目標(biāo)進(jìn)行檢測(cè)。由于第一階段采用的是二分類模型,識(shí)別結(jié)果只有瞳孔和背景兩個(gè)相互獨(dú)立的類別,所以最后采用Soft-max函數(shù)[11-12],通過(guò)輸出張量輸出紅外瞳孔圖像和背景。

      2.2 構(gòu)建YOLOv3-DPDC網(wǎng)絡(luò)

      首先,在YOLOv3-base的基礎(chǔ)上構(gòu)建YOLOv3- DPDC網(wǎng)絡(luò)框架,第二階段包括YOLOv3特征提取網(wǎng)絡(luò)和多分類檢測(cè)網(wǎng)絡(luò),由于在第一階段訓(xùn)練出來(lái)的模型對(duì)瞳孔已有較好的提取能力,為了更好地識(shí)別三類瞳孔細(xì)粒度圖像以及充分利用淺層高分辨率和深層高語(yǔ)義信息,第二階段的多分類檢測(cè)網(wǎng)絡(luò)在原有的基礎(chǔ)上增加一個(gè)尺度特征為104×104的特征層,將低階特征和高階特征有機(jī)地融合起來(lái),通過(guò)Logistic多標(biāo)簽分類器對(duì)3個(gè)等級(jí)的屈光度圖像進(jìn)行分類優(yōu)化,形成完整的YOLOv3-DPDC模型。

      整體的網(wǎng)絡(luò)模型如圖3所示,首先對(duì)圖像進(jìn)行歸一化,將416×416大小的瞳孔圖像作為輸入。然后利用Darknet-53網(wǎng)絡(luò)進(jìn)行瞳孔特征提取,交替使用3×3和1×1的卷積以及上采樣操作,最終得到13×13、26×26、52×52、104×104四個(gè)檢測(cè)尺度。

      本文模型構(gòu)建了4個(gè)檢測(cè)尺度,在沒有明顯增加網(wǎng)絡(luò)深度的前提下,增強(qiáng)了網(wǎng)絡(luò)結(jié)構(gòu)的表征能力,通過(guò)多尺度特征分析解碼,可以更好地適應(yīng)對(duì)紅外瞳孔圖像分類識(shí)別能力,從而提高模型識(shí)別的準(zhǔn)確率。

      圖2 第一階段遷移學(xué)習(xí)處理過(guò)程

      圖3 本文所提算法的網(wǎng)絡(luò)模型與參數(shù)說(shuō)明

      2.3 損失函數(shù)分析

      損失函數(shù)一般作為評(píng)估最終模型真實(shí)值與預(yù)測(cè)值誤差的大小,最終會(huì)影響模型的收斂效果。為了提升模型的檢測(cè)精度,減少候選框與真實(shí)框之間的誤差以及類別間的誤差,本文算法中損失函數(shù)由邊界框損失、置信度損失和分類損失3部分組成。計(jì)算公式為:

      3 基于人工擴(kuò)增的數(shù)據(jù)集處理

      基于深度學(xué)習(xí)的圖像識(shí)別算法,往往需要大量帶類別標(biāo)簽的瞳孔圖像作為訓(xùn)練集。針對(duì)該問(wèn)題,在采集1200張瞳孔圖像基礎(chǔ)上,本文提出一種基于滑動(dòng)窗口算法擴(kuò)充瞳孔數(shù)據(jù)。

      首先,采集到的瞳孔圖像歸一化為1024×1024分辨率,接著將原圖像用32×32像素的網(wǎng)格進(jìn)行劃分,然后用×固定大小的窗口在瞳孔圖像上進(jìn)行移動(dòng),窗口每移動(dòng)到一個(gè)位置,就將其覆蓋下的瞳孔圖像當(dāng)作一個(gè)ROI感興趣區(qū)域。其中,×=416像素,移動(dòng)窗口的右上角坐標(biāo)=(imgR, imgR),左下角坐標(biāo)為=(imgL, imgL)計(jì)算公式如式(4)所示:

      式中:和的取值范圍為(0,1,2,3,…(dstImL-416)/32)和(0,1,2,3,…(dstImH-416)/32),dstImL和dstImH分別為被窗口滑動(dòng)的瞳孔圖像的寬和高,本文dstImL=dstImH=1024像素,最終整個(gè)數(shù)據(jù)集擴(kuò)充的步驟如圖4所示。

      將采集的1200張紅外瞳孔圖像劃分成A和B集合,然后將1000圖像放入集合A作為訓(xùn)練集,用于模型訓(xùn)練,剩余200張圖像放入集合B作測(cè)試集。集合A中的圖像按屈光度的不同分成3類,屈光度范圍0°~150°為1,150°~350°為2,350°~600°為3。對(duì)A集合中的瞳孔圖像采用人工擴(kuò)增數(shù)據(jù)集的方式進(jìn)行擴(kuò)增,擴(kuò)增完之后手動(dòng)挑選出一定數(shù)量且符合檢測(cè)條件的圖像放入集合C中,并且按照一定的比例劃分為訓(xùn)練集和驗(yàn)證集,劃分結(jié)果如表1所示。

      圖4 瞳孔圖像數(shù)據(jù)集人工擴(kuò)增示意圖

      表1 瞳孔數(shù)據(jù)集C的劃分

      4 實(shí)驗(yàn)與結(jié)果分析

      4.1 實(shí)驗(yàn)說(shuō)明

      本文實(shí)驗(yàn)采用真實(shí)的紅外瞳孔圖像。實(shí)驗(yàn)軟硬件配置為:AMD Ryzen 7 4800H,NVIDIA GeForce RTX 2060 GPU,Pytorch版本為1.2,CUDA 版本10.0,CUDNN 版本7.4.1.5,內(nèi)存為16GB,Python 3.6。

      4.2 訓(xùn)練過(guò)程與分析

      借鑒原始YOLOv3模型的網(wǎng)絡(luò)參數(shù),根據(jù)本文瞳孔圖像進(jìn)行調(diào)參后,第一階段模型訓(xùn)練參數(shù)如表2所示。

      表2 實(shí)驗(yàn)參數(shù)設(shè)置

      采用修改后的參數(shù)進(jìn)行訓(xùn)練,一共進(jìn)行了9000次迭代訓(xùn)練,Loss變化曲線如圖5所示。

      圖5 Loss值變化示意圖

      由圖5可知,前2500次迭代損失函數(shù)曲線快速衰減,在8000次迭代以后,損失函數(shù)曲線走勢(shì)基本穩(wěn)定到最低位置,其中每迭代100次就輸出一個(gè)模型,總共得到90個(gè)模型。

      4.3 分析與討論

      為驗(yàn)證模型的檢測(cè)精度和穩(wěn)定性,本文采用Precision(精確率)和Recall(召回率)兩個(gè)評(píng)價(jià)指標(biāo)衡量瞳孔檢測(cè)的效果。Precision和Recall定義為:

      準(zhǔn)確率表示某一類別預(yù)測(cè)目標(biāo)中預(yù)測(cè)正確占總正確樣本的比例,召回率表示預(yù)測(cè)目標(biāo)正確占總預(yù)測(cè)樣本的比例。TP為真正例;FP為假正例;FN為假負(fù)例。

      為了證明本文YOLOv3識(shí)別算法有效性,實(shí)驗(yàn)選取3種經(jīng)典模型進(jìn)行對(duì)比測(cè)試,包括Faster R-CNN[13]、SSD(Single Shot MultiBox Detector)[14]以及RetinaNet。進(jìn)行對(duì)比試驗(yàn)的模型都采用了同樣的數(shù)據(jù)集進(jìn)行訓(xùn)練。從測(cè)試集中抽取1、2、3三類樣本各20張用于測(cè)試。采用Precision(精確率)和Recall(召回率)作為模型的參考標(biāo)準(zhǔn),為了進(jìn)一步對(duì)目標(biāo)檢測(cè)算法進(jìn)行評(píng)估,還引入1-score指標(biāo),定義為:

      1-score是對(duì)精確率和召回率的調(diào)和平均,可以更準(zhǔn)確地反映模型的好壞。實(shí)驗(yàn)結(jié)果如表3所示。

      由表3結(jié)果可知,本文YOLOv3算法的1-score的結(jié)果要高于SSD、RetinaNet和Faster R-CNN,在瞳孔圖像檢測(cè)時(shí)間方面,由于本文提出的改進(jìn)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)加深,速度要略慢于SSD。但是要快于Faster R-CNN。在表4數(shù)據(jù)中,Accuracy是用傳統(tǒng)的曲波變換識(shí)別出瞳孔的正確率。

      表3 不同算法數(shù)據(jù)對(duì)比

      表4 傳統(tǒng)算法數(shù)據(jù)統(tǒng)計(jì)

      本文提出的模型在識(shí)別出瞳孔目標(biāo)的同時(shí)還識(shí)別出了屈光度的數(shù)值范圍,相對(duì)于文獻(xiàn)[8]先識(shí)別出瞳孔再進(jìn)行瞳孔屈光度數(shù)據(jù)識(shí)別而言,可以更快速地完成瞳孔屈光度識(shí)別任務(wù),優(yōu)于其他對(duì)比實(shí)驗(yàn)。

      為了進(jìn)一步說(shuō)明本文提出的改進(jìn)算法的識(shí)別效果,根據(jù)這3類樣本進(jìn)行實(shí)驗(yàn),生成的混淆矩陣如表5所示,其中第一行代表真實(shí)值,第一列代表預(yù)測(cè)值。由表4可知,各類算法精確率按順序分別為95%,85%和95%,混淆矩陣中1和3種類的識(shí)別率要高于2的識(shí)別率,分析原因一是由于屈光度數(shù)值過(guò)大或者過(guò)小的瞳孔圖像特征較為明顯,容易被識(shí)別,二是因?yàn)?與3個(gè)體之間差異很小,特征較為接近,最終導(dǎo)致錯(cuò)誤分類。

      表5 本文算法得出的分類混淆矩陣

      此外,為更直觀顯示本文算法瞳孔檢測(cè)效果,圖7展示了本文模型在隨機(jī)挑選的數(shù)據(jù)集上的檢測(cè)結(jié)果,包含3類不同屈光度等級(jí)的瞳孔圖像。由檢測(cè)結(jié)果可知,本文提出的算法很好地識(shí)別出3類紅外瞳孔圖像,并且對(duì)于弱特征樣本1也有較好的識(shí)別效果。

      圖6 本文方法在部分圖像上的檢測(cè)結(jié)果

      5 結(jié)論

      針對(duì)瞳孔屈光度識(shí)別準(zhǔn)確率低、檢測(cè)效率低的難題,本文提出一種基于改進(jìn)YOLOv3瞳孔屈光度檢測(cè)算法,所提算法使用兩個(gè)階段強(qiáng)化學(xué)習(xí),增加了基層卷積層對(duì)特征的提取能力,提升了網(wǎng)絡(luò)檢測(cè)的準(zhǔn)確率,利用遷移學(xué)習(xí)的思想,在任務(wù)中有效解決了數(shù)據(jù)樣本不平衡與匱乏的問(wèn)題,在對(duì)比實(shí)驗(yàn)中取得了較好的檢測(cè)結(jié)果。最終實(shí)驗(yàn)結(jié)果表明本文方法能實(shí)現(xiàn)屈光度高效率檢測(cè),對(duì)于三類屈光度的瞳孔圖像預(yù)測(cè)準(zhǔn)確率為91.6%。在下一步工作中,重點(diǎn)研究小樣本學(xué)習(xí)方式繼續(xù)提高算法檢測(cè)準(zhǔn)確性。

      [1] 薛烽, 李湘寧. 一種基于圖像處理的屈光度測(cè)量方法[J]. 光電工程, 2009, 36(8): 62-66, 74.

      XUE Feng, LI Xiangning. A method of diopter measurement based on image processing[J]., 2009, 36(8): 62-66, 74.

      [2] 胡志軒. 基于紅外圖像的眼視力屈光度檢測(cè)系統(tǒng)[D]. 武漢: 華中師范大學(xué), 2018.

      HU Zhixuan. An Eye Vision Diopter Detection System Based On Infrared Image[D]. Wuhan: Center China Normal University,2018.

      [3] 謝娟英, 侯琦, 史穎歡, 等. 蝴蝶種類自動(dòng)識(shí)別研究[J]. 計(jì)算機(jī)研究與發(fā)展, 2018, 55(8): 1609-1618.

      XIE Juanying, HOU Qi, SHI Yinghuan, et al. Research on automatic recognition of butterfly species[J]., 2018, 55(8): 1609-1618.

      [4] Redmon J, Divvala S, Girshick R, et al. You only look once:unified real-time object detection[C]//, 2016: 779-788.

      [5] Kaur P, Khehra B S, Pharwaha A. Deep transfer learning based multi way feature pyramid network for object detection in images[J]., 2021, 2021: 1-13.

      [6] Noh H, Hong S, Han B. Learning deconvolution network for semantic segmentation[C]//, 2015: 5119-5127.

      [7] 劉智, 黃江濤, 馮欣. 構(gòu)建多尺度深度卷積神經(jīng)網(wǎng)絡(luò)行為識(shí)別模型[J]. 光學(xué)精密工程, 2017, 25(3): 799-805.

      LIU Zhi, HUANG Jiangtao, FENG Xin. Building a multi-scale deep convolutional neural network behavior recognition model[J]., 2017, 25(3): 799-805.

      [8] 王娟, 劉嘉潤(rùn), 李瑞瑞. 基于深度學(xué)習(xí)的紅外相機(jī)視力檢測(cè)算法[J]. 電子測(cè)量與儀器學(xué)報(bào), 2019, 33(11): 36-43.

      WANG Juan, LIU Jiarun, LI Ruirui. Infrared camera vision detection algorithm based on deep learning[J]., 2019, 33(11): 36-43.

      [9] LIU Y P, JI X X, PEI S T, et al. Research on automatic location and recognition of insulators in substation based on YOLOv3[J]., 2020, 5(1): 62-68.

      [10] Murugan A, Nair S, Kumar K. Detection of skin cancer using SVM, random forest and KNN classifiers[J]., 2019, 43(8): 683-686.

      [11] ZHU S G, DU J P, REN N, et al. Hierarchical-Based object detection with improved locality sparse coding[J]., 2016, 25(2): 290-295.

      [12] 溫江濤, 王濤, 孫潔娣, 等. 基于深度遷移學(xué)習(xí)的復(fù)雜環(huán)境下油氣管道周界入侵事件識(shí)別[J]. 儀器儀表學(xué)報(bào), 2019, 40(8): 12-19.

      WEN Jiangtao, WANG Tao, SUN Jiedi, et al. Intrusion event identification of oil and gas pipeline perimeter in complex environment based on deep migration learning[J]., 2019, 40(8): 12-19.

      [13] REN S, HE K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]., 2017, 39(6): 1137-1149.

      [14] LIU W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector[C]//, 2016: 21-37.

      Pupil Diopter Detection Approach Based on Improved YOLOv3

      LI Yueyi1,DING Hongchang1,2,ZHANG Lei3,4,ZHAO Changfu1,ZHANG Shibo1,WANG Aijia1

      (1.,,130022,;2.,,401135,;3.,,450002,;4.,450001, China)

      To address the problems of low diopter recognition accuracy and low detection efficiency in the pupil area, this paper proposes a pupil image detection algorithm based on an improved YOLOv3 deep neural network. First, a two-class detection network YOLOv3 base for extracting the main features of the pupil is constructed to strengthen the learning ability of the pupil characteristics. Subsequently, through migration learning, the training model parameters are migrated to YOLOv3-DPDC to reduce the difficulty of model training and poor detection performance caused by the uneven distribution of sample data. Finally, fine-tuning is used to quickly train the YOLOv3 multi-classification network to achieve accurate pupil diopter detection. An experimental test was performed using the 1200 collected infrared pupil images. The results show that the average accuracy of diopter detection using this algorithm is as high as 91.6%, and the detection speed can reach 45fps; these values are significantly better than those obtained using Faster R-CNN for diopter detection.

      pupil diopter detection, deep learning, YOLOv3, multi-scale features, machine vision

      TP391

      A

      1001-8891(2022)07-0702-07

      2021-08-27;

      2021-11-29.

      李岳毅(1994-),男,碩士研究生,主要從事圖像處理、目標(biāo)檢測(cè)和計(jì)算機(jī)視覺方面的研究。E-mail:lyy642668743@163.com。

      丁紅昌(1980-),男,博士,副教授,博士生導(dǎo)師,吉林省第七批拔尖創(chuàng)新人才。主要從事在線檢測(cè)、模式識(shí)別和機(jī)器視覺方面的研究。E-mail: custjdgc@163.com。

      吉林省科技發(fā)展計(jì)劃重點(diǎn)研發(fā)項(xiàng)目(20200401117GX);河南省科技攻關(guān)計(jì)劃(212102210155)。

      猜你喜歡
      屈光度瞳孔圖像
      “天眼”的“瞳孔保健師”
      軍事文摘(2023年20期)2023-10-31 08:42:40
      改進(jìn)的LapSRN遙感圖像超分辨重建
      青少年近視初診散瞳前、后的屈光度比較
      有趣的圖像詩(shī)
      瞳孔里的太陽(yáng)
      青年歌聲(2018年2期)2018-10-20 02:02:50
      瞳孔
      飛秒激光制瓣聯(lián)合準(zhǔn)分子激光角膜原位磨鑲術(shù)治療不同屈光度近視的療效分析
      瞳孔
      視知覺學(xué)習(xí)對(duì)近視性弱視患兒屈光度增長(zhǎng)的影響及護(hù)理對(duì)策
      遙感圖像幾何糾正中GCP選取
      即墨市| 灵山县| 禹城市| 瓮安县| 汾阳市| 麦盖提县| 镇雄县| 丹棱县| 赤城县| 和林格尔县| 益阳市| 敖汉旗| 黄浦区| 花莲县| 民勤县| 陕西省| 长顺县| 镇康县| 凤凰县| 阳谷县| 舟曲县| 云南省| 浦江县| 山丹县| 金川县| 庆元县| 景东| 吴江市| 二连浩特市| 合山市| 龙川县| 涡阳县| 卢龙县| 磴口县| 赣州市| 濮阳市| 三门县| 衢州市| 德庆县| 阜阳市| 纳雍县|