• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于卷積評價及對抗網(wǎng)絡(luò)的花粉、孢子圖像增廣算法

      2021-11-14 11:48:24王萬亮江高飛嚴(yán)江偉薛衛(wèi)
      江蘇農(nóng)業(yè)學(xué)報 2021年5期
      關(guān)鍵詞:圖像分割

      王萬亮 江高飛 嚴(yán)江偉 薛衛(wèi)

      摘要:? 針對花粉、孢子圖像特征復(fù)雜,樣本稀缺及種類繁多制約圖像檢測識別效果的問題,建立基于自適應(yīng)閾值分割的pix2pix圖像增廣模型。首先基于卷積評價改進(jìn)自適應(yīng)閾值分割算法,擇優(yōu)選取語義分割圖像;其次構(gòu)建pix2pix圖像增廣模型,將語義分割圖像和原始圖像建立標(biāo)簽映射用于模型訓(xùn)練,根據(jù)語義分割圖像生成仿真圖像,擴充樣本數(shù)據(jù)集。結(jié)果表明,以149種花粉、孢子圖像為樣本,通過圖像增廣模型生成的花粉、孢子圖像整體相似度達(dá)到85.40%;圖像增廣前Faster RCNN、YOLOv3檢測模型的檢測精準(zhǔn)率分別為86.18%、85.64%,使用增廣后的樣本訓(xùn)練模型,檢測精準(zhǔn)率分別達(dá)到92.16%、90.57%,提升5.98個百分點和4.93個百分點。

      關(guān)鍵詞:? 花粉檢測; 圖像增廣; 圖像分割; pix2pix網(wǎng)絡(luò)

      中圖分類號:? S126??? 文獻(xiàn)標(biāo)識碼: A??? 文章編號:? 1000-4440(2021)05-1190-09

      Augmented algorithm for pollen and spore images based on convolution evaluation and pix2pix network

      WANG Wan-liang? 1 , JIANG Gao-fei? 2 , YAN Jiang-wei? 3 , XUE Wei? 1

      (1.School of Artificial Intelligence, Nanjing Agricultural University, Nanjing 210095, China; 2.College of Resources and Environmental Sciences, Nanjing Agricultural University, Nanjing 210095, China; 3.School of Forensic Medicine, Shanxi Medical University, Taiyuan 030001, China)

      Abstract:? Aiming at the problems such as complex image features of pollens and spores, scarcity of image samples, restricted detection and recognition effects of various images of pollens and spores, a pix2pix image augmentation model based on adaptive threshold segmentation was built. Firstly, the adaptive threshold segmentation algorithm was improved based on convolution evaluation to select the optimal semantic segmentation images of pollens and spores. Secondly, the pix2pix image augmentation model was constructed, the semantic segmentation images and the original images were used to establish label mapping for model training, and emulational pollen and spore images were generated based on semantic segmentation images to extend sample dataset. The results showed that, the overall similarity of 149 pollen and spore images generated by the image augmentation model reached 85.40%. Before image enlargement, the detection accuracies of Faster RCNN and YOLOv3 detection models were 86.18% and 85.64%, respectively. After using the enlarged sample training model, the accuracies reached 92.16% and 90.57%, which increased by 5.98 and 4.93 percentages.

      Key words:? pollen detection; image augmentation; image segmentation; pix2pix network

      花粉、孢子種類多,常見的花粉、孢子類別鑒別手段基于細(xì)胞學(xué)檢測? [1] 。但即便是從事花粉學(xué)研究的植物學(xué)家、法醫(yī)專家和一線科技工作者,也很難有效識別如此繁多的花粉類型??紤]到顯微鏡下人工觀察統(tǒng)計玻片的工作量較大,通過計算機圖像處理技術(shù)實現(xiàn)快速、高效花粉、孢子檢測就具有重要的現(xiàn)實意義,將會給予該領(lǐng)域?qū)W者的研究工作提供較大幫助。

      近年來,國內(nèi)外針對花粉、孢子圖像的計算機檢測識別方法屢見不鮮。劉惠等? [2] 選取了3種紋理特征、3種顏色特征和5種形狀特征,基于PCA與BP神經(jīng)網(wǎng)絡(luò)識別萬壽菊黑斑病病菌孢子。謝永華等? [3] 利用離散二進(jìn)小波變換獲取圖像突變點,并計算具有方向的鄰域幾何約束關(guān)系,最后通過直方圖統(tǒng)計特征描述識別花粉圖像。上述方法主要針對少量類別孢子識別檢測,首先對花粉、孢子圖像進(jìn)行預(yù)處理,其次提取花粉、孢子圖像的紋理、邊緣、顏色等特征,最后應(yīng)用經(jīng)驗知識及機器學(xué)習(xí)算法進(jìn)行判別。此類方法依賴設(shè)計者人工選取合適的特征進(jìn)行參照,面對多類別的花粉、孢子時效果不夠理想,通用性不高。

      深度學(xué)習(xí)? [4-9] 的發(fā)展給目標(biāo)檢測識別提供了新的思維和方法,研究最為廣泛的就是卷積神經(jīng)網(wǎng)絡(luò)? [10-17] ,在花粉、孢子檢測領(lǐng)域已經(jīng)有所應(yīng)用。Ramon等通過標(biāo)記花粉、孢子圖像,提出了利用卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)建立深度學(xué)習(xí)模型檢測花粉、孢子,精準(zhǔn)率達(dá)到89%? [18] 。Voactor等在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,研究了基于遷移學(xué)習(xí),基于特征提取,基于遷移學(xué)習(xí)和特征提取的孢子檢測方法,并進(jìn)行了論證比較? [19] 。上述方法通過卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)了10余種花粉、孢子的檢測并取得了較高的準(zhǔn)確率,涵蓋的花粉、孢子類別有所擴展但不夠豐富,用于構(gòu)建深度學(xué)習(xí)模型的孢子圖像數(shù)據(jù)集存在一些缺陷,表現(xiàn)為花粉、孢子種類少、數(shù)據(jù)不平衡及圖像質(zhì)量差。深度學(xué)習(xí)算法的優(yōu)良性能依賴于全面的訓(xùn)練數(shù)據(jù)集,數(shù)據(jù)集缺陷使得孢子檢測更加困難。

      為了解決花粉、孢子數(shù)據(jù)集缺陷和多類別孢子檢測問題,本研究基于深度學(xué)習(xí)的圖像增廣模型,利用pix2pix網(wǎng)絡(luò)構(gòu)建孢子的圖像增廣模型擴充孢子的樣本數(shù)據(jù)集,通過深度學(xué)習(xí)的方法增強花粉孢子的樣本,提升花粉檢測的效果。

      1 材料和方法

      1.1 花粉、孢子圖片數(shù)據(jù)集

      本研究中花粉、孢子圖片主要來自于PalDat(https://www.paldat.org)和Global Pollen Project(https://globalpollenproject.org)? [20] ?,總計 1 980 類別, 14 055 張花粉、孢子圖像。使用labelImg工具標(biāo)記花粉、孢子,生成PASCAL VOC格式文件,便于后續(xù)花粉、孢子圖像的定位及增廣和花粉、孢子識別模型的訓(xùn)練。剔除重復(fù)、不清晰及有效花粉、孢子數(shù)量小于5的樣本數(shù)據(jù),最終確定Protium、Serjania和Anadenanthera等 3個門類、13個科、149種不同類型的花粉、孢子圖像作為數(shù)據(jù)源,總計 1 181 張圖像,標(biāo)記 2 246 個花粉、孢子,其中單類別花粉、孢子最少有5張圖像?;ǚ?、孢子族譜關(guān)系自上而下可以分為門(phylum)、綱(class)、目(order)、科(family)、屬(genus)、種(Species)等。由于篇幅有限,將149種花粉、孢子類別按照所屬綱目進(jìn)行歸類,統(tǒng)計數(shù)據(jù)見圖1,其中Angiospermae綱目包含的花粉、孢子圖像及孢子類別數(shù)最多,Equisetopsida綱目包含的花粉、孢子圖像及花粉、孢子類別數(shù)最少。

      1.2 算法流程

      算法包括數(shù)據(jù)集制作、語義分割,圖像增廣與花粉、孢子檢測4個方面,整體流程如圖2所示。首先采集花粉、孢子圖像,標(biāo)注花粉、孢子制作數(shù)據(jù)集;其次通過語義分割,提取花粉、孢子的多尺度語義分割圖像;每個花粉、孢子的部分語義分割圖像與原始圖像構(gòu)成語義映射標(biāo)簽作為圖像增廣模型的訓(xùn)練數(shù)據(jù)集,另一部分語義分割圖像用于生成花粉、孢子的仿真圖像,達(dá)到擴充樣本目的;最后使用擴充后的樣本來訓(xùn)練和驗證花粉、孢子檢測模型。

      1.3 基于卷積評價的自適應(yīng)閾值分割方法

      精準(zhǔn)語義分割圖像是花粉、孢子圖像增廣模型的基礎(chǔ)?;诰矸e評價的自適應(yīng)圖像分割算法分為2步:自適應(yīng)閾值分割圖與卷積評價。如圖3所示,首先根據(jù)原始圖像生成灰化圖,使用不同的鄰域分割灰化圖自適應(yīng)閾值,生成若干張二值化分割圖;再利用卷積模板分別提取原始灰化圖像和二值化分割圖像的特征,并計算分割圖與灰化圖的矩陣距離,擇優(yōu)保留距離差較小的分割圖像。

      1.3.1 自適應(yīng)閾值分割圖? 自適應(yīng)閾值分割主要基于圖像的局部特征,計算出最佳的分割閾值,不同鄰域的局部特征迥異,分割閾值存在差異。本研究使用遍歷法,設(shè)置鄰域范圍為1至輸入圖像尺寸的1/8,鄰域步長為2,不斷迭代生成若干張不同的二值化分割圖像。

      1.3.2 卷積評價? 分別基于高斯卷積? [21] 模板和拉普拉斯卷積? [22] 模板提取灰化圖像和各個分割圖像的特征,使用曼哈頓距離公式計算卷積提取特征的距離差,選取距離差較小的分割圖像作為最佳語義分割。

      其中高斯卷積將接近中心的點賦予較大的權(quán)重,遠(yuǎn)離中心的點賦予較小的權(quán)重,能夠降低圖像噪點的敏感性,高斯卷積模板如下:

      1 2 1 2 4 2 1 2 1? (1)

      拉普拉斯卷積反映圖像某個像素的鄰域突變程度,增強圖像的細(xì)節(jié),能夠突出圖像的邊緣和鄰域特征,拉普拉斯卷積模板如下:

      -1 -1 -1 -1? 8? -1 -1 -1 -1? (2)

      曼哈頓距離公式計算簡單,處理速率較快。基于灰化圖和分割圖,分別計算高斯卷積模板及拉普拉斯卷積模板下的特征距離差。建立度量評價體系,最終保留總距離差較小的分割圖像。特征距離計算公式為:

      d(x,y)=|g(x)-g(y)|+|l(x)-l(y)|? (3)

      式中 g(x) 、 g(y) 分別為灰化圖、分割圖的高斯卷積特征矩陣, l(x) 、 l(y) 分別為灰化圖、分割圖的拉普拉斯卷積特征矩陣,兩類特征間的距離差取絕對值相加之后即為總距離差。

      1.3.3 圖像分割結(jié)果? 常見的圖像分割方法主要基于區(qū)域、閾值和邊緣檢測對圖像進(jìn)行分割? [23] 。相較于上述分割方法,本研究的算法分割圖像能夠更加接近花粉、孢子圖像的主體框架和輪廓,應(yīng)對不同類型的花粉、孢子圖像具有更強的魯棒性,分割效果如圖4f所示。圖4b為Otsu閾值法? [24] 分割效果,利用圖像的灰度特性,尋找圖像的前景和背景的最大類間差,確定最佳的分割閾值?;ǚ?、孢子圖像前景特征豐富,難以確定有效的分割閾值。圖4c為區(qū)域生長算法? [25] 分割效果,選取某個像素點作為種子點,將具有相似特性的像素連接起來形成區(qū)域?;ǚ?、孢子圖像紋理復(fù)雜,很多場景該算法只能分割出花粉、孢子圖像的部分輪廓。圖4d是Canny邊緣檢測? [26] 效果,利用邊緣信息將變化的邊界分割出來?;ǚ?、孢子圖像有比較復(fù)雜的連通區(qū)域,邊緣分割產(chǎn)生大量小區(qū)域,破壞花粉、孢子的整體框架。圖4e為自適應(yīng)閾值法? [27] 分割效果,根據(jù)像素點鄰域提取圖像的部分區(qū)域,分析區(qū)域內(nèi)圖像特征,進(jìn)行分割。受限于花粉、孢子圖像的鄰域及閾值不同,使用固定的鄰域及閾值無法求得每種花粉、孢子圖像分割的最優(yōu)解,分割容易產(chǎn)生大量小噪點,輪廓缺失。針對每個花粉、孢子圖像,保留評價最佳的6個語義分割圖像,用于后續(xù)的圖像增廣。選取4組花粉、孢子(圖5),語義分割圖像與原始圖像的基本輪廓一致,噪點及紋理細(xì)節(jié)存在微小區(qū)別。

      1.4 基于pix2pix網(wǎng)絡(luò)的圖像增廣算法

      pix2pix網(wǎng)絡(luò)? [28] 圖像增廣算法基于生成對抗思想,結(jié)合條件生成網(wǎng)絡(luò),通過成對匹配的語義映射關(guān)系,實現(xiàn)2個領(lǐng)域中匹配圖像直接轉(zhuǎn)換。輸入為語義分割圖和對應(yīng)的原始圖像,生成器根據(jù)分割圖生成仿真圖像。分割圖像和仿真圖像作為判別器的輸入,生成器和判別器互相博弈,使生成的仿真圖像不斷接近真實圖像。基于語義分割圖,針對每個花粉、孢子圖像,選取其中20%語義分割圖像和原始圖像建立標(biāo)簽映射關(guān)系。然后以標(biāo)簽映射作為圖像合成的約束條件分別作為pix2pix網(wǎng)絡(luò)圖像增廣模型的訓(xùn)練數(shù)據(jù)集和驗證數(shù)據(jù)集。最后使用剩余80%語義分割圖調(diào)用pix2pix網(wǎng)絡(luò)圖像增廣模型生成仿真的花粉、孢子圖像,擴充花粉、孢子圖像的數(shù)據(jù)集。

      1.4.1 生成器? 生成器的輸出為花粉、孢子的仿真圖像,其網(wǎng)絡(luò)模型基于U-net結(jié)構(gòu),該結(jié)構(gòu)參照具有對稱性的編碼-解碼模型設(shè)計。U-Net結(jié)構(gòu)的不同之處是將第 i 層和第 n-i 層連接起來,其中 n 是總層數(shù),這種連接方式稱為跳過連接。U-Net結(jié)構(gòu)通過卷積和池化下采樣提取特征信息,使用轉(zhuǎn)置卷積來上采樣并裁剪之前的低層特征圖進(jìn)行融合用來生成仿真圖像,U-Net圖像細(xì)節(jié)提升明顯。編碼部分采用8個卷積核大小為4、步長為2的卷積層,不斷對特征圖進(jìn)行下采樣操作以進(jìn)行編碼,使用BN層歸一化從而加速網(wǎng)絡(luò)的收斂,再通過Relu函數(shù)對特征圖進(jìn)行激活操作。解碼部分采用8個卷積核大小為4、步長為2的反卷積層,不斷對特征進(jìn)行空間擴充,使其恢復(fù)為原始的輸入大小,再通過Tanh函數(shù)對特征圖進(jìn)行激活操作。

      1.4.2 判別器? pix2pix判別器使用patchGAN結(jié)構(gòu),將圖像等分成若干個固定大小的patch,分別判斷每個patch的真假,再取平均值作為判別器的輸出。該判別器使用步長為2的跨步卷積與普通卷積操作不斷對圖像進(jìn)行下采樣,最終得到一個大小為30×30的patch,該patch對應(yīng)著原圖30×30個圖像塊,patch中每個位置的取值代表判別器對其對應(yīng)塊的判別結(jié)果。

      1.4.3 圖像增廣評價

      1.4.3.1 結(jié)構(gòu)相似性 用結(jié)構(gòu)相似性模型(SSIM)? [29] 將失真信息建模為圖像亮度信息、對比度信息和結(jié)構(gòu)信息的組合。亮度信息 l(x,y) 、對比度信息 c(x,y) 和結(jié)構(gòu)信息 s(x,y) 分別用下列公式計算:

      l(x,y)= 2μ xμ y+C 1 μ 2 x+μ 2 y+C 1 ??(4)

      c(x,y)= 2σ xσ y+C 2 σ 2 x+σ 2 y+C 2 ??(5)

      s(x,y)= σ? xy +C 3 σ xσ y+C 3 ??(6)

      式中 μ? x? 和 μ? y? 反映花粉、孢子圖像的亮度均值信息, σ? x? 和 σ? y? 反映花粉、孢子圖像的對比度方差, σ? xy? 是反映兩幅圖像的結(jié)構(gòu)信息相關(guān)系數(shù), C? 1? 、 C? 2? 和 C? 3? 為常量系數(shù)。綜合上述3類信息計算2幅圖的結(jié)構(gòu)相似性( SSIM ):

      SSIM(x,y,z)=[l(x,y)] α[c(x,y)] β[s(x,y)] γ? (7)

      1.4.3.2 增廣結(jié)果? 利用pix2pix網(wǎng)絡(luò)對花粉孢子的原始圖像(圖6a)進(jìn)行增廣生成仿真圖像。如圖6b~6e所示,pix2pix模型生成的仿真圖像與原始圖像存在較高的相似性,前景、背景基本一致?;ǚ?、孢子數(shù)據(jù)集由最初的 1 181 張圖像、擴充至 5 905 張圖像;單個類別最少的花粉、孢子圖像由5張擴充至25張,數(shù)據(jù)樣本得到顯著增廣。

      使用結(jié)構(gòu)相似性模型計算原始圖像與仿真圖像的相似度,整體平均相似度達(dá)到85.4%;綱目Pinopsida相似度平均值最高,達(dá)到91.48%;綱目Campanulids相似度平均值最低,達(dá)到81.1%;綱目Pinopsida相似度中位值最高,達(dá)到93.28%;綱目Basal core eudicots相似度中位值最低,達(dá)到79.44%。各個花粉、孢子綱目相似度分布如圖7所示。

      2 結(jié) 果

      基于花粉、孢子圖像增廣數(shù)據(jù)集,選取Faster RCNN? [30] 、YOLOv3? [31] 模型建立花粉、孢子檢測算法,用來驗證本文圖像增廣算法對于提升花粉、孢子檢測效果的有效性。

      Faster RCNN是兩階段目標(biāo)檢測算法,基于CNN? [32] 的方法可以從花粉、孢子圖像樣本中學(xué)習(xí)特征,提取與圖像更相符的特征,提高檢測準(zhǔn)確度。VGG16網(wǎng)絡(luò)? [33] 的結(jié)構(gòu)相對簡單,性能比較高效。具體工作流程為:輸入花粉、孢子圖像并調(diào)整尺寸大小后送入卷積層,通過卷積層獲得花粉、孢子圖像的特征圖,RPN從特征圖中生成若干個候選框。再通過ROI pooling層提取候選框和卷積層輸出的特征圖。最后將其送入全連接層進(jìn)行分類和回歸。

      另一種以YOLOv3為代表的單階段目標(biāo)檢測算法,YOLOv3算法基于Darknet53網(wǎng)絡(luò)結(jié)構(gòu),借鑒殘差網(wǎng)絡(luò)思想優(yōu)化特征提取過程,輸出多尺度特征; YOLOv3算法采用多尺度預(yù)測網(wǎng)絡(luò),將提取的特征進(jìn)行回歸,確定目標(biāo)邊框的位置、類別、置信度,最后使用非極大值抑制算法保留置信度高的預(yù)測框。

      2.1 檢測評價指標(biāo)

      為了檢驗花粉、孢子的識別效果,采用機器學(xué)習(xí)常見的3種指標(biāo),分別為準(zhǔn)確率( Accuracy )、精準(zhǔn)率( Precision )、召回率 (Recall ),計算公式如下:

      Accuracy = ?TP+TN TP+TN+FP+FN? ?(8)

      Precision=?? TP TP+FP? ?(9)

      Recall = ?TP TP+FN? ?(10)

      上述公式中 TP 為正確識別正樣數(shù)量, FP 為錯誤識別正樣本數(shù)量, TN 為正確識別負(fù)樣本數(shù)量, FN 為錯誤識別負(fù)樣本數(shù)量。

      2.2 花粉、孢子檢測結(jié)果

      為了驗證花粉、孢子圖像增廣對花粉、孢子識別的影響,基于149種花粉、孢子分別構(gòu)建了增廣前和增廣后的數(shù)據(jù)集,分別按照 8∶ 2劃分訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。再使用檢測模型對比圖像增廣前后花粉、孢子檢測效果。由于篇幅有限,本研究僅列舉部分花粉、孢子類別作為示意圖。以Faster RCNN檢測模型為例,主要列舉ilex aquifolium、asplenium hemionitis、andryala pinnatifida、gevuina avellana等10種花粉、孢子的檢測效果,其中圖8a、圖8c為圖像增廣前花粉、孢子檢測效果,圖8b、圖8d為為增廣后花粉、孢子檢測效果。

      以YOLOv3檢測模型為例,主要列舉soldanella alpina、salacia chlorantha、mitraria coccinea、atriplex portulacoides等10種花粉、孢子的檢測效果,其中圖9a、圖9c為圖像增廣前花粉、孢子檢測效果,圖9b、圖9d為增廣后花粉、孢子檢測效果。

      從圖8、圖9中對比可以得出,經(jīng)過圖像增廣后,原有無法識別或錯誤識別的部分花粉、孢子圖像能夠被準(zhǔn)確檢測,圖像檢測結(jié)果對比顯示經(jīng)過增廣后花粉、孢子圖像的識別效果顯著提高?;贔aster RCNN檢測模型,經(jīng)過增廣后圖像識別的準(zhǔn)確率、精準(zhǔn)率、召回率分別提升3.81個百分點、5.98個百分點、2.06個百分點;基于YOLOv3檢測模型,經(jīng)過增廣后圖像識別的準(zhǔn)確率、精準(zhǔn)率、召回率則分別提升3.58個百分點、4.93個百分點、2.22個百分點(圖10)。

      3 討 論

      本研究建立卷積評價機制改進(jìn)自適應(yīng)閾值的花粉、孢子圖像分割算法? [27] ,利用圖像卷積計算后的距離差為度量標(biāo)準(zhǔn)擇優(yōu)選取語義分割圖像,相對于常見的Otsu閾值分割法、區(qū)域生長閾值分割法、Canny邊緣分割法和自適應(yīng)閾值分割法有更高的分割精準(zhǔn)度,有助于圖像增廣模型生成細(xì)節(jié)更逼真的孢子圖像。

      基于Pix2Pix網(wǎng)絡(luò)? [28] 的花粉、孢子圖像增廣模型,生成器使用U-Net結(jié)構(gòu),能夠多層次提取特征并綜合;判別器借鑒PatchGAN結(jié)構(gòu),能夠突出圖像細(xì)節(jié)。而傳統(tǒng)圖像增廣主要通過旋轉(zhuǎn)、翻轉(zhuǎn)、平移等方式擴充樣本數(shù)據(jù)集,本質(zhì)是同一張圖像,獲得的信息增益有限。相對于GAN、CAGN、ACGAN模型,結(jié)合語義分割圖像的Pix2Pix增廣模型,生成的花粉、孢子圖像輪廓、紋理、主體結(jié)構(gòu)更加逼真。

      利用圖像增廣后的樣本數(shù)據(jù)集訓(xùn)練Faster RCNN、YOLOv3花粉、孢子檢測模型,能夠有效提升花粉、孢子檢測效果。此前基于神經(jīng)網(wǎng)絡(luò)的花粉、孢子檢測? [18] 主要涉及10余種類別,精準(zhǔn)率89%,拓展花粉、孢子類別后精準(zhǔn)率有所下降。本研究算法在149種類別花粉、孢子的基礎(chǔ)上,基于Faster RCNN及YOLOv3檢測模型的檢測精準(zhǔn)率分別達(dá)到92.16%、90.57%,拓展花粉、孢子檢測類別的背景下能夠取得更高的精準(zhǔn)率。

      本研究算法解決了實際應(yīng)用中花粉、孢子采樣難、樣本少、種類繁多的難題,為基于圖像處理技術(shù)的花粉、孢子或其他顯微鏡下目標(biāo)檢測提供了科學(xué)依據(jù),具有較高的研究應(yīng)用價值。但是當(dāng)前的算法涉及階段多,工作流程長。后續(xù)研究中將把花粉、孢子圖像增廣模型和花粉、孢子圖像檢測模型融合,建立圖像增廣與花粉、孢子檢測一體化模型。

      參考文獻(xiàn):

      [1]? 吳瑞民,李朝獻(xiàn),李妤蓉. 5種快速方法檢測真菌孢子的比較[J]. 國際檢驗醫(yī)學(xué)雜志,2015,36(9):1257-1258.

      [2] 劉 惠,冀榮華,祁力鈞,等. 基于PCA和BP神經(jīng)網(wǎng)絡(luò)的萬壽菊黑斑病孢子識別[J].中國農(nóng)業(yè)大學(xué)學(xué)報,2015,20(6):263-268.

      [3] 謝永華,趙賢國,王 琢. 基于突變點幾何約束直方圖的花粉圖像識別[J]. 計算機仿真, 2018,35(12):411-416.

      [4] GEETHA N K, BRIDJESH P. Overview of machine learning and its adaptability in mechanical engineering[J]. Materials Today: Proceedings,2020,9:611-617.

      [5] RONG C. A summary of research on deep learning in time series learning methods[J]. International Core Journal of Engineering, 2020, 6(9):24-30.

      [6] LECROSNIER L, KHEMMAR R, RAGOT N, et al. Deep learning-based object detection, localisation and tracking for smart wheelchair healthcare mobility[J]. International Journal of Environmental Research and Public Health,2020, 18(1):91-99.

      [7] YANG J, LI S B, WANG Z, et al. Using deep learning to detect defects in manufacturing: A comprehensive survey and current challenges[J]. Materials (Basel, Switzerland),2020, 13(24):55-57.

      [8] MING-FONG T, HUNG-JU T. Enhancing the identification accuracy of deep learning object detection using natural language processing[J]. The Journal of Supercomputing,2021,20(3):525-527.

      [9] ITO S, ANDO K, KOBAYASHI K, et al. Automated detection of spinal schwannomas utilizing deep learning based on object detection from magnetic resonance imaging[J]. Spine, 2021, 46(2):195-200.

      [10] ZENG Y N, DUAN Q W, CHEN X R, et al. UAVData: A dataset for unmanned aerial vehicle detection[J]. Soft Computing,2021, 25:5385-5393.

      [11] HU J Y, RICHARD S C J, ZHANG J S. Saliency-based YOLO for single target detection[J]. Knowledge and Information Systems,2021,63 :717-732.

      [12] KARIM S, ZHANG Y, YIN S L, et al. Auxiliary bounding box regression for object detection in optical remote sensing imagery[J]. Sensing and Imaging,2021, 22(1):305-315.

      [13] SONG Z N, SUI H G, LI H. A hierarchical object detection method in large-scale optical remote sensing satellite imagery using saliency detection and CNN[J]. International Journal of Remote Sensing, 2021, 42(8):2827-2847.

      [14] ZHOU S R, JIA Q. Enhanced SSD with interactive multi-scale attention features for object detection[J]. Multimedia Tools and Applications,2021,80(11):539-556.

      [15] LI H, DONG Y, XU L W, et al. Object detection method based on global feature augmentation and adaptive regression in IoT[J]. Neural Computing and Applications,2021, 33(4):119-131.

      [16] OMARA I, HAGAG A, MA G Z, et al. A novel approach for ear recognition: learning Mahalanobis distance features from deep CNNs[J]. Machine Vision and Applications,2021, 38(20):1155-1160.

      [17] GAO J F, QUMMAR S, ZHANG J M, et al. Ensemble framework of deep CNNs for diabetic retinopathy detection[J]. Computational Intelligence and Neuroscience, 2020,8(6):698-709.

      [18] RAMON G C,CARLOS J G O, ANTONIO G M, et al. Precise pollen grain detection in bright field microscopy using deep learning techniques [J].Sensors, 2019, 19(3): 583-595.

      [19] VOACTOR S, JOSE A L, AZNARTE I D. Improving classification of pollen grain images of the POLEN23E dataset through three different applications of deep learning convolutional neural networks[J]. PLoS One,2018,13(9): 107-120.

      [20] 潘浩晨,舒軍武. 第四紀(jì)主要孢粉數(shù)據(jù)庫評述[J]. 微體古生物學(xué)報,2020,37(2):188-196.

      [21] PANG Y T, ZHOU X Y, HE W, et al. Uniform design-based gaussian process regression for data-driven rapid fragility assessment of bridges[J]. Journal of Structural Engineering,2021, 147(4):387-399.

      [22] WANG J H, GUO Y, WANG Z H, et al. Advancing graph convolution network with revised laplacian matrix[J]. Chinese Journal of Electronics,2020, 29(6):1134-1140.

      [23] ZOU L, SONG L T, WEISE T, et al. A survey on regional level set image segmentation models based on the energy functional similarity measure[J]. Neurocomputing, 2020,45(2):606-622.

      [24] HUANG C Y, LI X R, WEN Y L. An OTSU image segmentation based on fruitfly optimization algorithm[J]. Alexandria Engineering Journal,2021, 60(1):183-188.

      [25] JIANG Y K, QIAN J H, LU S J, et al. LRVRG: a local region-based variational region growing algorithm for fast mandible segmentation from CBCT images[J]. Oral Radiology,2021, 9(1):201-210.

      [26] HUANG C, JIN W, XU Q, et al. Sub-pixel edge detection algorithm based on canny-zernike moment method[J]. Journal of Circuits, Systems and Computers,2020, 29(15):273-285.

      [27] WANG T, WANG X F, GEORGE S L, et al. Design and analysis of biomarker-integrated clinical trials with adaptive threshold detection and flexible patient enrichment[J]. Journal of Biopharmaceutical Statistics, 2020,30(6) :1060-1076.

      [28] WEN P, CARLOS T V, MICHAEL J P. Stochastic pix2pix: A new machine learning method for geophysical and well conditioning of rule-based channel reservoir models[J]. Natural Resources Research, 2020, 30:1319-1345.

      [29] 張偌雅,李珍珍.數(shù)字圖像質(zhì)量評價綜述[J].現(xiàn)代計算機,2017(29):78-81.

      [30] MA S L, HUANG Y, CHE X J, et al. Faster RCNN-based detection of cervical spinal cord injury and disc degeneration[J]. Journal of Applied Clinical Medical Physics,2020, 21(9):235-243.

      [31] AHMED I, JEON G, CHEHRI A, et al. Adapting Gaussian YOLOv3 with transfer learning for overhead view human detection in smart cities and societies[J]. Sustainable Cities and Society, 2021, 10(70):290-298.

      [32] HE F, CHUN R K M, QIU Z C, et al. Choroid segmentation of retinal OCT images based on CNN classifier and fitter[J]. Computational and Mathematical Methods in Medicine,2021,33(5):108-119.

      [33] ZHANG Z P, HE J, ZHANG Z W, et al. Emotion recognition algorithm based on panorama-plane mapping dataset and VGG16 in prison monitoring system[J]. Journal of Physics: Conference Series,2020, 16(27):120-130.

      (責(zé)任編輯:張震林)

      猜你喜歡
      圖像分割
      基于圖像分割和LSSVM的高光譜圖像分類
      計算機定量金相分析系統(tǒng)的軟件開發(fā)與圖像處理方法
      基于自動智能分類器的圖書館亂架圖書檢測
      基于灰色系統(tǒng)理論的數(shù)字圖像處理算法
      一種改進(jìn)的分水嶺圖像分割算法研究
      科技視界(2016年26期)2016-12-17 16:25:03
      基于LabVIEW雛雞雌雄半自動鑒別系統(tǒng)
      一種圖像超像素的快速生成算法
      基于魯棒性的廣義FCM圖像分割算法
      一種改進(jìn)的遺傳算法在圖像分割中的應(yīng)用
      科技視界(2016年13期)2016-06-13 20:55:38
      基于QPSO聚類算法的圖像分割方法
      科技視界(2016年12期)2016-05-25 11:54:25
      曲水县| 水城县| 民县| 化州市| 通州区| 邓州市| 城固县| 连云港市| 奈曼旗| 盐源县| 游戏| 安西县| 安阳县| 红原县| 普格县| 德安县| 新昌县| 霍林郭勒市| 定远县| 额济纳旗| 合阳县| 开阳县| 临湘市| 铜梁县| 枣庄市| 广平县| 芒康县| 确山县| 东阿县| 略阳县| 晋江市| 特克斯县| 儋州市| 鲁山县| 东方市| 安阳县| 沙洋县| 宁国市| 凤庆县| 阿拉善盟| 虞城县|