張 帆 徐建瑜
(寧波大學(xué)信息科學(xué)與工程學(xué)院 浙江 寧波 315211)
?
基于圖像特征與競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)的蟹苗密度估計(jì)
張 帆 徐建瑜
(寧波大學(xué)信息科學(xué)與工程學(xué)院 浙江 寧波 315211)
蟹苗的密度估計(jì)在蟹苗養(yǎng)殖中有著重要的意義。但現(xiàn)有的基于圖像處理的密度估計(jì)算法不能對(duì)蟹苗圖像進(jìn)行準(zhǔn)確地密度估計(jì),因此提出一種基于圖像特征與競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)的蟹苗密度估計(jì)算法。首先引入背景建模與噪聲處理得到前景圖像像素?cái)?shù);然后使用閾值區(qū)分高密度圖像和低密度圖像;最后對(duì)閾值上下圖像分別采用基于全局特征的密度等級(jí)分類算法和基于局部特征的線性回歸算法。其中蟹苗圖像的密度等級(jí)由競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)進(jìn)行劃分和判斷。實(shí)驗(yàn)結(jié)果表明正確率可達(dá)到93.95%。
蟹苗密度估計(jì) 閾值判別 線性回歸 競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò) 紋理特征
隨著梭子蟹人工育苗產(chǎn)業(yè)的擴(kuò)大,對(duì)蟹苗密度的估計(jì)有了廣泛需求。在育苗過(guò)程中獲得蟹苗密度信息對(duì)蟹苗的餌料投喂、健康判斷和產(chǎn)量預(yù)估具有重要意義。作為蟹苗狀態(tài)的主要表征,蟹苗密度也為育苗過(guò)程中養(yǎng)殖環(huán)境的判斷和蟹苗生長(zhǎng)狀態(tài)分析提供了決策參考。因此,對(duì)蟹苗密度進(jìn)行準(zhǔn)確估計(jì)具有重要意義。
傳統(tǒng)的蟹苗密度估計(jì)使用人工觀測(cè)的方法,對(duì)觀測(cè)人員的經(jīng)驗(yàn)要求較高,且主觀性強(qiáng),環(huán)境干擾因素多。隨著計(jì)算機(jī)視覺和人工智能等領(lǐng)域相關(guān)技術(shù)的發(fā)展,基于圖像處理的水下生物密度估計(jì)成為智能化水產(chǎn)養(yǎng)殖的研究熱點(diǎn)。現(xiàn)有的基于圖像處理的密度估計(jì)算法分為以下三種:(1) 基于局部特征的統(tǒng)計(jì)算法[1-3]采用前景目標(biāo)檢測(cè)的方法,對(duì)前景圖像進(jìn)行像素統(tǒng)計(jì)或是特征分析,通過(guò)統(tǒng)計(jì)前景目標(biāo)個(gè)體來(lái)獲取目標(biāo)密度。此類算法對(duì)低密度圖像的目標(biāo)密度估計(jì)性能較好,而對(duì)于高密度圖像,由于目標(biāo)個(gè)體之間存在遮擋,導(dǎo)致算法密度估計(jì)性能降低。(2) 基于全局特征的密度估計(jì)算法[4-6]采用紋理分析或回歸擬合的方法,對(duì)整個(gè)圖像的特征信息進(jìn)行分析計(jì)算,對(duì)圖像中目標(biāo)密度等級(jí)進(jìn)行分類,從而估計(jì)目標(biāo)密度。此類算法對(duì)各個(gè)密度等級(jí)的圖像密度估計(jì)性能較好,但在低密度情況下容易受背景噪聲的影響。(3) 結(jié)合局部特征和全局特征的密度估計(jì)算法[7-10]使用閾值區(qū)分低密度圖像和高密度圖像,對(duì)低密度圖像使用基于局部特征的目標(biāo)個(gè)體統(tǒng)計(jì)的方法,對(duì)高密度圖像使用基于全局特征的密度估計(jì)的方法。此類算法對(duì)不同密度等級(jí)的圖像有更準(zhǔn)確的估計(jì),且適應(yīng)性較好。
文獻(xiàn)[8]提出的結(jié)合局部特征和全局特征的密度估計(jì)算法多用于人群密度估計(jì),由于人群圖像與蟹苗圖像差別較大,因此其中針對(duì)人群的密度等級(jí)標(biāo)準(zhǔn)不適用于蟹苗的密度估計(jì)。文獻(xiàn)[9]提出的基于頻率直方圖特征和神經(jīng)網(wǎng)絡(luò)的密度估計(jì)算法,對(duì)魚苗圖像的密度估計(jì)性能較好,但該算法所使用的特征維數(shù)較高,網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,計(jì)算量大,效率較低。
針對(duì)上述問題,本文提出一種基于圖像特征與競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)的蟹苗密度估計(jì)算法。流程如圖1所示。
圖1 算法主流程
首先,對(duì)采集的圖像進(jìn)行背景建模和噪聲處理;然后,統(tǒng)計(jì)前景圖像像素?cái)?shù),得出合適閾值;再對(duì)高于閾值的高密度圖像進(jìn)行紋理特征分析,通過(guò)競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)(CNN)劃分出蟹苗圖像的密度等級(jí)并統(tǒng)計(jì)其對(duì)應(yīng)的蟹苗個(gè)數(shù)范圍,對(duì)低于閾值的低密度圖像進(jìn)行前景圖像像素?cái)?shù)和蟹苗個(gè)數(shù)的統(tǒng)計(jì),得出兩者之間的線性回歸模型;最后,對(duì)閾值上下的圖像分別采用基于全局特征的密度等級(jí)分類算法和基于局部特征的線性回歸算法來(lái)估計(jì)蟹苗密度。
1.1 前景目標(biāo)提取
蟹苗圖像采集過(guò)程中,受外界光源影響,蟹苗的活動(dòng)范圍有限,不會(huì)分布在整個(gè)圖像中,因此本文劃分出圖像中的感興趣區(qū)域(ROI)即蟹苗活動(dòng)區(qū)域。這不僅排除了部分水中雜質(zhì)的干擾,同時(shí)降低了計(jì)算量。本文采用基于混合Gauss模型的背景建模方法(GMM)[11]來(lái)提取前景圖像。GMM算法對(duì)圖像背景的變化有較好的適應(yīng)性,可以排除部分水下環(huán)境雜質(zhì)的影響。為進(jìn)一步去除圖像中的雜質(zhì),本文對(duì)所得的前景圖像提取輪廓,將輪廓周長(zhǎng)小于正常蟹苗圖像周長(zhǎng)的像素塊去除。原圖與預(yù)處理結(jié)果圖對(duì)比如圖2所示。
圖2 預(yù)處理前后對(duì)比
1.2 閾值判別
基于局部特征的密度估計(jì)算法,是基于目標(biāo)個(gè)數(shù)和前景圖像像素?cái)?shù)存在線性遞增關(guān)系[12]。但該線性關(guān)系在目標(biāo)圖像密度較高時(shí),密度估計(jì)性能下降。因此需要引入閾值判別機(jī)制,區(qū)分低密度圖像和高密度圖像。為了獲取判別閾值,本文實(shí)驗(yàn)選取在外部光源引誘條件下,蟹苗密度隨時(shí)間逐漸增加的視頻數(shù)據(jù),對(duì)視頻中圖像進(jìn)行預(yù)處理后,計(jì)算其前景圖像像素?cái)?shù)并統(tǒng)計(jì)圖像中蟹苗個(gè)數(shù)。圖3顯示了該視頻中前景圖像像素?cái)?shù)和蟹苗個(gè)數(shù)的變化情況。由圖3可以看出,當(dāng)前景圖像像素?cái)?shù)達(dá)到一定值后,前景圖像像素?cái)?shù)和蟹苗個(gè)數(shù)的線性相關(guān)性降低。通過(guò)本文實(shí)驗(yàn)數(shù)據(jù)分析,選取前景圖像像素?cái)?shù)為28 000,蟹苗個(gè)數(shù)為700的數(shù)據(jù)點(diǎn)為閾值判別點(diǎn),設(shè)置閾值T=28 000。
圖3 前景圖像像素?cái)?shù)與蟹苗個(gè)數(shù)之間的關(guān)系
1.3 基于局部特征的線性回歸算法
對(duì)前景圖像像素?cái)?shù)小于等于T的圖像,先統(tǒng)計(jì)前景圖像像素?cái)?shù)作為局部特征,然后通過(guò)前景圖像像素?cái)?shù)和蟹苗個(gè)數(shù)之間的線性回歸模型,計(jì)算得出蟹苗密度。為了計(jì)算前景圖像像素?cái)?shù)和蟹苗個(gè)數(shù)之間的線性回歸模型,將通過(guò)本文實(shí)驗(yàn)得出的低密度圖像序列作為輸入數(shù)據(jù),使用圖像處理的方法統(tǒng)計(jì)其前景圖像像素?cái)?shù)和蟹苗個(gè)數(shù),得出實(shí)際數(shù)據(jù)點(diǎn)序列,而后曲線擬合數(shù)據(jù)點(diǎn)序列,得出實(shí)際數(shù)據(jù)點(diǎn)和擬合曲線如圖4所示。
圖4 實(shí)際數(shù)據(jù)點(diǎn)與擬合曲線
根據(jù)曲線擬合結(jié)果,得出蟹苗個(gè)數(shù)y和前景圖像像素?cái)?shù)x之間的線性回歸模型為式(1)。
y=-1×e-6x2+0.053x+2.052
(1)
線性回歸模型式(1)估算的蟹苗個(gè)數(shù)與實(shí)際值的平均絕對(duì)差值為13.95,由圖4可以看出該線性回歸模型可以較好地估計(jì)圖像中蟹苗的個(gè)數(shù)。
1.4 基于全局特征的密度等級(jí)分類算法
對(duì)前景圖像像素?cái)?shù)大于T的圖像,使用基于全局特征的密度等級(jí)分類算法。由于不同密度等級(jí)的圖像呈現(xiàn)不同的紋理特征[13],因此將紋理特征作為圖像的全局特征?;叶裙采仃?GLCM)是一種通過(guò)研究灰度的空間相關(guān)特性來(lái)描述紋理的常用方法,可以反映圖像在方向、間隔和變化幅度上的綜合信息。因此本文使用GLCM計(jì)算圖像的紋理信息。將GLCM統(tǒng)計(jì)計(jì)算出的不同的紋理特征組合成多維的紋理特征矢量輸入至已經(jīng)訓(xùn)練好的競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)(CNN)中,得出圖片的密度等級(jí)?;谌痔卣鞯拿芏鹊燃?jí)分類算法流程如圖5所示。
圖5 基于全局特征的密度估計(jì)算法流程
1.4.1 灰度共生矩陣
GLCM通過(guò)計(jì)算灰度值為i的像素點(diǎn),偏離距離d、方向角θ處出現(xiàn)灰度值為j的像素點(diǎn)的概率f(i,j|d,θ),構(gòu)成二維概率矩陣。通過(guò)不同統(tǒng)計(jì)方法計(jì)算該矩陣,可以得到描述不同紋理特征的特征描述子。本文實(shí)驗(yàn)圖像數(shù)據(jù)灰度等級(jí)為256,由于256個(gè)灰度級(jí)的GLCM計(jì)算量過(guò)大,因此縮減為64個(gè)灰度等級(jí)。本文實(shí)驗(yàn)計(jì)算64個(gè)灰度級(jí),θ=(0°,45°,90°,135°),d=1的GLCM,選用能量、熵、均勻度三個(gè)統(tǒng)計(jì)量組成特征矢量。
(2)
(3)
(4)
通過(guò)計(jì)算式(2)-式(4)可以得出每個(gè)GLCM的4個(gè)方向上的3種紋理特征值,因此每幀輸入圖像可提取出12個(gè)紋理特征值,組成12維的紋理特征矢量。
1.4.2 競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)
CNN可以對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行聚類劃分,訓(xùn)練之后的CNN可以對(duì)測(cè)試數(shù)據(jù)進(jìn)行等級(jí)分類。CNN分為輸入層和競(jìng)爭(zhēng)層,由于本文中計(jì)算所得的特征矢量維數(shù)為12,因此輸入層由12個(gè)神經(jīng)元構(gòu)成。本文設(shè)定密度等級(jí)個(gè)數(shù)為5個(gè),因此競(jìng)爭(zhēng)層有5個(gè)神經(jīng)元。網(wǎng)絡(luò)連接權(quán)值為wij(i=1,2,…,N;j=1,2,…,M),其中N=12,M=5,并且滿足約束條件式(5)。
(5)
按wij=1/N(i=1,2,…,N;j=1,2,…,M)賦予初值。在競(jìng)爭(zhēng)層中,神經(jīng)元相互競(jìng)爭(zhēng),最終只有一個(gè)神經(jīng)元獲勝,競(jìng)爭(zhēng)勝利的神經(jīng)元代表當(dāng)前輸入樣本的分類模式。競(jìng)爭(zhēng)后的權(quán)值按式(6)更新。
wij=wij+a(xi|m-wij)
(6)
CNN結(jié)構(gòu)如圖6所示。
圖6 競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
1.4.3 密度等級(jí)劃分
由于現(xiàn)存的密度估計(jì)算法所使用的密度等級(jí)標(biāo)準(zhǔn)僅適用于人群密度估計(jì),因此本文需要?jiǎng)澐殖鲂访鐖D像的密度等級(jí)作為密度估計(jì)的標(biāo)準(zhǔn)。CNN在無(wú)監(jiān)督情況下能夠自組織地分析輸入數(shù)據(jù)特征,從而對(duì)輸入數(shù)據(jù)進(jìn)行聚類處理[14-15]。因此,本文使用CNN對(duì)蟹苗圖像序列進(jìn)行密度等級(jí)劃分。本文實(shí)驗(yàn)選取經(jīng)閾值區(qū)分出的高密度圖像序列作為訓(xùn)練數(shù)據(jù)。實(shí)驗(yàn)中,將經(jīng)過(guò)預(yù)處理后的圖像,使用GLCM計(jì)算其紋理特征,將所得的特征描述子組合為特征矢量,將訓(xùn)練數(shù)據(jù)輸入CNN可以劃分出特定數(shù)量的密度等級(jí),然后對(duì)劃分完成的圖像序列進(jìn)行蟹苗個(gè)數(shù)統(tǒng)計(jì),獲得每個(gè)密度等級(jí)對(duì)應(yīng)的蟹苗個(gè)數(shù)范圍。密度等級(jí)劃分實(shí)驗(yàn)流程如圖7所示。
圖7 密度等級(jí)劃分流程
本文實(shí)驗(yàn)將訓(xùn)練圖像序列劃分為5個(gè)密度等級(jí),每個(gè)密度等級(jí)對(duì)應(yīng)的蟹苗個(gè)數(shù)范圍由圖像處理和人工統(tǒng)計(jì)結(jié)合的方法獲得。密度等級(jí)劃分實(shí)驗(yàn)結(jié)果如表1所示。
表1 蟹苗圖像的密度等級(jí)劃分表
1.4.4 密度等級(jí)分類
上述實(shí)驗(yàn)得出了蟹苗密度等級(jí)的標(biāo)準(zhǔn),并且訓(xùn)練出具有分類功能的CNN。在此基礎(chǔ)上,將前景圖像像素?cái)?shù)大于T的測(cè)試圖像通過(guò)紋理分析得出紋理特征矢量,輸入至訓(xùn)練完成的CNN中,得出密度等級(jí),最后根據(jù)蟹苗圖像的密度等級(jí)劃分表即可估計(jì)出測(cè)試圖像的蟹苗密度。
為了驗(yàn)證本文基于圖像特征與神經(jīng)網(wǎng)絡(luò)的蟹苗密度估計(jì)算法能有效地估計(jì)實(shí)際環(huán)境中蟹苗密度,實(shí)驗(yàn)采集了不同密度蟹苗的活動(dòng)視頻,然后對(duì)這些蟹苗的活動(dòng)視頻使用本文算法計(jì)算處理。
2.1 數(shù)據(jù)采集實(shí)驗(yàn)
視頻數(shù)據(jù)采集實(shí)驗(yàn)裝置如圖8所示,實(shí)驗(yàn)裝置主要由攝像頭、拍攝盒和背光源組成。攝像頭采用Basler acA1600-20gm攝像頭,背光源用尺寸為0.1 m×0.1 m的紅外燈板,蟹苗入口設(shè)在亞克力板和背光源之間。為模擬蟹苗密度逐漸增高的情況,在實(shí)驗(yàn)裝置后方放置一個(gè)9 W的小燈作為引誘光源。
圖8 數(shù)據(jù)采集裝置結(jié)構(gòu)
實(shí)驗(yàn)裝置可固定于蟹苗池中不同位置進(jìn)行視頻采集。實(shí)驗(yàn)錄制對(duì)象為溞狀幼體Ⅰ期的蟹苗。在引誘光源打開后,開始錄制,每次錄制時(shí)長(zhǎng)為50秒。
2.2 算法測(cè)試
使用上述實(shí)驗(yàn)裝置在蟹苗池中采集視頻數(shù)據(jù),共獲得7 860幀1 626×1 260像素的蟹苗圖像。選取靠近光源的1 046×322像素的圖像作為ROI,預(yù)處理得出前景圖像像素?cái)?shù),根據(jù)本文實(shí)驗(yàn)得出判別閾值,設(shè)定T=28 000(圖像中蟹苗個(gè)數(shù)約為700個(gè))。對(duì)于前景圖像像素?cái)?shù)小于T的圖像,采用基于局部特征的線性回歸算法計(jì)算其蟹苗密度。前景圖像像素?cái)?shù)小于T的圖像共2 730張,對(duì)這些圖像使用線性回歸模型計(jì)算得出蟹苗的估測(cè)數(shù)量。蟹苗的實(shí)際數(shù)量與估測(cè)數(shù)量的對(duì)比如圖9所示。經(jīng)過(guò)統(tǒng)計(jì)得出,實(shí)際蟹苗數(shù)量與估測(cè)數(shù)量平均絕對(duì)差值為12.04。
圖9 蟹苗的實(shí)際數(shù)量與估測(cè)數(shù)量
對(duì)于前景圖像像素?cái)?shù)大于T的圖像,采用基于全局特征的密度等級(jí)分類算法進(jìn)行密度估計(jì)。此類圖像共有5 130張,其中4 104張作為訓(xùn)練數(shù)據(jù),用來(lái)劃分密度等級(jí),1 026張作為測(cè)試數(shù)據(jù),用來(lái)測(cè)試本算法的分類效果。密度等級(jí)劃分為5個(gè)等級(jí):等級(jí)1(790~860個(gè)),等級(jí)2(860~950個(gè)),等級(jí)3(950~1 050個(gè)),等級(jí)4(1 050~1 120個(gè)),等級(jí)5(1 120~1 250個(gè))。將從訓(xùn)練數(shù)據(jù)中分析計(jì)算所得出的紋理特征矢量輸入到訓(xùn)練完成的CNN中進(jìn)行分類,分類結(jié)果如表2所示 。經(jīng)統(tǒng)計(jì)得出本算法分類正確率為94.93%,因此可以看出本算法能較好地對(duì)高密度圖像進(jìn)行密度等級(jí)分類。
表2 密度等級(jí)分類結(jié)果
2.3 與其他算法對(duì)比
對(duì)比算法選取文獻(xiàn)[3]提出的基于目標(biāo)輪廓和形態(tài)分類的密度估計(jì)算法和文獻(xiàn)[6]提出的基于子區(qū)域紋理特征和支持向量回歸模型的密度估計(jì)算法,對(duì)同樣的測(cè)試圖像序列進(jìn)行蟹苗密度估計(jì)。三種算法處理結(jié)果如表3所示。
表3 本文算法與其他算法對(duì)比
本文提出了一種基于圖像特征和競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)的蟹苗密度估計(jì)算法,算法采用閾值判別的機(jī)制將蟹苗圖像區(qū)分為低密度圖像和高密度圖像。對(duì)于低密度圖像,采用基于局部特征的線性回歸算法。對(duì)于高密度圖像,采用基于全局特征的密度等級(jí)分類算法。針對(duì)蟹苗密度等級(jí)的劃分,采用競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行聚類劃分,得出了蟹苗高密度圖像的密度等級(jí)劃分表。將該密度等級(jí)表與基于全局特征的密度等級(jí)分類算法結(jié)合,可估計(jì)出高密度圖像中蟹苗的密度。實(shí)驗(yàn)結(jié)果表明,本文算法可準(zhǔn)確地對(duì)不同密度的蟹苗圖像進(jìn)行密度估計(jì)。由于本文數(shù)據(jù)采集對(duì)象均為溞狀幼體Ⅰ期的蟹苗,因此對(duì)于多期蟹苗混合的圖像,本文算法有待進(jìn)一步的優(yōu)化。
[1] Rodriguez M,Laptev I,Sivic J,et al.Density-aware person detection and tracking in crowds[C]//2011 International Conference on Computer Vision.IEEE,2011:2423-2430.
[2] Fradi H,Dugelay J L.Crowd density map estimation based on feature tracks[C]//Multimedia Signal Processing (MMSP),2013 IEEE 15th International Workshop on.IEEE,2013:40-45.
[3] Luo S,Li X,Wang D,et al.Automatic Fish Recognition and Counting in Video Footage of Fishery Operations[C]//2015 International Conference on Computational Intelligence and Communication Networks (CICN).IEEE,2015:296-299.
[4] Cao L,Zhang X,Ren W,et al.Large scale crowd analysis based on convolutional neural network[J].Pattern Recognition,2015,48(10):3016-3024.
[5] Zhang C,Li H,Wang X,et al.Cross-scene crowd counting via deep convolutional neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:833-841.
[6] 胡宏宇,關(guān)可汗,李志慧.考慮特征空間分布的行人數(shù)量估計(jì)方法[J].長(zhǎng)安大學(xué)學(xué)報(bào):自然科學(xué)版,2015(S1):54-58.
[7] Gündüz A E,Temizel T T,Temizel A.Density estimation in crowd videos[C]//2014 22nd Signal Processing and Communications Applications Conference (SIU).IEEE,2014:822-825.
[8] 李寅,王貴錦,林行剛.結(jié)合局部和全局特征的人群密度估計(jì)算法[J].清華大學(xué)學(xué)報(bào):自然科學(xué)版,2013(4):542-545.
[9] Newbury P F,Culverhouse P F,Pilgrim D A.Automatic fish population counting by artificial neural network[J].Aquaculture,1995,133(1):45-55.
[10] 徐麥平,張二虎,陳亞軍.融合像素與紋理特征的人群人數(shù)統(tǒng)計(jì)方法研究[J].西安理工大學(xué)學(xué)報(bào),2015,31(3):340-346.
[11] Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[C]//Computer Vision and Pattern Recognition,1999.IEEE Computer Society Conference on.IEEE,1999,2.
[12] Davies A C,Yin J H,Velastin S A.Crowd monitoring using image processing[J].Electronics & Communication Engineering Journal,1995,7(1):37-47.
[13] Marana A N,Costa L D F,Lotufo R A,et al.Estimating crowd density with Minkowski fractal dimension[C]//Acoustics,Speech,and Signal Processing,1999 IEEE International Conference on.IEEE,1999,6:3521-3524.
[14] Haykin S S,Haykin S S,Haykin S S,et al.Neural networks and learning machines[M].Upper Saddle River,NJ,USA Pearson,2009.
[15] Maren A J,Harston C T,Pap R M.Handbook of neural computing applications[M].Academic Press,2014.
CRABLARVAEDENSITYESTIMATIONBASEDONIMAGEFEATUREANDCOMPETITIVENEURALNETWORK
Zhang Fan Xu Jianyu
(CollegeofInformationScienceandEngineering,NingboUniversity,Ningbo315211,Zhejiang,China)
Crab larvae density estimation is of great significance in breeding crabs. However, existing density estimation algorithms based on image processing cannot accurately estimate the density of crab larvae images at different density levels, we propose a crab density estimation algorithm based on image feature and competitive neural network. First we introduce background modeling with noise processing to get foreground image pixels. Then we use thresholds to distinguish between high density images and low density images. Finally, a regression algorithm based on local features is used to analyze images below the threshold and a classification algorithm based on global features is used to analyze images above the threshold. Density levels of crab larvae image are divided and judged by competitive neural network. Experimental results showed that algorithm can accurately estimate the density of crab larvae images at different density levels.
Crab larvae density estimate Threshold determination Linear regression Competitive neural network Texture feature
2016-08-18。張帆,碩士生,主研領(lǐng)域:圖像處理與機(jī)器學(xué)習(xí)。徐建瑜,副教授。
TP391.41
A
10.3969/j.issn.1000-386x.2017.08.042