涂雪瀅,劉世晶,2,錢(qián) 程
(1 中國(guó)水產(chǎn)科學(xué)研究院漁業(yè)機(jī)械儀器研究所,上海 200092;2 農(nóng)業(yè)農(nóng)村部漁業(yè)裝備與工程技術(shù)重點(diǎn)實(shí)驗(yàn)室,上海 200092)
中國(guó)漁業(yè)資源豐富,魚(yú)類(lèi)養(yǎng)殖品種繁多[1]。目前,漁業(yè)捕撈、養(yǎng)殖管理以及生產(chǎn)加工等都面臨魚(yú)類(lèi)精準(zhǔn)識(shí)別的問(wèn)題,且隨著漁業(yè)產(chǎn)業(yè)信息化發(fā)展步伐的加快,對(duì)魚(yú)類(lèi)品種的精準(zhǔn)分類(lèi)提出了更高的要求[2]。現(xiàn)階段魚(yú)類(lèi)識(shí)別手段大都集中在基于離水狀態(tài)的靜態(tài)識(shí)別,水下魚(yú)類(lèi)目標(biāo)受其自身高柔性的體態(tài)和多姿態(tài)的運(yùn)動(dòng)方式的制約,導(dǎo)致基于靜態(tài)圖像的識(shí)別方法在實(shí)際應(yīng)用場(chǎng)景中識(shí)別精度較低[3]。因此,急需從采樣手段、樣本集構(gòu)建以及高效識(shí)別算法等多個(gè)方面開(kāi)展研究,提升水下活體魚(yú)類(lèi)識(shí)別精度,滿(mǎn)足水下運(yùn)動(dòng)個(gè)體精準(zhǔn)識(shí)別的產(chǎn)業(yè)發(fā)展需要。
目前,魚(yú)類(lèi)種類(lèi)識(shí)別方式主要依賴(lài)人工,勞動(dòng)強(qiáng)度大,對(duì)魚(yú)體會(huì)造成損傷,不利于魚(yú)類(lèi)的福利養(yǎng)殖[4]。計(jì)算機(jī)視覺(jué)技術(shù)具有高精度、非接觸、速度快、抗干擾能力強(qiáng)等特點(diǎn)[5],在智能識(shí)別、自動(dòng)跟蹤、智能分類(lèi)等領(lǐng)域起到越來(lái)越重要的作用[6-8]?;跈C(jī)器視覺(jué)技術(shù)的目標(biāo)識(shí)別方法主要分為兩類(lèi),一類(lèi)是基于傳統(tǒng)BP、SVM等的傳統(tǒng)機(jī)器學(xué)習(xí)方法[9],另一類(lèi)是基于卷積的深度學(xué)習(xí)方法[10]。傳統(tǒng)的機(jī)器學(xué)習(xí)方法主要是利用已知特征進(jìn)行分類(lèi)學(xué)習(xí),在特征結(jié)構(gòu)明顯、學(xué)習(xí)場(chǎng)景單一的工況條件下取得了較好的識(shí)別效果[11],但由于其學(xué)習(xí)特征不具備空間縮放能力,導(dǎo)致算法適用場(chǎng)景受限,不能滿(mǎn)足動(dòng)態(tài)場(chǎng)景的識(shí)別要求[12]?;诰矸e網(wǎng)絡(luò)的深度學(xué)習(xí)算法是目前機(jī)器學(xué)習(xí)領(lǐng)域的研究熱點(diǎn),該方法通過(guò)構(gòu)建多個(gè)卷積層、池化層和全連接層實(shí)現(xiàn)對(duì)平移、旋轉(zhuǎn)、縮放等特征的有效識(shí)別,在圖像識(shí)別領(lǐng)域起到了越來(lái)越重要的作用[13]。自2012年至今,涌現(xiàn)出大量?jī)?yōu)秀卷積神經(jīng)網(wǎng)絡(luò)算法,如AlexNet、ZFNet、VGG、GoogleNet、ResNet、SENet等,已經(jīng)廣泛應(yīng)用在人臉、姿態(tài)、農(nóng)作物以及魚(yú)類(lèi)識(shí)別領(lǐng)域[14]。
ResNet算法[15]是目前應(yīng)用較為廣泛的分類(lèi)識(shí)別方法,該算法充分利用了淺層網(wǎng)絡(luò)信息,解決了模型梯度消失和梯度爆炸的問(wèn)題[16],在圖像識(shí)別領(lǐng)域取得了不錯(cuò)的成績(jī)。田強(qiáng)等[17]通過(guò)調(diào)整ResNet18模型的網(wǎng)絡(luò)結(jié)構(gòu),搭配Leaky ReLU激活函數(shù),實(shí)現(xiàn)汽車(chē)車(chē)標(biāo)識(shí)別,識(shí)別率高達(dá)99.8%。Adao等[18]通過(guò)替換線(xiàn)性層的方法改進(jìn)ResNet34網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)15種棉花害蟲(chóng)的分類(lèi),識(shí)別率達(dá)到98.1%。萬(wàn)鵬等[19]通過(guò)優(yōu)化ResNet50算法,結(jié)合遷移學(xué)習(xí)、Adam優(yōu)化和余弦退火方法,實(shí)現(xiàn)6種淡水魚(yú)類(lèi)的識(shí)別,識(shí)別率達(dá)到96.94%。上述基于ResNet的圖像識(shí)別研究有效提升了目標(biāo)識(shí)別精度,但識(shí)別對(duì)象大都為表型姿態(tài)變化較少的樣本,面對(duì)水下魚(yú)類(lèi)游泳運(yùn)動(dòng)的復(fù)雜性和姿態(tài)的多樣性,缺乏針對(duì)水下動(dòng)態(tài)圖像的有效試驗(yàn)論證。目前,基于ResNet算法的魚(yú)類(lèi)識(shí)別技術(shù)主要圍繞單一的框架結(jié)構(gòu)開(kāi)展相關(guān)研究,缺少對(duì)不同網(wǎng)絡(luò)層數(shù)框架結(jié)構(gòu)的綜合比較分析,雖然ResNet可以通過(guò)殘差單元使網(wǎng)絡(luò)結(jié)構(gòu)無(wú)限擴(kuò)大,但是增加的網(wǎng)絡(luò)結(jié)構(gòu)不可避免地增加了算法的復(fù)雜度,降低了運(yùn)行效率[20]。
以ResNet框架為研究對(duì)象,通過(guò)對(duì)比分析不同網(wǎng)絡(luò)層數(shù)和框架結(jié)構(gòu)識(shí)別效果,以期找到適用于多姿態(tài)魚(yú)類(lèi)目標(biāo)識(shí)別最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)。首先,采取多角度圖像獲取方式,結(jié)合網(wǎng)絡(luò)檢索手段,豐富樣本數(shù)量,增加算法對(duì)魚(yú)類(lèi)復(fù)雜姿態(tài)的適應(yīng)能力,以期解決復(fù)雜樣本庫(kù)構(gòu)建問(wèn)題;其次,在經(jīng)驗(yàn)分析的基礎(chǔ)上,選取ResNet18、ResNet34和ResNet50這3種網(wǎng)絡(luò)結(jié)構(gòu)作為測(cè)試結(jié)構(gòu),通過(guò)對(duì)比分析不同網(wǎng)絡(luò)結(jié)構(gòu)的識(shí)別效果,以期找到識(shí)別精度和運(yùn)行效率匹配度最佳的網(wǎng)絡(luò)結(jié)構(gòu),滿(mǎn)足水下魚(yú)類(lèi)動(dòng)態(tài)目標(biāo)精準(zhǔn)識(shí)別產(chǎn)業(yè)發(fā)展需求,為產(chǎn)業(yè)智能技術(shù)升級(jí)提供算法支撐。
如圖1所示,試驗(yàn)系統(tǒng)由透明玻璃魚(yú)缸、過(guò)濾器、相機(jī)、支架和圖形工作站組成。其中,玻璃魚(yú)缸的長(zhǎng)、寬、高均為600 mm,距地面1 m,玻璃厚度為7 mm,工作水深460 mm,相機(jī)型號(hào)為WST-U1080。為了避免鏡面反射,將魚(yú)缸的背面、底面、右側(cè)面采用白紙遮擋。過(guò)濾器采用基于高效培菌濾材所建立的硝化系統(tǒng)的小型外置水循環(huán)過(guò)濾器,保持試驗(yàn)過(guò)程中水質(zhì)健康穩(wěn)定,減少換水次數(shù)。為了增加樣本數(shù)量,采用位于魚(yú)缸兩側(cè)的2臺(tái)相機(jī)進(jìn)行采樣,調(diào)整采樣高度使采樣面與魚(yú)缸平面近似平行,保證圖像數(shù)據(jù)集構(gòu)建的有效性。
圖1 試驗(yàn)裝置Fig.1 Test equipment
如圖2 a所示,受相機(jī)鏡頭光路影響,圖像存在一定的徑向畸變,因此本研究采用標(biāo)準(zhǔn)棋盤(pán)格方法[21]進(jìn)行圖像矯正,矯正后樣本圖像如圖2 b所示。
圖2 魚(yú)類(lèi)圖像矯正前后對(duì)比Fig.2 Comparison of fish image before and after correction
為了解決模型退化帶來(lái)的信息傳輸過(guò)程中丟失、損耗等問(wèn)題,何凱明等[15]提出ResNet殘差網(wǎng)絡(luò),使用殘差學(xué)習(xí)單元,形成短路機(jī)制,實(shí)現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)的深層次應(yīng)用。ResNet殘差結(jié)構(gòu)如圖3所示,x是輸入信號(hào),經(jīng)過(guò)第一層線(xiàn)性變化,得到F(x),經(jīng)過(guò)第二層線(xiàn)性變化,得到輸出信號(hào)H(x)。在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,隨著學(xué)習(xí)準(zhǔn)確率不斷上升到飽和狀態(tài),輸出信號(hào)H(x)趨于穩(wěn)定,為保證學(xué)習(xí)準(zhǔn)確率不再隨訓(xùn)練層數(shù)加深而降低,原本帶權(quán)值的x須變?yōu)楹愕扔成?,保持輸出信?hào)H(x)與輸入信號(hào)x相等,得到F(x)=H(x)-x,為使得H(x)與x隨網(wǎng)絡(luò)結(jié)構(gòu)加深而保持等值,F(xiàn)(x)須趨近于0,ResNet訓(xùn)練過(guò)程逐漸轉(zhuǎn)向?yàn)閷?duì)殘差F(x)趨于0的學(xué)習(xí)。
圖3 ResNet殘差結(jié)構(gòu)Fig.3 ResNet residual structure
ResNet有不同的網(wǎng)絡(luò)層數(shù),比較常見(jiàn)的有18-layer、34-layer、50-layer,其結(jié)構(gòu)均由5個(gè)卷積層和1個(gè)綜合模塊組成[15],其中卷積層由不同數(shù)量的殘差模塊不斷堆疊組成,綜合模塊由全連接層、池化層和分類(lèi)模塊組成[22]。不同層數(shù)的ResNet的主要區(qū)別就在于每個(gè)卷積層包含的殘差塊的數(shù)量和殘差塊中的具體參數(shù)不同。
根據(jù)ResNet網(wǎng)絡(luò)的成熟應(yīng)用形式[15],經(jīng)典的ResNet18、ResNet34和ResNet50網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。其中,ResNet18和ResNet34結(jié)構(gòu)較為簡(jiǎn)單,以?xún)蓚€(gè)3×3的卷積核和一個(gè)跳躍結(jié)構(gòu)構(gòu)成的一個(gè)殘差單元,通過(guò)多個(gè)殘差單元串聯(lián)組成網(wǎng)絡(luò)結(jié)構(gòu),ResNet34在ResNet18的基礎(chǔ)上加深了網(wǎng)絡(luò)層次;而ResNet50在ResNet34的基礎(chǔ)上,將2層殘差單元替換成3層殘差單元,其中3層殘差單元是由一個(gè)1×1、一個(gè)3×3和一個(gè)1×1的卷積核相串聯(lián),同時(shí)并聯(lián)一個(gè)跳躍結(jié)構(gòu),再通過(guò)數(shù)個(gè)殘差單元串聯(lián)組成網(wǎng)絡(luò)結(jié)構(gòu)。
圖4 不同層數(shù)ResNet網(wǎng)絡(luò)結(jié)構(gòu)模型Fig.4 Different ResNet structure models
2.2.1 損失函數(shù)
損失函數(shù)[23]在模型訓(xùn)練時(shí)能夠反映出模型與實(shí)際的差距,損失函數(shù)的大小與模型的優(yōu)劣成反比,損失函數(shù)的值越小,代表模型的預(yù)測(cè)值與真實(shí)值相差越小,模型識(shí)別精度越高。交叉損失熵[24]作為ResNet模型的損失函數(shù)在目標(biāo)識(shí)別領(lǐng)域取得了較好的效果[19],因此采用交叉損失熵作為損失函數(shù),進(jìn)行驗(yàn)證試驗(yàn),其表達(dá)式為:
(1)
式中:loss為損失函數(shù);m為取樣數(shù)量;n為分類(lèi)數(shù)量;Pij為符號(hào)函數(shù),當(dāng)i的類(lèi)別為j時(shí)取1,否則取0;qij為i屬于j類(lèi)的預(yù)測(cè)概率。
2.2.2 學(xué)習(xí)率
學(xué)習(xí)率是決定ResNet模型收斂速度與收斂效果的重要參數(shù),學(xué)習(xí)率的大小決定了模型學(xué)習(xí)速度的快慢[25]。采用指數(shù)衰減方法對(duì)學(xué)習(xí)率進(jìn)行更新,在保證識(shí)別精度的前提下提升算法的收斂速度[26]。其學(xué)習(xí)率公式為:
α=βepoch_num×α0
(2)
式中:β為衰減指數(shù),α0為初始學(xué)習(xí)率,epoch_num為迭代次數(shù)。綜合考慮模型收斂速度和收斂效果,β取值0.95,α0初始設(shè)定值為0.001,學(xué)習(xí)率α隨迭代次數(shù)的增加而減小,保持模型穩(wěn)定不退化。
2.2.3 批尺寸
批尺寸的選取對(duì)模型迭代速度及識(shí)別精度均有一定影響[27]。對(duì)于小樣本量數(shù)據(jù)集,批尺寸越大,模型梯度估值越準(zhǔn)確,但對(duì)于大樣本量數(shù)據(jù)集,批尺寸取值過(guò)大會(huì)占用過(guò)多內(nèi)存,造成學(xué)習(xí)速度過(guò)慢[28]。使用的魚(yú)類(lèi)圖像樣本集共含有35 000張圖像,綜合考慮模型訓(xùn)練速度、準(zhǔn)確度、系統(tǒng)內(nèi)存等因素,選取128作為批尺寸。
使用基于Windows 10操作系統(tǒng)的聯(lián)想工作站,CPU為IntelXeon W-2245,主頻3.90 GHz,顯卡RTX2080S,內(nèi)存64 GB,訓(xùn)練平臺(tái)為基于Anaconda3的PyTorch框架。
表1 魚(yú)類(lèi)圖像樣本數(shù)量分布Tab.1 Quantity distribution of fish image data sets
采用ResNet18、ResNet34和ResNet50網(wǎng)絡(luò)結(jié)構(gòu)對(duì)樣本庫(kù)中的魚(yú)類(lèi)圖像進(jìn)行訓(xùn)練和測(cè)試。圖5為3種ResNet算法模型訓(xùn)練準(zhǔn)確率對(duì)比,橫坐標(biāo)為迭代次數(shù),從圖中可以看出,3種ResNet模型經(jīng)過(guò)50次迭代后均穩(wěn)定在99.8%,其中ResNet18的收斂速度最快。
圖5 不同層數(shù)ResNet模型訓(xùn)練準(zhǔn)確度Fig.5 Training accuracy of different ResNet models
表2為不同模型識(shí)別結(jié)果,從表中可以看出,隨著ResNet模型網(wǎng)絡(luò)層數(shù)的復(fù)雜化,對(duì)魚(yú)類(lèi)圖像的訓(xùn)練時(shí)間也變長(zhǎng),模型識(shí)別的準(zhǔn)確率相對(duì)有所提高,其中ResNet18浮點(diǎn)運(yùn)算量最小,所需訓(xùn)練時(shí)間和識(shí)別時(shí)間最短,但準(zhǔn)確率在3種模型中最低,準(zhǔn)確率93.57%;ResNet50識(shí)別準(zhǔn)確率最高,達(dá)到95.47%,但訓(xùn)練時(shí)間相較ResNet18和ResNet34分別增加了21.90 min和9.02 min;ResNet34識(shí)別準(zhǔn)確率與ResNet50相差不大,達(dá)到95.03%,與ResNet50相比,其準(zhǔn)確率降低了0.44%,訓(xùn)練時(shí)間減少了14.56%。
表2不同模型的識(shí)別結(jié)果對(duì)比Tab.2 Comparison of the results of different kinds of models
采用多角度視頻采樣方式,采集小水體水下魚(yú)類(lèi)運(yùn)動(dòng)視頻,從而獲取不同姿態(tài)魚(yú)類(lèi)圖像。不同于其他魚(yú)類(lèi)識(shí)別研究采用離水拍攝采樣[29],或者大水體拍攝采樣[30],采集的魚(yú)類(lèi)樣本均為姿態(tài)、角度單一的樣本,本研究采用小水體魚(yú)缸作為采樣空間,相機(jī)采樣空間覆蓋魚(yú)類(lèi)全部活動(dòng)區(qū)域,所采集的樣本包含魚(yú)類(lèi)不同角度、不同游姿的圖像。
在養(yǎng)殖魚(yú)類(lèi)圖像樣本庫(kù)的35 000張樣本圖像中,包含魚(yú)類(lèi)不同姿態(tài)的圖像。其中,圖6 a為魚(yú)類(lèi)側(cè)面圖像,該類(lèi)圖像類(lèi)似于離水試驗(yàn)采集的樣本,為單一姿態(tài)圖像,共計(jì)18 791張;圖6 b為魚(yú)類(lèi)多角度、多姿態(tài)圖像,該類(lèi)圖像為復(fù)雜姿態(tài)圖像,共計(jì)16 209張。當(dāng)樣本庫(kù)按4∶1隨機(jī)分為訓(xùn)練集和測(cè)試集后,以魚(yú)類(lèi)姿態(tài)為分類(lèi)標(biāo)準(zhǔn),則訓(xùn)練集中包含15 033張單一背景圖像和12 967張復(fù)雜背景圖像,測(cè)試集中包含3 758張單一背景圖像和3 242張復(fù)雜背景圖像,3個(gè)ResNet模型對(duì)不同姿態(tài)樣本的識(shí)別精度如表3所示。
圖6 魚(yú)類(lèi)單一姿態(tài)和復(fù)雜姿態(tài)圖像Fig.6 Single pose and complex pose images of fish
表3 單一姿態(tài)圖像和復(fù)雜姿態(tài)圖像識(shí)別結(jié)果對(duì)比Tab.3 Comparison of recognition results between single attitude image and complex attitude image
從表3中可以看出,3個(gè)模型對(duì)單一姿態(tài)圖像的識(shí)別準(zhǔn)確率分別為96.70%、97.53%、97.92%,對(duì)復(fù)雜姿態(tài)圖像的識(shí)別準(zhǔn)確率分別為89.94%、92.13%、92.63%,相較單一姿態(tài)圖像分別降低了6.99%、5.54%、5.40%。說(shuō)明模型對(duì)單一姿態(tài)圖像的識(shí)別效果更好,單一姿態(tài)圖像中目標(biāo)的特征更明顯,而復(fù)雜姿態(tài)圖像中的目標(biāo)包含了魚(yú)類(lèi)的運(yùn)動(dòng)特征,在不同姿態(tài)時(shí)展現(xiàn)的體征不同,加大了模型學(xué)習(xí)的難度,導(dǎo)致識(shí)別準(zhǔn)確率下降。
對(duì)比3個(gè)模型的識(shí)別結(jié)果,不同姿態(tài)和不同背景的魚(yú)類(lèi)圖像對(duì)模型識(shí)別精度有一定影響,經(jīng)過(guò)對(duì)錯(cuò)誤識(shí)別結(jié)果的對(duì)比分析,造成識(shí)別錯(cuò)誤的原因有如下幾種:1)當(dāng)魚(yú)游轉(zhuǎn)到某個(gè)角度,其表型特征不明顯(圖7a);2)當(dāng)魚(yú)運(yùn)動(dòng)幅度與頻率過(guò)大,采集到的樣本為運(yùn)動(dòng)模糊圖像(圖7b);3)當(dāng)魚(yú)游到循環(huán)裝置附近,與循環(huán)裝置形成特定角度(圖7c);4)當(dāng)魚(yú)以某個(gè)姿態(tài)游到魚(yú)缸角落,與背景融為一體(圖7d);5)當(dāng)背景中含有與其他魚(yú)類(lèi)相似特征(圖7e);6)當(dāng)背景干擾因素過(guò)多、過(guò)于復(fù)雜(圖7f)。分析整個(gè)樣本庫(kù)的特點(diǎn),當(dāng)樣本的特征丟失較多,成像角度較為特殊,魚(yú)類(lèi)貼邊運(yùn)動(dòng),或者背景較為復(fù)雜時(shí),容易識(shí)別錯(cuò)誤。且這種特殊情況出現(xiàn)的概率較低,樣本相對(duì)較少,模型無(wú)法充分學(xué)習(xí)此類(lèi)樣本的全部特征,因此其識(shí)別精度較差。
圖7 易識(shí)別錯(cuò)誤的魚(yú)類(lèi)圖像Fig.7 Easily misidentified fish images
混淆矩陣能夠?qū)⒎诸?lèi)算法模型的預(yù)測(cè)結(jié)果可視化,展示模型準(zhǔn)確率及實(shí)際預(yù)測(cè)分布[31]。本研究采用混淆矩陣來(lái)評(píng)價(jià)3種ResNet網(wǎng)絡(luò)結(jié)構(gòu)對(duì)5種養(yǎng)殖魚(yú)類(lèi)的識(shí)別效果,其可視化結(jié)果如表4所示,橫軸表示5種養(yǎng)殖魚(yú)類(lèi)的真實(shí)種類(lèi),縱軸表示其預(yù)測(cè)種類(lèi),矩陣中的數(shù)值xij代表將第i種魚(yú)類(lèi)預(yù)測(cè)為第j種魚(yú)類(lèi)的總次數(shù)?;煜仃囍袑?duì)角線(xiàn)上的數(shù)值越大,代表模型預(yù)測(cè)準(zhǔn)確率越高。
表4 不同層數(shù)ResNet識(shí)別結(jié)果的混淆矩陣
由表4可以看出,3種算法魚(yú)類(lèi)識(shí)別結(jié)果的混淆矩陣,其預(yù)測(cè)數(shù)量基本分布在矩陣對(duì)角線(xiàn)上,3種算法的預(yù)測(cè)類(lèi)別與真實(shí)類(lèi)別基本一致,這表明ResNet算法在魚(yú)類(lèi)識(shí)別方面有很高的準(zhǔn)確率。對(duì)比3個(gè)混淆矩陣,ResNet18對(duì)5種魚(yú)類(lèi)識(shí)別精度相差較大,對(duì)鮰魚(yú)的識(shí)別精度最高,達(dá)到97.00%,對(duì)鯽魚(yú)的識(shí)別精度最低,僅有86.36%;ResNet34在識(shí)別5種魚(yú)類(lèi)方面準(zhǔn)確率基本相同,對(duì)每種魚(yú)的識(shí)別準(zhǔn)確率均在94.14%以上,說(shuō)明ResNet34在魚(yú)類(lèi)圖像識(shí)別方面性能穩(wěn)定;ResNet50對(duì)5種魚(yú)類(lèi)識(shí)別準(zhǔn)確率略有差距,識(shí)別鱸魚(yú)的效果在3種算法中最好,準(zhǔn)確率達(dá)到98.28%。
通過(guò)采集魚(yú)類(lèi)高柔性、多姿態(tài)的運(yùn)動(dòng)目標(biāo)圖像和網(wǎng)絡(luò)獲取不同背景目標(biāo)魚(yú)類(lèi)圖像,構(gòu)建復(fù)雜姿態(tài)與復(fù)雜背景魚(yú)類(lèi)圖像樣本集,以ResNet框架為核心,通過(guò)比較分析典型的ResNet18、ResNet34、ResNet50框架結(jié)構(gòu)對(duì)魚(yú)類(lèi)識(shí)別精度和效果的影響,確定適用于典型養(yǎng)殖魚(yú)類(lèi)識(shí)別的ResNet網(wǎng)絡(luò)結(jié)構(gòu)形式。主要結(jié)論如下:
1)基于殘差卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法在養(yǎng)殖魚(yú)類(lèi)圖像識(shí)別上具有較好的識(shí)別準(zhǔn)確度,3種ResNet模型平均識(shí)別準(zhǔn)確率達(dá)到94.69%,其中ResNet50識(shí)別精度最高,達(dá)到95.47%,ResNet34次之,達(dá)到95.03%,但ResNet50識(shí)別效率比ResNet34降低20.43%,綜合考慮識(shí)別精度和識(shí)別效率,ResNet34更加適用于大樣本量魚(yú)類(lèi)圖像的識(shí)別分類(lèi)。2)采用小水體作為采樣空間,能夠在保證魚(yú)體無(wú)損的情況下,獲得高柔性、多姿態(tài)的魚(yú)類(lèi)樣本圖像。增加模型對(duì)不同姿態(tài)魚(yú)類(lèi)圖像的訓(xùn)練,增強(qiáng)了ResNet模型的泛化能力和魯棒性,更適用于現(xiàn)實(shí)場(chǎng)景下的魚(yú)類(lèi)種類(lèi)識(shí)別。3)通過(guò)對(duì)比分析不同ResNet識(shí)別結(jié)果的混淆矩陣,ResNet34對(duì)每種魚(yú)的識(shí)別精度均在94.14%以上,表明了ResNet34在魚(yú)類(lèi)圖像識(shí)別方面性能穩(wěn)定。
針對(duì)魚(yú)類(lèi)運(yùn)動(dòng)高柔性、多姿態(tài)的特點(diǎn),設(shè)計(jì)了雙相機(jī)同步采樣系統(tǒng),所采集的魚(yú)類(lèi)圖像樣本均基于活魚(yú)自由運(yùn)動(dòng)狀態(tài),能夠適用于實(shí)時(shí)環(huán)境下動(dòng)態(tài)魚(yú)類(lèi)識(shí)別。但采樣背景較為單一,對(duì)實(shí)際工況中背景復(fù)雜的魚(yú)類(lèi)圖像識(shí)別效果不如單一背景的魚(yú)類(lèi)圖像,下一步將針對(duì)復(fù)雜環(huán)境下魚(yú)類(lèi)開(kāi)展識(shí)別研究。
□