李禹辰 李非非 李見輝 余 飛 徐 杰
(1 電子科技大學(xué) 成都 611731;2 成都市森林病蟲防治檢疫站 成都 610032)
竹子(Bambusaceae),禾本科竹亞科植物,全世界約有70屬,1 000種以上,廣泛分布于熱帶、亞熱帶至暖溫帶地區(qū)。我國是世界上主要的產(chǎn)竹國,在長江流域、珠江流域等南方地區(qū)均有大面積栽植。竹子是一種經(jīng)濟(jì)價(jià)值較高的植物,是在生態(tài)、經(jīng)濟(jì)、社會(huì)、文化等方面效益結(jié)合最為緊密的優(yōu)秀林種之一。
2018年2月,習(xí)近平總書記來四川視察時(shí)指出“要因地制宜發(fā)展竹產(chǎn)業(yè),讓竹林成為四川美麗鄉(xiāng)村的一道風(fēng)景線”。四川省獨(dú)特的自然立地條件,形成了以叢生竹為主,叢生竹、散生竹、混生竹兼有的竹資源富集區(qū)。目前,四川省有竹子18屬160余種,分別占全國竹子屬、種數(shù)的46%和32%;有竹林面積116余萬hm2,居全國首位,產(chǎn)業(yè)發(fā)展?jié)摿薮蟆8鶕?jù)《四川省竹產(chǎn)業(yè)發(fā)展規(guī)劃(2017—2022年)》要求,四川省將構(gòu)建“一群三帶+其他區(qū)”的竹產(chǎn)業(yè)發(fā)展格局,即“川南竹產(chǎn)業(yè)集群”“青衣江竹產(chǎn)業(yè)帶”“龍門山竹產(chǎn)業(yè)帶”“渠江竹產(chǎn)業(yè)帶”及“其他發(fā)展區(qū)”。力爭(zhēng)到2022年,基本形成以川南竹產(chǎn)業(yè)集群和青衣江、渠江、龍門山3大竹產(chǎn)業(yè)帶為支撐的現(xiàn)代竹業(yè)發(fā)展格局,建成竹業(yè)重點(diǎn)縣40個(gè),竹林面積穩(wěn)定在120萬hm2,現(xiàn)代竹林基地突破67萬hm2,竹產(chǎn)品就地初加工轉(zhuǎn)化率和品牌覆蓋率均超過70%,竹旅游康養(yǎng)達(dá)到5 300萬人次;全省竹業(yè)綜合產(chǎn)值達(dá)到500億元,竹農(nóng)人均竹業(yè)年收入達(dá)到1 500元。
在當(dāng)前四川省竹產(chǎn)業(yè)大發(fā)展的有利背景下,逐步將以計(jì)算機(jī)、互聯(lián)網(wǎng)、人工智能等高新技術(shù)為代表的科技支撐手段應(yīng)用于竹產(chǎn)業(yè)發(fā)展的各個(gè)方面,實(shí)行精細(xì)化管理及提升生產(chǎn)效益是竹產(chǎn)業(yè)發(fā)展勢(shì)在必行的趨勢(shì)。作為竹產(chǎn)業(yè)發(fā)展的基礎(chǔ),在造林完成后,特別是撫育管護(hù)階段對(duì)竹類相關(guān)害蟲進(jìn)行精準(zhǔn)識(shí)別并進(jìn)行有效防治,對(duì)高效益發(fā)展竹產(chǎn)業(yè)具有極其重要的現(xiàn)實(shí)意義。
目前對(duì)于竹類害蟲的識(shí)別大多依賴于人工判斷識(shí)別,然而這類方法對(duì)從業(yè)人員專業(yè)知識(shí)和人力依賴性較強(qiáng),當(dāng)前我國森防體系和森林管護(hù)體系現(xiàn)實(shí)條件下,在生產(chǎn)一線具備相關(guān)專業(yè)知識(shí)的人員稀缺,無法準(zhǔn)確判斷蟲害發(fā)生種類并及時(shí)采取有效防治措施,往往因時(shí)機(jī)延誤造成損失,難以滿足現(xiàn)代化林業(yè)高質(zhì)量發(fā)展的需求。進(jìn)入21世紀(jì),隨著計(jì)算機(jī)視覺技術(shù)和人工智能技術(shù)在理論研究和行業(yè)應(yīng)用方面的高速發(fā)展,為高效、準(zhǔn)確、便捷、智能的竹類害蟲的識(shí)別提供了新的手段,為人工診斷提供了有效補(bǔ)充,對(duì)促進(jìn)竹業(yè)健康發(fā)展、加速傳統(tǒng)竹業(yè)向智慧竹業(yè)轉(zhuǎn)型有著重要的現(xiàn)實(shí)意義和社會(huì)影響[1]。
目前,智能識(shí)別技術(shù)已經(jīng)廣泛應(yīng)用于多個(gè)行業(yè),且取得了長足進(jìn)步。在昆蟲識(shí)別領(lǐng)域,基于傳統(tǒng)圖像處理技術(shù)的識(shí)別已開展了一些研究并獲得了一定成效。Christian等[2]使用了幾何形態(tài)學(xué)來分析熊峰翅的變異性;潘鵬亮等[3]使用數(shù)字形態(tài)學(xué)區(qū)分了桃紅頸天牛雌雄成蟲間的差異;趙汗青等[4]通過利用數(shù)學(xué)形態(tài)特征提取的方法提取到半翅目等昆蟲的整體圖片的葉狀性、似圓度等特征,但由于上述方法只能提取昆蟲的部分形態(tài)學(xué)特征而無法完全提取一張圖像的所有特征,因而大多適用于昆蟲的粗分類。劉景東[5-6]通過從卷蛾亞科研究人員手中獲得的標(biāo)準(zhǔn)圖構(gòu)建了53種根據(jù)前翅的翅脈模板圖來識(shí)別卷蛾不同的種類,但這種方法的缺點(diǎn)是模板匹配的計(jì)算量大,識(shí)別過程耗時(shí)較長,且魯棒性(魯棒性是Robustness的音譯,指系統(tǒng)在其參數(shù)發(fā)生變化時(shí)性能保持穩(wěn)定的能力)不強(qiáng)。Weeks等[7-8]利用主成分分析法對(duì)寄生蜂的翅脈特征進(jìn)行分析,完成了對(duì)寄生蜂的識(shí)別,然而此類方法對(duì)蟲類圖像的質(zhì)量要求較高,圖像中光照、角度、背景等環(huán)境因子對(duì)識(shí)別精確度有較大影響。經(jīng)過行業(yè)應(yīng)用實(shí)際效果比較,以上幾種基于傳統(tǒng)圖像處理的昆蟲類識(shí)別方法大多存在計(jì)算較復(fù)雜,識(shí)別過程耗時(shí)較長,且魯棒性較差的缺點(diǎn),在行業(yè)應(yīng)用中普及較為困難。由于竹類害蟲存在種類繁多,實(shí)際環(huán)境中背景較為復(fù)雜等具體情況,上述幾種傳統(tǒng)方法的識(shí)別效果不佳,整體實(shí)用性不強(qiáng),無法大規(guī)模應(yīng)用于林業(yè)生產(chǎn)實(shí)際。
目前,較之傳統(tǒng)圖像處理技術(shù),人工智能深度學(xué)習(xí)在圖像分類和目標(biāo)識(shí)別領(lǐng)域已經(jīng)取得了巨大進(jìn)步,在生物類的識(shí)別領(lǐng)域也開展了較廣泛的研究與應(yīng)用。Lim等[9]使用AlexNet(一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型,以下的LeNet、GoogLeNet均同)對(duì)ImageNet(一個(gè)計(jì)算機(jī)視覺識(shí)別大型數(shù)據(jù)集,是目前深度學(xué)習(xí)圖像領(lǐng)域應(yīng)用得非常多的數(shù)據(jù)集,關(guān)于圖像分類、定位、檢測(cè)等研究工作大多基于此數(shù)據(jù)集開展)上的27種昆蟲進(jìn)行實(shí)驗(yàn)并取得了不錯(cuò)的效果;程尚坤[10]在儲(chǔ)糧害蟲的檢測(cè)中使用了深度學(xué)習(xí)并使得甲蟲類的識(shí)別率達(dá)到95%;Cheng等[11]在生態(tài)背景下利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)對(duì)10種害蟲進(jìn)行識(shí)別并取得了較高的識(shí)別率;Motta等[12]在進(jìn)行野外成年蚊子分類識(shí)別的研究中分別采用了LeNet、AlexNet和GoogLeNet模型來進(jìn)行訓(xùn)練,其中GoogLeNet取得了最佳的83.9%的識(shí)別率,遠(yuǎn)高于AlexNet的74.7%識(shí)別率。
可見,基于深度學(xué)習(xí)的圖像識(shí)別方法,通過數(shù)據(jù)集的訓(xùn)練能夠使計(jì)算機(jī)學(xué)習(xí)到更多的圖像特征,識(shí)別魯棒性更強(qiáng),對(duì)于生態(tài)背景的適應(yīng)性也更好,并且訓(xùn)練好后的模型識(shí)別效率也更高,對(duì)于硬件的計(jì)算性能要求大大降低,實(shí)用性得到極大的提高。因此,本研究提出一種基于深度學(xué)習(xí)的竹類害蟲識(shí)別方法,以期實(shí)現(xiàn)生態(tài)背景下幾種主要竹類害蟲的自動(dòng)識(shí)別,為大規(guī)模、高質(zhì)量的竹產(chǎn)業(yè)發(fā)展中的害蟲智能識(shí)別與防治提供一種先進(jìn)科學(xué)方法與技術(shù)支撐。
研究所用數(shù)據(jù)由2個(gè)部分組成:一部分采集自四川省邛崍市某竹林基地,使用移動(dòng)手持設(shè)備在正常光照下采集,包括3種竹類害蟲(竹象蟲、竹蝗、竹織葉野螟),此為本文算法的主要識(shí)別目標(biāo);另一部分采集自互聯(lián)網(wǎng)昆蟲圖庫(www.insectimage.org),包括3種其他昆蟲(螞蟻、蜜蜂、蜻蜓),主要用于增加數(shù)據(jù)種類,作為訓(xùn)練與識(shí)別的干擾種類,提高識(shí)別算法的魯棒性和實(shí)用性。
數(shù)據(jù)對(duì)于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練至關(guān)重要。一般來說,數(shù)據(jù)量越大,訓(xùn)練出來的模型精度越高,泛化能力越強(qiáng)。因此利用已有的數(shù)據(jù),通過翻轉(zhuǎn)等數(shù)據(jù)處理,可以制造出更多的圖片,進(jìn)而提高網(wǎng)絡(luò)的精度和泛化能力。本研究通過旋轉(zhuǎn)、高斯濾波、椒鹽噪聲、變亮+椒鹽噪聲、變暗+高斯濾波幾種數(shù)據(jù)處理方式,進(jìn)行蟲類圖像數(shù)據(jù)的增強(qiáng)和擴(kuò)充,如圖1所示。
圖1 經(jīng)數(shù)據(jù)增強(qiáng)擴(kuò)充后的竹象蟲成蟲圖片
通過數(shù)據(jù)增強(qiáng)方法擴(kuò)充并篩選,形成共計(jì)5 663張蟲類圖片的數(shù)據(jù)集,且均為生態(tài)背景下的蟲類圖片。蟲類圖像數(shù)據(jù)集共分7類(表1),分別為竹織葉野螟、竹蝗、竹象蟲幼蟲、竹象蟲成蟲、螞蟻、蜜蜂、蜻蜓,其中由于竹象蟲成蟲與幼蟲形體區(qū)別較大,故分類進(jìn)行識(shí)別。
表1 蟲類數(shù)據(jù)集各類圖片數(shù)量
本研究中采用的圖像分辨率大小均為256×256,并對(duì)數(shù)據(jù)集的每一種昆蟲圖像進(jìn)行標(biāo)簽,記作n,代表圖像所屬的類別:0代表竹織葉野螟;1代表竹蝗;2代表竹象蟲幼蟲;3代表竹象蟲成蟲;4代表螞蟻;5代表蜜蜂;6代表蜻蜓,如圖2所示。
圖2 數(shù)據(jù)集標(biāo)記示例
本研究基于GoogLeNet網(wǎng)絡(luò)的竹類蟲害識(shí)別方法。GoogLeNet網(wǎng)絡(luò)相比于AlexNet等早期網(wǎng)絡(luò)擁有更寬、更深的網(wǎng)絡(luò)結(jié)構(gòu)。同時(shí),所需要的參數(shù)也大大減少。GoogLeNet特有的Inception模塊構(gòu)成的網(wǎng)中網(wǎng)結(jié)構(gòu)能夠使其獲得更多的圖片特征。Inception模塊的設(shè)計(jì)特點(diǎn)是用稠密結(jié)構(gòu)來替代網(wǎng)絡(luò)中的局部稀疏結(jié)構(gòu),這種特點(diǎn)使得Inception可以在具備稀疏性來減少參數(shù)的同時(shí)利用密集矩陣進(jìn)行運(yùn)算,這使得網(wǎng)絡(luò)利用資源的效率大大提高。本文的識(shí)別模型結(jié)構(gòu)圖如圖3所示,GoogLeNet在分類層之前使用了連續(xù)的9層Inception模塊來提取特征。在分類部分,采取了平均池化層,使得整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)減少了,抑制了過擬合現(xiàn)象的出現(xiàn),從而降低了訓(xùn)練的難度。
實(shí)驗(yàn)所使用的計(jì)算機(jī)CPU為英特爾酷睿i7-7700,顯卡為英偉達(dá)GeForce GTX 1080Ti,操作系統(tǒng)為Ubuntu16.04。實(shí)驗(yàn)均采用相同的參數(shù),所用參數(shù)學(xué)習(xí)率為0.005,動(dòng)量參數(shù)設(shè)置為0.9,權(quán)值衰減系數(shù)為0.000 5,Gamma矯正參數(shù)為0.1,采用小批量訓(xùn)練且以24張圖片為一組,共進(jìn)行100輪訓(xùn)練,每輪訓(xùn)練進(jìn)行1萬次迭代。所有實(shí)驗(yàn)均在Caffe(卷積神經(jīng)網(wǎng)絡(luò)框架)下進(jìn)行。Caffe是一個(gè)開源的深度學(xué)習(xí)框架,實(shí)驗(yàn)所有的測(cè)試結(jié)果均可在Caffe上復(fù)現(xiàn)。
圖3 基于GoogLeNet的竹類害蟲識(shí)別模型結(jié)構(gòu)
在深度學(xué)習(xí)中,數(shù)據(jù)集通常被分為獨(dú)立的3個(gè)部分:訓(xùn)練集、驗(yàn)證集和測(cè)試集。其中訓(xùn)練集用來估計(jì)模型,驗(yàn)證集用來確定網(wǎng)絡(luò)結(jié)構(gòu)或者控制模型復(fù)雜程度的參數(shù),而測(cè)試集則檢驗(yàn)最終選擇最優(yōu)模型的識(shí)別性能。
為研究訓(xùn)練集與測(cè)試集比例對(duì)模型識(shí)別準(zhǔn)確率的影響,采用4種不同訓(xùn)練集與測(cè)試集比例進(jìn)行測(cè)試,分別為:1)9∶1(數(shù)據(jù)集的90%作為訓(xùn)練集,10%作為測(cè)試集);2)8∶2(數(shù)據(jù)集的80%作為訓(xùn)練集,20%作為測(cè)試集);3)7∶3(數(shù)據(jù)集的70%作為訓(xùn)練集,30%作為測(cè)試集);4)6∶4(數(shù)據(jù)集的60%作為訓(xùn)練集,40%作為測(cè)試集)。
Loss曲線是用來衡量網(wǎng)絡(luò)訓(xùn)練情況的一種方法,Loss曲線收斂即代表模型能夠被訓(xùn)練。圖4為訓(xùn)練過程中的Loss曲線圖,其中縱坐標(biāo)表示Loss值,橫坐標(biāo)為訓(xùn)練輪數(shù)。由圖4可以得出結(jié)論:模型在對(duì)竹類害蟲圖片數(shù)據(jù)集進(jìn)行訓(xùn)練過程中,Loss值一直呈下降態(tài)勢(shì),并能夠很快趨近于0,這表明模型訓(xùn)練過程中沒有出現(xiàn)過擬合現(xiàn)象。可見,本文模型在對(duì)竹類害蟲圖片數(shù)據(jù)集訓(xùn)練過程中展現(xiàn)了優(yōu)越的性能。
圖4 Loss曲線圖
F1值,又稱平衡F分?jǐn)?shù),是用來衡量分類模型精確度的一種重要指標(biāo),同時(shí)兼顧了分類模型的查全率(Recall)和查準(zhǔn)率(Precision)。查全率是針對(duì)原來樣本而言的,它表示樣本中的真樣例有多少被預(yù)測(cè)正確。查準(zhǔn)率是針對(duì)測(cè)結(jié)果而言的,它表示預(yù)測(cè)為真的樣例中有多少是真正的真樣例。
對(duì)竹類害蟲的識(shí)別結(jié)果分為4種情況:一是正確肯定(TP),預(yù)測(cè)為真,實(shí)際為真;二是正確否定(TN),預(yù)測(cè)為假,實(shí)際為假;三是錯(cuò)誤肯定(FP),預(yù)測(cè)為真,實(shí)際為假;四是錯(cuò)誤否定(FN):預(yù)測(cè)為假,實(shí)際為真。
因此,查全率定義公式如(1)所示,查準(zhǔn)率定義公式如(2)所示。
(1)
(2)
本文中查全率表示某一類竹子害蟲被識(shí)別出來的比例,比率越大則表示漏掉的樣例越少;查準(zhǔn)率表示在所有識(shí)別為某種害蟲類別的樣例中,實(shí)際屬于該類別的樣例的比例,比率越大表示模型識(shí)別得越準(zhǔn)確。本文模型在4種不同比例的訓(xùn)練集與測(cè)試集下,各類竹類害蟲識(shí)別結(jié)果的查全率和查準(zhǔn)率如表2所示。
表2 不同訓(xùn)練集與測(cè)試集比例的查全率、查準(zhǔn)率、
表2(續(xù))
F1值作為對(duì)查全率和查準(zhǔn)率的綜合評(píng)估指標(biāo),可以看作是模型查全率和查準(zhǔn)率的一種加權(quán)平均,是表示這兩者對(duì)模型的影響的最優(yōu)平衡點(diǎn)。F1值定義公式如(3)所示。
(3)
由表2可得,竹類害蟲識(shí)別模型在4種不同訓(xùn)練集與測(cè)試集比例情況下的平均查全率分別為60.07%、72.45%、90.42%、95.54%,平均查準(zhǔn)率分別為60.84%、78.36%、89.79%、95.42%,因此根據(jù)公式(3)可得本文模型的F1值分別為60.45%、75.29%、90.11、95.48%。
由此可知,當(dāng)訓(xùn)練集與測(cè)試集比例為9∶1時(shí)識(shí)別模型的平均查全率和平均查準(zhǔn)率都較高,且F1值達(dá)到了95.48%。較高的平均查全率和查準(zhǔn)率代表本文識(shí)別模型能從多種蟲類中較準(zhǔn)確識(shí)別竹類害蟲,較高的F1值表示識(shí)別模型具有較好的綜合性能和較高的實(shí)用性。
模型的精確度(Accuracy)是分類正確的樣本數(shù)占樣本總數(shù)的比例,反映了模型對(duì)整個(gè)樣本數(shù)據(jù)的判定能力(即能將真的判定為真的,假的判定為假的)。計(jì)算公式如(4)所示。
(4)
由公式(4)可得模型的精確度(如表2所示),通過對(duì)比在4種不同訓(xùn)練集和測(cè)試集比例下模型的精確度可以得出結(jié)論:模型的精確度隨訓(xùn)練集比重的增大而增大。在本實(shí)驗(yàn)中,當(dāng)訓(xùn)練集和測(cè)試集的比例為9∶1時(shí)精確度最高,達(dá)到了97.5%。因此,本文的識(shí)別模型具備較高的精確度,能較準(zhǔn)確地識(shí)別出各類竹類害蟲。圖5為竹類害蟲識(shí)別成功的示例。可見,本文的識(shí)別模型能夠滿足生態(tài)背景下竹類害蟲識(shí)別的要求,具有較強(qiáng)的實(shí)用性。
圖5 竹類害蟲識(shí)別示例
本研究基于人工智能深度學(xué)習(xí)的竹類害蟲識(shí)別方法,相比于傳統(tǒng)的圖像處理方法,其深度學(xué)習(xí)模型能提取更多的圖像特征,能對(duì)生態(tài)背景下的竹類害蟲識(shí)別有更好的精確度和適應(yīng)性。本文首先構(gòu)建了具有5 663張圖片的蟲類數(shù)據(jù)集(包含3種竹類害蟲和3種其他昆蟲類),并利用GoogLeNet特有的Inception模塊構(gòu)成的網(wǎng)中網(wǎng)結(jié)構(gòu)能夠使其獲得更多的圖片特征,進(jìn)行了4組不同訓(xùn)練集與測(cè)試集比例的模型識(shí)別實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果顯示,模型在對(duì)竹類害蟲圖片數(shù)據(jù)集進(jìn)行訓(xùn)練過程中,Loss值一直呈下降態(tài)勢(shì),并能夠很快趨近于0,這表明模型訓(xùn)練過程中沒有出現(xiàn)過擬合現(xiàn)象,展現(xiàn)了優(yōu)越的性能。此外,模型的精確度隨訓(xùn)練集比重的增大而增大,當(dāng)訓(xùn)練集和測(cè)試集的比例為9∶1時(shí)識(shí)別表現(xiàn)最好,F(xiàn)1值達(dá)到了95.48%,精確度為97.5%,表明模型能較準(zhǔn)確的識(shí)別出實(shí)驗(yàn)中的各類竹類害蟲,體現(xiàn)了識(shí)別模型具有較好的綜合性能和較高的實(shí)用性。
因本文著重于方法的探索,在數(shù)據(jù)集中只包含了3種竹類害蟲,在后續(xù)的研究中將加入數(shù)量更多、更豐富的竹類害蟲圖像數(shù)據(jù),研究建立準(zhǔn)確率更高的識(shí)別模型,實(shí)現(xiàn)更多種類竹類害蟲的自動(dòng)識(shí)別并擴(kuò)展至其他樹種蟲害。此外,目前所用于訓(xùn)練的單張圖片僅包含一種目標(biāo)害蟲,后續(xù)將考慮加入多目標(biāo)檢測(cè)方法,實(shí)現(xiàn)單張圖片中多種害蟲的準(zhǔn)確識(shí)別,以達(dá)到更好的實(shí)用價(jià)值。