李鳳迪,申衛(wèi)星,吳杰芳,孫豐剛,徐力,劉振宇,蘭鵬*
基于YOLOv3-CIoU的松材線蟲病樹檢測方法研究
李鳳迪1,申衛(wèi)星2,吳杰芳3,孫豐剛1,徐力2,劉振宇4,蘭鵬1*
1. 山東農(nóng)業(yè)大學(xué)信息科學(xué)與工程學(xué)院, 山東 泰安 271018 2. 泰山森林病蟲害防治檢疫站, 山東 泰安 271000 3. 泰山學(xué)院數(shù)學(xué)與統(tǒng)計學(xué)院, 山東 泰安 271000 4. 山東農(nóng)業(yè)大學(xué)植物保護學(xué)院, 山東 泰安 271018
松材線蟲病被稱為松樹的癌癥,及時發(fā)現(xiàn)并處置松材線蟲病樹是防止疫情擴散的重要手段。人工踏查、遙感影像等手段難以有效滿足復(fù)雜林區(qū)疫情監(jiān)測的需求。為快速、準(zhǔn)確發(fā)現(xiàn)松材線蟲病樹,提高處置效率,本文提出了一種基于改進YOLOv3算法的松材線蟲樹檢測方法。首先,使用小型無人機機載高分辨率數(shù)碼相機在不同空間位置采集松材線蟲病樹圖像并構(gòu)建Pascal VOC數(shù)據(jù)集;隨后針對YOLOv3算法存在訓(xùn)練過程IoU置空、平均損失下降緩慢等問題,提出了改進的YOLOv3-CIoU方法,使算法訓(xùn)練快,在小數(shù)據(jù)量時即實現(xiàn)高精度檢測;最后通過高性能計算平臺對改進的YOLOv3-CIoU模型進行訓(xùn)練測試,并與其他方法進行對比分析。結(jié)果表明:改進后的YOLOv3-CIoU模型在測試集上準(zhǔn)確率達98.88%,較YOLOv3算法提升5%以上;在移動終端上平均單張圖像檢測速度為0.32 s,較改進前提升13%。與Faster R-CNN、SSD等方法相比,改進算法在模型檢測準(zhǔn)確率、縮短模型訓(xùn)練時間、目標(biāo)邊緣框定精度等方面也有較大提升。因此,改進后的YOLOv3-CIoU模型在多個評估指標(biāo)中具有良好的性能,可有效提高松材線蟲病樹檢測效率,對降低松材線蟲病樹監(jiān)測投入,保障林區(qū)防疫監(jiān)測精準(zhǔn)高效具有重要的實際意義。
松材線蟲病樹; YOLOv3-CIOU; 目標(biāo)檢測
松材線蟲病是松樹的一種毀滅性病害,具有極強的傳染性和致病性,被稱為松樹癌癥,是目前世界范圍內(nèi)最具危險性、毀滅性的林區(qū)疫情之一。自上世紀八十年代傳入我國以來,雖經(jīng)全力防控,但該病害依然呈現(xiàn)大范圍、多區(qū)域爆發(fā)趨勢。目前全國已有18個省發(fā)生疫情,影響約1.98×1010m2林區(qū),并向西、向北快速擴散。多個國家重點風(fēng)景區(qū)和重點生態(tài)區(qū)已報告發(fā)現(xiàn)松材線蟲病疫情,造成的經(jīng)濟損失和生態(tài)服務(wù)價值損失難以估計。因此,防疫工作迫在眉睫。
及時發(fā)現(xiàn)并處置松材線蟲病樹是阻斷疫情擴散的重要手段。染病后,松樹因葉莖堵塞而脫水枯死,松針也快速變成黃紅色,這為快速排查松材線蟲病樹提供了重要的輔助信息。目前,林區(qū)主要依靠衛(wèi)星遙感、直升機航拍及人工實地巡檢三種方式對松材線蟲病樹進行排查。衛(wèi)星遙感方式可實現(xiàn)廣域林區(qū)覆蓋,但受影像分辨率、更新周期等制約,難以滿足實際生產(chǎn)需要。直升機航拍方式可實時獲取林區(qū)影像,為疫情的快速診斷提供有效支撐,但存在飛行成本高、審批過程復(fù)雜等問題。而人工實地踏查方式需要林業(yè)人員深入林區(qū)排查松材線蟲病樹,時間、人力成本過高。為此,急需一種低成本、快速的松材線蟲病樹排查手段。近年來,無人機作為兼顧便攜性和靈活性的低空圖像采集平臺,可掛載各類相機獲取大范圍、高分辨率圖像,執(zhí)行多種低空監(jiān)測任務(wù)[1-3]。Lehmann等[4]利用無人機多光譜圖像和基于對象的圖像處理方法來監(jiān)測橡樹的蟲害。Yu等[5]利用無人機多光譜進行大豆產(chǎn)量預(yù)測以及成熟期識別研究。史潔青等[6]以無人機航拍影像為數(shù)據(jù)基礎(chǔ),結(jié)合多種技術(shù)構(gòu)建了森林資源調(diào)查系統(tǒng),滿足森林資源信息化管理的需要。無人機機載設(shè)備豐富,監(jiān)測森林資源快速便捷、數(shù)據(jù)分辨率高、影像細節(jié)豐富[7-9]。因此,無人機成為快速獲取松材線蟲病樹不同時空分辨率影像的有效方式。
利用機器學(xué)習(xí)來分析不同時期染病枯樹的光譜數(shù)據(jù)特征,成為實現(xiàn)有效監(jiān)測森林病蟲害的常用手段[10][11]。汪紅等[12]使用便攜設(shè)備采集切梢小蠹病害松樹的光譜反射率,依據(jù)光譜特征建立高光譜特征模型,預(yù)測準(zhǔn)確率達80%以上。劉金滄等[13]設(shè)計了基于多特征條件隨機場(Conditional Random Field, CRF)的無人機影像松材線蟲病監(jiān)測方法,對變色松樹平均分類精度達88.43%。胡根生[14]等將卷積神經(jīng)網(wǎng)絡(luò)與Adaboost算法相結(jié)合來識別無人機拍攝的松材線蟲病害松樹,識別精度達94.4%。近年來,基于深度學(xué)習(xí)的目標(biāo)檢測算法因其速度快、準(zhǔn)確度高的特點而逐漸廣泛應(yīng)用于森林監(jiān)測領(lǐng)域[15],如R-CNN系列、YOLO系列及SSD[16]等目標(biāo)檢測算法。Faster R-CNN[17]作為經(jīng)典的“two-stage”方法,主要包括兩個模塊:區(qū)域推薦網(wǎng)絡(luò)(Region Proposal Network, RPN)和Fast R-CNN檢測器。RPN負責(zé)產(chǎn)生候選區(qū)域,與特征圖一起輸入到Fast R-CNN檢測器中進行分類與邊框回歸計算。在MS COCO[18]數(shù)據(jù)集上的傳輸幀數(shù)最高可達到6幀每秒,mAP達到59.1%。與Faster R-CNN不同,SSD300和YOLOv3則是“one-stage”的代表方法,把一個神經(jīng)網(wǎng)絡(luò)應(yīng)用到整張圖像,將圖像劃分為多個區(qū)域,并預(yù)測每個區(qū)域的邊界框和概率。在MS COCO數(shù)據(jù)集上,YOLOv3的傳輸幀數(shù)達到45幀每秒,mAP達到了51.5%。徐信羅等[19]將Faster R-CNN目標(biāo)檢測算法用作染病變色松樹的自動識別,識別總體精度達到82.42%。孫鈺等[20]將無人機航片與改進SSD300算法相結(jié)合來識別紅脂大小蠹危害的松樹,平均查準(zhǔn)率達到97.22%。張瑞瑞等[21]使用無人機航拍獲取染病松樹樣本數(shù)據(jù),結(jié)合深度學(xué)習(xí)分割網(wǎng)絡(luò)U-Net開展染病松材變色木圖像分割研究,訓(xùn)練后得到較高的訓(xùn)練精度和驗證精度。然而,由于松材線蟲病害窗口期短、傳統(tǒng)檢測模型訓(xùn)練耗時長,縮短模型訓(xùn)練時間、提升檢測精度是松材線蟲病害檢測中亟待解決的問題。
本文將根據(jù)YOLOv3在檢測準(zhǔn)確率和處理速度方面的優(yōu)勢,重點研究基于YOLOv3的松材線蟲病樹監(jiān)測方法。針對傳統(tǒng)YOLOv3存在訓(xùn)練過程重疊率(Intersection over Union, IoU)的值置空以及Loss下降緩慢等問題,提出了一種基于CIoU改進的YOLOv3松材線蟲病樹檢測方法,以提升檢測精度,縮短模型的訓(xùn)練時間,降低了監(jiān)測系統(tǒng)的復(fù)雜度和使用成本、增強其易用性。
本文研究區(qū)域位于山東省泰安市泰山山麓西側(cè)的轉(zhuǎn)山子山(117.07378°~117.08039E,36.21288°~36.21307°N),如圖1所示。研究區(qū)域面積為0.275 km2,最高海拔376.2 m。在2019年春季的林區(qū)普查中,發(fā)現(xiàn)轉(zhuǎn)山子山區(qū)域松材線蟲病疫情開始小范圍擴散。
圖 1 研究區(qū)域
本文檢測流程如圖2所示。首先選用無人機平臺搭載RGB高分鏡頭采集松材線蟲病樹圖片,經(jīng)標(biāo)定后構(gòu)建為Pascal VOC數(shù)據(jù)集;隨后輸入到目標(biāo)檢測算法中對模型進行迭代訓(xùn)練;然后將測試集輸入到訓(xùn)練好的檢測模型中進行預(yù)測并返回松材線蟲病樹邊界框;最后根據(jù)評估指標(biāo)測試檢測模型的性能。
圖 2 整體流程
2.2.1 圖像采集
圖3 無人機
本文所采用的松材線蟲病樹圖像于2019年8月采集,由大疆“御” MAVIC 2和大疆M600無人機執(zhí)行航拍任務(wù),無人機如圖3所示,飛行參數(shù)如表1所示。大疆“御”MAVIC 2無人機機動性強,體積小,適合在林區(qū)小范圍內(nèi)抵近拍攝,搭載DJI FC220相機分別以相對樹冠高度10 m、30 m和50 m進行俯拍。大疆M 600無人機體積大,具有飛行距離遠、飛行高度高、滯空時間長等特性,搭載裝配了云臺的FireFly6S相機執(zhí)行橫向往復(fù)覆蓋掃描拍攝整個區(qū)域的任務(wù),其飛行軌跡如圖4所示。兩臺無人機所拍攝的JPEG圖像分辨率均為4 K,且包含該圖片的地理位置信息以及無人機的飛行數(shù)據(jù)。所拍攝的部分松材線蟲病樹如圖5所示。
表 1 無人機及機載相機參數(shù)
圖4 大疆M600飛行軌跡
圖5 兩無人機采集到的松材線蟲病樹圖像
圖6 標(biāo)注后的松材線蟲病樹圖像
2.2.2 數(shù)據(jù)集構(gòu)建無人機所采集的松材線蟲病樹圖像共3672張,經(jīng)鑒定最終選定836張病樹圖片制作Pascal VOC數(shù)據(jù)集,利用LabelImg軟件標(biāo)注松材線蟲病樹圖像,標(biāo)定的矩形框內(nèi)包含松材線蟲病樹及其類別,部分標(biāo)定結(jié)果如圖6所示。標(biāo)定完成后,按訓(xùn)練集:測試集為9:1的比例進行隨機分配,最終將752張圖片分為訓(xùn)練集,84張圖片分為測試集。
YOLO系列算法是“one-stage”目標(biāo)檢測算法的代表,在多種應(yīng)用場景下均表現(xiàn)良好。YOLOv3算法框架如圖7所示。YOLOv3框架使用Darknet-53作為基礎(chǔ)體征提取網(wǎng)絡(luò),通過引入與深度殘差網(wǎng)絡(luò)類似的殘差單元使網(wǎng)絡(luò)更深,減少計算過程中的浮點數(shù),在更好獲取目標(biāo)特征的同時兼顧速度優(yōu)勢。在檢測精度相似時其處理速度是ResNet-152網(wǎng)絡(luò)的兩倍[15]。借鑒SSD框架,對每一張輸入的圖像在長寬尺寸上分別進行下采樣,輸出三種尺寸的網(wǎng)格,獲得不同深度的特征圖,進一步采用特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)來提高多尺度檢測精度。將SoftMax分類器替換為一個1×1的卷積層和Logistic激活函數(shù)的網(wǎng)絡(luò)結(jié)構(gòu),解決了多重標(biāo)簽分類問題。經(jīng)過諸多借鑒與改進使得YOLOv3目標(biāo)檢測算法不擅長檢測小物體的缺點得到改善。
圖7 YOLOv3檢測框架
圖8 YOLOv3的訓(xùn)練及檢測過程
YOLOv3的損失函數(shù)通常由三部分組成,分別是Bounding Box損失、置信度損失以及類別損失,定義為:
式(2)表示目標(biāo)框左上角位置經(jīng)過交叉熵運算所得到的損失,表示在i尺度的j預(yù)測框是否有目標(biāo),有目標(biāo)為1,否則為0。
式(3)表示目標(biāo)框?qū)捀呓?jīng)均方誤差運算得到的損失。
大小適合的預(yù)測框在模型訓(xùn)練時能更快速、更精準(zhǔn),YOLOv3算法在數(shù)據(jù)集中對所有邊界框使用K-means方法分成9種,每三種對應(yīng)一個比例,總共有3種比例。圖像進入枯松圖像調(diào)整到416×416大小,接著被分割為13×13、26×26和52×52的網(wǎng)格,進入到Darknet-53網(wǎng)絡(luò)后進行32倍、16倍、8倍下采樣,隨后經(jīng)過張量拼接操作得到三個分支,最終得到如圖7所示的13×13×18、26×26×18、52×52×18三種大小的特征圖。在圖8所示的訓(xùn)練和檢測過程中,黃色真實目標(biāo)框的中心恰好落在了輸入圖像的某一個圖中所示的紅色網(wǎng)格中,這個網(wǎng)格就負責(zé)預(yù)測此物體的檢測框,每個檢測框經(jīng)過邏輯回歸得到一個客觀得分用來表示該檢測框包含一個目標(biāo)的可能性,最終得到包含目標(biāo)的邊界框。
YOLOv3的損失函數(shù)(1)中采用均方誤差作為目標(biāo)框位置回歸損失函數(shù),在進行目標(biāo)邊界框回歸時對目標(biāo)尺度敏感,對目標(biāo)長寬做開方處理在一定程度上可降低尺度對預(yù)測準(zhǔn)確性的影響。研究表明IoU不僅能反映預(yù)測檢測框與真實檢測框的檢測效果,還具備尺度不變性[22],所以使用IoU作為目標(biāo)框位置回歸損失函數(shù)相較于均方誤差損失函數(shù)和交叉熵損失函數(shù)性能進一步提升。IOU的定義為:
1) 當(dāng)檢測框與真實目標(biāo)框沒有重合部分時,不存在梯度,無法進行梯度下降優(yōu)化。如圖9所示,a圖和b圖中重疊率都為0,但a圖的預(yù)測效果優(yōu)于b圖。
圖9 兩種IoU為0的情況
2)在重疊率相同時,IoU損失并不能反應(yīng)兩個框如何重疊,不能說明檢測框的定位效果相同,如圖10所示。
圖 10 三種面積相同的重疊區(qū)域
為此,Rezatofighi等[23]提出廣義重疊率損失函數(shù)(Generalized IOU,GIOU)的概念,定義為:
其中C表示最小閉合凸面,如圖11所示。當(dāng)兩個矩形框不重合時,依然可以為邊界回歸提供方向,GIoU在一定程度上彌補了IoU損失函數(shù)的缺陷。
如圖12所示,當(dāng)預(yù)測框被真實目標(biāo)框重合時,最小閉合凸面就是真實目標(biāo)框,此時GIoU降級成IoU,導(dǎo)致GIoU失效。為此,DIoU(Distance-IoU, DIoU)采用距離優(yōu)化方式解決以目標(biāo)框和真實框重合時GIoU失效的問題[24]。
式(6)所示的距離重疊率損失函數(shù)。
圖 12 預(yù)測框被真實目標(biāo)框包圍
本文為進一步彌補缺陷加快模型訓(xùn)練速度,采用兼容重疊率損失函數(shù)(Compatible-IoU, CIoU)優(yōu)化YOLOv3的訓(xùn)練過程。
圖 13 檢測框中心點距離d和重疊面積對角線距離c
如圖13所示,CIoU邊界框回歸損失函數(shù)直接最小化預(yù)測框與真實目標(biāo)框之間的歸一化距離,解決了IoU損失值為零的情況,兼顧檢測框的重疊面積以及檢測框中心點的距離,同時增加檢測框和真實目標(biāo)框的長寬比一致性的衡量參數(shù),使模型更傾向于向重疊區(qū)域密集的方向優(yōu)化。CIoU損失值可計算為:
設(shè)置四種指標(biāo)來評價四種松材線蟲病樹檢測模型的性能表現(xiàn)情況,分別為精確率(Precision)、召回率(Recall)、準(zhǔn)確率(Accuracy)以及單張圖像處理速度。前三種指標(biāo)的定義分別為:
表2 真陽性、假陽性、假陰性和真陽性
為驗證有效性,本文基于開源深度學(xué)習(xí)框架TensorFlow來驗證所提YOLOv3-CIoU松材線蟲病樹檢測方法的性能,并與YOLOv3、Faster R-CNN以及SSD方法進行對比試驗。GPU節(jié)點和用于測試模型的移動工作站軟硬件配置如表3。
表3 GPU節(jié)點和移動工作站軟硬件詳情
訓(xùn)練階段采用數(shù)據(jù)擴充手段增加訓(xùn)練樣本數(shù)量,使用Adam優(yōu)化器,設(shè)置初始學(xué)習(xí)率為0.001,以16張圖像為一個批次,每個模型共迭代10000次,平均損失下降到0.1以下。
4.1.1 平均損失曲線圖14給出了YOLOv3和YOLOv3-CIoU檢測方法訓(xùn)練過程中的損失值與迭代次數(shù)之間的關(guān)系曲線。訓(xùn)練日志表明YOLOv3-CIoU松材線蟲病樹檢測方法在訓(xùn)練期間損失值置空現(xiàn)象明顯減少,該模型在平均損失下降速度上較YOLOv3算法進一步加快,收斂更加明顯,說明經(jīng)過改進,YOLOv3-CIoU松材線蟲病樹檢測模型在訓(xùn)練速度上得到提升。模型訓(xùn)練完成后,使用移動工作站進行模型性能測試。
圖14 平均損失曲線
4.2.1 性能對比測試完成后,檢測結(jié)果及性能指標(biāo)如表4所示。減少誤報和漏報目標(biāo)是松材線蟲病樹檢測模型的重要性能指標(biāo)。從整體檢測準(zhǔn)確率來看,YOLOv3-CIoU檢測模型性能較好,SSD300次之,而Faster R-CNN誤報目標(biāo)為20個,誤報數(shù)過多,實際場景應(yīng)用效果不理想。從平均單張圖像處理時間來看,在移動終端上YOLOv3的處理速度與SSD300基本持平,均優(yōu)于Faster R-CNN模型。因此,基于YOLOv3的松材線蟲病樹檢測模型較符合快速、準(zhǔn)確檢測的防疫需求。
表4 檢測性能
4.2.2 P-R曲線在評價目標(biāo)檢測模型的性能指標(biāo)中,Recall和Precision分別表示召回率和精確率,而精確率和召回率是一對矛盾的度量,一般來說,精確率高時,召回率往往偏低;而召回率高時,精確率往往偏低。YOLOv3和YOLOv3-CIoU在松材線蟲病樹檢測工作中的P-R曲線如圖15所示。
圖15 P-R曲線
如表4所示YOLOv3-CIoU目標(biāo)檢測模型在精確率和召回率方面都明顯比未改進的YOLOv3算法性能優(yōu)異,在兼顧召回率的同時,準(zhǔn)確率也達到了98.88%,較YOLOv3提升5.33%,單張圖像平均處理時間為0.32 s,也比YOLOv3減少了13%。
模型測試過程中所用的松材線蟲病樹圖像均為沒有經(jīng)過正射校正處理,存在鏡頭畸變、光暈等多種影響的原始困難樣本圖像。圖16為困難樣本圖像的檢測結(jié)果。
基礎(chǔ)特征提取網(wǎng)絡(luò)和先驗框尺寸是影響模型檢測精度和檢測速度的重要因素。由表4所示的模型檢測性能和圖16困難樣本圖像檢測效果可知,YOLOv3-CIoU采用基于深度可分離卷積網(wǎng)絡(luò)的DarkNet-53特征提取網(wǎng)絡(luò),相比于基于VGG16的Faster R-CNN目標(biāo)檢測框架,單張圖像處理時間減少約7 s,且模型檢測精度大幅提升。
在SSD目標(biāo)檢測框架的訓(xùn)練過程中,先驗框的最小尺寸、最大尺寸以及比例都需要手動輸入,特征網(wǎng)絡(luò)中先驗框的大小和形狀不能直接通過自學(xué)習(xí)獲取,每一層特征使用的大小和形狀都不相同,調(diào)試過程非常依賴經(jīng)驗。而YOLOv3檢測框架僅使用K-means聚類方法就可以獲得大部分先驗框的形狀,所以YOLOv3、YOLOv3-CIoU檢測模型的檢測精度高于SSD檢測模型;此外,SSD使用conv4_3低級特征卷積層去檢測小目標(biāo),但是conv4_3的特征卷積層數(shù)少,特征提取不充分,所以SSD算法對小株松材線蟲病樹檢測性能不佳,整體性能表現(xiàn)不及YOLOv3檢測模型?;A(chǔ)特征提取網(wǎng)絡(luò)的改變對模型檢測速度有較大提升,合適的先驗框尺寸對提高模型檢測精度具有重要意義。
圖16(c)為YOLOv3松材線蟲病樹檢測模型的檢測結(jié)果,圖16(d)為YOLOv3-CIoU松材線蟲病樹檢測模型的檢測結(jié)果。在測試程序運行過程中,相同的測試數(shù)據(jù)集中YOLOv3-CIoU處理速度加快,而且從圖中可以明顯觀察到Y(jié)OLOv3-CIoU的檢測框相較于YOLOv3更加貼合松材線蟲病樹的邊緣。
圖16 a為Faster R-CNN檢測結(jié)果,b為SSD300檢測結(jié)果,c為YOLOv3檢測結(jié)果,d為YOLOv3-CIoU檢測結(jié)果
傳統(tǒng)的目標(biāo)檢測方法普遍存在過程繁瑣、檢測精度低的缺陷,本文研究的YOLOv3-CIoU松材線蟲病樹檢測模型在森林防疫工作中有較好的性能表現(xiàn)。在測試集中其檢測精度達到100%,誤報和漏報目標(biāo)數(shù)降到了較低的水平,而基于Faster R-CNN的標(biāo)檢測模型無法在較少的迭代次數(shù)下訓(xùn)練出的模型無法達到最優(yōu)的檢測結(jié)果,在檢測精度方面低于YOLOv3-CIoU,平均單張圖像處理時間分別為10.61s,需要的時間更多,無法滿足泰山森林防疫的監(jiān)測需求;相比于YOLOv3松材線蟲病樹檢測模型,YOLOv3-CIoU平均單張圖像處理時間為0.32s,較改進前提升13%,整體的準(zhǔn)確率達到98.88%,較改進前提高5%以上。因此YOLOv3-CIoU松材線蟲病樹檢測算法更具優(yōu)勢。
本文提出基于無人機和深度學(xué)習(xí)的林區(qū)松材線蟲病樹檢測方法,運用多種算法框架針對泰山林區(qū)松材線蟲病樹數(shù)據(jù)集展開研究。經(jīng)實驗證明,所研究的YOLOv3-CIoU松材線蟲病樹檢測算法在訓(xùn)練過程和模型檢測過程中表現(xiàn)最佳,為實現(xiàn)無人機精準(zhǔn)、快速監(jiān)測松材線蟲病樹、控制松材線蟲病疫情提供了支撐。
*致謝:感謝山東農(nóng)業(yè)大學(xué)高性能計算中心提供計算資源與技術(shù)支持。
[1]張軍國,閆浩,胡春鶴,等.無人機在林業(yè)中的應(yīng)用及前景展望[J].林業(yè)工程學(xué)報,2019,4(1):8-16
[2]楊全月,董澤宇,馬振宇,等.基于SfM的針葉林無人機影像樹冠分割算法[J].農(nóng)業(yè)機械學(xué)報,2020,51(6):181-190
[3]蘇迪,高心丹.基于無人機航測數(shù)據(jù)的森林郁閉度和蓄積量估測[J].林業(yè)工程學(xué)報,2020,5(1):156-163
[4]Lehmann JRK, Nieberding F, Prinz T,. Analysis of Unmanned Aerial System-Based CIR Images inForestry-A New Perspective to Monitor Pest Infestation Levels [J]. Forests, 2015,6(3):594-612
[5]Yu N, Li L, Schmitz N,. Development of Methods to Improve Soybean Yield Estimation and Predict Plant Maturity with An Unmanned Aerial Vehicle Based Platform [J]. Remote Sensing of Environment, 2016,187:91-101
[6]史潔青,馮仲科,劉金成.基于無人機遙感影像的高精度森林資源調(diào)查系統(tǒng)設(shè)計與試驗.農(nóng)業(yè)工程學(xué)報,2017,33(11):82-90
[7]Windrim L, Bryson M. Forest Tree Detection and Segmentation Using High Resolution Airborne Lidar//2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2019:3898-3904
[8]Aknc A, Gktoan AH. Detection and Mapping of Pine Processionary Moth Nests in UAV Imagery of Pine Forests Using Semantic Segmentation//Australasian Conference on Robotics and Automation (ACRA), 2019
[9]Zheng Z, Wang P, Liu W,. Distance-iou Loss:Faster and Better Learning for Bounding Box Regression.Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993–13000
[10]張素蘭,覃菊,唐曉東,等.松材線蟲危害下馬尾松光譜特征與估測模型研究[J].光譜學(xué)與光譜分析,2019,39(3):865-872
[11]許等平,任怡,閆哲,等.基于CNN的無人機遙感影像質(zhì)量評價[J]林業(yè)工程學(xué)報,2018,3(5):121-127
[12]汪紅,石雷,馬云強,等.云南切梢小蠹危害云南松監(jiān)測模型與判定規(guī)則[J].林業(yè)科學(xué)研究,2018,31(4):53-60
[13]劉金滄,王成波,常原飛.基于多特征CRF的無人機影像松材線蟲病監(jiān)測方法[J].測繪通報,2019(7):78-82
[14]胡根生,殷存軍,張艷,等.融合卷積神經(jīng)網(wǎng)絡(luò)與Adaboost算法的病害松樹識別[J].安徽大學(xué)學(xué)報:自然科學(xué)版,2019,43(2):44-53
[15]陶歡,李存軍,程成,等.松材線蟲病變色松樹遙感監(jiān)測研究進展[J].林業(yè)科學(xué)研究,2020,33(3):172-183
[16]Liu W, Anguelov D, Erhan D,. SSD: Single Shot Multibox Detector[C]//European conference on computer vision. Cham: Springer, 2016:21-37
[17]Ren S, He K, Girshick R,. Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017,39(6):1137-1149
[18]Lin T Y, Maire M, Belongie S,. Microsoft COCO: Common Objects in Context [C]. Fleet D, Pajdla T, Schiele B,. Computer Vision –ECCV 2014//Lecture Notes in Computer Science, Cham: Springer, 2014
[19]徐信羅,陶歡,李存軍,等.基于Faster R-CNN的松材線蟲病受害木識別與定位[J].農(nóng)業(yè)機械學(xué)報,2020,51(7):228-236
[20]孫鈺,周焱,袁明帥,等.基于深度學(xué)習(xí)的森林蟲害無人機實時監(jiān)測方法[J].農(nóng)業(yè)工程學(xué)報,2018,34(21):74-81
[21]張瑞瑞,夏浪,陳立平,等.基于U-NET網(wǎng)絡(luò)和無人機影像的松材線蟲病變色木識別[J].農(nóng)業(yè)機械學(xué)報,2020,36(12):61-68
[22]Redmon J, Farhadi A. Yolov3: An Incremental Improvement. [EB/OL]. [2018-04-08]. https://arxiv.org/pdf/1804.02767.
[23]Rezatofighi H, Tsoi N, Gwak J,. Generalized Intersection Over Union: A Metric and a Loss for Bounding Box Regression//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR):658-666.
[24]Zheng ZH, Wang P, Liu W,. Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression [C]//AAAIConference on Artificial Intelligence, 2020
Study on the Detection Method for Pinewood Wilt Disease Tree Based on YOLOv3-CIoU
LI Feng-di1, SHEN Wei-xing2, WU Jie-fang3, SUN Feng-gang1, XU Li2,LIU Zhen-yu4, LAN Peng1*
1.271018,2.271000,3.271000,4.271018,
Pinewood wilt disease is called as pine cancer, and the timely discovery and disposal of affected pine trees are critical to the containment of the spread of the disease. Traditional monitoring methods such as manual survey and satellite remote sensing can hardly satisfy the requirements of disease surveillance in complex forest environments. This paper proposed an improved YOLOv3 based identification method of pinewood wilt disease, which can spot the affected trees in a quick and accurate manner and enhance the disposal efficiency. First, the images of sick trees were collected with mini-UAV-borne high-resolution digital cameras from different spatial positions, and the Pascal VOC data sets were built. Next, to address the problems in the YOLOv3 training step such as IoU set null and slow decline of the average loss, the paper provided an improved YOLOv3-CIoU method such that the algorithm will have high accuracy with fast training and small data volume. Lastly, the improved YOLOv3-CIoU model, Faster R-CNN and SSD as well as other models were trained and tested on a high-performance computer.The results showed that the accuracy rate of the improved YOLOv3-CIoU model to detect the affected trees was 98.88%, more than 5% higher than that of the original YOLOv3 algorithm; the average single-picture detection rate on low-configuration mobile terminals was only 0.32s, 13% shorter than before. Compared with other models such as Faster R-CNN and SSD, the improved algorithm showed better performance in terms of detection accuracy, model training time and accuracy of target edge framing. Therefore, the improved YOLOv3-CIoU detection model of trees affected with pinewood wilt disease shows superior performance in various evaluation indicators, consequently it can effectively enhance the detection efficiency, reduce the monitoring costs, and guarantee accurate and efficient disease surveillance in practice.
Pinewood wilt disease tree; YOLOv3-CIOU; target detection
S431
A
1000-2324(2021)02-0224-010
10.3969/j.issn.1000-2324.2021.02.012
2020-09-20
2020-11-14
山東省農(nóng)業(yè)科技資金(林業(yè)科技創(chuàng)新)項目(2019LY003);山東省重點研發(fā)計劃項目(2019GNC106106);山東省重大科技創(chuàng)新工程項目(2019JZZY010706);山東省自然科學(xué)基金(ZR2019MF026)
李鳳迪(1996-),男,碩士研究生,研究方向為深度學(xué)習(xí)、目標(biāo)檢測. E-mail:leefandy@126.com
Author for correspondence.E-mail:lanpeng@sdau.edu.cn