李軍馬行穆春陽(yáng)王夢(mèng)雪劉寶成李亞?wèn)|
(1. 北方民族大學(xué)電氣信息工程學(xué)院,寧夏銀川 750021;2. 北方民族大學(xué)寧夏智能信息與大數(shù)據(jù)處理重點(diǎn)實(shí)驗(yàn)室,寧夏銀川 750021;3. 北方民族大學(xué)機(jī)電工程學(xué)院,寧夏銀川 750021)
蝗災(zāi)、旱災(zāi)、澇災(zāi)曾并稱(chēng)為三大自然災(zāi)害,一直是中國(guó)農(nóng)業(yè)防治的重點(diǎn)對(duì)象。 但在自然環(huán)境下,蝗蟲(chóng)目標(biāo)小,同時(shí)受光照、遮擋等因素干擾,識(shí)別難度大。 因此,在現(xiàn)代農(nóng)林業(yè)領(lǐng)域做到及時(shí)且準(zhǔn)確的蝗蟲(chóng)監(jiān)測(cè)意義重大[1]。
近年來(lái),隨著深度學(xué)習(xí)的發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用在害蟲(chóng)識(shí)別領(lǐng)域。 例如張博等[2]將空間金字塔池化和YOLOv3 卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,實(shí)現(xiàn)了實(shí)際場(chǎng)景下20 類(lèi)害蟲(chóng)的識(shí)別,且識(shí)別精度達(dá)到88.07%。 許德剛等[3]提出了一種改進(jìn)的Faster RCNN 糧蟲(chóng)目標(biāo)檢測(cè)方法,在自制數(shù)據(jù)集下實(shí)現(xiàn)了89.42%的精確度,為糧食存儲(chǔ)安全提供了蟲(chóng)害監(jiān)測(cè)新思路。 楊紅云等[4]提出的基于遷移學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的水稻害蟲(chóng)識(shí)別方法,使用VGG16 模型,實(shí)現(xiàn)了稻飛虱等5 種水稻害蟲(chóng)的識(shí)別。 甘雨等[5]通過(guò)改進(jìn)EfficientNet模型實(shí)現(xiàn)作物害蟲(chóng)識(shí)別,在公開(kāi)的大規(guī)模作物害蟲(chóng)數(shù)據(jù)集IP102 上實(shí)現(xiàn)了69.45%的識(shí)別率。 上述研究成果表明利用神經(jīng)網(wǎng)絡(luò)能夠?yàn)楹οx(chóng)識(shí)別提供解決方法。
在蝗蟲(chóng)識(shí)別方面,近些年也取得了一些研究進(jìn)展。 2017年劉欣[6]提出了基于無(wú)人機(jī)遙感平臺(tái)的蝗蟲(chóng)災(zāi)害監(jiān)測(cè)方法,該方法采用無(wú)人機(jī)遙感技術(shù)進(jìn)行圖像拍攝,然后將圖像回傳處理,對(duì)于大面積蟲(chóng)害識(shí)別具有較強(qiáng)的圖像分析能力,但是對(duì)于小區(qū)域以及林地深處蟲(chóng)情無(wú)法兼顧,而且采用遠(yuǎn)端服務(wù)器進(jìn)行圖像處理,延遲高。 2020年張文霞[7]利用基于二值圖像的區(qū)域性識(shí)別算法和快速卷積神經(jīng)網(wǎng)絡(luò)Faster RCNN 對(duì)蝗蟲(chóng)圖像進(jìn)行檢測(cè)與識(shí)別,結(jié)果表明,在自制數(shù)據(jù)集下,模型的平均識(shí)別精度達(dá)到84%;但是在光線環(huán)境較弱和背景復(fù)雜的情況下,模型的特征提取能力會(huì)明顯下降。 2021年李林等[8]以SSD 模型為基礎(chǔ),提出了一種K-SSD-F 蝗蟲(chóng)視頻目標(biāo)檢測(cè)算法,通過(guò)采用KNN 算法提取蝗蟲(chóng)視頻前后幀的時(shí)空特征來(lái)分析目標(biāo),平均精度達(dá)到88.94%,但該模型只針對(duì)東亞飛蝗,對(duì)于國(guó)內(nèi)出現(xiàn)范圍較廣的中華稻蝗等蝗蟲(chóng)類(lèi)未做研究,同時(shí)該方法未解決蝗蟲(chóng)識(shí)別過(guò)程中的實(shí)時(shí)蟲(chóng)情數(shù)據(jù)留存問(wèn)題。
針對(duì)以上問(wèn)題,本研究以飛蝗、稻蝗、竹蝗、沙蝗等農(nóng)林業(yè)蝗蟲(chóng)為研究對(duì)象,結(jié)合當(dāng)下嵌入式設(shè)備的發(fā)展情況,以輕量化的一階段卷積神經(jīng)網(wǎng)絡(luò)YOLOv4-tiny 為基礎(chǔ),提出了一種基于混合注意力機(jī)制CBAM[9]、七牛云數(shù)據(jù)平臺(tái)的蝗蟲(chóng)目標(biāo)識(shí)別模型,然后利用Jetson Xavier NX 開(kāi)發(fā)板的推理加速能力,將改進(jìn)后的模型移植到開(kāi)發(fā)板中,設(shè)計(jì)了一套小型蝗蟲(chóng)識(shí)別系統(tǒng)。
數(shù)據(jù)集獲取時(shí)充分考慮國(guó)內(nèi)蝗蟲(chóng)蟲(chóng)情,選取對(duì)農(nóng)林業(yè)危害較大、出現(xiàn)頻率高、繁殖率高的飛蝗、稻蝗、竹蝗、沙蝗等,其中飛蝗主要是東亞飛蝗和亞洲飛蝗,稻蝗為中華稻蝗。 圖像獲取途徑一是通過(guò)多時(shí)期、多角度、自然環(huán)境下的周邊果園、農(nóng)田實(shí)地相機(jī)采集;二是通過(guò)網(wǎng)絡(luò)搜索獲取相關(guān)蝗蟲(chóng)圖片。 數(shù)據(jù)集像素從564×348 到4032×3024不等,共2 344 張圖片。 數(shù)據(jù)集示例圖片如圖1所示。
對(duì)獲取到的蝗蟲(chóng)數(shù)據(jù)集,采用labelImg 軟件手動(dòng)標(biāo)簽的方式進(jìn)行圖像標(biāo)注。 同時(shí),為了增強(qiáng)模型的泛化能力,通過(guò)對(duì)原蝗蟲(chóng)圖片進(jìn)行亮度調(diào)整、鏡像翻轉(zhuǎn)、平面旋轉(zhuǎn)、添加高斯噪聲等一些常規(guī)預(yù)處理來(lái)擴(kuò)充數(shù)據(jù)集,最終得到25 860 張蝗蟲(chóng)圖像。 數(shù)據(jù)集圖像增強(qiáng)處理如圖2 所示。
圖2 數(shù)據(jù)集圖像增強(qiáng)處理示例
在深度學(xué)習(xí)領(lǐng)域,目標(biāo)檢測(cè)算法有單階段和雙階段之分,雙階段算法模型大、精度高,但速度慢,例如R-CNN[10]、Fast R-CNN[11]、Faster RCNN[12];而一階段算法巧妙地將目標(biāo)檢測(cè)問(wèn)題轉(zhuǎn)化為了回歸問(wèn)題,可以直接完成端到端的預(yù)測(cè),精度高、速度快,SSD[13]、YOLO[14]便是一階段算法的優(yōu)秀代表[15]。
隨著嵌入式設(shè)備的發(fā)展,越來(lái)越多的場(chǎng)景開(kāi)始將神經(jīng)網(wǎng)絡(luò)部署到移動(dòng)端,以此來(lái)提升工作效率。 在這種情況下,兼顧精度與速度的輕量級(jí)神經(jīng)網(wǎng)絡(luò)不斷被提出。 2020年6月25日,Alexey Bochkovskiy 在發(fā)布YOLOv4 兩個(gè)月后,正式推出YOLOv4-tiny[16]。 YOLOv4-tiny 作為YOLOv4 的輕量化版本,在盡可能保障模型精度的前提下做了參數(shù)刪減。 YOLOv4-tiny 網(wǎng)絡(luò)主要由3 部分構(gòu)成,分別是主干特征提取網(wǎng)絡(luò)CSPDarknet53-tiny、加強(qiáng)特征提取網(wǎng)絡(luò)(feature pyramid network,F(xiàn)PN)和檢測(cè)頭YOLO Head。 CSPDarknet53-tiny主要用于前期特征提取,包括卷積層(Conv)、批量標(biāo)準(zhǔn)化層(BN)、激活函數(shù)層(Leaky ReLU)和3個(gè)CSPBlock 模塊。 網(wǎng)絡(luò)首先對(duì)輸入進(jìn)來(lái)的圖像(416×416 像素)進(jìn)行兩次步長(zhǎng)為2 的卷積操作,經(jīng)過(guò)CSPDarknet53-tiny 主干特征提取網(wǎng)絡(luò)后,一共可以獲得13×13 和26×26 的兩個(gè)有效特征層;FPN 結(jié)構(gòu)將主干網(wǎng)絡(luò)得到的有效特征層進(jìn)行卷積加上采樣操作來(lái)進(jìn)行特征融合,獲得兩個(gè)具有更高語(yǔ)義信息的有效特征層;之后YOLO Head 對(duì)這兩個(gè)具有更高級(jí)語(yǔ)義信息的特征層進(jìn)行結(jié)果預(yù)測(cè),形成13×13 和26×26 的兩個(gè)目標(biāo)預(yù)測(cè)尺度,最終得到蝗蟲(chóng)目標(biāo)的置信度及位置信息。
1.4.1 增加注意力機(jī)制在自然環(huán)境下,蝗蟲(chóng)目標(biāo)大小不一,出現(xiàn)的背景也較復(fù)雜,并有大量物體遮擋,在這種情況下神經(jīng)網(wǎng)絡(luò)對(duì)每張圖片的關(guān)注點(diǎn)就會(huì)分散。 為了提升模型的細(xì)節(jié)特征提取能力,加強(qiáng)神經(jīng)網(wǎng)絡(luò)在不同背景下對(duì)檢測(cè)目標(biāo)的重視程度,使神經(jīng)網(wǎng)絡(luò)將更多注意力放到所給信息的重點(diǎn)區(qū)域,同時(shí)兼顧模型的速度,本研究分別在YOLOv4-tiny 的加強(qiáng)特征提取網(wǎng)絡(luò)輸入位置和第一次卷積結(jié)果輸出位置添加混合注意力機(jī)制CBAM,讓神經(jīng)網(wǎng)絡(luò)在通道和空間上分別獲取更多的特征信息,有效提升模型在復(fù)雜背景下的識(shí)別精度[17]。 改進(jìn)方式如圖3 所示。
圖3 改進(jìn)的YOLOv4-tiny 網(wǎng)絡(luò)結(jié)構(gòu)
CBAM 是一種混合注意力機(jī)制,包括通道注意力機(jī)制和空間注意力機(jī)制。 首先通道注意力機(jī)制利用平均池化和最大池化對(duì)輸入進(jìn)來(lái)的有效特征層進(jìn)行特征信息聚合操作,并送到共享網(wǎng)絡(luò),之后再壓縮輸入特征圖的空間維數(shù),逐元素求和并合并,最后經(jīng)過(guò)Sigmoid 激活函數(shù)后生成通道注意力特征圖;然后空間注意力模塊利用平均池化和最大池化對(duì)通道特征圖進(jìn)行高和寬的壓縮,再進(jìn)行Concat 操作,之后經(jīng)過(guò)7×7 的卷積操作將特征圖維度降為1,最后經(jīng)過(guò)Sigmoid 激活函數(shù)后生成空間注意力特征圖。 通過(guò)CBAM 模塊,神經(jīng)網(wǎng)絡(luò)不僅提升了在復(fù)雜背景下對(duì)重點(diǎn)區(qū)域的關(guān)注,也加強(qiáng)了對(duì)有效色素點(diǎn)的關(guān)注。 CBAM 注意力機(jī)制模塊結(jié)構(gòu)如圖4 所示。 CBAM 注意力機(jī)制的公式如下:
圖4 CBAM 注意力機(jī)制結(jié)構(gòu)
式中:MC(F )代表通道注意力機(jī)制操作;Ms(F )代表空間注意力機(jī)制操作;σ 表示Sigmoid 激活函數(shù);F 表示輸入特征圖;F1表示經(jīng)過(guò)通道注意力機(jī)制后的輸出特征圖;f7×7表示7×7 的卷積操作[18]。
1.4.2 嵌入云數(shù)據(jù)平臺(tái)蝗蟲(chóng)害的治理需要前期就掌握蟲(chóng)情數(shù)據(jù),但已有的大多研究只是對(duì)模型進(jìn)行各種改進(jìn)以提升模型精度,并未對(duì)模型實(shí)際應(yīng)用過(guò)程中的數(shù)據(jù)問(wèn)題進(jìn)行引申研究或者提出解決方案。 針對(duì)該問(wèn)題,本研究以七牛云數(shù)據(jù)平臺(tái)為基礎(chǔ),通過(guò)對(duì)YOLOv4-tiny 預(yù)測(cè)模塊進(jìn)行修改,在模型的YOLO Head 部分嵌入七牛云數(shù)據(jù)平臺(tái)軟件包,使模型能夠在實(shí)時(shí)目標(biāo)檢測(cè)中實(shí)現(xiàn)蟲(chóng)情數(shù)據(jù)的即時(shí)云端上傳,并通過(guò)個(gè)人注冊(cè)的合法域名,實(shí)現(xiàn)蝗蟲(chóng)蟲(chóng)情的實(shí)時(shí)數(shù)據(jù)留存與下載解析,這可為農(nóng)林業(yè)及時(shí)監(jiān)測(cè)或治理蟲(chóng)害提供數(shù)據(jù)支撐。 基于七牛云數(shù)據(jù)平臺(tái)改進(jìn)的蝗蟲(chóng)識(shí)別模型結(jié)構(gòu)如圖3 所示,七牛云服務(wù)器用戶界面如圖5 所示。
圖5 七牛云服務(wù)器平臺(tái)界面
將25 860 張蝗蟲(chóng)圖像按照9∶1 的比例劃分為訓(xùn)練集與測(cè)試集,使用PyTorch 框架搭建模型,利用實(shí)驗(yàn)室戴爾服務(wù)器進(jìn)行模型訓(xùn)練。 服務(wù)器主要配置為:Inter(R) Xeon(R) Gold 6246 CPU @3.30 GHz 12 核24 線程(雙處理器),190 GB RAM;Tesla P40 GPU,96 GB 內(nèi)存。 軟件操作系統(tǒng)為Ubuntu18.04,CUDA 版本為10.0,CUDNN 版本7.1,Python 版本3.7,PyTorch 版本1.2。 模型訓(xùn)練輸入圖像尺寸為416×416,訓(xùn)練過(guò)程使用Adam 優(yōu)化和更新權(quán)重參數(shù)。 具體訓(xùn)練參數(shù)如表1 所示。
表1 模型訓(xùn)練參數(shù)
模型訓(xùn)練完成后在自制數(shù)據(jù)集下采用精確率(Precision)、平均精度均值(mean average Precision,mAP)、召回率(Recall)、F1 值(F1-score)、每秒幀率(frame per second,F(xiàn)PS)、模型大小(model size)6個(gè)指標(biāo)來(lái)評(píng)估模型性能。 其中,F(xiàn)PS 越高,代表模型的檢測(cè)速度越快[19];F1 值是精確率與召回率的調(diào)和平均(harmonic mean),是一個(gè)同時(shí)考慮精確率與召回率的評(píng)價(jià)指標(biāo)[20],F(xiàn)1 值越大且越接近1 代表模型的綜合性能越好。 精確率、召回率、F1 值的計(jì)算公式如下:
式中,TP 為正樣本中檢測(cè)正確的樣本數(shù)目,F(xiàn)P 為負(fù)樣本中錯(cuò)檢為正樣本的數(shù)目,F(xiàn)N 為正樣本中漏檢或錯(cuò)檢為負(fù)樣本的樣本數(shù)目。
為了驗(yàn)證改進(jìn)后的模型性能,首先在自制數(shù)據(jù)集下設(shè)計(jì)了消融試驗(yàn),結(jié)果如表2 所示。 其中YOLOv4-tiny(ECA)表示使用了ECA(efficient channel attention)[21]通道注意力機(jī)制,YOLOv4-tiny(CBAM)表示使用了CBAM 混合注意力機(jī)制。可知,在使用注意力機(jī)制的情況下,模型的綜合性能得到了提升。 在只使用ECA 通道注意力機(jī)制的情況下,模型的精確率達(dá)到了91.51%,mAP 達(dá)到了93.35%。 在使用CBAM 混合注意力機(jī)制的情況下,模型的精確率、mAP、召回率、F1 值與原網(wǎng)絡(luò)相比均有明顯提升,分別提升1.69、1.57、1.62、2個(gè)百分點(diǎn);同時(shí)相較于YOLOv4 -tiny(ECA)性能也有一定提升,模型大小維持不變。說(shuō)明使用注意力機(jī)制能夠有效提升模型的性能,且使用混合注意力機(jī)制的效果要優(yōu)于單一的通道注意力機(jī)制。
表2 消融試驗(yàn)結(jié)果
為了更加客觀地評(píng)價(jià)模型的性能,再次在自制數(shù)據(jù)集下進(jìn)行對(duì)比試驗(yàn),結(jié)果如表3 所示。 其中YOLOX-tiny 表示YOLOX 的輕量級(jí)網(wǎng)絡(luò),YOLOv5n 表示YOLOv5 的輕量級(jí)網(wǎng)絡(luò)。 可知,YOLOX-tiny 和YOLOv5n 作為兩種較新的輕量級(jí)網(wǎng)絡(luò),模型的mAP 分別達(dá)到了97.58%和95.72%,性能優(yōu)良,但檢測(cè)速度分別只有47FPS 和57FPS,相較于YOLOv4-tiny(CBAM)的117FPS 差距明顯。 同時(shí)通過(guò)與 YOLOv4 網(wǎng)絡(luò)對(duì)比, 發(fā)現(xiàn)YOLOv4-tiny 作為簡(jiǎn)化版的YOLOv4,其模型的精度和速度更均衡,考慮到模型后期需要部署到嵌入式設(shè)備,所以選擇YOLOv4-tiny(CBAM)是更好的方案。
表3 對(duì)比試驗(yàn)結(jié)果
最后為了更加全面地評(píng)價(jià)改進(jìn)模型的性能,使用不同環(huán)境下、不同數(shù)量的蝗蟲(chóng)目標(biāo)進(jìn)行識(shí)別試驗(yàn),識(shí)別效果如圖6 所示。 可知,在復(fù)雜環(huán)境下的單目標(biāo)識(shí)別試驗(yàn)中,各個(gè)模型均能順利識(shí)別出目標(biāo),說(shuō)明模型在自制數(shù)據(jù)集下提取了豐富的特征信息。 在自然環(huán)境下的雙目標(biāo)識(shí)別試驗(yàn)中,所有模型也均能正確識(shí)別出目標(biāo),但YOLOv4-tiny(CBAM)模型預(yù)測(cè)框更小,更接近蝗蟲(chóng)目標(biāo)的真實(shí)體態(tài)。 在自然環(huán)境下多目標(biāo)識(shí)別試驗(yàn)中,YOLOv4-tiny 模型出現(xiàn)了漏檢情況,而其他模型均能實(shí)現(xiàn)4個(gè)目標(biāo)的識(shí)別。 綜上可得,YOLOv4-tiny(CBAM)模型的綜合性能更加均衡,更適合后續(xù)的部署應(yīng)用。
將改進(jìn)并訓(xùn)練好的蝗蟲(chóng)識(shí)別模型移植到NVIDIA 的Jetson Xavier NX 開(kāi)發(fā)板中,利用Jetson Xavier NX 開(kāi)發(fā)板作為模型的應(yīng)用載體,借助TensorRT 加速模型,搭建設(shè)計(jì)了一種便攜式蝗蟲(chóng)識(shí)別裝置,如圖7 所示。 考慮加入的云數(shù)據(jù)平臺(tái),采用華為E5576 隨身WIFI 裝置作為數(shù)據(jù)提供模塊,實(shí)現(xiàn)野外環(huán)境的數(shù)據(jù)服務(wù)功能。 相機(jī)部分采用索尼IMX219 模塊CSI(有效像素800W)和??礥14a 便攜式USB2K 鏡頭(有效像素400W)。
圖7 便攜式蝗蟲(chóng)識(shí)別裝置實(shí)物圖
系統(tǒng)工作流程如圖8 所示。 通過(guò)CSI 或USB2K 攝像頭獲取圖像信息,利用Jetson Xavier NX 內(nèi)嵌改進(jìn)并訓(xùn)練好的模型進(jìn)行蝗蟲(chóng)識(shí)別,使用云數(shù)據(jù)平臺(tái)進(jìn)行蝗蟲(chóng)目標(biāo)實(shí)時(shí)數(shù)據(jù)云端上傳與存儲(chǔ),最后通過(guò)七牛云賬號(hào)在線查看識(shí)別結(jié)果。數(shù)據(jù)格式中包括識(shí)別時(shí)間等信息,方便用戶及時(shí)掌握蟲(chóng)情數(shù)據(jù),進(jìn)行有效防治[22]。
為了測(cè)試設(shè)計(jì)的蝗蟲(chóng)識(shí)別系統(tǒng)的識(shí)別效果,進(jìn)行相關(guān)自然環(huán)境下的檢測(cè)試驗(yàn)。 首先采用多角度、多體態(tài)、不同背景下的靜態(tài)蝗蟲(chóng)目標(biāo)數(shù)據(jù)進(jìn)行識(shí)別測(cè)試,結(jié)果(圖9)顯示,搭建設(shè)計(jì)的蝗蟲(chóng)識(shí)別系統(tǒng)能夠?qū)崿F(xiàn)不同狀態(tài)下的蟲(chóng)情識(shí)別,具有一定的針對(duì)性。 其次,為了驗(yàn)證模型及識(shí)別系統(tǒng)的實(shí)時(shí)動(dòng)態(tài)識(shí)別效果,進(jìn)行自然環(huán)境下模型的目標(biāo)視頻實(shí)時(shí)識(shí)別測(cè)試,實(shí)時(shí)識(shí)別效果及云平臺(tái)實(shí)時(shí)數(shù)據(jù)分別如圖10 和圖11 所示。 可見(jiàn),在不同的自然背景下,針對(duì)蝗蟲(chóng)目標(biāo)數(shù)量不一、角度和光線不同等情況,系統(tǒng)均能夠有效識(shí)別出目標(biāo),且實(shí)時(shí)檢測(cè)速度達(dá)到28FPS。 綜上可見(jiàn),本研究設(shè)計(jì)的小型蝗蟲(chóng)識(shí)別系統(tǒng)在自然環(huán)境下具有較強(qiáng)的蝗蟲(chóng)識(shí)別能力;而嵌入在模型預(yù)測(cè)模塊中的七牛云數(shù)據(jù)平臺(tái),實(shí)現(xiàn)了即時(shí)蟲(chóng)情識(shí)別數(shù)據(jù)的云端存儲(chǔ)功能,大大提升了模型的可利用性,解決了以往蟲(chóng)情數(shù)據(jù)掌握不及時(shí)的問(wèn)題,能夠?yàn)楝F(xiàn)代農(nóng)林業(yè)蝗蟲(chóng)識(shí)別提供新思路。
圖9 靜態(tài)目標(biāo)識(shí)別效果
圖10 視頻實(shí)時(shí)識(shí)別效果
圖11 蝗蟲(chóng)蟲(chóng)情識(shí)別云數(shù)據(jù)后臺(tái)示例圖
通過(guò)對(duì)前人在蝗蟲(chóng)識(shí)別領(lǐng)域研究的分析,本研究提出了一種基于YOLOv4-tiny 網(wǎng)絡(luò)改進(jìn)的蝗蟲(chóng)目標(biāo)識(shí)別模型,大小為23.6 MB。 首先,該模型使用輕量型的混合注意力機(jī)制CBAM 提升模型性能,彌補(bǔ)了過(guò)去蝗蟲(chóng)識(shí)別算法精度低、實(shí)時(shí)性差的缺點(diǎn),提升了模型在復(fù)雜環(huán)境下的小目標(biāo)特征提取能力,模型的平均精度可達(dá)到94.69%,召回率達(dá)到92.51%,F(xiàn)1 值達(dá)到93%,單張圖片識(shí)別速度達(dá)到117FPS,在嵌入式開(kāi)發(fā)板上的實(shí)時(shí)檢測(cè)速度達(dá)到28FPS,模型性能優(yōu)良。 其次,針對(duì)實(shí)際應(yīng)用場(chǎng)景,在模型的預(yù)測(cè)模塊引入了七牛云數(shù)據(jù)平臺(tái),借助個(gè)人域名,實(shí)現(xiàn)了模型對(duì)蝗蟲(chóng)蟲(chóng)情實(shí)時(shí)識(shí)別的云端數(shù)據(jù)存儲(chǔ)與解析,提升了模型的應(yīng)用價(jià)值,方便研究者實(shí)時(shí)掌握蟲(chóng)情數(shù)據(jù)。 最后,針對(duì)現(xiàn)代農(nóng)林業(yè)蝗蟲(chóng)監(jiān)測(cè)裝置較大且多是采用氣味或燈光誘捕害蟲(chóng)的思路,本研究借助高性能的嵌入式設(shè)備Jetson Xavier NX 搭載改進(jìn)的模型,設(shè)計(jì)了一種小型的蝗蟲(chóng)識(shí)別裝置。 通過(guò)試驗(yàn)驗(yàn)證,該系統(tǒng)在不同自然背景及光線強(qiáng)度下均取得了非常好的識(shí)別效果,具有較強(qiáng)的蝗蟲(chóng)目標(biāo)識(shí)別能力。 本研究提出的方法可為農(nóng)林業(yè)蝗蟲(chóng)識(shí)別提供新的技術(shù)參考。
另外,本研究用提取到的蝗蟲(chóng)共同特征信息作為研究基礎(chǔ),自建了一套有25 860 張圖像的蝗蟲(chóng)數(shù)據(jù)集。 但本研究未進(jìn)行分類(lèi)目標(biāo)預(yù)測(cè),將在今后的研究中繼續(xù)完善模型的分類(lèi)識(shí)別功能,以實(shí)現(xiàn)蝗蟲(chóng)目標(biāo)精細(xì)化識(shí)別。