漆海霞 李承杰 黃桂珍
摘要:針對目前死淘雞目標(biāo)檢測研究較少,高精度檢測算法體積大難以部署至移動式設(shè)備等問題,提出一種基于YOLOv4的輕量化死淘雞目標(biāo)檢測算法。采集大規(guī)模蛋雞養(yǎng)殖工廠籠中死淘雞圖片,建立目標(biāo)檢測數(shù)據(jù)集;在算法中引入MobileNetv3主干提取網(wǎng)絡(luò)與深度可分離卷積來降低模型體積;并在最大池化層前添加自注意力機制模塊,增強算法對全局語義信息的捕獲。在自建數(shù)據(jù)集中的試驗結(jié)果表明,改進算法在死淘雞目標(biāo)檢測任務(wù)中有更高的準(zhǔn)確度,其mAP值與召回率分別達到97.74%和98.15%,模型大小縮小至原算法的1/5,在GPU加速下幀數(shù)達到77幀/s,檢測速度提高1倍,能夠滿足嵌入式部署需求。
關(guān)鍵詞:死淘雞識別;深度學(xué)習(xí);輕量化網(wǎng)絡(luò);MobileNet;深度可分離卷積
中圖分類號:S831.4+9
文獻標(biāo)識碼:A
文章編號:2095-5553 (2024) 05-0195-07
收稿日期:2022年9月19日? 修回日期:2023年2月27日*基金項目:廣州市科技項目(20212100026)
第一作者:漆海霞,女,1969年生,湖南株洲人,博士,副教授;研究方向為智慧農(nóng)業(yè)、農(nóng)業(yè)機器人、農(nóng)業(yè)無人系統(tǒng)等。E-mail: qihaixia_scau@126.com
Dead chicken target detection algorithm based on lightweight YOLOv4
Qi Haixia1, 2, 3, Li Chengjie1, Huang Guizhen1
(1. School of Engineering, South China Agricultural University, Guangzhou, 510642, China;
2. National Precision Agriculture International Joint Research Center for Aerial Pesticide Application Technology,
Guangzhou, 510642, China; 3. Guangdong Provincial Laboratory of Lingnan Modern Agricultural Science and
Technology, Guangzhou, 510642, China)
Abstract:
Aiming at the problems that there are few studies on dead chicken target detection and the large size of the high-precision detection algorithm makes it difficult to deploy to mobile devices, a lightweight dead chicken target detection algorithm based on YOLOv4 is proposed. Firstly, the team collects images of dead chickens in cages from large-scale egg production plants to build a target detection dataset. Then, MobileNetv3 backbone extraction network with depth-separable convolution is introduced in the algorithm to reduce the model size. Finally, a self-attentive mechanism module is added before the maximum pooling layer to enhance the algorithms capture of global semantic information. Experimental results in a self-built dataset show that the improved algorithm has higher accuracy in the dead pheasant target detection task, with mAP values and recall rates of 97.74% and 98.15% respectively. The model size is reduced to 1/5 of the original algorithm, and the frame rate reaches 77 frames/s under GPU acceleration, doubling the detection speed and meeting the requirements of embedded deployments.
Keywords:
identification of dead chicken; deep learning; lightweight network; MobileNet; deep separable convolution
0 引言
隨著工業(yè)化智能化設(shè)備在養(yǎng)殖業(yè)上的應(yīng)用,我國的畜禽養(yǎng)殖企業(yè)正在向智能化、無人化方向高速發(fā)展,其中養(yǎng)雞業(yè)的規(guī)?;a(chǎn)業(yè)化程度正在與日俱增[1]。在大型雞舍的規(guī)模化養(yǎng)殖中氨氣、溫度、濕度、光照強度等外在因素對雞的生長健康與免疫功能等產(chǎn)生重大影響,同時可能造成雞群的行為變化和發(fā)育異常,甚至產(chǎn)生傳染性疾?。?]。雞是恒溫動物,對生活環(huán)境穩(wěn)定性要求高,現(xiàn)代化農(nóng)業(yè)使得高產(chǎn)指標(biāo)成為雞遺傳因素的關(guān)鍵,這使得雞群對環(huán)境要求變得更加苛刻,因此雞舍中每日都會大量死淘雞出現(xiàn)[3, 4]。為降低雞群的死亡率,對雞舍的環(huán)境控制與雞群的福利化養(yǎng)殖成為研究重點,多種防控技術(shù)整合、多功能便攜式監(jiān)測設(shè)施的研發(fā),有利于促進智能化雞舍的發(fā)展[5]。
隨著深度學(xué)習(xí)技術(shù)在近幾年的快速發(fā)展,基于深度學(xué)習(xí)的圖像識別技術(shù)在蔬果農(nóng)業(yè)、畜禽養(yǎng)殖領(lǐng)域取得了較大的突破[6-9]。目前對豬、牛等大型畜禽動物的研究較多,通常是通過圖像識別技術(shù)對豬、牛等的健康狀態(tài)與生活行為進行研究[10-13]。任曉惠等[10]通過支持向量機對奶牛的行為方式進行分類,楊秋妹等[12]使用機器學(xué)習(xí)算法對豬只的飲水行為進行識別,余秋冬等[14]采用輕量化的YOLOv4算法對高遮擋、高密度豬群進行識別,識別率與召回率高達96.85%和91.75%。目前對于蛋雞的研究較少,已有的研究主要集中在對蛋雞生活行為的識別,勞鳳丹等[15, 16]應(yīng)用機器視覺對蛋雞的采食、躺、站、坐等行為進行識別,為了進一步研究多蛋雞的群體行為(分布指數(shù)、水平活躍等),該團隊繼續(xù)基于深度圖像對雞的運動、飲水等動作進行研究,識別率能達到90%左右。趙守耀等[17]基于輪廓特征對單只蛋雞行為進行研究,首先獲取蛋雞俯視圖獲得輪廓的幾何特征,然后用極限學(xué)習(xí)機(ELM)對四種特征進行訓(xùn)練,最后結(jié)合最佳的特征組合對蛋雞進行識別,對采食、躺臥等特征識別率達到91.5%。李娜等[18]基于深度學(xué)習(xí)對雞的采食、站立、啄羽等行為做進一步研究。
蛋雞養(yǎng)殖密度高、數(shù)量大,一個規(guī)模在五萬只雞左右的雞舍每天能夠產(chǎn)生10~20只死淘雞,由于雞舍的恒溫溫度較高,蛋雞死亡將產(chǎn)生大量的細菌、病毒和有害氣體,若蛋雞因為禽流感等疾病死亡而沒得到及時處理,更可能導(dǎo)致大規(guī)模的感染和嚴(yán)重的經(jīng)濟損失[19]。大部分規(guī)?;半u工廠采用飼養(yǎng)員巡檢的方式清理死淘雞,大型雞舍通常有四層雞籠,飼養(yǎng)員巡檢時需要借助推車,這種工作方式效率低下,不但給飼養(yǎng)員增加了繁重的工作量與安全風(fēng)險,而且人為巡檢方式漏檢率也較高,因此在雞舍中進行智能巡檢、實時檢測變得十分重要[20]。
為解決規(guī)模雞養(yǎng)殖中的籠中死淘雞識別問題,本文基于輕量化算法應(yīng)用,以YOLOv4算法為主要算法,采用MobileNetv3輕量化網(wǎng)絡(luò)[21]替代其主干網(wǎng)絡(luò),同時加入自注意力機制[22]來提升對全局語義信息的識別,將算法頸部標(biāo)準(zhǔn)卷積替換成深度可分離卷積,在保證識別精度的同時,提升檢測速度、降低模型大小,為在嵌入式的移動設(shè)備上應(yīng)用部署提供有利的條件。
1 材料與方法
1.1 數(shù)據(jù)集采集
本試驗從模型的生產(chǎn)應(yīng)用角度展開研究,算法所訓(xùn)練的數(shù)據(jù)集均為實際生產(chǎn)環(huán)境下采集。數(shù)據(jù)集來自廣東廣生元公司的蛋雞養(yǎng)殖場,該養(yǎng)殖場現(xiàn)有投入生產(chǎn)的雞舍26個,其中包含直立型4層、直立型8層與A字型3層三種雞舍,數(shù)據(jù)集選取23、25、26三個直立型4層雞舍,于2022年5月6—9日進行活雞與死淘雞的數(shù)據(jù)集拍攝。在23號雞舍拍攝974張雞齡500天左右的大午金鳳品種蛋雞活雞圖;在25號雞舍拍攝1 105張雞齡800天左右換羽期的京粉1號品種蛋雞活雞圖;在26號雞舍拍攝703張雞齡500天左右的羅曼粉品種蛋雞活雞圖。為收集死淘雞圖,本團隊于每日早上7:00與下午14:00對三個雞舍進行巡檢篩查,在巡檢過程中共拍攝籠中死雞519張。根據(jù)光線條件與訓(xùn)練需求后篩選出400張清晰可用的死淘雞圖片與2 750張活雞圖片。
1.2 數(shù)據(jù)集制作
為保證訓(xùn)練所需數(shù)據(jù)集更為完整,首先對采集的數(shù)據(jù)圖片進行水平翻轉(zhuǎn)、旋轉(zhuǎn)、添加噪聲、圖像直方均衡等方式進行數(shù)據(jù)擴充,具體標(biāo)注比例如表1所示,共擴充為活雞圖5 500張,死雞圖2 000張,對數(shù)據(jù)集按8∶1∶1的比例分為訓(xùn)練集、驗證集與測試集。本試驗訓(xùn)練的數(shù)據(jù)集選用Pascal VOC格式,使用LabelImg圖片標(biāo)注工具對數(shù)據(jù)集圖片中的活雞與死淘雞進行手動標(biāo)注,標(biāo)注的區(qū)域為單只雞的最小外接矩形,標(biāo)簽名分別為chickens與dead chickens,標(biāo)注后得到.xml格式文件用于后續(xù)模型訓(xùn)練。
2 輕量化死淘雞目標(biāo)檢測算法
2.1 YOLOv4目標(biāo)檢測算法
YOLOv4算法是2020年Alexey Bochkovskiy團隊發(fā)表在CVPR會議上的一種目標(biāo)檢測算法,該算法在檢測精度與檢測速度上都比前代算法有一定提升,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
該算法為one-stage單階段算法,共包含主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)、檢測頭三個部分。YOLOv4算法是在YOLOv3算法的基礎(chǔ)上升級而來的,主要的修改部分有將主干特征提取網(wǎng)絡(luò)由DarkNet53改為CSPDarkNet53,主干中的激活函數(shù)由Leaky relu替換為Mish激活函數(shù),同時將YOLOv3中的FPN特征金字塔改為了PANet網(wǎng)絡(luò),最后在訓(xùn)練方式上引入Mosaic數(shù)據(jù)增強方式、Label smoothing平滑操作與CIOU損失函數(shù)等技巧來提高模型的整體識別率。
2.2 輕量化YOLOv4死淘雞檢測算法
改進后的算法結(jié)構(gòu)如圖2所示。主干網(wǎng)絡(luò)的具體參數(shù)如表2所示。
YOLOv4算法有較好的識別精度與識別速度,但是仍有缺陷,特別是主干中的CSPDarkNet53模塊將大量的殘差結(jié)構(gòu)進行堆疊,這種結(jié)構(gòu)導(dǎo)致模型訓(xùn)練速度慢、模型體積大和難以部署到移動式設(shè)備中等問題,這限制了高精度算法在畜禽養(yǎng)殖業(yè)的應(yīng)用。為解決移動設(shè)備的部署問題,拓展深度學(xué)習(xí)算法在畜禽養(yǎng)殖業(yè)的使用,本文基于YOLOv4算法設(shè)計了輕量化的死淘雞檢測算法。改進算法使用MobileNetV3的主干特征提取網(wǎng)絡(luò)替代原有的CSPDarkNet53模塊,然后在池化層之前加入自注意力機制模塊以增加算法對全局信息的提取能力,最后將算法頸部的大部分普通卷積替換成深度可分離卷積,以降低算法體積、減少參數(shù)量。
MobileNetV3特征提取網(wǎng)絡(luò)是Google團隊基于前兩代版本于2019年提出的新一代特征提取網(wǎng)絡(luò),它很好地繼承了V1、V2版本的優(yōu)點,保留了深度可分離卷積結(jié)構(gòu)與逆殘差結(jié)構(gòu),整體速度相比V2版本提高了25%。本文選取精度更高的MobileNetV3-large主干特征提取網(wǎng)絡(luò)替代CSPDarkNet53主干網(wǎng)絡(luò)(表2),其中主要包含7個Bneck_A模塊與8個Bneck_B模塊。
2.2.1 Bneck模塊
本文選取的MobileNetV3特征提取網(wǎng)絡(luò)的主要組成部分是Bneck結(jié)構(gòu),Bneck分為無輕量注意力結(jié)構(gòu)的Bneck_A和加入輕量注意力模塊的Bneck_B兩種結(jié)構(gòu),該模塊首先通過一個1×1卷積與一個非線性激活函數(shù)進行升維,然后通過一個3×3的深度可分離卷積與一個非線性激活函數(shù),在Bneck_B結(jié)構(gòu)中還加入了輕量級注意力模型SE模塊,SE模塊的作用主要是對之前特征矩陣的每個通道進行權(quán)重分析,然后給更重要的通道賦予高權(quán)重以增加算法精準(zhǔn)度,最后再通過一個1×1卷積降維,模塊結(jié)構(gòu)如圖3所示。
2.2.2 自注意力機制模塊
在雞籠死淘雞目標(biāo)檢測任務(wù)中,環(huán)境的全局語義信息非常重要,不僅要判斷死淘雞的所在區(qū)域,同時死淘雞附近的信息也很關(guān)鍵,只有掌握好圖片的全局信息才能更準(zhǔn)確的定位死淘雞所在區(qū)域。將自注意力機制加入神經(jīng)網(wǎng)絡(luò)中可以根據(jù)圖片區(qū)域重要性對其分配相應(yīng)權(quán)重,自注意力機制擁有良好的全局感受野,可以根據(jù)上下文信息捕獲更多的全局語義信息,給信息給予不同的權(quán)重值能夠使特征信息與目標(biāo)有更強的關(guān)聯(lián)性,這可以讓整體網(wǎng)絡(luò)訓(xùn)練時更加聚焦在關(guān)鍵信息上。
自注意力機制由問題(Q)、鍵(K)、值(V)三個基本元素組成,通過計算Q、K之間的相似度可以得到語義信息權(quán)重值。通常采用縮放點積函數(shù)計算Q、K的相似度,緊接著將縮放后的相似度與Softmax歸一化后可以得到語義權(quán)重值,最后將每個語義權(quán)重值加權(quán)求和即可得到自注意力特征,具體如式(1)所示。
P1、P2分別代表活雞與死淘雞的識別率,R1、R2分別代表活雞與死淘雞的召回率,F(xiàn)11、F12分別代表活雞與死雞的F1得分,mAP為活雞與死淘雞的平均識別率。
由表3可知,本文算法對比YOLOv4算法死淘雞準(zhǔn)確率提高0.22%,召回率提高3.90%,F(xiàn)1值提高0.02,mAP值提高0.98%;同時改進后的算法將主干識別網(wǎng)絡(luò)替換成MobileNetv3網(wǎng)絡(luò),模型大小為54.1 M減少為YOLOv4模型大小的1/5,并且FPS提升到77.17幀/s;與YOLOv4-tiny相比,本文算法的檢測速度不如YOLOv4-tiny快,但是在mAP、召回率、F1值上有明顯優(yōu)勢,分別提升1.84%、39.82%、0.16。在電腦端GPU加速下,改進算法識別一張圖片的速度為0.013 s,在僅有CPU加速時識別速度為0.08 s/張,均可滿足實時識別需求。
為證明本文對YOLOv4算法改進是有效的,本文進行消融試驗來與原算法進行比較,對比結(jié)果如表4所示。
當(dāng)僅將主干特征提取網(wǎng)絡(luò)替換成MobileNetv3時,模型大小減少103 M,mAP減少3.88%,檢測速度提升1倍,證明MobileNetv3網(wǎng)絡(luò)對體積縮小的有效性,同時說明MobileNetv3對算法準(zhǔn)確率有比較大的影響。在此基礎(chǔ)將算法中的普通卷積替換成深度可分離卷積后,模型體積再次減少104 M,mAP降低0.52%,F(xiàn)PS增大3.82幀/s,說明深度可分離卷積不僅能進一步減小模型體積,同時對檢測速度與準(zhǔn)確率影響不大。最后在此基礎(chǔ)上加入自注意力機制模塊,模型稍微增大5 M,檢測速度保持穩(wěn)定,mAP提高5.38%,證明了自注意力機制模塊能夠增強特征的提取能力。
為更加直觀地體現(xiàn)算法的改進效果,本文對比分析了幾種算法在死淘雞目標(biāo)檢測測試集上的測試結(jié)果,隨機抽取了兩張結(jié)果圖片如圖7所示。
從圖7可以看出,YOLOv4-tiny和EfficientDet-D3算法在多遮擋情況下的死淘雞識別存在明顯不足。Faster R-CNN檢測的整體表現(xiàn)不錯,但是雙階段檢測算法識別時間長、模型大,無法應(yīng)用于嵌入式設(shè)備。改進算法與YOLOv3、YOLOv4算法相比在遮擋情況下有著更優(yōu)秀的檢測結(jié)果,同時在死淘雞識別上本文算法有更高地準(zhǔn)確度。
4 結(jié)論
1)? 本文將輕量化MobileNetv3網(wǎng)絡(luò)替代YOLOv4算法的主干特征提取網(wǎng)絡(luò),同時在最大池化層之前引入自注意力機制模塊增加對圖片全局信息的把握,最后將算法頸部的大部分標(biāo)準(zhǔn)卷積替換成深度可分離卷積,進一步減少參數(shù)量降低模型大小,最后將改進的輕量化YOLOv4目標(biāo)檢測算法應(yīng)用于籠中死淘雞目標(biāo)檢測。
2)? 改進后算法的模型大小約為YOLOv4算法的1/5左右,在保證高識別準(zhǔn)確率與召回率的同時將目標(biāo)檢測時間降低到13 ms左右,檢測速度提升到Y(jié)OLOv4算法的一倍。算法的輕量化使其可以更好地部署到移動式設(shè)備上。
3)? 根據(jù)實際生產(chǎn)環(huán)境與條件,本文通過現(xiàn)場采集的方式制作死淘雞目標(biāo)檢測數(shù)據(jù)集,并基于該數(shù)據(jù)集對輕量化死淘雞檢測算法在內(nèi)的6種算法進行對比試驗。對比結(jié)果表明:本文的輕量化死淘雞檢測算法在檢測速度、檢測精度上有較高地綜合性能,準(zhǔn)確率達到95.57%、召回率達到98.15%、調(diào)和平均值達到0.97、平均精度達到97.74%,同時模型大小僅為54.1 M,GPU加速下圖片檢測速度能達到77幀/s。
4)? 本文算法擁有高精度與高檢測速度,模型參數(shù)量小,算法的精度與速度滿足實際生產(chǎn)需要,能夠更好地應(yīng)用于移動式檢測場景。
參 考 文 獻
[1]
李保明, 王陽, 鄭煒超, 等. 畜禽養(yǎng)殖智能裝備與信息化技術(shù)研究進展[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報, 2021, 42(6): 18-26.
Li Baoming, Wang Yang, Zheng Weichao, et al. Research progress on intelligent equipment and information technology for livestock and poultry breeding [J]. Journal of South China Agricultural University, 2021, 42(6): 18-26.
[2] 龍長江, 譚鶴群, 朱明, 等. 畜禽舍移動式智能監(jiān)測平臺研制[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(7): 68-75.
Long Changjiang, Tan Hequn, Zhu Ming, et al. Development of mobile intelligent monitoring platform for livestock and poultry house [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(7): 68-75.
[3] Kristensen H H, Cornou C. Automatic detection of deviations in activity levels in groups of broiler chickens: A pilot study [J]. Biosystems Engineering, 2011, 109(4): 369-376.
[4] 李保明, 王陽, 鄭煒超, 等. 中國規(guī)?;B(yǎng)雞環(huán)境控制關(guān)鍵技術(shù)與設(shè)施設(shè)備研究進展[J]. 農(nóng)業(yè)工程學(xué)報, 2020, 36(16): 212-221.
Li Baoming, Wang Yang, Zheng Weichao, et al.Research progress in environmental control key technologies, facilities and equipment for laying hen production in China [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(16): 212-221.
[5] 李保明, 王陽, 鄭煒超. 我國規(guī)?;B(yǎng)雞環(huán)境控制技術(shù)的最新進展[J]. 中國家禽, 2019, 41(9): 1-7.
Li Baoming, Wang Yang, Zheng Weichao.Advances in environment control technology of poultry in China [J]. China Poultry, 2019, 41(9): 1-7.
[6] Hla B, Cla B, Gla B, et al. A real-time table grape detection method based on improved YOLOv4-tiny network in complex background [J]. Biosystems Engineering, 2021, 212(6): 347-359.
[7] Ahamed T. Real time pear fruit detection and counting using YOLOv4 models and deep sort [J]. Sensors, 2021, 21(14): 4803.
[8] 東輝, 陳鑫凱, 孫浩, 等. 基于改進YOLOv4和圖像處理的蔬菜田雜草檢測[J]. 圖學(xué)學(xué)報, 2022, 43(4): 559-569.
Dong Hui, Chen Xinkai, Sun Hao, et al. Weed detection in vegetable field based on improved YOLOv4 and image processing [J]. Journal of Graphology, 2022, 43(4): 559-569.
[9] Li D, Zhang K F, Li Z B, et al. A spatiotemporal convolutional network for multi-behavior recognition of pigs [J]. Sensors, 2020, 20(8): 2381.
[10] 任曉惠, 劉剛, 張淼, 等. 基于支持向量機分類模型的奶牛行為識別方法[J]. 農(nóng)業(yè)機械學(xué)報, 2019, 50(S1): 290-296.
Ren Xiaohui, Liu Gang, Zhang Miao, et al.Dairy cattles behavior recognition method based on support vector machine classification model [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 290-296.
[11] Lao F, Brown-Brandl T, Stinn J P, et al. Automatic recognition of lactating sow behaviors through depth image processing [J]. Computers and Electronics in Agriculture, 2016, 125: 56-62.
[12] 楊秋妹, 肖德琴, 張根興. 豬只飲水行為機器視覺自動識別[J]. 農(nóng)業(yè)機械學(xué)報, 2018, 49(6): 232-238.
Yang Qiumei, Xiao Deqin, Zhang Genxing.Automatic pig drinking behavior recognition with machine vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(6): 232-238.
[13] Sa J, Choi Y, Lee H, et al. Fast pig detection with a top-view camera under various illumination conditions [J]. Symmetry, 2019, 11(2): 266.
[14] 余秋冬, 楊明, 袁紅, 等. 基于輕量化YOLOv4的生豬目標(biāo)檢測算法[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報, 2022, 27(1): 183-192.
Yu Qiudong, Yang Ming, Yuan Hong, et al. Pig object detection algorithm based on lightweight YOLOv4 [J]. Journal of China Agricultural University, 2022, 27(1): 183-192.
[15] 勞鳳丹, 杜曉冬, 滕光輝. 基于深度圖像的蛋雞行為識別方法[J]. 農(nóng)業(yè)機械學(xué)報, 2017, 48(1): 155-162.
Lao Fengdan, Du Xiaodong, Teng Guanghui.Automatic recognition method of laying hen behaviors based on depth image processing [J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(1): 155-162.
[16] 勞鳳丹, 滕光輝, 李軍, 等. 機器視覺識別單只蛋雞行為的方法[J]. 農(nóng)業(yè)工程學(xué)報, 2012, 28(24): 157-163.
Lao Fengdan, Teng Guanghui, Li Jun, et al.Behavior recognition method for individual laying hen based on computer vision [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(24): 157-163.
[17] 趙守耀, 陸輝山, 王福杰, 等. 基于輪廓特征的單只蛋雞行為識別方法[J]. 中國農(nóng)機化學(xué)報, 2022, 43(2): 143-147, 181.
Zhao Shouyao, Lu Huishan, Wang Fujie, et al. Recognition method of single layer behavior based on contour feature [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(2): 143-147, 181.
[18] 李娜, 任昊宇, 任振輝. 基于深度學(xué)習(xí)的群養(yǎng)雞只行為監(jiān)測方法研究[J]. 河北農(nóng)業(yè)大學(xué)學(xué)報, 2021, 44(2): 117-121.
Li Na, Ren Haoyu, Ren Zhenhui. Research of behavior monitoring method of flock hens based on deep learning [J]. Journal of Hebei Agricultural University, 2021, 44(2): 117-121.
[19] 瞿子淇. 無人養(yǎng)雞場死雞檢測方法研究[D]. 長春: 吉林大學(xué), 2019.
Qu Ziqi.Study on detection method of dead chicken in unmanned chicken farm [D]. Changchun: Jilin University, 2019.
[20] 胡子康. 死雞撿拾機器人欠驅(qū)動末端執(zhí)行器的研究[D]. 保定: 河北農(nóng)業(yè)大學(xué), 2021.
Hu Zikang. Research on underactuated end-effector of dead chicken picking robot [D]. Baoding: Hebei Agricultural University, 2021.
[21] Howard A, Sandler M, Chu G, et al. Searching for MobileNetV3 [C]. 2019 IEEE/CVF International Conference on Computer Vision (ICCV). IEEE, 2020.
[22] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [C]. 2017 Advances in Neural Information Processing Systems. NIPS, 2017.