• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于改進(jìn)YOLOX的棉花姿態(tài)品級(jí)識(shí)別及其定位研究

      2024-01-01 00:00:00謝嘉陳學(xué)飛李永國(guó)金昌兵梁錦濤孫帥浩
      棉花學(xué)報(bào) 2024年4期
      關(guān)鍵詞:損失函數(shù)注意力機(jī)制目標(biāo)檢測(cè)

      摘要:【目的】旨在解決高質(zhì)量采棉要求下,采棉機(jī)對(duì)不同姿態(tài)和品級(jí)的棉花進(jìn)行精確識(shí)別與定位的問(wèn)題,提出了1種基于改進(jìn)YOLOX的棉花檢測(cè)方法YOLOX-Cotton?!痉椒ā縔OLOX-Cotton使用YOLOX模型作為主體框架,包含識(shí)別模塊和定位模塊,并引入了CA(coordinate attention)模塊和SIoU損失函數(shù),以多種姿態(tài)、品級(jí)的棉花圖片作為數(shù)據(jù)集,對(duì)其進(jìn)行訓(xùn)練并測(cè)試。【結(jié)果】YOLOX-Cotton模型的識(shí)別模塊能夠識(shí)別不同姿態(tài)和品級(jí)的棉花,且模型精確率、召回率和平均精度均值達(dá)到92.9%、86.8%和92.4%,與原YOLOX模型相比分別提升了5.2、5.5和6.1百分點(diǎn)。該模型的定位模塊能夠準(zhǔn)確獲得棉花的位置,測(cè)量結(jié)果均在田間試驗(yàn)驗(yàn)證結(jié)果的閾值范圍內(nèi),所有樣本的標(biāo)準(zhǔn)偏差均小于0.01?!窘Y(jié)論】YOLOX-Cotton能夠有效解決采棉機(jī)在高質(zhì)量采棉要求下對(duì)棉花的識(shí)別與定位問(wèn)題,將為實(shí)現(xiàn)高質(zhì)量采棉提供了有力的技術(shù)支撐。

      關(guān)鍵詞:棉花;目標(biāo)檢測(cè);三維定位;注意力機(jī)制;損失函數(shù)

      Abstract: [Objective] This paper aims to solve the problem of accurate recognition and localization of cotton with different postures and grades by cotton picker under the requirement of high-quality cotton picking. A cotton detection method YOLOX-Cotton based on the improved YOLOX is proposed. [Methods] YOLOX-Cotton uses YOLOX as the main framework, including a recognition module and a localization module, and incorporates coordinate attention (CA) module and SIoU loss function, and takes various posture and grade cotton pictures as data sets to train and test. [Results] The detection module of YOLOX-Cotton was capable of detecting cotton with different postures and grades, and the model precision, recall and average precision reached 92.9%, 86.8% and 92.4%, which were improved by 5.2, 5.5 and 6.1 percentage points, compared with the original YOLOX, respectively. The localization module of this model was capable of accurately obtaining the location of the cotton, the measurements were kept within the threshold range of the validated results of the field trial, and the standard deviation of all samples was less than 0.01. [Conclusion] The experiment proves that the YOLOX-Cotton can effectively solve the problem of cotton detection and localization by cotton picker under the requirement of high-quality cotton picking, and provides strong technical support for the realization of high-quality cotton picking.

      Keywords: cotton; target detection; three dimensional localization; attention mechanism; loss function

      棉花是我國(guó)重要的經(jīng)濟(jì)作物。隨著我國(guó)勞動(dòng)力資源的日益短缺、植棉成本的上升和國(guó)際棉花貿(mào)易爭(zhēng)端等因素的影響,我國(guó)棉花產(chǎn)業(yè)逐漸呈現(xiàn)縮減態(tài)勢(shì),穩(wěn)定和促進(jìn)棉花產(chǎn)業(yè)的發(fā)展,對(duì)我國(guó)有著重要的社會(huì)意義[1-3]。本文旨在對(duì)不同姿態(tài)和品級(jí)的棉花進(jìn)行識(shí)別與定位,為其應(yīng)用于采棉機(jī)研究提供基礎(chǔ)。

      隨著機(jī)器視覺(jué)在農(nóng)業(yè)領(lǐng)域的廣泛應(yīng)用,越來(lái)越多的國(guó)內(nèi)外研究者將計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)用于棉花生產(chǎn)中[4]。在棉花識(shí)別和檢測(cè)這一領(lǐng)域中,已經(jīng)涌現(xiàn)出許多創(chuàng)新性的研究成果,王勇等[5]通過(guò)分析籽棉與背景的色差建立視覺(jué)模型,實(shí)現(xiàn)了對(duì)棉鈴的識(shí)別,但該研究未考慮3個(gè)顏色分量間的相關(guān)性;王玲[6]提出使用顏色聚類和競(jìng)爭(zhēng)學(xué)習(xí)的方法,將籽棉與復(fù)雜的背景進(jìn)行二分類,但這種分類沒(méi)有考慮多個(gè)棉花互相遮擋問(wèn)題;劉坤等[7]提出利用Hough變換技術(shù)來(lái)識(shí)別棉鈴,根據(jù)棉鈴輪廓的數(shù)學(xué)模型進(jìn)行隨機(jī)Hough變換,解決棉鈴遮擋時(shí)的識(shí)別問(wèn)題,但不能識(shí)別不同姿態(tài)和品級(jí)的棉花;李海濤等[8]利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)構(gòu)建的CNN-CSC模型能夠有效區(qū)分不同花型的棉花,但該模型在提取圖像特征時(shí)易受到背景信息的干擾,這既影響了從圖像中提取的特征質(zhì)量,也降低了整體的檢測(cè)性能[9],且該模型不能識(shí)別不同姿態(tài)的棉花。

      棉花識(shí)別技術(shù)能夠?yàn)椴擅迿C(jī)的高質(zhì)量采棉提供有力支持[10-11],該技術(shù)不僅要能夠準(zhǔn)確識(shí)別棉花,還需要具備檢測(cè)出棉花姿態(tài)和品級(jí)等屬性的能力,采棉機(jī)便能根據(jù)這些屬性進(jìn)而生成最佳的采摘策略,實(shí)現(xiàn)高質(zhì)量的機(jī)械采棉。通過(guò)識(shí)別物體的多種特征,可以豐富對(duì)物體的描述,從而為后續(xù)分析和策略的制定奠定基礎(chǔ)。許楠等[12]使用YOLOv3模型識(shí)別不同品種的棗果,識(shí)別準(zhǔn)確率達(dá)97.04%,可以滿足棗產(chǎn)業(yè)中分選加工和品質(zhì)分級(jí)等環(huán)節(jié)的需求。吳烽云等[13]使用YOLO-Banana模型,同時(shí)識(shí)別香蕉果串、果軸和花蕾這3種不同特征的目標(biāo)來(lái)獲取斷蕾點(diǎn),為斷蕾機(jī)器人的開(kāi)發(fā)提供有力的技術(shù)支撐。王金鵬等[14]基于YOLOv7模型提出1種識(shí)別多姿態(tài)火龍果的檢測(cè)方法,根據(jù)火龍果的三維坐標(biāo)對(duì)不同姿態(tài)的火龍果生成不同的采摘點(diǎn),引導(dǎo)機(jī)械臂精準(zhǔn)采摘。

      目標(biāo)檢測(cè)領(lǐng)域中較為常用的算法有單次多邊框檢測(cè)(single shot multibox detector, SSD)[15-18]、基于區(qū)域的快速卷積神經(jīng)網(wǎng)絡(luò)(fast region-based CNN, Fast R-CNN)[19-21]、YOLO(you only look once)系列[22-25]以及將Transformer技術(shù)應(yīng)用到計(jì)算機(jī)視覺(jué)領(lǐng)域的網(wǎng)絡(luò),如Swin Transformer[26]等。YOLO系列的算法具有模型體積小,運(yùn)行速度快,對(duì)數(shù)據(jù)集要求小等優(yōu)點(diǎn)[27],其中YOLOX算法的代碼結(jié)構(gòu)更加模塊化,易于理解和更改,并且支持邊緣端硬件加速,能夠簡(jiǎn)化后續(xù)研究中的模型部署。因此,本文選擇YOLOX算法作為主框架,在其基礎(chǔ)上擴(kuò)展其他功能。

      為實(shí)現(xiàn)對(duì)不同姿態(tài)和品級(jí)的棉花進(jìn)行精確識(shí)別和定位,本文在上述相關(guān)研究的基礎(chǔ)上,提出了適用于搭載在采棉機(jī)上的YOLOX-Cotton模型,采棉機(jī)可通過(guò)該模型獲得的結(jié)果生成最佳的采摘策略,并設(shè)計(jì)了模型訓(xùn)練試驗(yàn)和實(shí)地測(cè)試試驗(yàn),對(duì)模型生成的識(shí)別數(shù)據(jù)和實(shí)際定位數(shù)據(jù)進(jìn)行精度驗(yàn)證。

      1 材料與方法

      1.1 田間試驗(yàn)地點(diǎn)

      田間試驗(yàn)于2023年8月在上海市崇明島江南三民文化村棉花試驗(yàn)基地開(kāi)展,試驗(yàn)當(dāng)天光線充足。使用Windows 10操作系統(tǒng)的電腦進(jìn)行模型測(cè)試(CPU為AMD R7-5800H,GPU為NVIDIA GTX 3060顯卡,CUDA版本為11.0)。

      1.2 試驗(yàn)材料

      試驗(yàn)材料以棉花田中不同姿態(tài)和不同品級(jí)的棉花為主,分別為正面普通棉花(普通白棉、棉瓣肥大、雜質(zhì)少、成熟度高),正面低品級(jí)棉花(僵瓣棉、污染棉等雜質(zhì)較多、成熟度差的棉花),側(cè)面棉花(棉花朝向側(cè)面)和其他花卉的白色花朵。

      1.3 試驗(yàn)設(shè)計(jì)與數(shù)據(jù)集獲取

      1.3.1 棉花檢測(cè)模型數(shù)據(jù)集獲取。以相機(jī)拍攝的上海市浦東新區(qū)棉場(chǎng)鎮(zhèn)棉田的446張棉花圖片,以及通過(guò)網(wǎng)絡(luò)下載得到的116張棉花圖片組成原始數(shù)據(jù)集。為提高圖片數(shù)量、增強(qiáng)模型的泛化能力,該研究使用對(duì)比度增強(qiáng)、圖像反轉(zhuǎn)縮放和亮度增強(qiáng)對(duì)原始數(shù)據(jù)集進(jìn)行隨機(jī)擴(kuò)充得到1 092張圖片,并在其中加入了100張其他花卉的白色花朵圖片作為干擾項(xiàng),組成包含1 754張圖片的數(shù)據(jù)集(表1)。

      數(shù)據(jù)集中的所有圖片都以jpg格式保存,為減小后續(xù)的計(jì)算負(fù)擔(dān)以及適應(yīng)雙目相機(jī)的分辨率,所有圖片都改為640×640像素。數(shù)據(jù)集在類別上分成正面普通棉花(626張)、正面低品級(jí)棉花(553張)、側(cè)面棉花(475張)以及其他白色花朵(100張)。通過(guò)標(biāo)注軟件Labelimg(https://pypi.org/project/labelImg)對(duì)數(shù)據(jù)集中的所有圖片進(jìn)行手工標(biāo)注,并將標(biāo)注好的圖片按照約9︰1的比例劃分為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集共有1 580張圖片,測(cè)試集共有174張圖片(表2)。

      1.3.2 棉花檢測(cè)模型試驗(yàn)與評(píng)價(jià)指標(biāo)。選用YOLOX-Cotton模型作為試驗(yàn)組,以SSD、Fast R-CNN、YOLOX、YOLOv5和YOLOv8這5個(gè)模型作為對(duì)照組,模型訓(xùn)練使用Pytoch框架,設(shè)置批量大小為8,初始學(xué)習(xí)率為0.001,迭代300輪。圖像的分辨率統(tǒng)一設(shè)置為640×640像素,使用隨機(jī)梯度下降(stochastic gradient descent,SGD)作為優(yōu)化器,在訓(xùn)練過(guò)程中對(duì)每個(gè)批次進(jìn)行前向傳播和后向傳播,計(jì)算損失并更新模型參數(shù)。通過(guò)自助采樣法生成驗(yàn)證集來(lái)評(píng)估模型性能,并根據(jù)評(píng)估結(jié)果對(duì)模型進(jìn)行調(diào)優(yōu)。訓(xùn)練結(jié)束,使用測(cè)試集對(duì)模型進(jìn)行測(cè)試,以精確率(precision, P)、召回率(recall, R)和平均精度均值(mean average precision, mAP)作為主要評(píng)價(jià)指標(biāo)[28]。其中,精確率是指模型識(shí)別出的正樣本中,被正確識(shí)別的正樣本個(gè)數(shù)所占的比例,能夠反映模型在預(yù)測(cè)正類時(shí)的準(zhǔn)確性;召回率是指所有正樣本樣例中被正確識(shí)別的正樣本個(gè)數(shù)所占的比例,能夠反映模型捕捉所有正類樣本的能力;平均精度均值是指每個(gè)類別的平均精度的均值,能夠更全面地反映模型的綜合性能。另外以模型權(quán)重文件大?。╳eight file size)、參數(shù)量(parameter)、浮點(diǎn)運(yùn)算次數(shù)(floating point operation, FLOP)和推理時(shí)間(inference time)作為次要評(píng)價(jià)指標(biāo)。模型的權(quán)重文件大小是指模型在訓(xùn)練過(guò)程中學(xué)習(xí)到的參數(shù)值的規(guī)模,參數(shù)量是指模型中所有可訓(xùn)練參數(shù)的總數(shù),浮點(diǎn)運(yùn)算次數(shù)是指模型在前向傳播過(guò)程中所執(zhí)行的浮點(diǎn)運(yùn)算總數(shù),這3種指標(biāo)能夠從不同角度評(píng)估模型的復(fù)雜度[29]。推理時(shí)間是指模型對(duì)單張圖片進(jìn)行預(yù)測(cè)所需的時(shí)間,能夠反映模型的檢測(cè)效率。本研究旨在驗(yàn)證:改進(jìn)的YOLOX-Cotton模型是否優(yōu)于其他主流的目標(biāo)檢測(cè)方法;引入的CA模塊和SIoU損失函數(shù)能否提升模型的綜合性能,以及在不同背景和遮擋情況下能否精準(zhǔn)識(shí)別不同姿態(tài)和品級(jí)的棉花。此外,YOLOX-Cotton模型在次要評(píng)價(jià)指標(biāo)上的表現(xiàn)不能明顯低于其他模型。

      1.3.3 田間試驗(yàn)設(shè)計(jì)與評(píng)價(jià)指標(biāo)。田間試驗(yàn)使用智能采棉機(jī)的同步帶滑臺(tái)模組搭載MSK雙目相機(jī)(型號(hào)為MSK-SM,500 W像素,速度30幀·s-1)和激光測(cè)距儀,選取不同姿態(tài)和不同品級(jí)的棉花進(jìn)行試驗(yàn)(圖1)。首先,通過(guò)目標(biāo)檢測(cè)模型獲取各棉花與雙目相機(jī)的相對(duì)距離 Z■■(n代表第n朵籽棉,m代表第m輪試驗(yàn)),并計(jì)算多次測(cè)試數(shù)據(jù)的樣本標(biāo)準(zhǔn)偏差(standard deviation, S);然后,在不同棉株上方通過(guò)移動(dòng)支架上的激光測(cè)距儀測(cè)定每個(gè)棉花的最高點(diǎn)和最低點(diǎn)與雙目相機(jī)的距離,形成區(qū)間Dn??紤]到棉花的形狀,尤其是棉花花瓣到花心在深度距離上的變化較大,因此在試驗(yàn)中觀測(cè)Z■■是否在區(qū)間Dn內(nèi),并分析多次測(cè)試數(shù)據(jù)的樣本標(biāo)準(zhǔn)偏差是否控制在0.01以內(nèi)。評(píng)價(jià)和驗(yàn)證本文模型是否可以識(shí)別所有棉花,并獲取準(zhǔn)確的棉花深度信息。

      1.4 研究方法

      1.4.1 技術(shù)路線。在棉株上方使用同步帶滑臺(tái)模組所裝載的MSK雙目相機(jī)獲取棉花圖像數(shù)據(jù),然后將圖像數(shù)據(jù)傳入識(shí)別模塊,從而得到棉花的品級(jí)、姿態(tài)、預(yù)測(cè)框坐標(biāo)數(shù)據(jù)。預(yù)測(cè)框坐標(biāo)數(shù)據(jù)傳入定位模塊,獲得棉花定位點(diǎn)的空間位置。圖2為本研究的技術(shù)路線,包含識(shí)別模塊和定位模塊。

      本文使用YOLOX算法作為主框架,保留其識(shí)別模塊,并加入定位模塊。識(shí)別模塊使用Focus網(wǎng)絡(luò)結(jié)構(gòu)取代普通卷積來(lái)提高計(jì)算速度,并通過(guò)引入注意力機(jī)制和新的損失函數(shù)來(lái)提高模型的性能。改進(jìn)的識(shí)別模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,可分為3個(gè)組成部分:主干網(wǎng)絡(luò)(backbone)、頸部層(neck)和YOLO 檢測(cè)頭(head)。主干網(wǎng)絡(luò)部分采用CSPDarknet作為識(shí)別模塊的主要特征提取網(wǎng)絡(luò),能夠從輸入圖像中提取特征并生成特征層。主干網(wǎng)絡(luò)的輸出結(jié)果傳遞給頸部層,頸部層使用FPN作為識(shí)別模塊的增強(qiáng)特征提取網(wǎng)絡(luò),能夠從主干部分獲取的有效特征層中進(jìn)一步提取邊緣紋理、語(yǔ)義信息等特征。檢測(cè)頭則充當(dāng)識(shí)別模塊的分類器和回歸器,用于判斷特征點(diǎn)與物體之間的對(duì)應(yīng)關(guān)系。

      1.4.2 CA注意力模塊。為使模型能夠在重疊遮擋、背景信息干擾等田間復(fù)雜環(huán)境下進(jìn)行準(zhǔn)確識(shí)別,本研究在YOLOX算法識(shí)別模塊Backbon部分的Dark3模塊、Dark4模塊和Dark5模塊之后加入了注意力機(jī)制(coordinate attention,CA)模塊,這種注意力機(jī)制通過(guò)建立通道之間的關(guān)系,提高了模型對(duì)位置信息的敏感度。相較于其他注意力模塊,CA模塊加入了對(duì)位置信息的處理,加強(qiáng)了待測(cè)目標(biāo)的特征信息并弱化背景信息[30],將模型的關(guān)注點(diǎn)聚焦在圖片中更重要的位置,從而增強(qiáng)模型的特征信息表達(dá)能力,其具體結(jié)構(gòu)如圖4。

      CA模塊使用(H,1)和(1,W)的池化核分別沿著橫向、縱向?qū)λ型ǖ肋M(jìn)行編碼操作得到2個(gè)方向的一維向量,此操作能夠使注意力模塊能夠捕捉1個(gè)空間方向的長(zhǎng)期依賴關(guān)系以及另1個(gè)空間方向的位置信息,更好的獲得全局感受視野,提高網(wǎng)絡(luò)定位目標(biāo)的準(zhǔn)確度。之后通過(guò)拼接操作、卷積操作和非線性激活函數(shù)將這兩個(gè)向量轉(zhuǎn)化為注意力權(quán)值,與特征圖中的特征向量進(jìn)行融合后得到CA模塊的輸出特征圖。

      1.4.3 SIOU損失函數(shù)。為了能夠讓模型的預(yù)測(cè)框更接近于真實(shí)框,更貼近物體的輪廓,本研究采用SIoU[31]作為模型的損失函數(shù),在原模型IoU損失函數(shù)的基礎(chǔ)上,增加了角度損失、距離損失以及形狀損失,并重新定義了懲罰度量(圖5)。

      1.4.4 定位模塊。定位模塊以通過(guò)識(shí)別模塊傳入的棉花檢測(cè)框中心點(diǎn)數(shù)據(jù)作為棉花的定位點(diǎn),如圖6。

      之后使用K近鄰算法[32]將多次定位后得到的多個(gè)棉花預(yù)測(cè)框中心點(diǎn)坐標(biāo)進(jìn)行歸類,使用中值濾波算法[33]得到每個(gè)棉花預(yù)測(cè)框更為穩(wěn)定的中心點(diǎn)坐標(biāo)。

      雙目相機(jī)測(cè)距算法使用灰度處理、直方圖均衡化、圖像畸變消除、立體校正、極線矯正和立體匹配等外部工具對(duì)相機(jī)左右攝像頭獲取的圖像進(jìn)行處理并生成視差圖,之后使用三角形相似原理從視差圖中計(jì)算出深度Z,如圖7:

      根據(jù)公式(1)和(2)計(jì)算定位點(diǎn)到雙目相機(jī)的深度距離Z:

      2 結(jié)果與分析

      2.1 模型訓(xùn)練結(jié)果

      圖8為對(duì)YOLOX與YOLOX-Cotton進(jìn)行訓(xùn)練后的損失函數(shù),可以看出訓(xùn)練經(jīng)過(guò)300步數(shù)后趨于穩(wěn)定,模型收斂,并且與YOLOX相比,YOLOX-Cotton的損失值更低,訓(xùn)練效果得到一定的提升。

      表3為模型消融試驗(yàn)的結(jié)果,共4組試驗(yàn)。試驗(yàn)1為使用YOLOX進(jìn)行測(cè)試;試驗(yàn)2在YOLOX中加入CA模塊,與試驗(yàn)1相比,模型的精確率和平均精度均值提升明顯,而召回率提升較小。試驗(yàn)3在YOLOX中使用SIoU損失函數(shù),與試驗(yàn)1相比,模型精確率和召回率有明顯提升,而平均精度均值提升較小。試驗(yàn)4在YOLOX中同時(shí)添加CA模塊和SIoU模塊,與試驗(yàn)1相比,模型的精確率、召回率、平均精度均值均有明顯提升,分別提高了5.2、5.5、6.1百分點(diǎn)。在這4組試驗(yàn)中,模型在權(quán)重文件大小、參數(shù)量、浮點(diǎn)運(yùn)算次數(shù)和推理時(shí)間上的差異較小。

      由YOLOX-Cotton與SSD、Fast R-CNN、YOLOX、YOLOv8的模型訓(xùn)練結(jié)果(表4)可知,YOLOX-Cotton的精確率、召回率、平均精度均值以及在每個(gè)類別上的平均精度均大于其他模型,其中平均精度均值比SSD、Fast R-CNN、YOLOX、YOLOv8分別高22.4、52.2、6.1、7.0百分點(diǎn)。同時(shí)YOLOX-Cotton模型的權(quán)重遠(yuǎn)低于SSD、Fast R-CNN,與YOLO系列中的其他模型相近。

      為驗(yàn)證YOLOX-Cotton模型的可靠性,該試驗(yàn)利用不同干擾條件的棉花對(duì)模型進(jìn)行測(cè)試。圖9A展示了YOLOX-Cotton在不同的背景干擾下識(shí)別出的正面普通棉花、正面低品級(jí)棉花和側(cè)面棉花;圖9B表明YOLOX-Cotton模型能夠識(shí)別出被小范圍遮擋的棉花,但對(duì)于大范圍遮擋的棉花的識(shí)別能力依然有限,比如該模型沒(méi)有識(shí)別出圖9B的左下角棉花,原因在于該棉花展示出的特征信息較少,YOLOX-Cotton模型對(duì)其生成的預(yù)測(cè)值低于檢測(cè)閾值,故無(wú)法生成預(yù)測(cè)框。

      2.2 田間試驗(yàn)結(jié)果

      圖10為YOLOX-Cotton模型在田間試驗(yàn)中進(jìn)行棉花識(shí)別的結(jié)果,結(jié)果證明該模型能夠在不同背景下準(zhǔn)確識(shí)別出正面普通棉花、正面低品級(jí)棉花和側(cè)面棉花。表5為YOLOX-Cotton模型的棉花深度定位的田間驗(yàn)證結(jié)果,在8輪定位試驗(yàn)中,7朵棉花均能夠被準(zhǔn)確無(wú)誤的定位識(shí)別,每輪測(cè)距的結(jié)果均在設(shè)置的閾值范圍內(nèi),且7朵棉花樣本所測(cè)數(shù)據(jù)的標(biāo)準(zhǔn)偏差均小于0.01 m。

      3" " 討論

      在模型的消融試驗(yàn)中(表3),加入CA模塊的YOLOX模型(試驗(yàn)2)在精確率和平均精度均值上都有明顯提升,但召回率提升有限,說(shuō)明CA模塊有助于模型捕捉目標(biāo)的特征信息,減少誤檢和漏檢的情況,從而提升平均精度均值。由于CA模塊并不直接影響召回率,因此對(duì)這一指標(biāo)的提升有限。在YOLOX中加入SIoU損失函數(shù)(試驗(yàn)3),模型的召回率上有明顯改善,證實(shí)SIoU損失函數(shù)能夠有效促進(jìn)模型精確地捕捉目標(biāo)物體的邊界。而SIoU損失函數(shù)對(duì)模型的平均精度均值提升有限,原因在于提高召回率意味著模型能夠更好地捕捉到真正的正樣本,也容易導(dǎo)致模型將更多無(wú)關(guān)的負(fù)樣本預(yù)測(cè)為正樣本,從而增加誤報(bào)的情況,因此SIoU對(duì)模型的平均精度均值的提升并不明顯。在YOLOX中同時(shí)添加CA模塊和SIoU模塊的模型(試驗(yàn)4)在精確率、召回率和平均精度均值都有明顯提升,證明同時(shí)引入CA模塊和SIoU損失函數(shù)能更好地提高模型的整體性能。與試驗(yàn)1相比,試驗(yàn)2、試驗(yàn)3和試驗(yàn)4的模型在權(quán)重文件大小、參數(shù)量、浮點(diǎn)運(yùn)算次數(shù)和推理時(shí)間的差異較小,均在可接受的范圍內(nèi)。綜合4個(gè)試驗(yàn)的結(jié)果來(lái)看,在YOLOX中引入CA模塊和SIoU損失函數(shù),能夠提升模型的綜合性能。

      從模型的訓(xùn)練結(jié)果中可以看出,YOLOX-Cotton的精確率、召回率和平均精度均值分別為92.9%、86.8%和92.4%,對(duì)4個(gè)棉花類別的識(shí)別平均精度分別為94.6%、91.8%、93.2%和90.2%,均大于其他主流的目標(biāo)檢測(cè)模型,權(quán)重文件大小遠(yuǎn)低于SSD和Fast R-CNN,略高于YOLOx模型。整體來(lái)看,YOLOX-Cotton具備更好的綜合性能。

      在不同棉花類型及遮擋情況的識(shí)別測(cè)試結(jié)果中,YOLOX-Cotton能夠識(shí)別不同姿態(tài)和品級(jí)的棉花,以及被小范圍遮擋的棉花并對(duì)其做出準(zhǔn)確的分類,證明該模型具有較強(qiáng)的識(shí)別能力和抗干擾能力。但YOLOX-Cotton模型無(wú)法識(shí)別出被大范圍遮擋的棉花,原因在于棉花被大范圍遮擋后,模型無(wú)法獲得足夠的特征信息,導(dǎo)致其識(shí)別的精確率下降。相較于傳統(tǒng)圖像處理的棉花識(shí)別模型[4-6],YOLOX-Cotton無(wú)需人為設(shè)計(jì)特征提取器,能在復(fù)雜環(huán)境下對(duì)棉花進(jìn)行識(shí)別。相較于基于深度學(xué)習(xí)的棉花識(shí)別模型[7],YOLOX-Cotton不僅識(shí)別性能更為精準(zhǔn),還能識(shí)別和定位不同姿態(tài)和等級(jí)的棉花,為采棉機(jī)的采摘策略形成提供了更多重要的數(shù)據(jù)支持。

      在深度定位的驗(yàn)證實(shí)驗(yàn)中,YOLOX-Cotton所測(cè)棉花定位點(diǎn)的深度數(shù)據(jù)的數(shù)量與測(cè)試棉花的數(shù)量一致,代表識(shí)別模塊準(zhǔn)確地識(shí)別出了所有棉花。7朵棉花樣本的深度數(shù)據(jù)均在相應(yīng)的深度數(shù)據(jù)區(qū)間內(nèi),代表利用YOLOX-Cotton模型所測(cè)得的棉花定位點(diǎn)落在棉花上,所測(cè)得深度數(shù)據(jù)能夠代表棉花與雙目相機(jī)間的距離。所得樣本標(biāo)準(zhǔn)偏差均低于0.01 m,表明利用YOLOX-Cotton模型測(cè)量得到的數(shù)據(jù)離散程度較小,即每輪檢測(cè)中的定位點(diǎn)變化較小,該模型檢測(cè)棉花位置的能力具有較高的穩(wěn)定性。

      考慮到試驗(yàn)結(jié)果會(huì)受到不同光照條件和背景干擾的影響,因而對(duì)訓(xùn)練所用的數(shù)據(jù)集進(jìn)行增強(qiáng),以提高模型的泛化能力。訓(xùn)練所用數(shù)據(jù)集包含不同地區(qū)的棉花圖片,沒(méi)有包含測(cè)試集和田間試驗(yàn)的棉花圖片,但是YOLOX-Cotton在測(cè)試集和田間試驗(yàn)驗(yàn)證中仍然獲得了準(zhǔn)確的結(jié)果,證明其具有較強(qiáng)的泛化能力。

      4" " 結(jié)論

      為解決高質(zhì)量采棉要求下,采棉機(jī)對(duì)不同姿態(tài)和品級(jí)的棉花的識(shí)別與定位問(wèn)題,本文以YOLOX為主體框架,引入CA模塊和SIoU損失函數(shù)開(kāi)發(fā)出YOLOX-Cotton檢測(cè)方法,包含識(shí)別模塊和定位模塊。YOLOX-Cotton模型能夠識(shí)別不同姿態(tài)和品級(jí)的棉花并對(duì)其進(jìn)行精準(zhǔn)定位,其精確率、召回率和平均精度均值達(dá)到92.9%,86.8%和92.4%,并且有較強(qiáng)的泛化性和魯棒性,能夠豐富采棉機(jī)的采棉策略,為高質(zhì)量采棉提供有力的技術(shù)支持。

      參考文獻(xiàn):

      [1] 陳常兵. 我國(guó)內(nèi)地棉區(qū)棉花生產(chǎn)現(xiàn)狀與發(fā)展對(duì)策[J/OL]. 中國(guó)農(nóng)技推廣, 2022, 38(10): 10-13[2023-10-11]. https://doi.org/10.3969/j.issn.1002-381X.2022.10.003.

      Chen Changbing. Current situation of cotton production and development countermeasures in China's interior cotton region[J/OL]. China Agricultural Extension, 2022, 38(10): 10-13[2023-10-11]. https://doi.org/10.3969/j.issn.1002-381X.2022.10.003.

      [2] 陶云平. 棉花經(jīng)濟(jì)效益的影響因素及競(jìng)爭(zhēng)力提升——評(píng)《我國(guó)棉花國(guó)際競(jìng)爭(zhēng)力研究》[J]. 棉花學(xué)報(bào), 2022, 34(4): 361.

      Tao Yunping. Influencing factors of cotton economic efficiency and competitiveness enhancement-review of research on the International Competitiveness of China's Cotton[J]. Cotton Science, 2022, 34(4): 361.

      [3] 張賀軒, 徐愛(ài)武. 新疆棉花生產(chǎn)地位分析[J/OL]. 中國(guó)棉花加工, 2020(4): 4-7[2022-04-21]. https://doi.org/10.3969/j.issn.1003-0662.2020.04.002.

      Zhang Hexuan, Xu Aiwu. Analysis of cotton production status in Xinjiang[J/OL]. China Cotton Processing, 2020(4): 4-7[2022-04-21]. https://doi.org/10.3969/j.issn.1003-0662.2020.04.002.

      [4] Pabuayon I, Sun Y, Guo W, et al. High-throughput phenotyping in cotton: a review[J/OL]. Journal of Cotton Research, 2019, 2: 18[2023-10-11]. https://doi.org/10.1186/s42397-019-0035-0.

      [5] 王勇, 沈明霞, 姬長(zhǎng)英. 采摘期成熟棉花不同部位顏色識(shí)別分析[J/OL]. 農(nóng)業(yè)工程學(xué)報(bào), 2007(4): 183-185[2023-10-11]. https://doi.org/10.3321/j.issn:1002-6819.2007.04.036.

      Wang Yong, Shen Mingxia, Ji Changying. Color identification of different parts of mature cotton during picking[J/OL]. Journal of Agricultural Engineering, 2007(4): 183-185[2023-10-11]. https://doi.org/10.3321/j.issn:1002-6819.2007.04.036.

      [6] 王玲. 基于圖像特征選擇的田間籽棉成熟度與品級(jí)判別技術(shù)研究[D]. 南京: 南京農(nóng)業(yè)大學(xué), 2009.

      Wang Ling. Research on field seed cotton maturity and grade discrimination technology based on image feature selection[D]. Nanjing: Nanjing Agricultural University, 2009.

      [7] 劉坤, 費(fèi)樹(shù)岷, 汪木蘭, 等. 基于改進(jìn)隨機(jī)Hough變換的棉桃識(shí)別技術(shù)[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2010, 41(8): 160-165[2023-10-11]. https://doi.org/10.3969/j.issn.1000-1298.2010.08.033.

      Liu Kun, Fei Shumin, Wang Mulan, et al. Cotton peach recognition technology based on improved stochastic Hough transform[J/OL]. Journal of Agricultural Machinery, 2010, 41(8): 160-165[2023-10-11]. https://doi.org/10.3969/j.issn.1000-1298.2010.08.033.

      [8] 李海濤, 羅維平. 基于深度學(xué)習(xí)的棉花品種識(shí)別[J/OL]. 武漢紡織大學(xué)學(xué)報(bào), 2022, 35(4): 22-26[2023-10-11]. https://doi.org/10.3969/j.issn.2095-414X.2022.04.006.

      Li Haitao, Luo Weiping. Cotton variety recognition based on deep learning[J/OL]. Journal of Wuhan Textile University, 2022, 35(4): 22-26[2023-10-11]. https://doi.org/10.3969/j.issn.2095-414X.2022.04.006.

      [9] 高廣尚. 深度學(xué)習(xí)推薦模型中的注意力機(jī)制研究綜述[J/OL].計(jì)算機(jī)工程與應(yīng)用, 2022, 58(9): 9-18[2023-10-11]. https://doi.org/10.3778/j.issn.1002-8331.2112-0382.

      Gao Guangshang. A review of research on attention mechanisms in deep learning recommendation models[J/OL]. Computer Engineering and Applications, 2022, 58(9): 9-18[2023-10-11]. https://doi.org/10.3778/j.issn.1002-8331.2112-0382.

      [10] 張豪, 郭輝, 韓長(zhǎng)杰, 等. 圖像處理技術(shù)在采棉機(jī)器人中的應(yīng)用[J]. 農(nóng)業(yè)工程, 2014, 4(5): 35-38[2023-10-11]. https://doi.org/10.3969/j.issn.2095-1795.2014.05.013.

      Zhang Hao, Guo Hui, Han Changjie, et al. Application of image processing technology in cotton picking robot[J/OL]. Agricultural Engineering, 2014, 4(5): 35-38[2023-10-11]. https://doi.org/10.3969/j.issn.2095-1795.2014.05.013.

      [11] 朱莉, 陳茗溪, 徐勝勇, 等. 基于多層約束立體視覺(jué)的采棉機(jī)器人視覺(jué)系統(tǒng)研究[J/OL]. 農(nóng)機(jī)化研究, 2016, 38(7): 229-233[2023-10-11]. https://doi.org/10.3969/j.issn.1003-188X.2016.07.047.

      Zhu Li, Chen Mingxi, Xu Shengyong, et al. Research on vision system of cotton picking robot based on multi-layer constrained stereo vision[J/OL]. Agricultural Mechanization Research, 2016, 38(7): 229-233[2023-10-11].https://doi.org/10.3969/j.issn.1003-188X.2016.07.047.

      [12] 許楠, 苑迎春, 雷浩, 等. 基于多器官特征融合的棗品種識(shí)別方法[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2024, 55(4): 213-220, 240[2024-02-24]. http://kns.cnki.net/kcms/detail/11.1964.s.20240219.1349.004.html.

      Xu Nan, Yuan Yingchun, Lei Hao, et al. Recognition of jujube varieties based on multi-organ feature fusion[J/OL]. Journal of Agricultural Machinery, 2024, 55(4): 213-220, 240[2024-02-24]. http://kns.cnki.net/kcms/detail/11.1964.s.20240219.1349.004.html.

      [13] 吳烽云, 葉雅欣, 陳思宇, 等. 復(fù)雜環(huán)境下香蕉多目標(biāo)特征快速識(shí)別研究[J/OL]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2022, 43(2): 96-104[2022-01-06]. https://doi.org/10.7671/j.issn.1001-411X.202108009.

      Wu Fengyun, Ye Yaxin, Chen Siyu, et al. Research on fast recognition of banana multi-target features by visual robot in complex environment[J/OL]. Journal of South China Agricultural University, 2022, 43(2): 96-104[2022-01-06]. https://doi.org/10.7671/j.issn.1001-411X.202108009.

      [14] 王金鵬, 周佳良, 張躍躍, 等. 基于優(yōu)選YOLOv7模型的采摘機(jī)器人多姿態(tài)火龍果檢測(cè)系統(tǒng)[J/OL]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(8): 276-283[2023-10-11]. https://doi.org/10.11975/j.issn.1002-6819.202208031.

      Wang Jinpeng, Zhou Jialiang, Zhang Yueyue, et al. Multi-attitude dragon fruit detection system for picking robot based on preferred YOLOv7 model[J/OL]. Journal of Agricultural Engineering, 2023, 39(8): 276-283[2023-10-11]. https://doi.org/10.11975/j.issn.1002-6819.202208031.

      [15] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//Computer Vision-ECCV 2016. Lecture notes in computer science. Berlin, Germany: Springer International Publishing, 2016: 21-37.

      [16] Wang X, Hua X, Xiao F, et al. Multi-object detection in traffic scenes based on improved SSD[J/OL]. Electronics, 2018, 7(11): 302[2023-10-11]. https://doi.org/10.3390/electronics7110302.

      [17] Womg A, Shafiee M J, Li F, et al. Tiny SSD: a tiny single-shot detection deep convolutional neural network for real-time embedded object detection[C]//IEEE: 2018 15th conference on computer and robot vision (CRV). New York, USA: IEEE, 2018: 95-101.

      [18] Zhai S, Shang D, Wang S, et al. DF-SSD: an improved SSD object detection algorithm based on DenseNet and feature fusion [J/OL]. IEEE Access, 2020, 8: 24344-24357[2023-10-11]. https://doi.org/10.1109/ACCESS.2020.2971026.

      [19] Girshick R. Fast r-cnn[C]//2015 IEEE international conference on computer vision (ICCV). Conference paper. New York, USA: IEEE, 2015: 1440-1448.

      [20] Li J N, Liang X D, Shen S M, et al. Scale-aware fast R-CNN for pedestrian detection[J/OL]. IEEE Transactions on Multimedia. 2018, 20(4): 985-996[2023-10-11]. https://doi.org/10.1109/TMM.2017.2759508.

      [21] Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J/OL]. Advances in neural information processing systems, 2017, 39(6): 1137-1149[2023-10-11]. https://doi.org/10.1109/TPAMI.2016.2577031.

      [22] Bochkovskiy A, Wang C Y, Liao H. Yolov4: optimal speed and accuracy of object detection[J/OL]. arXiv, 2020[2023-10-11]. https://doi.org/10.48550/arXiv.2004.10934.

      [23] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//IEEE: Proceedings of the IEEE conference on computer vision and pattern recognition. New York, USA: IEEE, 2016: 779-788.

      [24] Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]//IEEE: Proceedings of the IEEE conference on computer vision and pattern recognition. New York, USA: IEEE, 2017: 6517-6525.

      [25] Redmon J, Farhadi A. Yolov3: An incremental improvement[J/OL]. arXiv, 2018[2023-10-11]. https://doi.org/10.48550/arXiv.1804.02767.

      [26] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]//IEEE/CVF: Proceedings of the IEEE/CVF international conference on computer vision (ICCV). New York, USA: IEEE, 2021: 9992-10002.

      [27] Fang W, Wang L, Ren P M. Tinier-YOLO: a real-time object detection method for constrained environments[J/OL]. IEEE Access, 2019, 8: 1935-1944[2023-10-11]. https://doi.org/10.1109/ACCESS.2019.2961959.

      [28] 趙永強(qiáng), 饒?jiān)?董世鵬, 等. 深度學(xué)習(xí)目標(biāo)檢測(cè)方法綜述[J/OL]. 中國(guó)圖象圖形學(xué)報(bào), 2020, 25(4): 629-654. https://doi.org/10.11834/jig.190307.

      Zhao Yongqiang, Rao Yuan, Dong Shipeng, et al. A review of deep learning target detection methods[J/OL]. Jounal of Image and Graphics, 2020, 25(4): 629-654. https://doi.org/10.11834/jig.190-307.

      [29] 邢潔潔, 謝定進(jìn), 楊然兵, 等. 基于YOLOv5s的農(nóng)田垃圾輕量化檢測(cè)方法[J/OL]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(19): 153-161. https://doi.org/10.11975/j.issn.1002-6819.2022.19.017.

      Xing Jiejie, Xie Dingjin, Yang Ranbing, et al. Lightweight detection method for farmland waste based on YOLOv5s[J/OL]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(19): 153-161.https://doi.org/10.11975/j.issn.1002-6819.2022.19.017.

      [30] Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design[C]//IEEE/CVF: Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR). New York, USA: IEEE, 2021: 13708-13717.

      [31] Gevorgyan Z. SIoU loss: more powerful learning for bounding box regression[J/OL]. arXiv, 2022[2023-10-11]. https://doi.org/10.48550/arXiv.2205.12740.

      [32] Guo G, Wang H, Bell D, et al. KNN model-based approach in classification[C/OL]//Meersman R, Tari Z, Schmidt D C. On The Move to Meaningful Internet Systems 2003: CoopIS, DOA, and ODBASE. Berlin: Springer, 2003: 986-996[2023-10-11]. https://doi.org/10.1007/978-3-540-39964-3_62.

      [33] Gupta G. Algorithm for image processing using improved median filter and comparison of mean, median and improved median filter[J/OL]. International Journal of Soft Computing and Engineering, 2011, 1(5): 304-311. https://doi.org/10.1007/b94348.

      (責(zé)任編輯:莊蕾 責(zé)任校對(duì):王國(guó)鑫)

      猜你喜歡
      損失函數(shù)注意力機(jī)制目標(biāo)檢測(cè)
      基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
      考慮應(yīng)急時(shí)間和未滿足需求量的應(yīng)急物資多階段分配模型
      基于深度學(xué)習(xí)的人臉屬性聯(lián)合估計(jì)
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
      軟件工程(2017年11期)2018-01-05 08:06:09
      InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
      基于福利損失函數(shù)的人民幣匯率制度選擇
      基于福利損失函數(shù)的人民幣匯率制度選擇
      視頻中目標(biāo)檢測(cè)算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
      崇信县| 南和县| 高安市| 峨边| 容城县| 江华| 岳池县| 萨嘎县| 长春市| 繁昌县| 名山县| 黑龙江省| 龙游县| 徐闻县| 阳谷县| 台安县| 嵊州市| 合阳县| 吉林市| 宁波市| 安徽省| 苍山县| 霸州市| 商丘市| 密山市| 林西县| 远安县| 揭东县| 壤塘县| 分宜县| 沙田区| 达州市| 古交市| 岳池县| 深州市| 永济市| 松溪县| 通山县| 武平县| 永州市| 北流市|