• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      復(fù)雜環(huán)境下香蕉多目標(biāo)特征快速識別研究

      2022-01-27 11:38:52吳烽云葉雅欣陳思宇艾璞曄鄒湘軍段潔利
      關(guān)鍵詞:花蕾香蕉精度

      吳烽云,葉雅欣,陳思宇,艾璞曄,鄒湘軍,段潔利

      (華南農(nóng)業(yè)大學(xué) 工程學(xué)院,廣東 廣州 510642)

      野外環(huán)境下斷蕾機器人需對多特征多目標(biāo)進行識別,特別是農(nóng)業(yè)機器人在切斷香蕉花蕾和估產(chǎn)時,要同時識別香蕉果串、果軸和花蕾3種不同特征的目標(biāo),其單一目標(biāo)的大小是一種變量,每次檢測的目標(biāo)尺寸和位置都不一樣。另外,目標(biāo)還受到樹葉、遮擋及光照影響,研究復(fù)雜環(huán)境下的視覺檢測方法意義重大。因此,針對香蕉、花蕾及果軸的識別問題,本研究提出多特征目標(biāo)的快速識別方法。

      斷蕾機器人的關(guān)鍵視覺技術(shù)是對目標(biāo)進行自動定位,視覺檢測一直被認(rèn)為是最具挑戰(zhàn)性的問題之一[1-6]。Tang等[7]用多目視覺跟蹤鋼管的動態(tài)變形,探索其破壞機理;Dai等[8]把深度學(xué)習(xí)算法用于交通管理;研究還將視覺技術(shù)應(yīng)用于水果采摘機器人識別[9-13]、估產(chǎn)[14]和病蟲害檢測[15]等。

      在植物目標(biāo)的視覺定位檢測中,常用基于顏色、閾值分割、邊緣檢測等經(jīng)典的圖像處理算法[16]。羅陸鋒等[17]結(jié)合顏色和聚類方法識別葡萄,精確度達87.63%。Ho?evar等[18]基于 HSL(色調(diào)、飽和度、亮度)識別估算蘋果花。然而,顏色與閾值等識別方法受光照變化、枝葉或遮擋等因素影響。與經(jīng)典模型和手工特征提取方法相比,深度卷積神經(jīng)網(wǎng)絡(luò)在識別方面取得了較好的性能[11],在野外環(huán)境中檢測目標(biāo)具有優(yōu)勢。深度學(xué)習(xí)用于香蕉及果軸的多特征圖像檢測,可讓模型自我學(xué)習(xí)目標(biāo)特征,實現(xiàn)自動分類識別。

      深度學(xué)習(xí)算法主要有2種類型的對象檢測器,第1類為兩階段目標(biāo)檢測算法,它將檢測分為2個階段。以香蕉為例,第1階段使含有香蕉的候選區(qū)域 (Region proposal networks,RPN)生成 1 個包含待檢感興趣的候選框,選定后再作后續(xù)處理;第2階段是把所感興趣的香蕉區(qū)域提議發(fā)送到通道中,進行分類和邊界框回歸,用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)完成對候選框中候選香蕉位置與類別的預(yù)測,例如R-CNN、Fast R-CNN、Faster R-CNN 或 Mask R-CNN。CNN 是一種前饋神經(jīng)網(wǎng)絡(luò),其卷積計算具有很深的結(jié)構(gòu),Mask R-CNN增加了圖像分割功能,準(zhǔn)確率較高,但速度較慢[19]。第2類為單階段檢測器,省去了第1階段的RPN,直接用卷積神經(jīng)網(wǎng)絡(luò)模型預(yù)測目標(biāo)邊界,通過獲取輸入圖像將對象檢測視為回歸問題,同時學(xué)習(xí)邊界框坐標(biāo)和類標(biāo)簽概率。與2階段的探測器相比,該算法速度較快,但準(zhǔn)確率稍低。常見的單階段目標(biāo)檢測算法有SSD(Single shot multibox detector)、YOLO(You only look once)及其改進的系列算法 YOLOv2、YOLOv3 等[1,20]。

      對于第1類方法的研究,Alexe等[21]提出了一種線索綜合性的方法來達到更好、更有效的預(yù)測效果。Lin等[22]提出一種具有重疊影響的草莓花識別系統(tǒng),試驗表明 R-CNN、Fast R-CNN、Faster R-CNN的目標(biāo)檢出率分別約為63%、77%和86%。Tian等[23]提出改進Mask-R-CNN的圖像分割算法,用于蘋果花的多特征檢測,準(zhǔn)確率為96%。對于第2類方法的研究,Koirala等[24]用YOLO和R2CNN檢測芒果花穗,認(rèn)為YOLOv3模型用于計數(shù)時較優(yōu),R2CNN模型用于分類時較準(zhǔn)確。陳燕等[25]改進了YOLOv3算法,用于檢測荔枝串,平均檢測精度為94%,結(jié)果可用于采摘機器人的預(yù)定位。

      視覺檢測及深度學(xué)習(xí)算法主要用于香蕉果實(果串)及樹干(假徑)、荔枝果串等單一目標(biāo)檢測[26-28]。但是機器人作業(yè)時需了解香蕉果實、花蕾及果軸情況,為切下花蕾提供定位信息。不同香蕉果樹的香蕉果實、花蕾和果軸大小不等,且部分目標(biāo)被遮擋,增加了檢測復(fù)雜度,多特征目標(biāo)的視覺精確識別方法仍然有待完善。

      多種算法在檢測精度和速度方面各有特點,目標(biāo)圖像分類識別的結(jié)果最終應(yīng)用于視覺機器人作業(yè)控制。因此,研究者需要在目標(biāo)檢測的準(zhǔn)確性和速度之間取得平衡[29]。機器視覺對香蕉多目標(biāo)的快速精確識別成為關(guān)鍵問題。為了能夠?qū)崿F(xiàn)對果軸的精確切割,在圖像采集設(shè)備將待采摘區(qū)域的圖像數(shù)據(jù)輸入視覺識別系統(tǒng)后,視覺識別系統(tǒng)應(yīng)迅速查找畫面中的果實、果軸和花蕾,使回歸框的各邊界準(zhǔn)確地與目標(biāo)邊緣相切,并將回歸框區(qū)域中的畫面提取出來,以便進行進一步形態(tài)學(xué)處理和計算。對此,本文提出一種探索多特征多目標(biāo)檢測方法,優(yōu)選模型參數(shù),融合聚類算法優(yōu)化YOLOv3模型的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù),并建立損失函數(shù)模型,形成YOLO-Banana模型。分別選用Faster R-CNN和YOLO-Banana進行多目標(biāo)分類,對香蕉、花蕾及果軸進行試驗驗證算法的有效性,為復(fù)雜場景多目標(biāo)多特征精確快速識別提供支持。

      1 試驗設(shè)備和數(shù)據(jù)采集

      1.1 試驗設(shè)備

      試驗設(shè)備由硬件設(shè)備與軟件組成。圖像處理使用的計算機主要配置為:i7-7700K 處理器,內(nèi)存為16 G、2 400 MHz;顯卡為 GTX1080Ti、11G。樣本采集時,用普通相機和高像素的手機,圖像分辨率是1 600萬像素。

      1.2 圖像與數(shù)據(jù)采集

      香蕉樹通常只有香蕉果實串、花蕾及連接花蕾與香蕉的花序軸,簡稱果軸,花蕾及果軸朝下。為了提高產(chǎn)量,當(dāng)香蕉果實串生長到一定時期,需要從果軸部位切下花蕾,稱斷蕾。本次采集樣品包括香蕉果實、花蕾和果軸(圖1),以便為機器人斷蕾提供定位信息。

      圖1 順、逆光下的香蕉果實、花蕾和果軸Fig.1 Banana fruit,flower bud and fruit axis target detection under frontlight and backlight

      野外機器人作業(yè)時無法通過增加標(biāo)記或靶標(biāo)等輔助手段來提高精度[3,7],而是采用無標(biāo)記的目標(biāo)定位。為了適應(yīng)實際作業(yè)場景,視覺檢測時不在目標(biāo)上做定位靶標(biāo)。在采樣時,我們的策略是,只要有香蕉和花蕾就采樣,以便機器人學(xué)習(xí)判別香蕉開花,做出決策。

      香蕉多目標(biāo)樣本試驗圖像采集拍攝分2批進行。2020年7月25日,晴天,拍攝地點為廣東省廣州市水果世界嶺南鮮果基地。2020年8月4、5日,晴天轉(zhuǎn)陰天,拍攝地點為廣東江門果園。采集圖像時,包括香蕉果實、果軸、花蕾。圖像采集過程中,將相機與花蕾間的距離保持在600 mm左右,在不同背景和光照條件下共采集1 285幅圖像。通過Labelimg標(biāo)注軟件對圖片數(shù)據(jù)進行批量標(biāo)注,通過編寫腳本按比例自動隨機選取訓(xùn)練樣本集合、驗證樣本集合以及測試樣本集,其中訓(xùn)練集1 029張,占總樣本80%;驗證集64張,占總樣本5%;測試集192張,占總樣本15%。

      2 算法描述

      2.1 圖像的多目標(biāo)分類

      單個采樣點會稍微變動拍攝角度來采集多幅圖像,因此圖片按照默認(rèn)序列進行訓(xùn)練與檢測時可能會出現(xiàn)測試集、驗證集等均為少數(shù)采樣點的若干相似圖像的情況,使得訓(xùn)練、檢測效果與樣本本身有較強的關(guān)聯(lián)性。為了避免這種關(guān)聯(lián)性、減少隨機性,在篩去無效圖像以后,我們將剩余的圖片隨機打亂順序,并按照1個標(biāo)準(zhǔn)格式進行命名。命名完成后,采用Labelimg軟件對圖像中的目標(biāo)進行手工標(biāo)注,并生成1個和圖像同名的標(biāo)簽數(shù)據(jù)文檔。圖像數(shù)據(jù)與標(biāo)簽數(shù)據(jù)將按照VOC2007數(shù)據(jù)集格式進行分組與整理,按照6∶2∶2的比例劃分為訓(xùn)練集、驗證集和測試集。采集樣圖的像素為721×960,在進行圖像處理需要把它縮放至像素為416×416。通過輸入一張任意大小圖片,縮放至像素為416×416,作為網(wǎng)絡(luò)的輸入,即網(wǎng)絡(luò)的輸入是1張像素為416×416、3通道的RGB圖。對于比例不為1∶1的圖片,通過在圖片的上、下或者左、右分別添加2塊區(qū)域,并將補上的區(qū)域以全黑(0,0,0)或全白(255,255,255)像素填充,將其補齊為一張1∶1的3通道圖片,由于補齊的區(qū)域不包含任何與待檢測目標(biāo)相似的內(nèi)容,所以對檢測結(jié)果沒有影響。補齊以后通過升或降采樣的方式將圖片統(tǒng)一為416×416×3的圖片,即可輸入網(wǎng)絡(luò)。

      2.2 多尺度特征融合

      采用多尺度對香蕉多目標(biāo)進行檢測。分辨率對預(yù)測的影響主要取決于分辨率信息,也就是像素的數(shù)量(圖2)。在第2類方法的YOLOv3中,我們采用(類似FPN)上采樣(Upsample)和數(shù)據(jù)融合算法,融合了香蕉圖像中的 3個尺度 (13×13、26×26和52×52),在多尺度融合特征圖上對目標(biāo)進行獨立檢測,以優(yōu)化效果。本文設(shè)計了一種新的分類器,通過設(shè)計多標(biāo)簽分類的Logistic分類器,用多個獨立的Logistic分類器替代傳統(tǒng)的Softmax層解決多標(biāo)簽分類問題,并保持準(zhǔn)確性。傳統(tǒng)Softmax分類器用于處理目標(biāo)互斥的多分類問題,傳統(tǒng)的Logistic分類器用于處理目標(biāo)互斥的二分類問題。在采樣得到的圖片中,果軸、果實和花蕾并不存在明確的分界線,三者在圖像上均有一定的重疊區(qū)域。若采用傳統(tǒng)的Softmax分類器,由于各標(biāo)簽是互斥關(guān)系,所以這種區(qū)域重疊的情況會出現(xiàn)比較明顯的分類錯誤或回歸偏差;若采用傳統(tǒng)的Logistic分類器,則無法處理這種多目標(biāo)的檢測問題。本文采用由多個獨立的Logistic并聯(lián)組成的分類器來解決這個問題,既能實現(xiàn)多目標(biāo)檢測,又能實現(xiàn)非互斥目標(biāo)的準(zhǔn)確分類。

      圖2 基于香蕉多特征目標(biāo)的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 YOLOv3 network structure based on banana multi-feature target

      2.3 基于香蕉多特征目標(biāo)的YOLO v3網(wǎng)絡(luò)結(jié)構(gòu)

      因算法采用多尺度融合特征的圖像對多特征香蕉(含軸和花蕾)多目標(biāo)進行單獨檢測,有效地增強了對大小不同目標(biāo)和被遮擋目標(biāo)的檢測效果,并引入躍層連接強化收斂效果。因香蕉樹生長于野外,已有的YOLOv3結(jié)構(gòu)仍需要改進(圖2)。本文在損失函數(shù)的部分進行改進,采用交叉熵損失函數(shù)代替方差損失函數(shù),二者均為損失函數(shù),損失函數(shù)可以衡量預(yù)測模型與真實模型的偏差,其偏差越小(即損失函數(shù)的值越小),則預(yù)測模型與真實模型越接近。對于單樣本的一次梯度下降過程中,有如下關(guān)系:

      對于均方差損失函數(shù),其損失函數(shù)定義為:

      對于交叉熵損失函數(shù),其損失函數(shù)定義為:

      對于一次梯度下降中權(quán)重(w)和偏置(b)的更新,有

      分別將均方差損失函數(shù)與交叉熵損失函數(shù)對參數(shù)求偏導(dǎo):

      則對于均方差損失函數(shù),有:

      對于交叉熵損失函數(shù),有:

      可見,對于均方差損失函數(shù),其對參數(shù)的偏導(dǎo)中均含有Sigmoid函數(shù)的導(dǎo)數(shù),對于Sigmoid函數(shù),其表達式為:

      可見,當(dāng)輸入值很大或很小時,其導(dǎo)數(shù)趨近于0,這將導(dǎo)致權(quán)重和偏置變化速度急劇下降,即梯度消失。而交叉熵損失函數(shù)的偏導(dǎo)中不含有Sigmoid的導(dǎo)數(shù)項,可以有效避免梯度消失的問題,從而改善網(wǎng)絡(luò)訓(xùn)練速度。

      本文所采用的網(wǎng)絡(luò)結(jié)構(gòu)中該算法使用Darknet53作為骨架網(wǎng)絡(luò)進行特征提取,再對特征圖進行坐標(biāo)回歸和分類,結(jié)構(gòu)中的最小組件由Conv+BN+Leaky_relu激活函數(shù)組成。

      2.4 YOLO-Banana模型與評估

      在網(wǎng)絡(luò)模型參數(shù)設(shè)計與訓(xùn)練中,通常將epoch參數(shù)設(shè)置為100進行迭代,batch_size為16~32,花費時間和內(nèi)存消耗相對增加。

      在建立的YOLOv3網(wǎng)絡(luò)中,優(yōu)化了Iteration、batch_size和epoch這3個參數(shù),使損失函數(shù)Loss曲線趨于穩(wěn)定,再進一步地對YOLOv3模型的目標(biāo)候選框維度進行聚類優(yōu)化,以提高分類識別的精度。盡管YOLOv3自帶默認(rèn)的目標(biāo)候選框數(shù)量、高寬比維度,它具有一定的通用性,但應(yīng)用于野外復(fù)雜背景及變化光照環(huán)境下的香蕉多目標(biāo)還需要優(yōu)化改進。因此,本文融合聚類算法來優(yōu)化YOLOv3模型,優(yōu)化后的模型稱為YOLO-Banana模型,利用k均值聚類算法,基于訓(xùn)練數(shù)據(jù)集,重新獲得適應(yīng)于預(yù)測的目標(biāo)候選框個數(shù)、新的高與寬,并進行聚類分析,優(yōu)化參數(shù)見表1。

      表1 香蕉多目標(biāo)候選框參數(shù)Table 1 Parameters of banana multi target candidate box for banana

      為了評估模型的泛化能力并逐步優(yōu)化模型,評估參數(shù)包括精度(Precision)、召回率(Recall)和二分類模型精確度的指標(biāo)F1。計算公式如下:

      式中,TP表示正類判定為正類;FP表示負類判定為正類,“存?zhèn)巍?;FN表示正類判定為負類,“去真”。

      訓(xùn)練中,batch size設(shè)計為8,即每次Iteration訓(xùn)練8張圖片,故Iteration為128,對每個香蕉目標(biāo)的全數(shù)據(jù)集進行1次運行,每次運行可得到1組Precision和Recall。當(dāng)對模型算法設(shè)定不同的閾值時,會得到多組Precision和Recall,進而畫出1條PR曲線,該曲線的面積為平均精度 (Average precision,AP)。

      3 結(jié)果與分析

      用上文提出的方法,在野外環(huán)境中完成香蕉多目標(biāo)樣本采集和訓(xùn)練模型。通過采樣建立各類圖像數(shù)據(jù)庫,訓(xùn)練模型。

      用視覺平臺在香蕉果園采集香蕉、花蕾和果軸樣本。軟件系統(tǒng)主要以 OpenCV函數(shù)庫與 YOLOv3為基礎(chǔ)編寫而成,硬件設(shè)備為有限通用水果采摘機器人及其視覺平臺[28],為末端執(zhí)行器切斷花蕾提供定位 (圖 3)。

      圖3 視覺機器人平臺Fig.3 Visual robot platform

      將本文數(shù)據(jù)集在YOLO-Banana模型的神經(jīng)網(wǎng)絡(luò)中進行訓(xùn)練和檢測,選擇訓(xùn)練的最優(yōu)模型在驗證集中進行驗證,YOLO-Banana模型網(wǎng)絡(luò)結(jié)構(gòu)中的Neck部分采用的是FPN結(jié)構(gòu),通過多尺度反復(fù)提取主干層和檢測層的特征,以提升網(wǎng)絡(luò)檢測微小目標(biāo)效率。

      用YOLO-Banana模型和Faster R-CNN模型進行比較。分別獲得香蕉花蕾、香蕉果實和香蕉果軸的精度、召回率等評價參數(shù)。效果見圖4、圖5。

      圖4 順光下香蕉測試結(jié)果對比圖Fig.4 Comparison of banana test results under frontlight

      圖5 逆光下香蕉測試結(jié)果對比Fig.5 Comparison of banana test results under backlight

      從圖4、圖5可看出,香蕉和花蕾的檢測精度較高,YOLO-Banana對較長的果軸檢測精度較高,與Faster R-CNN檢測結(jié)果接近;當(dāng)果軸很短為小目標(biāo)時,部分被向上長的花瓣遮擋,背景復(fù)雜且逆光,用YOLO-Banana檢測目標(biāo)的置信度很低,僅為0.35,F(xiàn)aster R-CNN則為0.999(圖5)。在這種極端條件下目標(biāo)的檢出置信度會有所下降,但對回歸位置沒有顯著影響。此外實際應(yīng)用中這種極端條件出現(xiàn)頻率極低,此處僅展示在極端惡劣檢測環(huán)境下的檢出效果。

      YOLO-Banana與Faster R-CNN的香蕉多目標(biāo)特征檢測結(jié)果見表2。表2表明,F(xiàn)aster R-CNN對香蕉果實、花蕾、果軸的多特征目標(biāo)的總平均識別精度為95.16%,平均每張圖像處理的時間為0.434 s。YOLO-Banana對香蕉果實、花蕾、果軸的多特征目標(biāo)的平均識別精度為91.03%,平均每張圖像處理的時間為0.237 s。YOLO-Banana對香蕉多目標(biāo)精度精度比Faster R-CNN對香蕉多目標(biāo)精度要低4.13%,但是其識別速度要比Faster RCNN的快。

      表2 YOLO-Banana與Faster R-CNN的香蕉多目標(biāo)特征檢測結(jié)果的對比Table 2 Comparison of multi-target feature detection results for banana between YOLO-Banana and Faster R-CNN

      為了測試野外光照的影響,選用了144個圖片組,每個圖片組內(nèi)圖片均為對同一個樣本進行采樣,包含香蕉、花蕾、果軸這3個部位的順光與逆光圖片進行識別試驗(圖4和圖5),分別用本文提出的YOLO-Banana模型及Faster R-CNN進行試驗,結(jié)果見表3。表3表明,本文提出的YOLO-Banana模型在順光時的平均識別精度與Faster R-CNN精度相近,誤差僅為0.06%。

      表3 YOLO-Banana與Faster R-CNN的順光逆光下的香蕉多目標(biāo)檢測結(jié)果的對比Table 3 Comparison of multi-target detection results for banana between YOLO-Banana and Faster R-CNN under frontlight and backlight conditions %

      分析原因可知,因特征明顯,且形狀和色彩相似度高,花蕾識別精度最高;香蕉果實特征明顯,但大小形狀有一些差異,有時會被樹葉遮擋,識別精度比花蕾低;果軸因其形狀為近似小圓柱形,常被花瓣部分遮擋,識別率相對較小,特別是在逆光環(huán)境下,精度低。本文采用了多尺度檢測算法,圖像會以不同的分辨率進行檢測識別,對不同大小的目標(biāo)均有較好的檢測效果。

      斷蕾主要考慮的技術(shù)指標(biāo)是識別率,關(guān)鍵在于識別斷蕾切割點所在的果軸,因此研究致力于提升果軸的識別率,比如通過聚類算法對各類別求出大小和比例不一的錨框進行網(wǎng)絡(luò)訓(xùn)練。一般而言,果軸部分在整個生長周期中一直呈綠色,與未成熟的果實和香蕉葉片顏色相近,且四周均被香蕉果實包圍,光照條件較差,邊界紋理不清晰,且有些果軸短小易被遮擋,所以果軸的識別相對較難,效果不能達到果實和花蕾同時識別的要求。回歸框位置的準(zhǔn)確性會影響后續(xù)斷蕾,針對特定目標(biāo)框進行圖像處理,不同類別進行的圖像處理方式不一致(紋理色彩等不一致),如對果軸而言,檢測框越準(zhǔn)確越能更好地進行后續(xù)邊緣分割,從而獲得果軸主方向,便于果軸切割。

      由于深度學(xué)習(xí)無法確定斷蕾位置,作者采用經(jīng)典圖像算法融合幾何計算來確定斷蕾點位置。在對多目標(biāo)進行分類識別后,計算花蕾的邊緣對稱中心及其質(zhì)心,建立花序軸求解方程,獲取花序軸上的切斷點。用邊緣算法求得花蕾和花序軸圖像邊緣,利用花蕾的對稱性求解花蕾質(zhì)心與幾何對稱中心;然后,用幾何方法計算花序軸上的切斷點,該方法先求解檢測到所有直線到質(zhì)心之間的距離,再通過點線距離最小約束選取距離最短的直線作為切斷點所在花序軸的位置,取線段中點坐標(biāo)作為切斷點。

      在斷蕾時,對切斷果軸的軸向尺寸的精度屬于自由精度范圍,考慮到機器人在夾持切割機構(gòu)及控制上具有一定的容錯性,末端執(zhí)行器對香蕉果軸檢測角度具有一定的魯棒性,當(dāng)檢測所得的香蕉果軸空間指向與實際香蕉果軸空間指向在一定錐角內(nèi),末端執(zhí)行器均能自適應(yīng)地修剪,并能獲得較為一致的修剪效果。因此,野外斷蕾機器人作業(yè)時,可以選擇本文提出的YOLO-Banana算法。

      4 結(jié)論

      為了提高野外作業(yè)機器人綜合工作效率,考慮了檢測精度和速度之間的平衡關(guān)系,研究了果園環(huán)境下用YOLOv3對香蕉多目標(biāo)的分類識別方法,提出對香蕉目標(biāo)進行多尺度特征提取及分類模型,對YOLOv3模型的一些參數(shù)進行了修改,并在此基礎(chǔ)上,提出基于k均值聚類算法改進的YOLOBanana模型,闡述了損失函數(shù)的誤差原理,在置信度和分類誤差模型中采用交叉熵的損失函數(shù)。研究了光照對香蕉果實、花蕾及果軸識別精度的影響。試驗結(jié)果表明,用YOLO-Banana模型對香蕉果實、花蕾、果軸的檢測精度分別為97%、95%和81%,多特征的目標(biāo)總平均精度為91.03%,平均每張所需時間為 0.237 s。Faster R-CNN 對香蕉果實、花蕾、果軸的檢測精度分別為99%、98%和89%,多特征的目標(biāo)總平均精度為95.16%,平均每張所需時間為0.434 s。對比表明,前者速度快1.83倍,后者精度高。用YOLO-Banana模型與Faster R-CNN在順光和逆光環(huán)境下進行了對比,兩者順光識別精度的誤差很小,僅為0.06%,YOLO-Banana的順光識別精度高于逆光識別精度,誤差為8.26%。研究數(shù)據(jù)為機器人視覺識別與定位提供了參考。

      猜你喜歡
      花蕾香蕉精度
      香蕉是果實,為什么沒有籽
      我來了
      快手香蕉餅
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      瓶里有香蕉
      香蕉
      我來了
      GPS/GLONASS/BDS組合PPP精度分析
      Paper blossoms
      改進的Goldschmidt雙精度浮點除法器
      青神县| 霍州市| 丹凤县| 理塘县| 涡阳县| 吉首市| 萝北县| 阆中市| 辽阳市| 于都县| 阿克陶县| 巴楚县| 巨野县| 汤阴县| 沂源县| 眉山市| 湟中县| 新巴尔虎左旗| 扬中市| 鄄城县| 岫岩| 河北省| 扶余县| 临安市| 淮滨县| 临沭县| 新巴尔虎左旗| 新津县| 加查县| 日喀则市| 清水县| 革吉县| 额尔古纳市| 新昌县| 开原市| 红河县| 古丈县| 蓬安县| 汶川县| 安仁县| 社会|