史方青,王虎林,黃華
(蘭州理工大學(xué)機(jī)電工程學(xué)院,蘭州市,730000)
馬鈴薯具有極高的營(yíng)養(yǎng)與藥用價(jià)值,其加工產(chǎn)品被廣泛應(yīng)用于我國(guó)醫(yī)藥、農(nóng)業(yè)、食品等行業(yè)。2019年農(nóng)業(yè)農(nóng)村部指出要大力推進(jìn)馬鈴薯主食開發(fā),明確了馬鈴薯產(chǎn)業(yè)的國(guó)家糧食安全策略、農(nóng)業(yè)供給側(cè)結(jié)構(gòu)性改革中的作用及目標(biāo)[1]。馬鈴薯產(chǎn)業(yè)的機(jī)械化水平逐年提高,如馬鈴薯播種機(jī)械化[2]及馬鈴薯分級(jí)機(jī)械化[3]等。然而有關(guān)馬鈴薯切種機(jī)械化的研究較少,且主要依賴于人工,存在勞動(dòng)力短缺、效率低、費(fèi)用較高等問題,故實(shí)現(xiàn)馬鈴薯切種機(jī)自動(dòng)切種是必然需求,芽眼的準(zhǔn)確識(shí)別是該功能實(shí)現(xiàn)的前提。
芽眼識(shí)別是馬鈴薯切種機(jī)實(shí)現(xiàn)自動(dòng)切種的先決條件,但目前國(guó)內(nèi)外針對(duì)芽眼識(shí)別的研究卻相對(duì)較少。李玉華等[4]在三維幾何空間內(nèi)通過對(duì)S分量的分析,利用四特征綜合判定準(zhǔn)則對(duì)芽眼縱向識(shí)別,并根據(jù)芽眼的橫向特點(diǎn)進(jìn)行篩選,結(jié)果表明該方法的識(shí)別準(zhǔn)確率可達(dá)91.48%;呂釗欽等提出一種基于Gabor特征的馬鈴薯芽眼識(shí)別方法,結(jié)果表明該方法的識(shí)別準(zhǔn)確率為93.4%;Xi等[5]通過將混沌變量映射到K均值算法的變量中,用混沌變量代替其尋找全局最優(yōu)值,結(jié)果表明芽眼總的分割精度為98.87%。上述方法均為淺層特征提取,無法適應(yīng)隨機(jī)條件下的馬鈴薯芽眼識(shí)別,判別能力相對(duì)較弱,均無法同時(shí)保證檢測(cè)性能及識(shí)別速度。
卷積神經(jīng)網(wǎng)絡(luò)以其高性能特征提取、覆蓋范圍廣、適應(yīng)能力強(qiáng)等優(yōu)點(diǎn),被廣泛應(yīng)用于農(nóng)業(yè)中[6-8]。目前深度卷積神經(jīng)網(wǎng)絡(luò)已發(fā)展為兩大類,其一為兩階段處理模型,如Faster R-CNN[9]、Mask R-CNN[10]等,其二為端到端的一階段處理模型,如SSD[11]、YOLO[12-14]系列等。席芮等[15]通過對(duì)Faster R-CNN網(wǎng)絡(luò)的改進(jìn)實(shí)現(xiàn)了馬鈴薯芽眼的識(shí)別,結(jié)果表明該模型識(shí)別精度為96.32%,召回率為90.85%;劉小剛等[8]在復(fù)雜環(huán)境中通過改進(jìn)的YOLOv3網(wǎng)絡(luò)連續(xù)識(shí)別草莓,結(jié)果表明該模型針對(duì)測(cè)試集的mAP值可達(dá)87.51%;趙德安等[16]通過YOLOv3網(wǎng)絡(luò)對(duì)不同光線環(huán)境中存在遮擋、粘連及套袋等多種情況的果實(shí)進(jìn)行了識(shí)別定位,結(jié)果表明該模型識(shí)別準(zhǔn)確率為97%,召回率為90%。
基于上述分析,本文提出基于卷積神經(jīng)網(wǎng)絡(luò)的馬鈴薯芽眼識(shí)別方法。通過自然光條件下拍攝的圖像建立數(shù)據(jù)庫,經(jīng)過圖像預(yù)處理及數(shù)據(jù)增廣擴(kuò)充數(shù)據(jù)集以增加網(wǎng)絡(luò)的魯棒性。在YOLOv3網(wǎng)絡(luò)的高性能特征提取下,經(jīng)過卷積、上采樣等操作實(shí)現(xiàn)馬鈴薯芽眼的快速、準(zhǔn)確識(shí)別,為馬鈴薯切種機(jī)自動(dòng)切種奠定了基礎(chǔ)。
為了識(shí)別馬鈴薯芽眼,需采集相關(guān)圖像建立數(shù)據(jù)庫,包括訓(xùn)練集、驗(yàn)證集及測(cè)試集。本文測(cè)試用馬鈴薯出自甘肅省永昌縣,品種為大西洋。為了使馬鈴薯芽眼識(shí)別環(huán)境貼近現(xiàn)實(shí),選擇于自然光良好的環(huán)境中對(duì)含有芽眼的馬鈴薯進(jìn)行多方位拍攝,以貼合后期馬鈴薯切種機(jī)芽眼識(shí)別時(shí)的環(huán)境。圖像采集設(shè)備為數(shù)碼單反相機(jī),型號(hào)為NikonD3400。初始采集圖像并篩選得到圖像630張,均為jpg格式。為了提高處理效率并減少數(shù)據(jù)運(yùn)算量,將圖像大小壓縮為600像素×800像素。為了擴(kuò)充數(shù)據(jù)集,通過對(duì)原始圖像進(jìn)行裁剪、旋轉(zhuǎn)、縮放、色度增強(qiáng)等數(shù)據(jù)增廣操作,單種處理或者多種組合處理以得到馬鈴薯芽眼數(shù)據(jù)集,數(shù)據(jù)增廣結(jié)果如圖1所示。
圖1 數(shù)據(jù)增廣結(jié)果
對(duì)每一張馬鈴薯芽眼圖像使用LabelImg工具進(jìn)行手動(dòng)標(biāo)注,如圖2所示。其中矩形框用于馬鈴薯芽眼的識(shí)別,統(tǒng)一保存為PASCAL VOC格式,使用的注釋為PASCAL VOC中xml文件,最終獲得6 072張圖像。其中測(cè)試集608張,訓(xùn)練集5 464張,驗(yàn)證集于訓(xùn)練集中隨機(jī)選取,最終驗(yàn)證集與訓(xùn)練集比例呈1∶9。
圖2 數(shù)據(jù)標(biāo)注
1.2.1 YOLO系列模型
YOLO系列模型是目前比較流行的算法之一,它不同于兩階段處理模型,該系列模型均為端到端的一階段處理模型。YOLOv1[12]網(wǎng)絡(luò)結(jié)構(gòu)較為輕量,但存在識(shí)別物體精準(zhǔn)性較差、召回率不高、較小目標(biāo)和鄰近目標(biāo)識(shí)別效果不佳等問題;YOLOv2[13]網(wǎng)絡(luò)使用了Darknet-19網(wǎng)絡(luò),并引入BN層加速模型收斂,模型中均采用卷積層與先驗(yàn)框,去掉了以往含有的全連接層。同時(shí)采用了k-means聚類直接預(yù)測(cè)網(wǎng)格單元的相對(duì)位置,一定程度上提高了模型的識(shí)別準(zhǔn)確度;YOLOv3[14]網(wǎng)絡(luò)在YOLOv2的基礎(chǔ)上做了進(jìn)一步的提升,使用了分類器Darknet-53以及多尺度預(yù)測(cè),在類別預(yù)測(cè)方面將原來的單標(biāo)簽分類改為了多標(biāo)簽分類。上述變化不但增強(qiáng)了網(wǎng)絡(luò)的提取能力,而且在進(jìn)一步提高小目標(biāo)檢測(cè)精度的基礎(chǔ)上加快了網(wǎng)絡(luò)的運(yùn)算速度。YOLOv3網(wǎng)絡(luò)的訓(xùn)練測(cè)試流程如圖3所示。
圖3 訓(xùn)練測(cè)試流程
1.2.2 YOLOv3模型結(jié)構(gòu)
YOLOv3網(wǎng)絡(luò)通過回歸方法提取目標(biāo)特征,直接使用單個(gè)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)輸入圖像的目標(biāo)檢測(cè)識(shí)別與分類。其為深度卷積神經(jīng)網(wǎng)絡(luò)YOLO的改進(jìn),具有實(shí)時(shí)性、泛化能力強(qiáng)以及準(zhǔn)確度高等優(yōu)點(diǎn),是目前主流的檢測(cè)算法之一。
表1為YOLOv3模型與其他模型均在COCO數(shù)據(jù)集上測(cè)試的速度與精度對(duì)比[15]。
表1 YOLOv3模型與其他模型對(duì)比Tab. 1 Comparison of YOLOv3 model with other models
由表1可以看出,YOLOv3模型檢測(cè)速度相較于其他模型快,本文綜合比較模型的輸入尺寸后,可知YOLOv3-320模型輸入尺寸小、用時(shí)少,但精度欠佳;YOLOv3-608模型檢測(cè)精度高,但輸入圖像尺寸大,處理用時(shí)長(zhǎng);YOLOv3-416模型檢測(cè)精度較高,檢測(cè)精度及測(cè)試時(shí)長(zhǎng)較為合適,在保持檢測(cè)精度的基礎(chǔ)上也確保了較少的處理時(shí)長(zhǎng)。因此,結(jié)合本文測(cè)試平臺(tái)的顯卡及內(nèi)存要求,選擇用YOLOv3-416模型進(jìn)行芽眼的準(zhǔn)確識(shí)別。
YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,DBL層(Darknetconv2d-BN-Leaky)為YOLOv3網(wǎng)絡(luò)的基本組件,由卷積(CONV)、批量歸一化(Batch normalization)、Leaky ReLU操作組成。普通的ReLU函數(shù)是將所有負(fù)值均設(shè)為零,而Leaky ReLU函數(shù)則是給所有負(fù)值賦予一個(gè)非零斜率,數(shù)學(xué)表達(dá)式為
(1)
式中:ai——(1,+∞)區(qū)間內(nèi)的固定參數(shù)。
本文中YOLOv3網(wǎng)絡(luò)的初始輸入大小為416×416的圖像,通過多層深度卷積降維,最終降維為3個(gè)維度,即有3個(gè)分支,由多尺度檢測(cè)y1、y2、y3組成,如圖4所示。其中,多尺度檢測(cè)y1適用于大目標(biāo)檢測(cè),輸出維度為13×13×18;多尺度檢測(cè)y2適用于中目標(biāo)的檢測(cè),輸出維度為26×26×18;多尺度檢測(cè)y3適用于小目標(biāo)的檢測(cè),輸出維度為52×52×18。Resn表示Res_block含有多少個(gè)Res_unit,n代表數(shù)字,如res1,res2等。YOLOv3借鑒了ResNet的殘差結(jié)構(gòu),其中殘差卷積就是進(jìn)行一次3×3、步長(zhǎng)為2的卷積。保存卷積層后再進(jìn)行一次1×1的卷積和3×3的卷積,將該結(jié)果與最后的卷積層一同作為最后的輸出。同時(shí)由于ResNet擁有較深的網(wǎng)絡(luò)結(jié)構(gòu),為提高準(zhǔn)確度使用了殘差單元以獲得高維特征。Res_unit×n表示含有n個(gè)殘差單元;concat表示張量拼接,即將Darknet的中間層與后面某一層的上采樣拼接,以擴(kuò)充張量的維度;Add表示張量相加,不擴(kuò)充維度。
圖4 YOLOv3結(jié)構(gòu)圖
YOLOv3網(wǎng)絡(luò)預(yù)測(cè)圖片方式采用端對(duì)端的檢測(cè),其將整張圖片分為S×S個(gè)區(qū)域,當(dāng)被識(shí)別對(duì)象的中心落在上述任意區(qū)域時(shí),對(duì)應(yīng)的網(wǎng)絡(luò)會(huì)進(jìn)行預(yù)測(cè),目標(biāo)邊界框原理圖如圖5所示。其中,虛線矩形框表示預(yù)設(shè)邊界框,實(shí)線矩形框表示以YOLOv3網(wǎng)絡(luò)預(yù)測(cè)的偏移量計(jì)算的預(yù)測(cè)邊界框,由預(yù)設(shè)邊界框到最終預(yù)測(cè)邊界框的轉(zhuǎn)換如式(2)~式(5)所示。
bx=σ(tx)+cx
(2)
by=σ(ty)+cy
(3)
bw=pwetw
(4)
bh=pheth
(5)
其中,(cx,cy)表示預(yù)設(shè)邊界框在特征圖上的中心坐標(biāo),(pw,ph)表示預(yù)設(shè)邊界框在特征圖上的寬與高,(tx,ty)表示YOLOv3網(wǎng)絡(luò)預(yù)測(cè)邊界框的中心偏移量,(tw,th)表示網(wǎng)絡(luò)預(yù)測(cè)邊界框的寬高縮放比,(bx,by,bw,bh)為最終預(yù)測(cè)的目標(biāo)邊界框。且σ(x)函數(shù)可以將預(yù)測(cè)偏移量縮放在0~1之間,從而加速收斂。
圖5 YOLOv3邊界框原理圖
本文為了更好地評(píng)估訓(xùn)練模型的魯棒性及準(zhǔn)確性,測(cè)試選擇精度(Precision)和召回率(Recall)作為評(píng)價(jià)指標(biāo)。相應(yīng)的計(jì)算公式如式(6)~式(8)所示。
(6)
(7)
(8)
式中:Tp——真正樣本數(shù);
Fp——假正樣本數(shù);
FN——假負(fù)樣本數(shù);
R——召回率;
P——精確度;
F1——精確度P和召回率R的調(diào)和平均值。
為了更詳細(xì)評(píng)價(jià)識(shí)別馬鈴薯芽眼的訓(xùn)練模型,測(cè)試同時(shí)選擇識(shí)別平均精度mAP值進(jìn)行評(píng)價(jià)。mAP值即每個(gè)類別AP的平均值,AP為P-R曲線下方整體的面積,具體計(jì)算如式(9)所示。
(9)
式中:k——閾值;
N——引用閾值的數(shù)量。
金元時(shí)期的詞學(xué)是對(duì)南北宋詞學(xué)理論的發(fā)展。王若虛認(rèn)為詞本色如詩,其《滹南詩話》卷中:“蓋詩詞只是一理,不容異觀?!保?]669元好問推崇詩詞同質(zhì),其《新軒樂府引》稱贊蘇軾以詩化詞的“一洗萬古凡馬空”的氣象。
本文馬鈴薯芽眼識(shí)別測(cè)試平臺(tái)使用windows10(64位)專業(yè)版,NVIDIA GeForce RTX 2080 GPU顯卡加速測(cè)試進(jìn)程,32 GB內(nèi)存,10核20線程計(jì)算機(jī)處理器,2.4 GHz,使用python3.6.2版本,以pytorch1.2版本為處理框架,以cuda10.0版本的計(jì)算框架及cuDNN7.6.3版本的配置加速庫,在VScode調(diào)試平臺(tái)上進(jìn)行。
本文采用YOLOv3網(wǎng)絡(luò)實(shí)現(xiàn)馬鈴薯芽眼的識(shí)別檢測(cè),需訓(xùn)練得到最優(yōu)模型權(quán)重,故訓(xùn)練前期需設(shè)置相關(guān)參數(shù)并進(jìn)行調(diào)整,網(wǎng)絡(luò)參數(shù)選擇及訓(xùn)練策略具體如下。
1) 參數(shù)設(shè)置:選擇基于模型參數(shù)的遷移學(xué)習(xí)實(shí)現(xiàn)網(wǎng)絡(luò)的訓(xùn)練,預(yù)訓(xùn)練模型使用PASCAL VOC數(shù)據(jù)集的通用模型,設(shè)置訓(xùn)練epoch為100次,動(dòng)量因子設(shè)置為0.92,衰減系數(shù)設(shè)置為5×10-4。學(xué)習(xí)率調(diào)整策略采用steps,前50個(gè)epoch訓(xùn)練凍結(jié)一部分網(wǎng)絡(luò)進(jìn)行,初始學(xué)習(xí)率設(shè)置為1×10-3,批處理尺寸設(shè)置為8;后50個(gè)epoch訓(xùn)練將前期凍結(jié)的網(wǎng)絡(luò)部分解凍,全部進(jìn)行訓(xùn)練,初始學(xué)習(xí)率設(shè)置為1×10-4,批處理尺寸設(shè)置為4。
2) 訓(xùn)練策略:網(wǎng)絡(luò)訓(xùn)練過程采用多尺度訓(xùn)練策略,初始統(tǒng)一裁剪圖片大小為416像素×416像素,均使用padding填充,使圖像不失真。同時(shí)通過調(diào)整色度、色調(diào)、增加透視變幻等方式再次生成更多樣本,增加網(wǎng)絡(luò)模型識(shí)別檢測(cè)的準(zhǔn)確度及魯棒性。
本研究以相同的數(shù)據(jù)集于同一試驗(yàn)平臺(tái)上試驗(yàn),對(duì)YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD模型進(jìn)行訓(xùn)練,同時(shí)以相同的測(cè)試集進(jìn)行識(shí)別對(duì)比分析,具體定量識(shí)別結(jié)果如表2及表3所示。
由表2可知,YOLOv3模型識(shí)別馬鈴薯芽眼最終精確度P為97.97%,召回率R為96.61%,調(diào)和平均值F1為97%。相較于YOLOv4-tiny、Faster R-CNN及SSD這三種模型,馬鈴薯芽眼的識(shí)別精確度P較前兩種分別提升了4.64個(gè)百分點(diǎn)和27.59個(gè)百分點(diǎn)。召回率R較這三種模型則分別提高了8.79個(gè)百分點(diǎn),3.43個(gè)百分點(diǎn)以及31.8個(gè)百分點(diǎn),尤其較SSD模型提升優(yōu)化較高。最終縱觀調(diào)和平均值F1,YOLOv3模型達(dá)到97%,分別高于其他三種模型7個(gè)百分點(diǎn),17個(gè)百分點(diǎn)及19個(gè)百分點(diǎn),相比較而言均有較大的性能提升。
由表3可知,YOLOv3模型識(shí)別平均精度mAP值高達(dá)98.44%,平均每幅圖像的識(shí)別時(shí)間為0.018 s。相比較于YOLOv4-tiny、Faster R-CNN及SSD這三種模型,平均檢測(cè)精度分別提升了5.81個(gè)百分點(diǎn),7.71個(gè)百分點(diǎn)以及6.68個(gè)百分點(diǎn),平均每幅圖像的識(shí)別時(shí)間差距不大。由此可以看出,使用YOLOv3模型識(shí)別馬鈴薯芽眼的綜合性能均比較優(yōu)良,具有更高的魯棒性和精確性。
表2 馬鈴薯芽眼識(shí)別結(jié)果比較Tab. 2 Comparison of potato buds recognition results
表3 同一測(cè)試集下不同識(shí)別模型的mAP值Tab. 3 mAP values of different recognition modelsunder the same test set
使用YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD模型對(duì)馬鈴薯芽眼識(shí)別結(jié)果的P-R曲線如圖5所示。由表3可知,YOLOv3模型的識(shí)別平均精度mAP值高達(dá)98.44%,其余三種模型的識(shí)別平均精度mAP值均在90%左右,P-R曲線已經(jīng)基本遍布整個(gè)坐標(biāo)系。相較于其他三種模型,YOLOv3模型的P-R曲線相對(duì)平滑且穩(wěn)定,從圖5可以看出YOLOv3基本處于曲線最上方。綜上所述,YOLOv3模型整體綜合性能指標(biāo)要優(yōu)于其他三種模型。
為了更清晰地顯示YOLOv3網(wǎng)絡(luò)優(yōu)良的識(shí)別結(jié)果,將識(shí)別結(jié)果可視化如圖6、圖7所示。圖6(a)為只含有單個(gè)無遮擋芽眼的樣本識(shí)別結(jié)果,圖6(b)為含有多個(gè)遮擋芽眼的樣本識(shí)別結(jié)果,圖6(c)為含有機(jī)械損傷、蟲眼及雜質(zhì)的樣本識(shí)別結(jié)果。圖7為YOLOv3網(wǎng)絡(luò)對(duì)馬鈴薯芽眼在不同處理?xiàng)l件下的識(shí)別結(jié)果。
圖6 部分樣本測(cè)試識(shí)別結(jié)果
原圖 亮度減弱 色度增強(qiáng)
隨機(jī)旋轉(zhuǎn)+鏡像+色度增加+高斯噪聲 高斯噪聲+隨機(jī)旋轉(zhuǎn)+亮度增強(qiáng)
圖6(a)中YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)中芽眼的識(shí)別置信度分別為1.00、1.00、1.00、0.98;圖6(b)中YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)中芽眼的識(shí)別置信度分別在0.99~1.00、0.80~1.00、0.91~1.00、0.79~0.99之間,且YOLOv3中置信度為1.00的芽眼約占92%,而其他三種網(wǎng)絡(luò)中置信度為1.00的芽眼均在92%以下;圖6(c)中YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)中芽眼的識(shí)別置信度分別在0.91~1.00、0.79~1.00、0.58~0.99、0.85~0.86之間,且YOLOv3中置信度為1.00的芽眼占60%,其他三種網(wǎng)絡(luò)中置信度為1.00的芽眼均在60%以下。綜上所述,YOLOv3網(wǎng)絡(luò)不論對(duì)單個(gè)無遮擋芽眼的樣本,多個(gè)有遮擋芽眼的樣本,還是含有機(jī)械損傷、蟲眼、雜質(zhì)等的樣本,識(shí)別率均較高,且置信度相對(duì)來說處于一個(gè)平穩(wěn)且較高的狀態(tài)。而YOLOv4-tiny、Faster R-CNN及SSD模型在識(shí)別含有多個(gè)有遮擋芽眼的樣本時(shí),雖然基本識(shí)別出圖片中芽眼,但識(shí)別的置信度相較于YOLOv3網(wǎng)絡(luò)低。當(dāng)檢測(cè)識(shí)別含有機(jī)械損傷、蟲眼、雜質(zhì)等的樣本時(shí),四種網(wǎng)絡(luò)均能在較大程度上識(shí)別出芽眼,但YOLOv3網(wǎng)絡(luò)明顯識(shí)別檢測(cè)效果更優(yōu),置信度較高。而YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)未能在干擾因素較大的情況下識(shí)別出所有的馬鈴薯芽眼,識(shí)別精度較YOLOv3低。同樣的,由圖7可得,無論圖片進(jìn)行調(diào)整亮度、色度,還是增加高斯噪聲、隨機(jī)旋轉(zhuǎn)等操作,YOLOv3網(wǎng)絡(luò)均能較好識(shí)別出馬鈴薯芽眼,表明該網(wǎng)絡(luò)具有良好的環(huán)境適應(yīng)性。
綜上所述,使用YOLOv3網(wǎng)絡(luò)對(duì)馬鈴薯芽眼識(shí)別的效果較好,且識(shí)別時(shí)間也較快,滿足處理過程中對(duì)機(jī)械設(shè)備的要求,為馬鈴薯智能切種機(jī)的實(shí)現(xiàn)奠定了基礎(chǔ)。
為了實(shí)現(xiàn)馬鈴薯種薯智能切塊,需要實(shí)現(xiàn)馬鈴薯芽眼的準(zhǔn)確、快速識(shí)別,實(shí)際工作中包含進(jìn)料給料操作、芽眼識(shí)別與標(biāo)記操作、馬鈴薯種薯三維重建操作、切刀路徑規(guī)劃操作及切種實(shí)現(xiàn)等步驟,通過控制系統(tǒng)實(shí)現(xiàn)調(diào)配。首先在投入馬鈴薯種薯后,需實(shí)現(xiàn)實(shí)時(shí)采集圖像,以保證及時(shí)完成馬鈴薯芽眼的識(shí)別;接著需進(jìn)行三維重建以實(shí)現(xiàn)切種規(guī)劃,即將馬鈴薯芽眼識(shí)別圖像的位置特征映射于三維重建中,實(shí)現(xiàn)芽眼的三維定位;最后,刀具通過由馬鈴薯芽眼位置而確定的切種路徑進(jìn)行切種。
本文對(duì)馬鈴薯芽眼的準(zhǔn)確、快速識(shí)別做了一定的研究,彌補(bǔ)了目前市面上存在馬鈴薯切種機(jī)無芽眼識(shí)別功能,最大程度上降低了種薯的浪費(fèi)率,提高了馬鈴薯種薯的出芽率,為后續(xù)自動(dòng)化切種奠定了基礎(chǔ)。
1) 本文針對(duì)目前馬鈴薯切種機(jī)均無芽眼識(shí)別功能的問題,以馬鈴薯切種機(jī)于自然光環(huán)境下工作為研究背景,利用在實(shí)際環(huán)境中拍攝到的圖片建立馬鈴薯芽眼數(shù)據(jù)庫,并搭建了YOLOv3網(wǎng)絡(luò)實(shí)現(xiàn)馬鈴薯芽眼的快速、準(zhǔn)確識(shí)別。
2) 在自然光下拍攝RGB圖像,對(duì)拍攝到的圖像進(jìn)行預(yù)處理,通過裁剪、旋轉(zhuǎn)、縮放、色度增強(qiáng)等操作,單一或者多個(gè)組合實(shí)現(xiàn)了數(shù)據(jù)增廣,以此建立了馬鈴薯芽眼數(shù)據(jù)庫,包括含有單個(gè)無遮擋芽眼的樣本、含有多個(gè)遮擋芽眼的樣本以及含有機(jī)械損傷、蟲眼及雜質(zhì)的樣本這三類。
3) YOLOv3網(wǎng)絡(luò)在面向含有單個(gè)無遮擋芽眼的樣本,含有多個(gè)遮擋芽眼的樣本以及含有機(jī)械損傷、蟲眼及雜質(zhì)的樣本這三類不同樣本時(shí),均能夠快速準(zhǔn)確地檢測(cè)識(shí)別出馬鈴薯芽眼,效果優(yōu)于YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)。
4) YOLOv3網(wǎng)絡(luò)使用測(cè)試集測(cè)試時(shí),精確度P為97.97%,召回率R為96.61%,調(diào)和平均值F1為97%。相較于YOLOv4-tiny、Faster R-CNN及SSD這三種網(wǎng)絡(luò),馬鈴薯芽眼的識(shí)別精確度較前兩種分別提升了4.64個(gè)百分點(diǎn)和4.05個(gè)百分點(diǎn)。且召回率分別提高了8.79個(gè)百分點(diǎn),10.42個(gè)百分點(diǎn)以及31.8個(gè)百分點(diǎn);平均檢測(cè)精度mAP值高達(dá)98.44%。綜合P-R曲線的效果,可知YOLOv3網(wǎng)絡(luò)的綜合識(shí)別檢測(cè)性能優(yōu)于YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò),達(dá)到了馬鈴薯切種機(jī)實(shí)現(xiàn)自動(dòng)化切種的識(shí)別要求。
中國(guó)農(nóng)機(jī)化學(xué)報(bào)2022年6期