• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于遷移學習的小麥籽粒品種識別研究

      2023-08-04 14:19:23李平馬玉琨李艷翠馮繼克趙明富
      中國農機化學報 2023年7期
      關鍵詞:遷移學習卷積神經(jīng)網(wǎng)絡

      李平 馬玉琨 李艷翠 馮繼克 趙明富

      摘要:不同角度下小麥籽粒具有不同特征信息,造成分類結果存在差異。采用同一小麥籽粒多角度圖片,使用小麥籽粒腹溝向上、腹溝向下和腹溝朝前三個角度圖片構建小麥籽粒品種數(shù)據(jù)集。選取黃淮麥區(qū)種植面積較大的6個小麥品種作為試驗材料,對比不同模型在小麥籽粒識別上的準確度。采用VGG-16、ResNet-50、Inception-V3卷積神經(jīng)網(wǎng)絡,通過遷移學習的方式建立小麥籽粒品種識別分類模型,驗證集識別準確率最高為99.35%,高于不遷移學習的識別方法和傳統(tǒng)機器學習的識別方法。在相同的試驗條件下,三種模型在使用遷移學習的情況下對小麥籽粒識別的測試集準確率分別達到99.55%、99.77%、99.22%,優(yōu)于單面特征建模識別。基于3種模型中分別選擇最優(yōu)試驗,對其3種角度分別識別。結果表明:腹溝向下的識別率在3種模型中最好,腹溝朝前次之,腹溝向上較差。通過試驗發(fā)現(xiàn),采用同一小麥籽粒多角度圖片可以更準確地提取小麥籽粒特征,并且有助于分類模型提升品種識別準確率。

      關鍵詞:小麥籽粒;品種識別;卷積神經(jīng)網(wǎng)絡;遷移學習

      中圖分類號:S126: S512: TP391

      文獻標識碼:A

      文章編號:20955553 (2023) 070220

      10

      Study on wheat seed variety identification based on transfer learning

      Li Ping1, Ma Yukun2, Li Yancui3, Feng Jike1, Zhao Mingfu1

      (1. College of Information Engineering, Henan Institute of Science and Technology, Xinxiang, 453003, China;

      2. School of Artificial Intelligence, Henan Institute of Science and Technology, Xinxiang, 453003, China;

      3. College of Computer and Information Engineering, Henan Normal University, Xinxiang, 453007, China)

      Abstract: Wheat grains under different angles have different feature information, resulting in differences in classification results. In this paper, we adopt the same wheat grain multi-angle pictures, and use the three angle pictures of wheat grain groove upward, groove downward and groove forward to construct the wheat grain variety dataset. Six wheat varieties with large planting area in Huanghuai wheat area were selected as test materials to compare the accuracy of different models in wheat grain recognition. VGG-16, ResNet-50, and Inception-V3 convolutional neural networks are used to build a classification model for wheat seed variety recognition by transfer learning, and the highest recognition accuracy of the validation set is 99.35%, which is higher than that of the recognition method without transfer learning and the traditional machine learning recognition method. Under the same test conditions, the test set accuracies of the three models for wheat seed grain recognition using migration learning reached 99.55%, 99.77%, and 99.22%, respectively, which were better than single-sided feature modeling recognition. Based on the selection of the optimal test among each of the three models, their three angles were recognized separately. The results showed that the recognition rate of ventral groove downward was the best among the three models, ventral groove toward the front was the second best, and ventral groove upward was poor. It was found that the use of multi-angle pictures of the same wheat grain can extract wheat grain features more accurately and help the classification model to improve the accuracy of variety identification.

      Keywords: wheat seeds; variety identification; convolutional neural network; migration learning

      0 引言

      小麥是世界上最重要的農產品之一,種植面積廣泛分布在全球各地。同時,小麥也是中國糧食生產的主要作物之一,生產面積和總產量占比較高,而小麥的穩(wěn)定發(fā)展對我國的糧食安全儲備起到重要的作用[12]。目前小麥識別主要依靠人工的方法對不同小麥籽粒品種進行識別,該方法成本比較低,但需要工作人員具有豐富的實踐經(jīng)驗,存在效率低、主觀性強、準確率低等弊端。因此,該方法在生產實踐中沒能得到廣泛的應用。傳統(tǒng)的機器學習方法需要人工總結規(guī)律并提取特征,需要耗費大量時間、精力進行在圖片預處理和特征有效性評估工作。攀超等[3]通過機器學習的方法對小麥品種提取6個顏色特征、5個形態(tài)特征、5個紋理特征進行分析識別,結果表明當采用3種特征的時候效果最好,識別準確率達到93.13%。何紅霞[4]對小麥品種進行提取6個顏色特征、5個形態(tài)特征、5個紋理特征進行分析識別,通過三種算法對比,使用粒子群算法PNN神經(jīng)網(wǎng)絡的優(yōu)化效果最為顯著,準確率達到96.32%。因此需要一種效率高、準確率高的小麥品種識別方法。

      近年來,以卷積神經(jīng)網(wǎng)絡代表的遷移學習技術迅速發(fā)展,在農作物種類的研究上得到廣泛的應用[510]。謝為俊等[11]提出一種基于卷積神經(jīng)網(wǎng)絡的油茶籽完整性識別算法,從網(wǎng)絡結果簡化和超參數(shù)進行優(yōu)化,使優(yōu)化后的網(wǎng)絡對油茶籽完整性識別準確率達到98.05%。劉嘉政[12]提出一種基于Inception-V3的遷移學習模型對花卉進行識別,在對各個參數(shù)進行微調的情況下,平均識別率達到93.73%。王東方等[13]基于遷移學習提出了一種TL-SE-RseNeXt-101,用于不指定農作物種類病蟲害檢測分類,與4種卷積模型進行對比,該模型在對不同作物種類的不同病害分類準確率達到98%。可以看出通過遷移學習方式的卷積神經(jīng)網(wǎng)絡在圖像識別有較好的表現(xiàn)。

      傳統(tǒng)的小麥分類研究中,所拍攝的小麥品種圖像都是按照腹溝向上的形態(tài)進行拍攝[1417],所采集的圖像方式單一,采集小麥籽粒單面的圖像往往不能更好的體現(xiàn)小麥籽粒的特征,本文所拍攝小麥品種圖像是采用單粒多圖多角度進行拍攝,分別為腹溝向上、腹溝朝前45°、腹溝向下,以便于能更好地提取特征。本文以選取種植面積較大6種小麥種子籽粒分類為例,采用多幅同一小麥籽粒圖片分角度小麥籽粒分類數(shù)據(jù)庫有助于分類模型更準確地提取小麥籽粒特征,避免了已有數(shù)據(jù)集中采集角度不統(tǒng)一造成的特征干擾問題,以較少數(shù)據(jù)量獲得較高識別率,提高了品種識別的兼容性和準確性。采用遷移學習的方式對VGG-16[18]、ResNet-50[19]、Inception-V3[2021]這三種成熟的卷積神經(jīng)網(wǎng)絡對小麥籽粒進行品種的分類,并與不遷移的方法和傳統(tǒng)的機器學習方法進行對比。

      1 數(shù)據(jù)庫構建

      1.1 傳統(tǒng)圖像采集

      樊超等[3]在對小麥品種進行分類研究中,采用的是BENQ_5000E 型掃描儀進行4個不同品種和6個不同品種圖像采集,拍攝時采用的方法是按照腹溝向上的形態(tài)進行掃描。孟惜等[16]在對小麥品種識別中,采用的是BENQ_5000E型掃描儀進行6個不同品種圖像采集,拍攝時采用的方法是按照腹溝向上的形態(tài)進行掃描。陳文根等[17]在對小麥品種識別中,采用索尼IMX258進行9個不同品種圖像采集,拍攝時采用的方法是籽粒背面圖片。所采集的圖像方式太過單一,都是采集的小麥籽粒的單面不能很好地體現(xiàn)小麥籽粒的特征性,采集圖像較少也不利于在深度學習模型中訓練。

      1.2 本文圖像采集

      河南科技學院生命科技學院實驗室有小麥品種300多個,篩選出黃淮麥區(qū)種植面積較大的6個小麥品種,本文進行圖像采集。表1為選擇拍攝的小麥品種編號、品種名稱以及本文對品種設置的標簽。表1中品種編號為實驗室原始編號,品種標簽為本文處理并報告結果所用標簽。圖1為小麥品種實例。

      本文對選取的品種進行單粒多圖多角度來構建小麥籽粒圖片,分為三種角度進行拍攝,分別為腹溝向上、腹溝朝前、腹溝向下,為了更好地提高品種識別的兼容性和準確性。針對表1中選出的6個小麥品種,采用體視鏡進行籽粒拍攝,拍攝時每個品種挑選出顆粒飽滿的種子1 000粒。拍攝在室內自然光照和燈光條件下進行,同時,保持拍攝板的干凈整潔,避免雜質影響后續(xù)的圖像處理結果。拍攝時以黑色吸光絨布為背景,體視顯微鏡參數(shù)設置為:放大倍數(shù)1倍,分辨率2 688像素×1 520像素,自動白平衡(AWB)關閉,寬動態(tài)平衡(WDR)關閉,LED補光燈設為中等。通過調整體視顯微鏡右側焦螺旋對小麥種子聚焦,每粒小麥分別拍攝腹溝向上、腹溝朝前、腹溝向下和空白4張圖片。小麥籽粒圖像采集過程中,為避免籽粒之間出現(xiàn)漏拍、多拍、錯拍等現(xiàn)象,同時為方便后期篩選處理,使用空白照片將不同顆粒之間的小麥進行分隔,圖2所示為采集的小麥籽粒原始圖像,三個方向圖片,拍攝時圖像名是日期加自動編號。拍攝根據(jù)品種籽粒類別逐類拍攝,每類品種保存至一個文件夾中,最終得6個品種的19 800張照片(包含空白照片)。

      1.3 圖像命名

      本文拍攝的原始圖像命名格式是時間加自動編號,沒有體現(xiàn)小麥的品種類別和拍攝角度信息。如圖3所示,命名結合表1的品種標簽,其中0代表農大3416-18,內樂288命名標簽為1等;標簽中第2位數(shù)字代表每個品種拍攝的小麥顆粒數(shù),0_1代表農大3416-18的第一粒小麥,0_2代表農大3416-18的第二粒小麥,以此類推;第三個數(shù)字表示每粒小麥分不同角度拍攝的3張圖像,1代表小麥腹溝向下,2代表小麥腹溝朝前45°,3代表小麥腹溝向上。綜上,3_1_1代表百農4199第一粒小麥,拍攝的第一個角度的圖像,3_2_1 代表百農4199第二粒小麥,拍攝的第一個角度的圖像,1_2_3代表內樂288第二粒小麥,拍攝的第三個角度的圖像。使用程序對6個小麥品種統(tǒng)一命名,刪除空白照片,統(tǒng)一命名后得到18 000張圖像。

      1.4 圖像預處理

      由于在拍攝中部分圖片會存在問題,比如主體不夠突出,辨識度低,圖片拍攝時沒有按照角度進行命名,為方便后續(xù)試驗本文對圖片先進行了預處理。預處理有圖片降噪處理。

      原始小麥圖像分辨為2 688像素×1 520像素,且原始數(shù)據(jù)中小麥兩邊有部分黑邊。原始圖片帶有影響圖片的因素,因此要先對數(shù)據(jù)進行降噪處理,去除掉照片中的干擾因素,方便后續(xù)試驗。為使數(shù)據(jù)更加適合訓練模型和降低圖像黑邊對訓練的影響,本文將2 688像素×1 520像素的圖像切割為1 520像素×1 520像素。如不對圖像進行壓縮,則易造成內存溢出和訓練時間較長的情況,內存溢出將導致模型無法完成訓練,因此還需要對圖像進行壓縮處理,為滿足卷積神經(jīng)網(wǎng)絡的輸入圖像的尺寸,本文將其按比例壓縮像素。小麥數(shù)據(jù)集選擇9 000張圖片,按照8∶1∶1的比例劃分為訓練集、驗證集和測試集,分別包括7 200張訓練圖像、900張驗證集圖像、900張測試集圖像。為了滿足不同模型輸入的要求,對訓練集圖像進行隨機裁剪和歸一化處理,對驗證集和測試集只進行歸一化處理。如圖4所示為裁剪后的小麥籽粒圖像。

      2 試驗方法

      2.1 卷積神經(jīng)網(wǎng)絡

      卷積神經(jīng)網(wǎng)絡是一種帶有卷積結構的深度神經(jīng)網(wǎng)絡,卷積結構可以減少深層網(wǎng)絡占用的內存量,其三個關鍵的操作,第一是局部感受野,第二是權值共享,第三是池化(pooling)層,有效地減少了網(wǎng)絡的參數(shù)個數(shù),緩解了模型的過擬合問題。卷積神經(jīng)網(wǎng)絡的低隱層是由卷積層和最大池采樣層交替組成,高層是全連接層對應傳統(tǒng)多層感知器的隱含層和邏輯回歸分類器。第一個全連接層的輸入是由卷積層和子采樣層進行特征提取得到的特征圖像。最后一層輸出層是一個分類器,可以采用邏輯回歸,Softmax回歸對輸入圖像進行分類。如圖5所示,該網(wǎng)絡是經(jīng)典的卷積神經(jīng)網(wǎng)絡結構。

      本文采用3種典型的卷積神經(jīng)網(wǎng)絡,分別為VGG-16[18]、ResNet-50[19]、Inception-V3[2021]。

      VGG網(wǎng)絡是在2014年由牛津大學著名研究組提出,其特點在于使用堆疊多個3×3的卷積核疊加代替了大的卷積核同時增加了網(wǎng)絡層深度,整個網(wǎng)絡都是用了同樣大小的卷積核和最大池化尺寸,而且對于數(shù)據(jù)集具有很好的泛化能力。

      ResNet是在2015年由微軟實驗室提出,其特點是參考VGG網(wǎng)絡,在其基礎上進行修改,在吸取了VGG網(wǎng)絡的基礎上加入了殘差網(wǎng)絡,目的為了克服由于網(wǎng)絡深度加深而產生學習效率低和準確率無法提升的問題。

      Inception-V1又名GoogLeNet,其中深度:層數(shù)更深避免梯度消失的問題;寬度:增加了多種核。Inception-V3通過改進Inception-V1網(wǎng)絡,加入了分解成小卷積的思想,將較大的二維卷積拆解成兩個較小的一維卷積,節(jié)約了大量參數(shù),加速運算并減輕了過擬合。

      2.2 遷移學習及微調模型

      遷移學習也稱為歸納遷移,其目標是將某個領域或任務上學習到的知識或模式應用到不同的但相關的領域或問題中。針對圖像領域存在的訓練成本高,可以用遷移學習來解決。基于卷積神經(jīng)網(wǎng)絡的遷移學習就是將已訓練好的模型及參數(shù)在新的識別任務上再次進行訓練,本文改進后的模型結構為:在原網(wǎng)絡基礎上增加一層ReLU激活函數(shù),一層Dropout層,一層6維全連接層以及一層Softmax層。

      本文采用不凍結任何網(wǎng)絡層,將模型所有層設置為遷移學習方式,即為直接訓練模型所有參數(shù),并與凍結預訓練模型的全部卷積特征提取層、僅對新分類器參數(shù)訓練的遷移學習并和不遷移模型、傳統(tǒng)的KNN、SVM進行對比。對于上述模型中訓練及優(yōu)化方案,3種模型結構共進行26組模型訓練。遷移學習主要是訓練好的模型具有較強的特征提取能力,通過利用在Image大型數(shù)據(jù)集上三種預訓練模型,采用遷移學習的方法對預訓練模型卷積模塊參數(shù),遷移到小麥籽粒識別任務中,作為網(wǎng)絡的初始化參數(shù),并且將預訓練網(wǎng)絡最后一層的全連接層替換為本文小麥籽粒數(shù)據(jù)集的類別數(shù),即為類別數(shù)6,通過全局訓練和局部訓練完成識別模型,通過測試集得到小麥籽粒分類準確率。本文的小麥籽粒遷移學習框架如圖6所示。

      2.3 模型參數(shù)及優(yōu)化

      此處采用在ImageNet大規(guī)模視覺識別挑戰(zhàn)賽上取得較好成績的卷積神經(jīng)網(wǎng)絡VGG-16、ResNet-50以及Inception-V3的卷積。針對3種卷積神經(jīng)網(wǎng)絡,在原網(wǎng)絡基礎上添加ReLU激活函數(shù),Dropout層,以及Softmax函數(shù),加入Dropout是為了緩解模型訓練導致過擬合,在訓練過程中修改網(wǎng)絡結構。

      激活函數(shù)的引入是為了增加神經(jīng)網(wǎng)絡模型的非線性,沒有激活函數(shù)的每層就相當于矩陣相乘。使用ReLU激活函數(shù),給神經(jīng)元引入非線性因素,可以解決線性能力不足的問題,這樣神經(jīng)網(wǎng)絡就可以應用到眾多的非線性模型中。

      f(x)=max(0,x)

      (1)

      式中:

      x——輸入的數(shù)據(jù);

      f(x)——輸出的結果。

      最后一層是Softmax函數(shù),本算法主要用于多分類問題,目的是將多分類的結果以概率的形式展現(xiàn)出來。

      Softmax(x)=exi∑nj=1exj

      (2)

      式中:

      xi——第i個神經(jīng)節(jié)點的輸出值;

      j——

      輸出神經(jīng)節(jié)點個數(shù),即分類的類別個數(shù)。

      本文選用適用于大規(guī)模數(shù)據(jù)的隨機梯度下降法(Adaptive moment estimation, Adam)作為優(yōu)化算法,Adam將隨機梯度下降算法中的自適應梯度算法(Adaptive gradient algorithm, AdaGrad)和均方根傳播(Root mean square propagation, RMSProp)的優(yōu)勢結合在一起,適合解決大規(guī)模數(shù)據(jù)和參數(shù)優(yōu)化的問題。選擇0.0001、0.001、0.01和0.1共4種初始學習率進行學習。

      在模型訓練過程中,本文引入早停技術(Early Stopping)來對模型訓練后的驗證集驗證的結果進行監(jiān)控,耐心值設置的為12,表示連續(xù)12次驗證集的損失值不下降,立即停止對模型的訓練,所以每次的迭代次數(shù)不是固定的。同時在訓練過程中保存當前最優(yōu)參數(shù),后續(xù)如果有更優(yōu)的結果則進行替換。此方法限制模型取得最小損失函數(shù)值的迭代次數(shù),迭代次數(shù)過多,算法容易過擬合,迭代次數(shù)太少,則容易欠擬合。

      2.4 模型評價標準

      評價分類問題的評價指標:準確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1值,混淆矩陣則是用來說明分類任務的。TP(True Positive)表示將正類預測為正類;FP(False Positive)表示將負類預測為正類;TN(True Negative)表示將負類預測為負類;FN(False Negative)表示將正類預測為負類。

      準確率定義:對于給定的數(shù)據(jù),分類正確的樣本數(shù)占總樣本數(shù)的比例。

      Accuracy=TP+TNTP+FP+FN+TN

      (3)

      2.5 試驗環(huán)境

      試驗采用PyTorch深度學習框架開發(fā)環(huán)境,PyTorch是Torch的Python版本,是由FaceBook開源的神經(jīng)網(wǎng)絡框架,主要用于GPU加速過的運算替代與NumPy類似的運算和構建深度神經(jīng)網(wǎng)絡。根據(jù)相關學者研究結果,PyTorch的速度表現(xiàn)勝過TensorFlow和Kersa等框架,使用同樣的模型,PyTorch實現(xiàn)更有可能快過其他框架。與TensorFlow的靜態(tài)計算圖不同,PyTorch的計算圖是動態(tài)的,可以根據(jù)計算需要實時改變計算圖。使用RTX3060 12G顯卡和CPU AMD銳龍5800X完成訓練及驗證結果。

      3 試驗結果與分析

      3.1 基于深度學習的籽粒識別

      基于深度學習的分類識別與傳統(tǒng)機器學習識別方法對比如表2所示。傳統(tǒng)模型通過提取的28個特征進行識別,結果顯示KNN的驗證集識別準確率最高為93.33%,KNN和SVM訓練速度普遍高于卷積神經(jīng)網(wǎng)絡,但卷積神經(jīng)網(wǎng)絡的準確率大多高于KNN和SVM的準確率。在同等條件下,Inception-V3的驗證集要比VGG-16和ResNet-50分別高1.33個百分點和1.25個百分點。使用深度學習建立的識別方法要比傳統(tǒng)的機器學習識別方法驗證集準確率較高,實用性高于機器學習。

      3.2 基于遷移學習的籽粒識別

      與不遷移學習的模型相比,遷移學習能夠明顯提升模型的收斂速度以及準確率。各組訓練和驗證的結果如表3所示,其中迭代次數(shù)的不同是指驗證集早停技術對結果進行監(jiān)控,當損失值連續(xù)12次不下降時所產生的迭代次數(shù),一次迭代時間指的是通過總時間除以迭代次數(shù)所產生的時間。進行全局訓練的是指不凍結卷積特征提取層,并和新的分類器參數(shù)進行所有參數(shù)訓練方式,局部訓練是指凍結卷積特征提取層,僅對新的分類器進行參數(shù)訓練方式。試驗選擇初始學習率為0.1、0.01、0.001、0.000 1進行模型訓練。

      3.2.1 遷移學習方式對模型準確率的影響

      表3為模型訓練與驗證的準確率,可以看出在相同的參數(shù)下,直接訓練所有參數(shù)的遷移學習方式要明顯優(yōu)于僅訓練分類器參數(shù)的方式。局部訓練參數(shù)的遷移學習方式下,試驗8的驗證集識別準確率最高,為98.43%。全局訓練參數(shù)的遷移學習方式下,試驗20的驗證集識別準確率最高,為99.35%。在相同參數(shù)下,對比不遷移的模型,VGG-16遷移學習比不遷移學習高1.54個百分點,ResNet-50遷移學習比不遷移學習高2.17個百分點,Inception-V3遷移學習比不遷移學習高1.03個百分點。與不遷移學習的模型相比,遷移學習能夠明顯提升模型的收斂速度以及準確率。

      從驗證集的準確率看,進行全局訓練的參數(shù)模型所得到的驗證集準確率明顯優(yōu)局部訓練的參數(shù)模型,最高的分別為進行全局訓練的VGG-16模型初始學習率為0.000 1時,驗證集準確率為98.53%;進行全局訓練的ResNet-50模型初始學習率為0.000 1時,驗證集準確率為99.24%;進行全局訓練的Inception-V3模型初始學習率為0.000 1時,驗證集準確率為99.35%,Inception-V3模型分別比VGG-16模型和ResNet-50模型高0.82個百分點和0.11個百分點。全局訓練所迭代的時間雖然比較多,但準確率是最高的,局部訓練的三種模型來看,所訓練的時間相對于全局訓練要節(jié)省相對應的一半,但其準確率相對于全局訓練相對較小一點。

      3.2.2 初始學習率對模型準確率的影響

      從初始學習率看,學習率作為深度學習中重要的超參數(shù),其決定著目標函數(shù)是否能收斂到局部最小值或者最優(yōu)值,設置太大會使結果超過最優(yōu)值,太小會使損失速度下降過慢,合適的學習率能夠使目標在合適的數(shù)據(jù)內收斂到局部最小值或者最優(yōu)值。隨著初始學習率的下降,訓練集和驗證集的準確率也隨之提升。

      在局部訓練中ResNet-50的學習率為0.001的時,驗證集的準確率為92.53%,學習率為0.000 1時,驗證集的準確率為92.68%,說明當學習率為0.001時,已經(jīng)收斂到接近最優(yōu)值,再降低學習率也不會明顯增加準確率。而初始學習率為0.000 1的時候試驗4、試驗12、試驗20是三種模型中準確率最高的,但時候驗證集識別率呈現(xiàn)出一定的波動,尤其是VGG-16中的試驗4波動較大,模型不穩(wěn)定。以上結果表明,采用0.000 1的初始學習率時三種模型泛化能力最強,效果也最優(yōu)。這是因為選用的微調遷移學習,模型在原始數(shù)據(jù)上已經(jīng)收斂,所以設置較小的學習率在新數(shù)據(jù)上有更好的效果。

      3.2.3 準確率與損失值曲線的分析

      從圖7來看,三種模型中,VGG-16中驗證集的損失值和準確率相對不穩(wěn)定,驗證集損失值在第五次迭代過程中出現(xiàn)了極大的提升,在前15次迭代中有較大的波動,在15次后進入相對穩(wěn)定狀態(tài)。ResNet-50中訓練集和驗證集的損失值和準確率在21次迭代以后相對是平穩(wěn)的,在40多次的迭代次數(shù)中,第21次迭代和第36次迭代中驗證集的精度有相對較大的波動,在之后訓練中相對穩(wěn)定狀態(tài)。Inception-V3中訓練集和驗證集的損失值和準確率都是趨于相對穩(wěn)定的狀態(tài),相對也是三種模型在全局訓練并且學習率在0.000 1的條件下驗證集效果最高的。三種模型均在達到穩(wěn)定狀態(tài)并且識別準確率明顯提高,表明使用遷移學習的網(wǎng)絡可以保證準確率和速度的情況下對小麥籽粒進行識別的可行性,在識別前期不用做機器學習對圖像進行過多的處理,大大降低了人工操作的成本。

      3.2.4 測試集準確率的分析

      表4為3種模型VGG16、ResNet-50、Inception-V3在全局訓練中學習率為0.000 1時測試集的結果。

      可以看出ResNet-50的測試結果最高,高于VGG-16準確率0.22個百分點,高于VGG-16 F1值0.19個百分點;高于Inception-V3準確率0.55個百分點,高于Inception-V3 F1值0.53個百分點,迭代時間是最短的。在VGG-16中,雖然識別率相對于ResNet-50較低一些,訓練所需的迭代時間比ResNet-50高一些。在Inception-V3中,驗證集雖然是最高的但是在測試集的識別率相對于另外兩種模型要低一些,訓練所需的迭代時間要比ResNet-50高一些,相較于VGG-16的迭代時間相差不多。綜上所述ResNet-50模型全局訓練模型運算時間最短且分類效果在測試集上的準確率最高。

      3.3 基于遷移學習的三種角度識別結果分析

      1) 角度統(tǒng)一的影響。

      在以往的試驗中,采用的是單粒單圖單角度的圖片,從結果來看無法達到預期效果,在本試驗中,單粒多圖多角度的圖片識別效果要比單粒單圖單角度識別效果更優(yōu)。通過遷移微調后的網(wǎng)絡與現(xiàn)有的小麥識別進行對比,對比試驗選擇文獻[14]和文獻[1718]的拍攝方式和試驗方法。在三種模型中,通過測試集驗證ResNet-50的平均識別率最高為99.77%,結果如表5所示。

      2) 三種角度的影響。

      為了更好地驗證多幅同一小麥籽粒圖片的必要性,分別對三種角度在模型中的識別性能進行分析。

      試驗結果如圖8和表6所示,在VGG-16(試驗4)中測試集對應的混淆矩陣中品種標簽2中有4張圖像被誤認為了標簽1,出現(xiàn)錯誤上的在腹溝朝前方向1張,腹溝向上方向3張,在三種角度中,腹溝向下的識別率最好。在ResNet-50(試驗12)中測試集對應的混淆矩陣中品種標簽2中有1張圖像被誤認為標簽1,標簽4中有1張圖像被誤認為標簽5,出現(xiàn)錯誤的在腹溝向上的方向2張,在三種角度中,腹溝向下的識別率最好。

      在Inception-V3(試驗20)測試集對應的混淆矩陣中品種標簽0中有1張圖像被誤認為標簽3,標簽1中有2張圖像誤認為標簽2,標簽2中有1張圖像被誤認為標簽0和2張圖像被誤認為標簽1,標簽4有1張圖像被誤認為5,其中腹溝朝前的有4張圖像,腹溝向上的有3張圖像,在三種角度中,腹溝向下的識別率最好。通過圖9可以看出,在ResNet-50(試驗12)中三種角度的混淆矩陣中,出現(xiàn)識別錯誤的都在腹溝向上。綜上所述,可以看出從三種角度來講,腹溝向下識別率最好。進一步驗證了單粒多圖多角度籽粒圖片的必要性。

      4 結論

      本文試驗使用遷移學習的方法,通過改進原模型的結構,將VGG-16,ResNet-50,Inception-V3這三個網(wǎng)絡模型對小麥籽粒分類,證明了遷移學習對比深度學習和機器學習更有有效性。

      1)? 針對小麥籽粒識別分類的問題,采集了6個推廣面積比較廣的小麥籽粒圖像,每個品種分別采集1 000 粒小麥,針對每粒小麥分別采集腹溝向上、腹溝朝前、腹溝向下三種角度的圖像,每個品種采集3 000張圖像。選擇9 000張圖片,通過遷移學習的方法將3種典型的卷積神經(jīng)網(wǎng)絡應用到小麥籽粒識別的問題上進行比較,結果表明驗證集準確率最高可達99.35%。根據(jù)網(wǎng)絡的復雜度,網(wǎng)絡的訓練時間顯著差異,全局訓練的時間相對于不進行全局訓練的時間將近多一倍左右,其中VGG-16網(wǎng)絡局部訓練時學習率為0.000 1時所訓練的時間最短,且驗證集準確率比全局訓練的準確率低0.1個百分點,為98.43%。盡管使用遷移學習在訓練的時間要遠大于傳統(tǒng)的機器學習,但顯著提高了小麥籽粒識別分類的準確率,在小麥籽粒識別方面效果更好。

      2)? 對比深度學習、機器學習、遷移學習中,遷移學習明顯在準確率上高于深度學習和機器學習,通過遷移學習識別的結果可以看出使用遷移學習能夠更好地達到識別效果。從三種模型中各選擇識別最好的試驗,分別為試驗4、試驗12、試驗20,進行其性能比較,結果表明,試驗12中ResNet-50的識別速度最快,識別率是最高的,對其三種角度分別測試結果發(fā)現(xiàn)腹溝向下跟腹溝朝前的效果最好。試驗6和試驗22雖然識別率不是最高,但是其識別準確率也不差。從三種模型中分別去看三種角度平均識別率的試驗中,腹溝向下的效果在三種模型中效果最好,腹溝朝前的要比腹溝向上的效果要好一點。驗證了單粒多圖多角度小麥籽粒圖片的必要性。

      3)? 本文6類小麥籽粒采用三種模型進行籽粒識別,通過測試選擇出了最優(yōu)的模型,但是其所迭代時間過長,速度過慢。下一步重點將選擇輕量級網(wǎng)絡和增加小麥籽粒類別,在不影響識別效率的情況下提高運行速度,從而選擇出更適合的模型。

      參 考 文 獻

      [1] 王寧, 程威. 2000—2019年河南省小麥播種面積與產量變化趨勢分析[J]. 農業(yè)科技通訊, 2021(6): 234-235, 322.

      [2] 馬斯霜, 白海波, 惠建, 等. 小麥主要品質性狀研究進展[J]. 中國農學通報, 2021, 37(24): 1-5.

      Ma Sishuang, Bai Haibo, Hui Jian, et al. Main quality characters of wheat: A review [J]. Chinese Agricultural Science Bulletin, 2021, 37(24): 1-5.

      [3] 樊超, 夏旭, 石小鳳, 等. 基于圖像處理的小麥品種分類研究[J]. 河南工業(yè)大學學報(自然科學版), 2011, 32(5): 74-78.

      Fan Chao, Xia Xu, Shi Xiaofeng, et al. Wheat variety classification based on image processing [J]. Journal of Henan University of Technology (Natural Science Edition), 2011, 32(5): 74-78.

      [4] 何紅霞. 基于機器視覺的小麥種子品種分類模型研究[D]. 合肥: 安徽農業(yè)大學, 2018.

      He Hongxia. Study on classification model of wheat seed varieties based on machine vision [D]. Hefei: Anhui Agricultural University, 2018.

      [5] 程帥, 李艷玲, 司海平, 等. 基于卷積神經(jīng)網(wǎng)絡的農作物種類自動識別算法研究[J]. 河南科學, 2020, 38(12): 1908-1914.

      Cheng Shuai, Li Yanling, Si Haiping, et al. Automatic recognition algorithm of crop species based on convolutional neural network [J]. Henan Science, 2020, 38(12): 1908-1914.

      [6] 徐巖, 劉林, 李中遠, 等. 基于卷積神經(jīng)網(wǎng)絡的玉米品種識別[J]. 江蘇農業(yè)學報, 2020, 36(1): 18-23.

      Xu Yan, Liu Lin, Li Zhongyuan, et al. Recognition of maize varieties based on convolutional neural network [J]. Jiangsu Journal of Agricultural Sciences, 2020, 36(1): 18-23.

      [7] 劉小剛, 范誠, 李加念, 等. 基于卷積神經(jīng)網(wǎng)絡的草莓識別方法[J]. 農業(yè)機械學報, 2020, 51(2): 237-244.

      Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.

      [8] 張忠志, 薛歡慶, 范廣玲. 基于改進卷積神經(jīng)網(wǎng)絡的紅棗缺陷識別[J]. 食品與機械, 2021, 37(8): 158-162, 192.

      Zhang Zhongzhi, Xue Huanqing, Fan Guangling. Research on jujube defect recognition method based on improved convolution neural network [J]. Food and Machinery, 2021, 37(8): 158-162, 192.

      [9] 石晨宇, 周春, 靳鴻, 等. 基于卷積神經(jīng)網(wǎng)絡的農作物病害識別研究[J]. 國外電子測量技術, 2021, 40(9): 93-99.

      Shi Chenyu, Zhou Chun, Jin Hong, et al. Research on crop disease recognition based on convolutional neural network [J]. Foreign Electronic Measurement Technology, 2021, 40(9): 93-99.

      [10] 邱津怡, 羅俊, 李秀, 等. 基于卷積神經(jīng)網(wǎng)絡的多尺度葡萄圖像識別方法[J]. 計算機應用, 2019, 39(10): 2930-2936.

      Qiu Jinyi, Luo Jun, Li Xiu, et al. Multi-scale grape image recognition method based on convolutional neural network [J]. Journal of Computer Applications, 2019, 39(10): 2930-2936.

      [11] 謝為俊, 丁冶春, 王鳳賀, 等. 基于卷積神經(jīng)網(wǎng)絡的油茶籽完整性識別方法[J]. 農業(yè)機械學報, 2020, 51(7): 13-21.

      Xie Weijun, Ding Yechun, Wang Fenghe, et al. Integrity recognition of camellia oleifera seeds based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(7): 13-21.

      [12] 劉嘉政. 基于深度遷移學習模型的花卉種類識別[J]. 江蘇農業(yè)科學, 2019, 47(20): 231-236.

      Liu Jiazheng. Flower species identification based on deep transfer learning model [J]. Jiangsu Agricultural Sciences, 2019, 47(20): 231-236.

      [13] 王東方, 汪軍. 基于遷移學習和殘差網(wǎng)絡的農作物病害分類[J]. 農業(yè)工程學報, 2021, 37(4): 199-207.

      Wang Dongfang, Wang Jun. Crop disease classification with transfer learning and residual networks [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(4): 199-207.

      [14] 何勝美, 李仲來, 何中虎. 基于圖像識別的小麥品種分類研究[J]. 中國農業(yè)科學, 2005(9): 1869-1875.

      He Shengmei, Li Zhonglai, He Zhonghu. Classification of wheat cultivar by digital image analysis [J]. Scientia Agricultura Sinica, 2005(9): 1869-1875.

      [15] Punn M, Bhalla N. Classification of wheat grains using machine algorithms [J]. International Journal of Science and Research (IJSR), 2013, 2(8): 363-366.

      [16] 孟惜, 王克儉, 韓憲忠. 基于改進BP網(wǎng)絡的小麥品種識別[J]. 貴州農業(yè)科學, 2017, 45(10): 156-160.

      Meng Xi, Wang Kejian, Han Xianzhong. Classification of wheat varieties by improved BP neural network [J]. Guizhou Agricultural Science, 2017, 45(10): 156-160.

      [17] 陳文根, 李秀娟, 吳蘭. 基于深度卷積網(wǎng)絡的小麥品種識別研究[J]. 糧食儲藏, 2018, 47(2): 1-4, 13.

      Chen Wengen, Li Xiujuan, Wu Lan. Research on wheat variety identification based on deep convolution network [J]. Grain Storage, 2018, 47(2): 1-4, 13.

      [18] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [J]. arXiv preprint arXiv: 1409.1556, 2014.

      [19] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

      [20] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.

      [21] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2818-2826.

      猜你喜歡
      遷移學習卷積神經(jīng)網(wǎng)絡
      遷移學習研究綜述
      從認知角度探討大學英語網(wǎng)絡教學模式
      基于多特征融合的跨域情感分類模型研究
      奇異值分解與移移學習在電機故障診斷中的應用
      基于卷積神經(jīng)網(wǎng)絡溫室智能大棚監(jiān)控系統(tǒng)的研究
      基于深度卷積神經(jīng)網(wǎng)絡的物體識別算法
      深度學習算法應用于巖石圖像處理的可行性研究
      軟件導刊(2016年9期)2016-11-07 22:20:49
      基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于卷積神經(jīng)網(wǎng)絡的樹葉識別的算法的研究
      一種基于遷移極速學習機的人體行為識別模型
      铜鼓县| 泸西县| 潮州市| 新干县| 资源县| 芜湖县| 大余县| 繁昌县| 乌什县| SHOW| 天等县| 芜湖县| 梧州市| 高邑县| 永善县| 广平县| 永吉县| 贵阳市| 兴和县| 巴楚县| 牟定县| 阿鲁科尔沁旗| 密云县| 丹棱县| 扶风县| 嵊泗县| 苍梧县| 蕲春县| 林西县| 双流县| 泾源县| 招远市| 伊宁市| 禹城市| 上饶市| 司法| 阿克苏市| 乡城县| 安新县| 永和县| 中方县|