高旋 趙亞鳳 熊強 陳喆
摘 要:使用樹干和樹葉圖像實現(xiàn)樹種自動識別,目前深度學習可以有效的解決該類問題,但它需要大量樣本做訓練才能達到較高的識別精度。當面對有限圖像數(shù)量時,提出基于遷移學習的方法,把經過預訓練的卷積神經網絡模型進行遷移,即共享卷積層和池化層的權重參數(shù),對新的網絡模型超參數(shù)進行調整,并建立一個包含10種共計2 000張樹干圖像和8種共計1 725張樹葉圖像的數(shù)據庫,把圖片分為訓練集和測試集,分別利用遷移學習、普通深度學習和SVM分類方法進行訓練和測試,并將這3種方法作對比。最后,通過構建樹干和樹葉圖像的混淆矩陣對遷移學習進行具體分析與說明。實驗結果表明,通過遷移學習得到的樹干和樹葉最高識別精度分別達到92.51%和98.20%,比普通深度學習提高了51.38%和51.69%,比SVM分類方法提高了43.94%和45.08%。遷移學習比普通深度學習和傳統(tǒng)SVM分類方法更適合用于小樣本數(shù)據集的分類識別,并且顯著優(yōu)于普通深度學習和SVM分類方法。
關鍵詞:深度學習;遷移學習;卷積神經網絡;混淆矩陣
中圖分類號:S781.1 ? ?文獻標識碼:A ? 文章編號:1006-8023(2019)05-0068-08
Abstract:Objective Tree trunk and leaf images are used to realize automatic identification of tree species. At present, deep learning can effectively solve this kind of problem, but it needs a large number of samples for training to achieve high recognition accuracy. Methods When the number of images is limited, a method based on transfer learning is proposed to migrate the pre-trained convolution neural network model, that is, the weight parameters of convolution and pooling layer. The parameters of the new network are adjusted and a database containing 10 kinds of 2000 tree trunk images and 8 kinds of 1 725 leaf images are established. The images are divided into training sets and test sets, which are trained and tested by transfer learning, general deep learning and SVM classification methods respectively, and the three methods are compared. Results The experimental results show that the maximum recognition accuracy of tree trunks and leaves obtained through transfer learning is 92.51% and 98.20%, respectively, which is higher than general deep learning by 51.38% and 51.69%, and higher than SVM classification by 43.94% and 45.08%. Conclusion Transfer learning is more suitable for classification and recognition of small sample data sets than general deep learning and traditional SVM classification methods, and is significantly better than general deep learning and SVM classification methods.
Keywords:Deep learning; transfer learning; convolutional neural network; confusion matrix
0 引言
木材是人類賴以生存和發(fā)展的寶貴資源,保護并合理利用木材資源已成為全人類共同關心的課題[1]。對每個人來說,肉眼識別樹種是很難的,所以自動識別成為了最主要的識別途徑。樹葉和樹干作為樹木的獨特特征,越來越成為自動識別樹木種類的重要途經。最早的樹種識別方法主要依靠具有木材解剖學知識以及豐富實踐經驗的專業(yè)人員來鑒別,但是這種方法耗時、耗力,并不能保證準確性[1]。隨著計算機時代的到來,我國大約從上世紀八十年代利用計算機建立了植物數(shù)據庫[2],國外起步相對較早,最新的樹種數(shù)據庫,如E Beech等人公布了一個關于樹種的數(shù)據庫[3],但并不能隨時進行更新。近幾年,隨著機器學習的發(fā)展,實現(xiàn)了對某些樹種的自動識別,如梁龍等人選擇基于支持向量機的近紅外特征變量選擇算法用于樹種識別[4]。雖然這種方法也取得了較好的識別結果,但它的缺陷是人工選取特征,具有局限性。后來隨著深度學習和神經網絡的興起,越來越多的人選擇這種方法實現(xiàn)對樹種的快速識別,其中利用卷積神經網絡的效果最為顯著。例如,趙鵬超等將樹葉圖像放在卷積神經網絡上進行分類訓練,最終識別率可以達到95%,這是在大量樹葉圖像下的研究[5];SP Mohanty等人訓練了一個深度卷積神經網絡,對該網絡進行了遷移學習,將植物葉片病害進行分類識別,最終的識別精度可以達到99.35%,該研究是從網上收集了54 306張圖片,無法排除現(xiàn)實環(huán)境對拍攝樹葉照片時造成的影響[6]。還有研究者在大數(shù)據集的條件下訓練關于樹干的網絡模型,例如M Carpentier等人自己建立了一個包含23 000張樹干圖片的數(shù)據庫,在ResNet18和ResNet34上進行訓練,識別精度達到93.88%[7]。孫俊等人針對訓練時間長、模型參數(shù)龐大的問題,提出將傳統(tǒng)的卷積神經網絡模型改進,對從網上收集的21 917張葉片病害進行識別,平均測試識別準確率達到99.56%[8]。但在現(xiàn)實條件下,人工不可能采集大量圖片,耗時又耗力。
為了更好的考慮自然環(huán)境帶來的影響,實地拍攝圖片。但是人工采集的圖片數(shù)量有限,針對這一問題,作者提出運用遷移學習這一方法,可以有效利用小樣本數(shù)據集進行識別訓練。分別在校內和林場內采集了樹葉、樹干圖片,分成兩種數(shù)據庫。利用深度學習在卷積神經網絡上對這兩種數(shù)據庫進行訓練,然后利用遷移學習對這兩種數(shù)據庫再次進行訓練并與深度學習和SVM分類方法作對比。最后,對樹葉和樹干數(shù)據庫分別構建混淆矩陣,分析遷移學習的有效性。
1 網絡模型
1.1 深度學習與遷移學習
深度學習通過建立、模擬人腦的信息處理神經結構來實現(xiàn)對外部輸入的數(shù)據進行從低級到高級的特征提取,從而能夠使機器理解學習數(shù)據,獲得信息。卷積神經網絡作為經典的深度學習網絡,同時也是發(fā)展最為深入的網絡,所以更適合解決圖像領域問題。通過對其結構的不斷改進和研究,形成了一系列網絡模型。雖然深度學習在應用中取得了很多成績,但仍存在很多局限:理論研究缺乏、無監(jiān)督學習能力弱等[9-10]。在實際生活中,無標簽未知的數(shù)據是占主體的,有這樣的問題出現(xiàn)時,遷移學習的提出可以有效的解決這一問題。
遷移學習是一種學習的思想和模式,是指利用數(shù)據、任務或模型之間的相似性,將在舊領域學習過的模型應用于新領域的一種學習過程。機器學習解決的是讓機器自主地從數(shù)據中獲取知識,從而應用于新的問題中。遷移學習是機器學習的一個重要分支,它的核心問題是找到新問題和原問題之間的相似性[11]。
現(xiàn)在遷移學習已被廣泛的應用于計算機視覺的研究中,例如同一類圖片,不同拍攝角度、不同光照、不同背景,都會造成特征分布發(fā)生改變[11]。因此,使用遷移學習構建跨領域的魯棒分類器是十分重要的[10]。通過認識和學習卷積神經網絡的性能,選擇了在本實驗中比較適用的3個網絡架構,即ResNet18、DenseNet121、Vgg16。利用基于模型的遷移方法,是指從源域和目標域中找到他們之間共享的參數(shù)信息,以實現(xiàn)遷移的方法。這種遷移方式要求的假設條件是:源域中的數(shù)據與目標域中的數(shù)據可以共享一些模型的參數(shù)[11]。如龍明盛等人改進了深度網絡結構,通過在網絡中加入概率分布適配層,進一步提高深度遷移學習網絡對于大數(shù)據的泛化能力[12]。
1.2 卷積神經網絡(CNN)
卷積神經網絡(Convolution neural networks,CNN)是基于人工神經網絡帶有卷積層的網絡結構。它的基本結構由輸入層、卷積層、池化層、全連接層及輸出層構成。卷積層和池化層一般會取若干個,采用卷積層和池化層交替設置,即一個卷積層連接一個池化層,池化層后再連接一個卷積層,依此類推。由于卷積層中輸出特征面的每個神經元與其輸入進行局部連接,并通過對應的連接權值與局部輸入進行加權求和再加上偏置值,得到該神經元輸入值,該過程等同于卷積過程,卷積神經網絡也由此而得名[13]。
1.2.1 卷積神經網絡之ResNet18
2 數(shù)據集
作者選擇在不同拍攝距離和角度,不同光照和天氣條件下采集圖像,確保數(shù)據集盡可能多樣化。首先,使用了不同的手機拍攝:魅族4、蘋果6s、華為note。然后,選擇了兩個地點:黑龍江省哈爾濱市東北林業(yè)大學校園內和林場,不同的地方會影響樹木的生長情況。
數(shù)據庫中每一張圖片都有自己的編號,用來標識不同的種類。小部分數(shù)據集被刪除,主要是因為相機運動而拍攝的圖片模糊。然后手動剪裁剩余的每張圖片,尺寸全部改為256×256,這能使得更方便的對圖像進行處理,并去除每張圖片的背景。實驗中還采用了原始圖像與灰度圖像作對比,以防光照和色彩對實驗造成影響。
2.1 樹干數(shù)據集
為縮短數(shù)據收集過程,選擇每棵樹的不同位置,并距離該樹30 cm左右拍攝照片。這個距離的變化,取決于拍攝條件(手機前面是否有障礙物或者樹木粗細等)。共采集10種2 000張樹干圖片,樹干種類見表1。表1中a~j代表10種樹,第二、三行分別為樹木名稱以及用于實驗的圖片數(shù)目。原始圖像和灰度圖像如圖4所示。
2.2 樹葉數(shù)據集
樹葉的收集相對來說比較方便,一片樹葉為一張圖片。共采集1 725張8種類別樹葉圖像,見表2。表2中a~h代表8種樹葉,第二、三行為樹葉種類以及采集圖片數(shù)目。原始圖像和灰度圖像如圖5所示。
3 實驗
3.1 模型訓練
使用兩種學習環(huán)境,一種是開源深度學習框架Pytorch0.4.1進行深度學習實驗,選用Python作為編程語言,另一種是MATLAB開發(fā)環(huán)境。實驗硬件為Ubuntu 16.04 LTS 64 位系統(tǒng),計算機內存為16GB,搭載 Intel CoreTM i7-7800XCPU @ 3.50GHz×12處理器,并采用GeForce GTX 1080Ti顯卡加速圖像處理。
為了了解采用的方法是否會過度擬合,所以在接下來的訓練-測試中,將兩類數(shù)據集分別調整為80%和20%(80%用于訓練,20%用于測試),60%和40%(60%用于訓練,40%用于測試),40%和60%(40%用于訓練,60%用于測試),20%和80%(20%用于訓練,80%用于測試)。在實驗中,還要確保樹葉和樹干的每一個類別都分布在訓練和測試中。
三種機器學習方式:一是從頭開始對訓練集進行訓練,即普通深度學習;二是遷移網絡模型,即遷移學習,這兩種方式的差異性在于權重的初始狀態(tài)在哪一層;三是傳統(tǒng)識別方式SVM分類器,人工選擇提取圖片的HOG和GLCM特征。分析這三種結構在訓練-測試數(shù)據集上的性能。實驗參數(shù)如下:
(1)神經網絡模型:ResNet18、Vgg16、DenseNet121
(2)訓練機制:普通深度學習、遷移學習、SVM
(3)訓練數(shù)據集分布:訓練:80%,測試:20%;訓練:60%,測試:40%;訓練:40%,測試:60%;訓練:20%,測試:80%。
為了使得測試結果之間進行公平的比較,在實驗中標準化超參數(shù),如下:
(1)算法:隨機梯度下降。
(2)學習率:0.01。
(3)學習衰減:0.001。
(4)動量:0.5。
(5)權重衰減:0.000 5。
(6)批量大?。?4。
3.2 研究方法
作者將2 000張的樹干圖片,分為4種形式的訓練和測試集,即總圖片數(shù)的80%訓練20%測試、60%訓練40%測試、40%訓練60%測試、20%訓練80%測試。并在ResNet18、Vgg16、DenseNet121三種網絡模型中訓練。將1 725張樹葉圖片,選擇和樹干相同形式的訓練-測試集和相同的網絡模型。
由于擔心卷積神經網絡在提取圖片特征時可能會提取與顏色有關的特征,所以使用樹干和樹葉的灰度圖像測試這三種網絡模型在沒有顏色的情況下識別精度會不會有變化。
最后利用混淆矩陣,具體對遷移學習進行說明與分析。實驗中只使用了樹干原始圖像和樹干數(shù)據集的80%訓練—20%測試,即樹干圖像總數(shù)為2 000張,1 600張為訓練圖像,400張為測試圖像。并且分別表示出遷移學習在ResNet18、Vgg16、DenseNet121上的混淆矩陣?;谶w移學習的樹葉圖像混淆矩陣表示方法與樹干相同,樹葉圖片共為1 725張,其中1 374張為訓練圖像,351為預測圖像。
3.3 結果與分析
3.3.1 樹干圖像識別結果與分析
表3表示普通深度學習和遷移學習的三種網絡模型以及SVM分類器在4種訓練測試模式下的識別精度。當訓練集分別為80%、60%、40%、20%時,普通深度學習最高識別精度分別為41.13%、35.52%、32.28%、28.05%,遷移學習最高識別精度92.51%、88.02%、70.52%、69.98%。隨著訓練圖片數(shù)量的減少,識別精度也逐漸降低,訓練為20%時,SVM最低識別精度為31.76%,普通深度學習最低識別精度為21.73%,而遷移學習最低識別精度為61.90%。
實驗證明灰度圖像與原始圖像相比,識別準確率會下降,但變化并不大,見表3。當訓練分別為80%、60%、40%、20%時,普通深度學習最高識別精度分別為35.31%、30.61%、25.83%、24.90%,遷移學習最高識別精度分別為89.32%、84.72%、68.61%、66.10%。當訓練集數(shù)量最少時,普通深度學習最低識別精度為16.56%,遷移學習最低識別精度為58.29%。
3.3.2 樹葉圖像識別結果與分析
表4第一行為訓練測試集4種形式,第二部分深度學習和遷移學習在三種網絡模型下的識別精度,最后為SVM的識別精度。從表4中得到,當訓練集數(shù)量最少為20%時,SVM分類器最低識別精度為31.67%,普通深度學習最低識別精度為16.53%,遷移學習最低識別精度為69.90%。當訓練集分別為80%、60%、40%、20%時,最高識別精度分別為98.20%、96.65%、94.19%、84.25%。并利用了灰色圖像證明顏色是否會被當作特征被提取,實驗證明識別精度雖下降,但與原始圖像相差不大。
在原始圖像識別中,運用了傳統(tǒng)的分類識別方法SVM和普通深度學習與遷移學習做了對比。實驗結果表明無論是圖像類型(原始圖像和灰度圖像)不同,訓練—測試形式不同,還是網絡模型不同,數(shù)據集(樹干和樹葉)不同,最終得到在小樣本數(shù)據集上,利用遷移學習得到的識別結果明顯高于前兩種識別方法。
3.4 混淆矩陣
3.4.1 樹干圖像的混淆矩陣
利用混淆矩陣對遷移學習這一方法進行分析。在混淆矩陣中,用藍色代表識別準確度,顏色越深,識別越準確。x軸表示為測試數(shù)據集,y軸表示為訓練數(shù)據集,a~j代表了10種樹干類別,具體的介紹在表1。其中80%訓練共1 600張圖片,20%測試共400張,每種樹測試圖片均為40張。如圖6(a)所示,a~j這10種樹干,其中a全部識別正確;bcdeghj識別圖片錯誤數(shù)目在10張以內;而f有23張識別正確,有1張識別為j,2張識別為d,2張識別為e,12張識別為h;i有29張識別正確,3張識別為b,1張識別為e,1張識別為h,6張為j。圖6(b)中,a和j全部正確;bcdehi錯誤在10張以內;f和g識別錯誤的圖片數(shù)目在10張以上。圖6(c)中,a和j全部識別正確;bcdefhi識別錯誤圖片數(shù)目10張以內;g有28張識別正確,有4張被識別為b,有4張被識別為c,有1張被識別為h,有3張被識別為i。這就是遷移學習在這三種網絡模型上的具體表現(xiàn),結果較為理想。雖有個別圖片識別出現(xiàn)錯誤,但是大部分圖片都被正確識別。出現(xiàn)這種錯誤的原因是不同樹干之間有相似性,例如顏色、紋理、形狀比較相像。
3.4.2 樹葉圖像的混淆矩陣
在混淆矩陣中,a~h代表了8種樹葉類別,具體介紹見表2。如圖7(a)所示,abdeg被識別正確;c有39張被識別,6張被識別為f,1張被識別為g;f有44張被識別,1張被識別為c、h有40張被識別,有3張分別被識別為a、b、c。如圖7(b)所示,a、b、d、e、g全部被識別正確,c、f、h別識別正確數(shù)目分別為37、44、38。如圖7(c)所示,a、b、d、e全部識別正確,c、f、g、h識別正確數(shù)目分別為34、41、41、42。
4 討論
在本實驗中,利用了傳統(tǒng)的SVM對樹干和樹葉進行了分類識別。雖然識別結果略高于實驗中使用的深度學習方法,主要是由于本實驗所用的樣本較少,無法滿足深度學習需要的大量樣本做支持這一條件。但是傳統(tǒng)的分類方法需要人工設定提取圖片特征。所以這種方法的性能在很大程度上取決于已經設定好的特征。而設定圖像特征本身就是一個復雜而繁瑣的過程,一旦相關的數(shù)據集發(fā)生變化時,都需要重新對其進行特征提取。此外,通過機器學習進行分類的傳統(tǒng)方法通常只能識別單一物種,如龐俊震利用圖像處理技術和手機移動端結合的方法,得到了月季花的22個特征,雖說取得了一定的成果,但是算法復雜,且對單一物種比較合適[17]。雖然神經網絡之前也被應用于圖像識別,如袁培森等人利用卷積神經網絡對菊花花型和品種進行識別,得到了較高的識別率,但他是把菊花的識別作為一個封閉的系統(tǒng),假設所有的識別結果都是菊花,該方法對其他花卉的識別會出現(xiàn)錯誤的輸出[18]。
作者選用的遷移學習方法是在了解了現(xiàn)在的深度學習之后提出的,在實驗中,選用了卷積神經網絡作為訓練模型,同樣的數(shù)據集和網絡結構下與普通深度學習和傳統(tǒng)方法SVM相比分類效果明顯。在圖片數(shù)量僅有幾千張情況下,遷移訓練過的ResNet18、Vgg16、DenseNet121三種神經網絡模型,最高識別精度樹葉達到98.20%,樹干達到92.51%。
然而,現(xiàn)階段仍然存在許多問題。首先,用于訓練的圖像是在不同條件下拍攝,例如拍攝工具不同、光照強度不同、天氣陰晴等,與相同條件下獲得圖像進行對比時,模型準確率也是大大降低。要想更好的符合實際情況,而且還要保證準確性高,則需要更多樣化的數(shù)據集做訓練。第二個問題是,無論是樹干還是樹葉,不同種類之間總會存在相似性,而同一種類之間又會存在差異性,出現(xiàn)這一問題時,不僅對最終的識別精度會產生影響,而且還會產生識別錯誤的結果。經驗證,本文中提出的方法對樹干和樹葉的識別相當適用。最后還要說明一點,在這里介紹的方法并非是取代現(xiàn)有的識別方法,而是為了彌補不足,表明這種方法的測試結果要比視覺識別更可靠。
5 結論
本文成功的將遷移學習引入具有少量樣本的樹種識別中,并與普通深度學習和傳統(tǒng)分類方法SVM作對比,通過測試集得到基于遷移學習的樹葉和樹干最高識別精度為98.20%、92.51%,比普通深度學習提高了51.69%和51.38%,比SVM分類方法提高了45.08%和43.94%,該方法使得識別精度得到很大提高。但所面臨的問題有,一是樹葉或樹干在同種類間是存在差異性,不同種類間存在相似性,在構建的混淆矩陣中已經表示出來,這會影響識別準確度。二是拍攝的樹木包含松科類,當樹葉被作為樹種特征進行識別時,松樹的松針大部分很相似,很難被作為識別特征,而且現(xiàn)在也沒有相關的研究成果。對于這兩個問題,作者將會在接下來的實驗中擬引入信息融合的方法,選取適合的網絡模型,解決這類問題。
【參 考 文 獻】
[1]賈瀟然,劉迎濤.樹種識別技術的研究進展[J].林業(yè)機械與木工設備,2009,37(9):15-19.
JIA X R, LIU Y T. Research advances in identification system of timber-producing tree species management and the development trend[J]. Forestry Machinery & Woodworking Equipment, 2009, 37(9):15-19.
[2]任洪娥,高潔,馬巖.我國木材材種識別技術的新進展[J].木材加工機械,2007,18(4):38-41.
REN H E, GAO J, MA Y. The newly evolvement of wood recognition technology in China[J]. Wood Processing Machinery, 2007, 18(4):38-41.
[3]BEECH E, RIVERS M C, OLDFIELD S, et al. GlobalTreeSearch: the first complete global database of tree species and country distributions[J]. Journal of Sustainable Forestry, 2017, 36(5):454-489.
[4]梁龍,房桂干,吳珽,等.基于支持向量機的近紅外特征變量選擇算法用于樹種快速識別[J].分析測試學報,2016,35(1):101-106.
LIANG L, FANG G G, WU H, et al. Fast identification of wood species by near infrared spectroscopy coupling with support vector machine[J]. Journal of Instrumental Analysis, 2016, 35(1):101-106.
[5]趙鵬超,戚大偉.基于卷積神經網絡和樹葉紋理的樹種識別研究[J].森林工程,2018,34(1):56-59.
ZHAO P C, QI D W. Study on tree species identification based on convolution neural network and leaf texture image[J]. Forest Engineering, 2018, 34(1):56-59.
[6]MOHANTY S P, HUGHES D P, SALATHE M. Using deep learning for image-based plant disease detection[J]. Frontiers in Plant Science, 2016, 7:1419.
[7]CARPENTIER M, GIGUERE P, GAUDREAULT J. Tree species identification from bark images using convolutional neural networks[J]. IEEE/RSJ International Conference on Intelligent Robots and Systems, 2018:1075-1081.
[8]孫俊,譚文軍,毛罕平,等.基于改進卷積神經網絡的多種植物葉片病害識別[J].農業(yè)工程學報,2017,33(19):209-215.
SUN J, TAN W J, MAO H P, et al. Recognition of multiple plant leaf diseases based on improved convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(19):209-215.
[9]侯宇青陽,全吉成,王宏偉.深度學習發(fā)展綜述[J].艦船電子工程,2017,37(4):5-9.
HOU Y Q Y, QUAN J C, WANG H W. Review of deep learning development[J]. Ship Electronic Engineering, 2017, 37(4):5-9.
[10]程玉柱,顧權,王眾輝,等.基于深度學習的木材缺陷圖像檢測方法[J].林業(yè)機械與木工設備,2018,46(8):33-36.
CHENG Y Z, GU Q, WANG Z H, et al. Wood defect image segmentation based on deep learning[J]. Forestry Machinery & Woodworking Equipment, 2018, 46(8):33-36.
[11]莊福振,羅平,何清,等.遷移學習研究進展[J].軟件學報,2015,26(1):26-39.
ZHUANG F Z, LUO P, HE Q, et al. Survey on transfer learning research[J]. Journal of Software, 2015, 26(1):26-39.
[12]LONG M S, ZHU H, WANG J M, et al. Deep transfer learning with joint adaptation networks[J]. International Conference on Machine Learning, 2016, 26(1):26-39.
[13]周飛燕,金林鵬,董軍.卷積神經網絡研究綜述[J].計算機學報,2017,40(6):1229-1251.
ZHOU F Y, JIN L P, DONG J. Review of convolutional neural network[J]. Chinese Journal of Computers, 2017, 40(6):1229-1251.
[14]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[J]. Computer Vision and Pattern Recognition, 2016:770-778.
[15]HUANG G, LIU Z, MAATEN L V D, et al. Densely connected convolutional networks[J]. Computer Vision and Pattern Recognition, 2017:2261-2269.
[16]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014.
[17]龐俊震,淮永建.基于移動端的月季花快速識別方法研究[J].計算機應用與軟件,2017,34(8):36-41.
PANG J Z, HUAI Y J. Rapid recognition approach for Chinese rose based on mobile phone[J]. Computer Applications & Software, 2017, 34(8):36-41.
[18]袁培森,黎薇,任守綱,等.基于卷積神經網絡的菊花花型和品種識別[J].農業(yè)工程學報,2018,34(5):152-158.
YUAN P S, LI W, REN S G, et al. Recognition for flower type and variety of chrysanthemum with convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(5):152-158.