范宏 劉素紅 陳吉軍 沈江龍 喬雪麗 鄭江華
摘要:采用無人機獲取白喉烏頭危害草原區(qū)的1 cm空間分辨率的無人機數(shù)字正射影像,分別在5×5、10×10、20×20、40×40、80×80像素5個尺度下選取白喉烏頭和普通牧草2類訓練樣本,使用VGG16、VGG19、ResNet50等3種模型對圖像切片的特征進行學習,以獲取圖像切片的深層特征,進而實現(xiàn)對2類地物的分類提取。對比5個分割尺度下3種模型得到的分類精度,發(fā)現(xiàn)不同的分割尺度對分類精度有明顯影響,隨著分割尺度的增加分類精度呈現(xiàn)出先升高再降低的趨勢,在40×40像素尺度下3種方法都得到了最高的分類精度,分別為95.31%、96.88%、93.75%,白喉烏頭的分類驗證精度分別為86.52%、92.77%、93.81%。對分類結(jié)果進行分析發(fā)現(xiàn),在40×40像素的尺度下對應的地面實際范圍是40 cm×40 cm,與白喉烏頭的單株長寬接近,能較好地提取白喉烏頭整株的深層特征。
關鍵詞:卷積神經(jīng)網(wǎng)絡;毒害草;無人機影像;圖像識別;白喉烏頭;牧草
中圖分類號: TP391.41;S127文獻標志碼: A
文章編號:1002-1302(2021)12-0173-08
收稿日期:2020-11-06
基金項目:新疆維吾爾自治區(qū)高??蒲杏媱潱ň幪枺篨JEDU2019I010);2018年新疆治蝗滅鼠指揮辦公室委托項目。
作者簡介:范 宏(1994—),男,安徽阜陽人,碩士研究生,主要研究方向為遙感與草原災害防治。E-mail:1025288556@qq.com。
通信作者:鄭江華,博士,教授,博士生導師,主要研究方向為遙感與地理信息系統(tǒng)應用研究。E-mail:zheng_jianghua@126.com。
天然草原是發(fā)展畜牧業(yè)的基礎,近年來過度放牧和不合理開發(fā)以及氣候變化等因素,導致新疆伊犁河谷天然草地大面積退化,毒害草大量繁殖和蔓延,可食牧草生產(chǎn)力下降,加劇了草畜矛盾,嚴重影響了當?shù)匦竽翗I(yè)生產(chǎn)和草原生態(tài)平衡,毒害草已成為新疆伊犁草原的隱形殺手[1]。目前我國草原毒害草災害監(jiān)測主要依靠人工實地調(diào)查、現(xiàn)場取樣等方式,不僅耗時、費力,且存在代表性、時效性差和主觀性強等弊端,難以對毒害草的危害程度進行準確判斷和對其危害范圍進行預估[2]。
草原毒害草的識別檢測主要包括地面檢測和遙感檢測[3]。遙感技術(shù)在草原毒害草的識別上主要是依據(jù)植被的光譜特征,根據(jù)植物在紅光波段、近紅外波段、中紅外波段以及遠紅外波段對光譜的吸收反射特征來區(qū)分不同的植被進而識別出所要檢測的毒害草[4-5]。郭芬芬等使用2012年的HJ-IA衛(wèi)星超光譜成像儀(HSI)的高光譜數(shù)據(jù),在西藏申扎縣根據(jù)多種類型草地的光譜特性進行了其分布范圍的提取[6]。溫阿敏等采用GF-1衛(wèi)星WFV傳感器獲取的多光譜遙感影像結(jié)合其光譜特征對新疆伊寧縣的白喉烏頭進行識別,驗證了WFV數(shù)據(jù)在草原毒害草白喉烏頭監(jiān)測中的可行性[2]。杜欣等在深圳市東部利用高分辨率Pléiades遙感衛(wèi)星影像,結(jié)合光譜、地形及紋理信息,采用投影尋蹤學習網(wǎng)絡的方法,實現(xiàn)了植物分類[7]。
無人機技術(shù)的發(fā)展,也為毒害草的識別監(jiān)測研究提供了高精度的數(shù)據(jù)支持[8]。其中,無人機可見光遙感影像只包含了RGB 3個通道,能夠利用的光譜信息非常匱乏[9],因受限于傳感器通道數(shù),使得在利用其數(shù)據(jù)進行圖像分類時有很大困難[10]。通過對比白喉烏頭和普通牧草在可見光光譜范圍內(nèi)的光譜曲線發(fā)現(xiàn),二者在可見光波段范圍的光譜特征較為相似,加大了無人機遙感中白喉烏頭的提取難度,采用傳統(tǒng)的像素統(tǒng)計方法很難達到白喉烏頭與普通牧草的分離,會造成大量像元混分[11]。
卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,簡稱CNN)是一種能夠進行深度學習的人工神經(jīng)網(wǎng)絡系統(tǒng)[12]。和傳統(tǒng)的圖像分類方式相比,卷積神經(jīng)網(wǎng)絡能夠通過控制卷積核大小對更大范圍的圖像信息進行提取,而無須對圖像中單個像元進行信息提取,與人類的視覺神經(jīng)系統(tǒng)能夠?qū)D像進行更深層次的抽象化處理類似,進而對原始圖像進行分類得到分類結(jié)果。卷積神經(jīng)網(wǎng)絡方法相較于傳統(tǒng)神經(jīng)網(wǎng)絡使用了局部感受野和空間采樣技術(shù)以及權(quán)值共享,這樣可減少大量參數(shù),能夠更好地進行特征提取,增強了其適用性,泛化能力也更強[13]。卷積神經(jīng)網(wǎng)絡的基本網(wǎng)絡結(jié)構(gòu)可以分為輸入層、卷積層、全連接層和輸出層4部分[14]。
無人機影像數(shù)據(jù)的空間分辨率相對較高,從圖像識別角度考慮,利用深度學習對無人機影像進行特征提取和地物識別,得到了草原毒害草分布情況[15]。目標特征的提取來源于圖像信息,包括目標的光譜信息、形狀信息、紋理信息等,關鍵在于將圖像信息與目標本身的特點結(jié)合。
研究區(qū)普通牧草成片分布,白喉烏頭散布其中,其具有一定高度且存在陰影。但是白喉烏頭光譜與牧草光譜在可見光范圍內(nèi)高度重合,易混淆面狀地物目標。針對研究區(qū)內(nèi)白喉烏頭與牧草的類間邊界模糊、光譜相似等問題,本研究提出了一種基于卷積神經(jīng)網(wǎng)絡自動提取圖像切片特征對白喉烏頭和普通牧草進行區(qū)分的方法,并對識別時切片尺度大小的選擇進行了探討。首先對無人機影像按不同的切分尺度進行規(guī)則分割,得到相應的圖像切片[16],然后利用基于CNN的VGG16、VGG19、ResNet50模型[17]對圖像切片的圖像特征進行學習[18],從而實現(xiàn)對白喉烏頭與普通牧草的分類,根據(jù)試驗結(jié)果得到最佳的切分尺度。
1 研究區(qū)與數(shù)據(jù)
1.1 研究區(qū)概況
研究區(qū)為新疆那拉提草原,地處天山腹地,位于被譽為“塞外江南”的伊犁河谷東端,地理位置為85°17′~85°28′E、43°01′~43°15′N,總面積960 km2(圖1)。屬于大陸性半干旱氣候,夏季炎熱、冬天寒冷,春季氣溫升高快、秋季氣溫降低亦快,春季氣溫明顯高于冬季。該地區(qū)平均海拔1 800 m,年降水量為880 mm,年平均氣溫在 20 ℃左右。主要土壤類型有高山草甸土、山地黑鈣土、灰褐色森林土等。那拉提草原草地類型為山地高寒草甸,常見的植被有白喉烏頭(Aconitum leucostomum)、草原老鸛草(Geranium pratense)、箭 頭 唐 松 草(Thalictrum simplex)、鴨茅(Dactylis glomerata)、無芒雀麥(Bromus inermis)和巨序翦股穎(Agrostis gigantea)等[19]。
1.2 數(shù)據(jù)來源
本研究所采用的數(shù)據(jù)為大疆精靈Phantom 4 Pro V2.0型四旋翼無人機影像數(shù)據(jù),相機使用2.54 cm(CMOS)傳感器,拍攝時間為2019年7月16日,地點為新疆那拉提草原南緣,研究區(qū)域植被類型為草原和林地,地勢較為平坦。研究區(qū)無人機(UAV)影像分辨率為0.01 m,飛行高度為 30 m,共獲取2 891幅無人機影像。無人機參數(shù)與相機參數(shù)如表1所示。
2 原理與方法
2.1 網(wǎng)絡模型
本研究選用的CNN模型是在ImageNet數(shù)據(jù)集上預訓練好的VGG16、VGG19、ResNet50模型。利用SGD和AdaGrad優(yōu)化算法[20],對網(wǎng)絡參數(shù)進行微調(diào)。VGGNet網(wǎng)絡[21]是在AlexNet網(wǎng)絡[22]的設計基礎上進一步發(fā)展而來的,其主要貢獻之一是將網(wǎng)絡的深度增加到16~19層[17],并且網(wǎng)絡設計使用了非常小的 3×3 的卷積核。其中VGG16模型包含3個全連接層和13個卷積層,共16層;VGG19與VGG16結(jié)構(gòu)相似,有3個全連接層(Fully connected+ReLU)和16個卷積層(Convolution+ReLU),共19層(圖2)。
ResNet是2015年何凱明提出的CNN結(jié)構(gòu)模型,在ImageNet Large Scale Visual Recognition Challenge 2015(ILSVRC2015)會議中該方法以152層的網(wǎng)絡模型將錯誤率降低到了3.75%,并且排名第一[23]。ResNet 50是一種更加容易被優(yōu)化的模型,是基于已有訓練深度網(wǎng)絡提出的一種減輕了網(wǎng)絡訓練負擔的殘差學習框架,它可以在網(wǎng)絡深度增加的同時讓精度也得到增加[24]。ResNet模型利用層次更深的網(wǎng)絡解決了訓練誤差隨網(wǎng)絡層數(shù)的增加而增加的問題[25]。相比于VGGNet網(wǎng)絡,ResNet50包含了49個卷積層和1個全連接層,共50層,它的網(wǎng)絡結(jié)構(gòu)更為龐大(圖3)。
2.2 研究方法
本研究通過對無人機影像進行多個尺度下的規(guī)則切分,獲取多個尺度的圖像切片,然后構(gòu)建所需的數(shù)據(jù)集,包含訓練樣本集、測試樣本集、驗證數(shù)據(jù)集及白喉烏頭、普通牧草2類目標樣本(圖4)。將制作完成的數(shù)據(jù)集使用VGGNet模型和ResNet模型進行訓練,通過訓練得到各尺度下圖像切片的圖像特征,以優(yōu)化網(wǎng)絡模型;本次研究的深度卷積網(wǎng)絡選用VGG16、VGG19、ResNet50等3種深度學習模型。完成訓練之后對驗證數(shù)據(jù)集的圖像進行分類,得到分類結(jié)果,最后利用抽樣法對得到的分類結(jié)果進行精度驗證, 同時與傳統(tǒng)的2種分類方法
進行對比分析。
2.2.1 數(shù)據(jù)集構(gòu)建
白喉烏頭危害區(qū)內(nèi)的無人機影像中主要包含牧草和白喉烏頭2類地物。由于2類地物在可見光光譜范圍內(nèi)差異很小和類間邊界模糊等特點,若采用傳統(tǒng)的像元級監(jiān)督分類會造成極大的混淆;采用面向?qū)ο蟮姆诸惙椒?,很難正確地找到2類地物的邊界,分類結(jié)果也很不理想。根據(jù)2類地物的空間分布特點,結(jié)合影像的空間分辨率與地物目標的大小采用不同的切割尺度對影像進行切分。首先對影像進行目視解譯,分別選取2類地物的樣本各240個,按照3 ∶1隨機分為訓練樣本集和驗證樣本集;按照與訓練樣本集、測試樣本集對應的切割尺度對影像進行規(guī)則切分,構(gòu)成測試數(shù)據(jù)集。通過提取不同尺度下圖像切片特征對測試數(shù)據(jù)集進行識別,然后為識別后的圖像切片賦予不同的標簽,以達到對影像的分類提取。
2.2.2 分類精度驗證
通過試驗得到分類結(jié)果,對分類后的圖像采用抽樣法來進行分類精度的驗證。利用系統(tǒng)抽樣的方法進行樣本抽取[26],以保證被抽樣的樣點在圖像上能夠均勻分布。首先確定抽樣的間隔,再隨機確定1個樣本在第1段內(nèi),然后按相等間隔選取后續(xù)樣本。最后通過目視解譯對比野外實地照片和無人機影像,來確定樣本是否分類正確,再通過計算得到試驗的分類精度。
2.2.3 分類結(jié)果對比
將深度學習得到的分類結(jié)果與基于支持向量機(SVM)分類、最大似然分類2種方法的分類結(jié)果進行對比,通過人工目視解譯來判斷3種模型在5個尺度下的分類測試結(jié)果與2種監(jiān)督分類方法的正確性,找到最佳的圖像分割尺度和方法。
3 試驗結(jié)果與分析
3.1 數(shù)據(jù)集與預處理
在綜合考慮影像空間分辨率和目標地物大小的基礎上,本研究選取了共5個尺度的數(shù)據(jù)集,分別是5×5、10×10、20×20、40×40、80×80像素。5個尺度下分別建立訓練數(shù)據(jù)集、測試數(shù)據(jù)集、驗證數(shù)據(jù)集。訓練數(shù)據(jù)集和測試數(shù)據(jù)集的構(gòu)建步驟如下:首先對影像進行人工目視解譯,分別選取2類地物樣本各240個;然后通過筆者所在研究團隊研發(fā)的圖像裁剪軟件(Extract-Interface V1.0)按坐標文件進行規(guī)則裁剪;最終將得到的圖像切片按照3 ∶1隨機分為訓練樣本集和測試樣本集。驗證數(shù)據(jù)集的構(gòu)建是選取1幅較大影像,通過圖像裁剪軟件按固定尺度進行規(guī)則裁剪。由于要避免數(shù)據(jù)量過大導致測試時間過長,故采用了不同大小的影像用來構(gòu)建測試數(shù)據(jù)集。在5×5像素尺度下選取1幅500×500像素的影像,裁剪得到10 000幅圖像切片;在10×10像素尺度下則選取1幅1 000×1 000像素的影像,裁剪得到10 000幅圖像切片;在20×20、40×40、80×80像素尺度下選取1幅2 000×2 000像素的影像,裁剪分別得到 10 000、2 500、625幅圖像切片。本研究的主要目標是對不同尺度下的白喉烏頭和普通牧草2類地物進行區(qū)分,選取的訓練樣本集展示如表2所示。
3.2 結(jié)果與分析
本次研究采用5種不同分割尺度的方案,結(jié)合基于CNN的VGGNet與ResNet模型將研究區(qū)內(nèi)的白喉烏頭與普通牧草進行區(qū)分。從分類的測試精度中可以看出,基于深度CNN的自動提取圖像特征的幾種方法在提取圖像的深層信息方面具有一定優(yōu)勢,能夠更好地綜合圖像的紋理、光譜、結(jié)構(gòu)等信息,對圖像的信息提取更加全面。如表3所示,隨著分割尺度的增加,分類精度大體呈現(xiàn)先增加再減小的趨勢。
將規(guī)則分割的5個尺度的驗證數(shù)據(jù)集輸入15個通過訓練得到的優(yōu)化后的網(wǎng)絡模型,進行自動分類得到的分類結(jié)果見表4。
在40×40像素尺度下3種模型分類精度較高,VGG16、VGG19、ResNet50模型的分類精度分別為95.31%、96.88%、93.75%。分析發(fā)現(xiàn),在40×40像素的尺度下對應的地面實際范圍是40 cm×40 cm,與白喉烏頭的單株長寬接近,在訓練樣本的選擇中圖像切片恰好覆蓋整株白喉烏頭,能較好地提取整株白喉烏頭的深層特征。從表4也可以看普通牧草 白喉烏頭出,在該尺度下3個網(wǎng)絡模型提取的白喉烏頭分布效果較好,基本覆蓋所有的白喉烏頭。在5×5像素尺度下,只能得到較少的白喉烏頭和牧草的光譜特征,在信息提取時,2類地物光譜差異很小,故分類精度很低,分別只有66.97%、66.41%、62.50%;3個網(wǎng)絡模型提取的白喉烏頭分布均較為雜亂,不能很好地表示白喉烏頭的空間分布(表4)。與5×5像素相比,在10×10像素尺度下的信息稍加豐富,在分類精度上有一定提升,分別為76.56%、72.66%、82.81%,但2類地物的相似性仍然很難區(qū)分,3個網(wǎng)絡模型的提取結(jié)果依然不理想,大量的牧草被識別為了白喉烏頭。在20×20像素尺度下,樣本已經(jīng)能覆蓋正常白喉烏頭的1/4和較小白喉烏頭的一半甚至全部,2類地物在該尺度下已經(jīng)可以明顯區(qū)分,分類精度有了明顯提升,分別為86.07%、86.07%、93.44%,其中ResNet50模型所得到的精度已經(jīng)非常接近其在40×40像素尺度下的分類精度,ResNet50模型所分出的白喉烏頭已經(jīng)很接近真實的白喉烏頭分布,另外2個模型較差。在80×80像素尺度下,其分類精度分別為95.31%、94.31%、82.93%。從訓練樣本可以看出,樣本圖像切片包含了白喉烏頭和其周圍牧草的信息,有一定的信息混雜,在分類精度上VGG16和VGG19模型與上一尺度的分類精度相比變化很小,在ResNet50模型中,其精度下降較為明顯,從93.75%下降到82.93%。大部分白喉烏頭都已被識別出,但由于切割尺度問題,有些較小而孤立的白喉烏頭沒有被區(qū)分出來,同時大量的牧草也被識別為白喉烏頭。
綜上所述,模型的分類精度與其訓練樣本尺度的選擇之間可能具有較大的關聯(lián)。對分類結(jié)果分析發(fā)現(xiàn),當訓練樣本的尺度能恰好完整地包含目標地物時,可以更好地提取其深層特征,對光譜特征差異較小的地物識別,能夠達到更好的分類精度。
3.2 分類精度驗證
通過對不同尺度下分類精度的對比與分析,得到白喉烏頭識別檢測的最佳切分尺度為40×40像素,利用系統(tǒng)抽樣法對分類結(jié)果進行精度驗證。本研究將40×40像素的3個網(wǎng)絡模型對應的結(jié)果圖進行均勻采樣,采樣數(shù)均為625塊。通過與實地照片和無人機影像的對此解譯來確定樣本分類是否正確,然后統(tǒng)計得到最終分類精度。
如表5所示,使用深度學習的方法進行圖像分類可以取得很好的效果。測試階段的表現(xiàn)更加明顯,VGG16、VGG19、ResNet50的分類精度均達到了93%以上;在分類精度驗證時,可以看出白喉烏頭的分類精度分別為86.52%、92.77%、93.81%,分類效果較為理想,僅存在個別偏差;牧草的分類精度分別為78.92%、76.94%、67.61%,3種方法對牧草的分類大體正確,但在局部范圍內(nèi)存在一定偏差,原因是影像中顏色偏亮的枯黃牧草被錯分為白喉烏頭,導致牧草的分類精度偏低。由于在影像中牧草所占比例較大、白喉烏頭所占面積較小,故整體精度受牧草精度影響較大,分別為78.92%、76.94%、67.61%?;诰矸e神經(jīng)網(wǎng)絡的3種方法中,3個網(wǎng)絡提取的白喉烏頭分布一致性較高,與實際目視解譯結(jié)果相比,三者基本能夠?qū)缀頌躅^完全識別出來,基本沒有遺漏。較易產(chǎn)生混淆的是牧草中光譜反射率較高的偏黃牧草與稀疏牧草,通過人工目視解譯也有一定難度,因此驗證數(shù)據(jù)中部分牧草會被識別為白喉烏頭。由于本研究的目的是識別檢測白喉烏頭,從分類的驗證結(jié)果看白喉烏頭基本都被識別出來,分類效果較好,達到了對白喉烏頭的識別檢測目的。
4 討論與結(jié)論
為了體現(xiàn)深度學習方法在草原毒害草識別上的優(yōu)越性,將本研究分類結(jié)果與傳統(tǒng)的2種監(jiān)督分類方法進行了對比(圖5)。
通過目視解譯可以看出,基于像元統(tǒng)計的傳統(tǒng)分類方法對于光譜差異很小的地物分類效果很差,大量的牧草被錯分為白喉烏頭。其原因是牧草與白喉烏頭均為草本植物,顏色均呈綠色,目視解譯也很難對其進行區(qū)分;在影像中白喉烏頭的頂部較普通牧草偏亮,這是牧草與白喉烏頭的區(qū)分標志,但部分牧草由于枯黃或被牛羊啃食過后較為稀疏,呈現(xiàn)亮度也偏大,因此在這些區(qū)域使用任一種分類方法進行分類都有很大難度。與傳統(tǒng)的基于像元統(tǒng)計的分類方法相比,深度學習方法的分類精度明顯提高,VGG16、VGG19和ResNet50的分類精度均達到了93%以上,白喉烏頭的分類精度驗證也分別為86.52%、92.77%、93.81%,整體精度受牧草精度影響分別為78.92%、76.94%、67.61%。從圖5中可以看出白喉烏頭基本全被識別出來,能夠滿足白喉烏頭識別的精度要求。
在地物識別的圖像切割尺度選擇上,對試驗結(jié)果分析可以得出,當圖像切片恰好能完全覆蓋目標地物時,能夠最為全面地獲取目標地物的深層特征,這樣所達到的分類精度也就是最高的。但在驗證分類模型的分類精度時發(fā)現(xiàn),由于切割尺度設為與目標地物白喉烏頭尺寸一樣,在實際操作中對測試影像進行規(guī)則切割,其中會有一定量的白喉烏頭被攔腰分在2個圖像切片里,或者有1/4在1個切片里,出現(xiàn)同1個切片中有2類地物,導致二者無法得到很好的區(qū)分,即使是人工目視解譯判讀也很難給出明確的界定。這種情況下,增加1類混合地物切片,或許能夠改善分類結(jié)果,以后的研究中會著重考慮。
總體來看,深度學習方法較傳統(tǒng)方法有非常好的區(qū)分效果,錯分現(xiàn)象大量減少,較好地解決了傳統(tǒng)方法所不能完成的光譜相近地物的區(qū)分問題,實現(xiàn)了白喉烏頭與牧草較高精度的自動分類。
本研究利用深度學習的代表性模型VGG16、VGG19和ResNet50對草原毒害草的識別問題進行研究,通過與SVM和最大似然2種傳統(tǒng)圖像分類方法的結(jié)果對比,說明深度學習網(wǎng)絡可以更好地提取地物的深層特征,從而提升無人機影像分類的準確性,能夠較好地解決白喉烏頭與普通牧草在可見光范圍內(nèi)光譜相似、在傳統(tǒng)基于像元統(tǒng)計方法中難以區(qū)分的問題。
本研究提出了基于CNN的分類方法,對無人機影像中白喉烏頭和牧草進行分類,并討論了切割尺度的選擇問題,確定了最佳切分尺度。從試驗結(jié)果看,3種模型的分類精度在不同的尺度下各有優(yōu)劣,但都在40×40像素尺度下得到了最佳分類效果,分別為95.31%、96.88%、93.75%,總體趨勢呈現(xiàn)隨著切割尺度的增大分類精度先增加再減小的趨勢。故最佳的切割尺度應該選擇盡量接近被檢測目標的實際大小,這樣能夠較完整地提取圖像切片深層信息,達到較高的分類精度。
隨著草原毒害草防治工作的迫切要求和無人機監(jiān)測技術(shù)的發(fā)展,深度學習方法將在無人機草原毒害草監(jiān)測識別中發(fā)揮重要作用。今后將繼續(xù)深入開展相關研究,進一步提升草原毒害草的識別精度,為新疆草原毒害草防治提供技術(shù)支撐和相關參考。
參考文獻:
[1]李 宏,陳衛(wèi)民,陳 翔,等. 新疆伊犁草原毒害草種類及其發(fā)生與危害[J]. 草業(yè)科學,2010,27(11):171-173.
[2]溫阿敏,鄭江華,穆 晨,等. 基于GF-1WFV數(shù)據(jù)的草原毒草白喉烏頭空間分布監(jiān)測與分析[J]. 新疆農(nóng)業(yè)科學,2015,52(10):1939-1946.
[3]Felinks B,Pilarski M,Wiegleb G. Vegetation survey in the former brown coal mining area of eastern Germany by integrating remote sensing and ground-based methods[J]. Applied Vegetation Science,1998,1(2):233-240.
[4]Jia X P,Richards J A. Segmented principal components transformation for efficient hyperspectral remote-sensing image display and classification[J]. IEEE Transactions on Geoscience and Remote Sensing,1999,37(1):538-542.
[5]Nagler P L,Daughtry C S T,Goward S N. Plant litter and soil reflectance[J]. Remote Sensing of Environment,2000,71(2):207-215.
[6]郭芬芬,范建容,湯旭光,等. 基于HJ-1A高光譜數(shù)據(jù)的藏北高原草地分類方法對比[J]. 遙感信息,2013,28(1):77-82,88.
[7]杜 欣,黃曉霞,李紅旮,等. 基于投影尋蹤學習網(wǎng)絡算法的植物群落高分遙感分類研究[J]. 地球信息科學學報,2016,18(1):124-132.
[8]Chen J J,Yi S H,Qin Y,et al. Improving estimates of fractional vegetation cover based on UAV in alpine grassland on the Qinghai-Tibetan Plateau[J]. International Journal of Remote Sensing,2016,37(8):1922-1936.
[9]Walter V. Object-based classification of remote sensing data for change detection[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2004,58(3/4):225-238.
[10]易超人,鄧燕妮. 多通道卷積神經(jīng)網(wǎng)絡圖像識別方法[J]. 河南科技大學學報(自然科學版),2017,38(3):41-44.
[11]李云飛,符冉迪,金 煒,等. 多通道卷積的圖像超分辨率方法[J]. 中國圖象圖形學報,2017,22(12):1690-1700.
[12]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.
[13]Sirinukunwattana K,Raza S E A,Tsang Y W,et al. Locality sensitive deep learning for detection and classification of nuclei in routine colon cancer histology images[J]. IEEE Transactions on Medical Imaging,2016,35(5):1196-1206.
[14]段 萌,王功鵬,牛常勇. 基于卷積神經(jīng)網(wǎng)絡的小樣本圖像識別方法[J]. 計算機工程與設計,2018,39(1):224-229.
[15]韓星爍,林 偉. 深度卷積神經(jīng)網(wǎng)絡在圖像識別算法中的研究與實現(xiàn)[J]. 微型機與應用,2017,36(21):54-56.
[16]Helmy A K,EL-Taweel G S. Regular gridding and segmentation for microarray images[J]. Computers & Electrical Engineering,2013,39(7):2173-2182.
[17]Zefler M D,F(xiàn)ergus R. Visualizing and understanding convolutional networks[C]//Fleet D,Pajdla T,Schiele B,et al. Proceeding of Computer Vision—ECCV 2004. Zurich:Springs,2014:818-833.
[18]Zhou X,Sun Z P,Liu S H,et al. A method for extracting the leaf litter distribution area in forest using chip feature[J]. International Journal of Remote Sensing,2018,39(15/16):5310-5329.
[19]張鮮花,安沙舟,王顯瑞,等. 白喉烏頭種群空間分布格局初步研究[J]. 草地學報,2012,20(3):428-433.
[20]黃慧萍,吳炳方,李苗苗,等. 高分辨率影像城市綠地快速提取技術(shù)與應用[J]. 遙感學報,2004,8(1):68-74.
[21]Simonyon K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014:1-14.
[22]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.
[23]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//IEEE. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2016:770-778.
[24]王景中,楊 源,何云華. 基于多分類和ResNet的不良圖片識別框架[J]. 計算機系統(tǒng)應用,2018,27(9):100-106.
[25]陳小娥,楊薇薇. 基于深度學習的車標識別算法的研究與實現(xiàn)[J]. 長春工程學院學報(自然科學版),2017,18(2):117-120.
[26]Gundersen H J G,Jensen E B. The efficiency of systematic sampling in stereology and its prediction[J]. Journal of Microscopy,1987,147(3):229-263.