朱婉雪,李仕冀,張旭博,李 洋,孫志剛,3※
(1. 中國科學院地理科學與資源研究所/生態(tài)系統(tǒng)網絡觀測與模擬重點實驗室,北京 100101;2. 中國科學院大學資源與環(huán)境學院,北京100049;3. 中科山東東營地理研究院,東營 257000)
作物長勢的快速診斷及產量的及時準確預測,可為農業(yè)經營管理、糧食政策制定提供有效支撐,是發(fā)展精準農業(yè)的迫切需求[1-2]。目前,衛(wèi)星遙感技術廣泛應用于大尺度農情監(jiān)測[3-4],對宏觀決策具有重要意義;但其存在重訪周期長、影像分辨率粗糙、混合像元、氣象條件限制等問題[5-6],對農業(yè)經營者實際作業(yè)管理的輔助效果甚微[7]。然而,無人機遙感數據具有時效高、空間分辨率高、作業(yè)成本及損耗風險低、靈活且可重復等優(yōu)點[8-10],可快速、高效獲取較大面積農田厘米級遙感影像,有效地輔助農業(yè)經營者進行作業(yè)管理與調控[11]。
無人機遙感估產主要借鑒衛(wèi)星遙感估產方法,但在遙感平臺、傳感器類型、時空分辨率等方面與衛(wèi)星遙感觀測存在顯著差異[12],故此類方法是否適用于無人機遙感研究有待驗證與改進。同時,需要將無人機遙感快速高效的特點與農業(yè)實際經營管理情況相結合,因此亟需優(yōu)選出簡單實用的無人機遙感估產方法以輔助精準農業(yè)的管理與決策。目前,基于植被指數的經驗統(tǒng)計作物估產模型被廣泛用于遙感。為提高遙感估產精度,經典的基于光學遙感的經驗統(tǒng)計方法得到了不斷改進,例如:采用非線性統(tǒng)計模型,如Mu?oz等[13]建立了產量與植被指數的Richards nonlinear回歸模型,指出該模型的預測精度高于指數模型;基于多時期遙感數據的數據融合,如Zhou等[14]建立了基于多時期遙感數據的多元線性回歸模型,指出多時期遙感估產模型的精度高于單一時期模型;加入遙感輔助信息,如土地分類圖與區(qū)域統(tǒng)計數據集[15],以提高統(tǒng)計經驗模型的可靠性與可拓展性[16];融合多源多期衛(wèi)星數據和不同波段的反射率特性,提升作物長勢診斷和估產的精度[17-18]。相比于衛(wèi)星遙感,基于無人機遙感的估產方法融入了其他輔助信息,如作物 N含量[19]、作物水分含量[20]、輻射利用效率[21]、作物高度信息,如結合LiDAR數據[22-23],高重疊率可見光圖像[24]或傾斜成像以構造3D點云[25]等方法獲取。此外,還可將遙感數據與作物生長模型結合,如Kim等[26]利用GRAMI水稻模型,結合遙感數據,對大田和區(qū)域尺度上水稻的產量進行了估算。
本研究以華北平原(中國冬小麥主要種植區(qū))典型規(guī)?;r田為對象,探索和評價基于植被指數的作物估產模型和無人機遙感平臺相結合的冬小麥估產方法和效果。首先,利用固定翼無人機平臺獲得冬小麥主要生育期的多光譜影像,結合冬小麥地面測產數據,構建基于9種典型植被指數的冬小麥產量估算經驗統(tǒng)計回歸模型;其次,確定適用于冬小麥無人機估產的最優(yōu)無人機遙感監(jiān)測時期和最適植被指數;最后,運用閾值濾波法,過濾與評價土壤噪聲對基于無人機遙感的冬小麥估產效果的影響[27],討論提升無人機遙感估產精度的方法。本研究旨在篩選最優(yōu)植被指數和最佳無人機遙感作業(yè)時期,選取最為簡便、迅速、低成本的方法,建立適宜于研究區(qū)域及周邊地區(qū)的冬小麥無人機遙感估產模型,為規(guī)模化農業(yè)經營管理提供決策輔助信息。
研究區(qū)位于山東省濱州市北部(37°34′N,118°4′E)。該區(qū)域位于黃河北側,地勢平坦開闊,為暖溫帶半濕潤季風氣候,年平均氣溫13.5 ℃,年平均降水量632.0 mm,其中7-9月為降雨集中時期。無人機作業(yè)區(qū)域及采樣測產點分布如圖1所示,位于馬坊農場內,面積約0.8 km2。作業(yè)區(qū)內種植冬小麥(10月-第二年 6月)、夏玉米(6月-9月),一年兩熟。由于該地區(qū)鹽堿化較為嚴重,且呈板塊狀,加之地面平整均勻程度不一,造成灌溉和施肥時作物吸收的水分和營養(yǎng)等存在差別,地理空間差異仍較大,導致作物長勢和產量在存在較大空間差異性。因此,具有良好梯度差異,本作業(yè)區(qū)適合進行無人機遙感試驗[28]。
本試驗采用瑞士SenseFly eBee Ag農用固定翼專業(yè)無人機遙感平臺,搭載的傳感器為MultiSPEC 4C相機。該相機共4個單獨的1.2MP傳感器,采集4個波段數據:綠(G 550 nm)、紅(R 660 nm)、紅邊(Red edge 735 nm)和近紅外波段(NIR 790 nm)。試驗安排在2016年冬小麥生長季,共進行3次無人機飛行,具體作業(yè)日期為2016年3月24日,5月16日和6月16日,分別為冬小麥返青拔節(jié)期、抽穗灌漿期和成熟期。作業(yè)當日天氣晴朗無云,作業(yè)時間主要集中在10:00-14:00期間。每次飛行前,均采集白板數據,用于后期的輻射校正。冬小麥收獲時間為2016年6月17日。收獲時,按圖1b中的測點進行采樣測產,采樣面積為1 m2,并用GPS記錄采樣樣方中心點的經緯度位置,用于后期提取無人機影像數據值。考慮到樣本的代表性與合理性,測產路線沿著田塊剖面進行,覆蓋全部研究地塊。利用Pix4D Mapper Pro 3.1.22對無人機進行輻射校正、圖像拼接與正射校正,得到空間分辨率為0.16 m的四波段正射反射率圖,投影方式為UTM/WGS84。利用ENVI5.1進行9種植被指數的計算,利用Arcgis10.2生成GPS記錄點的緩沖區(qū),裁剪為1 m×1 m的樣方,并提取出相應的植被指數數值;最后,利用R3.4.3進行建模與統(tǒng)計分析。
圖1 研究區(qū)地理位置、無人機作業(yè)田塊及采樣監(jiān)測點分布Fig.1 Location of study area, field for unmanned aerial vehicle(UAV) and sampling monitoring point distribution
1.3.1 植被指數
為了篩選出適合冬小麥無人機遙感估產的植被指數,本研究根據無人機遙感平臺搭載的傳感器通道,選擇了9種常用植被指數,計算公式如表1所示。
表1 常用植被指數Table 1 Commonly applied vegetation indices (VI)
1.3.2 冬小麥無人機遙感估產模型
考慮到無人機遙感估產方法的及時性和易操作性,本研究采用線性回歸模型,利用最小二乘法,構建不同植被指數與冬小麥產量之間的經驗統(tǒng)計模型。具體如式(1)所示。
式中a和b為待定參數,VI(vegetation index)為植被指數,t為植被指數類型。由于樣本數目較小,共 34個,故采用交叉驗證中的留一交叉驗證法(leave-one-out cross validation)對模型進行驗證。即每次選取33個數據進行建模,剩下1個數據用于驗證,重復建模34次。最后對34組模擬結果與實測結果的進行統(tǒng)計分析,評判模型估產效果。該方法每次使用盡可能多的數據進行訓練,能得到更準確的分類器,在樣本量較少的情況下非常有效[36-37]。
1.3.3 估產精度驗證
采用以下 3個指標評價模型擬合程度優(yōu)劣,即決定系數 R2,均方根誤差 RMSE(kg/hm2),平均相對誤差MRE,具體公式如式(2)、式(3)與式(4)所示。
式中i表示第i個樣本點數據,Yi為第i個樣本點的作物產量的實際測量值,kg/hm2;Ei為根據模型算出的第i個樣本點的作物產量估算值,kg/hm2;Y為實際測量的平均產量,kg/hm2;E為模型估產的平均產量,kg/hm2。
1.3.4 閾值濾波法過濾土壤背景噪聲
由于飛行高度低(約150 m),無人機遙感數據的空間分辨率較高,一般可達到厘米級;而測產樣方大小約1 m2,土壤像元可能在研究區(qū)域中占較大比重,對植被指數分析與作物估產存在較顯著影響。本研究采用閾值濾波法獲取較純凈的植被像元,通過無人機遙感影像和實地調研確定土壤和植被像元位置和對應的植被指數值,進而確定閾值。閾值的確定范圍如表 2所示。對比分析土壤像元消除前后,返青拔節(jié)期和抽穗灌漿期估產精度的差異。
表2 不同植被指數的土壤噪聲閾值設定Table 2 Threshold values for soil noise filters for different vegetation indices
為了探究不同生育期的冬小麥無人機遙感數據的估產精度,分別將冬小麥返青拔節(jié)期、抽穗灌漿期和成熟期的植被指數數據與實測單產數據進行線性建模。小麥實測產量數據顯示,不同田塊產量的空間異質性顯著。其中,最低產量為 2 329.5 kg/hm2,最高產量為6 103.5 kg/hm2。圖2a為測產樣方內小麥產量的頻數分布圖,曲線為根據樣本的均值和方差繪制的正態(tài)分布曲線。對比發(fā)現,圖中顯示小麥產量集中于5 000~6 000 kg/hm2,呈偏態(tài)分布;樣本的數值呈不同梯度分布,具有較好的代表性。圖2b為整個研究區(qū)冬小麥3個生育期的EVI2頻率分布圖,從中看出5月份的數據具有較好的代表性。
圖2 小麥產量的頻數分布與研究區(qū)EVI2的頻率分布Fig.2 Frequency distribution of wheat yield and frequency distribution of EVI2 in study area
表 3為基于無人機遙感的冬小麥抽穗灌漿期植被指數估測產量與實際產量回歸方程及對應的R2和RMSE。圖3為3個生育期訓練樣本和檢驗樣本的R2和RMSE。從圖3a和圖3b看出,基于冬小麥抽穗灌漿期的植被指數估產模型的估產精度顯著比返青拔節(jié)期和成熟期高,除紅邊波段R2為0.016,綠波段和紅波段模型R2(n=34)分別為0.54和0.62以外,其余植被指數模型的R2(n=34)均在0.65以上。圖3c和圖3d顯示,抽穗灌漿期模型的RMSE比返青拔節(jié)期和成熟期低,說明抽穗灌漿期的產量預測值與實際值的偏差最小。圖 4為基于無人機遙感的冬小麥3個生育期植被指數估測產量與實際產量比較。由圖4可知,返青拔節(jié)期和成熟期的模型預測產量集中為4 000到5 000 kg/hm2。當實測單產低于4 800 kg/hm2時,3個時期模型均出現高估現象;高于4 800 kg/hm2時,均出現低估現象。綜上,在 3個無人機飛行作業(yè)時期中,利用冬小麥抽穗灌漿期數據建立的估產模型的精度最高。
表3 基于無人機遙感的冬小麥抽穗灌漿期植被指數估測產量與實際產量回歸方程Table 3 Regression equation between estimated yield and actual yield of winter wheat during heading and filling stage based on UAV remote sensing
圖3 基于無人機遙感的3個生育期冬小麥植被指數估產模型評價Fig.3 Evaluation of winter yield estimation models based on vegetation indices from UAV remote sensing data during three growth stages
圖4 基于無人機遙感的冬小麥3個生育期植被指數估測產量與實際產量比較Fig.4 Estimated and actual yield of winter wheat based on vegetation indices from UAV remote sensing data during three growth stages
圖3 和圖4顯示,不同時期、不同植被指數的估產精度存在顯著差異。4個單一波段中,基于近紅外波段數據的估產模型在灌漿期的R2(n=34)達到0.70。將植被指數與單一波段估產模型對比,發(fā)現基于植被指數估產模型的R2比單一波段估產模型高,RMSE更低。在返青拔節(jié)期,預測精度最高的植被指數為GNDVI,其訓練樣本的R2(n=34)為0.24;在灌漿期,EVI2的R2達到0.73;其次為MSAVI2,SAVI,MTVI1,MSR和OSAVI,訓練樣本的R2均大于0.70,檢驗樣本的R2均大于0.65,RMSE也較其他植被指數小。成熟期訓練樣本和測試樣本的 R2普遍較低,約為0.20。綜上,估產模型R2最高達0.73,RMSE最低為579.93 kg/hm2,對應的植被指數為抽穗灌漿期的EVI2,估產模型為
因成熟期的估產精度最低,且葉片衰老顯著,不適宜進行估產建模,故只選取返青拔節(jié)期和抽穗灌漿期的無人機遙感數據進行處理。圖5以EVI2數據為例,為利用閾值濾波處理前后返青拔節(jié)期和抽穗灌漿期 EVI2圖像。由表4,表5和表6可知,經土壤像元過濾后,返青拔節(jié)期和抽穗灌漿期估產模型的 R2均提高,RMSE和MRE下降;在返青拔節(jié)期,過濾土壤像元對于估產模型R2的提升效果更為顯著,R2從未過濾的約0.20提升至過濾后的0.30以上,其中MSAVI2估產模型R2(n=34)提高至0.43,提升了95%。除MCARI外,抽穗灌漿期的植被指數估產模型R2和MRE改變并不顯著,但RMSE有所下降。綜上所述,土壤像元對返青拔節(jié)期的產量估算影響較大,而對抽穗灌漿期的產量估算影響甚微。未經過土壤像元過濾的抽穗灌漿期EVI2數據,也能對冬小麥產量進行較好的估算。
圖5 EVI2圖像過濾土壤像元前后對比Fig.5 Comparison of filtered/unfiltered soil pixels based on EVI2 image
表4 返青拔節(jié)期和抽穗灌漿期土壤像元過濾前后估產模型R2 (n=34)Table 4 R2 (n=34) of yield estimation models with filtered/unfiltered soil pixels during green and jointing stage and heading and filling stage
表5 返青拔節(jié)期和抽穗灌漿期土壤像元過濾前后估產模型RMSE (kg·hm–2,n=34)Table 5 RMSE (kg·hm–2,n=34) of yield estimation models with filtered/unfiltered soil pixels during green and jointing stage and heading and filling stage
表6 返青拔節(jié)期和抽穗灌漿期土壤像元過濾前后檢驗樣本估產模型MRE (n=34)Table 6 MRE (n=34) of yield estimation models with filtered/unfiltered soil pixels during green and jointing stage and heading and filling stage %
對農場尺度的小麥產量進行估算,對于小麥的生產、農場主的種植規(guī)劃等都有顯著的實際意義。為保證估產的精度,需對測產的誤差來源進行分析。本研究中,每塊田的測產樣方大小為1 m×1 m,GPS記錄的是采樣中心點的位置數據,可能存在位置漂移誤差;而在進行估產時,盡管已嚴格按照標準操作,但人工測量誤差仍難以避免,這些都將會對估產結果造成一定的影響。無人機遙感數據的空間分辨率為0.16 m,采樣樣方的大小為1 m2,測產時選取的樣方內小麥的長勢較為均勻,故本研究采取算術平均值的方法求得樣方內各植被指數值,具有一定的合理性。但由于地面空間異質性造成的空間尺度轉換的非線性問題仍舊存在,加上地物的非朗伯體特性,使得不同尺度獲得的植被光譜數據存在一定差異[38-39],今后需進一步探討地理數據的空間尺度效應。
地面空間異質性隨作物的生長階段不同而發(fā)生改變[27],因此基于作物不同生育期的植被指數估產模型的精度存在顯著差異。返青拔節(jié)期是決定穗數和粒數的關鍵時期,主要進行營養(yǎng)生長,該時期的植被指數不能反映產量形成器官的干物質積累過程,導致估產精度不高。抽穗灌漿期是冬小麥將光合作用產生的淀粉、蛋白質等有機物從營養(yǎng)器官轉移到籽粒中的階段,該時期的植被指數與最終冬小麥千粒質量密切相關[17],故此時期估產精度最高。趙文亮等的研究也證明抽穗灌漿期植被指數可直接反映小麥的最終生長狀態(tài)[40]。由于冠層葉片和莖稈的營養(yǎng)物質逐漸向籽粒轉移,葉片葉綠素含量下降,基于紅光和近紅外波段的植被指數與籽粒干物質積累程度的相關性下降,故模型精度在作物生長后期有所下降[41]。Qader等指出,若遙感監(jiān)測的并非是決定冬小麥最終產量的生長期,那么構建的模型的估產能力是不精準的[37]。在今后的研究中,將充分考慮作物營養(yǎng)生長與生殖生長的過程,利用無人機遙感監(jiān)測作物全生育期長勢,在兼顧模型的實用性前提下,提升估產模型的機理性。
此外,本研究對多生育期多種植被指數與產量進行了多元線性回歸建模,利用了全子集的方法,得到訓練樣本的R2可達到0.86,但檢驗樣本的R2只有0.28,可能是由于模型的過擬合和輸入參數的多重共線性造成。而趙文亮等的研究也指出,由于不同生長期的植被指數值本身帶有一定的誤差,多時期的數據累積可能會造成誤差的累積,反而造成模型精度下降[40]。若采用神經網絡算法,得到的檢驗樣本R2低于0.4,可能是由于樣本數量較少,而神經網絡法通常適用于大樣本數據造成。
圖4顯示,在單產低于4 800 kg/hm2時,模型出現高估現象;單產高于4 800 kg/hm2時則為低估。作物產量受到眾多因素的影響,植被指數與產量呈復雜的非線性關系。植被指數較高時,容易出現飽和現象,估產易低于實際產量;植被指數較低時,合理冠層結構有利于冠層光合作用和干物質積累,此時基于植被指數線性估產模型傾向于低估。為了突出無人機遙感估產的快速、及時的特點,因此本研究折中采用線性模型。在今后的研究中,可以考慮植被指數、冠層結構、產量形成之間的非線性關系,提升模型估產的可靠性。
4個單一波段中近紅外波段的估產精度最高,R2(n=34)在灌漿期可達到0.70。Bendig等[42]也曾指出近紅外波段用于估測作物生物量的精度較高,Houborg等[43]指出NIR在高植被覆蓋時,仍具有對LAI的變化的敏感性。本研究結果顯示,植被指數的估產精度高于單一波段。Yue等[41,44]的研究指出,運用單一波段對植被進行信息提取,存在明顯的局限性,譬如單一波段的反射率信息易收到大氣環(huán)境、植被周邊環(huán)境等影響,很難獲得真值;而植被指數一般采用差值和比值的形式,可以抵消到大部分單一波段的誤差,獲得更佳的植被信息。NDVI使用最廣,在植被覆蓋度較低的時候能夠較好指示植物長勢和生物量,但在高植被覆蓋區(qū)表現出飽和特性,指示能力下降[45]。本研究發(fā)現基于冬小麥抽穗灌漿期 EVI2的估產模型預測精度最高,R2(n=34)達到0.73。Bolton等研究表明,在非干旱地區(qū),EVI2的估產效果優(yōu)于NDVI,且對于產量差異幅度較大區(qū)域的反演效果更佳[46]。SAVI削減了土壤背景對NDVI的影響, MSAVI是對SAVI的優(yōu)化,而MSAVI2是MSAVI的拓展,其廣泛用于分析作物生長和產量的估測[47]。本研究結果也顯示,MSAVI2的預測精度高于SAVI;賀佳研究指出,MSAVI2更能消除土壤背景噪聲對冠層光譜反射率的影響[48]。以上結果,多基于衛(wèi)星遙感;而本研究基于無人機近地面遙感,發(fā)現利用冬小麥抽穗灌漿期EVI2構建的估產模型精度優(yōu)于其他植被指數。在今后的無人機遙感估產研究與應用中,針對不同區(qū)域不同作物類型,還需要進一步評估和優(yōu)選本研究論及的植被指數以及相關的遙感參數。
利用實地調研信息和先驗知識確定閾值,通過閾值濾波法可有效降低背景噪聲對估產精度的影響[49]。在冬小麥不同生育期,土壤噪聲存在顯著差異,對估產精度的影響也不盡相同。圖5、表4、表5和表6顯示,土壤像元對于返青拔節(jié)期的估產影響顯著,對抽穗灌漿期的估產影響較小。原因在于抽穗灌漿期的植被覆蓋度較高,葉面積指數達到峰值,群體冠層郁閉,感興趣區(qū)域中土壤像元較少。因此,使用未過濾土壤像元的抽穗灌漿期的無人機遙感影像,也能獲得較高的估產精度。在今后的研究中,可以考慮加入其他輔助信息提高估產精度,如利用無人機高重疊率影像建立三維曲面,進而獲得小麥冠層結構信息,然后將冠層結構信息融入到估產模型中,從而提升無人機遙感估產模型可靠性和精度[41,50]。
選取最優(yōu)植被指數和最佳無人機遙感作業(yè)時期對冬小麥種植區(qū)域的無人機遙感估產起到至關重要的作用。本研究發(fā)現,不同生長期的冬小麥無人機遙感估產模型精度存在顯著差異。其中,抽穗灌漿期模型的精度最高,其次為返青拔節(jié)期,而成熟期的估產效果最差。其次,基于最優(yōu)的無人機飛行作業(yè)時期的影像數據,即冬小麥抽穗灌漿期,運用植被指數EVI2時,估產模型模擬效果最優(yōu),R2可達 0.70。將土壤像元過濾后,返青拔節(jié)期估產模型的R2顯著提升,而抽穗灌漿期估產模型的R2未顯著提升。故使用抽穗灌漿期未過濾土壤像元的無人機遙感影像,也能獲得較高的估產精度。因此,優(yōu)化后的基于植被指數的無人機遙感估產模型,可以快速有效診斷和評估作物長勢和產量,為規(guī)模化農業(yè)種植經營提供一種快捷高效的低空管理工具。
[1] Mueller N D, Gerber J S, Johnston M, et al. Closing yield gaps through nutrient and water management[J]. Nature,2012, 490(7419): 254.
[2] Neumann K, Verburg P H, Stehfest E, et al. The yield gap of global grain production: A spatial analysis[J]. Agricultural Systems, 2010, 103(5): 316-326.
[3] 高林,楊貴軍,王寶山,等. 基于無人機遙感影像的大豆葉面積指數反演研究[J]. 中國生態(tài)農業(yè)學報,2015,23(7):868-876.Gao Lin, Yang Guijun, Wang Baoshan, et al. Soybean leaf area index retrieval with UAV(unmanned aerial vehicle)remote sensing imagery[J]. Chinese Journal of Eco-Agriculture, 2015,23(7): 868-876. (in Chinese with English abstract)
[4] Du M, Noguchi N. Multi-temporal monitoring of wheat growth through correlation analysis of satellite images,Unmanned aerial vehicle images with ground variable[J].IFAC-Papers on Line, 2016, 49(16): 5-9.
[5] Berni J, Zarcotejada P J, Suarez L, et al. Thermal and narrowband multispectral remote sensing for vegetation monitoring from an unmanned aerial vehicle[J]. IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(3):722-738.
[6] Yu N, Li L, Schmitz N, et al. Development of methods to improve soybean yield estimation and predict plant maturity with an unmanned aerial vehicle based platform[J]. Remote Sensing of Environment, 2016, 187: 91-101.
[7] Wheeler T, Von B J. Climate change impacts on global food security[J]. Science, 2013, 341(6145): 508.
[8] 李冰,劉镕源,劉素紅,等. 基于低空無人機遙感的冬小麥覆蓋度變化監(jiān)測[J]. 農業(yè)工程學報,2012,28(13):160-165.Li Bing, Liu Rongyuan, Liu Suhong, et al. Monitoring vegetation coverage variation of winter wheat by low-altitute UAV remote sensing system[J]. Transaction of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2002, 28(13): 160-165. (in Chinese with English abstract)
[9] Zhang C, Kovacs J M. The application of small unmanned aerial systems for precision agriculture: A review[J].Precision Agriculture, 2012, 13(6): 693-712.
[10] Everaerts J. The use of unmanned aerial vehicles (UAVs) for remote sensing and mapping[J]. Remote Sensing and Spatial Information Sciences, 2008,144:1187-1191.
[11] Candiago S, Remondino F, De Giglio M, et al. Evaluating multispectral images and vegetation indices for precision farming applications from UAV images[J]. Remote Sensing,2015, 7(4): 4026-4047.
[12] Tian J, Wang L, Li X, et al. Comparison of UAV and WorldView-2 imagery for mapping leaf area index of mangrove forest[J]. International Journal of Applied Earth Observation & Geoinformation, 2017, 61: 22-31.
[13] Mu?oz J D, Finley A O, Gehl R, et al. Nonlinear hierarchical models for predicting cover crop biomass using normalized difference vegetation index[J]. Remote Sensing of Environment, 2010, 114(12): 2833-2840.
[14] Zhou X, Zheng H B, Xu X Q, et al. Predicting grain yield in rice using multi-temporal vegetation indices from UAV-based multispectral and digital imagery[J]. Isprs Journal of Photogrammetry & Remote Sensing, 2017, 130: 246-255.
[15] Genovese G, Vignolles C, Negre T, et al. A methodology for a combined use of normalised difference vegetation index and CORINE land cover data for crop yield monitoring and forecasting. A case study on Spain[J]. Agronomie, 2001,21(1): 91-111.
[16] Beckerreshef I, Vermote E, Lindeman M, et al. A generalized regression-based model for forecasting winter wheat yields in Kansas and Ukraine using MODIS data[J]. Remote Sensing of Environment, 2010, 114(6): 1312-1323.
[17] Guan K, Wu J, Kimball J S, et al. The shared and unique values of optical, fluorescence, thermal and microwave satellite data for estimating large-scale crop yields[J]. Remote Sensing of Environment, 2017, 199: 333-349.
[18] Soudani K, Fran?ois C, Maire G L, et al. Comparative analysis of IKONOS, SPOT, and ETM+ data for leaf area index estimation in temperate coniferous and deciduous forest stands[J]. Remote Sensing of Environment, 2006,102(1): 161-175.
[19] Serrano L, Filella I, Pe?uelas J. Remote sensing of biomass and yield of winter wheat under different nitrogen supplies[J].Crop Science, 2000, 40(3): 723-731.
[20] Cozzolino D, Fassio A, Gimenez A. The use of near-infrared reflectance spectroscopy (NIRS) to predict the composition of whole maize plants[J]. Journal of the Science of Food &Agriculture, 2001, 81(1): 142–146.
[21] Tewes A, Schellberg J. Towards remote estimation of radiation use efficiency in maize using UAV-based low-cost camera imagery[J]. Agronomy, 2018, 8(2): 16.
[22] Luo S, Wang C, Xi X, et al. Fusion of airborne LiDAR data and hyperspectral imagery for aboveground and belowground forest biomass estimation[J]. Ecological Indicators, 2017, 73:378-387.
[23] Guo Q, Su Y, Hu T, et al. An integrated UAV-borne lidar system for 3D habitat mapping in three forest ecosystems across China[J]. International Journal of Remote Sensing,2017, 38(8-10): 2954-2972.
[24] Schirrmann M, Hamdorf A, Giebel A, et al. Regression kriging for improving crop height models fusing ultra-sonic sensing with UAV imagery[J]. Remote Sensing, 2017, 9(7):665.
[25] Chang A, Jung J, Maeda M M, et al. Crop height monitoring with digital imagery from unmanned aerial system (UAS)[J].Computers & Electronics in Agriculture, 2017, 141: 232-237.
[26] Kim M, Ko J, Jeong S, et al. Monitoring canopy growth and grain yield of paddy rice in South Korea by using the GRAMI model and high spatial resolution imagery[J].Giscience & Remote Sensing, 2017, 54: 534-551.
[27] Bendig J, Bolten A, Bennertz S, et al. Estimating biomass of barley using crop surface models (CSMs) derived from UAV-based RGB imaging[J]. Remote Sensing, 2014, 6(11):10395-10412.
[28] Roosjen P P J, Brede B, Suomalainen J M, et al. Improved estimation of leaf area index and leaf chlorophyll content of a potato crop using multi-angle spectral data – potential of unmanned aerial vehicle imagery[J]. International Journal of Applied Earth Observation & Geoinformation, 2018, 66: 14-26.
[29] Jiang Z, Huete A R, Didan K, et al. Development of a two-band enhanced vegetation index without a blue band[J].Remote Sensing of Environment, 2008, 112(10): 3833-3845.
[30] Chen J M. Evaluation of Vegetation Indices and a modified simple ratio for boreal applications[J]. Canadian Journal of Remote Sensing, 2014, 22(3): 229-242.
[31] Rondeaux G, Steven M, Baret F. Optimization of soil-adjusted vegetation indices[J]. Remote Sensing of Environment, 1996, 55: 95-107.
[32] Rouse J W, Haas R W, Schell J A, et al. Monitoring the vernal advancement and retrogradation (Greenwave effect) of natural vegetation. NASA/GSFCT Type III final report[R].Nasa, 1974.
[33] Huete A R. A soil-adjusted vegetation index (SAVI)[J].Remote Sensing of Environment, 1988, 25(3): 295-309.
[34] Haboudane D, Miller J R, Pattey E, et al. Hyperspectral vegetation indices and novel algorithms for predicting green LAI of crop canopies: Modeling and validation in the context of precision agriculture[J]. Remote Sensing of Environment,2004, 90(3): 337-352.
[35] Gitelson A A, Kaufman Y J, Merzlyak M N. Use of a green channel in remote sensing of global vegetation from EOS-MODIS[J]. Remote Sensing of Environment, 1996,58(3): 289-298.
[36] 駱社周,王成,張貴賓,等. 機載激光雷達森林葉面積指數反演研究[J]. 地球物理學報,2013,56(5):1467-1475.Luo Shezhou, Wang Cheng, Zhang Guibin, et al. Forest leaf area index (LAI) inversion using airborne LiDAR data[J].Chinese Journal of Geophysics, 2013, 56(5): 1467-1475. (in Chinese with English abstract)
[37] Qader S H, Dash J, Atkinson P M. Forecasting wheat and barley crop production in arid and semi-arid regions using remotely sensed primary productivity and crop phenology: A case study in Iraq[J]. Science of the Total Environment, 2018,613: 250-262.
[38] 李紅軍,李佳珍,雷玉平,等. 無人機搭載數碼相機航拍進行小麥、玉米氮素營養(yǎng)診斷研究[J]. 中國生態(tài)農業(yè)學報,2017,25(12):1832-1841.Li Hongjun, Li Jiazhen, Lei Yuping, et al. Diagnosis of nitrogen nutrition of winter wheat and summer corn using images from digital camera equipped on unmanned aerial vehicle[J]. Chinese Journal of Eco-Agriculture, 2017, 25(12):1832-1841. (in Chinese with English abstract)
[39] Darvishzadeh R, Matkan A A, Ahangar A D. Inversion of a radiative transfer model for estimation of rice canopy chlorophyll content using a lookup-table approach[J]. IEEE Journal of Selected Topics in Applied Earth Observations &Remote Sensing, 2012, 5(4): 1222-1230.
[40] 趙文亮,賀振,賀俊平,等. 基于MODIS NDVI的河南省冬小麥產量遙感估測[J]. 地理研究,2012,31(12):2310-2320.Zhao Wenliang, He Zhen, He Junping, et al. Remote sensing estimation for winter wheat yield in Henan based on the MODIS-NDVI data[J]. Geographical Research, 2012, 31(12):2310-2320. (in Chinese with English abstract)
[41] Yue J, Yang G, Li C, et al. Estimation of winter wheat above-ground biomass using unmanned aerial vehicle- based snapshot hyperspectral sensor and crop height improved models[J]. Remote Sensing, 2017, 9(7): 708.
[42] Bendig J, Yu K, Aasen H, et al. Combining UAV-based plant height from crop surface models, visible, and near infrared vegetation indices for biomass monitoring in barley[J].International Journal of Applied Earth Observation &Geoinformation, 2015, 39: 79-87.
[43] Houborg R, Boegh E. Mapping leaf chlorophyll and leaf area index using inverse and forward canopy reflectance modeling and SPOT reflectance data[J]. Remote Sensing of Environment, 2008, 112(1): 186-202.
[44] 王愷寧,王修信. 多植被指數組合的冬小麥遙感估產方法研究[J]. 干旱區(qū)資源與環(huán)境,2017,31(7):44-49.Wang Kaining, Wang Xiuxin, Research on winter wheat yield estimation with the multiply remote sensing vegetation index combination[J]. Journal of Arid Land Resources and Environment, 2017, 31(7): 44-49. (in Chinese with English abstract)
[45] Kross A, Mcnairn H, Lapen D, et al. Assessment of RapidEye vegetation indices for estimation of leaf area index and biomass in corn and soybean crops[J]. International Journal of Applied Earth Observation & Geoinformation,2015, 34(1): 235-248.
[46] Bolton D K, Friedl M A. Forecasting crop yield using remotely sensed vegetation indices and crop phenology metrics[J]. Agricultural & Forest Meteorology, 2013, 173(2):74-84.
[47] Xue J, Su B. Significant remote sensing vegetation indices: A review of developments and applications[J]. Journal of Sensors, 2017, 2017(1): 1-17.
[48] 賀佳. 冬小麥不同生育時期生態(tài)生理參數的高光譜遙感監(jiān)測模型[D]. 楊凌:西北農林科技大學,2015.He Jia. Monitoring Model of Ecological and Physiological Parameters of Winter Wheat Based on Hyperspectral Reflectance at Different Growth Stages[D].Yangling:Northwest Agriculture and Forestry University, 2015. (in Chinese with English abstract)
[49] Duan S B, Li Z L, Wu H, et al. Inversion of the PROSAIL model to estimate leaf area index of maize, potato, and sunflower fields from unmanned aerial vehicle hyperspectral data[J]. International Journal of Applied Earth Observations& Geoinformation, 2014, 26(26): 12-20.
[50] Geipel J, Link J, Claupein W. Combined spectral and spatial modeling of corn yield based on aerial images and crop surface models acquired with an unmanned aircraft system[J].Remote Sensing, 2014, 6(11): 10335-10355.