摘要:為快速識(shí)別大豆倒伏情況,準(zhǔn)確提取大豆倒伏面積,提出基于無人機(jī)遙感技術(shù)的方法對(duì)大豆倒伏情況進(jìn)行判斷。采用無人機(jī)獲取大豆鼓粒期冠層可見光(RGB)圖像及數(shù)字表面模型(DSM)圖像,提取可見光波段信息并構(gòu)建過綠植被指數(shù)(EXG)圖像,將3類特征圖像進(jìn)行圖像特征融合,得到DSM+RGB融合圖像,DSM+EXG+RGB融合圖像。利用最大似然法對(duì)4種特征融合圖像進(jìn)行監(jiān)督分類提取大豆倒伏面積,利用混淆矩陣方法驗(yàn)證各圖像分類精度。結(jié)果表明,RGB圖像、DSM圖像、DSM+RGB特征融合圖像、DSM+EXG+RGB特征融合圖像提取倒伏大豆面積的整體精度分別為78.36%、65.38%、82.84%、68.41%。Kappa系數(shù)分別為0.75、0.53、0.81、0.58,DSM+RGB特征融合圖像提取大豆倒伏面積精度最高。圖像特征融合方法可用于評(píng)估大豆倒伏情況,為快速提取大豆倒伏面積提供參考。
關(guān)鍵詞:大豆;倒伏;無人機(jī);特征融合;DSM;最大似然法
中圖分類號(hào):S24; S127" " " 文獻(xiàn)標(biāo)識(shí)碼:A" " " 文章編號(hào):2095?5553 (2024) 09?0209?07
Study on soybean lodging identification based on UAV remote sensing
Wu Yutong Zhang Wei Shi Wenqiang Li Jinyang Qi Liqiang
(1. College of Engineering, Heilongjiang Bayi Agricultural University, Daqing, 163319, China;
2. Heilongjiang Province Conservation Tillage Engineering Technology Research Center, Daqing, 163319, China;
3. Key Laboratory of Soybean Mechanization Production, Ministry of Agriculture and Rural Affairs, Daqing, 163319, China)
Abstract: To quickly identify the soybean lodging conditions, accurate extraction of the soybean lodging area, a method based on Unmanned Aerial Vehicle (UAV) remote sensing technology is proposed to judge the soybean lodging situation. Red?Green?Blue (RGB) images and digital surface model Digital Surface Model, (DSM) images of soybean drums were obtained by UAV, visible light information was extracted and Excess Green (EXG) images were constructed, by using 3 types of feature images into image features, DSM + RGB fusion images and DSM + EXG + RGB fusion images were obtained. The maximum likelihood method was used to extract the soybean lodging area, and to verify the classification accuracy of each image by using the confusion matrix method. The results showed that the overall accuracy of the lodging soybean area extracted by RGB images, DSM images, DSM + RGB feature fusion images, and DSM + EXG + RGB feature fusion images were, respectively 78.36%, 65.38%, 82.84%, 68.41%. The Kappa coefficients were 0.75, 0.53, 0.81, and 0.58, respectively, with the highest accuracy in soybean lodging area extracted from DSM + RGB feature fusion images. Image feature fusion method can be used to evaluate soybean lodging and provide a reference for rapid extraction of soybean lodging area.
Keywords: soybean; lodging; UAV; characteristic fusion; digital surface model; maximum likelihood method
0 引言
大豆倒伏情況精確獲取對(duì)于大豆災(zāi)害評(píng)估以及產(chǎn)量預(yù)測(cè)起著重要作用[1]。在鼓粒時(shí)期遭受惡劣天氣情況易發(fā)生倒伏,倒伏嚴(yán)重時(shí)會(huì)打破了原有自然形成的有序葉片空間分布,降低光合速率,增加癟粒率,百粒重下降,后期收獲時(shí)表現(xiàn)為底莢高度增加、增大機(jī)械損失,最終導(dǎo)致產(chǎn)量降低[2]。
目前,已有學(xué)者利用無人機(jī)遙感技術(shù)對(duì)不同作物倒伏情況進(jìn)行研究并取得一定進(jìn)展[3, 4]。胡琪等[5]利用無人機(jī)影像獲取小麥DSM數(shù)據(jù)對(duì)倒伏情況進(jìn)行監(jiān)測(cè),識(shí)別精度88.33%,驗(yàn)證了DSM數(shù)據(jù)可用于作物倒伏監(jiān)測(cè)。Chu等[6]利用多光譜無人機(jī)結(jié)合田間實(shí)測(cè)作物高度,實(shí)現(xiàn)了對(duì)試驗(yàn)地玉米整個(gè)生育時(shí)期長勢(shì)情況進(jìn)行監(jiān)測(cè),定量估算玉米倒伏植株數(shù)量及倒伏率,但該方法不適合大范圍農(nóng)田大豆倒伏災(zāi)害評(píng)估。Murakami等[7]以低空氣球平臺(tái)搭載攝影測(cè)量系統(tǒng)獲取蕎麥植株高度、對(duì)其倒伏程度進(jìn)行評(píng)估。Chauhan等[8]通過獲取衛(wèi)星遙感數(shù)據(jù),結(jié)合地面作物實(shí)測(cè)高度,利用偏最小二乘法對(duì)小麥倒伏情況進(jìn)行判斷,并對(duì)其倒伏程度進(jìn)行分類。慕濤陽等[9]利用改進(jìn)DeepLabV3+模型對(duì)無人機(jī)遙感影像進(jìn)行處理,對(duì)大面積水稻倒伏情況進(jìn)行判斷和識(shí)別,準(zhǔn)確率可達(dá)0.99,Kappa系數(shù)為0.98,但方法的可重復(fù)性較低。李宗南等[10]利用色彩和紋理特征對(duì)灌漿期玉米實(shí)際倒伏情況進(jìn)行評(píng)估,并對(duì)灌漿期玉米倒伏區(qū)域面積進(jìn)行計(jì)算,面積最大誤差6.9%,但田間的陰影面積會(huì)增加灰度色彩信息,導(dǎo)致模型分類時(shí)將陰影部分識(shí)別為倒伏玉米,影響分類精度。董錦繪等[11]利用最大似然法對(duì)小麥倒伏圖像進(jìn)行分類,精度最高為85.04%,并對(duì)倒伏小麥面積進(jìn)行計(jì)算,誤差為7.43%,此方法分類度依賴于圖像內(nèi)感興趣區(qū)域劃分的準(zhǔn)確度,局限于小范圍區(qū)域識(shí)別。張新樂等[12]對(duì)完熟期玉米多光譜影像進(jìn)行分析,對(duì)倒伏玉米紋理形態(tài)特征,光譜特征等重組,得到5種特征組合,采用最大似然法監(jiān)督分類,為玉米完熟期倒伏監(jiān)測(cè)提供了一種切實(shí)可行方法,此種監(jiān)督分類的方法對(duì)于特征融合后的倒伏圖像信息有更高精度,可用于特征融合后大豆倒伏信息提取。趙靜等[13]利用DSM、RGB、EXG特征融合方法對(duì)小麥倒伏情況進(jìn)行判斷并計(jì)算倒伏面積,精度為93.75%,Kappa系數(shù)為 0.87,方法融合了小麥倒伏后的多種特征,適用于倒伏后遙感特征不明顯的大豆作物倒伏信息提取。
綜上,作物倒伏識(shí)別研究主要集中在玉米、小麥、水稻等作物上,此類作物倒伏后植株顏色、高程、紋理等特征明顯,便于提取倒伏信息[14]。大豆群體發(fā)生倒伏后,倒伏植株冠層依附在未倒伏植株上,形成高度差,可用于判斷倒伏程度;倒伏大豆冠層結(jié)構(gòu)在可見光圖像中特征明顯,可用無人機(jī)可見光圖像進(jìn)行識(shí)別。為準(zhǔn)確劃分大豆倒伏情況,以大豆R6鼓粒期獲取的圖像為研究對(duì)象,以特征融合方法對(duì)大豆倒伏情況進(jìn)行判斷,在進(jìn)行大豆圖像特征融合時(shí),在其DSM+EXG圖像基礎(chǔ)上增加可見光圖像,得到DSM+RGB+EXG融合圖像。通過分析大豆倒伏后特征差異,采用最大似然法進(jìn)行監(jiān)督分類提取大豆倒伏面積,進(jìn)而快速準(zhǔn)確評(píng)估大豆倒伏情況,為大豆田間倒伏監(jiān)測(cè)提供方法。
1 材料與方法
1.1 試驗(yàn)地概況
為驗(yàn)證所提出方法能夠準(zhǔn)確識(shí)別大豆倒伏情況,于2022年8月31日在黑龍江省黑河市嫩江縣九三大豆綜合試驗(yàn)站試驗(yàn)田開展試驗(yàn)。2022年8月下旬九三地區(qū)出現(xiàn)大風(fēng)、暴雨等惡劣天氣,導(dǎo)致試驗(yàn)田大豆發(fā)生嚴(yán)重倒伏,試驗(yàn)田整體遙感圖像如圖1所示,該地塊前茬為玉米,大豆種植規(guī)模和機(jī)械化程度較高,適宜實(shí)施無人機(jī)遙感作業(yè)。種植方式采用0.65 m壟上單行的種植模式,便于不同品種大豆對(duì)照。
1.2 圖像獲取及預(yù)處理
數(shù)據(jù)獲取時(shí)期為大豆R6時(shí)期,試驗(yàn)中采用大疆精靈4多光譜版無人機(jī)作為圖像數(shù)據(jù)采集平臺(tái),分辨率為5 472像素×3 684像素,相機(jī)視場(chǎng)角為84°,通過DJI GS Pro軟件設(shè)置無人機(jī)飛行參數(shù),包括規(guī)劃航線、監(jiān)測(cè)無人機(jī)飛行姿態(tài)、采集圖像質(zhì)量,無人機(jī)續(xù)航情況等。根據(jù)試驗(yàn)田面積,在保證圖像質(zhì)量及重疊率的條件下將無人機(jī)飛行路線設(shè)置為“S”型。試驗(yàn)航向重復(fù)率設(shè)置為80%,旁向重復(fù)率設(shè)置為80%,飛行高度設(shè)置為25 m,選取大豆倒伏較多區(qū)域?yàn)樵囼?yàn)區(qū)域,數(shù)據(jù)獲取過程中鏡頭與地面垂直,拍照模式設(shè)置為等時(shí)間間隔拍攝,拍攝間隔為2 s,獲取大豆冠層RGB圖像。參照大豆種質(zhì)資源數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn),農(nóng)學(xué)倒伏程度指標(biāo),莖稈傾斜角度小于15°為1級(jí)倒伏,倒伏后植株略微傾斜,特征變化不明顯不易識(shí)別,憑借莖稈自身韌性可恢復(fù);經(jīng)過實(shí)地考察,植株傾斜角度大于15°(莖稈傾斜15°~45°之間為2級(jí)倒伏)植株冠層特征及高度會(huì)發(fā)生明顯變化,破壞作物群體結(jié)構(gòu),影響光合速率,有效結(jié)莢數(shù)減少百粒重下降,最終造成減產(chǎn)[15]。因此通過目視解譯將植株主莖傾斜角度大于15°視為倒伏大豆。
將采集的無人機(jī)圖像利用大疆智圖軟件進(jìn)行圖像拼接,獲得試驗(yàn)田RGB圖像及DSM數(shù)據(jù),利用ArcGIS軟件實(shí)現(xiàn)無人機(jī)圖像的快速融合,保證底圖以及合成后圖像效果[16, 17]。
1.3 大豆倒伏信息提取
1.3.1 大豆倒伏信息提取流程
按照如圖2所示的流程,采用無人機(jī)遙感技術(shù)對(duì)大豆倒伏情況進(jìn)行評(píng)估:利用無人機(jī)獲取試驗(yàn)田大豆冠層圖像,拼接后使用ENVI的ROI裁剪工具進(jìn)行掩膜處理,得到完整試驗(yàn)田大豆圖像,提取特征圖后,使用ArcGIS鑲嵌工具進(jìn)行特征融合,利用ENVI對(duì)融合后的圖像進(jìn)行監(jiān)督分類,計(jì)算大豆倒伏面積,利用混淆矩陣、Kappa系數(shù)對(duì)圖像融合模型進(jìn)行精度評(píng)價(jià),方法參考文獻(xiàn)[13]。
1.3.2 大豆倒伏圖像分割及特征提取
目前獲取作物DSM數(shù)據(jù)方法主要由無人機(jī)為載體,搭載激光雷達(dá)或RGB相機(jī),經(jīng)過對(duì)比不同作物DSM數(shù)據(jù)獲取精度分析,搭載激光雷達(dá)DSM數(shù)據(jù)數(shù)據(jù)獲取精度略高,但激光雷達(dá)儀器精密度較高,操作較為復(fù)雜,搭載RGB相機(jī)精度略低,但獲取DSM數(shù)據(jù)同時(shí),也獲得RGB圖像,具有良好應(yīng)用效果,更適用于農(nóng)田遙感信息獲取,故采用無人機(jī)航拍圖像中獲取DSM圖像[18, 19]。
拼接后原始圖像內(nèi)存在土壤等像元,影響分類效果,利用ENVI劃分ROI區(qū)域,保留大豆像元,利用ROI裁剪工具進(jìn)行掩膜處理,剔除試驗(yàn)田內(nèi)土壤等像元,將DSM圖像與RGB可見光圖像位置配準(zhǔn)后,利用同一ROI區(qū)域進(jìn)行DSM圖像裁剪,得到用于提取EXG的RGB特征圖像及用于特征融合的DSM特征圖像。
過綠植被指數(shù)顏色特征多用于估算作物覆蓋度和分割圖像中作物與土壤等[20]。通過ArcGIS軟件影像分析工具,利用波段提取函數(shù)提取可見光圖像3個(gè)波段數(shù)據(jù),并構(gòu)建過綠植被指數(shù)如式(1)所示。
EXG=2G-R-B[EXG=2G-R-B (1)
式中: EXG ——過綠植被指數(shù);
R ——可見光紅波段;
G ——可見光綠波段;
B ——可見光藍(lán)波段。
1.3.3 大豆倒伏圖像特征融合
部分作物如小麥倒伏后高度特征差異明顯,可以采用高度差參數(shù)對(duì)倒伏情況進(jìn)行識(shí)別判斷[21],而對(duì)于大豆這種倒伏前后差異并不明顯作物,只利用一種特征參數(shù)進(jìn)行倒伏信息提取,缺乏可靠性,需要對(duì)數(shù)據(jù)進(jìn)行多次處理分析,篩選最優(yōu)參數(shù)過程復(fù)雜,且最終獲得的分類參數(shù)往往存在分類效果不佳導(dǎo)致誤差過大等缺點(diǎn);可利用多特征融合方法,將不同圖像特征進(jìn)行融合,增強(qiáng)倒伏大豆與正常大豆之間特征變化,增大差異該方法操作過程簡單,不易受主觀因素干擾。因此采用圖像特征融合方式進(jìn)行大豆倒伏信息提取。
大豆發(fā)生倒伏后,倒伏區(qū)域內(nèi)植株原本冠層位置會(huì)發(fā)生變化,導(dǎo)致正常大豆植株與倒伏大豆冠層位置存在高度差。DSM可較好表達(dá)不同地物之間高程差異[22],提取大豆圖像DSM數(shù)據(jù)用于大豆倒伏識(shí)別,區(qū)分倒伏大豆與正常大豆。參考文獻(xiàn)[13]利用ArcGIS軟件,將得到的DSM圖像與RGB圖像進(jìn)行融合得到DSM+RGB融合圖像,并將DSM圖像、RGB圖像、EXG指數(shù)圖像三者融合在一張圖像中,得到DSM+RGB+EXG融合圖像,如圖3所示。
為保證需要融合的圖像像素位置對(duì)應(yīng),在融合前需要對(duì)三種圖像位置進(jìn)行校正。最后使用監(jiān)督分類法對(duì)濾波處理后的特征融合圖像進(jìn)行大豆倒伏信息提取。
1.3.4 樣本與分類器選擇
圖像分類器選用最大似然分類法(Maximum Like?hood Classification,MLC),遵循貝葉斯決策理論,假設(shè)所需分類的圖像數(shù)據(jù)符合正態(tài)分布,根據(jù)已知的特征類別,構(gòu)建各特征概率分布函數(shù),該方法依賴于特征劃分的準(zhǔn)確度,適用于特征明顯的特征分類[23]。
采用最大似然分類法對(duì)特征融合后的4種圖像進(jìn)行監(jiān)督分類,統(tǒng)計(jì)像素?cái)?shù)量計(jì)算試驗(yàn)田大豆倒伏面積,并利用混淆矩陣進(jìn)行模型分類精度驗(yàn)證。進(jìn)行監(jiān)督分類前,先利用ENVI軟件對(duì)四種圖像進(jìn)行感興趣區(qū)域(Region of Interest,ROI)劃分,每個(gè)圖像中按照地面特征、倒伏大豆與正常大豆特征,每個(gè)特征劃定200個(gè)感興趣區(qū)域,劃分時(shí)要保證感興趣區(qū)域大小相似,作為模型訓(xùn)練集;在每個(gè)特征200個(gè)感興趣區(qū)域中隨機(jī)選取70個(gè)感興趣區(qū)域作為模型分類精度驗(yàn)證集,驗(yàn)證圖像模型分類精度。為保證分類精度,驗(yàn)證集與訓(xùn)練集不能出現(xiàn)重復(fù)區(qū)域。
1.3.5 大豆倒伏面積計(jì)算及精度評(píng)價(jià)
目前基于無人機(jī)遙感技術(shù)獲取作物倒伏面積的方法日漸成熟,主要將圖像內(nèi)各類別像元數(shù)量換算為倒伏面積[24]。計(jì)算利用最大似然法分類后的4種圖像中倒伏大豆與非倒伏大豆像元數(shù)量,單個(gè)像元面積與區(qū)域內(nèi)像素?cái)?shù)量乘積即為該區(qū)域面積。計(jì)算如式(2)所示。
S=S1?nS=S1?n (2)
式中: S ——實(shí)際面積;
S1——單個(gè)像元面積;
n ——區(qū)域內(nèi)像素?cái)?shù)量。
對(duì)4種圖像進(jìn)行監(jiān)督分類后,使用混淆矩陣對(duì)各圖像分類結(jié)果進(jìn)行精度評(píng)估?;煜仃囃ㄟ^對(duì)圖像中預(yù)測(cè)像元的結(jié)果與實(shí)際像元結(jié)果進(jìn)行對(duì)比,統(tǒng)計(jì)模型中每一類別分類正確的像元數(shù)量及分類錯(cuò)誤的像元數(shù)量,并將各類別像元占比進(jìn)行統(tǒng)計(jì),進(jìn)而評(píng)價(jià)模型分類準(zhǔn)確性和穩(wěn)定性[25]。利用驗(yàn)證集對(duì)模型分類結(jié)果進(jìn)行驗(yàn)證,利用制圖精度和用戶精度分析四種圖像對(duì)倒伏大豆和正常大豆分類效果,Kappa系數(shù)[26]可用來檢驗(yàn)圖像中需要被分類區(qū)域與實(shí)際區(qū)域是否一致的評(píng)價(jià)性指標(biāo),可對(duì)模型分類結(jié)果進(jìn)行評(píng)估。對(duì)比分析4種圖像分類結(jié)果的總體精度和Kappa系數(shù),選取精度最高最穩(wěn)定的圖像分類模型。
2 結(jié)果與分析
2.1 倒伏提取結(jié)果分析
研究實(shí)測(cè)試驗(yàn)田總面積為5.352 hm2,大豆倒伏判斷使用的圖像其地面分辨率為每像素0.75 cm,圖像中倒伏大豆和正常大豆像素?cái)?shù)量總和為9.5×109個(gè),面積約為5.343 hm2,實(shí)測(cè)試驗(yàn)田大豆倒伏面積為2.997 hm2,正常大豆面積為2.355 hm2。表1為基于4種圖像對(duì)正常大豆、倒伏大豆面積提取結(jié)果及誤差計(jì)算,通過計(jì)算不同特征分類后像素大小及像素?cái)?shù)量,對(duì)比實(shí)測(cè)結(jié)果,基于DSM+RGB融合圖像提取大豆倒伏面積與實(shí)測(cè)值誤差最小,基于DSM圖像提取大豆倒伏面積誤差最大。
圖4為利用最大似然法對(duì)4種圖像進(jìn)行監(jiān)督分類提取大豆倒伏信息效果圖,結(jié)合分類圖像與分類結(jié)果,對(duì)比試驗(yàn)田實(shí)際考察倒伏情況分析其誤差原因,RGB圖像、DSM+RGB融合圖像提取的倒伏信息與田間實(shí)際倒伏趨勢(shì)基本一致,DSM圖像與實(shí)際倒伏情況相差較大,而試驗(yàn)田內(nèi)大豆品種不一,高度不同,DSM圖像將大豆不同品種的高度差計(jì)算為倒伏高度差,進(jìn)而將矮植株大豆識(shí)別為倒伏大豆,影響DSM圖像分類精度;可見光圖像分類精度較高原因是大豆倒伏后冠層結(jié)構(gòu)與正常冠層結(jié)構(gòu)存在差異,可用來作為判斷大豆是否倒伏的依據(jù),增加DSM參數(shù)后,增大倒伏大豆與正常大豆的特征差異,一定程度上解決倒伏大豆與矮植株大豆難以分辨問題,DSM+RGB融合圖像識(shí)別精度在RGB圖像的基礎(chǔ)上進(jìn)一步提高,主要誤差是添加DSM數(shù)據(jù)后將部分田埂土壤像元識(shí)別為倒伏區(qū)域。EXG指數(shù)將土壤與作物劃分后,存在將早熟品種大豆劃分土壤像元現(xiàn)象,融合大豆倒伏特征并不明顯,添加DSM和RGB數(shù)據(jù)后依然存在將正常矮植株大豆錯(cuò)分為倒伏大豆現(xiàn)象導(dǎo)致分類準(zhǔn)確度過低。
2.2 大豆倒伏面積提取精度驗(yàn)證及分析
基于最大似然法的不同圖像大豆倒伏面積提取的精度混淆矩陣如表2所示。通過對(duì)比制圖精度,倒伏大豆面積識(shí)別精度最高的為DSM+RGB融合圖像,精度為86.47%,RGB圖像次之,精度為81.53%。DSM圖像分類精度最低,僅為60.33%。對(duì)比正常大豆分類面積用戶精度分析,最優(yōu)的為RGB圖像,精度為84.65%,DSM+RGB融合圖像提取精度略低,精度為83.94%;DSM+RGB+EXG融合圖像和DSM圖像的正常大豆分類用戶精度均為60%左右,精度過低。對(duì)比正常和倒伏大豆不同精度分析,基于DSM+RGB圖像提取倒伏大豆倒伏信息精度優(yōu)于RGB可見光圖像。
對(duì)比不同圖像的總體精度和Kappa系數(shù)發(fā)現(xiàn),DSM圖像和DSM+RGB+EXG圖像的總體精度低,Kappa系數(shù)在0.5左右,模型不穩(wěn)定。RGB圖像總體精度78.36%,Kappa系數(shù)為0.75,融合DSM數(shù)據(jù)后,DSM+RGB融合圖像的總體精度為82.84%,Kappa系數(shù)為0.81,模型分類精度得到提升,增加DSM特征后,正常大豆與倒伏的差異性增加,可提高大豆倒伏信息提取精度。
3 討論
參考小麥倒伏識(shí)別方法,利用可見光、高程信息、過綠植被指數(shù)融合方法進(jìn)行大豆倒伏情況識(shí)別判斷及面積的提取,提取總體精度最高為82.84%,Kappa系數(shù)為0.81,但對(duì)比于趙靜等[13]利用該方法在小麥識(shí)別最高精度為93.75%,Kappa系數(shù)為0.87,可利用該方法進(jìn)行大面積大豆倒伏信息提取,但識(shí)別精度有待提升,存在以下原因影響大豆倒伏信息提取精度。
1) 分析發(fā)現(xiàn)基于DSM圖像和DSM+RGB+EXG融合圖像模型提取總體精度均為60%左右,Kappa系數(shù)均在0.5左右,說明這兩種融合方法分類提取精度低,不適用于大豆倒伏分類?;赗GB圖像和DSM+RGB融合圖像倒伏面積提取精度高,說明將RGB圖像與DSM圖像特征融合后優(yōu)勢(shì)互補(bǔ),使倒伏大豆與非正常大豆之間特征差異可較好應(yīng)用于倒伏大豆面積的提取。
2) 由于試驗(yàn)田內(nèi)存在不同品種,有小部分品種因生育期較短,提前到達(dá)成熟期,葉片脫落,地表裸露,未被剔除,影響分類精度。高程信息可作為大豆倒伏信息提取的特征,但大豆植株分支較多,倒伏后冠層錯(cuò)綜復(fù)雜,高程特征參數(shù)表現(xiàn)并不如小麥倒伏后明顯,DSM+RGB融合圖像可識(shí)別倒伏但識(shí)別精度略低。
3) 使用特征融合的方法可較好的提取大豆倒伏信息,但只使用作物表型信息和形態(tài)特征無法達(dá)到較高識(shí)別精度。大豆倒伏后冠層分支結(jié)構(gòu)變化較為明顯,可分析倒伏后大豆冠層光譜特征差異,獲取高精度大豆倒伏信息。
4 結(jié)論
1) 利用大豆倒伏后植株冠層和高度的變化特征,采用特征融合的方法將大豆冠層RGB圖像、DSM圖像、EXG圖像進(jìn)行融合,增加正常大豆與倒伏大豆特征差異,利用ENVI進(jìn)行圖像掩膜處理,利用最大似然法進(jìn)行監(jiān)督分類提取像素值,篩選出提取大豆倒伏面積精度最高的圖像融合方法,該方法可用于評(píng)估大田大豆倒伏情況。
2) 基于4種圖像大豆倒伏面積提取結(jié)果中,基于DSM+RGB行特征融合圖像提取大豆倒伏信息效果最佳,所測(cè)試驗(yàn)田地塊面積為5.343 hm2,倒伏面積為2.517 hm2,倒伏大豆占比為47%,其總體精度為82.84%,Kappa系數(shù)為0.81,可為快速提取大豆倒伏面積提供參考。
參 考 文 獻(xiàn)
[ 1 ] 胡躍. 大豆莖稈相關(guān)性狀QTL定位[D]. 雅安: 四川農(nóng)業(yè)大學(xué), 2018.
[ 2 ] 董全中. 大豆倒伏相關(guān)性狀的QTL定位[D]. 哈爾濱: 東北農(nóng)業(yè)大學(xué), 2019.
[ 3 ] 趙立新, 李繁茂, 李彥, 等. 基于無人機(jī)平臺(tái)的直立作物倒伏監(jiān)測(cè)研究展望[J]. 中國農(nóng)機(jī)化學(xué)報(bào), 2019, 40(11): 67-72.
Zhao Lixin, Li Fanmao, Li Yan, et al. Application prospect of crop lodging monitoring based on UAV platform [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(11): 67-72.
[ 4 ] 周平, 周愷, 劉濤, 等. 水稻倒伏監(jiān)測(cè)研究進(jìn)展[J]. 中國農(nóng)機(jī)化學(xué)報(bào), 2019, 40(10): 162-168.
Zhou Ping, Zhou Kai, Liu Tao, et al. Progress in monitoring research on rice lodging [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(10): 162-168.
[ 5 ] 胡琪, 武紅旗, 軒俊偉, 等. 基于無人機(jī)DSM的小麥倒伏信息提取[J]. 安徽農(nóng)業(yè)科學(xué), 2020, 48(16): 227-231.
Hu Qi, Wu Hongqi, Xuan Junwei, et al. Information extraction of wheat lodging based on DSM by UAV remote sensing [J]. Journal of Anhui Agricultural Sciences, 2020,48(16): 227-231.
[ 6 ] Chu T, Starek M J, Brewer M J, et al. Assessing lodging severity over an experimental maize (Zea mays L.) field using UAS images [J]. Remote Sensing, 2017, 9(9): 923.
[ 7 ] Murakami T, Yui M, Amaha K. Canopy height measurement by photogrammetric analysis of aerial images: Application to buckwheat (Fagopyrum esculentum Moench) lodging evaluation [J]. Computers and Electronics in Agriculture, 2012, 89: 70-75.
[ 8 ] Chauhan S, Darvishzadeh R, Boschetti M, et al. Discriminant analysis for lodging severity classification in wheat using RADARSAT-2 and Sentinel-1 data [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 164: 138-151.
[ 9 ] 慕濤陽, 趙偉, 胡曉宇, 等. 基于改進(jìn)的DeepLabV3+模型結(jié)合無人機(jī)遙感的水稻倒伏識(shí)別方法[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報(bào), 2022, 27(2): 143-154.
Mu Taoyao, Zhao Wei, Hu Xiaoyu, et al. Rice lodging recognition method based on UAV remote sensing combined with the improved DeepLabV3+ model [J]. Journal of China Agricultural University, 2022, 27(2): 143-154.
[10] 李宗南, 陳仲新, 王利民, 等. 基于小型無人機(jī)遙感的玉米倒伏面積提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2014, 30(19): 207-213.
Li Zongnan, Chen Zhongxin, Wang Limin, et al. Area extraction of maize lodging based on remote sensing by small unmanned aerial vehicle [J]. Transactions of the Chinese Society of Agricultural Engineering, 2014, 30(19): 207-213.
[11] 董錦繪, 楊小冬, 高林, 等. 基于無人機(jī)遙感影像的冬小麥倒伏面積信息提取[J]. 黑龍江農(nóng)業(yè)科學(xué), 2016(10): 147-152.
Dong Jinhui, Yang Xiaodong, Gao Lin, et al. Information extraction of winter wheat lodging area based on UAV remote sensing image [J]. Heilongjiang Agricultural Science, 2016(10): 147-152.
[12] 張新樂, 官海翔, 劉煥軍, 等. 基于無人機(jī)多光譜影像的完熟期玉米倒伏面積提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2019, 35(19): 98-106.
Zhang Xinle, Guan Haixiang, Liu Huanjun, et al. Extraction of maize lodging area in mature period based on UAV multispectral image [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(19): 98-106.
[13] 趙靜, 潘方江, 蘭玉彬, 等. 無人機(jī)可見光遙感和特征融合的小麥倒伏面積提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(3): 73-80.
Zhao Jing, Pan Fangjiang, Lan Yubin, et al. Wheat lodging area extraction using UAV visible light remote sensing and feature fusion [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(3): 73-80.
[14] Ursani A A, Kpalma K, Lelong C C D, et al. Fusion of textural and spectral information for tree crop and other agricultural cover mapping with very?high resolution satellite images [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2011, 5(1): 225-235.
[15] 周蓉. 大豆抗倒伏性評(píng)價(jià)體系的建立及主要農(nóng)藝性狀QTL定位[D]. 武漢: 華中農(nóng)業(yè)大學(xué), 2009.
[16] 周春峰. 淺談基于ArcGIS軟件的基礎(chǔ)性地理國情監(jiān)測(cè)數(shù)據(jù)生產(chǎn)[J]. 測(cè)繪與空間地理信息, 2021, 44(12): 109-110.
Zhou Chunfeng. Discussion of data production of fundamental geographic condition monitoring based on ArcGIS [J]. Geomatics amp; Spatial Information Technology, 2021, 44(12): 109-110.
[17] 李曉雙, 許言海, 周啟迪. 基于實(shí)景三維模型的DOM數(shù)據(jù)生產(chǎn)研究[J]. 測(cè)繪與空間地理信息, 2022, 45(S1): 242-244.
Li Xiaoshuang, Xu Yanhai, Zhou Qidi. Research on DOM data production based on the real scene three?dimensional models [J]. Geomatics amp; Spatial Information Technology, 2022, 45(S1): 242-244.
[18] 李超. 基于高分辨率DSM和遙感影像的建筑物提取[J]. 現(xiàn)代測(cè)繪, 2013, 36(3): 39-40.
[19] 梁永檢, 吳文志, 施澤升, 等. 基于無人機(jī)RGB遙感的甘蔗株高估測(cè)[J]. 作物雜志, 2023(1): 226-232.
Liang Yongjian, Wu Wenzhi, Shi Zesheng, et al. Estimation of sugarcane plant height based on UAV RGB remote sensing [J]. Crops, 2023(1): 226-232.
[20] 李金陽, 張偉, 康燁, 等. 基于無人機(jī)遙感技術(shù)的大豆苗數(shù)估算研究[J]. 中國農(nóng)機(jī)化學(xué)報(bào), 2022, 43(4): 83-89.
Li Jinyang, Zhang Wei, Kang Ye, et al. Research on soybean seedling number estimation based on UAV remote sensing technology [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(4): 83-89.
[21] 趙立成, 段玉林, 史云, 等. 基于無人機(jī)DSM的小麥倒伏識(shí)別方法[J]. 中國農(nóng)業(yè)信息, 2019, 31(4): 36-42.
[22] 楊衛(wèi), 劉曉陽. 利用無人機(jī)獲取林區(qū)DSM的方法[J]. 資源信息與工程, 2019, 34(6): 66-68.
[23] 汪荃, 陳軍軍. 基于Sentinel-2時(shí)序影像的水稻種植信息提取[J]. 湖北農(nóng)業(yè)科學(xué), 2022, 61(16): 175-181.
Wang Quan, Chen Junjun. Extracting rice planting information based on Sentinel-2 time series images [J]. Hubei Agricultural Sciences, 2022, 61(16): 175-181.
[24] 李宗南, 陳仲新, 任國業(yè), 等. 基于Worldview-2影像的玉米倒伏面積估算[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2016, 32(2): 1-5.
Li Zongnan, Chen Zhongxin, Ren Guoye, et al. Estimation of maize lodging area based on Worldview-2 image [J]. Transactions of the Chinese Society of Agricultural Engineering, 2016, 32(2): 1-5.
[25] 吉海彥, 任占奇, 饒震紅. 基于高光譜成像技術(shù)的不同產(chǎn)地小米判別分析[J]. 光譜學(xué)與光譜分析, 2019, 39(7): 2271-2277.
Ji Haiyan, Ren Zhanqi, Rao Zhenhong. Discriminant analysis of millet from different origins based on Hyperspectral Imaging Technology [J]. Spectroscopy and Spectral Analysis, 2019, 39(7): 2271-2277.
[26] 何海清, 嚴(yán)椰麗, 凌夢(mèng)云, 等. 結(jié)合三維密集點(diǎn)云的無人機(jī)影像大豆覆蓋度提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(2): 201-209.
He Haiqing, Yan Yeli, Ling Mengyun, et al. Extraction of soybean coverage from UAV images combined with 3D dense point cloud [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(2): 201-209.