• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      改進(jìn)U-Net 模型的保護(hù)性耕作田間秸稈覆蓋檢測(cè)

      2022-06-01 14:53:14劉媛媛周小康王躍勇于海業(yè)
      光學(xué)精密工程 2022年9期
      關(guān)鍵詞:覆蓋率秸稈像素

      劉媛媛,周小康,王躍勇,于海業(yè),庚 晨,何 銘

      (1.吉林農(nóng)業(yè)大學(xué) 信息技術(shù)學(xué)院,吉林 長(zhǎng)春 130118;2.吉林農(nóng)業(yè)大學(xué) 工程技術(shù)學(xué)院,吉林 長(zhǎng)春 130118;3.吉林大學(xué) 工程仿生教育部重點(diǎn)實(shí)驗(yàn)室,吉林 長(zhǎng)春 130025)

      1 引言

      保護(hù)性耕作是農(nóng)業(yè)生產(chǎn)中的重要環(huán)節(jié),它是一種以農(nóng)作物秸稈還田、免耕或者少耕播種為主要內(nèi)容的現(xiàn)代耕作技術(shù)體系,能夠有效減輕土壤風(fēng)蝕水蝕、增加土壤肥力和抗旱保墑能力,提高農(nóng)業(yè)生態(tài)和經(jīng)濟(jì)效益。其中,秸稈還田是保護(hù)性耕作的有效措施之一[1-8],而秸稈覆蓋率的檢測(cè)是衡量秸稈還田質(zhì)量的直接手段。為了促進(jìn)保護(hù)性耕作的實(shí)施及推廣,2021 年2 月吉林省農(nóng)業(yè)農(nóng)村廳頒布關(guān)于轉(zhuǎn)發(fā)《2021 年?yáng)|北黑土地保護(hù)性耕作行動(dòng)計(jì)劃技術(shù)指引》的通知,東北四省按照《東北黑土地保護(hù)性耕作行動(dòng)計(jì)劃》制定的秸稈覆蓋率測(cè)算標(biāo)準(zhǔn)實(shí)行還田補(bǔ)貼政策。因此,快速、準(zhǔn)確檢測(cè)秸稈覆蓋率是當(dāng)前亟待解決的問(wèn)題。

      傳統(tǒng)的秸稈覆蓋率檢測(cè)方法為人工拉繩測(cè)量,時(shí)間和人工成本大,測(cè)量效率低,難以測(cè)量面積巨大的農(nóng)田。近年來(lái),計(jì)算機(jī)視覺(jué)算法已經(jīng)成功地應(yīng)用到秸稈覆蓋檢測(cè)中[9-11]。為了提高檢測(cè)效率,本課題組提出一種基于多閾值圖像分割算法的秸稈覆蓋率檢測(cè)方法[12],但對(duì)于含有農(nóng)機(jī)和樹(shù)影干擾的田間圖像,分割效果欠佳。這些干擾因素導(dǎo)致秸稈還田圖像的分割難度增大,秸稈覆蓋率檢測(cè)的準(zhǔn)確性降低。為進(jìn)一步提高檢測(cè)效率,本課題組提出了基于語(yǔ)義分割的復(fù)雜場(chǎng)景下的秸稈檢測(cè)算法[13],該算法可以分割帶有樹(shù)影和農(nóng)機(jī)等復(fù)雜場(chǎng)景下的秸稈農(nóng)田,但存在模型訓(xùn)練時(shí)間較長(zhǎng)、收斂速度慢等問(wèn)題,樹(shù)影的去除效果仍需進(jìn)一步提升。

      針對(duì)上述問(wèn)題,本文提出了一種以U-Net[14]作為基本骨架的語(yǔ)義分割模型,能夠有效分割出樹(shù)影以及田間其他干擾因素,減少了模型參數(shù),縮短了訓(xùn)練時(shí)間,能夠更加高效地進(jìn)行秸稈覆蓋率圖像分割,使得檢測(cè)效果進(jìn)一步提高。

      2 改進(jìn)U-Net 模型框架

      2.1 模型分析

      一般情況下,實(shí)際田間場(chǎng)景比較復(fù)雜,農(nóng)田之間會(huì)設(shè)置防林帶,緊靠農(nóng)田邊緣種植樹(shù)木,在陽(yáng)光的照射下投影出面積較大的樹(shù)影,且農(nóng)田區(qū)域內(nèi)通常會(huì)有農(nóng)機(jī)、公路、植被和房屋等,如圖1所示。實(shí)際田間圖像中秸稈末端纏繞交錯(cuò),細(xì)長(zhǎng)且雜亂。由于秸稈、土壤、樹(shù)影等顏色接近,傳統(tǒng)的閾值分割方法難以區(qū)分,檢測(cè)結(jié)果誤差較大。因此,秸稈圖像分割難度大、精確度低。為了提高秸稈圖像的分割精度,本文在原始U-Net 模型的基礎(chǔ)上,提出了一種改進(jìn)的U-Net(Improved U-Net,IU-Net)模型。U-Net 是完全卷積網(wǎng)絡(luò)的經(jīng)典變體,在圖像分割應(yīng)用中具有三個(gè)優(yōu)勢(shì):一是提取全局特征和上下文信息的能力較強(qiáng);二是整個(gè)圖像可以作為輸入,直接輸出分段圖像;三是對(duì)小樣本圖像分割具有較強(qiáng)的泛化能力。

      圖1 復(fù)雜田間場(chǎng)景Fig.1 Complex field scene

      首先,IU-Net 模型使用U-net 的對(duì)稱(chēng)上下采樣結(jié)構(gòu)作為骨干網(wǎng)絡(luò)以實(shí)現(xiàn)語(yǔ)義分割;為了提高模型的特征提取能力,提出了一種復(fù)雜的卷積模塊Block 代替原始U-Net 模型中的3×3 卷積;然后,將空洞卷積[15]引入Inception 結(jié)構(gòu)[16],提出一種拓展網(wǎng)絡(luò)寬度的模塊結(jié)構(gòu)Gception,以拓寬感受野,提取高維特征;將Gception 與條形池化Strip pooling[17]一同引入卷積模塊中,并使用Sigmoid 函數(shù)將輸出轉(zhuǎn)換為注意力形式,以強(qiáng)化焦點(diǎn)特征;最后,在下采樣階段使用殘差卷積[18],在上采樣使用深度可分離卷積[19],連接Block 卷積模塊,以減輕梯度消失,減少模型參數(shù)量。

      復(fù)雜卷積模塊能夠提升模型對(duì)秸稈細(xì)節(jié)特征的提取能力;Gception 能夠提升模型對(duì)全局特征及高維特征的提取能力;注意力機(jī)制的引入能夠減輕樹(shù)影及農(nóng)機(jī)等因素對(duì)秸稈分割的干擾。因此,IU-Net 模型拓寬了網(wǎng)絡(luò)結(jié)構(gòu),能夠在不增加參數(shù)量的情況下提升網(wǎng)絡(luò)性能,從而實(shí)現(xiàn)在復(fù)雜田間場(chǎng)景下秸稈圖像的精準(zhǔn)分割。

      2.2 改進(jìn)的U-Net 模型

      IU-Net 網(wǎng)絡(luò)架構(gòu)如圖2 所示,整體呈現(xiàn)U 型結(jié)構(gòu),可分為左側(cè)編碼器Encoding 和右側(cè)解碼器Decoding 階段。與原始U-Net 不同的是,在編碼器階段附加一個(gè)三角形結(jié)構(gòu),包含最大池化和Concatenate 連接操作。圖中,每個(gè)立方體對(duì)應(yīng)一個(gè)多通道特征圖,通道的數(shù)量位于立方體頂部,特征圖尺寸位于立方體的左上邊緣。箭頭表示不同的操作,其中細(xì)長(zhǎng)空心箭頭表示復(fù)制下采樣階段的特征圖到相應(yīng)層數(shù)的上采樣階段;加號(hào)表示Concatenate 連接操作;向下的箭頭表示2×2最大池化運(yùn)算;向上的箭頭表示2×2 的上卷積操作;粗實(shí)心和空心箭頭表示將特征圖輸入復(fù)雜卷積模塊Block。彩色圖像經(jīng)過(guò)灰度處理后輸入IU-Net 模型。

      圖2 IU-Net 模型結(jié)構(gòu)Fig.2 Structure of IU-Net model

      網(wǎng)絡(luò)中的卷積操作均采用本文提出的復(fù)雜卷積模塊Block 代替原始U-Net 結(jié)構(gòu)中的3×3 卷積。在下采樣階段,使用一個(gè)3×3 殘差卷積塊與Block 模塊相連,形成Block1,每個(gè)Block1 模塊后接2×2 最大池化運(yùn)算。相對(duì)于原始U-Net 結(jié)構(gòu),卷積操作將通道數(shù)量增加一倍,而IU-Net 下采樣階段的卷積操作不改變通道大小,將未經(jīng)過(guò)卷積模塊的上層特征圖經(jīng)過(guò)2×2 最大池化后,與經(jīng)過(guò)卷積模塊的下層特征圖通過(guò)Concatenate 連接操作進(jìn)行特征融合,以此實(shí)現(xiàn)通道數(shù)量的倍增,進(jìn)行高維特征提取的同時(shí)保證了全局特征的完整性。

      在上采樣階段,使用一個(gè)深度可分離卷積塊與Block 模塊相連,形成Block2。首先進(jìn)行2×2的上卷積,將通道數(shù)量減半;其次,將特征圖與上采樣中相應(yīng)路徑的特征圖進(jìn)行Concatenate 連接;然后,通過(guò)Block2 模塊;在最后一層使用兩個(gè)3×3 卷積和一個(gè)1×1 卷積模塊減少通道數(shù)量,并將每個(gè)分量特征向量映射到所需的6 個(gè)類(lèi)中。

      3 網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化設(shè)計(jì)

      3.1 卷積模塊結(jié)構(gòu)

      由于秸稈特征復(fù)雜細(xì)小,普通的卷積結(jié)構(gòu)對(duì)于這類(lèi)特征的提取效果并不理想,導(dǎo)致秸稈精準(zhǔn)分割困難。為更好地提取秸稈的細(xì)節(jié)特征,本文對(duì)原始U-Net 的3×3 卷積塊進(jìn)行改進(jìn),設(shè)計(jì)了一種復(fù)雜的卷積模塊Block,其內(nèi)部結(jié)構(gòu)如圖3 所示。其中,W和H分別為特征圖的寬度和高度。

      在利用池化操作擴(kuò)大視野時(shí),不可避免地會(huì)加入一些無(wú)關(guān)緊要的像素區(qū)域,因此,在卷積模塊Block 中引入條紋池化結(jié)構(gòu),限制池化區(qū)域,以避免全局池化或金字塔池化帶來(lái)的無(wú)用信息及誤導(dǎo)信息。該模塊通過(guò)條紋池化結(jié)構(gòu)與Gception 結(jié)構(gòu)得到的張量進(jìn)行Concatenate 連接,后接一個(gè)使用Sigmoid 激活函數(shù)的1×1 卷積模塊,作為整個(gè)卷積模塊的輸出。

      在下采樣階段,使用殘差卷積模塊得到的特征圖作為卷積模塊Block 的輸入,以減輕復(fù)雜網(wǎng)絡(luò)梯度消失的問(wèn)題;在上采樣階段,使用深度可分離卷積模塊得到的特征圖作為卷積模塊Block輸入,以減少模型的參數(shù)量,避免復(fù)雜網(wǎng)絡(luò)帶來(lái)的計(jì)算量增加問(wèn)題。

      3.2 Gception 結(jié)構(gòu)

      針對(duì)田間圖像中秸稈特征不明顯的問(wèn)題,準(zhǔn)確分割要求網(wǎng)絡(luò)可以提取多樣的全局特征以及高維的細(xì)節(jié)特征。在特征值提取時(shí),網(wǎng)絡(luò)的寬度一定程度上決定了特征提取的多樣性,Inception結(jié)構(gòu)能夠有效拓寬網(wǎng)絡(luò),以提取高維特征。通過(guò)上述條紋池化和最大池化運(yùn)算,分別可以獲得特征圖上的高度概括特征和條形特征。為了獲得傳統(tǒng)方形大視野,通常采用增加卷積核大小的方法,但以增加參數(shù)計(jì)算量為代價(jià)。因此,本文將空洞卷積引入Inception 結(jié)構(gòu),提出一種新的Gception 結(jié)構(gòu),如圖3 所示。

      圖3 卷積模塊的內(nèi)部結(jié)構(gòu)Fig.3 Internal structure of convolution module

      在Gception 結(jié)構(gòu)中,像素對(duì)經(jīng)過(guò)兩個(gè)3×3 卷積模塊、一個(gè)3×3 卷積模塊以及空洞卷積的3 種不同操作的卷積結(jié)果進(jìn)行Concatenate 連接后,使用Sigmoid 函數(shù)對(duì)其進(jìn)行轉(zhuǎn)換并與輸入相乘,將Inception 結(jié)構(gòu)由殘差形式轉(zhuǎn)換為注意力形式,以強(qiáng)化焦點(diǎn)特征。

      空洞卷積可以在不增加參數(shù)計(jì)算量的同時(shí)獲得更大的視野,但插值次數(shù)越高,插值結(jié)果越偏離原函數(shù),出現(xiàn)龍格現(xiàn)象。為解決此問(wèn)題,本文采用高效空間金字塔空洞卷積模塊(Efficient Spatial Pyramid of Dilated Convolutions Module,ESP mod),如圖4 所示。當(dāng)需要進(jìn)行高空洞值的卷積時(shí),將相應(yīng)的低空洞值與之進(jìn)行累加,以彌補(bǔ)空洞卷積參數(shù)之間的無(wú)關(guān)聯(lián)性。本文采用擴(kuò)張率為2,4,8,16 的4 種卷積核得到的結(jié)果通過(guò)Concatenate 操作進(jìn)行特征提取。

      圖4 高效空間金字塔空洞卷積模塊Fig.4 Efficient spatial pyramid of dilated convolutions module

      3.3 注意力機(jī)制

      為更好地排除田間秸稈圖像中樹(shù)影、土壤以及農(nóng)機(jī)等干擾,強(qiáng)化秸稈的焦點(diǎn)特征,以提高網(wǎng)絡(luò)對(duì)秸稈的提取能力,本文在模型中引入了注意力機(jī)制。首先,通過(guò)一個(gè)1×1 卷積和Sigmoid 函數(shù)將原始Inception 結(jié)構(gòu)的輸出轉(zhuǎn)換為注意力參數(shù)形式;其次,將條紋池化的結(jié)果與Gception 結(jié)構(gòu)輸出的結(jié)果進(jìn)行Concatenate 連接;然后,將結(jié)果與輸入相乘,達(dá)到提取焦點(diǎn)特征的目的。注意力形式的Gception 結(jié)構(gòu)可以更完整地提取圖像中秸稈的邊緣細(xì)節(jié),其性能優(yōu)于Inception 結(jié)構(gòu)的殘差形式。

      4 實(shí) 驗(yàn)

      4.1 模型訓(xùn)練

      4.1.1 圖像采集與預(yù)處理

      本文采用DJI 大疆M200 無(wú)人機(jī)搭載X5S 云臺(tái)相機(jī),采集時(shí) 間為2021 年4 月21 日、2021 年5月5 日,采集地點(diǎn)為中國(guó)吉林省榆樹(shù)市大崗鄉(xiāng),采集范圍為(126.261 675° E,45.097 652° N),(126.287 043°E,45.101 012°N),(126.262 969°E,45.074 335°N),(126.300 194°E,45.075 098°N),采集數(shù)據(jù)的光照條件為自然光照。

      無(wú)人機(jī)按照既定的航線等高度垂直于地面勻速飛行,高度為50 m,速度為5 m/s,云臺(tái)相機(jī)鏡頭始終垂直于地面拍攝,拍攝間隔為2 s,相鄰采集圖像重復(fù)率為70%,最終得到900 張秸稈圖像。上述數(shù)據(jù)集包含農(nóng)機(jī)、植被、道路、房屋和土地等干擾信息的圖像僅為50 張,所以需要通過(guò)增加干擾信息的方式來(lái)合成新的圖像。將圖像中含有的農(nóng)機(jī)、植被、道路及房屋等干擾信息裁剪出,然后將它們添加到不含干擾信息的圖像上并做旋轉(zhuǎn)、縮放等操作,通過(guò)以上方法得到了600 張包含多類(lèi)別干擾信息的圖像。

      對(duì)秸稈圖像數(shù)據(jù)集的預(yù)處理操作分為三步。首先將圖像內(nèi)容分為六類(lèi)并標(biāo)注,針對(duì)秸稈復(fù)雜的細(xì)節(jié),采用Photoshop 軟件中通道摳圖的方法進(jìn)行標(biāo)注,常規(guī)秸稈的曲線值為67/0.92/14,利用藍(lán)色通道調(diào)整圖像色階,將原始圖像轉(zhuǎn)為灰度圖像保存。再將閾值設(shè)置為25,轉(zhuǎn)為二值圖像。通道摳圖可以大致分割出秸稈的輪廓特征,然后再通過(guò)像素工具筆進(jìn)行手動(dòng)注釋和修復(fù)完整秸稈和土壤的細(xì)節(jié),標(biāo)注出真實(shí)的秸稈和土壤。秸稈區(qū)域的像素值為1,背景像素為0。再對(duì)樣本圖像中其他干擾物體進(jìn)行手動(dòng)標(biāo)注。其次,將標(biāo)記好的圖像生成npy 格式類(lèi)型的文件,以備模型訓(xùn)練和測(cè)試。最后,將1 500 張圖像隨機(jī)打亂并劃分為1 200 張訓(xùn)練集圖像、150 張驗(yàn)證集圖像和150 張測(cè)試集圖像,各數(shù)據(jù)集之間相互獨(dú)立,無(wú)重復(fù)樣本。

      4.1.2 交叉熵?fù)p失函數(shù)

      本文在模型訓(xùn)練時(shí)選用的損失函數(shù)為交叉熵?fù)p失函數(shù)[20]。計(jì)算方法如下所示:

      其中:M為類(lèi)別數(shù);yi,c為符號(hào)函數(shù),若第i個(gè)樣本的真實(shí)類(lèi)別等于c,則取1,否則取0;pi,c為第i個(gè)樣本的屬于類(lèi)別c的預(yù)測(cè)概率。交叉熵函數(shù)可以準(zhǔn)確得到不同模型預(yù)測(cè)效果的差異。

      4.1.3 訓(xùn)練過(guò)程

      從訓(xùn)練集中隨機(jī)選擇4 張圖像組成一組,并輸入到網(wǎng)絡(luò)以進(jìn)行前向傳播以預(yù)測(cè)像素類(lèi)別。將模型輸出的分割圖像與標(biāo)簽文件進(jìn)行比對(duì)以計(jì)算損失函數(shù)。采用隨機(jī)梯度下降方法進(jìn)行向后學(xué)習(xí),確定最佳網(wǎng)絡(luò)參數(shù):初始學(xué)習(xí)率為1×e-4,衰減系數(shù)為0.5。當(dāng)損失函數(shù)曲線匯聚和穩(wěn)定時(shí),停止訓(xùn)練并保存訓(xùn)練模式。隨著迭代次數(shù)的增加,損失函數(shù)值逐漸下降,準(zhǔn)確性逐漸提高。

      如圖5 所示,模型在最終迭代的損失函數(shù)值為0.216,從第97 次迭代開(kāi)始,后一次迭代的損失函數(shù)值與前一次迭代損失函數(shù)值之間的差值已經(jīng)小于0.001,損失函數(shù)圖像的斜率趨近為0,表明模型從第97 次迭代開(kāi)始趨于收斂。在訓(xùn)練初期,損失函數(shù)通過(guò)學(xué)習(xí)快速地降低,表明模型處于學(xué)習(xí)狀態(tài);在訓(xùn)練中期,從第97 次迭代開(kāi)始,模型在訓(xùn)練集中的損失函數(shù)曲線趨于穩(wěn)定,表明該模型處于逐漸收斂的狀態(tài);在訓(xùn)練后期,第150~200 次迭代期間,模型在訓(xùn)練集的損失函數(shù)曲線已經(jīng)保持平穩(wěn),表明模型已經(jīng)穩(wěn)定收斂。

      圖5 訓(xùn)練過(guò)程的損失函數(shù)值Fig.5 Plot of loss value during training

      4.1.4 訓(xùn)練超參數(shù)設(shè)置

      (1)優(yōu)化器:Adam;

      (2)學(xué)習(xí)率(learning-rate):初始學(xué)習(xí)率為1×e-4,衰減系數(shù)為0.5,最小值為1×e-8;

      (3)批量大小(batch size):2;

      (4)訓(xùn)練迭代周期(epochs):200;

      (5)每周期步數(shù)(step per epoch):300。

      4.2 算法性能對(duì)比實(shí)驗(yàn)

      算法處理計(jì)算機(jī)配置為:3.02 GHz Inter(R)Core(TM)i7-8700 處理器、16 GB內(nèi)存、NVIDIA GeForce GTX 1080顯卡;Windows10專(zhuān)業(yè)版操作系統(tǒng),Pyhon3.6、TensorFlow10、Keras 環(huán)境下進(jìn)行訓(xùn)練和仿真實(shí)驗(yàn)。

      4.2.1 評(píng)價(jià)指標(biāo)

      為量化分析模型性能,本文采用語(yǔ)義分割的標(biāo)準(zhǔn)化評(píng)價(jià)指標(biāo)衡量模型在驗(yàn)證集與測(cè)試集的表現(xiàn),主要包括平均交并比(Mean Intersection Over Union,mIoU)[21]和平均像素識(shí)別準(zhǔn)確率(Mean Pixel Accuracy,mPA)[21]。mIoU 用于評(píng)價(jià)模型總體目標(biāo)區(qū)域的分割準(zhǔn)確度,是預(yù)測(cè)區(qū)域與真實(shí)區(qū)域在像素層面的交集和并集之比,反映兩者之間的重合程度,定義如下:

      其中:TP表示預(yù)測(cè)正確的秸稈像素?cái)?shù)量,F(xiàn)P是將背景預(yù)測(cè)為秸稈的像素?cái)?shù)量,TN為預(yù)測(cè)正確的背景像素?cái)?shù)量,F(xiàn)N是將秸稈預(yù)測(cè)為背景的像素?cái)?shù)量。

      mPA 表示2 個(gè)預(yù)測(cè)類(lèi)別的平均像素識(shí)別準(zhǔn)確率,是評(píng)價(jià)模型像素預(yù)測(cè)精度的主要指標(biāo),表示全部類(lèi)別中正確預(yù)測(cè)的像素平均比例,定義如下:

      4.2.2 算法對(duì)比

      本文采用不同算法對(duì)測(cè)試集中的圖像進(jìn)行了分割和分析,評(píng)估指標(biāo)包括mPA,mIoU 和參數(shù)量Parameters。

      實(shí)驗(yàn)中,所有對(duì)比算法的迭代次數(shù)均設(shè)置為200。本文所提算法IU-Net 在第97 次迭代開(kāi)始收斂,在訓(xùn)練后期平穩(wěn)收斂。對(duì)比算法中Res-net未達(dá)到收斂狀態(tài),其他算法均達(dá)到收斂狀態(tài)。由此表明對(duì)于秸稈圖像的訓(xùn)練過(guò)程,Res-net 模型相對(duì)于其他對(duì)比模型收斂速度稍慢。從圖6 中可看出,本文所提算法IU-Net 最終迭代時(shí)的mIoU 為80.05%,改進(jìn)前算法 UNET 的 mIoU 為76.61%,PSP-Net[22],Link-net[23],Res-net 和DSRA-Unet 的mIoU 分別為69.10%,63.45%,60.34%,66.56%。

      圖6 不同算法的驗(yàn)證集測(cè)試結(jié)果Fig.6 Validation set test results of different algorithms

      將本文提出的算法與其他算法進(jìn)行比較,結(jié)果如表1 所示??梢钥闯?,U-Net 模型在驗(yàn)證集上的mIoU 為76.61%,mPA 為89.23%,但是模型參數(shù)略大;Link-Net 在該數(shù)據(jù)集上的性能表現(xiàn)一 般;DSRA-Unet[13]為使用深度可分離卷積的U-Net,其深度和卷積核尺寸均較小,最終mIoU為66.56,mPA 為89.52%;PSP-Net 采用金字塔池模塊,增大了特征提取能力,使得mIoU 提高至69.10%,mPA 為83.92%;Res-Net[18]上 的mIoU在最終迭代時(shí)達(dá)到60.34%,結(jié)果略低于其他對(duì)比算法,表明Res-Net 模型不太適用于秸稈圖像分割;DE-GWO 為傳統(tǒng)閾值分割算法[12],它對(duì)含陰影等的復(fù)雜場(chǎng)景的檢測(cè)效果有限,mIoU 為72.50%,mPA 為85.37%。IU-Net 的驗(yàn)證集測(cè)試結(jié)果的mIoU 為80.05%,mPA 為91.20%,優(yōu)于相同訓(xùn)練條件下其他算法的檢測(cè)結(jié)果,具有最高的mIoU 和mPA,能夠保證良好的泛化能力。

      表1 算法性能比較Tab. 1 Algorithm performance comparison

      IU-Net 模型的訓(xùn)練集和測(cè)試集的平均交并比、平均像素識(shí)別準(zhǔn)確度和損失函數(shù)曲線如圖7所示。隨著迭代次數(shù)的增加,模型的損失函數(shù)值逐漸下降,平均像素識(shí)別準(zhǔn)確率和平均交并比逐漸升高。在訓(xùn)練的中后期,第150~200 次迭代期間,模型在訓(xùn)練集和驗(yàn)證集的損失函數(shù)曲線已經(jīng)保持平穩(wěn),表明IU-Net 模型已經(jīng)穩(wěn)定收斂。在最終迭代時(shí),模型的平均交并比為80.05%,平均像素識(shí)別準(zhǔn)確率為91.20%,損失函數(shù)值為0.216,優(yōu)于其他對(duì)比算法。

      圖7 改進(jìn)的U-Net 語(yǔ)義分割模型的訓(xùn)練集和驗(yàn)證集測(cè)試結(jié)果Fig.7 Test results of improved U-Net semantic segmentation model on training and validation sets

      4.2.3 消融實(shí)驗(yàn)

      為了研究IU-Net 算法中各個(gè)模塊的作用,設(shè)計(jì)了4 個(gè)不同的網(wǎng)絡(luò)進(jìn)行效果對(duì)比,實(shí)驗(yàn)結(jié)果如表2 所示。第1個(gè)是U-Net 網(wǎng)絡(luò),其mIoU 為76.61%;第2 個(gè)是U-Net 網(wǎng)絡(luò)與改進(jìn)的卷積塊的結(jié)合,其mIoU 為78.58%;第3 個(gè)是U-Net 與改進(jìn)注意力機(jī)制結(jié)合,其mIoU 為79.69%;第4 個(gè)是U-Net 與改進(jìn)的卷積塊和注意力機(jī)制結(jié)合。從表中可以看出,引入改進(jìn)的卷積塊和注意力機(jī)制后mIoU 和mPA 有了進(jìn)一步的提升,可以很好地平衡參數(shù)量和精度,mIoU 最高可達(dá)80.05%。

      表2 消融實(shí)驗(yàn)結(jié)果Tab. 2 Ablation experiments results

      5 秸稈覆蓋率檢測(cè)

      5.1 評(píng)價(jià)指標(biāo)

      為了更好地評(píng)價(jià)秸稈的覆蓋準(zhǔn)確率,本文使用預(yù)測(cè)秸稈覆蓋率RSCP、實(shí)際秸稈覆蓋率RSCT和秸稈覆蓋率誤差ESCR等來(lái)衡量算法性能[13],其表達(dá)式分別為:

      其中:H為圖片高度;W為圖片寬度;Pp為預(yù)測(cè)的秸稈像素點(diǎn)個(gè)數(shù);Pt為真實(shí)的秸稈像素點(diǎn)個(gè)數(shù)。

      5.2 秸稈圖像檢測(cè)

      在不同場(chǎng)景下,IU-Net 算法以及其他算法的秸稈檢測(cè)結(jié)果如圖8 所示(彩圖見(jiàn)期刊電子版)。其中,白色代表秸稈,紅色代表房屋,綠色代表植被,藍(lán)色代表馬路,黃色代表農(nóng)機(jī),黑色代表土壤。

      圖8 田間秸稈圖像分割效果Fig.8 Segmentation result of field straw images

      樣本1 是田間的常見(jiàn)場(chǎng)景,僅包含馬路和植被,由圖可以看出PSP-Net 檢測(cè)效果一般,不能明確分割出秸稈區(qū)域,Res-Net 對(duì)于田間場(chǎng)景的分割出現(xiàn)大量誤判。樣本2 是含有少量樹(shù)影的場(chǎng)景,可以看出Link-Net 對(duì)陰影遮蓋的秸稈區(qū)域檢測(cè)效果一般,DSRA-Unet 則可以檢測(cè)出小部分被陰影遮蓋的秸稈區(qū)域。樣本3 是含有大量樹(shù)影的農(nóng)田場(chǎng)景,可以看出其他方法均出現(xiàn)了較大面積的誤判,尤其是在道路、植被和樹(shù)影周?chē)?,而IU-Net 則可以排除出這些干擾信息,提高秸稈覆蓋率的檢測(cè)精度。

      5.3 秸稈覆蓋率檢測(cè)

      為了測(cè)試IU-Net 算法在秸稈分割中的檢測(cè)性能,本文使用7 種算法對(duì)19 幅田間圖像進(jìn)行了分割和檢測(cè),各算法得到的秸稈覆蓋率預(yù)測(cè)值如表3 所示。其中,通過(guò)式(5)計(jì)算對(duì)比算法及本文提出算法的分割圖像的秸稈覆蓋率預(yù)測(cè)值,通過(guò)式(6)計(jì)算秸稈覆蓋率真實(shí)值,最后通過(guò)式(7)得到覆蓋率檢測(cè)誤差。

      在19 幅田間圖像秸稈覆蓋率檢測(cè)實(shí)驗(yàn)中,將表3 中最接近真實(shí)值的結(jié)果用粗體示意。IU-Net算法在15 幅圖像上的秸稈覆蓋率檢測(cè)結(jié)果最接近真實(shí)值,表現(xiàn)最佳;原始U-Net 算法得到的結(jié)果有2 次最接近真實(shí)值,表現(xiàn)次之;DSRA-Net 與DE-GWO 都有1 次最接近真實(shí)值,表現(xiàn)再次之。

      表3 秸稈覆蓋率檢測(cè)結(jié)果Tab. 3 Results of straw coverage rate detection

      為進(jìn)一步統(tǒng)計(jì)實(shí)驗(yàn)結(jié)果,將各算法在19 幅圖像上的誤差取平均值,得到平均秸稈覆蓋率誤差(Average of Straw Coverage Rate Error,AVGSCRE),并且統(tǒng)計(jì)單幅圖像的平均運(yùn)行時(shí)間(Singleimage Average Running Time,SART),通過(guò)上述兩個(gè)參量評(píng)估秸稈覆蓋率檢測(cè)效果,如表4所示。

      表4 秸稈覆蓋率檢測(cè)評(píng)估結(jié)果Tab. 4 Evaluation results of straw coverage rate detection

      檢測(cè)結(jié)果表明,PSP-Net 不適用于秸稈圖像的分割,大量的秸稈未被檢測(cè)出,其檢測(cè)結(jié)果誤差較大;Res-Net 的結(jié)果圖中大面積的土壤被誤判為秸稈,導(dǎo)致其檢測(cè)結(jié)果誤差較大,因此不適用于秸稈圖像的精準(zhǔn)分割;U-net,Link-Net,DSRA-Unet,DE-GWO 算法對(duì)秸稈覆蓋率檢測(cè)得到的平均誤差分別為3.80%,2.40%,2.00%,2.90%,均控制在4%以內(nèi),單幅圖像的平均運(yùn)行時(shí)間分別為1.00,0.90,1.90,2.00 s。本文所提算法的平均秸稈覆蓋率檢測(cè)誤差為0.80%,單幅圖像的平均運(yùn)行時(shí)間為0.75 s。與其他算法相比,本文方法得到的平均秸稈覆蓋率檢測(cè)誤差更低,單幅圖像的運(yùn)行速度更快,能夠更精準(zhǔn)、快速地檢測(cè)秸稈覆蓋率,從而更高效地衡量秸稈的還田質(zhì)量。綜上所述,IU-Net 模型的分割結(jié)果最優(yōu),能夠保障特征提取的有效性和全局特征的完備性,有效剔除樹(shù)影以及田內(nèi)其他干擾因素。

      6 結(jié)論

      為了適應(yīng)保護(hù)性耕作還田監(jiān)測(cè)的技術(shù)需求,本文提出了一種改進(jìn)的U-Net 語(yǔ)義分割算法對(duì)秸稈覆蓋率進(jìn)行檢測(cè)。通過(guò)Gception 在不增加計(jì)算量的同時(shí)拓寬視野,獲取高維特征;通過(guò)引入注意力機(jī)制提升對(duì)秸稈細(xì)節(jié)的關(guān)注,強(qiáng)化焦點(diǎn)特征;通過(guò)復(fù)雜卷積模塊保證全局特征的完備性和特征提取的有效性。在自標(biāo)注田間秸稈圖像數(shù)據(jù)集上進(jìn)行測(cè)試,結(jié)果表明,IU-Net 模型在保護(hù)性耕作田間秸稈圖像上的平均像素識(shí)別準(zhǔn)確率為91.20%,對(duì)比關(guān)閉注意力機(jī)制模塊的算法得到的平均像素識(shí)別準(zhǔn)確率提升1.75%;對(duì)比U-Net,PSP-Net,Link-Net,Res-Net,DSRA-Unet和DE-GWO 得到的平均像素識(shí)別準(zhǔn)確率,分別提升約1.97%,7.28%,3.50%,8.11%,1.68%和5.83%。IU-Net 模型在保護(hù)性耕作田間秸稈圖像上的平均交并比為80.05%,對(duì)比關(guān)閉注意力機(jī)制模塊的算法得到的平均交并比提升1.47%;對(duì) 比U-Net,PSP-Net,Link-Net,Res-Net,DSRA-Unet 和DE-GWO 得到的算法平均交并比,分別提升約3.44%,10.95%,16.60%,19.71%,13.94%和7.55%。實(shí)驗(yàn)表明,IU-Net能夠有效分割出樹(shù)影以及農(nóng)田里的其他干擾因素,從而在一定程度解決現(xiàn)有的保護(hù)性耕作地面秸稈覆蓋檢測(cè)效率低、誤差大、勞動(dòng)強(qiáng)度大及結(jié)果不理想等問(wèn)題。

      猜你喜歡
      覆蓋率秸稈像素
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      民政部等16部門(mén):到2025年村級(jí)綜合服務(wù)設(shè)施覆蓋率超80%
      像素前線之“幻影”2000
      我國(guó)全面實(shí)施種業(yè)振興行動(dòng) 農(nóng)作物良種覆蓋率超過(guò)96%
      解讀“一號(hào)文件”:推進(jìn)秸稈綜合利用
      推廣秸稈還田 有效培肥土壤
      “像素”仙人掌
      秸稈綜合利用模式探索
      基于噴丸隨機(jī)模型的表面覆蓋率計(jì)算方法
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      清流县| 高要市| 青阳县| 任丘市| 建昌县| 天祝| 雷州市| 新余市| 万荣县| 宁蒗| 苏尼特左旗| 保定市| 石嘴山市| 遵义市| 九龙坡区| 视频| 昌都县| 娄烦县| 巫山县| 中宁县| 石河子市| 台湾省| 陕西省| 田阳县| 平南县| 永济市| 平和县| 枝江市| 乐都县| 鹤峰县| 巴东县| 略阳县| 都匀市| 湛江市| 赤城县| 明星| 青川县| 龙口市| 那曲县| 安国市| 聊城市|