摘 要:利用深度學習實現(xiàn)遙感影像耕地區(qū)域自動化檢測,取代人工解譯,能有效提升耕地面積統(tǒng)計效率。針對目前存在分割目標尺度大且連續(xù)導致分割區(qū)域存在欠分割現(xiàn)象,邊界區(qū)域情況復雜導致邊緣分割困難等問題,提出了語義分割算法———Swin Transformer,TransFuse and U-Net (SF-Unet)。為強化網(wǎng)絡不同層次特征提取和信息融合能力,提升邊緣分割性能,使用U-Net 網(wǎng)絡替代TransFuse 網(wǎng)絡中的ResNet50 模塊; 將Vision Transformer (ViT) 替換為改進后的SwinTransformer 網(wǎng)絡,解決大區(qū)域的欠分割問題;通過注意力機制構建的Fusion 融合模塊將2 個網(wǎng)絡輸出特征進行融合,增強模型對目標的語義表示,提高分割的精度。實驗表明,SF-Unet 語義分割網(wǎng)絡在Gaofen Image Dataset (GID) 數(shù)據(jù)集上的交并比(Intersection over Union,IoU) 達到了90. 57% ,分別比U-Net 和TransFuse 網(wǎng)絡提升了6. 48% 和6. 09% ,明顯提升了耕地遙感影像分割的準確性。
關鍵詞:耕地遙感影像;語義分割;卷積神經(jīng)網(wǎng)絡;Swin Transformer
中圖分類號:TP391 文獻標志碼:A 開放科學(資源服務)標識碼(OSID):
文章編號:1003-3106(2024)05-1197-08
0 引言
耕地是人類生存發(fā)展所需要的重要資源,快速精準地獲取耕地面積是生態(tài)環(huán)境檢測、農作物產量估算以及實現(xiàn)土地資源可持續(xù)發(fā)展的基礎。隨著計算機視覺技術的不斷進步,通過結合新技術手段對耕地面積進行快速統(tǒng)計己成為歷史發(fā)展的必然。
近年來,高分辨率遙感衛(wèi)星不斷發(fā)展,獲取高精度耕地遙感更加便捷,為國家各監(jiān)管部門提供重要的數(shù)據(jù)支撐,其提取遙感影像耕地區(qū)域采用的主要方法為人工解譯[1-2],但人工分割的方式耗費大量人力、物力,且效率低下,因此研究如何采用自動化的方式對耕地遙感影像進行分割具有重要研究價值。
在傳統(tǒng)的耕地遙感影像分割算法領域,依據(jù)圖像的顏色、紋理和形狀特征等特點,大多數(shù)模型使用了基于閾值分割[3]、基于區(qū)域分割[4]、基于邊緣檢測分割[5]以及超像素[6]等方法,但總體分割精度不高,且復雜多變的遙感影像耕地區(qū)域對傳統(tǒng)分割模型性能有較大限制。
近年來,人工智能技術不斷發(fā)展,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)[7]因其極強的特征提取能力,能更好地利用高分辨率遙感圖像中空間信息和邊界細節(jié),提取遙感影像中的多尺度特征信息,優(yōu)于傳統(tǒng)方法。2015 年Long 等[8]提出的全卷積神經(jīng)網(wǎng)絡(Fully Convolutional Network,FCN)實現(xiàn)了像素級的分割,但實驗得到的結果較為粗糙,且并未考慮到像素與像素之間的聯(lián)系。為了減少卷積過程中空間細節(jié)的丟失,U-Net[9]通過融合低層次的細節(jié)紋理信息和高層次的語義信息來達到多尺度特征融合的效果,但由于在下采樣操作時會丟失局部信息,且很難還原,分割整體性效果較差,易丟失目標間長距離信息。
由于Transformer[10]結構在上下文信息提取能力上表現(xiàn)優(yōu)異,逐漸發(fā)展到圖像處理領域。Dosovitskiy等提出的(Vision Transformer,ViT)[11]模型將Trans-former 結構首次應用于圖像分類任務。針對ViT 模型只能提取單尺度特征問題,Liu 等[12]提出SwinTransformer 模型通過Shifted Window 來建立分層特征圖,獲取多尺度特征。TransFuse[13]模型通過將Transformer 和CNN 融合實現(xiàn)了一個淺層的網(wǎng)絡架構來建模全局關系和底層細節(jié),但Transformer 結構中全連接的注意力機制需要對整個輸入序列進行處理,這在圖像處理任務中不利于捕捉空間相關性。
本文基于以上問題,在TransFuse 算法的基礎上提出的SF-Unet 算法,具體如下:
① 針對耕地區(qū)域邊界分割情況復雜、分割困難等特點,使用UNet 網(wǎng)絡替換TransFuse 網(wǎng)絡中的ResNet50[14]部分,通過跳躍連接增強邊界分割能力。
② 針對耕地遙感圖像中目標尺度大、耕地區(qū)域在遙感圖像上普遍大而連續(xù)等問題,利用改進后的Swin Transformer 結構替換原來的ViT 網(wǎng)絡部分,增強模型的長距離信息提取能力,減少空間的丟失。
③ 通過添加深度監(jiān)督機制,添加額外的目標函數(shù)對模型中間層進行監(jiān)督學習,輔助神經(jīng)網(wǎng)絡的訓練,提高圖像分割網(wǎng)絡的性能。
1 算法原理
1. 1 Transformer 編碼器
實驗使用Swin Transformer 作為Transformer 編碼器的主干網(wǎng)絡,相比較ViT 作為特征提取主干網(wǎng)絡,通過Patch Merging 層進行下采樣,實現(xiàn)了多層特征提取結構,盡可能減少圖像特征信息的丟失。
Swin Transformer 提出窗口多頭注意力(Window-based MSA,W-MSA)機制,將特征圖分割成多個窗口進行獨立的自注意力計算,使得計算復雜度與圖像窗口數(shù)量之間呈現(xiàn)線性關系,極大減少了計算量,相關的時間復雜度計算如下[15-16]:
Ω(MSA) = 4hwC2 + 2(hw) 2 C, (1)
Ω(W-MSA) = 4hwC2 + 2M2 hwC, (2)
式中:h、w、C 分別表示輸入特征圖的尺寸大小和通道數(shù),M 表示窗口尺寸。
為保證各個窗口之間的聯(lián)系,在第二個階段引入了移動窗口多頭注意力(Shifted Window-basedMSA,SW-MSA),通過改變窗口位置提供各個窗口之間的信息聯(lián)系。通過采用映射、注意力機制、MLP等來獲取上下文語義信息及全局依賴關系。
一個Swin Transformer 模塊如圖1 所示,由進行各窗口內自注意力計算的W-MSA 和進行窗口之間交互計算的SW-MSA 兩部分組成,在模塊間插入LN層,穩(wěn)定并加快了訓練過程。
連續(xù)的2 個Swin Transformer 塊的計算如下[17]:
z^l = W-MSA(LN(zl-1 ))+ zl-1 , (3)
zl = MLP(LN(z^l))+ z^l, (4)
z^l+1 = SW-MSA(LN(zl))+ zl, (5)
zl+1 = MLP(LN(z^l+1 ))+ z^l+1 , (6)
式中:z^l 和zl 分別表示(S)WMSA 和MLP 模塊在第l 個模塊的特征輸出,dl-1 表示相應l-1 層的輸出特征。
1. 2 CNN 編碼器
由于U-Net 模型所需數(shù)據(jù)量少、速度快、分割準確率高等特點,本文將其作為CNN 編碼器部分的主干網(wǎng)絡。U-Net 網(wǎng)絡主要包含編碼模塊和解碼模塊兩部分,與FCN 同樣采用跳躍連接的方式,將輸入特征與同尺寸的特征圖進行聯(lián)接。與FCN 直接相加融合的方式不同,U-Net 采用通道拼接的方式,保留了更多的位置信息,其U-Net 原始網(wǎng)絡結構如圖2 所示。
圖2 中編碼部分通過卷積層實現(xiàn)特征的提取,最大池化層(Max Pooling)實現(xiàn)下采樣操作,ReLU激活函數(shù)和批量歸一化層(Batch Normalization)使訓練參數(shù)更有效地向前傳播;解碼部分則是在上采樣的同時,通過跳躍連接的方式實現(xiàn)多維要素的融合,提高網(wǎng)絡對特征信息的提取能力,最終輸出與原圖像相同尺寸的像素級分類結果圖。U-Net 網(wǎng)絡在獲取更大的感受野的同時,損失了一定的特征信息,分類精確度較低。
1. 3 CNN 和Transformer 融合模塊
為將Transformer 編碼模塊和CNN 編碼模塊提取特征圖相結合,本文使用了基于空間注意力(Spatial Attention ) 和通道注意力(ChannelAttention)相結合的Fusion 融合模塊,將通過注意力模塊計算之后的Transformer 特征圖和CNN 特征圖進行拼接并做卷積,如圖3 所示。
由于Transformer 編碼模塊提取特征缺乏局部細節(jié),因此將Transformer 特征圖通過通道注意力模塊進行運算,首先對輸入特征圖進行全局最大池化和全局平均池化,再通過全連接層對通道數(shù)先降維再升維,對處理后的2 個特征層進行相加,用Sigmoid 函數(shù)激活生成特征通道注意力特征權重。卷積特征相對于處理上下文信息能力較弱,容易包含不相關區(qū)域,因此將CNN 特征圖通過空間注意力模塊進行運算,對輸入的特征圖進行基于通道的全局最大池化和全局平均池化,將輸出進行通道拼接后通過卷積運算和Sigmoid 激活函數(shù)生成空間注意力特征權重。將輸入特征與對應的特征權重相乘并拼接,通過一個卷積層得到輸出特征圖,完成Trans-former 編碼模塊和CNN 編碼模塊的融合并輸出。
1. 4 SF-Unet 網(wǎng)絡結構
本文基于TransFuse 所提出的CNN 和Transformer網(wǎng)絡相融合的思想,針對遙感耕地影像所存在的欠分割、邊界分割較差等問題,提出了SF-Unet 耕地遙感圖像分割方法,其網(wǎng)絡模型結構如圖4 所示。
SF-Unet 網(wǎng)絡分為CNN 編碼模塊、Transformer編碼模塊、解碼模塊、融合模塊和AG (AttentionGates)[18]模塊四部分。遙感圖像輸入網(wǎng)絡后分別通過兩路編碼,CNN 編碼模塊采用UNet 主干網(wǎng)絡,由4 個下采樣卷積塊組成,生成5 組不同尺寸大小的特征圖,通過卷積和池化等操作,獲得更大的感受野及高層次語義信息。Transformer 主干網(wǎng)絡由改進的Swin Transformer 構成。由于基礎的SwinTransformer 在生成多級特征圖時要先通過PatchPartition 層,尺寸變?yōu)樵瓉淼模?/ 4,其同層次特征圖尺寸與UNet 不一致,在融合模塊難以進行融合。本實驗采用改進版的Swin Transformer,將通過PatchPartition 層之后的特征層對應于U-Net 網(wǎng)絡第三層,使用雙線性上采樣方式擴大特征圖,通過SwinTransformer 模塊進行下采樣操作,以滿足特征層進行融合的條件。融合模塊由空間注意力和通道注意力組合而成,通過一個卷積層進行交互,融合過程不改變特征圖大小,融合之后的通道數(shù)和CNN 模塊通道數(shù)相對應。
SF-Unet 通過融合U-Net 和改進的Swin Trans-former 主干網(wǎng)絡,在保留CNN 強大的局部特征提取能力的同時,加入Transformer 的全局注意力機制,加強上下文信息聯(lián)系,減少空間細節(jié)的丟失,達到了較好的分割效果。
1. 5 深度監(jiān)督
SF-Unet 模型融合了Transformer 和CNN 兩部分,模型較為復雜,在模型訓練時易產生梯度消失或爆炸等問題。為加快網(wǎng)絡收斂速度,提高網(wǎng)絡的識別能力,本文引入了Lee 等[19]提出的深度監(jiān)督機制,通過在不同深度特征層中添加額外的目標函數(shù)對模型進行監(jiān)督,提高中間層的分類準確率,從而進一步提高最終輸出的分割性能。深度監(jiān)督機制在SFUnet 網(wǎng)絡中的應用如圖5 所示。
在圖5 中,F1 ~ F5 表示Fusion1 ~ Fusion5 融合模塊輸出,將Fusion1 ~ Fusion5 這5 層輸出作為深度監(jiān)督的輸入,在前4 個解碼器階段得到全分辨率的中間特征圖,最后一個解碼器直接輸出全分辨率特征圖。對這5 個輸出特征圖使用BCELoss 和IoU-Loss[20]組合的損失函數(shù),將所有分支的輸出結果求和取平均作為最終損失進行反向傳播[21],計算如下:
式中:yj、^yj 分別表示不同解碼層輸出的預測值和真實標簽,N 表示分支總數(shù)。
2 實驗結果與分析
2. 1 實驗數(shù)據(jù)集
本文所使用的數(shù)據(jù)來自GID 數(shù)據(jù)集,是基于我國Gaofen-2 衛(wèi)星數(shù)據(jù)而構建的大規(guī)模高分辨率遙感圖像數(shù)據(jù)集。本文采用GID-15 精細土地覆蓋集(GID 數(shù)據(jù)集),并且對數(shù)據(jù)集進行了預處理。將數(shù)據(jù)集標簽部分進行二值化處理,耕地區(qū)域像素值為255,非耕地區(qū)域像素值為0。由于該數(shù)據(jù)集圖像尺寸過大,本文將大圖像進行裁剪成256 pixel ×256 pixel 進行實驗,如圖6 所示。圖6(a)為原始遙感圖像,圖6(b)為遙感圖像對應的標簽圖像,分辨率為7 200 pixel×6 800 pixel,標簽圖像為多分類標簽結果圖。圖6(c)為裁剪后的遙感圖像,圖6(d)為裁剪后的遙感圖像對應的二值化處理之后標簽圖像,分辨率均為256 pixel×256 pixel。
2. 2 評價指標
本實驗設置了3 個評價指標用于定量評估模型分割性能,分別是Dice 系數(shù)(Dice Similarity Coeffi-cient,DSC)、交并比(Intersection over Union,IoU)和準確率(Accuracy,Acc),計算如下:
式中:TP (True Positive)表示分類正確的正類,FP(False Positive )表示被錯分為正類的負類,TN(True Negative)表示分類準確的負類,FN (FalseNegative)表示被錯分為負類的正類。標簽圖中正類表示耕地,負類表示背景。
2. 3 消融實驗
為了驗證SF-Unet 模型方法的有效性,分別對CNN 編碼模塊、Transformer 編碼模塊和融合模塊進行消融實驗。選?。眨危澹?和改進后的Swin Trans-former 網(wǎng)絡模型分別作為CNN 和Transformer 的基線模型。通過融合模塊,將并聯(lián)的2 路輸出進行融合,并且在每一個融合模塊之后都輸出一個結果,如表1 所示。
由表1 可以看出,在Transformer 和CNN 的基準模型上,評價指標IoU 僅有81. 00% 和84. 09% ;二者融合之后IoU 比基準模型分別提高了5. 32% 和2. 23% ;當Fusion 融合模塊達到第五層時IoU 指標對比基準模型分別提高了10. 57% 和6. 48% 。從評價指標可以看出,Transformer 和CNN 模塊的融合對比單一模型有更好的分割精度,隨著Fusion 分割模塊的增多,分割性能越好。消融實驗各部分的實驗結果如圖7 所示。Transformer 模塊采用的是改進之后的Swin Transformer 網(wǎng)絡,在分割結果圖中整體性較好,內部填充較為完整,但邊緣分割能力較弱。CNN 模塊采用的是U-Net 網(wǎng)絡,邊緣分割較好,但出現(xiàn)較多空洞現(xiàn)象,整體性不強。經(jīng)過5 層Fusion 融合模塊融合之后的模型分割結果圖中噪聲較少,內部填充相比較U-Net 和Swin Transformer 模型更加飽滿,輪廓邊界更加清晰,通過融合2 路編碼的SF-Unet 模型在邊界分割和內部填充兩方面相對原模型都有較大提高。不同層數(shù)的Fusion 融合模塊對模型性能提升不同,融合層數(shù)越多,分割性能越好。由圖7(e)~ 圖7(i)可以看出,Fusion5 的分割效果明顯優(yōu)于Fusion1 的分割效果。實驗證明,利用跳躍連接的方式進行特征融合,對于去除噪聲和加強邊緣分割都有積極作用。
2. 4 深監(jiān)督實驗結果分析
本文設計了5 層輸出特征圖進行深監(jiān)督機制來解決深度模型訓練時的優(yōu)化問題,加快了網(wǎng)絡收斂速度和識別能力。為驗證該設計的有效性,分別對不同數(shù)量特征圖進行深監(jiān)督對比試驗,Loss 損失結果對比如圖8 所示。圖中D_S 表示Deep Supervi-sion,由圖8 可以看出,隨著采用的深監(jiān)督層數(shù)越多,模型收斂越快,當采用5 層特征圖進行深監(jiān)督時,Loss 值最低,模型分割性能達到最優(yōu)。
為了從客觀上定量進行總體評價,全尺度監(jiān)督機制結果對比如表2 所示。
由表2 可以看出,當采用5 層特征圖進行深監(jiān)督時,IoU 值最高,達到90. 57% ,Dice 系數(shù)達到了95. 05% ,相比較D_S1 的IoU 值高了1. 44% ,Dice系數(shù)高了1. 76% ,在性能方面達到了最優(yōu)。實驗證明,通過添加深監(jiān)督機制,確實提高了模型性能,且隨著深監(jiān)督層數(shù)越多,模型分割性能越好。
2. 5 不同算法分割性能比較
為了評估SF-Unet 模型方法的性能,選?。?Net、PSPNet、SegNet、TransFuse 四種經(jīng)典的語義分割網(wǎng)絡進行對比試驗,所有網(wǎng)絡均在相同的軟硬件環(huán)境下進行訓練和測試,均使用GID 數(shù)據(jù)集進行實驗。各個網(wǎng)絡模型的分割結果如圖9 所示。
耕地遙感影像因為其自身特性,往往呈片狀,大范圍內分布,因此模型分割時農田內部分割效果和邊緣輪廓分割準確性十分重要。由圖9 可以看出,PSPNet 由于具有金字塔結構,對于整體區(qū)域識別分割能力較強,但邊界分割較為模糊;SegNet 和U-Net都存在噪聲較大的現(xiàn)象;TransFuse 分割效果相對較好,但依然存在部分區(qū)域未識別、分割圖中存在少部分噪點現(xiàn)象。相比之下,本文提出的SF-Unet 模型分割的遙感影像圖像邊緣更加清晰、圖像完整性更高,分割性能更好。
各模型分割性能指標對比如表3 所示??梢钥闯?,本文所提出的SF-Unet 網(wǎng)絡的IoU、Dice 系數(shù)和Acc 均達到了最優(yōu),分別達到了90. 57% 、95. 05% 和95. 38% ,相比較U-Net 模型提高了6. 48% 、3. 69%和7. 20% ;相比較其他分割模型也有較大提升。本文所提出SF-Unet 模型在TransFuse 和SwinTransfuse 模型方法的基礎上進行改進創(chuàng)新,性能優(yōu)于原網(wǎng)絡模型,實驗證明了方法的可行性,相比較其他幾種主流的分割網(wǎng)絡,在遙感影像耕地面積提取上取得了最好的效果。
3 結束語
本文將U-Net 和Swin Transformer 模型相結合,在高分辨率耕地遙感影像分割任務上,實現(xiàn)了目前深度學習方法中最優(yōu)的提取結果,該方法在數(shù)據(jù)獲取上較為簡單,在耕地區(qū)域提取精度上相對之前的方法有較大提升。
深度學習在遙感影像耕地面積提取上有較大發(fā)展空間,作為一種新興技術,仍然有很多工作需要進一步完善,如語義分割實現(xiàn)的像素級分類會導致出現(xiàn)較多噪點,能否有更高效的方法來去除噪點,以及小塊耕地識別困難等問題,仍然需要后續(xù)的研究工作來繼續(xù)完善。后續(xù)將對相關問題進行研究,以改進現(xiàn)有方法,從速度和精度上提升高分辨率遙感影像的耕地面積提取。
參考文獻
[1] 趙少華,劉思含,毛學軍,等. 新時期我國環(huán)保領域衛(wèi)星遙感技術的應用與發(fā)展[J]. 無線電工程,2017,47(3):1-7.
[2] 黃春波,佃袁勇,周志翔,等. 基于時間序列統(tǒng)計特性的森林變化監(jiān)測[J]. 遙感學報,2015,19(4):657-668.
[3] OTSU N. A Threshold Selection Method from Graylevel Histograms [J]. IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1):62-66.
[4] 丁海勇,王雨軒,毛宇瓊,等. 基于動態(tài)閾值區(qū)域分裂合并算法的高分辨率遙感圖像分割研究[J]. 測繪通報,2016 (8):145-146.
[5] 張愛華,余勝生,周敬利. 一種基于邊緣檢測的局部閾值分割算法[J]. 小型微型計算機系統(tǒng),2003,24(4):661-663.
[6] 南柄飛,穆志純. 基于SLIC0 融合紋理信息的超像素分割方法[J]. 儀器儀表學報,2014,35 (3):527-534.
[7] LECUN Y,BOTTOU L,BENGIO Y,et al. Gradientbased"Learning Applied to Document Recognition [J]. Proceedings of the IEEE,1998,86(11):2278-2324.
[8] LONG J,SHELHAMER E,DARRELL T. Fully Convolutional Networks for Semantic Segmentation [C]∥ 2015"IEEE Conference on Computer Vision and Pattern Recognition. Boston:IEEE,2015:3431-3440.
[9] RONNEBERGER O,FISCHER P,BROX T. UNet:Convolutional Networks for Biomedical Image Segmentation"[C]∥18th International Conference. Munich:Springer,2015:234-241.
[10] VASWANI A,SHAZEER N,PARMAR N,et al. Attention Is All You Need[EB / OL]. (2017 -12 -06)[2023 -10 -20]. https:∥arxiv. org / pdf / 1706. 03762v5. pdf.
[11] DOSOVITSKIY A,BEYER L,KOLESNIKOV A,et al. An Image Is Worth 16 × 16 Words:Transformers for Image"Recognition at Scale[EB / OL]. (2020 - 10 - 22)[2023 -10-15]. https:∥arxiv. org / abs / 2010. 11929.
[12] LIU Z,LIN Y T,CAO Y,et al. Swin Transformer:Hierarchical Vision Transformer Using Shifted Windows[C]∥2021 IEEE / CVF International Conference on Computer"Vision. Montreal:IEEE,2021:9992-10002.
[13] ZHANG Y D,LIU H Y,HU Q Y. Transfuse:Fusing Transformers and CNNs for Medical Image Segmentation[C]∥24th International Conference. Strasbourg:Springer,2021:14-24.
[14] HE K M,ZHANG X Y,REN S Q,et al. Deep Residual"Learning for Image Recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition. Las"Vegas:IEEE,2016:770-778.
[15] 周澤昊. 基于SwinSpec Transformer 的膽管癌顯微高光譜圖像分割研究[D]. 上海:華東師范大學,2022.
[16] 王金祥,付立軍,尹鵬濱,等. 基于CNN 與Transformer的醫(yī)學圖像分割[J]. 計算機系統(tǒng)應用,2023,32(4):141-148.
[17] 王軍,高放,省海先,等. 基于Swin Transformer 生成對抗網(wǎng)絡的圖像生成算法[J]. 小型微型計算機系統(tǒng),2024,45(1):241-248.
[18] OKTAY O,SCHLEMPER J,LE FOLGOC L,et al.Attention UNet:Learning Where to Look for the Pancreas"[EB / OL]. (2018 - 04 - 11)[2023 - 11 - 20]. https:∥arxiv. org / abs / 1804. 03999.
[19] LEE C Y,XIE S N,GALLAGHER P,et al. Deeplysupervised Nets[C]∥ Proceedings of the Eighteenth International Conference on Artificial Intelligence and Statistics.[S. l. ]:PMLR,2015:562-570.
[20] WEI J,WANG S H,HUANG Q M. F3Net:Fusion,Feedback and Focus for Salient Object Detection[C]∥34th AAAI Conference on Artificial Intelligence. [S. l. ]:AAAI,2020:12321-12328.
[21] 秦傳波,宋子玉,曾軍英,等. 聯(lián)合多尺度和注意力-殘差的深度監(jiān)督乳腺癌分割[J]. 光學精密工程,2021,29(4):877-895.
作者簡介
秦倫明 男,(1983—),博士,講師,碩士生導師。主要研究方向:圖像分割、目標檢測、多源圖像視頻信息處理、電力設備在線監(jiān)測等。
凌雪海 男,(1997—),碩士研究生。主要研究方向:深度學習、圖像分割和計算機視覺。
鄒鈺潔 女,(1991—),碩士,工程師。主要研究方向:電氣設備狀態(tài)檢測。
龔楊洋 男,(1998—),碩士研究生。主要研究方向:計算機視覺、光流估計算法。
(*通信作者)邊后琴 女,(1976—),博士,副教授。主要研究方向:智能控制、計算機視覺和模式識別等。
王 悉 男,(1980—),博士,副教授,碩士生導師。主要研究方向:列車智能駕駛、模型預測控制。
基金項目:國家自然科學基金面上項目(62073024)