• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于注意力引導(dǎo)數(shù)據(jù)增強(qiáng)的車型識(shí)別

      2022-07-14 13:11:50孫偉常鵬帥戴亮張小瑞陳旋代廣昭
      計(jì)算機(jī)工程 2022年7期
      關(guān)鍵詞:注意力準(zhǔn)確率卷積

      孫偉,常鵬帥,戴亮,張小瑞,陳旋,代廣昭

      (1.南京信息工程大學(xué)自動(dòng)化學(xué)院,南京 210044;2.南京信息工程大學(xué)江蘇省大氣環(huán)境與裝備技術(shù)協(xié)同創(chuàng)新中心,南京 210044;3.南京信息工程大學(xué)數(shù)字取證教育部工程研究中心,南京 210044;4.南京信息工程大學(xué)計(jì)算機(jī)與軟件學(xué)院,南京 210044)

      0 概述

      在智能交通系統(tǒng)中,車型識(shí)別[1]對(duì)于與智慧城市、無人駕駛、交通流計(jì)算等相關(guān)的實(shí)際應(yīng)用具有重要意義。雖然車型識(shí)別研究已經(jīng)取得了快速發(fā)展,但是仍然面臨著諸多難題。因數(shù)據(jù)的采集與標(biāo)注需要專業(yè)的知識(shí)和大量的時(shí)間,導(dǎo)致公開的車輛數(shù)據(jù)集較少[2]且數(shù)據(jù)集中的樣本容量不足,基于數(shù)據(jù)驅(qū)動(dòng)的車型識(shí)別效果降低。車輛不僅種類繁多,而且在同一品牌不同型號(hào)車輛之間的外觀差異微?。?],導(dǎo)致車型識(shí)別率降低。因此,在車輛數(shù)據(jù)集不足的情況下,通過有效學(xué)習(xí)類別間區(qū)分性特征表達(dá)來分辨車型是解決以上難題的有效方法。

      隨著深度學(xué)習(xí)技術(shù)的發(fā)展,車型識(shí)別方法取得較大的進(jìn)展[4-5]。ResNet 是深度學(xué)習(xí)中經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域中的分類任務(wù)[6]。卷積神經(jīng)網(wǎng)絡(luò)由殘差塊和捷徑連接構(gòu)建層數(shù)較深的網(wǎng)絡(luò),以促進(jìn)特征信息的利用與傳遞,但是僅通過現(xiàn)有的ResNet 難以獲得準(zhǔn)確的分類結(jié)果,需要采用注意力機(jī)制對(duì)現(xiàn)有網(wǎng)絡(luò)進(jìn)行特殊設(shè)計(jì),以提高深層網(wǎng)絡(luò)的性能[7]?;谧⒁饬C(jī)制的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方法[8]可以定位出對(duì)分類貢獻(xiàn)較大的鑒別性位置信息,提高網(wǎng)絡(luò)的表征能力。文獻(xiàn)[9]基于OI-LSTM結(jié)構(gòu),將CNN與長(zhǎng)短時(shí)記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)相結(jié)合,在CNN 提取特征的同時(shí),LSTM對(duì)提取的特征進(jìn)行時(shí)序捕捉,但是LSTM網(wǎng)絡(luò)在一個(gè)連續(xù)的過程中捕捉目標(biāo)的注意信息時(shí)存在梯度消失的問題。文獻(xiàn)[10]提出SE(Squeeze-and-Excitation)注意力模塊,通過擠壓每個(gè)二維特征圖,以有效建立通道之間的相互依賴關(guān)系,從而提高模型性能,但是SE 模塊會(huì)忽略位置信息,而位置信息對(duì)于在視覺任務(wù)中捕捉目標(biāo)結(jié)構(gòu)至關(guān)重要。文獻(xiàn)[11]提出CBAM(Convolutional Block Attention Module)機(jī)制,通過減少輸入張量的通道維數(shù)來利用位置信息,使用卷積計(jì)算空間注意力,但是卷積只能捕捉局部關(guān)系,無法對(duì)分類任務(wù)所必需的遠(yuǎn)程依賴關(guān)系進(jìn)行建模。受SE模塊的啟發(fā),文獻(xiàn)[12]提出一種坐標(biāo)注意力(Coordinate Attention)模塊,該注意力不僅能夠?qū)W習(xí)到圖像通道域上的信息,還可以捕獲方向感知和位置敏感信息,有助于模型更準(zhǔn)確地定位和識(shí)別感興趣的區(qū)域。

      為解決車型識(shí)別中數(shù)據(jù)不足的問題,研究人員采用數(shù)據(jù)增強(qiáng)以降低過擬合現(xiàn)象的發(fā)生,從而提高模型的魯棒性。訓(xùn)練數(shù)據(jù)量的增加是通過引入更多的數(shù)據(jù)差異,提高模型的泛化能力。在深度模型中數(shù)據(jù)增強(qiáng)方法[13-14]包括圖像裁剪、圖像擦除等。隨機(jī)圖像裁剪可以生成不同縮放比例的圖像,使得輸入深度模型的數(shù)據(jù)樣本增多,在一定程度上改善模型的訓(xùn)練效果。但是這種數(shù)據(jù)增強(qiáng)方法可能會(huì)引入許多背景噪聲,不僅不能提高提取特征的質(zhì)量,反而會(huì)降低模型的訓(xùn)練效果。文獻(xiàn)[15]提出自動(dòng)增強(qiáng)方法,構(gòu)建一個(gè)數(shù)據(jù)增強(qiáng)策略的搜索空間,利用搜索算法選取適合特定數(shù)據(jù)集的數(shù)據(jù)增強(qiáng)策略,但是與隨機(jī)數(shù)據(jù)增強(qiáng)相比,其難以實(shí)現(xiàn)。文獻(xiàn)[16]提出弱監(jiān)督的數(shù)據(jù)增強(qiáng)網(wǎng)絡(luò)(Weakly Supervised DataAugmentation Network,WS-DAN),通過注意力機(jī)制來增強(qiáng)數(shù)據(jù),這種注意力機(jī)制使用的卷積核尺寸較小,在特征提取的深層網(wǎng)絡(luò)引入注意力機(jī)制,使得淺層網(wǎng)絡(luò)難以關(guān)注到原始特征的鑒別部分,導(dǎo)致數(shù)據(jù)增強(qiáng)質(zhì)量降低。

      本文提出一種基于注意力引導(dǎo)數(shù)據(jù)增強(qiáng)的車型識(shí)別方法。采用ResNet-50 骨干網(wǎng)絡(luò)提取特征,在ResNet-50 每個(gè)殘差塊后都嵌入坐標(biāo)注意力模塊,生成一對(duì)方向感知和位置敏感的注意力圖。利用雙線性匯集(BAP)操作獲得增強(qiáng)特征圖,通過對(duì)增強(qiáng)特征圖進(jìn)行注意力裁剪和注意力擦除得到增強(qiáng)數(shù)據(jù),將原始數(shù)據(jù)和增強(qiáng)數(shù)據(jù)輸入到網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,以提高識(shí)別準(zhǔn)確率。

      1 車型識(shí)別模型

      受弱監(jiān)督的數(shù)據(jù)增強(qiáng)網(wǎng)絡(luò)(WS-DAN)[16]的啟發(fā),本文提出注意力引導(dǎo)數(shù)據(jù)增強(qiáng)的車型識(shí)別模型。車型識(shí)別模型結(jié)構(gòu)如圖1 所示。

      圖1 車型識(shí)別模型結(jié)構(gòu)Fig.1 Structure of vehicle type recognition model

      車型識(shí)別模型將ResNet-50 作為骨干網(wǎng)絡(luò)提取特征,在骨干網(wǎng)絡(luò)ResNet-50 的每個(gè)殘差塊后都嵌入注意力CA 模塊,使得車輛鑒別性部分特征在網(wǎng)絡(luò)的每個(gè)階段都能夠得到明顯關(guān)注,解決了WS-DAN 方法中數(shù)據(jù)增強(qiáng)質(zhì)量較低的問題。表1 表示ResNet-50 骨干網(wǎng)絡(luò)中每個(gè)區(qū)塊(Block)的劃分,包括卷積層中卷積核的大小和數(shù)量、池化層中池化核的大小和步長(zhǎng)以及輸出特征圖的尺寸。

      表1 ResNet-50 骨干網(wǎng)絡(luò)的結(jié)構(gòu)Table 1 Structure of ResNet-50 backbone network

      CA 模塊將通道分解為沿著兩個(gè)空間方向分別聚合特征的一維特征編碼,在捕捉一個(gè)方向特征的同時(shí)保留另一個(gè)空間方向的精確位置,生成一對(duì)方向感知和位置敏感注意力圖。車型識(shí)別模型在得到注意力圖后,通過雙線性注意力匯集(BAP)生成增強(qiáng)特征圖,在增強(qiáng)特征圖的引導(dǎo)下進(jìn)行注意力裁剪和注意力擦除,生成具有強(qiáng)鑒別性的增強(qiáng)數(shù)據(jù),將其與原始的車輛圖像一并送入到網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。

      1.1 坐標(biāo)注意力模塊

      CA[12]模塊用于計(jì)算機(jī)視覺任務(wù),既考慮通道注意,也考慮經(jīng)典SENet[10]模塊忽略的位置信息,能夠有效提升模型的性能。CA 模塊沿著一個(gè)空間方向捕獲遠(yuǎn)程依賴關(guān)系,同時(shí)沿著另一個(gè)空間方向獲取精確的位置信息,從而編碼出一對(duì)方向感知和位置敏感的注意力圖,有效增強(qiáng)車輛鑒別性區(qū)域的表示,從而學(xué)習(xí)到類別間更加豐富的區(qū)分性信息。注意力CA 模塊結(jié)構(gòu)如圖2 所示。

      圖2 坐標(biāo)注意力模塊結(jié)構(gòu)Fig.2 Structure of coordirate attention module

      假設(shè)對(duì)于給定的輸入特征圖X?RC×H×W,使用池化核(H,1)或者(1,W)分別沿著水平坐標(biāo)和垂直坐標(biāo)編碼每個(gè)通道,成為并行的2 個(gè)輸出,在特征高度H和寬度W的第C個(gè)通道的輸出如式(1)和式(2)所示:

      將上述2 個(gè)公式得到的特征圖拼接,采用1×1 的卷積核進(jìn)行卷積,如式(3)所示:

      其中:[?,?]表示沿空間維度的拼接;δ表示Swish 激活函數(shù);F1表示卷積運(yùn)算。f?RC/r×(H+W)是在水平方向和垂直方向編碼空間信息生成的中間特征圖,r是控制通道的縮減因子。CA 模塊沿空間維度把f分成2 個(gè)獨(dú)立的張量,再用1×1 的卷積核分別卷積分解后的獨(dú)立張量,得到與輸入X具有相同通道數(shù)量的張量,如式(4)和式(5)所示:

      其中:Fh、Fw為2個(gè)卷積操作;fh?RC/r×H;fw?RC/r×W;σ為Sigmoid 函數(shù);gh?RC×H和gw?RC×W分別為沿h和w方向的注意力權(quán)重參數(shù)。

      CA 模塊的輸出如式(6)所示:

      1.2 注意力引導(dǎo)的數(shù)據(jù)增強(qiáng)

      在注意力引導(dǎo)的數(shù)據(jù)增強(qiáng)方法中需要進(jìn)行雙線性注意力匯集(BAP)操作。假設(shè)F?RH×W×C作為輸入的特征圖,其中H、W、C分別表示輸入特征圖的高度、寬度、通道數(shù)量。1×1 的卷積核作用于輸入特征圖,生成注意力圖A?RH×W×N,其中N是注意力圖的個(gè)數(shù)。注意力圖A與特征圖F執(zhí)行雙線性注意力匯集(BAP)操作,即特征圖與注意力圖對(duì)應(yīng)位置逐元素相乘得到中間特征圖,然后對(duì)這些中間特征圖進(jìn)行池化拼接運(yùn)算得到最后的特征矩陣。雙線性注意力匯集操作如式(7)所示:

      其中:注意力圖A=[A1,A2,…,AN];⊙為注意力圖A中的一個(gè)張量A1與F對(duì)應(yīng)元素逐個(gè)相乘;g(?)為全局平均池化操作;特征矩陣P?RN×C由中間特征圖[f1,f2,…,fN]拼接而成;Γ(A,F)為注意力圖A和特征圖F之間的雙線性注意力匯集。

      為了聚合注意力圖上鑒別性區(qū)域的特征,受中心損失[17]解決人臉識(shí)別的啟發(fā),本文在弱監(jiān)督注意力學(xué)習(xí)過程中引入注意力正則化損失函數(shù)。該損失函數(shù)不僅在最小化類內(nèi)變化的同時(shí)保持了類間特征的可區(qū)分性,而且縮小了屬于同一部分特征間的差異,如式(8)所示:

      其中:cn為車輛某部分特征中心,可初始化為0;fn為某部分特征,如車輛的格柵;N為注意力圖的數(shù)量。cn通過滑動(dòng)平均公式更新,更新速率為α,如式(9)所示:

      數(shù)據(jù)增強(qiáng)操作主要分為以下4 個(gè)步驟:

      1)隨機(jī)選出一張注意力圖AN來引導(dǎo)數(shù)據(jù)增強(qiáng)的過程,通過對(duì)AN進(jìn)行歸一化處理,得到增強(qiáng)特征圖如式(10)所示:

      3)將式(11)獲得的裁剪掩膜擴(kuò)大到原始圖像尺寸,并將其作為輸入網(wǎng)絡(luò)的增強(qiáng)數(shù)據(jù),以放大車輛的鑒別性區(qū)域,有效地提取細(xì)節(jié)特征。

      由式(12)得到擦除掩膜DN后,將其從原始圖像中擦除,保留擦除之外的其余部分,從而得到另一個(gè)新圖像。因此,注意力擦除有助于網(wǎng)絡(luò)提取車輛其他鑒別性部分特征。

      2 實(shí)驗(yàn)結(jié)果與分析

      2.1 實(shí)驗(yàn)環(huán)境

      本文實(shí)驗(yàn)所使用的計(jì)算機(jī)硬件為AMD Ryzen 7 3700X 8-Core Processor 3.59 GHz 處理器,內(nèi)存16 GB,顯卡為GeForce RTX 2070 SUPER 8 GB。軟件環(huán)境為Windows 10 操作系統(tǒng),Pycharm 開發(fā)環(huán)境,Pytorch 深度學(xué)習(xí)框架,Python3.6 編程語言。

      2.2 數(shù)據(jù)集

      本文采用公開的Stanford Cars[18]車輛數(shù)據(jù)集。Stanford Cars 數(shù)據(jù)集包含196 種車型的圖像數(shù)據(jù),共有16 185 張圖像,其中訓(xùn)練圖像和測(cè)試圖像分別為8 144 張和8 041 張,標(biāo)簽具體到車輛型號(hào)和年份。數(shù)據(jù)集中部分車輛圖像如圖3 所示。

      圖3 Stanford Cars 數(shù)據(jù)集的部分車輛圖像Fig.3 Partial vehicle images of Stanford Cars dataset

      本文實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)為分類準(zhǔn)確率(accuracy),如式(13)所示:

      其中:i為車輛樣本序號(hào);m為車輛總數(shù);yi為車型識(shí)別模型預(yù)測(cè)輸出;yi為車型真實(shí)標(biāo)簽。

      2.3 實(shí)驗(yàn)結(jié)果

      本文將ResNet-50 作為骨干網(wǎng)絡(luò),選擇Block-5_3的輸出張量作為注意力圖A的輸入特征圖,注意力圖A的數(shù)量N設(shè)為32,注意力裁剪和注意力擦除的閾值θc和θd均設(shè)置為0.5。

      本文使用隨機(jī)梯度下降方法訓(xùn)練模型,利用ImageNet 數(shù)據(jù)集對(duì)預(yù)訓(xùn)練得到的權(quán)重進(jìn)行參數(shù)微調(diào),批大小設(shè)置為8,動(dòng)量為0.9,訓(xùn)練輪數(shù)(epoch)為100,權(quán)重衰減值為0.000 01,初始學(xué)習(xí)率(Learning Rate,LR)為0.001,每2 個(gè)epoch 后LR 指數(shù)衰減0.9。

      2.3.1 消融實(shí)驗(yàn)

      本文在Stanford Cars 數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),驗(yàn)證本文方法的有效性。消融實(shí)驗(yàn)結(jié)果如表2 所示,基準(zhǔn)模型采用原始的ResNet-50 網(wǎng)絡(luò)結(jié)構(gòu)。

      表2 消融實(shí)驗(yàn)結(jié)果Table 2 Results of ablation experiment %

      從表2 可以看出,ResNet-50 網(wǎng)絡(luò)車型識(shí)別準(zhǔn)確率達(dá)到91.02%。在ResNet-50 網(wǎng)絡(luò)中嵌入CA 模塊后,ResNet-50+CA 方法的準(zhǔn)確率比ResNet-50 提升了1.87 個(gè)百分點(diǎn),說明該注意力機(jī)制能夠?qū)W習(xí)到車輛具有鑒別性的區(qū)域特征,提高模型的表達(dá)能力。如果在ResNet-50 網(wǎng)絡(luò)中僅使用WS-DAN 方法,車型識(shí)別準(zhǔn)確率也有所提高,準(zhǔn)確率為94.53%。本文方法是在ResNet-50 網(wǎng)絡(luò)中同時(shí)使用CA 和WS-DAN 的方法,車型識(shí)別準(zhǔn)確率達(dá)到94.86%,說明本文方法在有效增強(qiáng)數(shù)據(jù)的同時(shí),使得提取的特征更加具有可區(qū)分性,從而提升車型識(shí)別的性能。

      2.3.2 CA 模塊與SENet 模塊的對(duì)比

      本文在Stanford Cars數(shù)據(jù)集上對(duì)CA 模塊與SENet模塊進(jìn)行對(duì)比,以驗(yàn)證CA 模塊的有效性,從而改進(jìn)車型識(shí)別的效果。不同注意力模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型損失曲線如圖4 所示。

      圖4 不同注意力模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型損失曲線Fig.4 Loss curves of data augmentation models with different attention modules guided

      從圖4 可以看出,在模型的訓(xùn)練過程中,經(jīng)過SENet 模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型損失曲線在訓(xùn)練輪數(shù)為10 時(shí)出現(xiàn)了較大的波動(dòng),之后緩慢下降,在訓(xùn)練輪數(shù)為50 時(shí)基本趨于收斂。CA 模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型損失曲線在整個(gè)訓(xùn)練過程中平滑下降,收斂速度比SENet 模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型曲線快。

      不同注意模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型準(zhǔn)確率曲線如圖5 所示。從圖5 可以看出,SENet 和CA 這2種注意力引導(dǎo)的數(shù)據(jù)增強(qiáng)模型準(zhǔn)確率曲線的趨勢(shì)相近,但是CA 模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型的準(zhǔn)確率高于SENet 模塊,說明這2 種注意力機(jī)制均可以增強(qiáng)模型對(duì)車輛鑒別性區(qū)域的表示能力。但是注意力SENet模塊僅考慮了模型通道之間的相互依賴關(guān)系,忽略了位置信息的重要性,而CA 模塊將通道注意力分解為2 個(gè)一維特征編碼,分別沿2 個(gè)空間方向聚集特征,使得模型能夠沿著一個(gè)空間方向捕獲遠(yuǎn)程依賴關(guān)系,同時(shí)沿著另一個(gè)空間方向獲得精確的位置信息。因此,本文所提的CA 模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型具有更優(yōu)的識(shí)別效果。

      圖5 不同注意力模塊引導(dǎo)的數(shù)據(jù)增強(qiáng)模型準(zhǔn)確率曲線Fig.5 Accuracy curves of data augmentation models with different attention modules guided

      2.3.3 熱力圖可視化

      不同模型的車型識(shí)別熱力圖[19]如圖6 所示。從圖6(b)可以看出,原始模型ResNet-50 對(duì)車輛的特征提取不明顯,難以關(guān)注到車輛的鑒別性區(qū)域。從圖6(c)可以看出,在原模型中嵌入注意力CA 模塊后,網(wǎng)絡(luò)對(duì)于特征的提取集中在車輛的尾部,說明該區(qū)域的鑒別性強(qiáng),對(duì)于車型的正確分類具有重要作用。

      圖6 不同模型的車型識(shí)別熱力圖Fig.6 Heatmaps for vehicle type recognition of different models

      2.3.4 注意力引導(dǎo)的數(shù)據(jù)增強(qiáng)與隨機(jī)數(shù)據(jù)增強(qiáng)對(duì)比

      注意力裁剪與隨機(jī)裁剪方式的效果對(duì)比如圖7 所示。從圖7(a)可以看出,注意力裁剪能夠有效裁剪出車型的整個(gè)區(qū)域。從圖7(b)可以看出,隨機(jī)裁剪把車尾部分裁掉了,如果鑒別性特征聚集在車尾部分,那么隨機(jī)裁剪使得車尾信息丟失,識(shí)別效果相比注意力裁剪的數(shù)據(jù)增強(qiáng)效果差。

      圖7 注意力裁剪與隨機(jī)裁剪對(duì)比Fig.7 Comparison between attention cropping and random cropping

      注意力擦除和隨機(jī)擦除方式的效果對(duì)比如圖8 所示。從圖8(a)可以看出,注意力擦除可以擦除車輛的某個(gè)部分,使得網(wǎng)絡(luò)去尋找車輛其他鑒別性區(qū)域的特征,提高模型的魯棒性。從圖8(b)可以看出,隨機(jī)擦除的部分是背景噪聲,不在車輛區(qū)域上,而背景噪聲對(duì)車型識(shí)別沒有幫助,無法使網(wǎng)絡(luò)學(xué)習(xí)車輛其他更多的鑒別性區(qū)域,使得數(shù)據(jù)增強(qiáng)效果較低。

      圖8 注意力擦除與隨機(jī)擦除對(duì)比Fig.8 Comparison between attention erasure and random erasure

      2.3.5 不同識(shí)別方法對(duì)比

      不同方法的識(shí)別準(zhǔn)確率對(duì)比如表3 所示。從表3可以看出,相比VGG-19 方法[20],Inception-v3 方法[21]的識(shí)別準(zhǔn)確率提高了5.12 個(gè)百分點(diǎn)。RA-CNN 方法[22]通過逐漸聚焦圖像的關(guān)鍵區(qū)域,融合不同尺度的注意力區(qū)域信息,其準(zhǔn)確率為92.50%。MA-CNN 方法[23]則提出多注意力網(wǎng)絡(luò),通過特征通道生成更多的判別部分,并以相互強(qiáng)化的方式從判別部分學(xué)習(xí)更優(yōu)的細(xì)粒度特征,相比RA-CNN 方法,準(zhǔn)確率提高0.31 個(gè)百分點(diǎn)。WS-DAN 方法[16]使用的骨干網(wǎng)絡(luò)是Inception-v3,基于弱監(jiān)督學(xué)習(xí)有效提高數(shù)據(jù)增強(qiáng)的效率,車型識(shí)別準(zhǔn)確率為94.5%。相比WS-DAN+Inception-v3 方法,本文方法的車型識(shí)別準(zhǔn)確率提高了0.36 個(gè)百分點(diǎn),在增強(qiáng)數(shù)據(jù)的同時(shí)提高模型的識(shí)別能力。

      表3 不同方法的識(shí)別準(zhǔn)確率對(duì)比Table 3 Recognition accuracy comparison among different methods %

      3 結(jié)束語

      針對(duì)傳統(tǒng)方法車輛數(shù)據(jù)不足且識(shí)別率較低的問題,本文提出基于注意力引導(dǎo)數(shù)據(jù)增強(qiáng)的車型識(shí)別方法。使用ResNet-50 骨干網(wǎng)絡(luò)提取特征,在網(wǎng)絡(luò)的每個(gè)殘差塊后都嵌入坐標(biāo)注意力模塊,以準(zhǔn)確定位車輛的鑒別性區(qū)域,增強(qiáng)車輛鑒別性區(qū)域的特征表示。利用雙線性注意力匯集生成增強(qiáng)特征圖,并對(duì)其進(jìn)行注意力裁剪和注意力擦除以獲得增強(qiáng)數(shù)據(jù)。在Stanford Cars 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與RA-CNN 方法、MA-CNN 方法、WS-DAN+Inception-v3 等方法相比,本文方法能夠有效提高車型識(shí)別準(zhǔn)確率且具有較優(yōu)的魯棒性。下一步將采用知識(shí)蒸餾技術(shù),把知識(shí)從繁瑣的模型轉(zhuǎn)移到更適合部署的小模型上,使車型識(shí)別模型適用于嵌入式邊緣設(shè)備。

      猜你喜歡
      注意力準(zhǔn)確率卷積
      讓注意力“飛”回來
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      A Beautiful Way Of Looking At Things
      松滋市| 涞水县| 邵阳县| 乾安县| 荥经县| 定安县| 贵溪市| 揭阳市| 姚安县| 巴林右旗| 环江| 保德县| 荣昌县| 德昌县| 永兴县| 仙桃市| 台安县| 霍邱县| 新营市| 尚义县| 奈曼旗| 洞头县| 沂源县| 桐城市| 清水县| 唐河县| 潜山县| 泊头市| 新巴尔虎左旗| 漳浦县| 化州市| 红安县| 旅游| 青铜峡市| 轮台县| 眉山市| 湘潭县| 穆棱市| 芦山县| 营山县| 闵行区|