郎斌柯,呂斌,吳建清,吳瑞年
1)蘭州交通大學(xué)交通運(yùn)輸學(xué)院,甘肅 蘭州 730070;2)山東大學(xué)齊魯交通學(xué)院,山東 濟(jì)南 250002;3)蘭州市大數(shù)據(jù)管理局,甘肅 蘭州 730070
交通標(biāo)志是用漢字或符號(hào)傳達(dá)導(dǎo)向、控制、警戒或指揮等信號(hào)的道路設(shè)施,能夠熟練解讀標(biāo)志含義是每個(gè)駕駛員的基本要求,對(duì)于自動(dòng)駕駛也是如此.交通標(biāo)志檢測是自動(dòng)駕駛及輔助駕駛系統(tǒng)的重要研究方向,正確識(shí)別道路交通標(biāo)志關(guān)系著智能駕駛?cè)蝿?wù)的成敗.
交通標(biāo)志檢測優(yōu)化模型包括基于人力的交通標(biāo)志檢測優(yōu)化模型和基于深度神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志檢測優(yōu)化模型[1-2].基于深度神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志檢測優(yōu)化模型包括1 階段目標(biāo)檢測模型和2 階段目標(biāo)檢測模型.2階段目標(biāo)檢測模型需從圖片中產(chǎn)生候選區(qū)(運(yùn)行后續(xù)模型的子區(qū)域),再從候選區(qū)域中生成最終的物體檢測邊框[3].與2 階段目標(biāo)檢測模型相比,1階段目標(biāo)檢測模型直接得到目標(biāo)物體的分類概率和方位坐標(biāo)值,并通過此環(huán)節(jié)直接獲得最后的檢測結(jié)果.1 階段目標(biāo)檢測模型包括SSD(single shot multibox detector)[8]與YOLO(you only look once)[9-11]系列等.
2 階段目標(biāo)檢測模型的精度一般高于1 階段檢測模型,但2 階段目標(biāo)檢測模型的計(jì)算速率較慢,無法滿足實(shí)際應(yīng)用中實(shí)時(shí)性的需要.1階段目標(biāo)檢測模型同時(shí)確保了精度和處理速度,因而其應(yīng)用范圍更廣泛[12].但是由于交通標(biāo)志目標(biāo)通常為小目標(biāo)(物體相對(duì)圖像占比小于0.58%[13])物體,所以,上述檢模型的精度均不能滿足實(shí)際需求.
注意力機(jī)制可以根據(jù)圖像中不同位置的重要程度提取圖像信息,從而使神經(jīng)網(wǎng)絡(luò)專注于圖像中更重要的部分[14].因此,在檢測模型中引入注意力機(jī)制有助于提高模型對(duì)于小目標(biāo)物體的檢測精度.基于此,考慮檢測實(shí)時(shí)性和精度的要求,本研究選擇YOLOv5(you only look once version 5)為基礎(chǔ)檢測模型,并以此為骨干網(wǎng)絡(luò),在骨干網(wǎng)絡(luò)中添加協(xié)調(diào)注意力(coordinate attention,CA)機(jī)制,聚焦于小目標(biāo)交通標(biāo)志檢測.同時(shí)在模型特征融合部分引入加權(quán)雙向特征金字塔網(wǎng)絡(luò),增強(qiáng)不同尺度特征圖融合效果,進(jìn)一步提升模型檢測精度.
在保證實(shí)時(shí)檢測精度的前提下,為提高YOLOv5 網(wǎng)絡(luò)模型對(duì)交通標(biāo)志的識(shí)別精度,本研究提出基于協(xié)調(diào)注意力-雙向特征金字塔網(wǎng)絡(luò)(coordinate attention - bidirectional feature pyramid network,CA-BIFPN)的交通標(biāo)志檢測模型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1.可見,基于CA-BIFPN的檢測模型網(wǎng)絡(luò)結(jié)構(gòu)主要由輸入、骨干網(wǎng)絡(luò)、Neck 特征融合網(wǎng)絡(luò)及預(yù)測網(wǎng)絡(luò)構(gòu)成.其中,CBS(convolution,batch normalization,SiLU)為卷積-批標(biāo)準(zhǔn)化-SiLU 激活函數(shù)組合模塊;CSP(cross stage partial)為跨階段分區(qū)網(wǎng)絡(luò),分為CSP1-x和CSP2-y,x和y分別為殘差模塊數(shù)量和CBS 數(shù)量;SPPF(spatial pyramid pooling - fast)為快速空間金字塔池化.采用YOLOv5 6.0 版本神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)網(wǎng)絡(luò),在其骨干網(wǎng)絡(luò)中加入CA 機(jī)制,實(shí)現(xiàn)在添加少量訓(xùn)練參數(shù)的同時(shí)增加網(wǎng)絡(luò)特征提取能力.相關(guān)注意力對(duì)比實(shí)驗(yàn)[15]表明,雖然通道注意力能夠顯著提高模型性能,但其容易忽視與空間選擇性注意力產(chǎn)生密切相關(guān)的位置信息,在CA 機(jī)制中將位置信息放入通道注意力中,則能夠較好規(guī)避這個(gè)問題.YOLOv5 與注意機(jī)制的結(jié)合方式為[16]:①將注意力機(jī)制與Neck 特征網(wǎng)絡(luò)融合,替換骨干網(wǎng)絡(luò)中所有跨階段局部網(wǎng)絡(luò)(cross stage partial networks,CSPN)模塊;② 在骨干網(wǎng)絡(luò)后單獨(dú)加入注意力機(jī)制.本研究采用后種方法,即將CA 機(jī)制加入至空間金字塔前,隨后導(dǎo)入Neck 特征融合網(wǎng)絡(luò),在特征融合網(wǎng)絡(luò)中混合不一樣的特征圖.選用加權(quán)雙向特征金字塔網(wǎng)絡(luò),可以將交通標(biāo)志圖像的各個(gè)特征合理融合,有效解決各尺度特征信息不一致以及其他特征金字塔計(jì)算量大的問題.以下分別說明檢測模型各優(yōu)化模塊的組成.
圖1 CA-BIFPN模型網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 (Color online) Network structure of CA-BIFPN model.
注意力機(jī)制的本質(zhì)是尋找特定的數(shù)據(jù)信號(hào),操縱無用信息,結(jié)果一般以幾率圖和概率特征空間向量的形式表達(dá),有利于增強(qiáng)神經(jīng)網(wǎng)絡(luò)對(duì)于小目標(biāo)物體的檢測精度.注意力機(jī)制模型可分為空間注意力、通道注意力及混合注意力模型[17].
空間注意力模型偏向全部通道,在二維平面圖中訓(xùn)練尺寸為H×W的特征圖權(quán)重值矩陣,并為全部圖像單元獲得1個(gè)權(quán)重值.該權(quán)重表示某個(gè)空間位置信息的重要程度,將空間注意力矩陣附著到原始特征圖像上,以增加可用特征,減少無效特征,進(jìn)而達(dá)到特征篩選與增強(qiáng)的目的.
與空間注意力不同,通道注意力類似于在各個(gè)通道的特征圖中都給出1個(gè)權(quán)重值,表明方式和重要信息之間的關(guān)聯(lián)性,該權(quán)重值與相關(guān)性呈正相關(guān)關(guān)系[18].在深度神經(jīng)網(wǎng)絡(luò)中,層面越高,特征度的尺寸越小,但通道數(shù)量更多.通道還體現(xiàn)全部圖形的特點(diǎn)信息,信息過多時(shí)神經(jīng)元網(wǎng)絡(luò)難以挑選出有效信息,此時(shí)利用通道注意力就可以使網(wǎng)絡(luò)判斷出最重要信息,這也是利用通道注意力進(jìn)行目標(biāo)檢測時(shí)效果更優(yōu)的原因[19].CA 機(jī)制為混合注意力,其包含了通道注意力和空間注意力,也繼承了二者的優(yōu)點(diǎn),使CA 在獲得跨通道信息的同時(shí),獲得方向感知和位置感知信息,因此,檢測模型可以對(duì)目標(biāo)進(jìn)行更為精準(zhǔn)地定位與識(shí)別.CA 機(jī)制模型如圖2.其中,C為通道數(shù);r為縮減因子.CA 應(yīng)用精確的部位信息對(duì)通道關(guān)聯(lián)信息和長期性依靠信息展開編碼,編碼過程包括坐標(biāo)(coordinate)信息嵌入和CA生成[20].
圖2 CA機(jī)制示意Fig.2 Schematic diagram of CA mechanism.
在坐標(biāo)信息嵌入過程中,全局池化方法通常用作對(duì)空間內(nèi)容的整體編碼,但由于該方式將去全局空間信息內(nèi)容壓縮在通道描述中,無法表達(dá)信息的位置內(nèi)容.為使控制模塊可以更好捕獲具備精確部位信息的遠(yuǎn)程空間交互,利用式(1)計(jì)算全局池劃分,并將其變換為一維特征編碼.
其中,zc是變量通道c的輸出;特征圖的高度和寬度分別為H和W;通道c的坐標(biāo)值為xc(i,j).使用長和寬為(H,1)和(1,W)的池化核在水平和豎直坐標(biāo)方位對(duì)每個(gè)通道進(jìn)行編碼,相對(duì)高度為h的輸出zhc(h)可表述為
與通道注意力中轉(zhuǎn)化成單獨(dú)特征空間向量的控制模塊方式不同,式(1)和式(2)的轉(zhuǎn)換方式各自在2 個(gè)空間上開展特征融合,獲得1 對(duì)空間方位上感知的特征圖.這兩種轉(zhuǎn)換方式能夠使實(shí)體模型捕獲與另一個(gè)空間方位的相互聯(lián)系,并維持從另一個(gè)空間方位的精準(zhǔn)位置信息,進(jìn)而根據(jù)網(wǎng)絡(luò)尋找合適的總體目標(biāo)[21-22],可以取得比全局編碼更準(zhǔn)確的信息.
將式(1)和式(2)兩種輸出結(jié)果應(yīng)用到另一種轉(zhuǎn)換,完成CA 生成.CA 設(shè)計(jì)準(zhǔn)則包括:① 新的轉(zhuǎn)化全過程應(yīng)盡量簡單;② 注意力機(jī)制應(yīng)能靈活運(yùn)用捕獲的信息,使感興趣的區(qū)域信息能夠被精確捕捉;③ 設(shè)計(jì)還需合理捕捉信息通道間的關(guān)聯(lián).特征信息轉(zhuǎn)換完成后進(jìn)行Concatenate函數(shù)變換,隨后根據(jù)1 × 1卷積神經(jīng)網(wǎng)絡(luò)變換F1函數(shù)進(jìn)行變換,為
其中,F(xiàn)1為卷積變換函數(shù);[,]為Concatenate 函數(shù)變換;σ為空間信息在水平和豎直方位編碼的中間特征投射,可用來操縱CA的控制模塊尺寸減縮率.
通常尺度較大的特征圖更適于檢測小目標(biāo)物體,尺度較小的特征圖更適于檢測大目標(biāo)物體,而將兩者結(jié)合的特征金字塔則能更好兼具大小目標(biāo)的檢測.最早的特征金字塔網(wǎng)絡(luò)(feature pyramid network,F(xiàn)PN)[23]是一個(gè)自上而下的單項(xiàng)特征融合金字塔結(jié)構(gòu),如圖3.運(yùn)算過程中,F(xiàn)PN的p6—p3輸出層先將上一次特征圖像的上采樣結(jié)果進(jìn)行特征融合,再經(jīng)過與p7相同的運(yùn)算流程,最終形成5個(gè)不同尺寸的特征圖像,供后續(xù)網(wǎng)絡(luò)檢測.
圖3 FPN結(jié)構(gòu)示意Fig.3 (Color online) FPN structure.
圖4 BIFPN結(jié)構(gòu)示意Fig.4 (Color online) BIFPN structure.
FPN可通過由頂向下的傳遞路徑來獲得語義更加豐富的特征,并將特征與更準(zhǔn)確的位置信息結(jié)合.但針對(duì)由大目標(biāo)產(chǎn)生的掩碼,空間信息可能要傳遞數(shù)百層,導(dǎo)致傳遞路徑過于冗長,使網(wǎng)絡(luò)高層信息與低層信息無法有效結(jié)合,出現(xiàn)信息丟失.
路徑聚合網(wǎng)絡(luò)(path aggregation network,PANet)是一種改進(jìn)的FPN,該網(wǎng)絡(luò)通過使用由底層至頂層的橫向連線來縮短傳輸路徑,引入另一種由底向上的傳輸途徑[24].PANet相對(duì)于FPN具有更好的網(wǎng)絡(luò)精度,但其網(wǎng)絡(luò)規(guī)模較大、參數(shù)量多,計(jì)算效率較低.TAN 等[25]提出的雙向特征金字塔網(wǎng)絡(luò)(bidirectional feature pyramid network,BIFPN)引入了跳躍連接,即在相同尺度的輸入節(jié)點(diǎn)到輸出節(jié)點(diǎn)中間再增加1個(gè)跳躍連接,因?yàn)檫\(yùn)算處于相同層,該方法可在參數(shù)較少的情況下結(jié)合更多特征.BIFPN將每1 條雙向路徑視作1 個(gè)特征網(wǎng)絡(luò)層,并對(duì)同一層參數(shù)進(jìn)行多次計(jì)算,以實(shí)現(xiàn)更多的特征融合.
由于不同輸入特征具有不同分辨率,因此,特征對(duì)于網(wǎng)絡(luò)的影響也不同.針對(duì)無界融合、Softmax基礎(chǔ)融合以及快速歸一化融合方法的比較結(jié)果表明,無界融合訓(xùn)練不穩(wěn)定,需要使用權(quán)重歸一化進(jìn)行約束;Softmax 基礎(chǔ)融合能表示出每個(gè)輸入的重要程度,但會(huì)導(dǎo)致計(jì)算量增加;快速歸一化融合與Softmax 基礎(chǔ)融合類似,但沒有將Softmax 函數(shù)應(yīng)用到參數(shù)中,因此,其運(yùn)算準(zhǔn)確度與Softmax 基礎(chǔ)融合類似,而計(jì)算速度較Softmax 基礎(chǔ)融合更快[25].本研究選擇快速歸一化融合方法作為BIFPN的融合算法.
本研究采用由騰訊公司與清華大學(xué)聯(lián)合制定的數(shù)據(jù)集TT100K,該數(shù)據(jù)集包含9 176幅道路與交通標(biāo)志牌圖片.其中,6 105幅為訓(xùn)練集;3 071幅為測試集.每幅圖片都包括道路交通標(biāo)志的一些案例,其中,訓(xùn)練集包括16 527個(gè)案例;測試集包括8 190 個(gè)案例.涉及的道路交通標(biāo)志牌類型有221種.由于TT100K 中221 種交通標(biāo)志分布不均衡,部分交通標(biāo)志如山體滑坡等相對(duì)罕見,為提高訓(xùn)練效果,本研究將所有數(shù)據(jù)進(jìn)行清洗,去除無標(biāo)簽和出現(xiàn)頻次較少的交通標(biāo)志種類,篩選出7 972 幅超過100幅圖像的45種交通標(biāo)志.對(duì)清洗圖像采用隨機(jī)旋轉(zhuǎn)和拓展數(shù)據(jù),包含放縮和增加高斯噪聲[26],處理后的最終數(shù)據(jù)集共包括23 916 幅圖像,其中,訓(xùn)練集15 873幅;測試集8 043幅.
為測試模型在有霧環(huán)境下的檢測效果,對(duì)最終數(shù)據(jù)集隨機(jī)使用紅綠藍(lán)(red green blue,RGB)通道合成霧、中心點(diǎn)合成霧及隨機(jī)合成霧3種算法進(jìn)行圖像加霧處理,制成霧天數(shù)據(jù)集進(jìn)行輔助實(shí)驗(yàn).
本實(shí)驗(yàn)操作系統(tǒng)為Windows10,訓(xùn)練使用的顯卡為NVIDIA RTX2070,顯存為8 Gbyte,深度學(xué)習(xí)框 架 為Python 3.7、TensorFlow 2.0 和Pytorch 1.8.1.為保證對(duì)比結(jié)果的客觀性,實(shí)驗(yàn)對(duì)不同網(wǎng)絡(luò)進(jìn)行測試時(shí)應(yīng)用相同的超參數(shù),如表1.
表1 超參數(shù)設(shè)置Table 1 Hyperparameter setting
采用平均精度均值mAP(mean average precision)作為模型評(píng)價(jià)指標(biāo).mAP 通過統(tǒng)計(jì)模型成功檢測數(shù)量與目標(biāo)總數(shù)比值來評(píng)價(jià)模型優(yōu)劣,mAP值越高,表明目標(biāo)檢測模型在給定數(shù)據(jù)集上的檢測效果越好.通過選擇不同的交并比(預(yù)測框與真實(shí)框重疊面積與總面積之比)閾值來統(tǒng)計(jì)不同標(biāo)準(zhǔn)下模型的精度均值,常用的有mAP 0.50(交并比閾值為0.50)和mAP 0.50∶0.95(交并比閾值從0.50 到0.95,步長為0.05).mAP的計(jì)算過程為
其中,PrecesionCn表示圖像n中,模型對(duì)于類別為C的目標(biāo)檢測準(zhǔn)確度;N(TruePositives)Cn為圖像n中,類別為C正確檢測的目標(biāo)數(shù)量;N(TotalObjects)Cn為圖像n中,類別為C的目標(biāo)數(shù)量;APC為模型對(duì)類別為C的平均檢測準(zhǔn)確度;N(TotalImages)C表示存在類別為C的目標(biāo)的圖像數(shù)量,如總共20 幅圖像中,有10 幅圖像有類別為C的目標(biāo),則N(TotalImages)C= 10;N(Classes)為類別數(shù)量.
分別使用SSD、YOLOv5、YOLOv5+CA 模塊、YOLOv5+BIFPN 模塊及CA-BIFPN 模型的mAP 作為實(shí)驗(yàn)評(píng)價(jià)指標(biāo)值,進(jìn)行檢測模型性能對(duì)比,結(jié)果見表2.可見,在相同參數(shù)訓(xùn)練條件下,分別加入CA和BIFPN 模塊的YOLOv5 模型的mAP 0.50 上升0.5%和0.3%;CA-BIFPN 模型的mAP 0.50 相比SSD和YOLOv5分別提升4.5%和1.3%.CA-BIFPN模型的mAP 0.50∶0.95 與SSD 和YOLOv5 相比分別提升4.1%和1.2%.在模擬霧天環(huán)境下,CA-BIFPN模型精度為80.5%,高于原模型的80.3%,CABIFPN 的mAP 0.50∶0.95 與 原 模 型 相 比 提 升 了0.6%.
表2 檢測模型性能結(jié)果Table 2 Model performance results %
在YOLOv5 模型中引入BIFPN 模塊并加入注意力機(jī)制后,研究模型對(duì)數(shù)據(jù)集中小目標(biāo)物體的檢測精準(zhǔn)度,從45類交通標(biāo)志中分別選取mAP 0.50最高和最低的2 類進(jìn)行對(duì)比,結(jié)果見表3.由表3 可見,與YOLOv5 相比,CA-BIFPN 模型的各類小目標(biāo)交通標(biāo)志精準(zhǔn)度均有所提高,表3 中4 種交通標(biāo)志的mAP 0.50 分別提高2.2%、2.5%、0.3%及0.5%.
表3 TT100K中mAP 0.50最高和最低的4類交通標(biāo)志Table 3 Value of mAP 0.50 for the highest and lowest 4 types of traffic signs in TT100K %
為進(jìn)一步驗(yàn)證CA-BIFPN 模型的可靠性,從某市和某高速公路隨機(jī)選取5幅交通標(biāo)志圖像進(jìn)行檢測,結(jié)果如圖5,圖中檢測框上側(cè)的字母和數(shù)字分別表示目標(biāo)分類類型和概率.其中,圖5(a)和(b)分別為CA-BIFPN 模型城市道路中遠(yuǎn)、近目標(biāo)檢測結(jié)果;圖5(c)、(e)及(g)為CA-BIFPN、YOLOv5及SSD 模型高架道路中多目標(biāo)遠(yuǎn)距離檢測結(jié)果;圖5(d)、(f)及(h)為CA-BIFPN、YOLOv5 及SSD 模型高速公路中多目標(biāo)近距離檢測結(jié)果;圖5(i)、(j)及(k)為CA-BIFPN、YOLOv5 及SSD 模型霧天交通標(biāo)志檢測檢測結(jié)果.圖5(a)和(b)表明,交通標(biāo)志位于較遠(yuǎn)處時(shí)仍能被正確檢測出;圖5(d)、(f)及(h)表明,SSD 模型發(fā)生了1 處誤檢,CA-BIFPN 與YOLOv5 模型在近距離檢測中無較大差距;圖5(c)、(e)和(g)表明,僅CA-BIFPN 模型實(shí)現(xiàn)了對(duì)小目標(biāo)的檢測,YOLOv5 和SSD 均出現(xiàn)不同程度漏檢;圖5(i)、(j)和(k)表明,本模型在部分霧天環(huán)境下也能實(shí)現(xiàn)對(duì)交通標(biāo)志的有效檢測.
圖5 不同道路環(huán)境下CA-BIFPN、YOLOv5及SSD模型的交通標(biāo)志檢測結(jié)果 (a)CA-BIFPN模型城市交通標(biāo)志遠(yuǎn)距離檢測;(b)CA-BIFPN模型城市交通標(biāo)志近距離檢測;(c)CA-BIFPN模型高架交通標(biāo)志遠(yuǎn)距離多目標(biāo)檢測;(d)CA-BIFPN模型高架交通標(biāo)志近距離多目標(biāo)檢測;(e)YOLOv5模型高架交通標(biāo)志遠(yuǎn)距離多目標(biāo)檢測;(f)YOLOv5模型高架交通標(biāo)志近距離多目標(biāo)檢測;(g)SSD模型高架交通標(biāo)志遠(yuǎn)距離多目標(biāo)檢測;(h)SSD模型高架交通標(biāo)志近距離多目標(biāo)檢測;(i)CA-BIFPN模型霧天交通標(biāo)志檢測;(j)YOLOv5模型霧天交通標(biāo)志檢測;(k)SSD模型霧天交通標(biāo)志檢測Fig.5 (Color online) CA-BIFPN, YOLOv5 and SSD traffic sign detection results in different road environments.(a) CA-BIFPN long-range detection of urban traffic signs, (b) CA-BIFPN proximity detection of urban traffic signs, (c) CA-BIFPN long-range multi-target detection of traffic signs on elevated roads, (d) CA-BIFPN proximity multi-target detection of traffic signs on elevated roads,(e) YOLOv5 long-range multi-target detection of traffic signs on elevated roads, (f) YOLOv5 proximity multi-target detection of traffic signs on elevated roads, (g) SSD long-range multi-target detection of traffic signs on elevated roads, (h) SSD proximity multi-target detection of traffic signs on elevated roads, (i) CA-BIFPN detection of traffic signs in foggy, (j) YOLOv5 detection of traffic signs in foggy, and (k) SSD detection of traffic signs in foggy.
交通標(biāo)志檢測對(duì)于智能交通的意義重大,本研究提出CA-BIFPN 交通標(biāo)志檢測模型,以YOLOv5為骨干網(wǎng)絡(luò),引入CA 機(jī)制聚焦小目標(biāo)物體,在Neck 網(wǎng)絡(luò)中使用BIFPN 加權(quán)雙向特征金字塔,進(jìn)一步提高了網(wǎng)絡(luò)融合效果.基于TT100K 數(shù)據(jù)集,將本模型與SSD 和YOLOv5 等經(jīng)典目標(biāo)檢測模型進(jìn)行比較檢測實(shí)驗(yàn),結(jié)果顯示本模型的平均檢測精度mAP 0.50 和mAP 0.50∶0.95 分 別 為83.9% 和62.3%,相比YOLOv5 網(wǎng)絡(luò)提高了1.3%和1.2%,在交通標(biāo)志檢測中更可靠,在除極端雨雪氣候及光照變化影響外的場景中均有較好的檢測效果.本模型雖然提高了交通標(biāo)志檢測精度,但CA 機(jī)制的引用以及BIFPN增加了模型的訓(xùn)練參數(shù),降低了模型的運(yùn)行速率,同時(shí)本模型缺少對(duì)于極端天氣情況下的特殊檢測優(yōu)化,因此,后續(xù)研究中仍需要針對(duì)以上問題進(jìn)一步改進(jìn),以提高模型檢測效率.
參考文獻(xiàn) / References:
[1]李銘興,徐成,李學(xué)偉.交通標(biāo)志識(shí)別研究綜述[C]//中國計(jì)算機(jī)用戶協(xié)會(huì)網(wǎng)絡(luò)應(yīng)用分會(huì)第二十五屆網(wǎng)絡(luò)新技術(shù)與應(yīng)用年會(huì)論文集.北京:中國計(jì)算機(jī)用戶協(xié)會(huì)網(wǎng)絡(luò)應(yīng)用分會(huì),2021:196-199.LI Mingxing, XU Cheng, LI Xuewei.Summary of research on traffic sign recognition in urban traffic scenes [C]// Proceedings of the 25th Annual Conference on New Network Technologies and Applications, Network Application Branch of China Computer Users Association.Beijing:Network Application Branch of China Computer Users Association, 2021: 196-199.(in Chinese)
[2]陳飛,劉云鵬,李思遠(yuǎn).復(fù)雜環(huán)境下的交通標(biāo)志檢測與識(shí)別方法綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(16):65-73.CHEN Fei, LIU Yunpeng, LI Siyuan.Survey of traffic sign detection and recognition methods in complex environment [J].Computer Engineering and Applications,2021, 57(16): 65-73.(in Chinese)
[3]楊曉玲,江偉欣,袁浩然.基于yolov5的交通標(biāo)志識(shí)別檢測[J].信息技術(shù)與信息化,2021(4):28-30.YANG Xiaoling, JIANG Weixin, YUAN Haoran.Recognition and detection of traffic signs based on yolov5 [J].Information Technology and Informatization, 2021 (4): 28-30.(in Chinese)
[4]GIRSHICK R, DONAHUE J, DARRELL T, et al.Rich feature hierarchies for accurate object detection and semantic segmentation [C]// IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, USA:IEEE, 2014: 580-587.
[5]GIRSHICK R.Fast R-CNN [C]// IEEE International Conference on Computer Vision (ICCV).Piscataway, USA:IEEE, 2015: 1440-1448.
[6]REN Shaoqing, HE Kaiming, GIRSHICK R, et al.Faster R-CNN: towards real-time object detection with region proposal networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[7]CAI Zhaowei, VASCONCELOS N.Cascade R-CNN:delving into high quality object detection [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE, 2018: 6154-6162.
[8]LIU Wei, ANGUELOV D, ERHAN D, et al.SSD: single shot MultiBox detector [C]//The 14th European Conference Computer Vision - ECCV 2016.Amsterdam: Springer,2016: 21-37.
[9]REDMON J, DIVVALA S, GIRSHICK R, et al.You only look once: unified, real-time object detection [C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway, USA: IEEE, 2016: 779-788.
[10]REDMON J, FARHADI A.YOLO9000: better, faster,stronger [C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, USA: IEEE,2017: 6517-6525.
[11]REDMON J, FARHADI A.YOLOv3: an incremental improvement [EB/OL].(2018-04-08) [2022-05-10].https://doi.org/10.48550/arxiv.1804.02767.
[12]寇大磊,權(quán)冀川,張仲偉.基于深度學(xué)習(xí)的目標(biāo)檢測框架進(jìn)展研究[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(11):25-34.KOU Dalei, QUAN Jichuan, ZHANG Zhongwei.Research on progress of object detection framework based on deep learning [J].Computer Engineering and Applications,2019, 55(11): 25-34.(in Chinese)
[13]CHEN Chenyi, LIU Mingyu, TUZEL O, et al.R-CNN for small object detection [C]// Asian Conference on Computer Vision - ACCV 2016.Taipei, China: Springer, 2017:214-230.
[14]張宸嘉,朱磊,俞璐.卷積神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(20):64-72.ZHANG Chenjia, ZHU Lei, YU Lu.A review of attention mechanisms in convolutional neural networks [J].Computer Engineering and Applications, 2021, 57(20): 64-72.(in Chinese)
[15]鞠默然,羅江寧,王仲博,等.融合注意力機(jī)制的多尺度目標(biāo)檢測算法[J].光學(xué)學(xué)報(bào),2020,40(13):126-134.JU Moran, LUO Jiangning, WANG Zhongbo, et al.Multiscale target detection algorithm based on attention mechanism [J].Acta Optica Sinica, 2020, 40(13): 126-134.(in Chinese)
[16]徐誠極,王曉峰,楊亞東.Attention-YOLO:引入注意力機(jī)制的YOLO 檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(6):13-23.XU Chengji, WANG Xiaofeng, YANG Yadong.Attention-YOLO: YOLO detection algorithm that introduces attention mechanism [J].Computer Engineering and Applications, 2019, 55(6): 13-23.(in Chinese)
[17]任歡,王旭光.注意力機(jī)制綜述[J].計(jì)算機(jī)應(yīng)用,2021,41(增刊1):1-6.REN Huan, WANG Xuguang.Review of attention mechanism [J].Journal of Computer Applications, 2021, 41(Suppl.1): 1-6.(in Chinese)
[18]劉玉紅,陳滿銀,劉曉燕.基于通道注意力的多尺度全卷積壓縮感知重構(gòu)[J/OL].計(jì)算機(jī)工程:1-8 [2022-04-29].DOI:10.19678/j.issn.1000-3428.0063546.LIU Yuhong, CHEN Manyin, LIU Xiaoyan.Multi-scale full convolution compressed perceptual reconstruction based on channel attention [J/OL].Computer Engineering:1-8[2022-04-29].DOI: 10.19678/j.issn.1000-3428.0063546.(in Chinese)
[19]許德剛,王露,李凡.深度學(xué)習(xí)的典型目標(biāo)檢測算法研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(8):10-25.XU Degang, WANG Lu, LI Fan.Review of typical object detection algorithms for deep learning [J].Computer Engineering and Applications, 2021, 57(8): 10-25.(in Chinese)
[20]HOU Qibin, ZHOU Daquan, FENG Jiashi.Coordinate attention for efficient mobile network design [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, USA: IEEE, 2021: 13708-13717.
[21]HU Jie, SHEN Li, SUN Gang.Squeeze-and-excitation networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE,2018: 7132-7141.
[22]劉學(xué)平,李玙乾,劉勵(lì),等.嵌入SENet 結(jié)構(gòu)的改進(jìn)YOLOV3 目標(biāo)識(shí)別算法[J].計(jì)算機(jī)工程,2019,45(11):243-248.LIU Xueping, LI Yuqian, LIU Li, et al.Improved YOLOV3 target recognition algorithm with embedded SENet structure [J].Computer Engineering, 2019, 45(11):243-248.(in Chinese)
[23]KIM S W, KOOK H K, SUN J Y, et al.Parallel feature pyramid network for object detection [C]// European Conference on Computer Vision - ECCV 2018.Munich,Germany: Springer, 2018: 239-256.
[24]LIU Shu, QI Lu, QIN Haifang, et al.Path aggregation network for instance segmentation [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE, 2018: 8759-8768.
[25]TAN Mingxing, PANG Ruoming, LE Q V.EfficientDet:scalable and efficient object detection [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway, USA: IEEE, 2020: 10778-10787.
[26]楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法綜述[J].信號(hào)處理,2018,34(12):1474-1489.YANG Zhenzhen, KUANG Nan, FAN Lu, et al.Review of image classification algorithms based on convolutional neural networks [J].Journal of Signal Processing, 2018, 34(12): 1474-1489.(in Chinese)