摘 "要:為提高傳統(tǒng)目標(biāo)檢測算法的實(shí)時性,并解決小目標(biāo)檢測效果不佳及漏檢率高的問題,提出了改進(jìn)CenterNet算法。首先將特征提取網(wǎng)絡(luò)由ResNet50改為SqueezeNet,卷積計算的部分用深度可分離卷積代替;接著使用雙閾值改進(jìn)NMS算法替代單閾值-非極大值抑制算法,通過DIoU計算損失函數(shù)。結(jié)果表明:改進(jìn)算法在安全帽和口罩檢測數(shù)據(jù)集的檢測精度分別為91.3%和85.5%,與CenterNet算法相比,性能分別提升了2.35%和3.76%,同時具有更快的檢測速度。
關(guān)鍵詞:目標(biāo)檢測;SqueezeNet;深度可分離卷積;CenterNet
中圖分類號:TP391.41 " " " " " " " " " " " " 文獻(xiàn)標(biāo)識碼:A 文章編號:1008-5483(2024)02-0057-07
Lightweight Improved CenterNet Algorithm for Small Target Detection
Zhang Weifeng
(School of Economics amp; Management, Hubei University of Automotive Technology, Shiyan 442002, China)
Abstract: In order to improve the real-time performance of the traditional target detection algorithm and solve the problems of poor effect and high miss rate in small target detection, an improved CenterNet algorithm was proposed. Firstly, the feature extraction network was changed from ResNet50 to SqueezeNet. The convolution calculation parts in the network were replaced by depthwise separable convolution. Then, the double-threshold improved non-maximum suppression (NMS) algorithm was used to replace the single-threshold NMS algorithm, and the loss function was calculated through DIoU. The experimental results show that the detection accuracy of the improved algorithm in helmet detection and mask detection datasets is 91.3% and 85.5%. Compared with the original CenterNet algorithm, the performance is improved by 2.35% and 3.76%, respectively, and the detection speed is faster.
Key words: target detection; SqueezeNet; depthwise separable convolution; CenterNet
目前主流的目標(biāo)檢測算法為以FasterRCNN為代表的雙階段檢測算法和以YOLO系列為代表的單階段檢測算法,這些算法均是基于anchor的算法,需要產(chǎn)生大量的anchor,并且需要人工設(shè)定大量的超參數(shù),如尺寸、數(shù)量等,參數(shù)設(shè)置不合理往往導(dǎo)致檢測性能下降,另外大量的anchor區(qū)域為負(fù)樣本區(qū)域,造成正負(fù)樣本不平衡,影響模型訓(xùn)練效果,導(dǎo)致模型的復(fù)雜度較高。為避免這些缺點(diǎn),不需要anchor的全新檢測思路出現(xiàn)。2018年Law等提出了CornerNet,以目標(biāo)邊界的左上角點(diǎn)和右下角點(diǎn)為關(guān)鍵點(diǎn)來預(yù)測邊界框;2019年Zhou等提出了CenterNet[1],直接以目標(biāo)的中心點(diǎn)作為關(guān)鍵點(diǎn)進(jìn)行分類和邊界回歸。2種算法不必在檢測過程中產(chǎn)生大量先驗框,檢測速度相應(yīng)提高,但仍有較大計算量,無法滿足高實(shí)時性檢測的要求,因此需要設(shè)計更加輕便靈活的網(wǎng)絡(luò)。在特征提取網(wǎng)絡(luò)的輕量化設(shè)計方面,目前也取得了比較多的成果。一些典型方法如SqueezeNet[2]、ShuffleNet[3]、MobileNet[4]、ThunderNet[5]等輕量化神經(jīng)網(wǎng)絡(luò),通過設(shè)計更加高效的網(wǎng)絡(luò)單元,在不損失網(wǎng)絡(luò)性能的條件下,減少網(wǎng)絡(luò)的參數(shù)量,提升網(wǎng)絡(luò)運(yùn)行速度;另外一些研究提出了模型的壓縮方法,如剪枝、量化、知識蒸餾等;還有一些研究則著重于高效的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,如ESPNet[6]執(zhí)行新的空間金字塔模塊以提高計算效率,ICNet[7]使用多尺度圖像作為輸入和級聯(lián)網(wǎng)絡(luò)來提升準(zhǔn)確率,BiSeNet[8]引入空間路徑和語義路徑以減少計算量。文中在CenterNet基礎(chǔ)上進(jìn)行網(wǎng)絡(luò)輕量化改造,并進(jìn)行優(yōu)化:1)特征提取網(wǎng)絡(luò)采用SqueezeNet,并進(jìn)行改進(jìn)以貼合網(wǎng)絡(luò)檢測層,將傳統(tǒng)卷積替換為深度可分離卷積;2)在檢測框的非極大抑制方面,使用雙閾值改進(jìn)NMS(GDT-NMS)算法替代單閾值NMS算法,減少目標(biāo)漏檢和誤檢問題,提升小目標(biāo)檢測性能;3)使用GIoU替換IoU計算目標(biāo)間的相似度,使目標(biāo)定位更準(zhǔn)確。
1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計
1.1 主干特征提取網(wǎng)絡(luò)
CenterNet用到的主干特征網(wǎng)絡(luò)有多種,常用的有VGG、ResNet等,這些網(wǎng)絡(luò)雖然能提取到較好的特征,但參數(shù)量太大,網(wǎng)絡(luò)訓(xùn)練和推理需要耗費(fèi)大量計算資源。應(yīng)用于移動設(shè)備的目標(biāo)檢測算法需要解決網(wǎng)絡(luò)效率問題,即采用輕量的特征提取網(wǎng)絡(luò)。近年來提出的輕量級網(wǎng)絡(luò)主要有MobileNet系列、ShuffleNet系列、GhostNet、SqueezeNet等[11],文中采用SqueezeNet作為特征提取網(wǎng)絡(luò),輕量化設(shè)計策略描述如下:1)使用1×1卷積層替代3×3卷積層;2)減少3×3卷積層的輸入特征圖通道數(shù);3)推遲神經(jīng)網(wǎng)絡(luò)下采樣的時機(jī)。
SqueezeNet的核心是fire模塊,包含squeeze和expand,squeeze用來減少expand的輸入特征圖通道數(shù),組成部分主要為1×1卷積層,expand部分包含1×1卷積層和3×3卷積層。fire模塊共有3個超參數(shù),分別為squeeze中卷積的通道數(shù)[s1×1]、expand中1×1卷積的通道數(shù)[e1×1]、expand中3×3卷積的通道數(shù)[e3×3],滿足
[s1×1lt;e1×1+e3×3] (1)
相當(dāng)于在2個3×3卷積中間加入了瓶頸層。Fire模塊結(jié)構(gòu)如圖1所示。文中網(wǎng)絡(luò)結(jié)構(gòu)是在SqueezeNet基礎(chǔ)上加入短連接后形成的結(jié)構(gòu)。增加短連接可以提高網(wǎng)絡(luò)的性能,有效防止梯度消失,提升網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性,而且增加簡單短連接的效果比增加復(fù)雜短連接的效果更好。簡單短連接的Squeeze Net結(jié)構(gòu)如圖2所示,包括1個卷積層、8個fire模塊和1個卷積層。
1.2 網(wǎng)絡(luò)改進(jìn)與檢測網(wǎng)絡(luò)構(gòu)建
在簡單短連接的SqueezeNet基礎(chǔ)上,去掉fire9之后的模塊,當(dāng)輸入圖片是512×512×3時,最后網(wǎng)絡(luò)輸出的shape為32×32×512。網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)設(shè)置如表1所示。接著在后面加上3×3的深度可分離卷積,調(diào)整通道數(shù)至256,利用2次反卷積進(jìn)行上采樣,得到更高分辨率的輸出。2個反卷積的輸出通道數(shù)分別設(shè)置為128和64,最終獲得1個128×128×64的有效特征層。這個特征層相當(dāng)于將整個圖片劃分成128×128個區(qū)域,每個區(qū)域存在1個特征點(diǎn),如果某個物體的中心落在這個區(qū)域,那么就由這個特征點(diǎn)來確定。最后利用這個特征層進(jìn)行3個卷積:
1)熱力圖預(yù)測 卷積通道數(shù)為num_classes,輸出shape為(128,128,num_classes),代表每個熱力點(diǎn)是否有物體存在,以及物體的種類。
2)中心點(diǎn)預(yù)測 卷積通道數(shù)為2,輸出shape為(128,128,2),代表每個物體中心距離熱力點(diǎn)偏移的情況。
3)寬高預(yù)測 卷積通道數(shù)為2,輸出shape為(128,128,2),代表每個物體寬高的預(yù)測情況。
檢測網(wǎng)絡(luò)的整體框架如圖3所示。
在傳統(tǒng)卷積中,設(shè)輸入通道數(shù)為[ci],輸出通道數(shù)為[co],卷積核尺寸為[k],則參數(shù)量為[cik2co]。深度可分離卷積中,首先進(jìn)行逐通道的卷積(DW卷積),此時通道數(shù)為1,然后再用1×1的卷積(PW卷積),將上述經(jīng)過卷積之后的所有特征圖的通道串聯(lián)起來。深度可分離卷積參數(shù)量為
[k×k×1×ci+1×1×ci×co=cik2+cico] (2)
傳統(tǒng)卷積和深度可分離卷積參數(shù)量比值為
[cik2+cicocik2co=1co+1k2] (3)
由此可見,將模型中傳統(tǒng)卷積用深度可分離卷積代替,參數(shù)量大幅度減小。
2 雙閾值改進(jìn)的非極大值抑制算法
目標(biāo)的重復(fù)檢測或漏檢會直接影響算法最終的檢測準(zhǔn)確率。在算法的后處理階段,使用GDTNMS算法來抑制多余的檢測框。首先在計算檢測框的得分時,使用GIoU代替?zhèn)鹘y(tǒng)的IoU計算目標(biāo)間的相似度:
[D=C-A?B, " GIoU=IoU-DC] (4)
式中:A和B為2個檢測框;C為A、B的最小外接矩形;D為矩形C中不含A和B并集的部分。[GIoU]計算方式如圖4所示,即
[IoU=A?BA?BGIoU=A?BA?B-C-(A?B)C] (5)
利用GIoU計算檢測框的相似度有如下優(yōu)點(diǎn):1)當(dāng)使用IoU計算時,只能反映2個目標(biāo)的重合程度,不能描述其距離。通過引入1個外接矩形C,2個框之間的距離通過A、B、C共同確定,即使A、B不發(fā)生重疊,GIoU也能反映出2個框的遠(yuǎn)近。2)IoU不能反映2個檢測框的重疊形式。當(dāng)2個檢測框在許多不同方向上有重疊,并且IoU相同或相近時,僅使用IoU衡量2個檢測框的相似度,無法保證保留下來的檢測框更接近真實(shí)位置。GIoU通過引入C和D的信息可更好地反映出檢測框的對齊程度,2個目標(biāo)的對齊程度越接近,目標(biāo)的相似度越高,因此能夠保證保留下來的檢測框定位更加準(zhǔn)確。
如圖5所示,2組重疊方式不同的檢測框,A1和A2為候選目標(biāo),矩形框B為該目標(biāo)的真實(shí)位置,當(dāng)無法使用IoU判斷哪個檢測框更接近真實(shí)位置時,GIoU可以更好地選擇對齊度高的檢測框。由圖5可知,使用GIoU來衡量2個檢測框的相似度,能夠利用增加的信息刻畫出2個框的距離,更好地說明2個框的重疊情況。
在soft-NMS算法中,檢測框的得分是根據(jù)IoU得到線性比例的懲罰項,對檢測框進(jìn)行抑制,不能很好地區(qū)分目標(biāo)。為了使目標(biāo)區(qū)分度更高,使用對數(shù)函數(shù)對檢測框的得分進(jìn)行非線性的權(quán)值懲罰:
[sf=si, " GIoU(M,bi)≤Ntsi×(1-log(GIoU(M,bi)+1))), " " " "Ntlt;GIoU(M,bi)lt;Ni0, " GIoU(M,bi)≥Ni] (6)
式中:[bi]為待檢測框;[si]為C的原始得分;[sf]為[bi]的最后得分;[M]為此時得分最高的檢測框;[Nt]和[Ni]為閾值。如果[GIoU(M,bi)]在[Nt]和[Ni]之間,根據(jù)其得分進(jìn)行如下懲罰:如果[bi]距離[M]越遠(yuǎn),那么和[M]成為同一目標(biāo)的可能性越低,懲罰程度越小,且懲罰因子按照非線性比例減小。如果[bi]距離[M]越近,那么和[M]成為同一目標(biāo)的可能性越大,懲罰程度越大,且懲罰因子按照非線性比例增大。懲罰系數(shù)非線性減小,距離[M]很近的檢測框[bi]和距離[M]很遠(yuǎn)的檢測框[bi]對[M]重要程度不再相同,得分呈非線性變化,目標(biāo)區(qū)分度更高,保留下來的檢測框更準(zhǔn)確。對于閾值的選擇,根據(jù)實(shí)驗數(shù)據(jù)確定,選擇使平均檢測精度都達(dá)到最高的值作為GDT-NMS算法的閾值。當(dāng)[Nt]為0.3,[Ni]為0.9時,懲罰系數(shù)變化情況如圖6所示。
3 損失函數(shù)
CenterNet檢測模型的損失函數(shù)由3個部分組成,分別為中心點(diǎn)與分類的損失函數(shù)、目標(biāo)中心偏置的損失函數(shù)和目標(biāo)框尺寸的損失函數(shù)。文中采用帶間距的交并比損失取代損失函數(shù)中的偏置損失和寬高損失,因此用到的損失函數(shù)包含熱力圖損失[Lk]和帶間距的交并比損失[LDIoU]。
考慮到熱力圖上關(guān)鍵點(diǎn)與非關(guān)鍵點(diǎn)在數(shù)量上的不均衡,中心點(diǎn)與分類的損失函數(shù)表達(dá)式為
[Lk=1Nxyc(1-Yxyc)αlogYxyc, " Yxyc=1(1-Yxyc)β(Yxyc)αlog(1-Yxyc), " else] (7)
式中:α和β為Focal Loss的超參數(shù),取值分別為2和4;[N]為正樣本的數(shù)量;[Yxyc]為預(yù)測值;[Yxyc]為真實(shí)值;下標(biāo)[xyc]為圖像的正負(fù)樣本。
CenterNet網(wǎng)絡(luò)認(rèn)為寬高損失與中心點(diǎn)偏移損失是相互獨(dú)立的,但實(shí)際上是相互聯(lián)系的,邊框的預(yù)測在很大程度上依賴于中心位置的準(zhǔn)確性,而且邊框大小也會對損失函數(shù)值造成影響,大目標(biāo)往往取得更大的損失函數(shù)值,使得優(yōu)化傾向于大目標(biāo),因此,邊框回歸損失表達(dá)式為
[LDIoU=1-GIoU+d2c2] (8)
式中:[d]為預(yù)測框與真實(shí)框中心的距離;[c]為最小外接矩形的對角線長度。[LDIoU]可以同時進(jìn)行預(yù)測框位置與寬高的回歸,并且對目標(biāo)邊框的大小不敏感。預(yù)測框與真實(shí)框的DIoU損失如圖7所示。
綜上所述,文中算法采用的損失函數(shù)為
[L=Lk+LDIoU] (9)
4 實(shí)驗結(jié)果及分析
4.1 實(shí)驗環(huán)境與數(shù)據(jù)集
實(shí)驗環(huán)境為Windows10操作系統(tǒng),內(nèi)存為16 G,GPU為NVIDIA GeForce GTX1070Ti 8 G顯存,python版本3.6.8,深度學(xué)習(xí)框架為tensorflow 2.3.0,通過CUDA10.2進(jìn)行網(wǎng)絡(luò)訓(xùn)練的加速。實(shí)驗數(shù)據(jù)集來自于網(wǎng)絡(luò),為公開的口罩?jǐn)?shù)據(jù)集和安全帽檢測數(shù)據(jù)集,與VOC數(shù)據(jù)集格式一致,每條數(shù)據(jù)都是圖片與其相對應(yīng)的xml文件??谡?jǐn)?shù)據(jù)集只有2個類別“have_mask”和“no_mask”,對應(yīng)的圖片數(shù)量分別為514張和651張,共計1 165張圖片。安全帽檢測數(shù)據(jù)集共有7 581張圖像,同樣有2個類別,“hat”表示佩戴安全帽,“person”表示普通未佩戴的行人頭部區(qū)域。按照8∶2劃分訓(xùn)練集和驗證集,首先進(jìn)行數(shù)據(jù)預(yù)處理,遍歷每張圖片并且從xml文件中讀取檢測框的坐標(biāo)數(shù)據(jù)和分類數(shù)據(jù),按照文件路徑、檢測框坐標(biāo)、類別格式寫入文本文件中,網(wǎng)絡(luò)訓(xùn)練時,根據(jù)路徑讀取圖片以及標(biāo)簽,生成訓(xùn)練數(shù)據(jù)集。由于數(shù)據(jù)集樣本數(shù)不足,為提高訓(xùn)練網(wǎng)絡(luò)的性能,在訓(xùn)練過程中使用數(shù)據(jù)增強(qiáng)處理,對原始圖片隨機(jī)進(jìn)行裁剪、顏色變換、鏡像翻轉(zhuǎn)等數(shù)據(jù)增強(qiáng)的操作。
網(wǎng)絡(luò)訓(xùn)練的參數(shù)設(shè)置如下:Batch size為8,Epoch為100或80,初始學(xué)習(xí)率為0.0001,通過模擬余弦退火策略來調(diào)整網(wǎng)絡(luò)的學(xué)習(xí)率。
4.2 評價指標(biāo)
選擇平均精度均值(mAP)和檢測速度對算法進(jìn)行評估,引入F1-score指標(biāo)。F1-score是對精度和召回率的調(diào)和平均,表達(dá)式為
[F1=2prp+r, " p=TPTP+FP, " r=TPTP+FN] (10)
式中:[p]為精確率;[r]為召回率;TP為真正例;FP為假正例;TN為真負(fù)例;FN為假負(fù)例。文中數(shù)據(jù)集只包含2類樣本,以口罩?jǐn)?shù)據(jù)集為例,mAP為
[mAP=2-1APhave_mask+APno_mask] (11)
4.3 對比實(shí)驗
由于在算法后處理中采用了GDT-NMS算法,閾值的選擇對算法的檢測精度有直接影響,需要根據(jù)實(shí)驗選擇最佳的閾值組合。由于[Ni大于Nt],因此[Ni]取0.2~1,[Nt]取0.1~0.9,步長為0.1,對不同閾值組合分別進(jìn)行實(shí)驗。首先在訓(xùn)練數(shù)據(jù)集上完成網(wǎng)絡(luò)訓(xùn)練,然后在測試數(shù)據(jù)集計算出mAP。mAP隨[Ni]和[Nt]的變化情況如圖8所示,[Ni]和[Nt]對算法的檢測精度有明顯影響,這是由于閾值過大或過小會造成目標(biāo)漏檢或者誤檢,導(dǎo)致mAP偏低??谡謾z測數(shù)據(jù)集[Ni]取0.6、[Nt]取0.3和安全帽檢測數(shù)據(jù)集,[Ni]取0.8、[Nt]取0.4時,算法檢測精度最好。
為驗證改進(jìn)算法(SN-CenterNet)的有效性及可靠性,在PASCAL VOC 2007數(shù)據(jù)集上進(jìn)行實(shí)驗。將實(shí)驗結(jié)果與當(dāng)前主流的目標(biāo)檢測算法進(jìn)行性能對比,如表2所示,可以看出,SN-CenterNet算法在mAP相當(dāng)或稍微下降的前提下,模型體積減小,檢測速度提升,適用于需要實(shí)時計算的應(yīng)用場景。
選擇CenterNet、Faster RCNN、YOLOv4、SSD算法與SN-CenterNet算法在口罩?jǐn)?shù)據(jù)集和安全帽數(shù)據(jù)集上進(jìn)行訓(xùn)練和測試,得到PR和損失函數(shù)變化曲線,見圖9~10。從圖9看出,SN-CenterNet算法檢測性能基本上超過其他方法或者與之相當(dāng),在計算量大大減小的情況下,在這些數(shù)據(jù)集中仍保持良好的泛化能力和檢測能力,達(dá)到了預(yù)先設(shè)計的目標(biāo)。從圖10可看出,SN-CenterNet算法在進(jìn)行數(shù)據(jù)集的訓(xùn)練時表現(xiàn)得更加穩(wěn)定,損失函數(shù)呈現(xiàn)穩(wěn)定下降,并有繼續(xù)收斂的趨勢,表明對網(wǎng)絡(luò)的訓(xùn)練更加有效,同時由于網(wǎng)絡(luò)參數(shù)輕量化,訓(xùn)練速度更快。
不同算法對比實(shí)驗結(jié)果如表3所示,可以看出,SN-CenterNet算法參數(shù)量僅為其他算法的1/10左右,因此推理速度快。由于進(jìn)行了多處優(yōu)化和改進(jìn),SN-CenterNet算法檢測精度與其他算法相比并未大幅下降,比CenterNet算法有所提升,平均精度達(dá)到了91.3%和85.5%,檢測速度大幅提高,在2個數(shù)據(jù)集上FPS均超過了80,能滿足實(shí)時性的要求。
4.4 消融實(shí)驗
為驗證各種改進(jìn)算法的有效性,對SqueezeNet、深度可分離卷積、GDT-NMS算法和GIoU目標(biāo)相似度計算進(jìn)行了消融實(shí)驗,設(shè)計了8種不同的組合方式,實(shí)驗結(jié)果如表4所示。A組為CenterNet,B組將主干網(wǎng)絡(luò)替換為了SqueezeNet,可以看出,B組mAP有一定下降,但FPS有較大提高,與預(yù)期結(jié)果符合。C、D、E組是在CenterNet基礎(chǔ)上分別增加了深度可分離卷積、GDT-NMS算法和GIoU目標(biāo)相似度計算,mAP有一定程度的提高,F(xiàn)PS有一定提高或基本保持不變。F、G、H組采用了SqueezeNet作為主干網(wǎng)絡(luò),并且分別應(yīng)用了上述改進(jìn)方法,F(xiàn)PS均有較大提高,同時MAP保持不變或略有提升,和B組相比,MAP顯著提升,證明了SN-CenterNet算法的有效性。
4.5 圖片檢測效果
不同算法與其他算法在口罩和安全帽數(shù)據(jù)集上的部分檢測結(jié)果如圖11~12所示,可以看出,SN-CenterNet算法能有效進(jìn)行小目標(biāo)檢測,并且對檢測框的定位更加準(zhǔn)確,對目標(biāo)區(qū)有更高的置信度,誤檢和漏檢率較低。
5 結(jié)論
在目標(biāo)檢測算法的實(shí)時應(yīng)用領(lǐng)域,網(wǎng)絡(luò)輕量化是主要解決方案,性能良好的輕量化目標(biāo)檢測算法需要更優(yōu)的網(wǎng)絡(luò)設(shè)計。文中在CenterNet基礎(chǔ)上進(jìn)行了一系列改進(jìn),不需要產(chǎn)生anchor,在速度和精度上能實(shí)現(xiàn)較好的平衡。使用SqueezeNet代替原有主干網(wǎng)絡(luò),雖然特征提取能力有所降低,但算法整體更加輕便;使用深度可分離卷積代替?zhèn)鹘y(tǒng)卷積,在保證特征提取能力的同時,參數(shù)量進(jìn)一步減小,很大程度減少了運(yùn)算量,加快了模型推理速度;在算法后處理階段,使用雙閾值改進(jìn)NMS算法,使目標(biāo)定位更加準(zhǔn)確,減少了誤檢和漏檢的概率,實(shí)驗證實(shí)了算法的檢測效果良好,運(yùn)行速度有較大提高,可滿足實(shí)時檢測的要求。
參考文獻(xiàn):
[1] "黃躍珍,王乃洲,梁添才,等. 基于改進(jìn)CenterNet的車輛識別方法[J]. 華南理工大學(xué)學(xué)報(自然科學(xué)版),2021,49(7):94-102.
[2] "Iandola F N,Han S,Moskewicz M W,et al. SqueezeNet:AlexNet-level Accuracy with 50x fewer Parameters and lt;0.5MB Model Size[EB/OL]. 2016:arXiv:1602.07360. http://arxiv.org/abs/1602.07360
[3] "Zhang X Y,Zhou X Y,Lin M X,et al. ShuffleNet:an Extremely Efficient Convolutional Neural Network for Mobile Devices[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE,2018:6848-6856.
[4] "Howard A G,Zhu M L,Chen B,et al. MobileNets:Efficient Convolutional Neural Networks for Mobile Vision Applications[EB/OL]. 2017:arXiv:1704.04861. http://arxiv.org/abs/1704.04861.pdf
[5] "Zheng Qin,Zeming Li,Zhaoning Zhang,etc. ThunderNet:Towards Real-time Generic Object Detection. Computer Vision and Pattern Recognition (cs.CV). 28 Mar 2019,251–258.
[6] "Mehta S,Rastegari M,Caspi A,et al. ESPNet:Efficient Spatial Pyramid of Dilated Convolutions for Semantic Segmentation[C]//European Conference on Computer Vision. Cham:Springer,2018:561-580.
[7] "Zhao H S,Qi X J,Shen X Y,et al. ICNet for Real-time Semantic Segmentation on High-resolution Images[EB/OL]. 2017:arXiv:1704.08545. http://arxiv.org/abs/1704.08545
[8] "Yu C Q,Wang J B,Peng C,et al. BiSeNet:Bilateral Segmentation Network for Real-time Semantic Segmentation[C]//European Conference on Computer Vision. Cham:Springer,2018:334-349.
[9] "Paszke A,Chaurasia A,Kim S,et al. ENet:a Deep Neural Network Architecture for Real-time Semantic Segmentation[EB/OL]. 2016:arXiv:1606.02147. http://arxiv.org/abs/1606.02147
[10] "董藝威,于津. 基于SqueezeNet的輕量化卷積神經(jīng)網(wǎng)絡(luò)SlimNet[J]. 計算機(jī)應(yīng)用與軟件,2018,35(11):226-232.
[11] "胡玲艷,周婷,許巍,等. 面向番茄病害識別的改進(jìn)型SqueezeNet輕量級模型[J]. 鄭州大學(xué)學(xué)報(理學(xué)版),2022,54(4):71-77.
[12] "李成豪,張靜,胡莉,等. 基于多尺度感受野融合的小目標(biāo)檢測算法[J]. 計算機(jī)工程與應(yīng)用,2022,58(12):177-182.
[13] "王文光,李強(qiáng),林茂松,等. 基于改進(jìn)SSD的高效目標(biāo)檢測方法[J]. 計算機(jī)工程與應(yīng)用,2019,55(13):28-35.
[14] "Lin T Y,Dollár P,Girshick R,et al. Feature Pyramid Networks for Object Detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,2017:936-944.
[15] "Lin T Y,Goyal P,Girshick R,et al. Focal Loss for Dense Object Detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). IEEE,2017:2999-3007.
[16] "Bochkovskiy A,Wang C Y,Liao H Y M. YOLOv4:Optimal Speed and Accuracy of Object Detection[EB/OL]. 2020:arXiv:2004.10934. http://arxiv.org/abs/2004.10934
[17] "Zhang P P,Liu W,Lu H C,et al. Salient Object Detection by Lossless Feature Reflection[C]//Proceedings of the 27th International Joint Conference on Artificial Intelligence. ACM,2018:1149-1155.
[18] "王建軍,魏江,梅少輝,等. 面向遙感圖像小目標(biāo)檢測的改進(jìn)YOLOv3算法[J]. 計算機(jī)工程與應(yīng)用,2021,57(20):133-141.
[19] "王繼霄,李陽,王家寶,等. 基于SqueezeNet的輕量級圖像融合方法[J]. 計算機(jī)應(yīng)用,2020,40(3):837-841.