摘" 要: 針對(duì)自動(dòng)駕駛場景下交通目標(biāo)檢測算法存在的誤檢及漏檢的問題,提出一種基于改進(jìn)YOLOv8s模型的復(fù)雜道路交通目標(biāo)檢測算法。設(shè)計(jì)一種輕量級(jí)的C2f?EMSCP模塊改進(jìn)YOLOv8s的骨干網(wǎng)絡(luò),實(shí)現(xiàn)網(wǎng)絡(luò)的參數(shù)量和計(jì)算量的降低;在Backbone和Neck部分添加EMA注意力模塊,有效地捕捉了全局的通道依賴性與局部空間特征,實(shí)現(xiàn)在通道和空間維度上的全面特征抽??;針對(duì)密集車流下小尺寸車輛檢測效果不佳的問題,添加小目標(biāo)檢測頭,更好地捕獲小尺寸車輛的特征和上下文信息;使用可自適應(yīng)調(diào)整權(quán)重系數(shù)的Wise?SIoU作為改進(jìn)模型的損失函數(shù),提升了邊界框的回歸性能和檢測的魯棒性。在KITTI數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),[P]、[R]和mAP@0.5分別提高了0.4%、2.1%和3.7%。文中的改進(jìn)方法在交通監(jiān)控系統(tǒng)中能夠達(dá)到較好的檢測精度和速度,有效改善了復(fù)雜交通場景下小目標(biāo)車輛檢測效果不佳的問題。
關(guān)鍵詞: 自動(dòng)駕駛; YOLOv8s; C2f?EMSCP模塊; 小目標(biāo)檢測; 注意力機(jī)制; 損失函數(shù)
中圖分類號(hào): TN911.73?34; TP391.41" " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " "文章編號(hào): 1004?373X(2025)03?0181?06
Study on traffic object detection based on enhanced YOLOv8s
LI Jin, ZHAO Jie, Lü Yafei, YANG Zhenyue
(School of Electrical and Control Engineering, Heilongjiang University of Science and Technology, Harbin 150022, China)
Abstract: The proposed solution addresses the issue of 1 detection and missed detection in traffic object detection algorithms for autonomous driving scenarios. A sophisticated road traffic object detection algorithm based on an enhanced YOLOv8s model is introduced. A lightweight C2f?EMSCP module is incorporated to enhance the backbone network of YOLOv8s, so as to reduce network parameters and computational load. Additionally, the parts of Backbone and Neck are equipped with an EMA (efficient multi?scale attention) module, effectively capturing global channel dependence and local spatial features for comprehensive feature extraction across channel and spatial dimensions. Furthermore, in order to tackle the challenge of detecting small?sized vehicles in dense traffic flow, a dedicated small object detection head is introduced to better capture relevant features and contextual information. The improved model employs Wise?SIoU as its loss function, which adaptively adjusts weight coefficients to enhance bounding box regression performance and detection robustness. The results of experiments on the KITTI dataset demonstrate that the [P] (precision), [R] (recall), and mAP@0.5 (mean average precision at IoU threshold 0.5) are improved by 0.4%, 2.1%, and 3.7%, respectively, in comparison with those of the baseline models. Overall, the proposed approach achieves high accuracy and speed in traffic monitoring systems while effectively addressing challenges associated with detecting small vehicles (objects) in complex traffic scenes.
Keywords: autonomous driving; YOLOv8s; C2f?EMSCP module; small object detection; attention mechanism; loss function
0" 引" 言
車輛的精確檢測是實(shí)現(xiàn)城市智慧交通系統(tǒng)的核心技術(shù)之一,已廣泛應(yīng)用于自動(dòng)駕駛、智能交通系統(tǒng)及安全監(jiān)控等多個(gè)領(lǐng)域。當(dāng)前,交通目標(biāo)檢測技術(shù)主要分為兩類:傳統(tǒng)目標(biāo)檢測算法和基于深度學(xué)習(xí)的目標(biāo)檢測算法。傳統(tǒng)算法在實(shí)際應(yīng)用中通常存在精度低、響應(yīng)速度慢等問題。相比之下,基于深度學(xué)習(xí)的方法近年來迅速發(fā)展,在性能上顯著優(yōu)于傳統(tǒng)算法,逐漸成為交通目標(biāo)檢測技術(shù)領(lǐng)域的主流選擇。
深度學(xué)習(xí)算法主要分為基于候選區(qū)域的兩階段方法和基于回歸的一階段方法。文獻(xiàn)[1]采用選擇搜索算法提取R?CNN實(shí)現(xiàn)了目標(biāo)檢測,取得了較好的效果,但計(jì)算量較大。文獻(xiàn)[2]提出了Faster R?CNN,采用區(qū)域建議網(wǎng)絡(luò)替代選擇性搜索,顯著提升了檢測速度和精度,但易受天氣和光線影響。文獻(xiàn)[3]在YOLO v4中引入Inception v3結(jié)構(gòu),提高了對(duì)小尺寸目標(biāo)的識(shí)別能力,但在資源受限環(huán)境中,模型大小和處理速度仍需優(yōu)化。文獻(xiàn)[4]在YOLO v5中引入CARAFE上采樣算子,改善了小目標(biāo)特征信息的丟失,但在復(fù)雜背景或高度遮擋場景下,模型的魯棒性和精度仍需提升。文獻(xiàn)[5]在YOLO v7中增加了通道注意力機(jī)制,提升了自建數(shù)據(jù)集的檢測精度,但模型泛化能力需在更多類型的數(shù)據(jù)集上驗(yàn)證。文獻(xiàn)[6]在自動(dòng)駕駛場景中采用多頭自注意殘差模塊(MHSARM)強(qiáng)化特征信息,弱化背景干擾,但存在小目標(biāo)漏檢問題。文獻(xiàn)[7]提出ATO?YOLO,設(shè)計(jì)了三重特征融合機(jī)制(TFF),有效應(yīng)對(duì)小目標(biāo)間的尺度變化,但在分布不規(guī)則情況下可能出現(xiàn)域偏移,導(dǎo)致漏檢和誤檢。
1" 改進(jìn)YOLOv8s模型
YOLOv8s模型引入了五種縮放系數(shù)的尺度算法,以適應(yīng)不同場景需求。本文選擇了精度和速度兼優(yōu)的YOLOv8s[8]算法,該算法包括輸入端、主干網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)和輸出端四個(gè)部分。
相比YOLO v5[9],YOLOv8s在主干網(wǎng)絡(luò)中引入了CSP模塊,將C3模塊替換為C2f模塊,實(shí)現(xiàn)了模型輕量化。在Neck部分,仍采用PAN結(jié)構(gòu),但去除了1×1的降采樣層。頭部方面,將YOLOv8s從基于錨點(diǎn)的匹配機(jī)制轉(zhuǎn)變?yōu)闊o錨點(diǎn)的方式,帶來了顯著改進(jìn)。
1.1" C2f?EMSCP
EMSCP方法的設(shè)計(jì)思想源于一種輕量級(jí)的GhostNet神經(jīng)網(wǎng)絡(luò)算法,Ghost卷積是GhostNet的關(guān)鍵組件,它通過將輸入的特征圖分成兩個(gè)部分來降低計(jì)算需求。這種卷積包括一個(gè)主干路徑和一個(gè)輔助路徑。主干路徑負(fù)責(zé)抽取主要的特征;而輔助路徑則專注于次要特征的提取。在訓(xùn)練階段,這兩條路徑可以同時(shí)運(yùn)作,增強(qiáng)了算法的效率。在推理階段,僅需利用主干路徑的輸出作為最終的特征表示。基于此,本文設(shè)計(jì)了EMSCP方法,EMSCP結(jié)構(gòu)如圖1所示。
在EMSCP模塊中,假設(shè)初始CBS層的輸出通道數(shù)為[C]。先進(jìn)行分組操作,使其形狀從(bs,[g],ch,[h],[w])轉(zhuǎn)變?yōu)椋╞s,ch,[h],[w],[g])。其中:bs表示批次大?。籟g]表示分組數(shù);ch表示通道數(shù);[h]和[w]分別表示特征圖的高度和寬度。接著,將輸入通道數(shù)[C]平均分為4組,第一組特征圖與1×1的卷積核進(jìn)行卷積操作,第二組特征圖則與3×3的卷積核進(jìn)行特征提取,第三組特征圖與5×5的卷積核進(jìn)行卷積操作,第四組特征圖則與7×7的卷積核進(jìn)行特征提取。完成卷積后,將這四組特征圖進(jìn)行堆疊,生成形狀為([g],bs,ch,[h],[w])的新特征圖。隨后,再次對(duì)新特征圖進(jìn)行分組操作,將其形狀恢復(fù)為(bs,([g],ch),[h], [w])。最終,通過一次逐點(diǎn)卷積操作,使輸出張量的通道數(shù)恢復(fù)為輸入時(shí)的通道數(shù)[C]。
在特征融合過程中,C2f?EMSCP方法通過堆疊和融合不同尺度的特征圖,將各個(gè)尺度的特征信息進(jìn)行組合和互補(bǔ),捕捉到局部細(xì)節(jié)和全局上下文信息,從而獲得更全面的特征表示,進(jìn)一步提升特征的代表性和判別能力,使算法可以更好地理解和解釋輸入數(shù)據(jù),提高算法在各種任務(wù)中的性能。另外,C2f?EMSCP方法還具有一定的計(jì)算效率,通過并行處理不同尺度的特征圖,可以有效地減少算法的計(jì)算量,降低算法復(fù)雜度,實(shí)現(xiàn)算法的輕量化。C2f?EMSCP結(jié)構(gòu)如圖2所示。
1.2" 添加小目標(biāo)檢測層
在目標(biāo)檢測中,小目標(biāo)由于分辨率低和特征信息少,容易被忽略或誤分類。YOLOv8s采用較大的下采樣倍率,導(dǎo)致小目標(biāo)特征丟失,盡管Neck模塊融合了不同深度的特征圖,但最高尺度為80×80,無法捕獲全部小目標(biāo)特征信息。
針對(duì)KITTI數(shù)據(jù)集中大量行人和車輛的場景,YOLOv8s的三個(gè)檢測層無法滿足需求,因此增加了一個(gè)160×160特征圖的小目標(biāo)檢測層以提高模型對(duì)于小目標(biāo)的檢測能力,YOLOv8s檢測層與P2檢測層對(duì)比如圖3所示。
1.3" 添加注意力機(jī)制
由于交通場景中車輛和行人位置的不可預(yù)見性,以及周圍環(huán)境與檢測目標(biāo)在顏色和形狀上的相似性,導(dǎo)致遮擋現(xiàn)象,從而可能使檢測模型將干擾信息與目標(biāo)特征混淆,影響識(shí)別的準(zhǔn)確性,造成漏檢和誤檢。為解決這些因素對(duì)圖像特征提取的干擾問題,本文引入了多尺度注意力機(jī)制(EMA)[10],其結(jié)構(gòu)如圖4所示。
EMA注意力機(jī)制通過三個(gè)不同分支增強(qiáng)分組特征圖的注意力權(quán)重獲取。第一個(gè)分支壓縮原始特征圖的通道數(shù)并與其他分支信息結(jié)合以融合特征;1×1分支借鑒CA[11]注意力機(jī)制,對(duì)特征圖沿兩個(gè)空間維度進(jìn)行二維平均池化;3×3分支添加3×3卷積層以捕捉多尺度特征并促進(jìn)局部跨通道交互,從而擴(kuò)展特征表達(dá)的空間。EMA注意力機(jī)制結(jié)合了通道和空間注意力,有效捕捉全局通道依賴性和局部空間特征,實(shí)現(xiàn)全面特征提取。
1.4" 優(yōu)化損失函數(shù)
YOLOv8s默認(rèn)使用CIoU[12]作為邊界框回歸損失函數(shù)。然而,在不同環(huán)境下,物體的相對(duì)尺度差異較大,特別是在小目標(biāo)檢測中,CIoU的局限性尤為明顯。因此,本文引入Wise?SIoU作為邊界框回歸損失函數(shù)。
WIoU v3[13]包含一種動(dòng)態(tài)非單調(diào)機(jī)制和合理的梯度增益分配策略,減少了極端樣本中出現(xiàn)的大梯度或有害梯度,使模型能更多關(guān)注普通質(zhì)量的樣本。SIoU[14]在CIoU的基礎(chǔ)上添加了回歸所需的角度因素,并重新定義了懲罰項(xiàng)。結(jié)合兩者優(yōu)點(diǎn),Wise?SIoU損失函數(shù)提高了網(wǎng)絡(luò)模型的泛化能力和整體性能。WIoU的公式如下:
[IoU=WiHiwh+wgthgt-WiHi] (1)
[LIoU=1-IoU] (2)
[RWIoU=exp(x-xgt)2+(y-ygt)2W2g+H2g] (3)
[LWIoU v1=RWIoULIoU] (4)
本文中選取WIoU v3作為邊界框回歸函數(shù),公式如下:
[β=L?IoULIoU∈0,+∞)] (5)
[LWIoU v3=γLWIoU v1, " " "γ=βδαβ-α] (6)
式中:[L*IoU]為單調(diào)聚焦系數(shù);[LIoU]為平均值;[α]、[δ]為超參數(shù)。
SIoU的公式如下:
[LSIoU=1-LIoU+Δ+Ω2] (7)
式中:[Δ]為距離損失值;[Ω]為形狀損失值。
Wise?SIoU的公式如下:
[β=L?WSIoULWSIoU∈0,+∞)] (8)
[LWSIoU=γLWSIoU v1, " " γ=βδαβ-α] (9)
2" 實(shí)驗(yàn)結(jié)果與分析
2.1" 數(shù)據(jù)集
為充分驗(yàn)證改進(jìn)模型的性能,本文采用KITTI數(shù)據(jù)集進(jìn)行訓(xùn)練和測試。KITTI數(shù)據(jù)集包含市區(qū)、鄉(xiāng)村和高速公路等場景的真實(shí)圖像數(shù)據(jù)。原始數(shù)據(jù)集包含Car、Van、Truck、Pedestrian、Person(sitting)、Cyclist、Tram、Misc等8類目標(biāo)。在數(shù)據(jù)預(yù)處理中,將Car、Van、Truck和Tram四類合并為Car類,Pedestrian和Person(sitting)合并為Pedestrian類,保留Cyclist類,刪除Misc類。最終數(shù)據(jù)集包含7 481張圖像,分為6 732張訓(xùn)練集和749張驗(yàn)證集。
2.2" 實(shí)驗(yàn)環(huán)境
本文實(shí)驗(yàn)是基于PyTorch和CUDA框架在Linux操作系統(tǒng)下進(jìn)行的,使用的預(yù)訓(xùn)練模型為YOLOv8s,具體的軟硬件配置和環(huán)境配置為:AMD EPYC 9754,NVIDIA RTX3090 24 GB顯卡,內(nèi)存60 GB,CUDA 11.8,Python 3.8。
2.3" 評(píng)估指標(biāo)
為了全面評(píng)估模型的性能,本文將準(zhǔn)確率([P])、召回率([R])、平均準(zhǔn)確率(mAP)、參數(shù)量(Params)、每秒傳輸幀數(shù)(FPS)、浮點(diǎn)運(yùn)算率(GFLOPs)作為本文的評(píng)價(jià)指標(biāo)。
2.3.1" 檢測頭對(duì)比實(shí)驗(yàn)
在實(shí)際路況中存在著大量的小目標(biāo),而YOLOv8s自帶的三個(gè)檢測層不能很好地滿足實(shí)際檢測任務(wù)的需要,本文在YOLOv8s的基礎(chǔ)上對(duì)其檢測頭部分進(jìn)行改進(jìn),并與目前主流的幾種檢測頭模塊進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果如表1所示。
由表1可以看出,P2檢測頭在僅增加了模型計(jì)算量和降低了部分FPS的情況下,[P]、[R]、mAP@0.5和Params都得到了較大的提升,尤其是mAP@0.5獲得了2.8%的提高。而P6檢測頭在指標(biāo)GFLOPs少量下降外,其余指標(biāo)都得到了一定的損失;Dyhead檢測頭在[P]、mAP@0.5、Params和GFLOPs上取得了一定的提升,但犧牲了大量的檢測速度,不能很好地滿足無人駕駛領(lǐng)域下目標(biāo)檢測任務(wù)的需求;Aux檢測頭盡管在[R]和mAP@0.5上取得了較好的提升,但也相應(yīng)地在[P]上損耗了3.6%的精度。通過上述的對(duì)比實(shí)驗(yàn)分析,證明了P2檢測頭的有效性。
2.3.2" 注意力機(jī)制對(duì)比實(shí)驗(yàn)
為了提高模型的檢測精度,在YOLOv8s基礎(chǔ)上添加注意力機(jī)制進(jìn)行對(duì)比實(shí)驗(yàn)。選取目前主流的且適合目標(biāo)檢測任務(wù)的CPCA、SimAM、SA、CA、Triplet等注意力機(jī)制及本文使用的多尺度注意力機(jī)制(EMA)進(jìn)行對(duì)比,結(jié)果如表2所示。
由表2可以看出,在模型中加入CPCA、SimAM、SA和Triplet注意力機(jī)制后反而降低了檢測精度,加入CA注意力機(jī)制后相較于原模型僅提高了mAP@0.5和[R]的精度,且提升較小,而加入了EMA注意力機(jī)制的提升最大,盡管檢測速度有些許下降,但也滿足實(shí)時(shí)檢測的需求。通過上述的對(duì)比實(shí)驗(yàn)證明了EMA注意力的有效性。
2.3.3" 不同改進(jìn)模塊的消融實(shí)驗(yàn)
為了驗(yàn)證本文所提改進(jìn)模塊對(duì)模型的提升效果,設(shè)計(jì)8組消融實(shí)驗(yàn),在YOLOv8s網(wǎng)絡(luò)的基礎(chǔ)上分別替換C2f?EMSCP、添加小目標(biāo)檢測層、融合EMA注意力機(jī)制、更換WSIoU損失函數(shù),將各個(gè)改進(jìn)模塊依次累加,實(shí)驗(yàn)結(jié)果如表3所示。
對(duì)比實(shí)驗(yàn)一和六可以發(fā)現(xiàn),融合C2f?EMSCP和小目標(biāo)檢測層的模型在[P]、[R]、mAP@0.5和Params三項(xiàng)指標(biāo)上分別提高了0.6%、1.7%和3.3%,在Params這項(xiàng)指標(biāo)上分別降低了6.3%,F(xiàn)PS雖有所下降,但仍滿足實(shí)時(shí)檢測任務(wù)的要求;對(duì)比實(shí)驗(yàn)一、實(shí)驗(yàn)六和實(shí)驗(yàn)七可以發(fā)現(xiàn),在融合多尺度注意力機(jī)制EMA后,相較于實(shí)驗(yàn)六,模型在略微犧牲了一點(diǎn)檢測速度,以及微增了點(diǎn)計(jì)算量的情況下[P]、[R]和mAP@0.5三個(gè)指標(biāo)上都得到了提升,相較于實(shí)驗(yàn)一,模型在損失了一點(diǎn)準(zhǔn)確率和檢測速度外,剩余評(píng)價(jià)指標(biāo)實(shí)現(xiàn)了全面提升;在融合了4個(gè)改進(jìn)模塊后,相較于基礎(chǔ)模型,計(jì)算量和檢測速度略有損失的情況下,所提改進(jìn)模型在[P]、[R]和mAP@0.5上,分別提高了0.4%、2.1%和3.7%。綜合分析表3,消融實(shí)驗(yàn)結(jié)果證明本文所提各個(gè)改進(jìn)模塊均具有效果。
2.3.4" 檢測結(jié)果對(duì)比
為進(jìn)一步驗(yàn)證本文改進(jìn)YOLOv8s模型的有效性,利用KITTI測試集數(shù)據(jù)進(jìn)行測試,測試結(jié)果如圖5所示。
2.3.5" 不同模型的對(duì)比實(shí)驗(yàn)
為進(jìn)一步驗(yàn)證本文所提算法的有效性,與其他主流目標(biāo)檢測算法進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表4所示。
3" 結(jié)" 語
本文基于YOLOv8s網(wǎng)絡(luò)模型,提出了一種適用于自動(dòng)駕駛場景下不同道路環(huán)境目標(biāo)檢測的算法模型。設(shè)計(jì)一種輕量級(jí)的C2f?EMSCP模塊改進(jìn)YOLOv8s的骨干網(wǎng)絡(luò),實(shí)現(xiàn)網(wǎng)絡(luò)的參數(shù)量和計(jì)算量的降低;增加1個(gè)小目標(biāo)檢測層,提高了復(fù)雜場景下小目標(biāo)車輛的檢測性能;添加EMA注意力機(jī)制,提高了模型的特征融合能力;使用Wise?SIoU作為損失函數(shù),使檢測模型的邊界框回歸性能得到提升。改進(jìn)后的模型在KITTI數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與原有的YOLO v8相比,本文提出的方法在平均檢測精度上實(shí)現(xiàn)了3.70%的提升,完全能滿足道路監(jiān)控場景的需求。
注:本文通訊作者為趙杰。
參考文獻(xiàn)
[1] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 580?587.
[2] GIRSHICK R. Fast R?CNN [C]// Proceedings of the IEEE International Conference on Computer Vision. New York: IEEE, 2015: 1440?1448.
[3] 江屾,殷時(shí)蓉,羅天洪,等.基于改進(jìn)YOLOv4的多目標(biāo)車輛檢測算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2024,45(4):1181?1188.
[4] 貴向泉,秦慶松,孔令旺.基于改進(jìn)YOLOv5s的小目標(biāo)檢測算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2024,45(4):1134?1140.
[5] 蔡劉暢,楊培峰,張秋儀.基于YOLOv7的道路監(jiān)控車輛檢測方法[J].陜西科技大學(xué)學(xué)報(bào),2023,41(6):155?161.
[6] 湯林東,云利軍,羅瑞林,等.基于改進(jìn)Yolov5s的復(fù)雜道路交通目標(biāo)檢測算法[J].鄭州大學(xué)學(xué)報(bào)(工學(xué)版),2024,45(3):67?71.
[7] 蘇佳,秦一暢,賈澤,等.基于ATO?YOLO的小目標(biāo)檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2024,60(6):68?77.
[8] 馮勇,楊思卓,徐紅艷.基于YOLO v8的輕量化安全帽佩戴檢測算法[J/OL].計(jì)算機(jī)應(yīng)用:1?9[2024?04?22].http://kns.cnki.net/kcms/detail/51.1307.TP.20240418.1338.002.html.
[9] 余國豪,賈瑋迪,余鵬飛,等.基于改進(jìn)YOLOv5s的車臉檢測算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2024,45(3):732?739.
[10] OUYANG D L, HE S, ZHANG G Z, et al. Efficient multi?scale attention module with cross?spatial learning [C]// Proceedings of 2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). New York: IEEE, 2023: 1?5.
[11] HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13713?13722.
[12] ZHENG Z H, WANG P, REN D W, et al. Enhancing geometric factors in model learning and inference for object detection and instance segmentation [J]. IEEE transactions on cybernetics, 2022, 52(8): 8574?8586.
[13] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://arxiv.org/abs/2301.10051.
[14] GEVORGYAN Z. SIoU loss: More powerful learning for bounding box regression [EB/OL]. [2022?05?25]. https://arxiv.org/abs/2205.12740.
[15] 楊振,李林,羅文婷,等.改進(jìn)YOLOv5的瀝青路面病害檢測算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2023,44(11):3360?3372.