DOI:10.3969/j.issn.10001565.2024.04.011
摘要:為了在腸鏡檢查過程中對結直腸息肉進行快速鑒別檢測,提出一種基于改進YOLOv5s的腸鏡息肉多分類實時檢測模型.該模型采用ConvNeXt作為主干網(wǎng)絡, 融入SimAM注意力機制提升檢測性能,同時在頸部網(wǎng)絡中使用基于GSConv的slim-neck模塊減少網(wǎng)絡參數(shù).為了對模型進行訓練和測試,構建了包含1 676張息肉圖像并由專業(yè)醫(yī)生標注的結直腸息肉數(shù)據(jù)集.提出的模型在測試集上的平均精度均值(mAP@0.5)為83.0%,相較于改進前提升8.4%,檢測速度達到120幀/s. 此外,模型在邊緣側部署檢測速度超過25幀/s.結果表明,改進的YOLOv5s滿足臨床結腸鏡檢查對實時性與準確性的要求.
關鍵詞:息肉;腺瘤;檢測;YOLOv5s;實時性
中圖分類號:TP391.7文獻標志碼:A文章編號:10001565(2024)04042409
A real-time multi-class detection method for colonoscopy
polyps based on improved YOLOv5s
XUE Linyan1,2,3, LI Xuanang1, QI Chaoyi1, CAO Jie1, ZHANG Ying1, AI Shangpu1, YANG Kun1,2,3
(1. College of Quality and Technical Supervision, Hebei University, Baoding 071002, China;
2. National amp; Local Joint Engineering Research Center of Metrology Instrument and System,
Baoding 071002, China; 3. New Energy Vehicle Power System Lightweight
Technology Innovation Center of Hebei Province, Baoding 071002, China)
Abstract: To facilitate rapid identification and detection of colorectal polyps during colonoscopy procedures, a real-time multi-class detection model for colonoscopic polyps based on modified YOLOv5s is proposed. This model utilizes ConvNeXt as thebackbone network and incorporates the SimAM attention mechanism to improve detection performance. Additionally, a slim-neck module based on GSConv is employed in the neck network to reduce network parameters. For model training and testing, a colorectal polyp dataset containing 1 676 images annotated by professional doctors was constructed. The proposed model achieves a mean Average Precision (mAP@0.5) of 83.0% on the test set, which is an improvement
收稿日期:20240316;修回日期:20240506
基金項目:河北省自然科學基金資助項目(F2023201069);保定市創(chuàng)新能力提升專項項目(2394G027);河北大學研究生創(chuàng)新項目(HBU2024BS021;HBU2024SS011);河北大學科研創(chuàng)新團隊項目(IT2023B07);大學生創(chuàng)新創(chuàng)業(yè)訓練計劃創(chuàng)新訓練項目(DC2024376;DC2024381)
第一作者:薛林雁(1981—),女,河北大學副教授,主要從事生物醫(yī)學圖像處理方向研究.E-mail: lyxue@hbu.edu.cn
通信作者:楊昆(1976—),男,河北大學教授,博士生導師,主要從事生物醫(yī)學圖像處理方向研究.
E-mail: yangkun@hbu.edu.cn
of 8.4% compared to the model before modification, with a detection speed of 120 frames per second. Moreover,the model exhibits a detection speed exceeding 25 frames per second when deployed on edge devices. The results demonstrate that the improved YOLOv5s meets the clinical requirementsfor real-time and accurate colonoscopy examinations.
Key words: polyps; adenomatous polyps; object detection; YOLOv5s; real-time
根據(jù)2020年全球癌癥統(tǒng)計報告,結直腸癌在全球的發(fā)病率高居第二[1].結直腸息肉主要包括增生性息肉和腺瘤性息肉[2].約85%的結直腸癌由結直腸腺瘤演變而來[3],故而對結直腸息肉進行精準分型至關重要.結腸鏡檢是檢測和預防結直腸癌的金標準[4],但檢查過程易受醫(yī)生經驗、息肉位置和形態(tài)以及疲勞操作等干擾導致漏檢、誤診[5].因此,臨床亟需精準、實時、魯棒的方法,能夠切實有效地提高結直腸腺瘤的診斷水平[6-7].
隨著人工智能的發(fā)展,深度學習在結直腸息肉的分類與檢測任務中表現(xiàn)出良好的性能[8].Ozawa等[9]采用SSD網(wǎng)絡對結直腸息肉進行實時檢測和六分類(腺瘤、增生性息肉、SSAP、腺癌、其他病變和正常),檢測靈敏度為92%,分類準確率達83%,檢測速度為48.7幀/s,但針對小型腫瘤關注不足.Alba等[10]對YOLOv3網(wǎng)絡進行預訓練,再基于目標跟蹤算法進行后處理,顯著提升了結直腸息肉實時檢測系統(tǒng)的靈敏度和特異性,檢測息肉圖像的F1分數(shù)為88%,召回率為87%,精確率為89%.Mo等[11]首次將采用VGG16為骨干網(wǎng)絡的Faster-RCNN框架應用于結直腸息肉檢測,在CVC-Clinic2015DB數(shù)據(jù)集上取得了86.2%的檢測準確率和98.1%的召回率,但檢測速度最高僅達到17幀/s.Pacal等[12]在YOLOv4算法結構上引入CSPNet網(wǎng)絡結構、Mish 激活函數(shù)和DIoU損失,構建結直腸息肉實時檢測系統(tǒng),在公開息肉數(shù)據(jù)集ETIS-LARIB上測試,精確率達到91.62%,召回率達82.55%,且檢測速度可達到122幀/s.劉爽等[13]構建基于YOLOv5s的結直腸腺瘤實時檢測方法,引入通道注意力機制并改進損失函數(shù),使用結直腸腺瘤圖像與腸鏡檢測的視頻幀測試,平均精度達到93.6%,檢測速度達93幀/s.
然而,上述研究仍存在一定的局限性:1)多數(shù)研究主要針對腺瘤/非腺瘤、息肉/正常這2種,很少針對結直腸息肉進行更精準全面地多分類與檢測;2)大多數(shù)研究為了提升檢測精度而加深網(wǎng)絡或增加識別步驟,導致模型的實時性較差,無法滿足邊緣部署及實時性需求[14].基于此,本研究對輕量級網(wǎng)絡YOLOv5s進行了一系列改進,主要貢獻包括:1)為提高檢測性能,使用融合SimAM注意力機制的ConvNeXt網(wǎng)絡替換YOLOv5s的主干網(wǎng)絡,以提取更多全局特征;2)為提高檢測速度,在YOLOv5s的頸部網(wǎng)絡采用基于GSConv的slim-neck結構,改進非極大值抑制方法,解決相鄰息肉互相遮擋視野的問題;3)為驗證邊緣側檢測性能,選擇英偉達Jetson Nano和瑞芯微RK3568這2款算力較低的高性能板卡作為邊緣設備,將網(wǎng)絡模型進行對應的框架轉換和引擎加速,部署系統(tǒng)并進行性能測試.實驗結果驗證了本文提出的改進YOLOv5s網(wǎng)絡能夠有效提升息肉多分類檢測的精度和實時性,并在邊緣設備上驗證了系統(tǒng)可行性.
1模型構建
1.1改進的YOLOv5s網(wǎng)絡
結合不同YOLO模型的特性[15-17],本研究基于檢測性能較好且參數(shù)量較少的YOLOv5s對直腸息肉進行多分類實時檢測.YOLOv5s由主干網(wǎng)絡、頸部網(wǎng)絡以及檢測頭模塊3部分組成, 圖1為改進主干和頸部網(wǎng)絡后的YOLOv5s實時檢測網(wǎng)絡架構,在主干網(wǎng)絡中設計了ConvN-Sim模塊替換原有模塊,以提取更豐富的息肉特征,同時捕獲更多全局信息.在頸部網(wǎng)絡采用基于GSConv的slim-neck結構,以進一步降低網(wǎng)絡參數(shù)量,加快推理速度的同時保證輸出準確率.為了提升模型在訓練階段的收斂速度,采用SIoU損失函數(shù)結合非極大值抑制方法,通過降低冗余檢測框的權重,有效解決了腸鏡檢測中相鄰病變相互遮擋的問題.
相對于CNN,Transformer[18]的自注意力機制可以擴展感受野,提取圖像全局信息.本研究使用結合Transformer特性的CNN主干ConvNeXt[19],以適應醫(yī)學圖像的復雜性和多分類實時檢測任務的需求.
由于腸道中存在的氣泡、糞便等因素的影響,本研究添加SimAM注意力機制[20],不影響參數(shù)量的同時降低干擾因素的權重.圖2為ConvN-Sim模塊,由ConvNext模式與SimAM注意力機制組成,其中前者由深度卷積(Deepwisec Conv),層歸一化(LN),標準卷積和GELU激活函數(shù)構成,SimAM注意力添加在深度卷積層后.
SimAM注意力機制使用能量函數(shù)確定注意力,計算如公式(1).t代表輸入特征X中目標神經元,μ^和σ^2分別是其他神經元的平均值和方差(不包括t),λ的最佳值設為0.000 1.所得et值越小意味著能量越低,目標神經元與其他神經元差異越大,即該神經元的重要性越高.根據(jù)神經元的重要性增強特征圖,計算公式如(2).e*t=4(σ^2+λ)((t-μ^)2+2σ^2+2λ),(1)
X=sigmod1E⊙X.(2)1.3頸部網(wǎng)絡改進
為了實現(xiàn)息肉的實時檢測,使用基于GSConv的slim-neck結構[21]改進YOLOv5s頸部網(wǎng)絡.盡管大多數(shù)輕量化設計采用深度可分離卷積運算來減少模型的參數(shù)和浮點運算量,但可能導致輸入圖像的通道信息分離,丟失細節(jié)信息,因此在頸部網(wǎng)絡的VOV-GSCSP中使用GSConv,通過混洗操作將標準卷積生成的特征信息在不同通道上均勻地交換局部特征信息,進而完全滲透到深度卷積的輸出中,實現(xiàn)以較低的時間復雜度盡可能多地保留不同通道之間的隱藏連接,如圖3a所示.
經上述操作,GSConv對模型學習能力的貢獻與標準卷積相當,但計算成本僅為后者的一半.在GSConv的基礎上設計輕量化的GS瓶頸模塊,通過一次性聚合方法來構建跨階段部分網(wǎng)絡模塊VoV-GSCSP.圖3b和圖3c顯示了GS瓶頸模塊和VoV-GSCSP,后者結合GSConv的深度可分離卷積和通道混洗,代替頸部網(wǎng)絡的CSP模塊.a.GSConv;b.GS瓶頸模塊;c.VOV-GSCSP
1.4損失函數(shù)
本研究使用了一種新型邊界框定位損失函數(shù)SIoU loss[22],其考慮了邊界框回歸之間的向量角度在訓練階段收斂速度快,且推理準確性較高.計算公式如(3)、(4)、(5)和(6)所示,Λ代表角度損失、Δ是基于角度損失考慮下的距離損失,ρt代表預測邊界框與真實邊界框之間的歐幾里得距離,Ω為形狀損失代價函數(shù),w和h分別為預測框的寬和高,θ控制對形狀損失的關注程度.SIoU Loss=1-SIoU=1-IoU+Δ+Ω2,(3)
Λ=1-2*sin2arcsin(x)-π4,(4)
Δ=∑t=x,y(1-e-(2-Λ)ρt ),(5)
Ω=∑t=w,h(1-e-ωt )θ.(6)1.5非極大值抑制
非極大值抑制(NMS)用于在網(wǎng)絡預測階段剔除多余候選框,定位目標的最優(yōu)檢測點.傳統(tǒng)NMS在處理得分最高檢測框與其他檢測框的交叉重疊部分(IoU)超過設定閾值時,可能會忽略得分低的檢測框,導致緊密排列目標的漏檢。因此,本研究提出結合Soft-NMS[23]和SIoU的新型非極大值抑制算法Soft-SIoU-NMS,可以高效處理相鄰病變的遮擋情況,具體計算公式為(7)和(8),si表示當前檢測框得分,bi表示目標預測框,Nt表SIoU的閾值,M表示得分最高的檢測框,f(SIoU(M, bi ))表示高斯衰減函數(shù),σ取值0.5.si=siSIoU(M, bi )lt;Ntsi f(SIoU(M, bi ))SIoU(M, bi )≥Nt ,(7)
f(SIoU(M, bi ))=e-CIoU(M, bi )2σ.(8)1.6模型評價指標
性能指標采用精確率 (P, Precision)、召回率(R, Recall)、平均精度(AP, Average Precision)和平均精度的均值(mAP, mean Average Precision)作為評價指標.IoU表示真實標簽框和預測框B之間的重合度.P-R曲線下的面積為AP,mAP反映了所有類別的精度,mAP@0.5表示IoU設置為0.5時的mAP值,mAP@[0.5:0.95]表示IoU在區(qū)間[0.5,0.95]內取值,步距間隔0.05計算平均mAP.為評估系統(tǒng)實時性和參數(shù)量,引入FPS(frames per second,每秒幀數(shù))和FLOPS(floating point operations per second,每秒浮點計算次數(shù))指標.
2實驗研究
2.1實驗環(huán)境
本實驗在Linux操作系統(tǒng)運行,配置為Inter Core i7-7800*1以及128 G的DDR4運行內存,GPU為NVIDIA RTX2080Ti.深度學習框架為Python3.9.13、Pytorch1.10.1和Cuda 10.2.訓練中采用隨機梯度下降法SGD優(yōu)化器,初始學習率設置為0.01,批處理大小設置為32,進行150個迭代輪數(shù)(epoch)的訓練學習.
2.2數(shù)據(jù)采集與處理
實驗數(shù)據(jù)來自河北大學附屬醫(yī)院,本研究已通過河北大學附屬醫(yī)院倫理委員會審核.數(shù)據(jù)涵蓋2016年6月至2019年6月12 857例患者的病理信息.2名臨床經驗豐富的結直腸內鏡醫(yī)生對結直腸圖像數(shù)據(jù)進行清洗與分類,排除充氣不充分、有較多的糞便殘渣、光暈、出血的結直腸圖像,最終采用1 676張結直腸息肉圖像,含管狀腺瘤(651張)、絨毛狀管狀腺瘤(618張)、絨毛狀腺瘤(51張)、增生性息肉(234張)和無蒂鋸齒狀 腺瘤/息肉(SSAP)(122張)5種臨床常見病變.
按照4∶1隨機分配訓練集和測試集,其中訓練集包含1 340張圖片,測試集包含336張圖片.采用像素變換、旋轉、翻轉等幾何變換方法進行數(shù)據(jù)增強,再加入噪聲、調節(jié)明亮度,最終使用Mosaic增強來減小數(shù)據(jù)不平衡的影響.Mosaic增強是將4張照片隨機裁剪后調整尺寸,再拼接到一張設定尺寸的圖像上,在訓練階段中進行處理并輸入到模型中.且由于原始圖片均有對應的檢測框,則所得圖片中也包含對應框.圖4是Mosaic增強的隨機8張結果展示.
3實驗結果及分析
3.1經典網(wǎng)絡對比實驗分析
結合ImageNet自然圖像數(shù)據(jù)集和CVC-ClinicDB[24]結直腸息肉數(shù)據(jù)集,對改進的YOLOv5s檢測網(wǎng)絡預訓練,利用遷移學習提高網(wǎng)絡性能.
對比改進的YOLOv5s網(wǎng)絡與經典目標檢測網(wǎng)絡,并使用mAP@0.5和mAP@[0.5:0.95]指標進行評估.
如表1所示,改進的網(wǎng)絡在4項檢測指標表現(xiàn)均具有明顯優(yōu)勢,檢測精度高于經典雙階段檢測網(wǎng)絡Faster-R CNN,速度優(yōu)于同為單階段網(wǎng)絡的SSD和RetinaNet.mAP@0.5值達80.9%,mAP@[0.5:0.95]為62.9%,當IoU取值0.5時,對5類息肉的AP值相對于其他網(wǎng)絡高出比例均大于19%,達79.6%~92.7%,其推理速度達120幀/s,兼顧高精確率和實時性.從表1中可以看到對增生性息肉和鋸齒狀腺瘤這些體積小、形態(tài)不明顯、訓練數(shù)據(jù)較少的類別,其余模型的檢測效果均表現(xiàn)一般低于40%.最優(yōu)結果以加粗字體表達(下同).
3.2各模塊改進對比分析
利用五分類結直腸息肉檢測數(shù)據(jù)集對YOLOv5s網(wǎng)絡和各模塊結構效果進行實驗評估(表2).圖5是原始圖像、YOLOv5s檢測結果、改進后的YOLOv5s檢測結果對比.
在5折交叉驗證中,使用ConvNeXt替換主干網(wǎng)絡Darknet53后,由于其更優(yōu)的全局空間信息捕獲能力精確度從78.0%提升至80.8%,召回率提高了0.8%.引入SimAM注意力機制增強了模型魯棒性,使精確度提高0.5%,召回率達到73.0%,mAP在IoU設為0.5和[0.5:0.95]時均達到了77.7%和59.5%.此外,頸部網(wǎng)絡中通過使用GSConv代替標準卷積,并將VOV-GSCSP替換原CSPnet,進一步提高了性能指標,同時降低參數(shù)量和計算量.最后,采用Soft-SIoU-NMS代替?zhèn)鹘y(tǒng)的NMS顯著解決了息肉遮擋的問題,精確度提升至84.3%,召回率為70.5%,mAP@0.5和mAP@[0.5:0.95]分別提升了3.7%和2.4%.
4系統(tǒng)部署
4.1多分類息肉系統(tǒng)實時檢測系統(tǒng)
多分類息肉系統(tǒng)實時檢測系統(tǒng)是針對醫(yī)院內窺鏡設備的圖像采集和診斷分析系統(tǒng).具體檢測流程如圖6所示,當使用電子內窺鏡進行結腸鏡檢測時,視頻格式轉換卡轉換視頻信號,并對原始數(shù)據(jù)預處理.在圖片檢測與識別模塊,主干網(wǎng)絡對輸入的圖像幀提取特征,進行多尺度融合.生成的多尺度特征圖用于提取注意力感興趣區(qū)域信息和生成預測目標框,最終輸出息肉位置和置信度的檢測結果.
本次部署測試利用電腦模擬內鏡設備作為內鏡檢查視頻幀輸入信號,連接視頻轉換器,通過USB3.0接口連接邊緣側網(wǎng)絡英偉達Jetson Nano和瑞芯微RK3568AI計算單元進行推理,保存檢測結果并顯示.
4.2Jetson Nano部署測試
Jetson Nano嵌入式開發(fā)板搭載128核Maxwell GPU,支持一系列流行的AI框架 .將本研究的網(wǎng)絡模型在此設備上推理部署和加速,使用英偉達開發(fā)的TensorRT優(yōu)化引擎進行模型壓縮,降低模型參數(shù)精度,減小內存占用并加快推理速度.實驗分別選擇TensorRT的FP32和FP16這2種參數(shù)精度進行網(wǎng)絡模型推理階段性能測試,結果如表3所示.
在Nano部署后,基于Pytorch架構的推理速度僅有14.49幀/s.而將網(wǎng)絡轉換至TensorRT FP16半精度進行加速計算后,推理速度提升至28.57幀/s,且精度相比PyTorch架構和TensorRT FP32無明顯變化.
4.3RK3568部署測試
RK3568集成4核arm架構A55處理器、Mali G52 2EE GPU和1Tops算力的高效能AI加速器NPU,支持8bit/16bit量化運算,并且相較于GPU的功耗也大幅降低.通過使用RKNN-Toolkit將本研究的模型轉換成RKNN模型,將RKNN模型部署到RK3568平臺,測試結果如表4.
經轉換得到int16精度的RKNN模型性能評價更好,但FPS不滿足實時性需求.而通過量化轉換得到int8精度RKNN模型,推理速度提升至24.82幀/s,基本滿足實時性需求,且性能評估數(shù)據(jù)無明顯下降.
通過在英偉達Jetson Nano和瑞芯微RK3568上部署腸鏡多分類實時檢測系統(tǒng)測試的結果,證明即使將本文提出的基于改進的YOLOv5s網(wǎng)絡部署在算力較低的邊緣側設備上,可以保證結直腸息肉檢測準確性與實時性需求,同時可以減少數(shù)據(jù)傳輸延遲,提升病人數(shù)據(jù)的安全性.
5結論
為了提高醫(yī)生結腸鏡檢查的息肉檢出率和腺瘤檢出率,本文在YOLOv5s的基礎上改進,首先為克服卷積神經網(wǎng)絡結構的局限性,引入ConvNeXt網(wǎng)絡和SimAM來獲取更多全局上下文特征信息.再使用基于GSConv的slim-neck模塊,在不影響網(wǎng)絡性能的同時,降低參數(shù)量,加快推理速度.同時利用新的非極大值抑制方法Soft-SIoU-NMS來優(yōu)化檢測網(wǎng)絡訓練效果.本實驗分別在云端服務器和邊緣AI設備(模擬臨床部署環(huán)境)上分別進行了性能測試,依據(jù)各項指標顯示,改進后的YOLOv5s網(wǎng)絡的mAP相較于原YOLOv5s網(wǎng)絡整體提升了8.4%,云端部署推理速度達120.5幀/s,邊緣側設備部署推理速度均超過25幀/s,可基本滿足臨床內鏡檢查過程中多分類息肉輔助檢測實時性與準確性的要求.
參考文獻:
[1]劉宗超,李哲軒,張陽,等.2020全球癌癥統(tǒng)計報告解讀[J].腫瘤綜合治療電子雜志, 2021, 7(2):1-14. DOI:10.12151/JMCM.2021.02-01.
[2]RODRIGUEZ-DIAZ E, BAFFY G, LO W K ,et al. Real-time artificial intelligence-based histological classification of colorectal polyps with augmented visualization - ScienceDirect[J].Gastrointestinal Endoscopy, 2020.DOI:10.1016/j.gie.2020.09.018.
[3]DOUBENI C A, CORLEY D A, QUINN V P, et al. Effectiveness of screening colonoscopy in reducing the risk of death from right and left colon cancer: a large community-based study[J]. Gut, 2018, 67(2): 291-298. DOI: 10.1136/gutjnl-2016-312712.
[4]REX D K, BOLAND C R, DOMINITZ J A, et al. Colorectal cancer screening: recommendations for physicians and patients from the U.S. Multi-Society Task Force on Colorectal Cancer[J]. Gastrointest Endosc, 2017, 86(1): 18-33. DOI: 10.1016/j.gie.2017.04.003.
[5]ZHAO S B, WANG S L, PAN P, et al. Magnitude, risk factors, and factors associated with adenoma miss rate of tandem colonoscopy: a systematic review and meta-analysis[J]. Gastroenterology, 2019, 156(6): 1661-1674. DOI: 10.1053/j.gastro.2019.01.260.
[6]LUI T K L, GUO C G, LEUNG W K. Accuracy of artificial intelligence on histology prediction and detection of colorectal polyps: a systematic review and meta-analysis[J]. Gastrointest Endosc, 2020, 92(1): 11-22. DOI: 10.1016/j.gie.2020.02.033.
[7]BYRNE M F, SHAHIDI N, REX D K. Will computer-aided detection and diagnosis revolutionize colonoscopy?[J]. Gastroenterology, 2017, 153(6): 1460-1464. DOI: 10.1053/j.gastro.2017.10.026.
[8]蔣西然,蔣韜,孫嘉瑤,等.深度學習人工智能技術在醫(yī)學影像輔助分析中的應用[J].中國醫(yī)療設備, 2021, 36(6): 164-171. DOI: 10.3969/j.issn.1674-1633.2021.06.040.
[9]OZAWA T, ISHIHARA S, FUJISHIRO M, et al. Automated endoscopic detection and classification of colorectal polyps using convolutional neural networks[J]. Therap Adv Gastroenterol, 2020, 13: 1756284820910659. DOI: 10.1177/1756284820910659.
[10]NOGUEIRA RODRGUEZ A, DOMNGUEZ CARBAJALES R, CAMPOS TATO F, et al. Real-time polyp detection model using convolutional neural networks[J]. Neural Comput Appl, 2021, 34(13): 1-22.
[11]MO X, TAO K, WANG Q, et al. An efficient approach for polyps detection in endoscopic videos based on faster R-CNN[C]//2018 24th International Conference on Pattern Recognition (ICPR). Beijing, China. IEEE, 2018: 3929-3934. DOI: 10.1109/ICPR.2018.8545174.
[12]PACAL I, KARABOGA D. A robust real-time deep learning based automatic polyp detection system[J]. Comput Biol Med, 2021, 134: 104519. DOI: 10.1016/j.compbiomed.2021.104519.
[13]CAI H, FENG X, YIN R, et al. MIST: multiple instance learning network based on Swin Transformer for whole slide image classification of colorectal adenomas[J]. The Journal of Pathology, 2023, 259(2): 125-135. DOI: 10.1002/path.6027.
[14]張文明,姚振飛,高雅昆,等.一種平衡準確性以及高效性的顯著性目標檢測深度卷積網(wǎng)絡模型[J].電子與信息學報, 2020, 42(5): 1201-1208. DOI: 10.11999/JEIT190229.
[15]JIANG L, LI X.An efficient and accurate object detection algorithm and its application[J].IEEE, 2020.DOI:10.1109/ITOEC49072.2020.9141752.
[16]ADARSH P, RATHI P, KUMAR M.YOLO v3-Tiny: object detection and recognition using one stage improved model[C]//2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS).IEEE, 2020.DOI:10.1109/ICACCS48705.2020.9074315.
[17]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. 2020: arXiv: 2004.10934. http://arxiv.org/abs/2004.10934.
[18]ZHAOYANG N,GUOQIANG Z,HUI Y.A review on the attention mechanism of deep learning[J].Neurocomputing, 2021.DOI:10.1016/j.neucom.2021.03.091. 555/3295222.3295349.
[19]LIU Z, MAO H Z, WU C Y, et al. A ConvNet for the 2020s[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans, LA, USA. IEEE, 2022: 11966-11976. DOI: 10.1109/CVPR52688.2022.01167.
[20]Yang L, Zhang R-Y, Li L, et al. SimAM: A Simple, Parameter-Free Attention Module for Convolutional Neural Networks[C]//International Conference on Machine Learning. PMLR, 2021: 11863-11874.
[21]LI H L, LI J, WEI H B, et al. Slim-neck by GSConv: a better design paradigm of detector architectures for autonomous vehicles[EB/OL]. 2022: arXiv: 2206.02424. http://arxiv.org/abs/2206.02424.
[22]GEVORGYAN Z. SIoU loss: more powerful learning for bounding box regression. 2022: arXiv: 2205.12740. http://arxiv.org/abs/2205.12740.
[23]CHENG H, ANYUAN Y, HONGLIN H. 2021. Using combined Soft-NMS algorithm Method with Faster R-CNN model for Skin Lesion Detection. In Proceedings of the 6th International Conference on Robotics and Artificial Intelligence (ICRAI 20). Association for Computing Machinery, New York, NY, USA, 5–8. https://doi.org/10.1145/3449301.3449303.
[24]BERNAL J, SNCHEZ F J, FERNNDEZ-ESPARRACH G, et al. WM-DOVA maps for accurate polyp highlighting in colonoscopy: validation vs. saliency maps from physicians[J]. Comput Med Imaging Graph, 2015, 43: 99-111. DOI: 10.1016/j.compmedimag.2015.02.007.
(責任編輯:孟素蘭)