• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于YOLOv5m的電機(jī)換向器缺陷檢測(cè)

      2024-06-24 14:15:27許云濤焦培剛劉家齊
      關(guān)鍵詞:特征融合注意力機(jī)制

      許云濤 焦培剛 劉家齊

      摘要:為降低電機(jī)換向器缺陷的檢測(cè)成本,提高檢測(cè)效率,滿足實(shí)際工程中對(duì)檢測(cè)精度和檢測(cè)速度的均衡要求,以YOLOv5m模型為基礎(chǔ)提出優(yōu)化改進(jìn)的表面缺陷檢測(cè)算法,將采集的數(shù)據(jù)集經(jīng)Mosica數(shù)據(jù)增強(qiáng),提高模型的魯棒性;在其他層中采用雙向特征金字塔網(wǎng)絡(luò)(bidirectional feature pyramid network,BiFPN)層代替路徑聚合網(wǎng)路(path aggregation network,PANet)層,引入雙向連接和跨層特征融合機(jī)制,同時(shí)增加Criss-Cross注意力機(jī)制,更好地捕捉輸入序列中的相關(guān)信息,增強(qiáng)網(wǎng)絡(luò)在不同尺度下的反饋,并通過(guò)消融試驗(yàn)驗(yàn)證。結(jié)果表明:相較于傳統(tǒng)YOLOv5m模型,優(yōu)化改進(jìn)后YOLOv5m模型的總體平均檢測(cè)精度增大17%,準(zhǔn)確率增大28.3%,召回率增大8.2%。在保證檢測(cè)精度的同時(shí),縮短缺陷檢測(cè)時(shí)間,較好地滿足缺陷檢測(cè)工程中對(duì)檢測(cè)精度與檢測(cè)速度的均衡需求。

      關(guān)鍵詞:電機(jī)換向器;表面缺陷;YOLOv5m;注意力機(jī)制;特征融合

      中圖分類號(hào):U463.6文獻(xiàn)標(biāo)志碼:A文章編號(hào):1672-0032(2024)02-0010-09

      引用格式:許云濤,焦培剛,劉家齊.基于YOLOv5m的電機(jī)換向器缺陷檢測(cè)[J].山東交通學(xué)院學(xué)報(bào),2024,32(2):10-18.

      XU Yuntao, JIAO Peigang, LIU Jiaqi. Motor commutator defect detection based on YOLOv5m[J].Journal of Shandong Jiaotong University,2024,32(2):10-18.

      0?引言

      電機(jī)換向器是交流換向器和直流換向器電動(dòng)機(jī)電樞上的重要部件,對(duì)電機(jī)的性能和質(zhì)量有較大影響。電機(jī)換向器的制作工藝復(fù)雜,頂端和底端表面由金屬、塑料和云母等多種材料構(gòu)成,表面缺陷分布廣、形式多樣、特征復(fù)雜,難以制定統(tǒng)一的量化檢測(cè)標(biāo)準(zhǔn),采用傳統(tǒng)視覺(jué)方法檢測(cè)缺陷時(shí)難免出現(xiàn)漏檢、誤檢現(xiàn)象[1-2]。

      檢測(cè)電機(jī)換向器表面缺陷的方法主要有視覺(jué)檢測(cè)、渦流檢測(cè)、激光三維掃描和紅外線掃描等方法。視覺(jué)檢測(cè)主要通過(guò)攝像頭拍攝電機(jī)換向器表面圖像,采用圖像處理技術(shù)進(jìn)行缺陷識(shí)別和分類;渦流檢測(cè)是通過(guò)電磁感應(yīng)原理檢測(cè)電機(jī)換向器表面的缺陷,檢測(cè)速度快,無(wú)需接觸,不易受表面涂層和顏色干擾。隨著機(jī)器學(xué)習(xí)和機(jī)器視覺(jué)的不斷發(fā)展,目前多采用自動(dòng)化方法檢測(cè)金屬材料表面的缺陷。

      羅立浩等[3-4]開(kāi)發(fā)基于頻域分析和分?jǐn)?shù)域分析的在線視覺(jué)檢測(cè)系統(tǒng),有效排除金屬表面氧化層的干擾,并通過(guò)自適應(yīng)濾波器增強(qiáng)缺陷區(qū)域,針對(duì)柱面缺陷分類問(wèn)題,綜合多種特征,采用隨機(jī)森林分類,檢測(cè)準(zhǔn)確率明顯提高。Jung等[5]訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)時(shí)檢測(cè)紋理表面缺陷,準(zhǔn)確性和魯棒性較高。Gu等[6]采用語(yǔ)義分割的經(jīng)典U-Net網(wǎng)絡(luò)訓(xùn)練道路數(shù)據(jù)集,并在嵌入式設(shè)備Jetson AGX Xavier部署道路分割模型,但刷新頻率指標(biāo)效果不理想,在算力有限的邊緣設(shè)備上難度較高。Nguyen等[7]提出2級(jí)卷積神經(jīng)網(wǎng)絡(luò),第1級(jí)結(jié)構(gòu)用于消除噪聲并縮小圖像中的裂縫區(qū)域,第2級(jí)用于裂縫特征學(xué)習(xí),在網(wǎng)絡(luò)參數(shù)較小時(shí)檢測(cè)裂縫。徐曉峰[8]采用最小核值相似區(qū)(small univalue segment assimilating nucleus,SUSAN)算法進(jìn)行自適應(yīng)閾值檢測(cè),偏差不超過(guò)5 μm,檢測(cè)速度明顯提高。李樹(shù)遙[9]提出多缺陷在線檢測(cè)算法,可涵蓋換向器各區(qū)域多種缺陷。電機(jī)換向器缺陷的檢測(cè)精度提高,但檢測(cè)成本較高,檢測(cè)速率較慢。

      本文提出優(yōu)化改進(jìn)后的YOLOv5m算法,融入雙向特征金字塔網(wǎng)絡(luò)(bidirectional feature pyramid network,BiFPN)層,從輸入圖像中提取特征細(xì)節(jié),提高檢測(cè)的準(zhǔn)確性,同時(shí)增加Criss-Cross注意力機(jī)制,引入更多的上下文信息,提高網(wǎng)絡(luò)的特征提取能力,減少網(wǎng)絡(luò)對(duì)特定場(chǎng)景的依賴,提高網(wǎng)絡(luò)的泛化能力和換向器缺陷檢測(cè)準(zhǔn)確率和檢測(cè)速度。

      1?YOLOv5檢測(cè)算法

      1.1?YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)

      YOLOv5主要由主干網(wǎng)絡(luò)(Backone)、其他層(Neck)、輸入端(Input)及預(yù)測(cè)頭(Prediction)部分組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      注:CBS為連續(xù)卷積、批歸一化和激活函數(shù)的組合;Conv為卷積層,可提取輸入數(shù)據(jù)的特征;SPP為空間金字塔池化,是將輸入的特征圖轉(zhuǎn)換為預(yù)定義的固定值輸出方法;Concat為拼接操作,將來(lái)自不同層的特征圖按某維度(通常是通道維度)拼接;Slice是指從大的數(shù)據(jù)結(jié)構(gòu)中抽取出部分?jǐn)?shù)據(jù);CSP為跨階段部分網(wǎng)絡(luò),可減少計(jì)算量并保證準(zhǔn)確性;Focus為特殊層,旨在減少計(jì)算成本,保持模型性能;Resunit為殘差單元。

      YOLOv5是高效的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),以跨階段部分網(wǎng)絡(luò)(cross stage partial network,CSPNet)為主干網(wǎng)絡(luò),提高模型的檢測(cè)速度和準(zhǔn)確率,其他層采用空間金字塔池化(spatial pyramid pooling,SPP)和路徑聚合網(wǎng)絡(luò)(path aggregation network,PAN)結(jié)構(gòu),捕捉不同尺度的特征并幫助網(wǎng)絡(luò)學(xué)習(xí)全局特征。在預(yù)測(cè)頭部分,YOLOv5采用YOLOv3和YOLOv4的結(jié)構(gòu),包含多個(gè)卷積層和池化層,輸出預(yù)測(cè)結(jié)果。YOLOv5采用anchor-based的方法作為預(yù)測(cè)方式,對(duì)預(yù)測(cè)結(jié)果進(jìn)行后處理,可得到目標(biāo)的類別、位置和置信度信息。

      1.2?YOLOv5算法改進(jìn)

      1.2.1?BiFPN特征融合方法

      BiFPN用于目標(biāo)檢測(cè)任務(wù)的網(wǎng)絡(luò)結(jié)構(gòu),旨在提高特征金字塔網(wǎng)絡(luò)(feature pyramid network,F(xiàn)PN)的性能。FPN通常用于解決目標(biāo)檢測(cè)任務(wù)中不同尺度特征信息的融合問(wèn)題,特征自下而上傳遞,低層特征與高層特征融合。在此基礎(chǔ)上,在BiFPN中引入反向連接,允許高層特征影響低層特征,實(shí)現(xiàn)更全面的信息交換[10-11]。BiFPN引入雙向連接和更多的特征融合機(jī)制,提高特征的表征能力,原理結(jié)構(gòu)如圖2所示。

      a)FPN結(jié)構(gòu)?b)PAN結(jié)構(gòu)?c)BiFPN結(jié)構(gòu)

      注:白色為輸入圖像或初級(jí)特征圖;藍(lán)色、綠色和粉色為低層特征圖,分辨率較高;紅色和黃色為高層特征圖,分辨率較低。

      在YOLOv5m中,BiFPN確保從輸入圖像中提取細(xì)節(jié)豐富的特征,上下文信息充足,提高檢測(cè)的準(zhǔn)確性,增強(qiáng)網(wǎng)絡(luò)在不同尺度上的特征表示。BiFPN嵌入主干特征提取網(wǎng)絡(luò),在不同層級(jí)上融合特征,有助于提高模型對(duì)大、小目標(biāo)的檢測(cè)能力,并提高模型的魯棒性和準(zhǔn)確性[12]。同時(shí),BiFPN可去除噪聲和假陽(yáng)性,在復(fù)雜場(chǎng)景下檢測(cè)目標(biāo),提高模型在工業(yè)領(lǐng)域的實(shí)用性。因引入更多的融合機(jī)制和雙向連接,BiFPN的計(jì)算復(fù)雜度相對(duì)較高,可能增大模型的訓(xùn)練和推理成本。BiFPN涉及多個(gè)融合機(jī)制和參數(shù),需仔細(xì)調(diào)整參數(shù),獲得最佳檢測(cè)性能[13-14]。

      1.2.2?Criss-Cross注意力機(jī)制

      H—輸入的隱藏狀態(tài)或特征映射; H′—輸出的隱藏狀態(tài)或特征映射;

      A—注意力權(quán)重矩陣,由模型學(xué)習(xí)確定輸入的哪些部分應(yīng)該被給予更多關(guān)注;

      Q—查詢(query);K—鍵(key);V—值(value);

      Q、K、V—注意力機(jī)制中的3個(gè)基本組件。

      Criss-Cross網(wǎng)絡(luò)采用輕量級(jí)計(jì)算和內(nèi)存表示局部特征,進(jìn)行全圖像依賴性建模,引入1個(gè)交叉注意模塊,結(jié)構(gòu)如圖3所示。Criss-Cross是神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制,可處理序列數(shù)據(jù),在水平和垂直2個(gè)方向上交叉計(jì)算注意力權(quán)重,捕捉輸入序列中的相關(guān)信息,計(jì)算左向和右向的卷積注意力分?jǐn)?shù),通過(guò)Softmax函數(shù)(Softmax是將輸入的實(shí)數(shù)序列轉(zhuǎn)化為概率分布,確保結(jié)果都在[0,1]內(nèi),概率分布總和為1)處理得到左向和右向的卷積注意力權(quán)重,通過(guò)加權(quán)平均合并得到最終的注意力權(quán)重矩陣。通過(guò)此矩陣,模型可在處理輸入圖像時(shí)更有效聚焦關(guān)鍵特征,提高檢測(cè)準(zhǔn)確率。

      在Criss-Cross注意力機(jī)制的工作流程中,計(jì)算從左到右和從右到左的注意力分?jǐn)?shù),即左向和右向注意力,量化位置間的關(guān)聯(lián)程度,位置i到位置j的左向注意力分?jǐn)?shù)矩陣[15]

      Lij=XijT,

      式中:Xij為輸入特征映射矩陣。

      位置j到位置i的右向注意力分?jǐn)?shù)矩陣Rij=XijT。

      對(duì)左向和右向注意力分?jǐn)?shù)矩陣進(jìn)行Softmax函數(shù)[16]處理得到雙向注意力權(quán)重,雙向注意力權(quán)重反映每個(gè)位置相對(duì)于其他位置的重要性程度,位置i對(duì)位置j的左向注意力權(quán)重矩陣

      Lsoftmax,ij=expln Lij/expln∑NK=1Lij,

      式中:K為對(duì)輸入向量中的元素進(jìn)行求和時(shí)的迭代變量,從1開(kāi)始迭代到N。

      位置j對(duì)位置i的右向注意力權(quán)重矩陣

      Rsoftmax,ij=expln Rij/exp ln∑NK=1Rij,

      通常采用加權(quán)平均的方法,將左向注意力權(quán)重和右向注意力權(quán)重合并得到最終的注意力權(quán)重矩陣。超參數(shù)α控制左向注意力權(quán)重和右向注意力權(quán)重,α∈[0,1],根據(jù)任務(wù)和數(shù)據(jù)調(diào)整α獲得最佳檢測(cè)性能,注意力權(quán)重矩陣公式為:

      Aij=αLsoftmax,ij+(1-α)Rsoftmax,ij。

      在Criss-Cross注意力機(jī)制中,通過(guò)2個(gè)全連接層分別計(jì)算輸入序列在水平和垂直方向上的注意力權(quán)重,將這2個(gè)注意力權(quán)重相乘得到最終的注意力權(quán)重,能有效捕捉圖像中遠(yuǎn)距離像素間的依賴關(guān)系,幫助模型獲取更廣闊的全局上下文信息,有助于提升任務(wù)性能[16]。

      YOLOv5結(jié)合Criss-Cross注意力機(jī)制可在原有基礎(chǔ)上提高檢測(cè)精度,且對(duì)圖形處理器(graphic processing unit,GPU)內(nèi)存友好、計(jì)算高效,Criss-Cross模塊可增強(qiáng)YOLOv5網(wǎng)絡(luò)模型在不同尺度下的反饋,引入更多的上下文信息,提高網(wǎng)絡(luò)的特征提取能力和泛化能力[17-19],減少網(wǎng)絡(luò)對(duì)特定場(chǎng)景的依賴。

      2?試驗(yàn)結(jié)果與分析

      基于Windows11操作系統(tǒng),采用軟件AMD Ryzen 7 6800H with Radeon Graphics進(jìn)行訓(xùn)練和測(cè)試,采用Python 3.11為深度學(xué)習(xí)語(yǔ)言,Pytorch 1.7.1為深度學(xué)習(xí)框架,以PyCharm為開(kāi)發(fā)環(huán)境,采用Cuda 10.1和Cudnn 7.6.5編程。

      2.1?試驗(yàn)數(shù)據(jù)集

      采用??礛V-CE050-31GM工業(yè)相機(jī)拍攝距相機(jī)0.2 m的電機(jī)換向器元件3種常見(jiàn)的表面缺陷,包括劃痕(scratch)、破損(damaged)及凹陷(sunken),如圖4所示。

      a)劃痕?b)破損?c)凹陷

      圖4?電機(jī)換向器元件3種表面缺陷圖片

      共采集原始圖片300張,保存為jpg格式,每種缺陷有100張圖片,通過(guò)YOLOv5中的剪切、旋轉(zhuǎn)、縮放等功能增強(qiáng)數(shù)據(jù),采用Mosaic增強(qiáng)方法將圖片增至每種缺陷有800張,即將4張圖片隨機(jī)裁剪、縮放后排列拼接成1張圖片,豐富數(shù)據(jù)集,增加小樣本目標(biāo),提升網(wǎng)絡(luò)的訓(xùn)練速度[20-22]。進(jìn)行歸一化操作時(shí),一次計(jì)算4張圖片的數(shù)據(jù),降低模型對(duì)內(nèi)存的占用空間。

      2.2?測(cè)評(píng)標(biāo)準(zhǔn)

      試驗(yàn)結(jié)果的評(píng)價(jià)指標(biāo)包括準(zhǔn)確率p、召回率r(衡量模型監(jiān)測(cè)正類的能力)、平均檢測(cè)精度均值(mean average precision,mAP)。mAP基于準(zhǔn)確率、召回率、平均檢測(cè)精度(average precision,AP)3個(gè)標(biāo)準(zhǔn)[23-25]。

      準(zhǔn)確率

      p=NTP/(NTP+NFP)×100%,

      式中:NTP為真正例,NFP為假正例。

      召回率

      r=NTP/(NTP+NFN)×100%,

      式中NFN為被預(yù)測(cè)為負(fù)類的正樣本。

      第i類缺陷的平均檢測(cè)精度XAPi=∫10p(r)dr,平均檢測(cè)精度均值

      XmAP=1c∑ci=1XAPi,

      式中c為缺陷類別數(shù)。

      2.3?訓(xùn)練方法

      在模型訓(xùn)練過(guò)程中,下載圖像識(shí)別數(shù)據(jù)集MS COCO(微軟提供的Common Objects in Context)后,通過(guò)深度學(xué)習(xí)框架darknet轉(zhuǎn)換為YOLOv5數(shù)據(jù)集,轉(zhuǎn)換后將圖像及標(biāo)注按一定比例分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。一般情況下,訓(xùn)練集占總數(shù)據(jù)集的70%~80%,驗(yàn)證集占10%~15%,測(cè)試集占10%~15%。

      采用YOLOv5m及權(quán)重文件yolo5m.pt作為YOLOv5m模型的初始權(quán)重,采用小批量隨機(jī)梯度下降法訓(xùn)練模型,單次傳給程序用來(lái)訓(xùn)練的樣本數(shù)BatchSize為31,網(wǎng)絡(luò)的初始學(xué)習(xí)率為0.02,動(dòng)量參數(shù)為0.916,權(quán)重衰減系數(shù)為0.000 6。

      在YOLO系列算法中,YOLOv5s模型較小,檢測(cè)速度較快,但檢測(cè)精度相對(duì)較低;YOLOv5m模型適中,檢測(cè)速度較快,檢測(cè)精度相對(duì)較高;YOLOv5l模型較大,檢測(cè)速度較慢,但檢測(cè)精度更高;YOLOv5x模型最大,檢測(cè)速度最慢,但檢測(cè)精度最高[26]。采用YOLOv5m、YOLOv5s、YOLOv5l、YOLOv5x模型訓(xùn)練、測(cè)試電機(jī)換向器缺陷檢測(cè)數(shù)據(jù)集,結(jié)果如表1所示。

      注:①參數(shù)量涉及模型大小和復(fù)雜性,通常以參數(shù)的總數(shù)衡量,是指構(gòu)成審讀學(xué)習(xí)模型的所有權(quán)重和偏差的總和。②p、r等參數(shù)在訓(xùn)練中被學(xué)習(xí),以便模型能準(zhǔn)確預(yù)測(cè)或分類。

      由表1可知:不同YOLOv5模型的數(shù)據(jù)集特征單一且復(fù)雜度較低,大部分為單標(biāo)簽,適用于工廠和輕量化的缺陷檢測(cè)需求;YOLOv5x模型較大,參數(shù)較多,浮點(diǎn)運(yùn)算數(shù)最大,占用GPU內(nèi)存較多,但可保證較高的平均檢測(cè)精度和召回率;YOLOv5m模型的浮點(diǎn)運(yùn)算數(shù)比YOLOv5l模型少,檢測(cè)速度不占優(yōu)勢(shì),但能保證在平均檢測(cè)精度略遜色于YOLOv5l模型的同時(shí),占用較少GPU內(nèi)存;YOLOv5m模型的平均檢測(cè)精度和檢測(cè)速度比YOLOv5s高。綜合考慮后選擇YOLOV5m模型為本文的基線,評(píng)估新模型的改進(jìn)程度。

      2.4?結(jié)果分析

      注:√表示加入相應(yīng)模塊,×表示未加入相應(yīng)模塊。

      為驗(yàn)證本文設(shè)計(jì)的有效性,設(shè)置消融試驗(yàn),在YOLOv5m模型中加入BiFPN特征融合方法和Criss-Cross注意力機(jī)制,檢測(cè)電機(jī)換向器不同缺陷的平均檢測(cè)精度均值,如表2所示。模型1為增加BiFPN層的YOLOv5m模型,模型2為加入Criss-Cross注意力模塊的YOLOv5m模型,模型3為加入BiFPN和Criss-Cross的YOLOv5m模型。由表2可知:模型1~3對(duì)3種表面缺陷的檢測(cè)平均檢測(cè)精度均值比YOLOv5m模型大,驗(yàn)證了改進(jìn)算法的有效性。選擇模型3為改進(jìn)優(yōu)化后模型,檢測(cè)電機(jī)換向器缺陷。

      不同模型檢測(cè)電機(jī)換向器表面缺陷的預(yù)測(cè)結(jié)果如圖5~7所示,紅色字體為標(biāo)注的缺陷種類及特征。

      由圖5~7可知:改進(jìn)優(yōu)化的YOLOv5m模型檢測(cè)到的缺陷比其他模型更精確,檢測(cè)到的缺陷信息更多,漏檢更少,在scratch_4.jpg、sunken_4.jpg、damaged_4.jpg的圖片上都檢測(cè)到缺陷,但對(duì)于背景顏色與缺陷類似的圖片,改進(jìn)優(yōu)化的YOLOv5m模型也會(huì)出現(xiàn)漏檢和檢測(cè)不精確的現(xiàn)象。

      2.5?對(duì)比試驗(yàn)

      對(duì)改進(jìn)優(yōu)化的YOLOv5m模型完成訓(xùn)練后,可觀察到p、r與置信度間的關(guān)系如圖8所示。由圖8a)可知:置信度越高,p越高。由圖8b)可知:所有類別曲線與x、y軸圍成的區(qū)域占據(jù)了圖片大部分的面積,說(shuō)明整體優(yōu)化的效果較好。

      不同模型消融試驗(yàn)的結(jié)果如表3所示,其中參數(shù)量和浮點(diǎn)運(yùn)算數(shù)(又稱為浮點(diǎn)計(jì)算次數(shù))包含乘法和加法,只與模型有關(guān),可用來(lái)衡量深度學(xué)習(xí)模型的復(fù)雜度。

      由表3可知:改進(jìn)優(yōu)化的YOLOv5m模型的平均檢測(cè)精度為94.0%,比傳統(tǒng)YOLOv5m模型增大17.0%;準(zhǔn)確率增大28.3%,召回率增大8.2%。因模型內(nèi)容增加,改進(jìn)優(yōu)化的YOLOv5m模型進(jìn)行幀處理時(shí)間比傳統(tǒng)YOLOv5m略長(zhǎng),檢測(cè)速度略慢,但滿足工業(yè)生產(chǎn)需求。

      通過(guò)消融試驗(yàn)證明改進(jìn)后的YOLOv5m模型均能提高原有模型在電機(jī)換向器檢測(cè)缺陷的檢測(cè)效果,改進(jìn)后的網(wǎng)絡(luò)可提高檢測(cè)精度。

      3?結(jié)論

      1)綜合考慮電機(jī)換向器缺陷檢測(cè)現(xiàn)狀及優(yōu)化問(wèn)題,提出融合BiFPN及Criss-Cross方法的YOLOv5m算法,采用Mosaic數(shù)據(jù)增強(qiáng)方法對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,融入BiFPN層,并引入Criss-Cross注意力機(jī)制,實(shí)現(xiàn)多尺度特征融合,減少網(wǎng)絡(luò)對(duì)特定場(chǎng)景的依賴,提高網(wǎng)絡(luò)的泛化能力。

      2)相較于傳統(tǒng)YOLOv5m模型,改進(jìn)優(yōu)化的YOLOv5m模型的總體平均檢測(cè)精度增大17.0%,準(zhǔn)確率增大28.3%,召回率增大8.2%。

      此方法同樣適用于其他工業(yè)應(yīng)用場(chǎng)景,特別是對(duì)存在多尺度特征缺陷及背景較復(fù)雜的目標(biāo)缺陷檢測(cè)領(lǐng)域。同時(shí),需研究如何進(jìn)一步提高檢測(cè)速度,更好地滿足工業(yè)生產(chǎn)需求。

      參考文獻(xiàn):

      [1]?崔譯文,占豐,張宇峰, 等.基于機(jī)器視覺(jué)的電子元器件檢測(cè)系統(tǒng)設(shè)計(jì)[J].計(jì)算機(jī)測(cè)量與控制,2020,28(11):21-26.

      [2]?李少波,楊靜,王錚, 等.缺陷檢測(cè)技術(shù)的發(fā)展與應(yīng)用研究綜述[J].自動(dòng)化學(xué)報(bào),2020,46(11):2319-2336.

      [3]?羅立浩,鄭日榮,何小敏,等.基于機(jī)器視覺(jué)的電機(jī)換向器質(zhì)量在線檢測(cè)系統(tǒng)開(kāi)發(fā)[J].計(jì)算機(jī)測(cè)量與控制,2016,24(7):56-61.

      [4]?羅立浩.電機(jī)換向器外觀質(zhì)量在線視覺(jué)檢測(cè)系統(tǒng)[D].廣州:廣東工業(yè)大學(xué),2016.

      [5]?JUNG S Y, TSAI Y H, CHIU W Y, et al. Defect detection on randomly textured surfaces by convolutional neural networks[C]//2018 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM). Washington:IEEE, 2018.

      [6]?GU N W, FADILLAH M F, PRAKASA E, et al. Road segmentation with U-Net architecture using Jetson AGX Xavier for autonomous vehicle[C]//Proceedings of 2022 16th International Conference on Telecommunication Systems, Services, and Applications. Washington:IEEE, 2022:1-5.

      [7]?NGUYEN N H T, PERRY S, BONE D, et al. Two-stage convolutional neural network for road crack detection and segmentation[J].Expert Systems with Applications,2021,186:115718.1-115718.13.

      [8]?徐曉峰.基于改進(jìn)SUSAN算法的電機(jī)換向器孔徑參數(shù)檢測(cè)[J].儀表技術(shù)與傳感器,2012(10):50-52.

      [9]?李樹(shù)遙.換向器視覺(jué)檢測(cè)的分?jǐn)?shù)域分析與缺陷分類方法[D].廣州:廣東工業(yè)大學(xué),2019.

      [10]?SMITH S M, BRADY J M. SUSAN:a new approach to low level image processing[J].International Journal of Computer Vision, 1997, 23(1):45-78.

      [11]?TAN M, PANG R, LE Q V. EfficientDet:scalable and efficient object detection[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington:IEEE, 2020.

      [12]?LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]:Institute of Electrical and Electronics Engineers, 2017:936-944.

      [13]?CHEN J, MAI H S, LUO L B, et al. Effective feature fusion network in BIFPN for small object detection[C]//Proceedings of2021 IEEE International Conference on Image Processing (ICIP). Washington:IEEE, 2021:699-703.

      [14]?李英群,李亞菲,裴雷,等.基于YOLOv5-ECA-BiFPN的學(xué)術(shù)期刊文獻(xiàn)圖表識(shí)別與提取方法研究[J].數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn),2023,7(11):158-171.

      [15]?HUANG Z L, WANG X G, HUANG L C, et al. CCNet:criss-cross attention for semantic segmentation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, Korea:Institute of Electrical and Electronic Engineers,2019:603-612.

      [16]?LIU W, WEN Y, YU Z, et al. Large-margin softmax loss for convolutional neural networks[C]//Proceedings of the 33rd International Conference on Machine Learning. New York:JMLR, Workshop and Conference Proceedings,2016:1612.02295v4.

      [17]?YAN C, PAN W G, XU C, et al. Gaze estimation via strip pooling and multi-criss-cross attention networks[J].Applied Sciences,2013,13 (10):13105901 .

      [18]?HUANG L, ZHANG C, ZHANG H. Self-adaptive training:beyond empirical risk minimization[J].Advances in Neural Information Processing Systems,2020(3):19365-19376.

      [19]?ZHANG L, CHENG Y D. A densely connected criss-cross attention network for document-level relation extraction[EB/OL].(2022-03-26)[2023-04-10].https://arxiv.org/abs/2203.13953.

      [20]?CUBUK E D, ZOPH B, MANE D, et al. AutoAugment:learning augmentation strategies from data[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York:IEEE, 2019:113-123.

      [21]?ZHANG H Y, CISSE M, DAUPHIN Y N, et al. Mixup:beyond empirical risk minimization[C]//Proceedings of ICLR 2018.[S.l.]:OpenReview.net, 2018.

      [22]?BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4:optimal speed and accuracy of object detection[EB/OL].(2020-09-13)[2023-04-10].https://arxiv.org/abs/2004.10934.

      [23]?龐寧雅,杜安鈺.基于YOLOV5s-Attention的表面缺陷檢測(cè)的應(yīng)用研究[J].現(xiàn)代電子技術(shù),2023,46(3):39-46.

      [24]?施愷杰,王穎,王嘉璐,等.基于深度學(xué)習(xí)的電子換向器表面缺陷檢測(cè)[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2021(6):113-115.

      [25]?WU Z L,ZHANG D,SHAO Y H,et al. Using YOLOv5 for garbage classification[C]//Proceedings of the 4th International Conference on Pattern Recognition and Artificial Intelligence. New York:IEEE,2021:35-38.

      [26]?周賢勇,??≥x,王圓,等.基于改進(jìn)YOLOv7的PCB裸板缺陷檢測(cè)[J].無(wú)線電工程,53(12):1-13.

      Motor commutator defect detection based on YOLOv5m

      XU Yuntao, JIAO Peigang*, LIU Jiaqi

      School of Construction Machinery, Shandong Jiaotong University, Jinan 250357, China

      Abstract:To reduce the detection cost of motor commutator defects, and improve detection efficiency, and meet the balanced requirements of detection accuracy and speed in practical engineering, an optimized and improved surface defect detection algorithm based on the YOLOv5m model is proposed. The collected data is enhanced through Mosica data augmentation to enhance the robustness of model. In other layers, the bidirectional feature pyramid network (BiFPN) layer is used instead of the path aggregation network (PANet) layer, introducing bidirectional connections and cross-layer feature fusion mechanisms, and adding a Criss-Cross attention mechanism to better capture relevant information in the input sequence, and enhance network feedback at different scales, and verified through ablation experiments. The results show that compared to the traditional YOLOv5m model, the average precision (AP), accuracy, and recall of the optimized and improved YOLOv5m model increases by 17%, 28.3%, and 8.2%, respectively. While ensuring detection accuracy, the detection time for defects is shortened, better meeting the balanced requirements of detection accuracy and speed in defect detection engineering.

      Keywords:motor commutator; surface defect; YOLOv5m; attention mechanism; feature fusion

      (責(zé)任編輯:王惠)

      收稿日期:2023-04-21

      基金項(xiàng)目:山東省重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2019GNC106032)

      第一作者簡(jiǎn)介:許云濤(1997—),男,山東德州人,碩士研究生,主要研究方向?yàn)闄C(jī)器視覺(jué)及深度學(xué)習(xí),E-mail:514390480@qq.com。

      *通信作者簡(jiǎn)介:焦培剛(1974—),男,山東聊城人,教授,工學(xué)博士,碩士研究生導(dǎo)師,主要研究方向?yàn)樘摂M現(xiàn)實(shí)和光滑粒子流體動(dòng)力學(xué),E-mail:jiaopeigang@163.com。

      DOI:10.3969/j.issn.1672-0032.2024.02.002

      猜你喜歡
      特征融合注意力機(jī)制
      面向短文本的網(wǎng)絡(luò)輿情話題
      基于自注意力與動(dòng)態(tài)路由的文本建模方法
      基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
      軟件工程(2017年11期)2018-01-05 08:06:09
      InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
      基于多特征融合的圖像匹配算法
      人體行為特征融合與行為識(shí)別的分析
      基于移動(dòng)端的樹(shù)木葉片識(shí)別方法的研究
      科技資訊(2017年11期)2017-06-09 18:28:13
      基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
      湄潭县| 鄂托克旗| 莱西市| 伊吾县| 黄平县| 翁源县| 房产| 嵊州市| 镇平县| 乐都县| 望城县| 临潭县| 邢台县| 潼南县| 黔东| 晋江市| 中阳县| 新疆| 萨嘎县| 全南县| 衡南县| 伊金霍洛旗| 梁山县| 嵊州市| 洛扎县| 东方市| 泾阳县| 达孜县| 海淀区| 四子王旗| 丹东市| 靖宇县| SHOW| 论坛| 吉隆县| 西乌珠穆沁旗| 乌审旗| 新沂市| 赫章县| 玉树县| 内乡县|