• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于機(jī)器視覺(jué)的帶鋼焊縫定位

      2022-02-02 17:18:41張勇
      電子產(chǎn)品世界 2022年12期
      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)特征提取算法

      張勇

      摘要:提出了一種基于機(jī)器視覺(jué)的帶鋼焊縫檢測(cè)與定位技術(shù),在原CenterNet算法的基礎(chǔ)上增加旋轉(zhuǎn)角度的回歸實(shí)現(xiàn)了旋轉(zhuǎn)目標(biāo)檢測(cè),并根據(jù)網(wǎng)絡(luò)的輸入?yún)?shù)制作合適的數(shù)據(jù)集。為了進(jìn)一步提高模型的精度和魯棒性,分別引入了可變形卷積和金字塔分割注意力模塊,多組實(shí)驗(yàn)結(jié)果對(duì)比表明,該方法能在精確率、召回率、F值和檢測(cè)速度上得到提升,滿(mǎn)足實(shí)際檢測(cè)的需求。

      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);實(shí)例標(biāo)準(zhǔn)化;特征提取;算法

      冷軋連退生產(chǎn)線(xiàn)的原材料為帶鋼卷,為保持生產(chǎn)的連續(xù)性,需將前一個(gè)帶鋼卷的尾部與后一個(gè)帶鋼卷的頭部焊接起來(lái),從而得到連續(xù)的帶鋼材料。為了避免焊縫焊接質(zhì)量問(wèn)題引起的帶鋼撕裂或者斷帶事故的發(fā)生[1],需要對(duì)焊接質(zhì)量進(jìn)行檢測(cè),文中分析了帶鋼焊縫焊接質(zhì)量的自動(dòng)檢測(cè)系統(tǒng)中應(yīng)用旋轉(zhuǎn)目標(biāo)檢測(cè)算法對(duì)月牙邊焊縫的識(shí)別和定位算法及評(píng)判標(biāo)準(zhǔn),并進(jìn)行了實(shí)驗(yàn)分析。

      1算法分析

      1.1 CenterNet

      CenterNet網(wǎng)絡(luò)的輸出為3個(gè)部分,依靠邊緣特征信息獲取的檢測(cè)目標(biāo)中心點(diǎn)的預(yù)測(cè)熱力圖,匹配角點(diǎn)獲取預(yù)測(cè)寬高模塊(Object Size)回歸目標(biāo)的寬和高,Offsets 模塊回歸中心點(diǎn)偏移量[3-4]。

      1.2金字塔分割注意力

      為了在不增加模型復(fù)雜度的前提下解決主流注意力目前存在的問(wèn)題,金字塔分割注意力(PSA Module)機(jī)制以通道注意力機(jī)制為基礎(chǔ)[5-6],通過(guò)使用不同大小的卷積核來(lái)獲取多尺度的特征圖。輸入特征圖通過(guò)四個(gè)不同大小卷積核的卷積操作將特征圖切分為4個(gè)部分,接著對(duì)含有不同尺度特征的特征圖進(jìn)行拼接,定義如式(1)所示。

      其中,ki 為卷積核的大小,第i個(gè)卷積核的大小ki=2×i +1;Gi 為分組卷積的組數(shù),其中 G1=1、G2=4、G3=8、G4=16;X 為輸入特征圖;xi 為多尺度預(yù)處理的特征圖;Cat 為concat算子;F 為拼接后的多尺度預(yù)處理的特征圖。

      金字塔分割注意力機(jī)制中的通道注意力使用在分割后的多尺度預(yù)處理的特征圖之上,對(duì) x1、x2、x3和 x4分別使用SE_Weight模塊獲取不同尺度特征圖的注意力權(quán)重,定義如式(2)所示。

      xi_ se=SEWeight(xi),i=1, 2, 3, 4 ????(2)

      其中,xi _ se 代表第i組注意力權(quán)重,對(duì)不同尺度特征圖分別獲取注意力權(quán)重信息旨在能夠融合不同組數(shù)上不同尺度的注意力信息;為了能實(shí)現(xiàn)注意力信息的交互并在不破壞原始通道注意力向量的前提下融合交叉維度向量,不同尺度特征圖的注意力向量以拼接的方式獲取多尺度注意力權(quán)重向量,定義如式(3)所示。

      Z=Cat([x1_ se, x2_ se, x3_ se, x4_ se]) ?(3)

      其中,Cat 為concat算子;Z 為多尺度注意力權(quán)重向量。

      直接拼接的多尺度注意力權(quán)重向量不滿(mǎn)足所有權(quán)重之和為1,通過(guò)使用Softmax對(duì)多尺度注意力權(quán)重進(jìn)行全局歸一化實(shí)現(xiàn)了局部與全局通道注意力的交互,定義如式(4)所示。

      att=Softmax(Z) ????????(4)

      其中,att代表注意力交互后的多尺度通道注意力權(quán)重。

      在獲取多尺度預(yù)處理的特征圖 F 和重新校準(zhǔn)的多尺度通道注意力權(quán)重att后,將兩者按對(duì)應(yīng)元素進(jìn)行點(diǎn)乘操作,輸出含有多尺度特征信息注意力的特征圖,定義如式(5)所示。

      Y=F?att ????????????(5)

      其中,?代表按通道方式的乘法;注意力交互后的多尺度通道權(quán)重。Y 代表得到的含有多尺度特征信息注意力的特征圖。

      1.3定位算法

      1.3.1 R-Center Net

      通過(guò)使用改進(jìn)的 R-CenterNet算法對(duì)月牙邊焊縫進(jìn)行旋轉(zhuǎn)目標(biāo)檢測(cè),R-CenterNet相較于CenterNet在經(jīng)過(guò)上采樣獲取高分辨率特征圖后的 head 部分,增加了一路特征圖來(lái)回歸矩形框的旋轉(zhuǎn)角度信息。增加的這一路特征圖的構(gòu)建方法與寬高圖的獲取方法相同,不同點(diǎn)為獲取含有旋轉(zhuǎn)因子角度圖的卷積層僅需要1個(gè)輸出通道。

      1.3.2損失函數(shù)

      R-CenterNet算法的損失函數(shù)為熱力圖的中心點(diǎn)預(yù)測(cè)損失函數(shù)、寬高圖的尺寸預(yù)測(cè)損失函數(shù)、中心點(diǎn)修正圖的中心點(diǎn)偏置損失函數(shù)和角度圖的損失函數(shù)之和,定義如式(6)所示。

      L=λhm×Lhm×λwh×Lwh×λoff×Loff×λang×Lang ?(6)

      其中,λhm、λwh、λoff 和λang分別為各損失函數(shù)的權(quán)重因子,根據(jù)檢測(cè)目標(biāo)特點(diǎn)進(jìn)行設(shè)計(jì),本章實(shí)驗(yàn)使用的值λhm=1、λwh=0.1、λoff=0.1、λang=0.1。熱力圖損失函數(shù)Lhm使用 Focal Loss 進(jìn)行計(jì)算,定義如式(7)所示。寬高圖、中心點(diǎn)修正圖和角度圖的損失函數(shù)使用普通 L1loss 進(jìn)行計(jì)算,分別如式(8)(9)(10)所示:

      其中,N 為圖像中關(guān)鍵點(diǎn)的個(gè)數(shù);α和β為超參數(shù),本章依次設(shè)置為2和4;Yxyc代表熱力圖的標(biāo)注值,在Yxyc1時(shí),易檢測(cè)目標(biāo)預(yù)測(cè)值Yxyc則會(huì)接近1,(1-Yxyc)α的值會(huì)很小,返回的損失值Lhm就會(huì)很小,起到輕微矯正模型的作用。對(duì)于越不明顯檢測(cè)樣本的預(yù)測(cè)值Yxyc越接近于0,(1-Yxyc)α的值越大,起到增加該目標(biāo)權(quán)重的作用。在其他情況下,預(yù)測(cè)值Yxyc與損失值成正比,(Yxyc)α用來(lái)懲罰 loss,也會(huì)越大,真實(shí)值Yxyc與損失值成反比,(1?Yxyc)β能夠減輕懲罰力度。

      其中,sk為檢測(cè)目標(biāo)寬高的標(biāo)注值;Spk為網(wǎng)絡(luò)輸出的寬高預(yù)測(cè)值。

      其中,ok 為檢測(cè)目標(biāo)中心點(diǎn)標(biāo)注值與代表該區(qū)域特征點(diǎn)的差值;Opk為網(wǎng)絡(luò)輸出的中心點(diǎn)偏置測(cè)值值。

      其中,ak為檢測(cè)目標(biāo)旋轉(zhuǎn)角度的標(biāo)注值;Apk為網(wǎng)絡(luò)輸出的旋轉(zhuǎn)角度預(yù)測(cè)值。

      2實(shí)驗(yàn)與分析

      2.1實(shí)驗(yàn)環(huán)境

      實(shí)驗(yàn)服務(wù)器的硬件配置分別為15.5 GiB 內(nèi)存,Intel Core i7-6800K 中央處理器,NVIDIA GTX1080Ti 圖形處理器。軟件配置分別為 Ubuntu16.04,Python3.7編程語(yǔ)言,PyTorch深度學(xué)習(xí)框架。

      2.2數(shù)據(jù)采集及評(píng)估

      從生產(chǎn)現(xiàn)象采集了1200張?jiān)卵肋厽o(wú)規(guī)律位置的樣本圖像,隨機(jī)選取1000張作為訓(xùn)練集,返回?fù)p失更新模型權(quán)重,100張作為驗(yàn)證集,計(jì)算訓(xùn)練模型的損失但不返回,僅用來(lái)判斷當(dāng)前模型性能并判斷是否保存當(dāng)前模型,其余100張作為測(cè)試集,通過(guò)輸出模型的評(píng)價(jià)指標(biāo)來(lái)檢測(cè)模型的泛化能力。

      從生產(chǎn)線(xiàn)上切割下來(lái)的月牙邊被機(jī)械臂隨機(jī)的放置在定位相機(jī)的視覺(jué)區(qū)域內(nèi),其中采集圖像的尺寸為3648×3648。數(shù)據(jù)集使用 labelImg2進(jìn)行標(biāo)注,圖2對(duì)應(yīng)的標(biāo)注信息如表1所示,其中 cx 和 cy 分別代表標(biāo)注中心點(diǎn)橫縱坐標(biāo),w 和 h 分別代表標(biāo)注框的寬和高,單位均為像素值。angle 代表標(biāo)注框相對(duì)于垂直向上順時(shí)針的旋轉(zhuǎn)角度,單位為弧度制。

      焊縫定位實(shí)驗(yàn)的算法網(wǎng)絡(luò),采用4個(gè)評(píng)價(jià)指標(biāo)來(lái)評(píng)估模型的性能,分別為:精確率(P)、召回率(R)、F 值(F)和檢測(cè)速度(S)。

      其中精確率的定義如式(11)所示。

      其中,num 為所有測(cè)試集預(yù)測(cè)出來(lái)的樣本框中與標(biāo)注框作交并比后其數(shù)值大于預(yù)設(shè)閾值的樣本數(shù)目,即可認(rèn)為該樣本為預(yù)測(cè)為真且正確預(yù)測(cè),用Tp來(lái)表示;Fp代表預(yù)測(cè)為真實(shí)際為假的樣本數(shù),Tp和Fp的和即為所有預(yù)測(cè)為真的樣本數(shù)all_pre_num。召回率的定義如式(12)所示。

      其中,F(xiàn)n代表實(shí)際為真預(yù)測(cè)為假的樣本數(shù),Tp和Fp的和為實(shí)際情況中為真的樣本數(shù),即測(cè)試集所有標(biāo)簽的總數(shù)目all_lab_num。F 值的定義如式(13)所示。

      其中,P 為精確率,R 為召回率,在 P 和 R 出現(xiàn)矛盾的時(shí)候綜合考慮兩者,該值越大說(shuō)明模型性能越好。檢測(cè)速度的定義如式(14)所示。

      其中,num_image為測(cè)試集的圖片數(shù)量,time 為檢測(cè)測(cè)試集圖片的總時(shí)間。

      2.3實(shí)驗(yàn)結(jié)果分析

      通過(guò)實(shí)驗(yàn)對(duì)比不同骨干網(wǎng)絡(luò)下 R-CenterNet的性能,設(shè)計(jì)了不同骨干網(wǎng)絡(luò)的3組對(duì)比方案進(jìn)行驗(yàn)證。驗(yàn)證實(shí)金字塔分割注意力的有效性,實(shí)驗(yàn)的不同方案所使用結(jié)構(gòu)如表2所示。

      表3所有方案使用相同的參數(shù):①初始學(xué)習(xí)率設(shè)置為0.000125,總訓(xùn)練步數(shù)為50步,從第20步開(kāi)始每隔10步將初始學(xué)習(xí)率乘以0.1;②優(yōu)化器采用 Adam ,權(quán)重衰減設(shè)置為0.0001;③訓(xùn)練集和驗(yàn)證集的批量均設(shè)置為4,訓(xùn)練集進(jìn)行隨機(jī)打亂處理,驗(yàn)證集不進(jìn)行打亂處理。

      在獲取最優(yōu)模型后通過(guò)測(cè)試集對(duì)模型進(jìn)行評(píng)估,設(shè)置所有實(shí)驗(yàn)方案的中心點(diǎn)置信度閾值為0.3、預(yù)測(cè)框與標(biāo)注框的重合度閾值為0.3,所得的輸出精確率(P)、召回率(R)、F 值(F)和檢測(cè)速度(S)如表3所示。

      由表3方案1與方案2的數(shù)據(jù)可知,增加網(wǎng)絡(luò)深度不能提高本章實(shí)驗(yàn)的模型精度,反而會(huì)減少一定的檢測(cè)速度。將骨干網(wǎng)絡(luò)更換為DLANet后,精確率、召回率和 F 值分別上升了1.01、1.00和1.00個(gè)百分點(diǎn),單張圖片的檢測(cè)時(shí)間減少了6.4 ms秒。方案4證明了在提取特征時(shí)使用金字塔分割注意力均能較明顯的提高檢測(cè)結(jié)果的 F 值。金字塔分割注意力使該模型的精確率增加了1.01個(gè)百分點(diǎn),召回率提高了1.00個(gè)百分點(diǎn),說(shuō)明該模塊主要增強(qiáng)的是模型精確率。

      3結(jié)束語(yǔ)

      本文通過(guò)對(duì)比試驗(yàn)證明基于DLANet骨干網(wǎng)絡(luò)的算法檢測(cè)速度更快、檢測(cè)精度更高。同時(shí)證明了金字塔分割注意力能夠增強(qiáng)模型的泛化能力,實(shí)驗(yàn)結(jié)果表面旋轉(zhuǎn)目標(biāo)檢測(cè)算法能夠?qū)M(mǎn)足月牙邊焊縫的識(shí)別和定位要求。

      參考文獻(xiàn):

      [1]趙宗楠,劉文亮,歐家.搭接滾壓焊機(jī)傳動(dòng)側(cè)焊縫開(kāi)裂原因分析[J].南方金屬,2022(1):6-9.

      [2]余瓊,賈建,唐萬(wàn)象.連退機(jī)組在線(xiàn)全自動(dòng)帶鋼焊縫感應(yīng)退火裝置研究與開(kāi)發(fā)[J].冶金動(dòng)力,2020(6):71-74.

      [3]邵光梅.基于深度卷積網(wǎng)絡(luò)的板帶鋼表面缺陷類(lèi)別檢測(cè)[D].馬鞍山:安徽工業(yè)大學(xué),2019.

      [4] TULBURE A A, DULF E H. A review on modern defect detection models using DCNNs – Deep convolutional neural networks[J].Journal of Advanced Research, 2022,35:33-48.

      [5] JIANG Y, ZHU X, WANG X, et al. R2CNN: Rotational region CNN for orientation robust scene text detection[J]. arXiv preprint arXiv:1706.09579, 2017.

      [6]王明陽(yáng),王江濤,劉琛.基于關(guān)鍵點(diǎn)的遙感圖像旋轉(zhuǎn)目標(biāo)檢測(cè)[J].電子測(cè)量與儀器學(xué)報(bào),2021,35(6):102-108.

      猜你喜歡
      卷積神經(jīng)網(wǎng)絡(luò)特征提取算法
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      進(jìn)位加法的兩種算法
      基于Daubechies(dbN)的飛行器音頻特征提取
      電子制作(2018年19期)2018-11-14 02:37:08
      Bagging RCSP腦電特征提取算法
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
      一種改進(jìn)的整周模糊度去相關(guān)算法
      建始县| 富宁县| 洛宁县| 汉阴县| 莱州市| 霍山县| 保靖县| 三穗县| 喀喇| 台北市| 新民市| 个旧市| 望城县| 从江县| 临夏县| 三原县| 浦县| 洪湖市| 柘城县| 长乐市| 宁安市| 张家口市| 文山县| 华蓥市| 隆安县| 安阳县| 安庆市| 启东市| 清徐县| 三穗县| 铁岭县| 南充市| 芜湖县| 山东| 易门县| 临高县| 宁国市| 察雅县| 旌德县| 虞城县| 蕉岭县|