• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于流行排序的軌道扣件定位方法研究

      2020-03-16 12:46:42孫睿陳興杰李立明鄭樹彬
      關(guān)鍵詞:扣件排序像素

      孫睿,陳興杰,李立明,鄭樹彬

      基于流行排序的軌道扣件定位方法研究

      孫睿,陳興杰,李立明,鄭樹彬

      (上海工程技術(shù)大學(xué) 城市軌道學(xué)院,上海 201620)

      針對利用圖像處理技術(shù)在進行軌道扣件定位的過程中易受到拍攝條件及復(fù)雜背景干擾的難題,提出一種基于流行排序的軌道扣件定位方法。對軌道扣件圖像進行超像素分割和基于圖論的特征圖構(gòu)建;根據(jù)特征圖節(jié)點基于背景尺度和前景尺度的相關(guān)性進行排序,得到前景突出且背景抑制的軌道扣件顯著圖,完成軌道扣件區(qū)域在圖像中的的準(zhǔn)確定位。引入準(zhǔn)確率?召回率曲線、度量值和平均絕對誤差作為評價扣件定位準(zhǔn)確程度的指標(biāo)。研究結(jié)果表明:本文方法對不同類型的軌道扣件圖像均能進行精確的扣件定位,且與其它算法相比具有更好的定位效果、較高的效率和魯棒性。

      扣件定位;流行排序;圖論;圖像處理

      軌道扣件定位是利用圖像處理和機器視覺技術(shù)完成定位并分割出扣件區(qū)域子圖像的過程。同時,為后續(xù)對扣件圖像進行進一步的扣件特征描述、目標(biāo)提取及狀態(tài)檢測做準(zhǔn)備。因此,扣件定位算法的魯棒性和準(zhǔn)確性在軌道扣件檢測領(lǐng)域中對扣件識別與定位的效率與精度有直接的影響??奂ㄎ环椒ǖ亩ㄎ恍Чc其采用的圖像分割和處理算法密不可分,通過扣件定位方法對相對復(fù)雜的軌道扣件圖片進行處理:弱化包括鋼軌、軌枕及地面等在內(nèi)的“背景區(qū)域”,并將鋼軌兩邊的扣件區(qū)域作為顯著區(qū)域進行定位、突出和分離,最終得到軌道扣件的精確位置。常用的扣件定位方法有:邊緣檢測法[1?3]、十字交叉法[4?5]、像素統(tǒng)計法[6]、模板匹配法[7?8]等。上述的幾種扣件定位方法雖然可以取得不錯的定位效果,但在實際的工程應(yīng)用中容易受到光照和復(fù)雜場景對軌道扣件圖片處理的干擾。為了獲得更好的圖像處理效果和提高扣件定位的精確度,LIU等[9]利用灰度投影與十字交叉法相結(jié)合的方法確定扣件的粗略位置,并結(jié)合圖像的灰度特征和梯度特征對扣線圖像進行特征提取。代先星等[10]通過利用三維激光檢驗技術(shù)抑制了不均勻光照因素對扣件圖像的干擾,同時結(jié)合圖像處理技術(shù)對三維的扣件區(qū)域進行定位。還有學(xué)者提出基于圖論的圖像處理算法對扣件區(qū)域進行定位;戴鵬等[11]通過將圖論與快速定位技術(shù)相結(jié)合對軌道扣件區(qū)域進行定位。為避免扣件定位對檢測算法的影響,部分學(xué)者還選擇了人工提取扣件區(qū)域的方法開展研究[12]。除此之外,還有一些算法也在軌道扣件定位領(lǐng)域也取得了不錯的效果,例如:從頻域和信號的角度對圖像進行處理、和基于深度學(xué)習(xí)的圖像處理算法等。隨著扣件定位問題越來越受到研究人員的廣泛關(guān)注,相關(guān)定位方法得到不斷的優(yōu)化和完善的同時,還具有一定的局限性;此外,在實際的軌道扣件定位領(lǐng)域,對于扣件定位效果的精確程度也缺乏統(tǒng)一的定量描述和評價標(biāo)準(zhǔn)。本文針對在實際工程項目中對軌道扣件進行精確定位方法的局限性,提出一種基于將軌道扣件圖像轉(zhuǎn)換為無向圖結(jié)構(gòu),并分別從圖結(jié)構(gòu)中的邊界和中心節(jié)點的角度對圖像節(jié)點進行流行排序,最終得到扣件準(zhǔn)確位置的軌道扣件定位方法,使得該算法可以減小光照和復(fù)雜場景對待處理圖像的干擾,進一步提升了軌道扣件定位的精度和魯棒性。另外,本文通過引入準(zhǔn)確率?召回率曲線、度量值和平均絕對誤差作為評價扣件定位準(zhǔn)確程度的指標(biāo),對扣件定位的效果進行定性描述和評價。本文提出的基于流行排序的軌道扣件定位方法如圖(1)所示:

      圖1 基于流行排序的軌道扣件定位方法流程圖

      1 基于圖論的流行排序算法

      基于圖論的排序問題的描述如下:首先將圖像中的一個像素點標(biāo)記為問詢點,其余像素點按照其與問詢點的相關(guān)性進行排序[13]。排序算法的目標(biāo)是為了通過定義一個排序函數(shù),能夠較好的體現(xiàn)已定義問詢點和其他未標(biāo)記像素點之間的相關(guān)關(guān)系。

      ZHOU等[14]提出一種基于圖像像素點之間的相關(guān)性進行流行排序的算法,對圖像的數(shù)據(jù)結(jié)構(gòu)進行標(biāo)記排序:

      其中參數(shù)的作用為控制式(1)中平滑和擬合約束條件的相關(guān)關(guān)系和平衡,使得排序參數(shù)在相鄰像素節(jié)點間取值的變化平緩,并與初始問詢節(jié)點的參數(shù)賦值相近(滿足擬合約束條件)。排序結(jié)果函數(shù)可寫為:

      其中:參數(shù)=1/(1+),經(jīng)試驗驗證該流行排序算法有較好的試驗效果。

      基于圖論的流行排序算法將輸入圖像中的像素點標(biāo)記為一些特定的問詢節(jié)點,并將每個節(jié)點的排序參數(shù)值經(jīng)由式(2)計算得出;然后在給定問詢節(jié)點的前提下,利用標(biāo)準(zhǔn)化的排序參數(shù)值對圖像的前景和背景節(jié)點顯著性進行度量和區(qū)分,從而可以將目標(biāo)區(qū)域從背景區(qū)域中分割、提取出來,最終實現(xiàn)較好的實驗結(jié)果。

      2 構(gòu)造軌道扣件無向圖

      本文提出的基于流行排序的軌道扣件定位方法:首先通過將采集到的軌道扣件圖片利用SISC(Simple Linear Iterative Clustering)算法進行超像素分割。然后,將超像素節(jié)點作為所構(gòu)建無向圖的節(jié)點;將連接相鄰超像素節(jié)點的線段作為無向圖的邊。最后,對構(gòu)建的結(jié)構(gòu)圖節(jié)點進行進一步的流行排序,得到最終的軌道扣件顯著圖,從而提取到軌道扣件所在位置的顯著區(qū)域,完成軌道扣件的定位。

      2.1 超像素分割

      其中式(5)中,和分別為像素點在顏色和空間尺度的最大值。

      如圖2所示,圖2(a)為待處理的原始軌道扣件圖像;圖2(b)為圖2(a)經(jīng)超像素聚類后的分類情況;圖2(c)為軌道扣件圖像經(jīng)超像素分割后的聚類結(jié)果。分割結(jié)果表明:在本文介紹方法中,SISC算法可以將軌道扣件圖像像素點分類;同時能抑制或忽略一些圖像在拍攝和采集過程中產(chǎn)生的噪聲干擾:如復(fù)雜背景,不均勻光照等等。

      2.2 構(gòu)造無向圖結(jié)構(gòu)

      本文使用的軌道扣件定位方法是在上述超像素特征圖的基礎(chǔ)上構(gòu)建一個單層無向圖=(,),再通過流行排序算法計算得出超像素之間的相關(guān)關(guān)系并重新排序。其中圖結(jié)構(gòu)中的節(jié)點由SISC算法對原圖像進行聚類劃分得到超像素構(gòu)成;邊為連接相鄰2個超像素節(jié)點的無向邊;其權(quán)重為:

      其中:cc分別表示超像素節(jié)點rr在CIELAB顏色空間中的平均值;為定值,用于調(diào)節(jié)無向圖中邊的權(quán)重。

      (a) 扣件圖像;(b) 分類情況;(c) 聚類結(jié)果

      圖2 基于SISC算法的軌道扣件超像素特征圖

      Fig. 2 Super-pixel characteristic map of track fasteners based on SISC algorithms

      圖3 軌道扣件無向圖模型示意圖

      如圖3所示,所構(gòu)建的圖形結(jié)構(gòu)中的中心問詢點不僅和與其相鄰的節(jié)點相連,并且還與相鄰節(jié)點共用同一邊界的節(jié)點相連。此外,對于構(gòu)建的圖結(jié)構(gòu)中4條邊上的邊界節(jié)點均兩兩相連,共同構(gòu)成一個閉合環(huán)形圖。通過這種方式可以對感興趣的前景扣件區(qū)域進行更好的突出,并對背景區(qū)域進行抑制。通過對構(gòu)造圖中的節(jié)點進行流行排序,可以最終得到前景突出且背景抑制的軌道扣件顯著圖,進而可以對軌道扣件圖片中的扣件區(qū)域完成準(zhǔn)確 定位。

      3 軌道扣件定位算法

      本文針對軌道扣件圖像構(gòu)建的單層無向圖結(jié)構(gòu),對圖結(jié)構(gòu)的節(jié)點進行基于背景尺度和前景尺度的2個階段的重新排序,得到最終的軌道扣件顯著圖,確定扣件區(qū)域在圖像中的準(zhǔn)確位置,完成扣件定位。

      3.1 基于背景尺度的節(jié)點排序

      本文通過將軌道扣件圖像分割成超像素,構(gòu)造一個以圖像超像素為節(jié)點的單層無向圖,然后分別將圖4條邊上的邊界節(jié)點標(biāo)記為問詢點,并計算其他節(jié)點與邊界問詢點的相關(guān)系數(shù),根據(jù)其之間的相關(guān)性進行流行排序,得到4個方向上的背景特征圖,將4個特征圖進行融合得到背景顯著圖。

      如圖3所示,基于圖的左邊界進行處理:首先,將圖左邊界上的各邊界節(jié)點標(biāo)記為問詢點,圖中的其他節(jié)點為未標(biāo)記節(jié)點,定義一個標(biāo)記向量。然后,根據(jù)式(2)計算得到圖中的所有節(jié)點相關(guān)排序系數(shù)*并進行排序,將計算結(jié)果儲存在一個維的向量中(為圖結(jié)構(gòu)中的節(jié)點數(shù)量),則基于圖像背景的左邊界的流行排序結(jié)果為:

      式中:為圖中的超像素節(jié)點;*為歸一化后的排序向量。

      同樣,分別將圖的右側(cè)、上側(cè)和下側(cè)上的邊界節(jié)點標(biāo)記為問詢點,然后計算其各自基于其圖像背景邊界的流行排序結(jié)果:right(),top()和down()。最后,將計算得到的4個方向尺度上的背景特征圖融合,得到可以對感興趣區(qū)域進行有效突出的背景顯著圖,特征圖融合的數(shù)學(xué)表示為:

      如圖4所示:圖4(a)為輸入的軌道扣件圖像,將輸入圖像進行超像素分割并構(gòu)造圖結(jié)構(gòu)后,對構(gòu)造圖的邊界節(jié)點進行基于背景尺度的流行排序,分別得到圖4中所示的左4(b),右4(c),上4(d)和下4(e) 4個方向尺度的排序圖。將上述排序圖進行融合,得到扣件背景特征圖,如圖4(f)所示。由圖4所示可以看出:圖結(jié)構(gòu)節(jié)點通過基于背景尺度的節(jié)點排序后,軌道扣件中的扣件區(qū)域得到顯著的突出,雖然有一些背景節(jié)點沒能受到較好的抑制,但是已經(jīng)可以對圖像中的扣件部位進行較為精確的定位,可以得到較為不錯的扣件定位效果。

      (a) 扣件圖像;(b) 左排序;(c) 右排序;(d) 上排序;(e) 下排序;(f) 扣件背景特征圖

      圖4 基于背景尺度的邊界節(jié)點排序特征圖

      Fig. 4 Ranking characteristic map of boundary nodes based on background scale

      3.2 基于前景尺度的節(jié)點排序

      為了獲得更好的扣件定位效果,對軌道扣件圖像的背景區(qū)域有更好的抑制作用。本文方法進一步對得到的扣件背景顯著圖通過二值化和自適應(yīng)閾值分割將圖像中的扣件區(qū)域與背景分離,得到扣件前景特征圖。

      對上述得到的扣件前景顯著圖,進行基于前景尺度的節(jié)點排序:將顯著圖的中心圖節(jié)點設(shè)為問詢點,定義標(biāo)記向量并根據(jù)式(2)計算節(jié)點的相關(guān)系數(shù)*,對其進行歸一化處理后,得到基于圖像前景的流行排序結(jié)果為

      其中:為圖中的超像素節(jié)點;*為歸一化后的排序向量。

      如圖5所示:圖5(a)為基于背景尺度的扣件節(jié)點排序特征圖;圖5(b)對圖5(a)進行閾值分割后的二值化扣件前景顯著圖;圖5(c)為基于前景尺度的扣件節(jié)點排序特征圖,即為最后的軌道扣件定位顯著圖。從圖5(c)中可以看出:最終的定位顯著圖相比于圖5(a)來說,對圖像中的扣件區(qū)域有了更加明顯的突出,并對圖像背景有了更加有效的抑制。在實際的軌道扣件定位領(lǐng)域中,本算法除了能對軌道扣件區(qū)域進行準(zhǔn)確的定位之外,還能對扣件上的六角螺栓和快速彈條的位置進行定位和進一步檢測。

      (a) 背景扣件節(jié)點排序;(b) 前景顯著圖;(c) 前景扣件節(jié)點排序

      此外,如圖5(c)所示,本算法還能對所采集圖像中的鋼軌位置進行定位,進一步地,能根據(jù)圖像中鋼軌邊界和鋼軌兩側(cè)扣件的相對位置,對軌道扣件的狀態(tài)進行檢測,判斷扣件是否處于扣緊狀態(tài)。綜上,本文在實際工程應(yīng)用過程中,能對軌道扣件區(qū)域進行準(zhǔn)確的定位,并能在其他的軌道圖像檢測領(lǐng)域取得很好的效果。

      4 實驗結(jié)果

      本文提出的基于流行排序的軌道扣件定位算法,應(yīng)用于實際的工程應(yīng)用領(lǐng)域,對在軌道沿線的實際現(xiàn)場所采集的軌道扣件圖像進行扣件的準(zhǔn)確定位。本文算法分別對通過工業(yè)線陣相機采集的不同場景下的不同型號的軌道扣件圖像(共500幅)進行處理和軌道扣件定位。

      4.1 實驗參數(shù)設(shè)置

      經(jīng)實驗驗證,為取得最優(yōu)的實驗結(jié)果,本文算法在進行軌道扣件定位的過程中,相關(guān)計算公式及算法所設(shè)置的參數(shù)如下:設(shè)置對輸入圖像進行SLIC算法分割得到的超像素的數(shù)量為200個;在流行算法排序計算過程中,將式(6)中用來控制節(jié)點之間邊的權(quán)重的參數(shù)的值設(shè)為0.15;將式(2)中的參數(shù)設(shè)為0.99。

      4.2 實驗定性評價

      圖6示出了在不同場景下不同類型的軌道扣件圖像通過本算法所取得的最終圖像定位結(jié)果。其中圖6(a)為輸入的3種類型的軌道扣件原始圖像;圖6(b)為基于背景尺度的扣件節(jié)點排序特征圖;圖6(c)為圖6(b)進行歸一化和閾值分割后得到的扣件前景顯著圖;圖6(d)為基于前景尺度節(jié)點排序的扣件特征圖,即最后的軌道扣件定位顯著圖。

      (a) 原始圖像;(b) 背景扣件排序;(c) 前景顯著圖;(d) 前景扣件特征

      如圖6(d)所示,本算法可以對輸入的原始圖像中的軌道扣件區(qū)域進行準(zhǔn)確的突出和定位,同時可以對圖像中復(fù)雜的背景區(qū)域進行有效的抑制。此外,本算法在對扣件定位的同時,還可以有效的檢測到扣件所在鋼軌的位置,根據(jù)鋼軌邊界和軌道扣件的相對位置,可以進一步判斷軌道扣件是否處于扣緊鋼軌狀態(tài),可以對扣件的狀態(tài)進行檢測。綜上,本文方法可以在實際的軌道扣件定位過程中,可以準(zhǔn)確的對軌道扣件區(qū)域進行標(biāo)定與提取,完成軌道扣件的精準(zhǔn)定位,并且可以進行深入研究和廣泛應(yīng)用于其他檢測領(lǐng)域。

      4.3 實驗定量評價

      在實際的軌道扣件定位領(lǐng)域中,對通過各種扣件定位方法所獲得的軌道區(qū)域定位結(jié)果還沒有一種統(tǒng)一的評價標(biāo)準(zhǔn),往往很難從定量角度對定位方法進行評價與對比。所以本文通過引入視覺注意機制中的評價參數(shù):準(zhǔn)確率(Precision)-召回率(Recall)曲線、度量值(F-measure)、平均絕對誤差(MAE)作為評價扣件定位準(zhǔn)確程度的指標(biāo),用于定性評價定位結(jié)果的精確程度。

      本文提出首先對輸入的軌道扣件圖像中的準(zhǔn)確扣件區(qū)域進行人工標(biāo)定,從而得到原圖像的真值圖像;然后,將通過軌道定位方法獲得的扣件顯著圖進行閾值選取為0到255的二值化處理,通過計算每一閾值條件下扣件顯著圖與真值圖的樣本數(shù)據(jù);最后,計算得出定位結(jié)果的準(zhǔn)確率?召回率曲線、度量值和平均絕對誤差。其中,準(zhǔn)確率(Precision)表示扣件顯著圖中扣件定位正確的區(qū)域?qū)︼@著圖中全部的扣件區(qū)域比值,召回率(Recall)表示扣件顯著圖中扣件定位正確的區(qū)域?qū)θ斯?biāo)定的真值圖中正確的軌道扣件區(qū)域的比值;度量值(-measure)是對最終得到的定位結(jié)果進行評價的綜合指標(biāo);平均絕對誤差(MAE)用來度量定位結(jié)果相對于真值圖像的定位誤差。

      其具體計算式如下:

      其中:在式(10)和式(11)中,T表示人工標(biāo)定真值圖像中的被正確定位到的軌道扣件區(qū)域樣本;F表示扣件顯著圖定位到的扣件區(qū)域樣本;F表示人工標(biāo)定真值圖像中未被定位到的軌道扣件區(qū)域樣本;式(12)中,2的值為0.3;式(13)中的和用來表示輸入待處理軌道扣件圖像的長度和寬度。

      本文將300幅3種不同型號的原始軌道扣件圖像構(gòu)建為3個軌道扣件數(shù)據(jù)集,其中每個數(shù)據(jù)集包含100幅原始軌道扣件圖像;對數(shù)據(jù)集圖像中的軌道扣件準(zhǔn)確位置進行人工標(biāo)定,得到對應(yīng)的軌道扣件真值圖。然后,對3個數(shù)據(jù)集通過本文方法進行扣件定位,其結(jié)果與真值圖進行比較計算,對本文方法基于3種不同類型扣件的定位效果進行評價。

      圖7示出了3種不同類型的軌道扣件圖像數(shù)據(jù)集通過本文算法后得到的定位精確度的對比結(jié)果。實驗結(jié)果表明:本文方法對不同類型的軌道扣件圖像均能進行對扣件區(qū)域的準(zhǔn)確定位,且定位結(jié)果的誤差較小,可以完成對多種類型軌道扣件區(qū)域的定位。

      (a) Precision recall curves; (b) F-measure; (c) MAE

      另外,針對本文構(gòu)建的軌道扣件數(shù)據(jù)集,將采用本文方法得到的扣件定位結(jié)果與其他幾種經(jīng)典目標(biāo)顯著性檢測算法對軌道扣件的定位效果比較。其中包括:CA[16],COV[17],SS[18],GR[19],SR[20],SeR[21]和SIM[22]算法;在圖8中的代表序號依次記為2-8。如圖8所示,通過本文方法得到的軌道扣件定位區(qū)域比其他幾種算法的定位效果的更精確,且定位結(jié)果的平均絕對誤差均比其他方法小,說明本文方法能對軌道扣件進行更加精確地定定位。

      (a) Precision recall curves; (b) F-measure; (c) MAE

      5 結(jié)論

      1) 提出一種基于流行排序的軌道扣件定位方法,通過將采集到的原始圖像構(gòu)造為無向圖結(jié)構(gòu),在構(gòu)造圖基礎(chǔ)上對圖節(jié)點進行基于背景和前景尺度流行排序算法,最終得到定位到扣件準(zhǔn)確局域的扣件顯著圖,完成扣件的精確定位。

      2) 以3種不同型號的軌道扣件圖像建立一個標(biāo)準(zhǔn)的軌道扣件圖像數(shù)據(jù)集,通過本文所述方法對軌道扣件區(qū)域進行定位均可取得較好的定位效果,說明本文所述方法具有較強的適用性。

      3) 通過引入視覺注意機制中的評價參數(shù):準(zhǔn)確率?召回率曲線、度量值等作為軌道扣件領(lǐng)域中對扣件區(qū)域定位效果統(tǒng)一的定量評價標(biāo)準(zhǔn);同時將本文方法的定位效果與其他方法進行比較,證明了本文方法能夠獲得準(zhǔn)確的定位效果的同時、還具有較高的效率和魯棒性。

      [1] WANG Mingyu, ZHANG Xinfeng. A detection algorithm of ballast track fastener loss based on shooting direction[C]// 2016 9th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI), October 15-17, 2016. Datong, China. New York, USA: IEEE, 2016.

      [2] FENG Hao, JIANG Zhiguo, XIE Fengying, et al. Automatic fastener classification and defect detection in vision-based railway inspection systems[J]. IEEE Transactions on Instrumentation and Measurement, 2014, 63(4): 877?888.

      [3] XIA Y, XIE F, JIANG Z. Broken railway fastener detection based on adaboost algorithm[C]// International Conference on Optoelectronics & Image Processing. IEEE, 2010: 313?316.

      [4] 吳祿慎, 萬超, 陳華偉, 等. 一種改進的十字交叉軌道扣件定位方法[J]. 鐵道標(biāo)準(zhǔn)設(shè)計, 2016(12): 49?53. WU Lushen, WAN Chao, CHEN Huawei, et al. An improved cross rail fastener positioning method[J]. Railway Standard Design, 2016(12): 49?53.

      [5] 楊樊, 陳建政, 吳夢. 一種基于計算機視覺的鐵軌扣件缺失檢測方法[J]. 電腦知識與技術(shù), 2014, 10(10): 2367?2370. YANG Fan, CHEN Jianzheng, WU Meng. A fastening missing detecting technique based on computer vision[J]. Computer Knowledge and Technology, 2014, 10(10): 2367?2370.

      [6] Aytekin C, Rezaeitabar Y, Dogru S, et al. Railway fastener inspection by real-time machine vision[J]. IEEE Transactions on Systems Man & Cybernetics Systems, 2015, 45(7): 1101?1107.

      [7] Mo Y H, Lim J W, Park J M, et al. Robust detection system of a bolt hole using template matching and feature based matching[C]// 2011 11th International Conference on Control, Automation and Systems. IEEE, 2011: 1718?1719.

      [8] YUAN Xiaocui, LIU Baolin, CHEN Huawei. Algorithm and program design for fastener locating and detection using wavelet transformation and template matching[C]// 2017 IEEE 17th International Conference on Communication Technology (ICCT), October 27?30, 2017. Chengdu. New York, USA: IEEE, 2017.

      [9] LIU X, WANG H, ZHOU B. Research on detection algorithm for rail fastener based on computer vision[C]// 2018 International Conference on Mechanical, Electronic, Control and Automation Engineering (MECAE 2018). Atlantis Press, 2018: 647?652.

      [10] 代先星, 陽恩慧, 丁世海, 等. 基于三維圖像的鐵路扣件缺陷自動識別算法[J]. 鐵道學(xué)報, 2017, 39(10): 89? 96. DAI Xianxing, YANG Enhui, DING Shihai, et al. Automatic defect inspection algorithm of railway fasteners based on 3D images[J]. Journal of the China Railway Society, 2017, 39(10): 89?96.

      [11] 戴鵬, 王勝春, 杜馨瑜, 等. 基于半監(jiān)督深度學(xué)習(xí)的無砟軌道扣件缺陷圖像識別方法[J]. 中國鐵道科學(xué), 2018, 39(4): 43?49. DAI Peng, WANG Shengchun, DU Xinyu, et al. Image recognition method for the fastener defect of ballastless track based on semi-supervised deep learning[J]. China Railway Science, 2018, 39(4): 43?49.

      [12] Malar R, Jayalakshmy S. Detection of cracks and missing fasteners in railway lines using structure topic model[J]. International Journal of Innovative Science, Engineering & Technology, 2015, 2(10): 369?375.

      [13] YANG C, ZHANG L, LU H, et al. Saliency detection via graph-based manifold ranking[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2013: 3166?3173.

      [14] ZHOU D, Weston J, Gretton A, et al. Learning to traverse image manifolds[C]// Advances in Neural Information Processing Systems 19. Massachusetts, USA: The MIT Press, 2007.

      [15] Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274?2282.

      [16] Goferman S, Zelnik-Manor L, Tal A. Context-aware saliency detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 1915? 1926.

      [17] Erdem E, Erdem A. Visual saliency estimation by nonlinearly integrating features using region covariances[J]. Journal of Vision, 2013, 13(4): 11.

      [18] HOU Xiaodi, Jonathan Harel, Christof Koch. Image signature: Highlighting sparse salient regions[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(1): 194?201.DOI:10.1109/TPAMI. 2011.146.

      [19] YANG C, ZHANG L, LU H. Graph-regularized saliency detection with convex-hull-based center prior[J]. IEEE Signal Processing Letters, 2013, 20(7): 637?640.

      [20] HOU Xiaodi, ZHANG Liqing. Saliency detection: A spectral residual approach[C]// 2007 IEEE Conference on Computer Vision and Pattern Recognition, June 17?22, 2007. Minneapolis, MN, USA. New York, USA: IEEE, 2007.

      [21] Seo H J, Milanfar P. Nonparametric bottom-up saliency detection by self-resemblance[C]// 2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, June 20?25, 2009. Miami, FL. New York, USA: IEEE, 2009.

      [22] Saliency estimation using a non-parametric low-level vision model[C]// CVPR 2011, IEEE, 2011: 433?440.

      Research on location method of track fasteners based on manifold sorting

      SUN Rui, CHEN Xingjie, LI Liming, ZHENG Shubin

      (Shanghai University of Engineering Science College of Urban Rail Transit, Shanghai 201620, China)

      The problem was studied that image processing technology is easy to be disturbed by photographic conditions and complex background conditions in the process of track fastener positioning. In this paper, a method of track fastener location based on popular sorting was proposed. First, the image of track fastener was segmented by super-pixels and the feature map based on graph theory was constructed. Then, according to the correlation between background scale and foreground scale, the feature map nodes were sorted. Finally, the salient map of track fastener with prominent foreground and restrained background was obtained, and the accurate location of track fastener area in the image was completed; In addition, the Precision-Recall curve,-measure and Mean Absolute Error (MAE) were introduced as indices to evaluate the accuracy of fastener positioning. The experimental results show that the proposed method can accurately locate the track fastener images collected in different scenarios, resulting in better positioning effect, higher efficiency and robustness than other algorithms.

      fastener positioning; manifold ranking; graph theory; image processing

      TP391

      A

      1672 ? 7029(2020)02 ? 0288 ? 09

      10.19713/j.cnki.43?1423/u.T20190429

      2019?05?17

      國家自然科學(xué)基金資助項目(51975347);上海市地方院校能力建設(shè)資助項目(18030501300)

      陳興杰(1975?),男,江蘇南通人,副教授,從事信號檢測與圖像處理方向的研究;E?mail:zcycchen@sina.cn

      (編輯 蔣學(xué)東)

      猜你喜歡
      扣件排序像素
      趙運哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      排序不等式
      科隆蛋扣件力學(xué)特性分析
      恐怖排序
      “像素”仙人掌
      節(jié)日排序
      一種改進的LBP特征實現(xiàn)鐵路扣件識別
      刻舟求劍
      兒童繪本(2018年5期)2018-04-12 16:45:32
      非均布荷載下扣件式腳手架的隨機缺陷穩(wěn)定分析
      石门县| 景德镇市| 湾仔区| 邯郸市| 关岭| 安塞县| 黎城县| 左贡县| 烟台市| 凉山| 湛江市| 华阴市| 嘉善县| 彰化县| 柘城县| 台江县| 平罗县| 蒙山县| 新巴尔虎左旗| 介休市| 安福县| 黄龙县| 六安市| 东至县| 鄱阳县| 浙江省| 莱西市| 肇州县| 阿拉尔市| 页游| 商城县| 西和县| 谷城县| 玉林市| 马山县| 上蔡县| 台山市| 阳春市| 英山县| 鄂尔多斯市| 广宁县|