• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      融合MOG2算法與FT算法的移動目標檢測方法

      2022-03-29 23:07:48劉澤平劉明興李曉帆姚明杰麻方達符朝興
      青島大學學報(工程技術版) 2022年2期

      劉澤平 劉明興 李曉帆 姚明杰 麻方達 符朝興

      文章編號:10069798(2022)02006106;DOI:10.13306/j.10069798.2022.02.010

      摘要:針對移動目標檢測方法存在的受背景環(huán)境影響而導致檢測結果不準確的問題,本文提出一種融合高斯混合模型的背景減除法。算法與頻率調諧顯著性區(qū)域檢測(frequency-tuned,F(xiàn)T)算法的移動目標檢測方法。該研究以攝像頭拍攝到的遙控車行走視頻為分析材料,在降采樣圖像上用MOG2算法檢測移動目標,經二值化和濾波去噪后框選移動目標感興趣區(qū)域,采用FT算法檢測此感興趣區(qū)域,并利用置信度結合兩次檢測結果完成移動目標檢測。實驗結果顯示,在置信度分別為α=0.6,β=0.4時,本文檢測方法將檢測300幀圖像時平均交并比由0.72提高到0.78,說明該算法可以消除背景陰影及鬼影影響,從而有效提高移動目標的檢測精度。

      關鍵詞:移動目標檢測;MOG2算法;FT算法;高斯混合模型;背景減除法

      中圖分類號:TP391.41文獻標識碼:A

      隨著計算機視覺技術的不斷發(fā)展,移動目標檢測越來越廣泛的應用于智能交通、智能安防、無人駕駛、航空航天和醫(yī)學等領域,使移動目標檢測技術成為研究的熱點\[1\]。目前,廣泛運用的移動目標檢測方法是基于高斯混合模型的背景減除法(backgroundsubtractormixtureofgaussians,MOG2)。1999年,C.STAUFFER等人\[2\]采用多個高斯分布擬合背景,首先運用高斯混合模型對背景進行建模,該方法可以在復雜場景下檢測出運動物體;2012年,O.BARNICH等人\[3\]提出VIBE算法,對單幀圖像進行建模,后續(xù)幀開始通過歐氏距離將像素點分為前景和背景,并采用無記憶更新和重采樣更新,該算法雖然計算速度快,但仍會出現(xiàn)鬼影現(xiàn)象;戚海永\[4\]提出了一種基于累積差分更新的背景減除法,較好地消除了場景變化及噪聲影響等的干擾,有效地檢測出運動物體;梁碩\[5\]把LaBGen方法生成的背景圖像作為背景模型初始化的輸入幀,改進出一種基于LaBGen的自適應閡值ViBe算法;寧志雄\[6\]基于高斯混合模型,對泊車緩沖區(qū)中的動態(tài)物體進行了有效檢測;黎陽羊\[7\]采用基于高斯混合模型的背景減除法,利用當前圖像與背景圖像的差分來檢測出運動區(qū)域;為提高運動目標輪廓邊緣的精確度,殷夢妮\[8\]在進行運動目標檢測時,結合高斯混合模型的背景減除法和最小核值相似區(qū)(smallestunivaluesegmentassimilatingnucleus,SUSAN)邊緣檢測算子。以上研究雖在某些方面改善了目標檢測方法,但并未充分考慮移動物體陰影的影響。有陰影影響情況下,檢測結果會出現(xiàn)明顯的不準確現(xiàn)象。因此,本文主要對融合MOG2算法與FT算法的移動目標檢測方法進行研究,充分考慮陰影的影響,提出一種魯棒性較高的移動目標檢測方法,即檢測移動目標時,首先采用MOG2方法檢測出存在移動目標的感興趣區(qū)域,然后結合FT算法,得到更為準確的移動目標區(qū)域。研究結果表明,本研究改進后的算法,其檢測精度明顯高于原算法,有效的解決了背景減除法檢測移動目標時存在的問題。該研究具有一定的創(chuàng)新性以及學術性。-

      1基本原理

      1.1MOG2算法

      MOG2是OpenCV中開源的一種背景提取算法,通過對比當前幀和生成的背景模型,區(qū)分出視頻序列中變化較大的運動物體,其中背景模型隨場景變化實時更新\[9\]。MOG2采用的高斯混合模型(gaussianmixturemodel,GMM)是背景建模中的經典算法\[10\],它通過多個高斯概率分布函數(shù)線性組合,表示像素在時域概率分布模型。像素在時域概率分布模型為

      式中,xti,j代表i,j位置的像素點x在t時刻的像素值;ωtk為t時刻第k個高斯分布的加權系數(shù)\[11\];∑Nk=1ωtk=1;Gxti,j,μtk,(σtk)2表示t時刻期望值為μtk,(σtk)2為標準差,即

      將每個像素點x與此刻的背景模型進行比較,當像素點與第k個高斯模型匹配時,像素為背景,否則為移動目標,并用一個新的分布替換模型中的權重最小分布。其比較公式為

      權重更新公式為

      式中,α為更新因子;Dtk為匹配結果標識符,當匹配成功時為1,否則為0。匹配成功后,模型更新為

      1.2FT算法

      FT算法是R.ACHANTA等人\[12\]在2009年提出的全頻域分析算法,它將圖像傅里葉變換,并將時域圖像轉換到頻域,在頻域的圖像,可分為代表圖像整體信息的低頻部分和反映圖像細節(jié)信息的高頻部分\[13\]。顯著性區(qū)域檢測主要使用低頻部分信息,因此FT方法采用高斯平滑來去除圖像高頻。

      將圖像由顏色空間RGB轉換為顏色空間LAB,計算整幅圖像L、A、B的平均值,并計算每一個像素點與平均值間的歐式距離,得到顯著圖像\[14\]。像素的顯著性為

      式中,Iμ為圖像在LAB空間像素算術平均值;Iωhc(p)為圖像高斯模糊模板,用來消除紋理細節(jié)和噪聲;‖‖為歐氏距離\[15\]。

      將顯著圖像通過每一點顯著值除以最大顯著值,歸一化后,將PAX作為每個點對應的數(shù)值,PAX是像素為區(qū)域內前景的概率,即

      2實驗過程

      2.1環(huán)境搭建

      本文實驗所使用的攝像頭為海康威視DSIPCT12I,焦距為4mm,分辨率為1920d/i×1080d/i,將攝像頭懸掛在天花板上方,對地面傾斜照射,攝像頭懸掛高度為5m,采集的模擬環(huán)境大小為4m×6m。攝像頭拍攝的模擬實驗場景如圖1所示,本研究將位于圖中間的遙控車作為移動目標來檢測。

      基于本文方法檢測移動目標,不同的硬件和軟件環(huán)境效果有所不同,本文仿真所用系統(tǒng)為Ubuntu18.04LTD,圖形處理器(graphicsprocessingunit,GPU)為NVIDIA1070Ti,隨機存取存儲器(randomaccessmemory,RAM)為16GB,運行程序的環(huán)境為Python3.7+OpenCV3.4.2。

      2.2實驗步驟

      實驗流程圖如圖2所示。本文對采集的圖像降采樣處理,然后應用MOG2算法進行移動目標檢測,對檢測結果圖像進行去噪處理,得到MOG2移動目標檢測的結果和去噪后的結果一,在結果一基礎上框選移動目標區(qū)域,利用置信度結合MOG2算法與FT算法得出實驗結果二。

      本文采用監(jiān)控攝像頭捕捉圖像,攝像頭位置固定不變,屬于靜態(tài)背景,車間內主要影響運動目標識別的因素有光照、陰影及雜亂背景。對采集的圖像運用MOG2進行移動目標檢測,然后進行去噪處理,MOG2檢測移動目標結果如圖3所示。

      由圖3可以看出,基于混合高斯模型檢測移動目標時,受光照影響較大,易將陰影區(qū)域檢測為移動目標,并且會出現(xiàn)鬼影現(xiàn)象,因此對移動目標區(qū)域再次檢測,通過計算像素點為移動目標的概率重新檢測。

      移動目標檢測的主要目標是前景目標,對于背景環(huán)境的變化不太關注。本文將除了要檢測的目標外都劃為背景,因此識別結果的像素點狀態(tài)可分為移動的前景和背景兩類,每個像素點為移動前景的概率為P,PA為前景的概率,PB為移動的概率,當一個像素點為背景像素時,其大概率是不移動,移動事件與背景事件是相關事件;當像素為背景時,移動的概率無法計算。因此,概率P為

      式中,PAX表示通過像素為區(qū)域內前景的概率;PBX表示通過區(qū)域內像素移動的概率;α和β分別為PAX和PBX的置信度,α+β=1\[16\]。PAX和PBX為存在移動目標區(qū)域內像素為移動目標概率的測量值,都具有一定誤差。

      為提高運算速度,本文將MOG2算法檢測出的移動目標區(qū)域框選出來,既能減少不必要區(qū)域的計算,又能選擇出存在移動目標區(qū)域,存在移動目標區(qū)域如圖4所示。

      假設此時選擇出的存在移動目標區(qū)域已足夠小,且該區(qū)域內前景目標大部分是移動的,因此采用圖像顯著圖表示概率PAX\[17\],應用顯著性檢測方法FT算法,得到區(qū)域顯著圖如圖5所示。由圖5可以看出,圖中遙控車部分能區(qū)別于不感興趣的背景,并且遙控車的輪廓較為清晰。

      將移動目標區(qū)域內MOG2算法的檢測結果進行高斯模糊后,看作將該結果每一像素點值作為存在移動目標區(qū)域內移動的概率,區(qū)域移動目標檢測結果如圖6所示。由圖6可以看出,此時遙控車和背景陰影都被認為成移動目標,并且遙控車邊界不清晰。此時,像素點范圍為0~255,對其歸一化\[18\],將歸一化后結果作為PBX。

      圖4存在移動目標區(qū)域圖5區(qū)域顯著圖圖6區(qū)域移動目標檢測結果-對于置信度α和β,不同置信度效果對比如圖7所示。由圖7可以看出,對結果進行二值化操作,當概率P大于0.5時,像素置為白色,否則為黑色。在本文采集的視頻上,α=0.6,β=0.4時的效果好于其他權重效果。為提高檢測速度及效果,本文引入了圖像金字塔模型,所有目標檢測均在下采樣圖像上進行。圖7不同置信度效果對比

      3實驗結果

      3.1目標檢測結果

      將本文算法在置信度α=0.6,β=0.4時,與基于高斯混合模型的背景減除法進行對比,背景減除法效果對比如圖8所示。由圖8可以看出,改進后的算法可消除背景陰影及鬼影影響\[19\],基于高斯混合模型方式的檢測速度為17.38f/s,本改進方法的檢測速度為13.65f/s,由于本改進方法需要對存在移動目標區(qū)域內的檢測結果進行重新運算,因此檢測速度低于原方法。

      3.2目標檢測精度

      本文采用交并比(intersectionoverunion,IOU),評價移動目標檢測精度。IOU為檢測框與原圖片中標記框的重合程度\[20\],其計算方法是檢測結果與實際結果的交集與并集之比,即

      其中,D表示檢測結果;T表示實際結果。

      在同一段視頻上,分別采用MOG2和本文改進算法進行實驗,檢測200幀圖像時的兩種方法對比結果如表1所示,檢測300幀圖像時的兩種方法對比結果如表2所示,并對表1和表2中兩種算法檢測移動目標時的花費時間和平均交并比進行統(tǒng)計。-移動目標檢測結果如圖9所示。圖中,a表示真實框;c表示MOG2算法檢測框;b表示本文改進算法的檢測框。在背景光照干擾下,本文改進后的算法檢測精度明顯好于原算法,但檢測速度與原算法相比略慢。

      4結束語

      本文提出了一種改進的移動目標檢測方法,該方法利用置信度結合MOG2算法與FT算法完成移動目標檢測。應用本文方法可將300幀圖像移動目標檢測的平均交并比由0.72提高到0.78,提高了移動目標檢測精度,改進了原方法中容易出現(xiàn)的噪聲、鬼影等現(xiàn)象,有效解決了光影變化導致檢測區(qū)域過大問題,對應用移動目標檢測方法較多的智能交通、無人駕駛等領域有一定的幫助。本方法需要對框選目標區(qū)域內的檢測結果進行重新運算,所以檢測速度略慢于原算法,另外本文提出改進方法的置信度參數(shù)需要手動設定,如何計算自適應的置信度是下一步研究的重點。

      參考文獻:

      \[1\]王迪聰,白晨帥,鄔開俊.基于深度學習的視頻目標檢測綜述\[J\].計算機科學與探索,2021,15(9):15631577.

      \[2\]STAUFFERC,GRIMSONWEL.Adaptivebackgroundmixturemodelsforreal-timetracking\[C\]∥1999IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.FortCollins:IEEE,1999:246252.

      \[3\]BARNICHO,VANDROOGENBROECKM.ViBe:Auniversalbackgroundsubtractionalgorithmforvideosequences\[J\].IEEETransactionsonImageProcessing,2011,20(6):17091724.

      \[4\]戚海永.基于累積差分更新背景減除法的運動目標檢測算法研究\[J\].辦公自動化,2020,25(15):4244,60.

      \[5\]梁碩.基于背景減除法的運動目標檢測與跟蹤算法研究\[D\].西安:西安石油大學,2019.

      \[6\]寧志雄.泊車AGV的車輛位姿檢測系統(tǒng)設計\[D\].哈爾濱:哈爾濱工業(yè)大學,2019.

      \[7\]黎陽羊.基于背景減除法的高斯混合模型在電纜溝預防動物的應用\[J\].信息技術與信息化,2020(1):5557.

      \[8\]殷夢妮.基于高斯混合模型的運動目標檢測\[D\].哈爾濱:哈爾濱工程大學,2012.

      \[9\]SAKPALNS,SABNISM.Adaptivebackgroundsubtractioninimages\[C\]∥2018InternationalConferenceonAdvancesinCommunicationandComputingTechnology(ICACCT).Sangamner:IEEE,2018:439444.

      \[10\]ZIVKOVICZ.ImprovedadaptiveGaussianmixturemodelforbackgroundsubtraction\[C\]∥Proceedingsofthe17thInternationalConferenceonPatternRecognition.Cambridge:IEEE,2004:2831.

      \[11\]朱松.MOG2算法在區(qū)域入侵檢測的應用\[J\].科技風,2019(5):248.

      \[12\]ACHANTAR,HEMAMIS,ESTRADAF,etal.Frequency-tunedsalientregiondetection\[C\]∥2009IEEEConferenceonComputerVisionandPatternRecognition.Miami:IEEE,2009:15971604.

      \[13\]李富生.視覺顯著性檢測及其在視頻編碼中的應用研究\[D\].深圳:深圳大學,2015.

      \[14\]黃梨.基于改進的FT算法在自然圖像中的應用研究\[J\].微型機與應用,2015,34(21):3739.

      \[15\]范明亮,郭子涵,柴曉楠,等.面向FT-M7002的Sobel邊緣檢測算法優(yōu)化實現(xiàn)\[J/OL\].計算機工程,2021:18\[20210729\].https:∥doi.org/10.19678/j.issn.10003428.0061903.

      \[16\]成科揚,孫爽,王文杉,等.結合置信度加權融合與視覺注意機制的前景檢測\[J\].中國圖象圖形學報,2021,26(10):24622472.

      \[17\]夏衛(wèi)生,方向瑤,楊帥,等.基于頻率調諧的焊縫紅外圖像顯著性檢測算法\[J\].焊接,2021(4):812.

      \[18\]吳煌,李凱勇.基于DCT域的數(shù)字圖像隱寫容量歸一化方法\[J\].計算機仿真,2021,38(8):207211.

      \[19\]安世全,張莉,瞿中.基于導向濾波的鬼影消除多曝光圖像融合\[J\].計算機工程與設計,2020,41(11):31543160.

      \[20\]孫世強,左海維,趙露婷.聯(lián)合特征相似性度量和交并比的檢測框優(yōu)選研究\[J\].電腦知識與技術,2019,15(29):190193.作者與作者單位英譯

      1)作者:中國人名按漢語拼音拼寫;其他非英語國家人名按作者自己提供的羅馬字母拼法拼寫。

      2)單位:單位名稱要寫全(由小到大),并附地址和郵政編碼,確保聯(lián)系方便。另外,英譯單位不能采取縮寫,且一定要采用本單位統(tǒng)一的譯法,切不可隨意改寫。

      AMovingTargetDetectionMethodCombiningMOG2AlgorithmandFTAlgorithm

      LIUZeping,LIUMingxing,LIXiaofan,YAOMingjie,MAFangda,F(xiàn)UChaoxing

      (CollegeofMechanicalandElectricalEngineering,QingdaoUniversity,Qingdao266071,China)Abstract:

      Themovingtargetdetectionmethodisaffectedbythebackgroundenvironment,resultingininaccuratedetectionresults.AmovingtargetdetectionmethodcombiningMOG2algorithmandfrequencytunedsignificantregiondetection(FT)algorithmisproposed.Takingtheremotecontrolvehiclewalkingvideocapturedbythecameraastheanalysismaterial,themovingtargetisdetectedbyMOG2algorithmonthedownsampledimage.Afterbinarizationandfilteringdenoising,theregionofinterestofthemovingtargetisframed,theregionofinterestisdetectedbyFTalgorithm,andthemovingtargetdetectioniscompletedbyusingconfidencecombinedwiththetwodetectionresults.Whentheconfidenceisα=0.6,β=0.4,theaverageintersectiontounionratioof300framesisincreasedfrom0.72to0.78,whichshowsthatthealgorithmcaneliminatetheinfluenceofbackgroundshadowandghost,soastoeffectivelyimprovethedetectionaccuracyofmovingtargets.

      Keywords:

      movingtargetdetection;MOG2algorithm;FTalgorithm;Gaussianmixturemodel;backgroundsubstraction

      收稿日期:20211020;修回日期:20211212

      作者簡介:劉澤平(1996),男,碩士研究生,主要研究方向為人工智能。

      通信作者:符朝興(1968),男,博士,副教授,主要研究方向為人工智能和機械振動。Email:cx_f@163.com

      -

      六安市| 芦溪县| 息烽县| 利川市| 肥城市| 临漳县| 满洲里市| 文安县| 普格县| 金湖县| 永年县| 白朗县| 阜宁县| 建湖县| 梅河口市| 积石山| 宁远县| 新宾| 双城市| 兰州市| 禹城市| 乐都县| 淳安县| 昌吉市| 锡林浩特市| 临高县| 沙湾县| 桦川县| 伊川县| 蕉岭县| 华蓥市| 吉木萨尔县| 延寿县| 分宜县| 琼海市| 安陆市| 石门县| 万载县| 天台县| 焦作市| 仙游县|