潘 云 磊
(蕪湖職業(yè)技術(shù)學(xué)院體育教學(xué)部,安徽 蕪湖 241000)
道路上的車輛數(shù)量呈現(xiàn)直線上升趨勢,加大了交通管制的難度,對行人安全也產(chǎn)生了極大的威脅。視覺圖像系統(tǒng)主要構(gòu)成部分為行人運動特征提取與跟蹤,能夠在圖像序列中提取行人運動特征,以此為基礎(chǔ),可以確定行人的位置、大小等信息,幫助車輛規(guī)避行人,幫助指揮人員精準調(diào)度交通流,保障行人的安全。
國外對視頻圖像處理的研究較早,主要通過背景減除法提取行人運動特征,與對應(yīng)的背景圖像進行匹配,從而發(fā)現(xiàn)行人目標,并利用行人運動特征提取、分析與理解過程,更好地保護行人安全。目前,國內(nèi)視頻圖像相關(guān)研究水平不高,缺少可靠、先進的行人運動特征跟蹤提取方法,文獻[1]利用基于高斯混合模型的背景消減法提取運動目標前景,實現(xiàn)復(fù)雜場景中多行人運動目標的檢測和跟蹤,對畫面中的人數(shù)進行實時統(tǒng)計和更新,準確地檢測和追蹤多行人運動目標。文獻[2]改進相似性分數(shù)計算方法,提取基于多信息融合的多目標跟蹤方法,更好地處理目標遮擋、目標誤檢及目標丟失等情況。
本文提出了一種基于改進蟻群算法的行人運動特征跟蹤提取方法,計算運動特征數(shù)據(jù)關(guān)聯(lián)矩陣,確定正確的行人觀測數(shù)據(jù),針對多目標行人運動特征跟蹤的數(shù)據(jù)關(guān)聯(lián)問題,改進蟻群算法,提高行人運動特征跟蹤提取的精度,為行人安全提供更有效的保障。
以道路監(jiān)控視頻作為研究對象,提取視頻圖像序列中的目標區(qū)域,檢測行人運動目標,以此提升行人運動特征提取精度[3]。
首先,構(gòu)建視頻圖像背景模型。設(shè)置行人運動視頻圖像序列為n幀,在圖像相同位置(x,y)處采集灰度值,構(gòu)成灰度值序列為{Pi(x,y),i=1,2,…,n}。 對應(yīng)于該位置的圖像背景模型,由n幀灰度值序列的中間值表示,其表達式為
B(x,y)=Median(Pi(x,y))
(1)
式(1)中,B(x,y)表示圖像背景像素點(x,y)的灰度值,Median(·)表示中間值提取函數(shù)。
然后,檢測行人運動目標,其原理為對視頻圖像幀進行差分運算,結(jié)果為前景圖像(不含背景)。差分運算公式為
dc(x,y)=|fc(x,y)-B(x,y)|
(2)
式(2)中,dc(x,y)表示前景圖像,fc(x,y)表示當前視頻圖像幀。
最后,對公式(2)結(jié)果dc(x,y)進行二值化分割處理,獲取行人運動目標。選取適當?shù)姆指铋撝礣,則處理結(jié)果為
(3)
通過上述過程即可獲得行人運動目標的檢測結(jié)果,如圖1所示。
圖1 行人運動目標檢測結(jié)果示例
行人運動特征提取是目標跟蹤的核心環(huán)節(jié),包含靜態(tài)特征與動態(tài)特征,分別對應(yīng)的是行人輪廓特征與肢體關(guān)節(jié)角度特征,具體提取過程如下:
行人輪廓特征具備唯一性與整體性,能夠在整體上描述行人的運動狀態(tài),表征特定的行人身份。視頻圖像中,行人輪廓線是二維的,因此,此研究利用7個Hu不變矩表示行人輪廓特征[4]。不變矩具備尺度、平移、旋轉(zhuǎn)等不變性,計算公式逐漸復(fù)雜,其表達式為
(4)
式(4)中,φ1、φ2、φ3、φ4、φ5、φ6與φ7表示7個不變矩,ηpq表示視頻圖像(p+q)階的中心距。
在視頻圖像中,行人的肢體形狀會隨著時間發(fā)生變化[5]。
行人運動時關(guān)節(jié)點的角度能夠表征行人特有的行走姿態(tài),故選取肢體關(guān)節(jié)角度特征作為行人運動特征之一,表征行人運動的動態(tài)信息[6]。設(shè)行人直立時兩腳站立位置為水平基線,行人身高記為H,基于生物解剖學(xué)原理對人類肢體比例關(guān)系進行確定(圖2)。
圖2 人類肢體比例關(guān)系示意
如圖2所示,依據(jù)肢體比例關(guān)系,結(jié)合人體行走運動的幾何特征,定位12個肢體關(guān)節(jié)點位置,分別為踝關(guān)節(jié)(左/右)、膝關(guān)節(jié)(左/右)、髖關(guān)節(jié)、腕關(guān)節(jié)(左/右)、肘關(guān)節(jié)(左/右)、肩關(guān)節(jié)(左/右)與頸關(guān)節(jié)[7]。對肢體關(guān)節(jié)角度進行統(tǒng)一計算,計算公式為
(5)
式(5)中,θ表示角度;(x1,y1)與(x2,y2)表示任意2個關(guān)節(jié)點的位置坐標。
通過公式(5)計算每個肢體關(guān)節(jié)角度(共9個),將其進行整合獲得肢體關(guān)節(jié)角度特征矢量為[θ1,θ2,θ3,θ4,θ5,θ6,θ7,θ8,θ9]′[8]。
一般情況下,一幅道路監(jiān)控視頻圖像可能包含多個行人運動目標,提取的運動特征也是多個行人運動目標特征,容易出現(xiàn)特征與運動目標之間的偽相關(guān)現(xiàn)象,這給行人運動特征的跟蹤和提取帶來了很大的困難[9]。為了解決上述問題,引入了改進的蟻群算法解決多人運動目標特征數(shù)據(jù)關(guān)聯(lián)問題。
基于改進蟻群算法的原理,假設(shè)行人運動目標在某一時刻最多生成一組特征數(shù)據(jù)。同時,一組特征數(shù)據(jù)最多只能與一個運動對象相關(guān)聯(lián)。當行人運動目標進入觀察區(qū)域時,蟻群算法開始執(zhí)行第一個循環(huán),通過搜索和迭代找到最短路徑,直到行人運動目標離開觀察區(qū)域[10]。
通過上述描述確定多行人運動目標特征數(shù)據(jù)關(guān)聯(lián)步驟如下:
步驟1:當獲得行人運動特征數(shù)據(jù)后,將k只螞蟻放置在行人運動軌跡上,軌跡數(shù)量記為M,同時開啟軌跡-運動特征關(guān)聯(lián)對;
步驟2:螞蟻r以轉(zhuǎn)移概率p對行人運動特征進行選擇。與此同時,設(shè)置禁忌表tabuk與臨時池temppool(k), 采用tabuk記錄螞蟻k已經(jīng)選好的軌跡-運動特征關(guān)聯(lián)對, 應(yīng)用temppool(k)保存螞蟻k選好的概率值[11]。其中,轉(zhuǎn)移概率計算公式為
(6)
式(6)中,α表示信息素量τij的權(quán)重參數(shù);β表示能見度參數(shù)ηij的權(quán)重參數(shù),由1/dij計算獲得,其中,dij表示多個行人中某一個軌跡-運動特征關(guān)聯(lián)對(i,j)的距離。
步驟3:在路徑尋優(yōu)過程中,種群螞蟻會實時留下信息素量τij,為了防止某條路徑(關(guān)聯(lián)對(i,j))信息素量極速增加,導(dǎo)致算法陷入局部最優(yōu)情況,設(shè)置初始最大和最小信息素量分別為τmax,τmin,τij取值范圍為[τmin,τmax];
步驟4:在選擇路徑過程中[12],基于局部更新規(guī)則對信息素量進行更新。路徑選擇結(jié)束后[13],信息素量更新規(guī)則改為全局更新規(guī)則。全局更新規(guī)則表達式為
(7)
式(7)中,ρ表示信息素量更新系數(shù),(1-ρ)表示信息素量殘留系數(shù),Δτij表示根據(jù)σ-1只優(yōu)秀螞蟻路徑長短排序信息對(i,j)路徑信息素量進行更新,其計算公式為
(8)
步驟5:當確定關(guān)聯(lián)矩陣后,對全部軌跡-運動特征關(guān)聯(lián)對信息進行記錄,獲得正確的多行人運動目標特征數(shù)據(jù)關(guān)聯(lián)結(jié)果。
根據(jù)上述獲得的多行人運行目標特征數(shù)據(jù)關(guān)聯(lián)結(jié)果,選取Mean Shift算法跟蹤行人運動目標,并依據(jù)1.2節(jié),提取運動特征,最終完成行人運動特征的跟蹤提取[15]。
行人運動目標跟蹤主要通過每幀圖像目標模型的相似度實現(xiàn),其由Bhattacharyya函數(shù)計算所得。首先,將目標模型記為p,將候選模型記為q,以其之間距離作為相似度的判斷依據(jù),距離計算公式為
(9)
式(9)中,d(y)表示目標模型與候選模型之間的距離,ρ(y)表示目標模型與候選模型采樣點的Bhattacharyya系數(shù)估計數(shù)值,取值范圍為[0,1]。
為了簡化Bhattacharyya系數(shù)的估計過程[16],采用單位向量之間的夾角余弦值表示Bhattacharyya系數(shù),估算公式為
(10)
由公式(10)可以看出,2個單位向量夾角余弦值越小,表明ρ(y)越大,距離d(y)越小,p與q相似度越高,兩者為同一行人運動目標的可能性越大。
行人運動目標跟蹤完成后,需要在不同幀圖像中準確定位行人運動目標的位置,以便有效地提取行人運動特征。行人運動目標定位的原理:以當前幀圖像中目標的中心為起始位置y0,在其鄰域內(nèi)搜索目標,搜索停止條件是Bhattacharyya系數(shù)達到最大,此時可以得到行人運動目標的最佳位置[17]。
由上述分析可知,要想對行人運動目標位置定位,首先獲得當前幀y0處候選模型的運動特征分布概率,記為pu(y), 再對公式(10)進行Taylor展開,以此為基礎(chǔ),結(jié)合以y0為中心的均值漂移向量mh,G(y0), 通過遞歸迭代得到行人運動目標的位置,其表達式為
(11)
式(11)中,wi表示權(quán)值,h表示搜索步長。
在行人運動目標位置定位后,提取行人運動特征,實現(xiàn)了行人運動特征的跟蹤提取,為路上行人安全提供更加有效的保證。
在道路監(jiān)控視頻中隨機截選一段視頻作為實例分析對象,對行人運動特征進行跟蹤提取。在每次實例分析過程中,采用VC++6.0平臺,圖像尺寸為320×240(pixels),頻率為每秒15幀。
實例分析對象——視頻圖像序列共為120幀,如圖3所示。
圖3 實例分析對象示例
以上述選取的實例分析對象為基礎(chǔ),構(gòu)建行人運動目標狀態(tài)方程,表達式為
xi,t=Ai,t-1xi,t-1+Γωt
(12)
式(12)中,Ai,t-1表示行人運動目標狀態(tài)轉(zhuǎn)移矩陣,xi,t-1表示行人運動目標i在t-1時刻的狀態(tài),Γ表示過程噪聲矩陣;ωt表示系統(tǒng)噪聲。
公式(12)中,參數(shù)Ai,t-1與Γ計算公式為
(13)
式(13)中,T表示采樣間隔,設(shè)置為1。
則行人運動目標觀測方程表達式為
yi,t=Hi,txi,t+vt
(14)
式(14)中,Hi,t表示行人運動目標量測矩陣,vt表示量測噪聲。
為了加快改進蟻群算法的收斂速度(如果蟻群種群數(shù)量過大,搜索時間會隨之增加;蟻群種群數(shù)量過小,則無法獲得最優(yōu)路徑),設(shè)定蟻群種群數(shù)量為k=30。在實例分析過程中,對實例分析對象進行10次采樣,采用改進蟻群算法關(guān)聯(lián)xi,t與yi,t獲取的行人運動特征數(shù)據(jù),其關(guān)聯(lián)過程如1.3節(jié)所示,不對其進行再次的贅述,記錄行人運動特征關(guān)聯(lián)執(zhí)行時間,見表1。
表1 行人運動特征關(guān)聯(lián)執(zhí)行時間表
如表1數(shù)據(jù)顯示,應(yīng)用提出方法后,行人運動特征關(guān)聯(lián)執(zhí)行時間范圍為0.78~2.00 min,證明改進蟻群算法收斂速度較快,滿足行人運動特征跟蹤提取需求。
對獲得的軌跡-運動特征關(guān)聯(lián)對正確率進行判定,判定規(guī)則為
(15)
式(15)中,Qi(i,j)表示軌跡-運動特征關(guān)聯(lián)對轉(zhuǎn)換數(shù)值,ζ表示關(guān)聯(lián)對正確率判定閾值。
依據(jù)公式(15)對軌跡-運動特征關(guān)聯(lián)對正確率進行判定,判定結(jié)果如圖4所示。
圖4 關(guān)聯(lián)對正確率判定結(jié)果示意
圖4中,虛線表示的是行人運動特征關(guān)聯(lián)對正確率的最低標準。應(yīng)用提出方法后,關(guān)聯(lián)對正確率范圍為60%~96%,均大于最低標準限值,表明提出方法具備可行性與有效性。
應(yīng)用改進蟻群算法對行人運動特征進行關(guān)聯(lián),以此降低行人運動特征的關(guān)聯(lián)時間,提升關(guān)聯(lián)對的正確率,獲得更加精準的行人運動特征跟蹤提取結(jié)果,為行人安全提供保障,也為交通指揮提供精準的數(shù)據(jù)支撐。