周洲 陳太聰
摘要: 當(dāng)前基于計算機(jī)視覺的動位移測量研究通常要求高速高分辨率攝像機(jī)和理想拍攝環(huán)境,以保證測量的性能和精度。然而高速相機(jī)成本較高,目標(biāo)成像需要較高對比度,且實(shí)際拍攝過程中環(huán)境條件也難以保持穩(wěn)定,導(dǎo)致應(yīng)用受限。結(jié)合時空上下文算法和光流算法,提出一種無需人工標(biāo)靶點(diǎn)、魯棒的多目標(biāo)位移監(jiān)測方法,通過智能手機(jī)實(shí)現(xiàn)干擾環(huán)境下的結(jié)構(gòu)多點(diǎn)動位移同步測量。開展懸臂小球模型的掃頻實(shí)驗(yàn),檢驗(yàn)方法在一定頻率范圍內(nèi)的測量效果。其中,使用智能手機(jī)對激振小球進(jìn)行拍攝,并在實(shí)驗(yàn)中保留復(fù)雜背景和模擬光照變化。分別采用所提方法和常用的特征光流算法對視頻進(jìn)行處理,得到動位移結(jié)果,并與位移傳感器測量值進(jìn)行對比。結(jié)果表明,在有光照變化干擾下,所提方法具有更強(qiáng)的抗干擾性,各監(jiān)測點(diǎn)的最大位移偏差在5%以內(nèi)。
關(guān)鍵詞: 結(jié)構(gòu)健康監(jiān)測; 位移測量; 計算機(jī)視覺; 時空上下文; 光流
中圖分類號: O327; TU317 文獻(xiàn)標(biāo)志碼: A 文章編號: 1004-4523(2021)05-0979-08
DOI:10.16385/j.cnki.issn.1004-4523.2021.05.011
引 言
在結(jié)構(gòu)健康監(jiān)測實(shí)踐中,加速度傳感器得到了廣泛應(yīng)用,可直接測量結(jié)構(gòu)的加速度響應(yīng),但對于低頻范圍的應(yīng)用效果不佳[1]。相反,位移傳感器的低頻測量結(jié)果更加精確,然而由于安裝和測試的不便,應(yīng)用相對較少,包括線性可變差動變壓器需要固定支座輔助測量,而多普勒激光測振儀雖然可實(shí)現(xiàn)無接觸測量,但測量結(jié)果受激光聚光影響較大,且設(shè)備成本也相對較高。
近年來,隨著圖像數(shù)據(jù)采集和計算機(jī)視覺技術(shù)發(fā)展,基于視覺的位移測量技術(shù)表現(xiàn)出無接觸、遠(yuǎn)距離、低成本和高精度等優(yōu)點(diǎn),受到了廣泛關(guān)注[2?3]。Dworakowski等[4]和韓建平等[5]利用圖像模板匹配技術(shù),使用高速相機(jī)實(shí)現(xiàn)了單點(diǎn)動位移測量,其中需要安裝人工目標(biāo)板輔助測量。另外,高速相機(jī)的目標(biāo)成像需較高對比度,從而也要求高亮度的光照條件。周穎等[6]和Yoon等[7]分別根據(jù)特征點(diǎn)匹配算法和光流算法,在不附加任何人工標(biāo)靶點(diǎn)的情況下,采用消費(fèi)級相機(jī)獲得結(jié)構(gòu)的位移響應(yīng)和動力特性。為減少特征誤識別,方法對目標(biāo)的紋理特征有一定的要求。Feng等[8]提出基于圖像相關(guān)的亞像素模板匹配技術(shù),改善了目標(biāo)動態(tài)位移的提取精度。值得說明的是,上述研究都是在理想的測量條件下進(jìn)行的,需要穩(wěn)定的光照環(huán)境,未考慮光照環(huán)境干擾對測量結(jié)果的影響?;诖?,Dong等[9]應(yīng)用時空上下文算法,實(shí)現(xiàn)了光照變化和霧氣環(huán)境下的位移監(jiān)測。但研究僅限于單點(diǎn)動態(tài)位移測量,未實(shí)現(xiàn)多點(diǎn)同步監(jiān)測,此外所采用的專業(yè)攝像機(jī),成本較高。
針對上述若干問題,本文提出應(yīng)用智能手機(jī)同步監(jiān)測光照環(huán)境變化情況下多目標(biāo)動位移的技術(shù)方法。其中,結(jié)構(gòu)振動視頻由智能手機(jī)采集,且監(jiān)測目標(biāo)點(diǎn)的數(shù)目不受限,多個監(jiān)測目標(biāo)點(diǎn)由多個預(yù)定義的可重疊區(qū)域自動集合而成。繼而,應(yīng)用時空上下文(Spatio?Temporal Context,STC)算法和光流(Optical Flow,OF)算法,同步跟蹤和獲取所有目標(biāo)監(jiān)測點(diǎn)的高精度位移時程信息。最后,為了驗(yàn)證方法的可行性和可靠性,開展懸臂小球模型的掃頻實(shí)驗(yàn),使用智能手機(jī)對激振小球進(jìn)行拍攝,通過實(shí)驗(yàn)?zāi)M光照變化,對比考查本文方法與常用特征光流算法和位移傳感器的測量結(jié)果。
1 多目標(biāo)動位移監(jiān)測流程
本文的研究重點(diǎn)集中在智能手機(jī)應(yīng)用、多目標(biāo)位移監(jiān)測和高精度位移提取等三方面。其中,第一方面需要解決智能手機(jī)的相機(jī)廣角畸變的校準(zhǔn)問題;第二方面解決多目標(biāo)選擇和預(yù)定義問題;第三方面解決環(huán)境干擾下針對各目標(biāo)的跟蹤和高精度位移提取問題。
相應(yīng)地,本文基于計算機(jī)視覺的結(jié)構(gòu)振動位移測量流程如框圖1所示。內(nèi)容分為三大部分:相機(jī)標(biāo)定、多目標(biāo)定義、多目標(biāo)跟蹤和位移提取。本文方法所需測量設(shè)備為商業(yè)智能手機(jī),無需其他傳感器和設(shè)備。
以下分別對三大部分所用分析方法和具體操作展開詳細(xì)論述。
2 智能手機(jī)的相機(jī)標(biāo)定與圖像校準(zhǔn)
本文采用智能手機(jī)作為視頻拍攝設(shè)備,安裝其上的商業(yè)相機(jī)為了增大拍攝范圍,大多選用的是廣角鏡頭,但是該鏡頭會引入較大的徑向和切向畸變。因此,為了減少畸變產(chǎn)生的位置誤差,有必要對相機(jī)進(jìn)行標(biāo)定,識別相機(jī)的內(nèi)外參數(shù)和畸變系數(shù)?;跇?biāo)定后的畸變模型,校準(zhǔn)所拍攝的圖像,最終建立圖像位移到結(jié)構(gòu)位移的準(zhǔn)確轉(zhuǎn)換關(guān)系。
相機(jī)成像所基于的小孔成像模型,采用下式描述三維空間目標(biāo)點(diǎn)與相機(jī)成像平面中的對應(yīng)點(diǎn) 之間的關(guān)系[10]:
式中 ,和分別表示點(diǎn)在世界坐標(biāo)系、相機(jī)坐標(biāo)系和圖像像素坐標(biāo)系中對應(yīng)坐標(biāo)。為縮放因子;外部參數(shù)矩陣和分別表示旋轉(zhuǎn)矩陣和平移矩陣,他們與相機(jī)物理位置有關(guān);內(nèi)部參數(shù)矩陣與相機(jī)構(gòu)造和材料有關(guān),表示為
式中 和分別為圖像像素坐標(biāo)系和軸上的比例因子;為坐標(biāo)軸傾角參數(shù);和為原點(diǎn)坐標(biāo)。
式(1)和(2)代表理想成像關(guān)系,而實(shí)際上相機(jī)鏡頭會產(chǎn)生徑、切向畸變,導(dǎo)致相機(jī)成像點(diǎn)發(fā)生偏移,可采用以下非線性畸變模型[11]進(jìn)行描述
相機(jī)標(biāo)定的基本原理,即是根據(jù)已知目標(biāo)點(diǎn)的準(zhǔn)確坐標(biāo)(通常設(shè)計為)和相應(yīng)成像點(diǎn)的畸變像素坐標(biāo)(),結(jié)合式(1),(2)和(4),識別得到相機(jī)的內(nèi)外參數(shù)矩陣、徑向和切向畸變系數(shù)。通常采用最優(yōu)化方法,反復(fù)迭代求解使得誤差最小的內(nèi)外參數(shù)和畸變參數(shù)。該誤差定義為三維空間目標(biāo)點(diǎn)計算的投影圖像像素坐標(biāo)與實(shí)際圖像像素坐標(biāo)之間的差值平方和。
具體操作時,本文采用張正友[10]方法進(jìn)行相機(jī)標(biāo)定,其中忽略影響,并使用黑白方塊間隔組成的棋盤作為標(biāo)定物,分別從不同角度、位置和姿態(tài)拍攝標(biāo)定物,建立標(biāo)定用照片庫,最終通過不同數(shù)量照片的標(biāo)定結(jié)果分析,獲得智能手機(jī)iphone7后置攝像頭的內(nèi)部參數(shù)和畸變系數(shù)的收斂結(jié)果如表1和2所示。圖2以前兩階徑向畸變參數(shù)為例,示意了兩者識別均值和標(biāo)準(zhǔn)差隨所用照片數(shù)量的變化情況。由圖表所示結(jié)果可見,相關(guān)相機(jī)的標(biāo)定采用20張左右的照片可滿足要求。
當(dāng)相機(jī)完成標(biāo)定獲得相關(guān)參數(shù)后,即可結(jié)合式(2)和(4),先由實(shí)際照片上的畸變像素坐標(biāo)() 計算(),繼而得到理想坐標(biāo)(),最終得到校準(zhǔn)后的照片上的理想像素坐標(biāo)()。如圖3所示即為標(biāo)定用黑白棋盤的某一張照片的局部在校準(zhǔn)前后的圖像對比??梢姡紙D片中黑白方塊的畸變扭曲邊緣已較好地被修正為平直邊緣。
3 多目標(biāo)定義
在結(jié)構(gòu)振動過程中,對多點(diǎn)動位移進(jìn)行同步監(jiān)測,不僅有益于全面了解結(jié)構(gòu)振動形態(tài),也有利于模態(tài)特征辨識等工作開展。
基于視頻的多目標(biāo)位移同步監(jiān)測,要求能實(shí)現(xiàn)每個目標(biāo)與其他目標(biāo)的區(qū)分,并能跟蹤各個目標(biāo)在每幀照片中的位置。要達(dá)成這兩個目標(biāo),一方面需要在首幀照片中預(yù)先定義監(jiān)測目標(biāo)對象;另一方面需要目標(biāo)跟蹤算法支持針對多目標(biāo)對象的處理。
本文后續(xù)將采用時空上下文(STC)算法進(jìn)行目標(biāo)跟蹤,然而傳統(tǒng)STC目標(biāo)跟蹤算法只關(guān)注單個目標(biāo),無法同時跟蹤多個目標(biāo)[9, 12]。因此,本文對傳統(tǒng)STC算法進(jìn)行改進(jìn),通過并行化設(shè)計,及引入?yún)^(qū)域相容條件,實(shí)現(xiàn)了對多個可重疊目標(biāo)區(qū)域的同步跟蹤。
如圖4所示為在結(jié)構(gòu)振動視頻的首幀照片中完成的多目標(biāo)預(yù)定義。目標(biāo)區(qū)域可根據(jù)典型結(jié)構(gòu)區(qū)域自行定義,數(shù)量不限,且可部分重疊。每個目標(biāo)區(qū)域(圖中矩形框)的特征點(diǎn)為各區(qū)域的中心點(diǎn)(圖中×形標(biāo)記點(diǎn)),監(jiān)測所得的各目標(biāo)區(qū)域位移可由該區(qū)域中心點(diǎn)的位移進(jìn)行代表。
4 基于STC算法的目標(biāo)跟蹤
4.1 STC算法基本模型
在利用計算機(jī)視覺技術(shù)進(jìn)行目標(biāo)跟蹤時,目標(biāo)對象與其局部場景之間存在密切關(guān)聯(lián),利用這種關(guān)系,更易于找到目標(biāo)。STC算法[12]即基于貝葉斯框架,根據(jù)目標(biāo)區(qū)域與其局部上下文的圖像強(qiáng)度和位置之間的統(tǒng)計相關(guān)性進(jìn)行建模計算。
該算法通過極大化以下置信度函數(shù)來追蹤目標(biāo)位置[12]
式中 為目標(biāo)位置;為場景中的目標(biāo);為目標(biāo)區(qū)域中心點(diǎn)位置;為歸一化系數(shù),以保證()在0?1間變化;和分別為尺度參數(shù)和形狀參數(shù)。
當(dāng)前幀照片中,目標(biāo)區(qū)域的局部上下文特征集定義為
式中 為位置處的圖像強(qiáng)度;為目標(biāo)點(diǎn)周圍的局部上下文區(qū)域。如圖5所示,黃色框代表跟蹤目標(biāo),紅色框代表其局部上下文。
依據(jù)貝葉斯概率公式,式(6)中的置信度函數(shù)可展開為
式中 為聯(lián)合概率函數(shù);為條件概率函數(shù),表示目標(biāo)位置與其局部上下文之間的空間關(guān)系;為上下文先驗(yàn)概率函數(shù),表示局部上下文的外觀特征。
首先,根據(jù)首幀照片的圖像強(qiáng)度,以及預(yù)定義的目標(biāo)位置,可計算上下文先驗(yàn)概率
式中 為歸一化系數(shù),以保證在0?1間變化;為尺度參數(shù),和分別為目標(biāo)區(qū)域的長度和寬度。
其次,定義條件概率函數(shù)為
式中 為空間上下文模型函數(shù),取決于目標(biāo)位置和局部上下文位置之間的相對距離和方向,且設(shè)置為非徑向?qū)ΨQ函數(shù),該設(shè)置有助于解決距離和背景相似帶來的歧義。
將式(9)和(12)代入式(8),可得
式中 代表卷積運(yùn)算符。
每一幀圖片中的像素點(diǎn)數(shù)量眾多,式(13)的卷積運(yùn)算效率低且計算復(fù)雜。已知在時域中進(jìn)行卷積運(yùn)算的結(jié)果與其在頻域的乘積運(yùn)算結(jié)果一致,因此,為了提高計算效率,STC算法結(jié)合快速傅里葉算法(FFT),將卷積運(yùn)算轉(zhuǎn)換成乘積運(yùn)算,可大幅提高運(yùn)算效率。由此,式(13)經(jīng)FFT轉(zhuǎn)化為
式中 表示傅里葉變換,表示對應(yīng)位置的乘積。
對式(14)進(jìn)行傅里葉逆變換,并將式(6)代入,最終可得空間上下文模型函數(shù)的求解列式為
式中 表示傅里葉逆變換(IFFT)。
4.2 STC算法跟蹤過程
STC算法將目標(biāo)跟蹤任務(wù)轉(zhuǎn)換為對置信度函數(shù))的最大值搜索任務(wù),其流程如圖6所示。在第t幀照片中,通過式(15)計算得當(dāng)前幀照片的空間上下文模型,繼而根據(jù)下式更新下一幀照片的時空上下文模型
式中 為學(xué)習(xí)速率因子;定義為前一幀照片的時空上下文模型和空間上下文模型的加權(quán)和。這種加權(quán)處理可以有效地抑制物體外觀強(qiáng)度突變引起的噪聲干擾。
在獲得后,由式(14),第t+1幀的置信度函數(shù)相應(yīng)更新為
最后,通過搜索置信度函數(shù)的最大值,從而確定第t+1幀照片中的目標(biāo)位置為
這里需要說明的是,由于本文僅以結(jié)構(gòu)平面內(nèi)振動為例進(jìn)行論述,因此忽略了縱向測試距離上的尺度變化,即圖片大小比例未發(fā)生變化;如果要觀測結(jié)構(gòu)三維振動,即存在平面外運(yùn)動,結(jié)構(gòu)與相機(jī)間的縱向測試距離會發(fā)生明顯的變化,則還需引入目標(biāo)尺度更新模型[12]進(jìn)行修正。
為了達(dá)到穩(wěn)健的跟蹤效果,在STC跟蹤算法中的若干關(guān)鍵計算參數(shù),按照參考文獻(xiàn)[12]的建議,?。?2.25,=1,=0.075,=1。
5 基于OF算法的亞像素位移估計
根據(jù)以上STC算法得到的圖片目標(biāo)位置的分辨率為單個像素,此時目標(biāo)實(shí)際位移的測量精度為單個像素所對應(yīng)的實(shí)際位移。因此,為了獲得更精確的目標(biāo)實(shí)際位移,除了提高相機(jī)的分辨率以加密圖片中的像素點(diǎn)之外,還可以采用光流(OF)算法,對圖片目標(biāo)在單個像素內(nèi)的位置變化進(jìn)行估計,以提取亞像素位移[13]。
一般地,視頻中相鄰兩張照片的圖像強(qiáng)度和之間滿足以下關(guān)系
在利用STC跟蹤算法獲得整像素位移()后,參照該位移,在目標(biāo)圖像中截取新的模板圖像。新的模板圖像和目標(biāo)圖像之間仍存在微小位移(),此時應(yīng)用光流算法,可建立新的模板圖像和目標(biāo)圖像之間的近似關(guān)系
式中 偏導(dǎo)數(shù)可采用有限差分計算,即及。
如圖7所示為視頻中相鄰圖像的亞像素位移估計的計算流程。相關(guān)研究表明[13],根據(jù)光流算法優(yōu)化得到的亞像素位移精度可達(dá)到0.0125像素,可以有效地識別目標(biāo)在單個像素內(nèi)的位置變化,有利于提升實(shí)際目標(biāo)位移的測量精度。
6 模型實(shí)驗(yàn)
本文將開展懸臂小球模型的強(qiáng)迫振動實(shí)驗(yàn),以檢驗(yàn)所提出的方法在無人工標(biāo)記點(diǎn)和有光照變化環(huán)境下,能否利用商業(yè)相機(jī)準(zhǔn)確地獲取結(jié)構(gòu)的多點(diǎn)動位移時程。實(shí)驗(yàn)將以位移傳感器測量結(jié)果為基準(zhǔn),對比本文方法與常用特征光流算法[7]的效果。
6.1 實(shí)驗(yàn)設(shè)計
實(shí)驗(yàn)裝置如圖8所示,小鋼球通過豎直連桿固定在底部支座上,激振器與豎直連桿相連。小鋼球上連接有直線位移傳感器,傳感器另一端支撐在左端立柱上。實(shí)驗(yàn)中,激振器輸入外部激勵引起小球水平振動,位移傳感器記錄小球的水平位移時程,并由數(shù)據(jù)采集卡和電腦進(jìn)行自動采集。同時,由放置在小球前端、安裝在三角架上的iphone7手機(jī)錄制小球振動視頻,設(shè)置圖片分辨率為1920×1080像素,幀率為60幀/s。實(shí)驗(yàn)測量的小球振動時長為20 s。
實(shí)驗(yàn)中,為了檢驗(yàn)結(jié)構(gòu)常見振動頻率范圍內(nèi)的方法可行性,設(shè)置激振器激勵為1?10 Hz間的重復(fù)線性掃頻。此外,為了考查方法在真實(shí)背景環(huán)境下的應(yīng)用效果,沒有對小球背后的復(fù)雜背景進(jìn)行遮擋。
為了考查方法在光照變化環(huán)境下的應(yīng)用效果,特設(shè)計兩組對比實(shí)驗(yàn):(1)情況一,在小球振動過程中,光照條件不變化;(2)情況二,在小球振動過程中,3次調(diào)節(jié)臨近的臺燈光照亮度。實(shí)驗(yàn)用臺燈有3檔亮度可調(diào),如圖9(a)所示為關(guān)閉臺燈時的照片,如圖9(b)所示為打開臺燈最亮檔時的照片,由圖可見兩者差別明顯。
6.2 實(shí)驗(yàn)結(jié)果
為了便于與位移傳感器的測量結(jié)果進(jìn)行直接對比,選擇圖4中與位移傳感器同一高度的兩個目標(biāo)作為跟蹤目標(biāo)。如圖10所示為初始設(shè)置的兩個跟蹤目標(biāo),紅色框?yàn)槟繕?biāo)區(qū)域1,綠色框?yàn)槟繕?biāo)區(qū)域2,藍(lán)色點(diǎn)為各目標(biāo)區(qū)域的中心。
根據(jù)本文提出的技術(shù)方案,首先將拍攝視頻中的每一幀照片進(jìn)行校準(zhǔn);繼而計算每一幀照片中目標(biāo)區(qū)域的置信度函數(shù),通過STC算法和OF算法對相鄰幀進(jìn)行匹配,得到目標(biāo)的圖像位移;最后將圖像位移乘以縮放影響矩陣得到最終位移。
作為對比分析用的常用特征光流算法,則是采用Lucas?Kanade光流與Harris角點(diǎn)相結(jié)合的算法,通過計算相鄰兩幀的關(guān)鍵特征點(diǎn)的光流,獲取關(guān)鍵點(diǎn)的位移[7]。
為了比較本文算法與特征光流算法的性能,現(xiàn)定義如下兩類評價指標(biāo)[14],歸一化均方誤差指標(biāo)NMSE和相關(guān)系數(shù)指標(biāo):
式中 和分別代表基于視覺算法和位移傳感器獲得的位移數(shù)據(jù);和分別代表不同方法得到的數(shù)據(jù)均值。兩個指標(biāo)的取值范圍都在0?1之間,指標(biāo)值越大,意味著越相關(guān),數(shù)據(jù)相似程度越高。
如圖11和12所示分別為光照不變化情況和光照變化情況下的12 s位移時程對比圖,其中STC1和STC2代表應(yīng)用本文方法識別得到的目標(biāo)1和目標(biāo)2結(jié)果,LK?Harris代表特征光流法識別結(jié)果,Sensor代表位移傳感器測量結(jié)果。如表3和4所示為兩種情況下的不同方法評價指標(biāo)結(jié)果,表中還列出了最大位移對比結(jié)果。
由圖表所示結(jié)果可見:
(1)在光照不變化情況下,本文方法和特征光流法所得的位移時程與位移傳感器的測量結(jié)果在形狀和趨勢上可保持一致,表明兩種方法都有良好的適應(yīng)復(fù)雜背景的能力,總體上本文方法結(jié)果更接近實(shí)測位移結(jié)果。表列數(shù)據(jù)也顯示了同樣結(jié)論,NMSE和都接近于1,最大位移偏差都小于6%,而本文方法的指標(biāo)值更為優(yōu)越。需要說明的是,STC1和STC2的結(jié)果不完全一致,除了視頻識別誤差外,振動過程中的支撐桿彎曲變形,導(dǎo)致兩個目標(biāo)點(diǎn)的水平位移也會存在輕微的客觀差異。
(2)在光照變化情況下,特征光流法的位移時程發(fā)生了明顯的偏移,表明目標(biāo)跟蹤失敗,而本文方法所得的位移時程仍可與位移傳感器的測量結(jié)果在形狀和趨勢上保持一致。表列數(shù)據(jù)也顯示了同樣結(jié)論,特征光流算法的NMSE和明顯偏小,最大位移誤差大于15%;而本文方法的指標(biāo)值雖然較光照不變化的理想情況略有降低,但NMSE和仍能保持在0.95左右,最大位移偏差小于5%,表明本文方法具有良好的抗光照變化能力。
7 結(jié)束語
本文針對計算機(jī)視覺技術(shù)在結(jié)構(gòu)工程振動領(lǐng)域的應(yīng)用開展研究,基于時空上下文算法和光流算法,提出了應(yīng)用智能手機(jī)實(shí)現(xiàn)環(huán)境變化情況下多目標(biāo)動位移同步監(jiān)測的技術(shù)方法。實(shí)驗(yàn)表明,本文方法具有良好的復(fù)雜背景適應(yīng)能力和抵抗光照變化能力,顯示了較強(qiáng)的工程應(yīng)用潛力。未來的實(shí)際應(yīng)用還有必要進(jìn)一步研究更為復(fù)雜的環(huán)境變化情況,如遮擋、霧天和相機(jī)抖動等的不利影響。
參考文獻(xiàn):
[1] Cho S, Spencer Jr B F. Sensor attitude correction of wireless sensor network for acceleration‐based monitoring of civil structures [J]. Computer‐Aided Civil and Infrastructure Engineering, 2015, 30(11): 859-871.
[2] Spencer Jr B F, Hoskere V, Narazaki Y. Advances in computer vision-based civil infrastructure inspection and monitoring [J]. Engineering, 2019, 5(2): 199-248.
[3] Feng D, Feng M Q. Computer vision for SHM of civil infrastructure: From dynamic response measurement to damage detection—A review[J]. Engineering Structures, 2018, 156: 105-117.
[4] Dworakowski Z, Kohut P, Gallina A, et al. Vision-based algorithms for damage detection and localization in structural health monitoring[J]. Structural Control and Health Monitoring, 2016, 23(1): 35-50.
[5] 韓建平, 張一恒, 張鴻宇. 基于計算機(jī)視覺的振動臺試驗(yàn)結(jié)構(gòu)模型位移測量[J]. 地震工程與工程振動, 2019, 39(4): 22-29.
HAN Jian-ping, ZHANG Yi-heng, ZHANG Hong-yu. Displacement measurement of shaking table test structuremodel based on computer vision [J]. Earthquake Engineering and Engineering Dynamics, 2019, 39(4): 22-29.
[6] 周 穎, 張立迅, 劉 彤, 等. 基于計算機(jī)視覺的結(jié)構(gòu)系統(tǒng)識識[J]. 土木工程學(xué)報, 2018, 51(11): 17-23.
ZHOU Ying, ZHANG Li-Xun, LIU Tong, et al. Structural system identification based on computer vision [J]. China Civil Engineering Journal, 2018, 51(11): 17-23.
[7] Yoon H, Elanwar H, Choi H, et al. Target‐free approach for vision‐based structural system identification using consumer‐grade cameras [J]. Structural Control and Health Monitoring, 2016, 23(12): 1405-1416.
[8] Feng D, Feng M Q, Ozer E, et al. A vision-based sensor for noncontact structural displacement measurement [J]. Sensors, 2015, 15(7): 16557-16575.
[9] Dong C Z, Celik O, Catbas F N, et al. A robust vision-based method for displacement measurement under adverse environmental factors using spatio-temporal context learning and Taylor approximation[J]. Sensors, 2019, 19(14): 3197.
[10] Zhang Z Y. A flexible new technique for camera calibration [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334
[11] 高 翔, 張 濤. 視覺SLAM十四講: 從理論到實(shí)踐[M]. 北京: 電子工業(yè)出版社, 2017.
GAO Xiang, ZHANG Tao. Visual SLAM Lecture 14: From Theory to Practice[M]. Beijing: Publishing House of Electronics Industry, 2017.
[12] Zhang K, Zhang L, Liu Q, et al. Fast visual tracking via dense spatio-temporal context learning [C]. Proceedings of the European Conference on Computer Vision, Zurich, 2014: 127-141.
[13] Chan S H, V? D T, Nguyen T Q. Subpixel motion estimation without interpolation [C]. Proceedings of the International Conference on Acoustics, Speech and Signal Processing, IEEE, 2010: 722-725.
[14] Khuc T. Computer vision based structural identification framework for bridge health monitoring [D]. Florida: University of Central Florida, 2016.
作者簡介: 周 洲(1996-),男,碩士研究生。電話:13060858565;E-mail:947665753@qq.com
通訊作者: 陳太聰(1977-),男,博士,副教授。電話:13903019936;E-mail:cvchentc@scut.edu.cn