睢丙東 苗林星 于國慶
關(guān)鍵詞:無人機;目標檢測;目標跟蹤
近幾年,關(guān)于無人機應(yīng)用方面的科學技術(shù)快速進步,推動了以無人機為絕對主力的“低、慢、小”航空器的迅猛快速發(fā)展,國內(nèi)的無人機“黑飛”事件也在逐漸增多。僅僅依靠政府出臺的法規(guī),依靠廣大無人機愛好者自覺自律,是無法徹底解決無人機的“黑飛”“濫飛”問題。因此,本文基于深度學習技術(shù),提出了對無人機目標檢測系統(tǒng)的研究。
1無人機目標檢測模型的選取
現(xiàn)在主流的目標檢測算法包括兩階段和單階段目標檢測算法,本文選擇具有代表性的Fast-RCNN、Faster-RCNN、SSD、YOLOvl、YOLOv2、YOLOv3算法使用VOC2007和2012公開數(shù)據(jù)集對上述算法進行了對比測試,根據(jù)試驗結(jié)果最終選擇YOLOv3作為本文的基準模型。實驗結(jié)果如表1所示。
從表1的評估結(jié)果中可以看到:檢測的精確度方面,YOLOv3的精度是最高的,達到78. 9%,比SSD和R-CNN系列都要好;同時實時性也是最好的,這樣極大地提高了系統(tǒng)的應(yīng)用價值。因此本文選用YOLOv3網(wǎng)絡(luò)模型,并在此基礎(chǔ)上做相應(yīng)的改進以達到更好的檢測效果。
2無人機目標檢測模型的改進
2.1網(wǎng)絡(luò)結(jié)構(gòu)的改進
對數(shù)據(jù)集分析后發(fā)現(xiàn)無人機具有小尺度的特殊性,針對小尺度無人機的目標檢測,原模型架構(gòu)顯得不夠出色。針對此問題,本文在YOLOv3的基礎(chǔ)上對網(wǎng)絡(luò)結(jié)構(gòu)模型改進,在原網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上增加第四個尺度。經(jīng)過模型的改進得到四個特征尺度分別為:104×104,52×52,26×26和13×13。增加第四個尺度的結(jié)構(gòu)如圖1所示:
2.2無人機預(yù)測框篩選算法改進
當生成的錨框數(shù)量較多時,同一個目標可能存在重復(fù)檢測的情況,這樣會輸出許多相似的預(yù)測邊界框。為了使最后的預(yù)測結(jié)果更簡潔,我們需要去除相似的預(yù)測邊界框,篩選出預(yù)測效果最好的框。本文采用Soft-NMS算法進行預(yù)測邊框過濾。Soft-NMS算法不會將這些框過濾而是通過函數(shù)變換,用稍低的分數(shù)替換原有分數(shù)。Soft-NMS算法如式(1)所示:
3無人機目標跟蹤
KCF算法中,以前一幀目標的位置信息作為下一幀目標跟蹤區(qū)域擴展和采樣的中心,這樣即認為下一幀目標出現(xiàn)的位置總在擴展后的區(qū)域內(nèi),但事實卻并非如此,被跟蹤目標一直處于運動的狀態(tài),所以前一幀和下一幀總存在一定的位移,這就是跟蹤誤差產(chǎn)生的原因,隨著幀數(shù)的增多,誤差也會一點點增大,最終會跟丟目標,因而本文采用了基于運動預(yù)測的跟蹤算法。檢測示意圖如圖2所示。
首先預(yù)測運動的方向:將當前幀和前一幀的位置進行連線,根據(jù)連線的方向和運動趨勢預(yù)測下一幀目標的運動方向,通過計算得到預(yù)測的位置。
4仿真實驗和結(jié)果分析
4.1實驗環(huán)境
從硬件和軟件兩個方面列舉說明本文的實驗環(huán)境,具體如表2和表3所示,其他依賴函數(shù)庫省略不列舉。
4.2實驗數(shù)據(jù)集處理
無人機目標檢測的樣本是包含目標位置和類別信息的圖像集。樣本收集后通過圖像增強等方法使照片數(shù)量達到約9700張,采用手動人工標注的方式,使用Labellmg工具按照PASCAL VOC數(shù)據(jù)集的標簽格式(.xml)對預(yù)處理后的照片進行手動標記,并設(shè)置標簽為“uav”。
4.3評價指標
為了更好地對算法的性能進行評估,本文選用目前常用的目標檢測評價標準分別是:平均精度均值(mAP),召回率(Recall)和檢測速度。而精度均值是測試集中每一類別檢測準確率(Precision)的平均值。
公式(2)中:TP為被模型正確預(yù)測出的樣本數(shù),F(xiàn)P為被模型錯誤預(yù)測出的樣本數(shù),TP+FP為總的樣本數(shù)。AP的計算公式如式(3)所示。
公式(3)中:∑Precision,為所有樣本檢測某一類別準確率的總和,N為所有包含該類別的總樣本數(shù)。而mAP是對所有類別的AP取平均值。則mAP的計算公式如式(4)所示:
4.4實驗結(jié)果分析
樣本收集后通過圖像增強等方法處理后獲得的無人機照片約9700張,本文按照無人機標注框的大小從整體數(shù)據(jù)集中劃分出小目標、中目標兩個部分的子數(shù)據(jù)集用于對改進后的模型進行檢測。小目標和中目標的照片分別如圖3中(a)(b)所示。
改進后的模型在整體數(shù)據(jù)集以及各子數(shù)據(jù)集上的AP如表3所示。
由表3可以看出,在原YOLOv3的基礎(chǔ)上對網(wǎng)絡(luò)模型和預(yù)測框篩選設(shè)計算法進行改進后,在整體無人機數(shù)據(jù)集上的AP提升了1.54%,達到了較好的實驗效果。本文在原結(jié)構(gòu)基礎(chǔ)上增加了第四個尺度用于對小目標進行檢測,改進后的模型在小目標和中目標數(shù)據(jù)集上的AP分別提升了1. 96%和2.21%,試驗結(jié)果表明改進后模型在無人機檢測性能上得到很大提升。圖4為改進后KCF跟蹤效果與原KCF跟蹤效果的對比圖。圖4(a)和圖4(b)表明由于運動目標比較小且運動速度過快,導致KCF算法沒有實現(xiàn)有效跟蹤,出現(xiàn)了位置偏差,而圖4(c)和(d)所示,在同樣的情況下改進后的算法實現(xiàn)了對目標的有效跟蹤,跟蹤效果不錯。
結(jié)語
本文介紹了無人機目標檢測系統(tǒng),在原YOLOv3的基礎(chǔ)上對網(wǎng)絡(luò)結(jié)構(gòu)和預(yù)測框篩選算法兩方面進行了改進,增加了用于小目標檢測的第四個尺度,預(yù)測框篩選算法采用Soft-NMS代替了原來的NMS算法;采用KCF跟蹤算法對識別后無人機進行跟蹤。試驗結(jié)果表明改進后的模型在無人機的識別檢測性能上得到了較大提高。同時,改進后的KCF跟蹤算法可以對目標進行有效跟蹤,完成了跟蹤任務(wù)。
作者簡介:睢丙東(1963— ),男,教授,研究方向:智能儀器儀表、計算機測控。
*通訊作者:苗林星(1990— ),女,碩士,研究方向:圖像處理、無人機識別;于國慶(1969— ),男,副教授,碩士研究生導師,研究方向:計算機測控、電子信息技術(shù)應(yīng)用。