陳 靜,宮黎明
機器視覺在軍事領域的應用現狀及發(fā)展趨勢
陳 靜,宮黎明
(中國人民解放軍93160部隊 北京 100076)
機器視覺技術憑借其非接觸測量、實時性好、可持續(xù)工作等優(yōu)點,在軍事領域中有著廣闊的應用前景。在對機器視覺光學照明系統(tǒng)、成像系統(tǒng)、視覺信息處理系統(tǒng)等關鍵技術進行概述的基礎上,詳細分析了機器視覺技術在軍事領域進行典型目標物識別、人員識別、裝備缺陷檢測等典型場景以及典型軍事裝備上的應用現狀。在此基礎上,指出了機器視覺在軍事領域的應用,仍然存在視覺傳感器硬件系統(tǒng)難以適應極端環(huán)境、復雜的軍事目標適應性不足、目標識別的實時性難以保證、多傳感器融合獲取軍事目標信息能力缺乏等問題。同時,對機器視覺技術在軍事領域應用的未來發(fā)展趨勢進行了展望,研究分析結果可為機器視覺在軍事領域的進一步實用化提供參考。
機器視覺;軍事裝備;目標識別;缺陷檢測
機器視覺是建立在計算機視覺理論工程化基礎上的一門學科,主要利用計算機來模擬人或再現與人類視覺有關的某些智能行為,從客觀事物的圖像中提取信息進行處理并加以理解,從而高效精準地完成復雜環(huán)境辨識與判斷等相關任務[1]。機器視覺涉及到光學成像、視覺信息處理、人工智能、機電一體化等相關技術[2],具有高實時性、準確性及智能化的特點,在生產生活中有著廣闊的應用前景[3]。近年來,機器視覺已逐步在汽車制造、食品檢測、交通、軍事、紡織加工等多個領域得到應用,市場規(guī)模不斷擴大[4]。
《中國工程技術2035發(fā)展戰(zhàn)略》中明確指出了發(fā)展包含圖像信息在內的智能傳感及互聯(lián)互通網絡的重要性[5],鼓勵相關技術基礎理論的突破并與工程實際進行有機融合。特別是伴隨著軍事信息化時代的到來,《中華人民共和國國民經濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標綱要》中明確提出,“堅持以機械化為基礎、信息化為主導、智能化為方向,推動機械化信息化智能化融合發(fā)展,在推進智能化進程中發(fā)展高度發(fā)達的機械化和更高水平的信息化,引領國防和軍隊現代化轉型升級”。為此,將先進的工程技術應用于軍事裝備,大力提升其智能化水平,對于提升作戰(zhàn)能力具有重要意義。其中,機器視覺技術作為信息化的重要技術手段之一,對于提升武器裝備的打擊精度、拓展裝備適用范圍、提高部隊作戰(zhàn)能力具有重要意義[6, 7]。
從20世紀70年代開始,國外科研人員便開始探索模式識別與圖像處理技術在軍事領域的應用[8]。隨著視覺傳感器硬件系統(tǒng)的不斷更新及相關算法不斷取得突破,機器視覺技術在武器裝備及戰(zhàn)場環(huán)境中的應用效果不斷凸顯,應用范圍不斷擴大。我國從上個世紀末也開展了軍事領域機器視覺相關技術的研究,在復雜環(huán)境下的目標物及人員識別、裝備缺陷檢測等方面取得了一系列的研究成果,提升了部隊在戰(zhàn)場上的感知與決策能力。特別是近年來,隨著計算機科學、控制科學、儀器科學等學科的飛速發(fā)展與多學科交叉融合的不斷深入,機器視覺相關技術發(fā)展迅猛,我軍的作戰(zhàn)水平得到快速提升。
本文圍繞機器視覺技術特點以及在軍事領域不同方向的應用,對相關研究成果進行了綜述,并提出了機器視覺在軍事領域應用過程中所存在的突出問題。在此基礎上,對未來發(fā)展趨勢進行了分析。分析成果可為基于機器視覺的軍事裝備的發(fā)展及作戰(zhàn)指揮提供一定的參考。
機器視覺技術是用電子設備模仿人的視覺功能,從環(huán)境的圖像中提取信息并進行處理。機器視覺技術主要包括目標取像、分析數據、輸出結果這三部分,該過程往往需要多個機器視覺系統(tǒng)協(xié)作完成。一般來說,機器視覺系統(tǒng)由光學照明系統(tǒng)、成像系統(tǒng)、視覺信息處理系統(tǒng)等組成[9]。
光學照明系統(tǒng)將特定光源以特定方式照射到被測物體,以在取像時突出被測目標的特定特征并抑制非必要特征。正確運用光學照明系統(tǒng)能夠更好地將目標與背景分離,以降低圖像的分析難度。最常見的照明方式為日光照明,例如,長春理工大學呂家祺[10]提出了一種基于混合式聚光方法的日光照明系統(tǒng),該系統(tǒng)采用雙拋物面聚光模塊和無漏光導光板實現聚光,并建立了相應的數學模型,從而為建筑提供更均勻的輻照度。然而,日光照明系統(tǒng)并不適用夜晚等日光不足的場景,常常需要增加輔助照明方式。部分學者以發(fā)光二極管LED為基礎建立了照明系統(tǒng)。與日光相比,LED具有耗能少、體積小、壽命長等優(yōu)點,但其仍然存在照明不均等問題。為此,黃從高[11]提出了一種基于多級配光組合的窄光束均勻照明系統(tǒng)。該系統(tǒng)首先依據光學原理設計出用于初級聚光的復合拋物面聚光器,在此基礎上,采用菲涅爾透鏡控制LED等光的溢散,而后通過非透鏡實現光線的均勻輸出。周壹義[12]通過在光源點與目標平面之間建立能量對應關系,設計了自由曲面透鏡和反射器,實現了平面光照的均勻分布,如圖1所示。在軍事領域中,將LED燈作為光源容易暴露自身,為此,許多學者針對隱蔽性更高的紅外線照明系統(tǒng)進行了研究。張建忠[13]研究了數字微鏡器件DMD(Digtial Micromirror Devices)對紅外光的調制特性,依據衍射原理計算出不同波段下光束經調制后的光強分布,從而設計了相應的照明系統(tǒng),并抑制了雜光,最終能夠完美地將DMD的工作波段從可見光延伸到紅外波段,實現對目標的照明。針對飛機探測等遠距離照明要求,孫盈[14]利用Dammann光柵分束器與開普勒望遠鏡相結合的方式構建了照明光學系統(tǒng),該光學照明系統(tǒng)可實現對8 m~60 m距離內的目標進行照明,并形成相應的圖像。此外,許多學者對光源的顏色展開了研究,例如在文獻[15]中,李俊采用藍色光能夠較好地分辨出紅色瓶蓋與白色字,便于后續(xù)的文字識別。VRIESENGA等[16]通過改變光源的顏色來提高圖像的對比度,如圖2所示。雖然光學照明系統(tǒng)已經有了許多研究,然而在軍事應用時的環(huán)境是復雜多變的,現有的光學照明系統(tǒng)通用性較差,需要根據不同的背景、目標等選擇不同的照明強度、顏色、照射方案等以達到目標和背景的最佳分割效果。為此,需要提出新型照明方式,并具有更好的通用性。
圖1 實現照度均勻的透鏡設計示意圖
成像系統(tǒng)是機器視覺技術中“視”的部分,包括鏡頭、工業(yè)相機、圖像采集卡等相關設備。
鏡頭相當于眼睛中的晶狀體,其作用是將目標的光圖像匯聚于光敏陣上。按照等效焦距可將鏡頭分為廣角鏡頭、中焦距鏡頭、長焦距鏡頭;按功能可將鏡頭分為變焦距鏡頭、定焦距鏡頭、定光圈鏡頭等。在選擇鏡頭時,需要考慮焦距、工作距離、畸變[17]等因素,選取合適的焦距能夠獲得真實反映目標物體大小形狀的圖片。同時,選擇鏡頭時需要考慮鏡頭光敏面陣可接受的光源波長,以保證鏡頭對光線具有很好的透過性。
圖2 改變光源顏色提高圖像對比度
工業(yè)相機是一個光電轉換器件,它將所接收到的光輻射轉變?yōu)橐曨l/數字電信號。光電轉換器件包括光電轉換、外圍電路、圖像輸出接口等部分。按照相機內傳感器的不同,相機可分為面陣式與線陣式兩類。面陣相機能一次性獲得目標和背景的整幅圖像,應用面較廣,經常應用于目標的面積、形狀和尺寸等測量。線陣相機呈線性獲取目標圖像,長度很長,但寬度卻只有幾個像素,能夠使高掃描頻率和高分辨率成為可能。面陣相機主要應用于工業(yè)、醫(yī)療等領域,最典型的應用是檢測連續(xù)材料的缺陷。因此,在選擇工業(yè)相機時需要考慮光電轉換模塊以及響應速度等因素。
圖像采集卡能夠將采集的圖片轉化為數字信息進行存儲,通過與相機協(xié)作實時完成圖像數據的高速采集與讀取等任務,針對不同的相機,圖像采集卡的選擇也不盡相同。
視覺信息處理系統(tǒng)是機器視覺系統(tǒng)的關鍵部分。在獲得目標圖像后,通過對圖像進行處理、分析和識別,從而實現對特定目標的準確辨識。視覺信息處理系統(tǒng)可以分為圖像預處理和特征分析理解兩部分。
圖像預處理包括圖像增強、平滑、分割、去噪、配接等過程,主要用于提高圖像質量,便于后續(xù)圖像處理。由于各種干擾,初步獲取的圖像常常含有高斯、泊松等多種噪聲,存在圖像模糊等現象,因此需要對圖像去噪來改善圖像質量。常用的去噪方法一般可分為空間域去噪法與變換域去噪法[18]。
圖像特征分析常常先對圖像進行分割,然后從分割的圖像中提取形狀等關鍵特征[19, 20],最后引入模式匹配[21]、深度學習[22]等方法實現目標的分類與檢測。圖像分割具體指:根據目標的特性將圖像劃分為多個具有特征的區(qū)域,從而便于確定目標的位置以及所占區(qū)域的大小,常見的圖像分割方法包括閾值分割方法[23]、區(qū)域分割方法[24]、基于邊緣的分割方法[25]、基于神經網絡的語義分割方法[26]等。在圖像分割后,對圖像進行特征提取,常用的圖像特征有:形狀特征、紋理特征、顏色特征等。在提取完特征,引入分類算法,如圖3所示的支持向量機分類算法,通過模式匹配[27]、深度學習等方法對特征進行分類,從而完成圖像的處理與識別。
圖3 基于支持向量機的視覺分類算法
將深度學習算法引用到視覺處理中以增加識別速度與識別準確率是現階段研究的熱點。例如,大連科技學院秦放等[28]針對特種車輛的識別問題,基于深度學習算法建立了多模態(tài)融合圖像識別方法。該方法基于Inception V3深度網絡結構(如圖4所示)建立了多模態(tài)識別框架,經過實驗,特種車輛的識別準確度提高到了97%,可應用于特種車輛緊急避讓等。蘭州財經大學邊柯登[29]基于深度卷積神經網絡建立了玉米常見病害圖像識別算法,網絡結構如圖5所示。該算法對數據量要求較小、識別率高且能夠適應復雜環(huán)境下的任務,能夠識別出玉米大斑病、玉米銹病和玉米褐斑病這三種玉米常見病害,以減少玉米病害可能性。上述方法均具有較好的可移植性,具有進一步應用于軍事領域的可能性。
圖4 Inception V3網絡結構
圖5 基于深度學習卷積神經網絡結構
2.1.1 典型目標物的識別
機器視覺技術能夠應用于海面可疑艦船、飛機跑道等特定軍事目標的識別,對保障航空航海等方面的安全有著重要的意義。
部分學者基于機器視覺技術建立了海面船只檢測系統(tǒng)[30, 31],該系統(tǒng)能夠依據各船只的特征進行識別,跟蹤航行艦船并獲取航行信息,輔助海軍維護海上秩序,極大提高國土安全。在海面上,傳統(tǒng)光學遙感圖像檢測海面船艦目標容易受海島、云霧、海浪等復雜背景的干擾,從而導致檢測失敗。針對此問題,國防科技大學趙浩光等[32]基于多尺度視覺顯著性圖提出了一種適用于復雜背景的艦船目標檢測方法,原理圖如圖6所示。該算法針對目標尺度多變的問題,提出新的方案分離目標和背景像素點,有效解決了復雜背景對船只檢測的影響,經試驗,檢測成功率達到93%。
圖6 基于多尺度視覺顯著性圖的艦船目標檢測方法
飛機軌道的定位也是機器視覺技術的主要應用領域,通過對各類跑道的準確辨識,可以輔助飛機更加精準地完成飛行任務。例如,中國民航大學智能信號與圖像處理重點實驗室韓萍等[33],針對現有跑道檢測方法算法復雜、難以進行實時檢測的問題,提出了一種基于機器視覺技術與局部二值模式特征分類算法的跑道實時檢測方法。該方法利用傳感器數據和地形數據生成跑道特征,并實時進行圖像采集,通過將采集到的圖像與模板進行匹配,從而完成跑道區(qū)域的檢測。檢測過程如圖7所示,該方法匹配精度高、實時性好,較現有跑道檢測方法能夠節(jié)省87.7%的時間。在飛機著陸時,常常會遇到雷達等傳感設備失靈的問題導致著陸失敗。針對此問題,卡塞薩特大學Senpheng等[34]提出一種基于計算機視覺的固定翼無人機(UAV)自動著陸輔助系統(tǒng),該系統(tǒng)結合現有的軌道檢測算法,實現了無人機的探測以及軌道的實時定位。海軍裝備部的劉佳銘[35]提出一種基于機械視覺技術的艦載機空間定位方案,該方法能夠使航母艦載機在起飛前實時準確地獲得其在甲板上的空間位置,對提升艦載機的出動率與成功率有重要意義。此外,空軍工程大學Wang等[36]將機器視覺技術應用于空中加油任務中,提出了一種基于單目視覺檢測的自定位方法,解決了兩架飛機間難以快速、準確地對準空中加油口的問題,通過該方法能夠準確、安全地對油孔進行檢測以及3D定位。此外,部分學者將機器識別技術應用于戰(zhàn)場中偽裝目標[37]、動態(tài)目標[38]的識別,并取得了一定的研究成果。
圖7 飛機跑道檢測過程
2.1.2 人員的識別
利用機器視覺了解并獲取軍事區(qū)域重要人員的信息,不僅能夠全面、實時地掌握相關區(qū)域人員的活動情況,還能夠減少軍事活動中人員的任務參與度,對國家安全、我軍士兵生命安全有著重要意義。
拉夫堡大學Irhebhude等[39]提出了一種基于機器視覺的對陸軍、海軍和空軍人員的自動識別和分類系統(tǒng)。該系統(tǒng)首先通過支持向量機對不同兵種的制服、帽子和徽章的特征進行分類并集成到一個系統(tǒng)中,然后通過視覺識別技術機對陸軍、海軍和空軍進行識別。該系統(tǒng)能夠正確區(qū)分敵我身份,可用于加強軍事基地或設施的安全。查羅塔爾科技大學Patoliya等[40]在一款間諜機器人上增加了視覺系統(tǒng),能夠實現對戰(zhàn)區(qū)或邊境地區(qū)人類活動的檢測,同時能夠在軍事武裝介入戰(zhàn)區(qū)之前了解該區(qū)域的情況,從而保證人員的安全。SRM大學Sathishkumar等[41]同樣研制了一款帶有視覺功能的間諜機器人,該機器人能夠代替士兵在復雜環(huán)境中監(jiān)測和識別人員信息,同時配有紅外照明,能夠在完全黑暗的情況下進行偵察,對打擊不法分子、維護國家安全具有重要意義。此外,許多專家學者都對不同工況下的人員識別方法展開了研究,取得了一定的研究成果[42-45]。綜上所述,機器視覺對不同人員的識別在國防安全應用中發(fā)揮出至關重要的作用。
2.1.3 裝備缺陷的檢測
通過機器視覺技術對各類軍事裝備進行缺陷檢測,能夠大幅度降低人工檢測時的主觀性差異,更加準確、可靠、客觀地檢測槍械、彈藥、裝備等是否存在缺陷,不僅能夠提高檢測精度、提高生產效率和自動化程度,同時能夠應用于人工視覺難以完成檢測任務的場景,對提升武器裝備安全性能有著重要意義。
在對槍械、彈藥等武器裝備進行檢測時,人工檢測的方式存在工作量大、檢測效率低、主觀性差異大等問題,而采用機器視覺技術可以高效地進行精確檢測。例如,長春理工大學劉立欣等[46]基于零交叉算子和邊緣檢測方法對槍械內膛疵病圖像進行檢測,具有邊緣定位準確、運算速度快的優(yōu)點,有利于圖像的分析和處理,在實際應用中展示出了良好效果。王百榮等[47]將視覺識別技術應用于炮彈檢測中,設計了一種基于X射線的無損炮彈檢測識別系統(tǒng),并通過實物驗證了方法的有效性。解放軍軍械工程學院史進偉等[48]建立了基于機器視覺與BP神經網絡的炮彈外觀缺陷檢測系統(tǒng),系統(tǒng)檢測流程如圖8所示,該系統(tǒng)自動對槍彈外觀進行取像、分割,并最終對外觀有缺陷的槍彈進行識別與分類,經過實物驗證正確識別率達91.7%,表現出較好的準確性和魯棒性。此外,其他學者也基于機器視覺技術對不同彈藥的檢測展開了研究[49,50],如圖9所示為基于缺陷識別算法的一種彈芯的檢測過程。除了武器裝備外,機器視覺技術還應用到了由于頻繁使用而易于疲勞的裝備檢測當中。例如,上海民航職業(yè)技術學院邵欣桐等[51]提出了一種基于機器視覺的智能輪胎快速檢查的方法,該方法將機器視覺引入到飛機輪胎檢查的工作中,針對飛機輪胎出現的胎面異常擦傷、胎面點狀磨皮、胎面扎傷、胎面污染腐蝕均有較好的效果,解決了傳統(tǒng)人工方式進行飛機輪胎檢查遇到的經驗不足、光線較差、檢查位置過于隱蔽、機輪損傷不易發(fā)現等缺點。
圖8 基于BP神經網絡的炮彈外觀檢測原理圖
圖9 基于缺陷識別算法的彈芯檢測原理圖
2.2.1 陸地裝備中的應用
在陸軍裝備中,機器視覺主要用在火炮、導彈及無人車輛等裝備中。機器視覺能夠提高火炮、導彈的精度,提高無人車輛的自動化及智能化程度,因此具有廣闊的應用前景。海軍工程大學Li等[52]將機器視覺引入到火炮的瞄準過程中,通過對目標的識別和定位,有效提高了炮兵系統(tǒng)校準目標時的效率。在導彈方面,針對因GPS等衛(wèi)星信號出現干擾而導致導彈定位失效的問題,海軍航空工程學院寇昆湖等[53]通過將視覺識別技術引入到飛航導彈中,實現了定位誤差的快速實時修正,使飛航導彈在無衛(wèi)星導航下能夠進行精確打擊。導航巡航模型如圖10所示,該模型通過放置于導彈前端的視覺設備實時觀測導彈相對于被測地表的位置和姿態(tài),從而進行誤差的快速修正。同時,因為其具有方法原理簡單、所需裝置較少、易于工程實現的優(yōu)點,能夠顯著提升高速運動下飛航導彈的性能。在無人車輛領域,美國陸軍研究了機器視覺技術在機器人和無人駕駛車輛中的使用,并提出在未來會開發(fā)配備有機器視覺的美國陸軍未來裝甲系統(tǒng)[54]。與此同時,美國國防高級研究計劃署開發(fā)了配有智能攝像頭的無人駕駛車輛,使其能夠在戰(zhàn)場環(huán)境進行信息的獲取,從而提高無人駕駛車輛獲取信息的能力[55]。
圖10 基于前置攝像頭的導彈巡航模型
2.2.2 空中裝備中的應用
在空中裝備中,機器視覺主要應用在飛行員頭盔、無人機等裝備中。在飛行員頭盔方面,瑞典國防研究局Stephen等[56]將機器視覺技術與飛行員的頭盔結合起來,極大地擴展了飛行員的視野,并且在快速飛行中能夠輔助飛行員完成瞄準等任務,從而保證空中作戰(zhàn)的優(yōu)勢,掌握作戰(zhàn)主動權。Deng等[57]將機器視覺引入到飛機靠泊中,在飛機停泊過程中實時對位置進行修正,保證了停靠的準確性,極大的提高了飛機停泊的效率及準確性。對于無人飛行器,機器視覺技術的應用能夠極大地減輕人員操作負擔,輕松完成戰(zhàn)區(qū)偵察任務??紤]到飛行器在著陸時,由于缺乏關于著陸場信息及可能受到外部大氣擾動作用而導致的飛行器極易著陸失敗的問題,部分學者[58, 59]將機器視覺技術應用到無人飛行器上,使其能夠在強風等復雜環(huán)境下安全、精確地著陸。因此,機器視覺技術能夠提升飛行員及飛行裝備的作戰(zhàn)能力,對于提升空軍戰(zhàn)斗力有著重要意義。
2.2.3 水下裝備中的應用
將機器視覺技術應用于水下裝備,可提升水下裝備在完成水下水雷排除、有毒廢除處理等任務時的自主能力,能夠在人員投入較少的情況下高質量地完成高相關任務。
在水下裝備方面,機器視覺主要應用在水下排雷機器人、水下檢測裝備和水下無人推進器中。由于受水中能見度、阻力等因素的影響,工作人員難以分別水雷的種類,此時就需要帶有視覺的水下機器人進行作業(yè)。為此,中國科學院沈陽自動化研究所苗錫奎等[60]將視覺技術應用到水下排雷機器人中,使其能夠高效準確地識別出水雷的種類,從而完成排雷工作。在水下無人推進器方面,通過引入視覺識別技術,能夠顯著提高水下機器人的定位精度和在復雜環(huán)境下的定位能力[61]。在水下檢測裝備方面,利用視覺技術代替人工識別的方式進行水下定位與檢測,能夠擴寬獲取信息的寬度和廣度,保證信息的實時性[62,63]。例如,Kakani等[64]通過將機器視覺引入水下探索裝備,實現對海洋生物的實時跟蹤,完成對海洋的探索。
盡管機器視覺相關技術取得巨大的進展,但目前的應用主要集中在交通、農業(yè)、工業(yè)等領域。由于軍事領域常見的應用環(huán)境復雜多變,對各類算法的實時性要求較高,機器人視覺在軍事領域的大規(guī)模工程應用還相對較少,機器視覺的應用仍然存在以下問題。
機器視覺的應用效果高度依賴于視覺傳感器的硬件性能?,F有視覺傳感器種類繁多,但大多為通用型傳感器,傳感器的性能面向工業(yè)、農業(yè)等場合,具有應用范圍廣、適用性強等特點。然而,對于軍事場合而言,野外環(huán)境包含高溫熱帶環(huán)境、高海拔高原環(huán)境、極低溫嚴寒環(huán)境等極端環(huán)境,這就要求視覺傳感器能夠在上述環(huán)境下進行正常作業(yè)。而現有傳感器難以滿足極限環(huán)境下的作業(yè)要求。例如,視覺傳感器(FUWEI,FV-SJ2016PM-12S-WBN)工作溫度為0~50 ℃,濕度為20%~95%RH,那么其在嚴寒環(huán)境或極端干燥的沙漠環(huán)境下則難以正常應用。為此,亟需研發(fā)能夠適應極端環(huán)境的視覺傳感器,使其能夠滿足軍事應用需求。
此外,針對不同的應用目標,還應研發(fā)不同類型的系列化視覺傳感器。例如,在某些戰(zhàn)場環(huán)境下,對于視覺傳感器的精度并沒有過高要求,但對于運行的可靠性、抗干擾能力有很高的要求;在某些情況下,對于分辨率或幀率有更高的要求;而有些戰(zhàn)場環(huán)境視野開闊、縱深較大,對于視覺傳感器的要求又有不同?,F有視覺傳感器的技術開發(fā)大多集中在有效像素或最大分辨率的提升,缺乏針對軍事領域的系列化產品。
軍事領域應用場景復雜多變,這對于視覺識別的準確性提出了更高的要求。一方面,在戰(zhàn)場環(huán)境中,視覺傳感器的視野內大多同時存在不同的人或物而非單一對象,且可能存在因遮擋導致的視野受阻或因煙塵而導致的視野受限等問題,這都不利于機器視覺的大范圍應用;另一方面,視野內可能存在多個人或物處于高速運動情況下,在較短時間內準確捕捉目標物的典型特性并進行準確分析較為復雜,這就使得通過機器視覺實現環(huán)境識別的難度較大。
隨著科技的發(fā)展,雖然GloogLeNet深度網絡結構、ResNet殘差網絡、DenseNet前饋網絡模型等智能算法已經應用于機器視覺當中,并在不斷提高復雜環(huán)境下的視覺識別的準確性,但是現有智能識別算法主要集中在日常生活領域,例如人臉識別、商標檢測等,其往往需要大規(guī)模的數據樣本進行學習,才能夠獲得較好的識別效果。然而,軍事目標環(huán)境的樣本往往很少,且不具有通用性。因此,如何根據常規(guī)目標的少量樣本圖像進行學習,從而使算法具有泛化能力和穩(wěn)健性,在復雜的軍事目標環(huán)境下完成多個目標的識別,是有待解決的問題。
此外,機器視覺需要依靠照明系統(tǒng)、成像系統(tǒng)獲取圖像信息。然而,目前沒有普適的機器視覺照明方案,往往需要針對具體的應用環(huán)境對照明方案進行調整。對于軍事環(huán)境而言,往往存在光線昏暗甚至是夜間的作業(yè)場景,但由于使用需求不便于設置照明設置,或由于環(huán)境受限無法給足充分的照明,這就使得機器視覺所采集的圖像效果大打折扣,無法準確地對圖像信息進行判斷。另一方面,跨介質的視覺處理也是機器視覺在軍事領域應用的一大難點。在某些情況下,戰(zhàn)場環(huán)境不是單一介質,可能存在多種不同的介質,如何在不同介質間實現圖像的準確提取與判斷也是需要考慮的問題。例如,某些情況下,需要從水中對陸地的場景進行識別與判斷,但跨介質很容易導致判斷失真或失效。為此,需要對相關問題進行深入研究。
戰(zhàn)場信息瞬息萬變,軍事活動中要動態(tài)、實時、全面地掌握軍事目標的信息,這就對圖像處理的實時性提出了很高的要求。一方面,為了針對動態(tài)環(huán)境提高環(huán)境識別的準確性,需要快速高效地對大量的圖像和視頻進行有效處理,及時提取有效信息,實時地掌握軍事目標的動態(tài)信息,因此要求視覺處理算法必須具有較快的計算速度,否則會導致系統(tǒng)明顯的時滯,難以提高實時掌握動態(tài)信息。另一方面,機器視覺處理算法應具有很強的抗干擾能力,即在戰(zhàn)場環(huán)境中存在干擾信號的情況下,也能夠保證快速對圖像進行準確處理,使得圖像處理的結果準確和不失真,并將結果反饋給指揮系統(tǒng)。
此外,對于基于機器視覺的武器裝備無損檢測等應用場合,雖然對于實時性的要求低于戰(zhàn)場環(huán)境的要求,但由于部分武器裝備數量及種類繁多,檢測速度仍然難以滿足工業(yè)化生產線上及檢修過程中對于損傷高效檢測的需求,基于機器視覺的無損檢測方法的檢測效率仍然有待于提高。
在戰(zhàn)場復雜環(huán)境下,單一視覺傳感器的視野范圍與成像模式無法適應復雜多變的場景。為獲取更加可靠、準確的數據結果,需要通過融合多個視覺傳感器來解決單一視覺傳感器采集數據結果受限的問題。與單傳感器相比,多傳感器融合在監(jiān)測、跟蹤和識別目標方面能夠提高系統(tǒng)的可靠性,增強數據的可信度,同時提高數據的精度。然而,多個視覺傳感器所采集的信息在融合過程中存在數據量大、冗余信息多、特征空間維度高等問題,數據的處理難度大幅增大。然而,現有多視覺傳感器的信息融合算法仍然有待進一步提高,針對復雜場景下的多信息處理速度還需加強。
此外,除了多個視覺傳感器進行信息的高效融合外,還需要考慮不同類型傳感器的融合。例如,對于排雷排爆機器人,其除了安裝視覺傳感器外,可能還安裝有激光測距儀、加速度傳感器等不同類型的傳感器,機器人對于路徑的規(guī)劃需要基于多個不同類型的傳感器進行綜合判斷分析。然而,現有對多信息的高效融合與精準決策技術還有待于進一步突破,導致機器人難以在復雜環(huán)境下自主進行精準決策。
針對高溫、高寒等極端戰(zhàn)場作戰(zhàn)環(huán)境,應突破具有極端環(huán)境適應性的材料研發(fā)、具有高穩(wěn)定性的結構設計、具有高可靠性的微小型零件高精密加工工藝等關鍵技術,防止在極端條件下因材料性能發(fā)生變化、傳感器精密結構失穩(wěn)或感知器件受損而導致視覺傳感器功能失效。同時,對視覺傳感器硬件系統(tǒng)極端環(huán)境下不確定因素下的可靠性、疲勞特性、使用壽命等性能進行建模分析,通過優(yōu)化改進不斷提高影響系統(tǒng)的綜合性能。為降低成本,針對軍事領域的視覺傳感器硬件系統(tǒng)應在性能上各有側重,除了對于高溫、嚴寒、存在腐蝕性氣體或液體等不同環(huán)境具有差異化的硬件系統(tǒng)外,在功能方面也應具有不同的針對性。例如,對于野外背景單一但嚴寒的高原環(huán)境,視覺傳感器硬件系統(tǒng)對于復雜環(huán)境的辨識能力要求低于對于極端環(huán)境的可靠性要求。通過上述研究,最終形成系列化產品。
此外,機器視覺系統(tǒng)將向小型化、高穩(wěn)定性、高集成度的嵌入式機器視覺系統(tǒng)方向發(fā)展。隨著嵌入式微處理器功能增強以及存儲器集成度增加,小型化、集成化產品是機器視覺技術發(fā)展的重要方向,嵌入式的機器視覺系統(tǒng)可以植入到任何地方,能夠更隱蔽和高效地獲取軍事目標信息。將嵌入式系統(tǒng)與機器視覺結合,能夠突破機器視覺系統(tǒng)體積對于應用的限制,進一步拓展機器視覺技術在軍事領域的應用。
基于面向軍事領域的不同類型的視覺傳感器硬件系統(tǒng),進一步對視覺處理算法進行研究,利用機器學習、人工智能等算法,突破背景復雜環(huán)境下的特征精確辨識與提取、動態(tài)高速目標及光線不足條件下的特征分析等關鍵技術,使得機器視覺能夠在野外復雜環(huán)境下實現對圖像信息的捕捉與提取,滿足機器視覺技術在各類不同場景下對人或物的信息提取。
此外,機器視覺的軍事應用正向著立體成像方向發(fā)展。二維機器視覺系統(tǒng)將客觀存在的立體成像技術空間壓縮至二維空間,其性能容易受到環(huán)境光、目標偽裝等因素的干擾,無法滿足獲取軍事目標信息的需求。目前的立體成像技術視覺軍事應用主要集中于模擬訓練領域,隨著立體成像技術和傳感器技術的成熟,從戰(zhàn)場可視化、三維戰(zhàn)術地圖、目標立體識別、三維重構到立體成像打印,三維技術在軍事的各領域都有廣闊的應用空間,立體成像技術的軍事應用將更加豐富,范圍更加廣泛。
同時,機器視覺技術正向著圖像高速處理的方向發(fā)展。軍事領域的特殊性意味著對機器視覺技術有著更高的要求,對于作戰(zhàn)領域,其環(huán)境復雜多變。針對軍用視覺系統(tǒng)分析數據量大、實時性要求高的需求,將不斷通過改進處理算法、提升硬件水平,開發(fā)高效的機器視覺系統(tǒng),使其分析和處理速度滿足軍事行動的需求。
在軍事活動中,常常需要配有視覺識別技術的裝備在高溫、高壓、嚴寒、多遮蔽物、多干擾物、濃霧、黑暗等的復雜乃至極端環(huán)境下進行工作,為此需要進一步突破多傳感器融合技術,消除單一傳感獲取數據不準確的問題,從而獲得更加準確、更加智能的結果。同時,針對不同環(huán)境特點、不同目標建立新的多信息融合與解耦方法,解決采集信息之間互相耦合、數據海量以及信息之間相互影響而限制感知能力和精度等問題,從而高效準確地獲取目標圖像,滿足機器視覺技術在各類不同場景下對人或物的信息提取。
此外,軍事裝備需要配有機器視覺技術的決策系統(tǒng)。軍事領域的有用訊息往往稍縱即逝,針對軍用裝備對安全性、實時性等特殊要求,將不斷開發(fā)、改進與裝備及視覺系統(tǒng)匹配的決策算法,使其能夠在初期進行初步判斷,以保證任務的順利完成。
隨著科技的發(fā)展,機器視覺技術已經在軍事領域得到了廣泛的應用,在火炮的輔助瞄準、可疑人員識別、自動化無人裝備的環(huán)境監(jiān)測等領域表現出了良好的應用效果。該技術能夠不斷提升武器裝備的作戰(zhàn)能力與智能化水平,同時減少人員投入、提高作戰(zhàn)效率。在未來,機器視覺技術將進一步向著具有耐高溫、抗嚴寒、耐腐蝕的視覺傳感器硬件系統(tǒng)發(fā)展,在雜亂、動態(tài)及光線不足環(huán)境下實現視覺圖像高實時性的精準獲取,并朝著在復雜環(huán)境下多傳感器信息高效融合與精準決策的方向發(fā)展,在提升軍隊戰(zhàn)斗力、維護國家安全方面起到越來越重要的作用。
[1] 張五一, 趙強松, 王東云. 機器視覺的現狀及發(fā)展趨勢[J]. 中原工學院學報, 2008, 19(1): 9–12, 15.
ZHANG Wuyi, ZHAO Qiangsong, WANG Dongyun. Current situation and development trend of machine vision[J]. Journal of Zhongyuan Institute of Technology, 2008, 19(1): 9–12, 15.
[2] 宋春華, 彭泫知. 機器視覺研究與發(fā)展綜述[J]. 裝備制造技術, 2019, (6): 213–216.
SONG Chunhua, PENG Xuanzhi. Review of machine vision research and development[J]. Equipment Manufacturing Technology, 2019, (6): 213–216.
[3] 尹仕斌, 任永杰, 劉濤, 等. 機器視覺技術在現代汽車制造中的應用綜述[J]. 光學學報, 2018, 437(8): 11–22.
YIN Shibin, REN Yongjie, LIU Tao, et al. Overview of the application of machine vision technology in modern automobile manufacturing [J]. Journal of Optics, 2018, 437(8): 11–22.
[4] 朱云, 凌志剛, 張雨強. 機器視覺技術研究進展及展望[J]. 圖學學報, 2020, 41(6): 871–890.
ZHU Yun, LING Zhigang, ZHANG Yuqiang. Research progress and Prospect of machine vision technology[J]. Journal of Graphics, 2020, 41(6): 871–890.
[5] “中國工程科技2035發(fā)展戰(zhàn)略研究”項目組. 中國工程科技2035發(fā)展戰(zhàn)略[M]. 北京: 科學出版社, 2019.
[6] 秦亞航, 蘇建歡, 余榮川. 機器視覺技術的發(fā)展及其應用[J]. 科技視界, 2016,(25): 153–154.
QIN Yahang, SU Jianhuan, YU Rongchuan. Development and application of machine vision technology[J]. Science and Technology Horizon, 2016,(25): 153–154.
[7] 黃少羅, 張建新, 卜昭鋒. 機器視覺技術軍事應用文獻綜述[J]. 兵工自動化, 2019, 38(2): 16–21.
HUANG Shaoluo, ZHANG Jianxin, BU Zhaofeng. Literature review of military application of machine vision technology[J]. Ordnance automation, 2019, 38(2): 16–21.
[8] FU K, ROSENFELD A. Pattern-recognition and image-processing[J]. IEEE Transactions on Computers, 1976, 25(12): 1336–1346.
[9] STEGER C, ULRICH M, WIEDEMANN C. 機器視覺算法與應用(第2版)[M]. 北京: 清華大學出版社, 2019.
[10] 呂家祺. 基于混合式聚光方法的日光照明系統(tǒng)[D]. 長春: 長春理工大學, 2021.
[11] 黃從高. 面光源均勻照明系統(tǒng)設計與實驗研究[D]. 杭州: 杭州電子科技大學, 2021.
[12] 周壹義. 大功率LED照明系統(tǒng)的二次光學設計研究[D]. 廣州: 華南理工大學, 2012.
[13] 張建忠. 紅外雙波段視景仿真器光學系統(tǒng)的研究[D]. 長春: 中國科學院研究生院(長春光學精密機械與物理研究所), 2013.
[14] 孫盈. 非掃描成像激光雷達達曼光柵陣列照明性能研究[D]. 哈爾濱: 哈爾濱工業(yè)大學, 2009.
[15] 李俊. 機器視覺照明光源關鍵技術研究[D]. 天津: 天津理工大學, 2007.
[16] VRIESENGA M, HEALEY G, PELEG K, et al. Controlling illumination color to enhance objectdiscriminability[C]// IEEE Conference on Computer Vision and Pattern Recognition, 1992.
[17] 張云, 吳曉君, 馬廷武, 等. 基于機器視覺的零件圖像采集及識別的研究[J]. 電子工程師, 2006, 32(4): 29–31, 65.
ZHANG Yun, WU Xiaojun, MA Tingwu, et al. Research on part image acquisition and recognition based on machine vision [J]. Electronic Engineer, 2006, 32 (4): 29–31, 65.
[18] RAJNI, ANUTAM. Image denoising techniques-An overview[J]. International Journal of Computer Applications, 2014, 86(16): 13–17.
[19] ANNABY M H, FOUDA Y M, RUSHDI M A. Improved normalized cross-correlation for defect detection in printed-circuit boards[J]. IEEE Transactions on Semiconductor Manufacturing, 2019, 32(2): 199–211.
[20] 郭智杰, 王明泉, 張俊生, 等. 基于機器視覺的輪轂在線識別分類技術研究[J]. 測試技術學報, 2019, 33(3): 233–237.
GUO Zhijie, WANG Mingquan, ZHANG Junsheng, et al. Research on on-line recognition and classification technology of wheel hub based on machine vision[J]. Journal of Testing Technology, 2019, 33(3): 233–237.
[21] ZHOU X, WANG Y, XIAO C, et al. Automatedvisual inspection of glass bottle bottom with saliencydetection and template matching[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(11): 4253–4267.
[22] DING R, DAI L, LI G, et al. TDD-Net: A tiny defect detection network for printed circuit boards[J]. CAAI Transactions on Intelligence Technology, 2019, 4(2): 110–116.
[23] YUAN X, WU L, PENG Q J. An improved otsu method using the weighted object variance for defect detection[J]. Applied Surface Science, 2015, 349: 472–484.
[24] ZHU L J, GAO Y, YEZZI A, et al. Automatic segmentation of the left atrium from MR images via variational region growing with a moments-based shape prior[J]. IEEE Transactions on Image Processing, 2013, 22(12): 5111–5122.
[25] FERRARI V, FEVRIER L, JURIE F, et al. Groups of adjacent contour segments for object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(1): 36–51.
[26] GIRSHICK R, DONAHUE J, DARRELL T, et al. Region-based convolutional networks for accurate object detection and segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(1): 142–158.
[27] ZHOU X, WANG Y, XIAO C, et al. Automatedvisual inspection of glass bottle bottom with saliencydetection and template matching[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(11):4253–4267.
[28] 秦放, 曾維佳, 羅佳偉, 等. 基于深度學習的多模態(tài)融合圖像識別研究[J]. 信息技術, 2022(4): 29–34.
QIN Fang, ZENG Weijia, LUO Jiawei, et al. Research on multi-modal fusion image recognition based on deep learning[J]. Information Technology, 2022(4): 29–34.
[29] 邊柯橙. 基于深度學習的玉米常見病害圖像識別研究及應用[D]. 蘭州: 蘭州財經大學, 2021.
[30] LIU Jian, GAO Wei. Maritime target detection and tracking[C]//2019 IEEE 2nd International Conference on Automation, Electronics and Electrical Engineering (AUTEEE), 2019.
[31] ZHANG M , CHOI J, DANIILIDIS K, et al. VAIS: A dataset for recognizing maritime imagery in the visible and infrared spectrums[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops(CVPRW), 2015.
[32] 趙浩光, 王平, 董超, 等. 結合多尺度視覺顯著性的艦船目標檢測[J]. 光學精密工程, 2020, 28(6): 1395–1403.
ZHAO Haoguang, WANG Ping, DONG Chao, et al. Ship target detection combined with multi-scale visual saliency[J]. Optical precision engineering, 2020, 28(6): 1395–1403.
[33] 韓萍, 萬義爽, 劉亞芳, 等. LBP特征分類的極化SAR圖像機場跑道檢測[J]. 中國圖象圖形學報, 2021, 26(4): 9.
HAN Ping, WAN Yishuang, LIU Yafang, et al. Airport runway detection based on LBP featureclassification in PolSAR images[J]. Journal of image and graphics, 2021, 26(4): 9.
[34] SENPHENG M, RUCHANURUCKS M. Automatic landing assistant system based on stripe lines on runway using computer vision[C]//2015 International Conference on Science and Technology(TICST), 2015.
[35] 劉佳銘. 基于視覺測量的艦載機空間定位方法[J]. 中國艦船研究, 2019, 14(5):152–158.
LIU Jiaming. Spatial positioning method of shipborne aircraft based on visual measurement[J]. China Ship Research, 2019, 14(5): 152–158.
[36] WANG X, KONG X, ZHI J, et al. Real-time drogue recognition and 3D locating for UAV autonomous aerial refueling based on monocular machine vision[J]. Chinese Journal of Aeronautics, 2015, 28(6): 1667–1675.
[37] HUA X, WANG X, WANG D, et al. Military object real-time detection technology combined with visual salience and psychology[J]. Electronics, 2018, 7(10): 216.
[38] 常川, 劉科成. 基于機載機器視覺的無人機自主目標跟蹤研究[J]. 網絡安全技術與應用, 2019, (7): 47–51.
CHANG Chuan, LIU Kecheng. Research on autonomous target tracking of UAV based on airborne vision[J]. Network Security Technology And Application, 2019, (7): 47–51.
[39] IRHEBHUDE M, EDIRISINGHE E. Military personnel recognition system using texture, colour, and surf features[C]// Automatic Target Recognition, 2014.
[40] PATOLIYA J, MEHTA H, PATEL H. Arduino controlled war field spy robot using night vision wireless camera and android application[C]//2015 5th Nirma University International Conference on Engineering(NUiCONE), 2015.
[41] SATHISHKUMAR K, MARISELVAMA K. War field spying robot with wireless camera using brain robot interface[J]. International Journal of Engineering Development and Research, 2015, 3(1): 422–427.
[42] MAHESHWARI T, KUMAR U, NAGPAL C, et al. Capturing the spied image-video data using a flexi-controlled spy-robot[C]// Third International Conference on Image Information Processing, 2016.
[43] MA M. Simulation of intelligent unmanned aerial vehicle(UAV) for military surveillance[C]// 2013 International Conference on Advanced Computer Science and Information Systems(ICACSIS), 2013.
[44] YLMAZER B, SOLAK S. Cloud computing based masked face recognition application[C]// 2020 Innovations in Intelligent Systems and Applications Conference(ASYU), Istanbul, Turkey, 2020.
[45] VOYNICHKA I, MEGHERBI D. Analysis of the effects of image transformation, template selection, and partial information on face recognition with time-varying expressions for homeland security applications[C]//2013 IEEE International Conference on Technologies for Homeland Security(HST), 2013.
[46] 劉立欣, 王文生, 劉廣利. 槍械內膛疵病圖像的邊緣檢測算法[J]. 兵工學報, 2005(1): 105–107.
LIU Lixin, WANG Wensheng, LIU Guangli. Edge detection algorithm of gun bore defect image[J]. Journal of Ordnance Engineering, 2005: 105–107.
[47] 王百榮, 張國華, 蔣以山. X射線無損檢測在炮彈識別中的應用[J]. 核電子學與探測技術, 2006, 26(1): 14–15.
WANG Bairong, ZHANG Guohua, JIANG Yishan. Application of X-ray in shell nondestructive testing[J]. Nuclear Electronics and Detection Technology, 2006, 26(1): 14–15.
[48] 史進偉, 郭朝勇, 劉紅寧. 基于機器視覺的槍彈外觀缺陷檢測系統(tǒng)研究[J]. 組合機床與自動化加工技術, 2013, (4): 59–64.
SHI Jinwei, GUO Chaoyong, LIU Hongning. Research on bullet appearance defect detection system based on machine vision[J]. Modular machine tools and automatic processing technology, 2013, (4): 59–64.
[49] 張亞軍, 齊杏林, 董成基. 基于機器視覺的槍彈鋼芯自動檢測系統(tǒng)[J]. 兵工自動化, 2012, 31(7): 8–11.
ZHANG Yajun, QI Xinglin, DONG Chengji. Automatic detection system of bullet steel core based on machine vision[J]. Ordnance Automation, 2012, 31(7): 8–11.
[50] 柳革命, 劉鵬. 基于機器視覺的彈殼多尺寸測量[J]. 工業(yè)控制計算機, 2016, 29(4): 60–61.
LIU Geming, LIU Peng. Multi dimension measurement of cartridge case based on machine vision[J]. Industrial Control Computer, 2016, 29(4): 60–61.
[51] 邵欣桐, 劉省賢. 基于機器視覺的飛機輪胎檢查技術研究[J]. 科學技術創(chuàng)新, 2020, (35): 18–20.
SHAO Xintong, LIU Shengxian. Research on aircraft tire inspection technology based on machine vision[J]. Science and Technology Innovation, 2020, (35): 18–20.
[52] LI X, MING Y, HUANG S. Design of target recognition system based on machine vision[C]//2010 International Conference on Computational Intelligence and Software Engineering, 2010.
[53] 寇昆湖, 張友安, 柳愛利. 視覺輔助飛航導彈INS定位誤差快速修正方法[J]. 系統(tǒng)工程與電子技術, 2013, 35(2): 397–401.
KOU Kunhu, ZHANG Youan, LIU Aili. Fast correction method of INS positioning error of vision assisted cruise missile[J]. Systems Engineering and Electronic Technology, 2013, 35(2): 397–401.
[54] WILSON J R. Machine vision[J]. Military & Aerospace Electronics, 2001, 12(8): 14.
[55] KELLER J. Artificial intelligence and machine vision for unmanned vehicle smart cameras is aim of DARPA mind's eye program[J]. Military & Aerospace Electronics, 2010, 21(5): 36–39.
[56] STEPHEN D, CONNELL O, MARTIN C, et al. Eye tracking-based target designation in simulated close range air combat[C]//Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 2012.
[57] DENG L, ZHANG Z, XIANG W, et al. Machinevision-based method and system for aircraft docking guidance and aircraft type identification: EP20150828078[P]. 2017-07-26.
[58] MILLER A, MILLER B. Stochastic control of light UAV at landing with the aid of bearing-only servations[C]//Eighth International Conference on Machine Vision, 2015.
[59] DENG C, WANG S W. Machine vision-based unmanned aerial vehicle positioned landing method and ystem: CN105388908A[P]. 2016-03-09.
[60] 苗錫奎, 朱楓, 許以軍, 等. 基于視覺的水雷目標識別方法研究[J]. 海洋工程, 2012, 30(4): 154–160.
MIAO Xikui, ZHU Feng, XU Yijun, et al. Mine object recognition method research of AUV based on vision[J]. The Ocean Engineering, 2012, 30(4): 154–160.
[61] 高明. 基于視覺和慣性導航的水下機器人組合定位設計[D]. 杭州: 浙江大學, 2014.
[62] 陳元杰, 朱康武, 葛耀崢, 等.基于雙目視覺的水下定位系統(tǒng)[J]. 機電工程, 2011, 28(5): 567–573.
CHEN Yuanjie, ZHU Kangwu, GE Yaozheng, et al. Binocular vision based locating system for underwater inspection[J]. Journal of Mechanical & Electrical Engineering, 2011, 28(5): 567–573.
[63] 史言彬.基于單目視覺的水下目標識別和定位方法研究[D]. 哈爾濱: 哈爾濱工程大學, 2016.
[64] KATIJA K, ROBERTS P L D, DANIELS J, et al. Visual tracking of deepwater animals using machine learning-controlled robotic underwater vehicles[C]// 2021 IEEE Winter Conference on Applications of Computer Vision(WACV), 2021.
Application status and development trend of machine vision in military field
CHEN Jing, GONG Liming
(Unit 93160 of the People's Liberation Army, Beijing 100076, China)
With the advantages of non-contact measurement, good real-time and sustainable work, machine vision technology has broad application prospects in the military field. Based on the overview of key technologies, such as machine vision optical lighting system, imaging system and visual information processing system, the application status of machine vision technology in typical scenes, such as typical target recognition, personnel identification, equipment defect detection, and typical military equipment in military field were analyzed in this paper. On this basis, the problems that still exist in the application of machine vision in the military field, such as the visual sensor hardware system is difficult to adapt to the extreme environment, the adaptability of complex military targets is insufficient, the real-time performance of target recognition is difficult to ensure, and the ability of multi-sensor fusion to obtain military target information is insufficient, all those were pointed out in detail. Then the future development trend of machine vision technology in military field was prospected. The results of this study can be used as a reference for the further practical application of machine vision in the military field.
Machine vision; Military equipment; Target recognition; Anomaly detection
Website: ycyk.brit.com.cn Email: ycyk704@163.com
TP391
A
CN11-1780(2022)06-0124-12
10.12347/j.ycyk.20211115001
陳靜, 宮黎明.機器視覺在軍事領域的應用現狀及發(fā)展趨勢[J]. 遙測遙控, 2022, 43(6): 124–135.
10.12347/j.ycyk.20211115001
: CHEN Jing, GONG Liming. Application status and development trend of machine vision in military field[J]. Journal of Telemetry, Tracking and Command, 2022, 43(6): 124–135.
2021-11-15
2022-06-28
陳 靜 1988年生,本科,工程師,主要研究方向為機械設計制造及其自動化。
宮黎明 1981年生,碩士,工程師,主要研究方向為計算機科學與技術。
(本文編輯:傅 杰)