栗文韜,徐成偉,張萬鵬,傅薈瑾,馬 禎,楊 雪
城際鐵路的發(fā)展對城市功能的合理布局,如城市規(guī)劃、交通、經(jīng)濟乃至社會環(huán)境等,起到了至關重要的作用,鐵路已經(jīng)成為典型的城際出行方式。城際鐵路給人們帶來快捷、便利、有序的交通和良好乘車環(huán)境的同時,使人們更多地感受到了生活質(zhì)量的提高。然而,城際鐵路系統(tǒng)運營環(huán)境復雜,在實際運營期間會受到外界多種因素影響而造成安全風險,一旦發(fā)生安全事故,人們在擁擠、封閉的空間內(nèi)會產(chǎn)生恐慌及混亂現(xiàn)象,更加劇了安全風險發(fā)生的概率。因此,城際鐵路運營安全尤其重要,亟需加強城際鐵路運營安全監(jiān)測管理,全面提升城際鐵路安全防范能力,保障人民出行安全,更好地發(fā)揮交通服務功能,實現(xiàn)高效運營。其中,加強城際鐵路周界安全防護、實現(xiàn)現(xiàn)代化的安全防范是保障城際鐵路運營工作的重點。
鐵路周界入侵是指外界目標(人、異物)未經(jīng)允許進入列車運行區(qū)域界限。鐵路依靠標準化的作業(yè)流程和封閉式的物理護墻來規(guī)范旅客的上、下車行為,但也存在少部分旅客異常行為會對列車的正常運營造成安全風險;城際鐵路的路基、隧道口、停車場、動車段所等地段勢必會受到氣象條件和周邊環(huán)境等因素的影響,增大了探測要求和難度。各類探測器在原理上也存在檢測局限性,受環(huán)境影響后存在誤報和漏報情況,探測距離也會下降。在軌道交通行業(yè)的安防系統(tǒng)中,我國城際鐵路安防系統(tǒng)亟需更加穩(wěn)定、可靠的技術防護技術方法和體系。結合我國鐵路安防系統(tǒng)的發(fā)展現(xiàn)狀可知,城際鐵路安防技術和周界入侵監(jiān)測系統(tǒng)的發(fā)展方向主要是智能化、系統(tǒng)化、集成化。經(jīng)過實地調(diào)研后,總結我國城際鐵路周界入侵技術的發(fā)展趨勢如下。一是城際鐵路周界入侵監(jiān)測視頻圖像應更加清晰,擁有更為高清的視頻圖像,結合智能分析算法,能更為清楚、準確地識別城際鐵路列車運行環(huán)境入侵行為;二是當前城際鐵路周界入侵行為主要依靠視頻進行監(jiān)測,然而視頻監(jiān)測有著自身難以解決和克服的缺陷,結合雷達、紅外熱成像等其他傳感器的獨特優(yōu)勢,能使鐵路周界入侵的識別效果大幅提升;三是未來城際鐵路周界入侵監(jiān)測的聯(lián)動控制水平應進一步提高,入侵行為發(fā)生后應及時進行定位,并通過多傳感技術融合的方式快速識別入侵目標類別。
激光雷達由于其極高的分辨率,獲取信息多樣(距離、方位、高度、速度)以及不受光照影響等特點,成為軌道交通行業(yè)周界入侵監(jiān)測領域新的研究熱點。通過激光雷達采集的點云數(shù)據(jù),結合三維點云深度學習算法,輔以視頻智能識別技術的復合檢測,可以大幅提升識別準確率,實現(xiàn)全時段的周界入侵行為監(jiān)測和報警功能。
激光雷達是使用光進行探測和測距的設備,集激光、全球定位系統(tǒng)和慣性導航系統(tǒng)三大技術于一身,能夠獲得點云數(shù)據(jù)并生成精準的三維模型。按照探測維度分類,可以分為二維激光雷達和三維激光雷達。二維激光雷達一般平行于軌面進行掃描,三維激光雷達主要進行目標的三維立體掃描和建模。二維和三維激光雷達檢測原理圖如圖1所示。
圖1 二維和三維激光雷達檢測原理圖Fig.1 Schematic diagram of 2D and 3D laser radar detection
可以看出,二維激光雷達只能獲取入侵異物的“線狀投影”信息,而三維激光雷達可以獲得異物“立體投影”信息,通過三維點云的分類和識別算法,可以對入侵異物進行分類,并根據(jù)分類結果定制不同的報警輸出結果,提高報警信息的準確率。面向鐵路實際運營場景,三維激光雷達能夠更好地識別入侵目標類型并進行可視化展示,更加適合鐵路周界入侵監(jiān)測的需求;相反,二維激光雷達由于只能獲得線狀信息,目標立體信息的捕捉能力差,更易出現(xiàn)誤報和漏報,因此,在鐵路周界入侵技術研究中,三維激光雷達更契合使用需求。
當前基于視頻的目標檢測技術已經(jīng)在許多場景開展應用,包括人臉識別、行為分析、圖像分類和無人駕駛等。隨著近些年深度學習的發(fā)展,目標檢測任務也受到了很大的關注,實現(xiàn)目標檢測的方法也逐漸豐富,可以將目標檢測方法分為基于傳統(tǒng)模型的目標檢測方法和基于深度學習的目標檢測方法。
1.2.1 基于傳統(tǒng)模型的目標檢測方法
基于傳統(tǒng)模型的目標檢測方法主要分為目標區(qū)域選擇、特征提取、目標分類3 個階段。目標可以出現(xiàn)在圖像中任意位置,不同目標在圖像中的長寬比不同,目前主要檢測的方式是使用不同的滑動窗口掃描整個圖像,但由于存在大量的候選窗口,因而計算成本很高。因此,需要先使用特定算法篩選出目標對象可能存在的區(qū)域,減少計算資源的使用。為了識別不同的物體,需要提取視覺特征,以提供語義表示,這個特征通常需要手動設計。此外,還需要使用1 個分類器將目標對象從其他類別中區(qū)分出來?;趥鹘y(tǒng)模型的目標檢測方法取得了一些成果,但由于需要手動設計特征和滑動窗口,使得檢測準確性依賴于目標區(qū)域選取的正確性和特征提取的有效性。
Viola 等[1]構建穩(wěn)定且快速的目標檢測框架Viola-Jones(VJ),VJ 檢測器通過結合“積分圖像”“特征選擇”和“檢測級聯(lián)”3個重要技術,大幅提高檢測速度。VJ 檢測器在人臉識別方面的表現(xiàn)突出,但很難被擴展到其他類型的物體。Dalal等[2]提出方向梯度直方圖(HOG)特征,經(jīng)過實驗表明,其在異常人員的檢測性能明顯優(yōu)于其他檢測算法。Pedro 等[3]提出可變型部件模型(DPM),它是多尺度、可變形的模型,算法首先計算HOG,然后利用支持向量機訓練得到物體的梯度模型并進行分類。李樂等[4]在圖像金字塔的尺度層間擴展一些子尺度級填補圖像金字塔之間的空白,并使用高斯尺度金字塔生成子尺度圖像并在子尺度上提取HOG特征。
1.2.2 基于深度學習的目標檢測方法
通過深度卷積神經(jīng)網(wǎng)絡,特征提取變得容易,計算機的算力也足夠支撐滑動窗口掃描整個圖片。與傳統(tǒng)方法不同,基于深度學習的方法由于具有更復雜的網(wǎng)絡結構,能夠?qū)W習到目標更為抽象的特征。Girshick[5]在區(qū)域卷積神經(jīng)網(wǎng)絡(R-CNN)和空間金字塔池化網(wǎng)絡(SPP-Net)的基礎上提出了快速區(qū)域卷積神經(jīng)網(wǎng)絡(Fast R-CNN),F(xiàn)ast R-CNN 能夠在同一個網(wǎng)絡配置中同時訓練檢測器和邊界框回歸器。Ren 等[6]提出了更快速區(qū)域卷積神經(jīng)網(wǎng)絡(Faster R-CNN),引入?yún)^(qū)域生成網(wǎng)絡(RPN)用來生成高質(zhì)量的檢測框,為多尺度目標檢測提供實用且準確的解決方案。Lin 等[7]利用深度卷積網(wǎng)絡固有的多尺度、金字塔層次結構來構建具有邊際額外成本的特征金字塔,提出具有橫向連接的自頂向下體系結構,用于構建各種尺度的高級語義特征圖,表現(xiàn)出了顯著的改進。Xie 等[8]提出了面向?qū)ο蟮臋z測框架——面向旋轉(zhuǎn)目標檢測的區(qū)域卷積神經(jīng)網(wǎng)絡(Oriented R-CNN),它是基于兩階段(Two-Stage)的檢測器,在面向?qū)ο髾z測數(shù)據(jù)集上表現(xiàn)優(yōu)異。Liu等[9]提出單次多邊框檢測(SSD)網(wǎng)絡,SSD網(wǎng)絡采用多尺度特征圖進行訓練,提升了基于一階段(One-Stage)的檢測器對小物體識別的精度。
Lin 等[10]發(fā)現(xiàn)在檢測模型訓練中圖片中出現(xiàn)前景和背景極端不平衡是影響One-Stage 檢測器準確度的主要原因,因而設計新的焦點損失(Focal Loss)函數(shù)和RetinaNet網(wǎng)絡,準確度比其他Two-Stage檢測器的準確度更高。Feng 等[11]提出基于One-Stage的行人物體檢測和跟蹤方法,稱為CGTracker,它直接從物體的特征表示中提取物體特征,在MOT17數(shù)據(jù)集上表現(xiàn)優(yōu)秀。Ghiasi 等[12]采用神經(jīng)結構搜索法,在涵蓋所有跨尺度連接的新型可擴展搜索空間中發(fā)現(xiàn)新的特征金字塔結構——基于自動架構搜索的特征金字塔網(wǎng)絡(NAS-FPN),它與RetinaNet 框架中的各種骨干模型相結合,與最先進的物體檢測模型相比,實現(xiàn)了更好的準確性和延遲權衡。Tan等[13]為了方便進行多尺度特征融合,提出加權的雙向特征金字塔網(wǎng)絡(BiFPN),還提出復合縮放方法用來統(tǒng)一縮放網(wǎng)絡的尺寸大小。鐵路應用方面,傅薈瑾等[14]開展基于深度學習的圖像目標檢測關鍵技術研究,利用圖像預處理方法進行低照度圖像增強,改善圖像識別易受光照條件影響的問題。董學娟[15]通過準確的高速鐵路基礎設施視頻數(shù)據(jù)標注,實現(xiàn)視頻數(shù)據(jù)的結構化組織和存儲管理,可以為智能視頻數(shù)據(jù)分析提供準確有效的數(shù)據(jù)集,也為鐵路信息資源整合和綜合應用開發(fā)提供有利條件。
激光雷達可以獲得目標距離、方位、高度、速度、姿態(tài)、形狀等參數(shù),具有極高的分辨率,通過三維點云數(shù)據(jù)可以準確地獲取高精度的物理空間環(huán)境信息。結合深度學習算法,實現(xiàn)人員和異物的入侵檢測。
為保證城際鐵路周界入侵的低誤報、零漏報,通過結合激光雷達和視頻報警信息融合算法,在保證零漏報的前提下,不斷迭代優(yōu)化監(jiān)測技術方案,逐漸降低誤報率,實現(xiàn)人員和異物的全時域、全天候、無死角檢測。激光雷達+視頻融合監(jiān)測技術路線如圖2所示。
圖2 激光雷達+視頻融合監(jiān)測技術路線Fig.2 Technical routes of laser radar and video fusion monitoring
激光雷達作為基于光學的探測設備,優(yōu)點如下。
(1)具有極高的分辨率。激光雷達具有極高的距離分辨率、角分辨率和速度分辨率,能夠探測到物體更精密的特征。
(2)抗信號干擾能力強。激光的波長短,可以發(fā)射角度非常小的激光束,多路徑效應小。
(3)獲取的信息量豐富。可以直接獲取目標的距離、角度、反射強度、速度等信息,生成目標多維度圖像。
(4)可以全天時工作。不依賴于外界光照條件或目標本身的輻射特性,只需要發(fā)射激光束,通過探測發(fā)射激光束的回波信號來獲取目標信息。
(5)可以檢測動態(tài)或靜態(tài)目標。對于動態(tài)或靜態(tài)目標,激光雷達均可以進行有效監(jiān)測,滿足鐵路周界人員和異物的監(jiān)測需求。
同時,激光雷達在極端雨霧和煙塵影響時,探測性能會出現(xiàn)衰減,因而利用其他技術手段對激光雷達進行輔助是非常必要的。視頻智能分析技術在激光雷達產(chǎn)生報警信息后,捕捉入侵位置視頻并進行實時分析,復核雷達報警信息,能夠有效降低誤報的比例。同時,由于激光雷達的靈敏性,也決定了激光雷達+視頻融合監(jiān)測技術不會出現(xiàn)漏報的情況。但研究和試驗過程中,存在以下研究難點和亟需解決的問題。①小目標點云數(shù)據(jù)稀疏問題;②煙塵雨霧等小顆粒干擾引起的誤報問題;③激光雷達與視頻雷視坐標配準及融合算法問題。
研究提出激光雷達+視頻融合監(jiān)測技術的總體架構由前端監(jiān)測/報警設備、監(jiān)控單元和監(jiān)測中心3 部分構成。激光雷達+視頻融合監(jiān)測技術總體架構如圖3所示。
圖3 激光雷達+視頻融合監(jiān)測技術總體架構Fig.3 Overall technical architecture of laser radar and video fusion monitoring
激光雷達對點云數(shù)據(jù)進行預處理,統(tǒng)一雷視坐標系,形成像素級的雷視融合數(shù)據(jù)。①通過坐標轉(zhuǎn)換算法將雷達坐標系與鐵軌走向重合;通過濾波算法,去除噪聲點云。②將目標位置和大小發(fā)送給攝像機,定位拍攝目標,通過圖像增強和濾波技術對夜間圖像補強并進行干擾過濾,分別同時進行目標檢測和分類。③進行時空關聯(lián)目標跟蹤,結合外部環(huán)境因素,確定雷視置信度,輸出報警結果。激光雷達+視頻融合監(jiān)測技術架構如圖4所示。
圖4 激光雷達+視頻融合監(jiān)測技術架構Fig.4 Technical architecture of laser radar and video fusion monitoring
基于激光雷達+視頻的融合監(jiān)測技術,主要具備數(shù)據(jù)采集、入侵行為判識跟蹤、報警數(shù)據(jù)上報、聲光報警、防區(qū)劃定、布防/撤防、物聯(lián)網(wǎng)安全和設備狀態(tài)自檢等功能。
(1)數(shù)據(jù)采集。采集現(xiàn)場實時數(shù)據(jù),并推送監(jiān)測數(shù)據(jù)至邊緣計算設備。
(2)入侵行為判識跟蹤。當發(fā)生入侵行為時,產(chǎn)生報警信息,實時跟蹤入侵目標。
(3)報警數(shù)據(jù)上報。監(jiān)測到入侵行為時產(chǎn)生報警數(shù)據(jù),包括報警信息、圖片、視頻等。
(4)聲光報警。產(chǎn)生報警信息時觸發(fā)聲光報警設備,發(fā)出示警信號,驅(qū)離入侵者。
(5)防區(qū)劃定。將產(chǎn)生的報警判識數(shù)據(jù),轉(zhuǎn)化為報警信息,上報至監(jiān)測中心。報警信息包括結構化數(shù)據(jù)和非結構化數(shù)據(jù),非結構化數(shù)據(jù)主要包括點云數(shù)據(jù)、報警圖片和視頻。
(6)布防/撤防。支持監(jiān)控中心對防區(qū)布防/撤防操作。
(7)物聯(lián)網(wǎng)安全。系統(tǒng)硬件、軟件及數(shù)據(jù)受到保護,具備物聯(lián)網(wǎng)安全措施。
(8)設備狀態(tài)自檢。設備狀態(tài)周期性自檢,異常時發(fā)送報警信息并觸發(fā)聲光報警器。
激光雷達+視頻融合監(jiān)測技術的實現(xiàn)包括基于像素級數(shù)據(jù)融合技術和基于決策級融合報警技術。
(1)基于像素級的數(shù)據(jù)融合技術。基于像素級的數(shù)據(jù)融合技術框架如圖5 所示。①經(jīng)雷視坐標系標定后的激光雷達點云數(shù)據(jù)和視頻流數(shù)據(jù),同時輸入目標檢測和識別算法模塊;②激光雷達將檢測到的入侵目標位置和大小信息反饋至攝像機,攝像機根據(jù)雷視坐標轉(zhuǎn)換矩陣實現(xiàn)目標的特寫抓拍,同時進入視頻智能識別階段;③激光雷達和攝像機分別將報警結果輸入至融合報警算法,結合置信度指標輸出報警結果。
圖5 基于像素級的數(shù)據(jù)融合技術框架Fig.5 Technical framework of pixel-level data fusion
(2)基于決策級的融合報警技術。使用激光雷達與攝像機進行檢測結果融合,可以得到比激光雷達或者相機任一單一傳感器更為可靠的結果,提高檢測結果的準確率,同時提高檢測效率,增強目標檢測算法的魯棒性?;跊Q策級的融合報警技術框架如圖6所示。
圖6 基于決策級的融合報警技術框架Fig.6 Technical framework of decision-level based fusion alarm
基于決策級的融合報警技術中主要包含基于激光雷達的點云目標檢測方法、基于圖像的二維目標檢測方法及基于激光雷達與圖像的融合決策方法3部分。
①基于三維激光雷達的點云目標檢測方法。裁剪全局雷達點云得到防區(qū)內(nèi)的雷達點云數(shù)據(jù),并進行背景差分去除后,對點云數(shù)據(jù)進行坐標旋轉(zhuǎn),將其從雷達坐標系轉(zhuǎn)至軌平面坐標系,即為雷達坐標系標定算法。后續(xù)對軌平面坐標系下的點云數(shù)據(jù)進行聚類分類等后處理操作。標定前后的點云成像如圖7 所示,可以看出坐標系并非鐵軌坐標系,經(jīng)過標定后的點云成像和鐵軌坐標系走勢一致。
圖7 標定前后的點云成像Fig.7 Point cloud imaging before and after calibration
之后進行背景差分計算。在監(jiān)測區(qū)域沒有任何障礙物的情況下保存1 幀點云作為背景,后續(xù)每幀點云數(shù)據(jù)與背景點云進行最近鄰計算,如果距離小于10 cm則認為是監(jiān)測區(qū)域內(nèi)的背景點,大于10 cm則認為是動態(tài)點。得到差分結果后進行點云分割處理,根據(jù)空間、幾何和紋理等特征點進行劃分,同一劃分內(nèi)的點云擁有相似的特征。K均值聚類算法(K-Means)是最常用的聚類算法,它的基本思想是兩個目標的距離越近,相似度越大,在研究中被用來進行點云分割。但是K-Means算法對于離群點和噪音點非常敏感。例如在距離中心很遠的地方手動加1 個噪音點,那么中心的位置就會被帶偏很遠。因此在實際應用中很容易出現(xiàn)目標與地面分割為一類;或是雨霧天氣下,目標與周邊稀疏雨霧點云分為一類,錯誤的點云分割結果如圖8所示。
圖8 錯誤的點云分割結果Fig.8 Wrong point cloud segmentation results
為了解決K-Means算法的問題,著重驗證基于密度的噪聲空間聚類算法(DBSCAN)的效果。DBSCAN 算法將特征空間中足夠密集的點劃分為同一個簇,簇的形狀可以是任意的,而且不會劃分噪聲點的簇。DBSCAN 可以用于各種復雜形狀的數(shù)據(jù)集,能夠識別出離群點,非常適合用來檢測離群點?;贒BSCAN算法的點云分割結果如圖9所示。
圖9 基于DBSCAN算法的點云分割結果Fig.9 Point cloud segmentation results based on DBSCAN algorithm
②視頻智能識別算法的實現(xiàn)。為了使城際鐵路周界入侵視頻智能識別算法具備強魯棒性,研究采用不需要依賴于人工提取特征的深度學習方法??紤]到周界入侵檢測需要具備實時性,選擇One-Stage 的目標檢測算法,即當前應用最廣泛的YOLO 系列算法。但YOLO更多的是針對ImageNet,Pacsal VOC和coco等公開數(shù)據(jù)集,對于周界檢測現(xiàn)場場景并不能獲得如同實驗中那樣良好的效果,且無法獲得公開數(shù)據(jù)集同等數(shù)量級的標注數(shù)據(jù),為了避免過擬合等問題,針對周界場景對YOLOv5的網(wǎng)絡進行修改,以確保更為適合,并且使用遷移學習對網(wǎng)絡進行訓練。
③激光雷達+視頻融合算法的實現(xiàn)。融合跟蹤算法是對原有激光雷達算法中的障礙物匹配算法的擴展優(yōu)化。在原有的激光雷達障礙物匹配算法中,由于除了中心點和長寬高以外沒有更多的障礙物特征信息,因而只是簡單地使用匈牙利算法(Hungarian)對前后幀障礙物進行目標跟蹤。在原有匹配算法中存在以下缺點:在前后幀障礙物數(shù)量不一致且障礙物間距很近或者多人行走有重疊的情況下,偶爾會發(fā)生匹配錯誤;小目標間歇性檢測不到的情況下必然導致匹配失敗。為了解決這些問題,融合跟蹤算法引入圖像作為輔助。
在實際使用過程中,激光雷達易受環(huán)境中煙塵固體小顆粒的影響。由于煙塵固體小顆粒表面凹凸不平,反射回激光雷達接收器的激光方向存在隨機性,因而容易產(chǎn)生誤報警??紤]到城際鐵路場景下激光雷達過濾煙塵的功能需求,對于煙塵固體等小顆粒的過濾使用幀差法。幀差法是通過對點云圖像中相鄰2 幀作差分運算獲得運動目標輪廓的方法,可以很好地適用于檢測環(huán)境中固體小顆粒的情況。當監(jiān)控場景中出現(xiàn)大量固體小顆粒時,相鄰幀之間會存在較為明顯的差別。通過對比相鄰2 幀點云數(shù)據(jù),得到2 幀點云圖像之間的差值,判斷其是否大于閾值,分析點云圖像中物體的運動特性,確定點云圖像中的小顆粒運動物體。三幀差法是在相鄰幀差法的基礎上改進的算法,在一定程度上優(yōu)化運動物體粗輪廓的問題。相比之下,三幀差法比相鄰幀差法更適用于物體移動速度較快的情況,如煙塵等小顆粒受大風影響快速運動的現(xiàn)象。
雨霧天氣下采集的點云數(shù)據(jù)會隨時間變化,且包含雨霧的點云數(shù)據(jù)在雷達反射面法線方向的分布符合正態(tài)分布特征,分析該特征可以過濾大部分誤報。
實現(xiàn)雷視坐標系標定后,可以為算法提供更多的信息,提高算法的準確率和效率。一方面,研究雷視一體化裝置降低施工難度,減少施工成本和后期維護成本;另一方面,開發(fā)雷視現(xiàn)場標定工具,使利用既有綜合視頻監(jiān)控系統(tǒng)實現(xiàn)雷視坐標系標定成為可能。
在現(xiàn)場實際運用過程中,發(fā)現(xiàn)雷達設備長時間高功率的運行,會造成雷達點云成像出現(xiàn)略微移動的情況,造成噪音點云的殘留。標定偏移實例如圖10 所示,藍色是初始位姿的背景點云,紅色是激光雷達經(jīng)過一段時間運行后的背景點云。
圖10 標定偏移實例Fig.10 Example of calibration deviation
為了解決這種情況,引入點云配準算法。點云配準算法指的是輸入2 幅點云,輸出1 個變換矩陣T,使得兩幅點云的重合程度盡可能高。點云配準首先需要知道2 組點云的匹配關系,對于視覺三維點來說,可以通過視覺特征匹配來獲取,對于雷達點云,可以通過最近鄰匹配來獲取。知道點云的匹配關系后,通過粗配準和精配準2 步來計算變換矩陣。粗配準指的是在2 幅點云之間的變換完全未知的情況下進行較為粗糙的配準,目的主要是為精配準提供較好的變換初值;精配準則是給定一個初始變換,進一步優(yōu)化得到更精確的變換。其中,粗配準存在解析解,精配準通過非線性優(yōu)化的方式進一步優(yōu)化結果。
迭代最近鄰點算法(ICP)是經(jīng)典的數(shù)據(jù)配準算法,通過求取源點云和目標點云之間的對應點對,基于對應點對構造旋轉(zhuǎn)平移矩陣,并利用所求矩陣,將源點云變換到目標點云的坐標系下,估計變換后源點云與目標點云的誤差函數(shù),如果誤差函數(shù)值大于閥值,則迭代進行上述運算直到滿足給定的誤差要求。
面向城際鐵路運營過程中典型場景特點和安全風險隱患,研究提出基于激光雷達+視頻的融合監(jiān)測技術方案,闡述方案的系統(tǒng)架構、軟件架構和功能設計。研究充分考慮運行區(qū)段中可能遇到的暴雨和強濃霧天氣等干擾因素,通過雨霧過濾算法、ICP 配準算法、雷視融合算法降低誤報率。研究提出的激光雷達+視頻融合監(jiān)測技術對人員入侵和異物侵限事件均能進行及時有效的監(jiān)測,并對入侵目標進行捕捉和精確分類,滿足城際鐵路周界入侵的監(jiān)測需求。未來,還應不斷迭代優(yōu)化監(jiān)測技術方案、強化惡劣天氣下的周界入侵算法魯棒性,提升激光雷達+視頻融合設備監(jiān)測的性能水平。