摘 要:針對傳統(tǒng)電梯火災(zāi)識別算法存在的識別率低、延遲大等問題,本文提出一種改進的基于卷積神經(jīng)網(wǎng)絡(luò)的電梯火災(zāi)識別方法。通過融合RGB-HSV雙色彩空間對疑似火災(zāi)區(qū)域進行預(yù)處理和分割,采用改進的VGG16網(wǎng)絡(luò)提取深層特征,并結(jié)合注意力機制增強關(guān)鍵區(qū)域特征表達。試驗結(jié)果表明,改進后的算法在電梯火災(zāi)識別準(zhǔn)確率達到95.8%,處理速度為12f/s,對不同光照、煙霧干擾具有較強的魯棒性,可為電梯火災(zāi)早期預(yù)警提供更可靠的技術(shù)支持。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);電梯火災(zāi)識別;注意力機制;特征融合;實時預(yù)警
中圖分類號:TP 391 文獻標(biāo)志碼:A
電梯作為高層建筑重要的垂直交通工具,其火災(zāi)事故頻發(fā),嚴重威脅人民生命財產(chǎn)安全。2022年全國電梯火災(zāi)事故造成直接經(jīng)濟損失超過5000萬元。傳統(tǒng)的基于溫度傳感、煙霧探測等電梯火災(zāi)識別方法容易受環(huán)境因素干擾,存在漏報、誤報率高等問題。基于圖像處理的火災(zāi)識別技術(shù)具有非接觸、反應(yīng)快速等優(yōu)勢,但在復(fù)雜光照、煙霧遮擋等情況下識別效果不佳。因此,研究一種精確可靠的電梯火災(zāi)識別算法具有重要的現(xiàn)實意義。
1 基于多模塊融合的改進CNN算法
1.1 算法整體框架
改進的電梯火災(zāi)識別算法由圖像預(yù)處理、特征提取、特征增強和分類預(yù)測4個核心模塊構(gòu)成。輸入圖像經(jīng)過RGB-HSV雙色彩空間融合預(yù)處理后,增強火焰區(qū)域顯著性并抑制背景噪聲。預(yù)處理后的圖像輸入改進的VGG16網(wǎng)絡(luò)進行特征提取,網(wǎng)絡(luò)中引入殘差連接和深度可分離卷積,在降低計算復(fù)雜度的同時保持特征提取能力[1]。特征增強模塊采用雙重注意力機制,通道注意力機制突顯火焰特征通道的權(quán)重,空間注意力機制強化火焰區(qū)域的特征響應(yīng),兩者協(xié)同作用提高特征判別性。分類預(yù)測模塊使用改進的focal loss損失函數(shù)處理樣本不平衡問題,通過動態(tài)權(quán)重調(diào)整和正則化約束提高模型泛化能力。各模塊間通過前饋傳播和反向優(yōu)化形成統(tǒng)一的端到端識別框架,實現(xiàn)電梯火災(zāi)的實時精確識別(如圖1所示)。算法框架在保證識別準(zhǔn)確性的基礎(chǔ)上,著重優(yōu)化了實時性能和環(huán)境適應(yīng)能力。
1.2 圖像預(yù)處理優(yōu)化
針對電梯環(huán)境光照不均、對比度低等問題,設(shè)計了基于RGB-HSV雙色彩空間的圖像預(yù)處理方法。在RGB色彩空間中,對R通道進行非線性增強處理,增強系數(shù)根據(jù)圖像整體亮度自適應(yīng)調(diào)節(jié)在1.2~1.8;在HSV色彩空間中,通過S通道閾值分割(閾值設(shè)定為0.6)提取火焰候選區(qū)域,增強火焰區(qū)域的色彩飽和度。為改善圖像對比度,采用累積分布函數(shù)的自適應(yīng)直方圖均衡算法,如公式(1)所示。
P(i)=∑(nj/N),j∈[0,i] (1)
式中:P(i)為累積分布函數(shù);nj為灰度值j的像素個數(shù);N為總像素數(shù)。
預(yù)處理流程進一步結(jié)合高斯濾波(核大小5×5,σ=1.5)抑制圖像噪聲,應(yīng)用開運算和閉運算(結(jié)構(gòu)元素大小3×3)優(yōu)化火焰輪廓。經(jīng)過雙色彩空間融合預(yù)處理后的圖像,在100lux~2000lux光照范圍內(nèi)均具有良好的火焰區(qū)域突出效果,火焰邊緣清晰,顯著性提高40%以上,為后續(xù)特征提取和識別任務(wù)提供了高質(zhì)量的輸入數(shù)據(jù)。
1.3 網(wǎng)絡(luò)結(jié)構(gòu)改進
傳統(tǒng)VGG16網(wǎng)絡(luò)結(jié)構(gòu)在電梯火災(zāi)識別中存在特征提取不充分的問題。通過引入殘差連接和深度可分離卷積,設(shè)計改進的網(wǎng)絡(luò)結(jié)構(gòu)。殘差塊如公式(2)所示。
F(x)=H(x)-x (2)
式中:H(x)為期望輸出;x為輸入特征。
深度可分離卷積將標(biāo)準(zhǔn)卷積分解為逐通道卷積和點卷積,降低計算復(fù)雜度[2]。改進后的網(wǎng)絡(luò)在保持識別精度的同時,大幅減少參數(shù)量和計算開銷,處理速度提高40%。多尺度特征融合策略有效提升了對不同尺度火焰的識別能力。
1.4 注意力機制引入
為增強模型對火焰關(guān)鍵區(qū)域的感知能力,引入通道注意力和空間注意力機制。通道注意力權(quán)重如公式(3)所示。
α=σ(MLP(AvgPool(F))) (3)
式中:σ為Sigmoid激活函數(shù);F為特征圖。
空間注意力通過學(xué)習(xí)像素級權(quán)重,突出火焰區(qū)域的重要特征。雙重注意力機制的協(xié)同作用顯著提高了模型對火焰特征的捕捉能力,降低背景干擾的影響。注意力模塊的引入使模型更專注于判別性特征的學(xué)習(xí)[3]。試驗表明,該注意力機制顯著提高了模型對不同尺度、不同光照條件下火焰區(qū)域的檢測能力,在復(fù)雜背景和煙霧干擾環(huán)境中具有較強的魯棒性。
1.5 損失函數(shù)優(yōu)化
為解決電梯火災(zāi)數(shù)據(jù)集中正負樣本不平衡問題,設(shè)計改進的focal loss損失函數(shù)。優(yōu)化后的損失函數(shù)如公式(4)所示。
L=-α(1-pt)γlog(pt) (4)
式中:α為平衡因子;γ為調(diào)制因子;pt為預(yù)測概率。
通過動態(tài)調(diào)節(jié)樣本權(quán)重,增加難分樣本的損失貢獻。同時,引入正則化項抑制過擬合,提高模型泛化能力。試驗證明,優(yōu)化后的損失函數(shù)顯著提高了模型在不平衡數(shù)據(jù)集上的訓(xùn)練效果,模型收斂速度提高30%,驗證集上的識別準(zhǔn)確率提高3.5%,有效緩解了類別不平衡帶來的性能退化問題。
2 試驗設(shè)計
2.1 數(shù)據(jù)集構(gòu)建
數(shù)據(jù)集構(gòu)建基于全國多個城市的電梯監(jiān)控系統(tǒng)采集的真實火災(zāi)視頻序列。原始數(shù)據(jù)集規(guī)模包括2000張電梯火災(zāi)圖像樣本和3000張正常運行圖像樣本,圖像分辨率統(tǒng)一設(shè)置為1920px×1080px。樣本采集場景涵蓋電梯轎廂內(nèi)部、電梯門區(qū)、井道等關(guān)鍵區(qū)域,環(huán)境條件包括100lux~2000lux不同光照強度、0%~50%煙霧濃度以及0.1m2~2m2不同火焰面積[4]。為擴充數(shù)據(jù)規(guī)模,采用幾何變換和光學(xué)變換相結(jié)合的數(shù)據(jù)增強策略:幾何變換包括±30°隨機旋轉(zhuǎn)、水平/垂直翻轉(zhuǎn)、±20%隨機裁剪;光學(xué)變換包括±0.3亮度調(diào)整、±0.2對比度調(diào)整、高斯噪聲注入(σ=0.02)。經(jīng)增強后數(shù)據(jù)集規(guī)模擴充至10000張,其中火災(zāi)樣本與正常樣本比例保持4∶6。數(shù)據(jù)標(biāo)注工作由具有5a以上火災(zāi)調(diào)查經(jīng)驗的專業(yè)消防人員完成,采用矩形框標(biāo)注火焰區(qū)域位置,同時記錄場景類型、光照強度、煙霧濃度等關(guān)鍵屬性信息,確保標(biāo)注質(zhì)量和數(shù)據(jù)完整性。
2.2 試驗環(huán)境與參數(shù)設(shè)置
試驗環(huán)境采用高性能計算平臺搭建,硬件配置包括NVIDIA RTX 3080顯卡(10GB顯存)、Intel i9-12900K處理器(16核心32線程),操作系統(tǒng)選用Ubuntu 20.04 LTS版本。深度學(xué)習(xí)框架基于PyTorch 1.9.0構(gòu)建,支持CUDA 11.3加速[5]。模型訓(xùn)練過程中采用Adam優(yōu)化器進行參數(shù)更新,其中β1=0.9,β2=0.999,初始學(xué)習(xí)率lr設(shè)定為0.001。訓(xùn)練batch size設(shè)置為32,以平衡計算效率與顯存占用,總訓(xùn)練輪數(shù)為100輪。為提高模型收斂效果,引入學(xué)習(xí)率動態(tài)調(diào)整策略,每經(jīng)過30輪訓(xùn)練,學(xué)習(xí)率以0.1的比例衰減。模型正則化采用dropout機制,隨機失活率設(shè)為0.5,同時引入L2正則化項,權(quán)重衰減系數(shù)為0.0005,有效抑制過擬合現(xiàn)象。數(shù)據(jù)集劃分遵循機器學(xué)習(xí)最佳實踐,按照7∶2∶1比例隨機分配為訓(xùn)練集、驗證集和測試集,確保模型評估的科學(xué)性與可靠性(如圖2所示)。
2.3 評價指標(biāo)選擇
本文構(gòu)建了面向電梯火災(zāi)識別的多維度評價指標(biāo)體系?;A(chǔ)性能評估采用準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)和F1分數(shù)4個關(guān)鍵指標(biāo)。其中,準(zhǔn)確率定義為正確識別樣本數(shù)與總樣本數(shù)的比值,精確率表示預(yù)測為火災(zāi)場景中真實火災(zāi)樣本的占比,召回率反映真實火災(zāi)樣本被正確識別的比例。F1分數(shù)通過調(diào)和平均數(shù)方式綜合評估模型性能,如公式(5)所示。
F1=2×(Precision×Recall)/(Precision+Recall) (5)
模型分類性能評估引入ROC曲線分析,橫坐標(biāo)為假陽性率(FPR),縱坐標(biāo)為真陽性率(TPR),曲線下面積AUC反映模型區(qū)分能力。實時性評估采用平均處理時延(ms)和處理幀率(f/s)作為量化指標(biāo)。針對復(fù)雜環(huán)境適應(yīng)性評估,設(shè)計了基于光照強度(lux)和煙霧濃度(%)的分級測試方案,通過識別準(zhǔn)確率和誤報率的變化曲線評估模型魯棒性,為算法在實際電梯環(huán)境中的部署應(yīng)用提供可靠的性能保障依據(jù)。
3 試驗結(jié)果與分析
3.1 對比試驗結(jié)果
改進的CNN算法在電梯火災(zāi)識別任務(wù)中具有顯著優(yōu)勢。模型性能提高主要源自3個關(guān)鍵改進:雙色彩空間預(yù)處理提高了火焰區(qū)域特征表達,注意力機制強化了關(guān)鍵區(qū)域特征提取,優(yōu)化的損失函數(shù)解決了樣本不平衡問題。在標(biāo)準(zhǔn)測試集上的識別準(zhǔn)確率達到95.8%,較基準(zhǔn)模型提高8.2%。消融試驗結(jié)果驗證了各改進模塊的有效性,其中注意力機制貢獻最顯著,提高了4.3%(見表1)。
3.2 實時性能分析
通過引入深度可分離卷積和優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),改進算法顯著提高了計算效率。試驗結(jié)果表明,處理單幀圖像的時延從156ms降至83ms,平均幀率升至12f/s,滿足電梯火災(zāi)預(yù)警系統(tǒng)對實時性的要求。在資源占用方面,GPU顯存需求從4.2GB降至1.8GB,降幅達57%。隨著數(shù)據(jù)規(guī)模增加,算法的性能保持較好的穩(wěn)定性,當(dāng)數(shù)據(jù)量達到10000張時,處理時延僅增至89ms,幀率仍維持在11.2f/s以上。通過計算資源需求減少和處理效率提高,改進算法在實際部署中具有更強的實用價值(見表2)。
3.3 魯棒性測試結(jié)果
針對電梯環(huán)境中復(fù)雜多變的干擾因素,改進算法通過雙色彩空間融合和注意力機制增強了環(huán)境適應(yīng)能力。試驗設(shè)計了不同強度的干擾場景,包括光照變化(1000lux以上的明亮環(huán)境至500lux以下的暗光環(huán)境)和煙霧遮擋(煙霧濃度為20%以下至40%以上)。在弱干擾條件下,算法識別準(zhǔn)確率達到94.5%,誤報率僅為2.8%。即使在光照強度低于500lux且煙霧濃度超過40%的強干擾場景下,識別準(zhǔn)確率仍保持在90.8%以上,誤報率控制在4.5%以內(nèi),驗證了算法在復(fù)雜環(huán)境下的魯棒性。這種穩(wěn)定的識別性能對電梯火災(zāi)的早期預(yù)警具有重要意義(見表3)。
3.4 算法局限性討論
雖然改進算法的性能在電梯火災(zāi)識別任務(wù)中得到了顯著提高,但仍存在一些局限性。在計算資源方面,盡管通過深度可分離卷積降低了模型復(fù)雜度,但完整的處理流程仍需要1.8GB顯存占用,對邊緣計算設(shè)備部署提出了較高要求。在環(huán)境適應(yīng)性方面,當(dāng)煙霧濃度超過60%時,算法識別準(zhǔn)確率出現(xiàn)明顯下降,說明在極端場景下的魯棒性有待加強。在模型泛化能力方面,由于電梯火災(zāi)數(shù)據(jù)獲取困難,現(xiàn)有訓(xùn)練數(shù)據(jù)的場景覆蓋不夠全面,在未見場景下的識別效果需要進一步驗證。在算法實時性方面,當(dāng)前12f/s的處理速度雖然滿足基本需求,但在高速攝像頭應(yīng)用場景中仍顯不足。未來需要探索模型壓縮技術(shù),引入跨模態(tài)特征融合,并結(jié)合其他傳感器數(shù)據(jù)協(xié)同決策,以克服這些局限。
4 結(jié)語
本文對傳統(tǒng)CNN在電梯火災(zāi)識別中的不足進行分析,提出了基于雙色彩空間融合和注意力機制的改進方案。改進后的算法不僅提高了識別準(zhǔn)確率,而且具有較強的抗干擾能力。試驗表明,該算法在不同光照條件下仍能保持穩(wěn)定的識別性能,處理速度滿足實時性要求。后續(xù)研究建議進一步擴充數(shù)據(jù)集的場景多樣性,優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),以降低計算復(fù)雜度,并探索將其與其他傳感器數(shù)據(jù)融合的可能性,為電梯火災(zāi)預(yù)警系統(tǒng)的實際應(yīng)用提供更可靠的技術(shù)支撐。
參考文獻
[1]唐冬來,田富強,何鵬,等.基于時空擴散的輸電走廊圖像火災(zāi)預(yù)警方法[J].電子技術(shù)應(yīng)用,2024,50(10):51-56.
[2]舒一飛,楊琦,王成武,等.基于電網(wǎng)末端感知數(shù)據(jù)的電氣火災(zāi)隱患識別技術(shù)[J].電氣時代,2024(9):63-65.
[3]劉暢,王張舒君,張恩茂,等.基于BIM建模和人工神經(jīng)網(wǎng)絡(luò)的快/慢速火災(zāi)識別方法[J].智能建筑電氣技術(shù),2024,18(3):47-51.
[4]楊國賢.基于圖像處理的智能樓宇火災(zāi)識別方法研究[J].住宅產(chǎn)業(yè),2024(4):52-55.
[5]陳跨越,王保云.基于改進Resnet18網(wǎng)絡(luò)的火災(zāi)圖像識別[J].河南師范大學(xué)學(xué)報(自然科學(xué)版),2024,52(4):101-112.