• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于遷移學(xué)習(xí)的火災(zāi)圖像檢測方法研究

      2020-11-18 14:00:22陳照悅張紅梅張向利
      現(xiàn)代計算機 2020年28期
      關(guān)鍵詞:誤報率火焰火災(zāi)

      陳照悅,張紅梅,張向利

      (桂林電子科技大學(xué)信息與通信學(xué)院,桂林541004)

      0 引言

      現(xiàn)有的自動火災(zāi)報警系統(tǒng)是利用新型的感煙、感溫等探測器進行火災(zāi)檢測,但受多種因素影響,存在響應(yīng)時間慢,不能及時報警,漏報誤報等問題。視頻火災(zāi)檢測技術(shù)可以實現(xiàn)快速準(zhǔn)確的探測火災(zāi),對環(huán)境的適應(yīng)性強,誤報率低,得到了廣泛的關(guān)注和應(yīng)用。國內(nèi)外學(xué)者對視頻火災(zāi)檢測進行了大量的研究,取得了重大的進展。視頻火災(zāi)檢測主要有兩種檢測方法,一是基于特征的檢測方法,二是基于深度學(xué)習(xí)的檢測方法。視頻火災(zāi)圖像有動態(tài)和靜態(tài)兩大特征,靜態(tài)特征主要有顏色、紋理等特征,動態(tài)特征主要包括整體運動、頻閃等特性。Chen 等人[1]根據(jù)火焰的顏色和像素變化特征,通過RGB 模型和火焰動態(tài)特征得到異常像素點數(shù)目,并通過重復(fù)計算決策函數(shù)判斷是否超過自適應(yīng)閾值,來判定是否發(fā)出報警信號,但容易將類似火焰的物體檢測為火焰,虛警率較高;Celik 等人[2]提出了一種基于規(guī)則的火焰像素分類通用顏色模型,使用YCbCr 顏色空間,更好地將火焰的亮度與色度區(qū)分開,實現(xiàn)了較高的火焰檢測率,但誤報率仍然較高,無法應(yīng)用到實際環(huán)境中。文獻[3]使用幀差法實現(xiàn)火焰的前景分割,再通過動靜態(tài)特征識別火焰,但是幀差法對背景的判斷只是前后兩幀,對變化很快的物體檢驗效果明顯,沒有更多的時序信息,檢測前景區(qū)域不完整。文獻[4]使用了改進的ViBe 算法,通過引入切換變量控制模型每兩幀更新一次,并使用快速更新策略提高適應(yīng)力,能夠準(zhǔn)確檢測出森林火災(zāi)煙霧,但只考慮了運動特征,不能提取出完整特征,虛警率高。文獻[5]使用3D 卷積神經(jīng)網(wǎng)絡(luò)進行火焰識別,從時間和空間維度上提取特征,但是很難定位煙霧火焰位置,并且數(shù)據(jù)集較少,只檢測紅色火災(zāi),對藍色等火災(zāi)并不能準(zhǔn)確檢測。文獻[6]提出基于深度學(xué)習(xí)模型的遷移學(xué)習(xí)來識別煙霧的方式,利用預(yù)訓(xùn)練CNN 模型進行特征遷移,只訓(xùn)練全連接層得到識別模型,但訓(xùn)練集較少,魯棒性較低。文獻[7]提出一種基于多通道CNN 的方法,對多場景數(shù)據(jù)構(gòu)造CNN,由低到高逐層提取空間特征,訓(xùn)練通用火焰識別模型,提高了火焰識別精度。文獻[8]提出一種基于Faster RCNN 模型的火焰檢測算法,可以動態(tài)提取分析火焰特征,提升了在復(fù)雜條件下識別火焰的準(zhǔn)確率,但是輸入圖像是固定尺寸,數(shù)據(jù)集較小,容易陷入過擬合。Bingo等人[9]對遷移學(xué)習(xí)解釋為模型可以把從其他數(shù)據(jù)集學(xué)習(xí)而來的知識,轉(zhuǎn)移應(yīng)用到當(dāng)前所需的目標(biāo)數(shù)據(jù)集中,這樣就可以讓模型在數(shù)據(jù)較少的場景下依舊可以較好的學(xué)習(xí)樣本特征并進行泛化。

      為此,針對當(dāng)前存在標(biāo)注數(shù)據(jù)不足、識別效果差的問題,本文提出了基于遷移學(xué)習(xí)的火災(zāi)圖像檢測方法,首先獲取不同場景下的火災(zāi)視頻圖像作為數(shù)據(jù)集,然后利用數(shù)據(jù)增強技術(shù),對火災(zāi)圖像進行翻轉(zhuǎn)、裁剪等操作來擴充數(shù)據(jù)集。通過在這四個不同網(wǎng)絡(luò)模型的實驗分 析,發(fā) 現(xiàn) DenseNet121[10]相 比 于 InceptionV3、ResNet18、ResNet50 模型在檢測準(zhǔn)確率和實時性方面性能更佳。

      1 遷移學(xué)習(xí)檢測方法

      本文提出的基于遷移學(xué)習(xí)的火災(zāi)圖像檢測方法框架如圖1 所示,首先,進行數(shù)據(jù)的預(yù)處理操作,然后進行模型的遷移學(xué)習(xí)。具體操作步驟如Step 1 和Step 2所示。

      圖1 基于遷移學(xué)習(xí)的檢測方法框架

      Step 1:數(shù)據(jù)預(yù)處理:

      (1)將所有的圖像數(shù)據(jù)縮放到224×224;

      (2)將所有的數(shù)據(jù)做數(shù)據(jù)增強;

      (3)將所有數(shù)據(jù)進行歸一化。

      Step 2:模型遷移學(xué)習(xí):

      (1)加載預(yù)訓(xùn)練的網(wǎng)絡(luò)模型;

      (2)重新添加一層全連接層,并隨機初始化權(quán)重;

      (3)微調(diào)隱藏層中的卷積層與池化層參數(shù)或者凍結(jié)前面全部層,只訓(xùn)練全連接層;

      (4)使用視頻幀圖像小數(shù)據(jù)集執(zhí)行訓(xùn)練,微調(diào)網(wǎng)絡(luò)全部參數(shù);

      (5)得到深度遷移學(xué)習(xí)CNN 火焰檢測模型進行預(yù)測。

      2 遷移學(xué)習(xí)模型

      2.1 GoogLeNet

      GoogLeNet 提出Inception 網(wǎng)絡(luò)結(jié)構(gòu),其目標(biāo)是搭建稀疏且高計算性能的網(wǎng)絡(luò)結(jié)構(gòu),Inception 網(wǎng)絡(luò)在V1-V4 版本的發(fā)展之后漸入佳境,效果越發(fā)強大。Inception 的初始結(jié)構(gòu)如圖2 所示。

      圖2 Inception網(wǎng)絡(luò)結(jié)構(gòu)

      該結(jié)構(gòu)將CNN 中常用的1×1、3×3、5×5 卷積和3×3 池化操作組合在一起,不僅增加了網(wǎng)絡(luò)寬度,也增加了網(wǎng)絡(luò)的適應(yīng)性,其中1×1 卷積可以用來減少維度和降低運算量。InceptionV3 引入了分解,將7×7 卷積轉(zhuǎn)換成7×1 和1×7 卷積,既加速了計算,又進一步增加了網(wǎng)絡(luò)深度和非線性,提高了網(wǎng)絡(luò)的表現(xiàn)能力,它的網(wǎng)絡(luò)結(jié)構(gòu)如下表1 所示。

      表1 InceptionV3 模型結(jié)構(gòu)

      上述網(wǎng)絡(luò)中3 個Inception 部分。第一個Inception部分是使用兩個3×3 卷積代替了5×5 卷積,第二個In?ception 減少了feature,增多了filters,而第三個Incep?tion 增多了filter 并使用卷積池化并行結(jié)構(gòu),通過這種方式雖增加了網(wǎng)絡(luò)的層數(shù),但參數(shù)量少了,訓(xùn)練起來并不會比改變之前慢多少。

      2.2 ResNet

      在深度學(xué)習(xí)中,深度網(wǎng)絡(luò)都伴隨著梯度消失等問題,進而導(dǎo)致性能下降,而微軟研究院的Kaiming He[11]提出的ResNet 成功訓(xùn)練了152 層的神經(jīng)網(wǎng)絡(luò),有效解決了梯度消失問題,其中解決梯度消失問題的關(guān)鍵結(jié)構(gòu)是殘差塊(ResNet Unit)。殘差塊通過在網(wǎng)絡(luò)中加入跳躍連接結(jié)構(gòu),進而可以讓梯度在反向傳播過程中通過這個結(jié)構(gòu)傳遞到更深層的網(wǎng)絡(luò),殘差塊的結(jié)構(gòu)如圖3所示:

      圖3 殘差塊結(jié)構(gòu)

      圖3 將輸入設(shè)為X,殘差結(jié)構(gòu)的輸出設(shè)為H(X),F(xiàn)(X)來表示殘差函數(shù),則有:

      網(wǎng)絡(luò)的訓(xùn)練目標(biāo)就是將這條新的學(xué)習(xí)路徑損失降為0,從而確保模型層數(shù)增多的同時,梯度不會消失,保證模型識別準(zhǔn)確率。

      2.3 DenseNet

      DenseNet(Densely Connected Convolutional Net?works)是一種密集型連接網(wǎng)絡(luò),其后的層都與前面的每一層相連接,對于一個L層CNN,存在L(L+1)/2 條連接。

      假設(shè)傳統(tǒng)的網(wǎng)絡(luò)在l 層的輸出為:

      式(2)中網(wǎng)絡(luò)的第l層只有一個輸入,即xl-1,而對于DenseNet,前面所有層都作為l層的輸入:

      其中Hl指的是一系列非線性運算,包括BN、Re?LU、Pooling 及3*3Conv 運算。

      DenseNet 的網(wǎng)絡(luò)特性:

      (1)特征圖大小一致。DenseNet 進行運算必須要求所有特征圖大小一致,而一般的神經(jīng)網(wǎng)絡(luò)要經(jīng)過pooling 操作等來降低特征圖的大小。

      (2)采用DenseBlock + Transition 結(jié)構(gòu),如圖4所示。

      圖4 可以看出該結(jié)構(gòu)由3 個DenseBlock 和2 個Transition 組成,每個DenseBlock 模塊可能包含很多的Conv、Pooling、ReLU、BN 運算、Transition 結(jié)構(gòu)用來進行降維操作。(3)生長率。生長率指的是每層特征的映射數(shù),假設(shè)為k,對于第i 層輸入有ki 個特征映射為:

      式中K0表示輸入層的通道數(shù)。一般較小的k 值就可以獲得較好的效果,隨著層數(shù)的增加,相應(yīng)的特征圖的輸入也逐漸增多。但每個層僅有自己獨有的k 個特征,而k 就是生長率。

      DenseNet 網(wǎng)絡(luò)在圖像分類性能表現(xiàn)出很大的優(yōu)勢,由于密集連接方式,DenseNet 提升了梯度的反向傳播,使得網(wǎng)絡(luò)更容易訓(xùn)練。由于每層可以直達最后的誤差信號,實現(xiàn)了隱式的“deep supervision”;參數(shù)更小且計算更高效,這有點違反直覺,由于DenseNet 是通過concat 特征來實現(xiàn)短路連接,實現(xiàn)了特征重用,并且采用較小的growth rate,每個層所獨有的特征圖是比較小的;由于特征復(fù)用,最后的分類器使用了低級特征。

      圖4 DenseBlock+Transition結(jié)構(gòu)

      3 實驗結(jié)果與分析

      3.1 數(shù)據(jù)集獲取

      目前基于深度學(xué)習(xí)的火災(zāi)檢測研究還處于初期階段,在火災(zāi)研究領(lǐng)域的公共的數(shù)據(jù)集比較少,常用的方式即通過攝像頭捕獲一些火焰、煙霧圖片或者視頻數(shù)據(jù)??紤]是既要獲取火災(zāi)的空間特征,又要獲取時間特征,如果使用一般毫無關(guān)聯(lián)的火災(zāi)圖像,很難學(xué)習(xí)全部特征,因此使用多個場景下的連續(xù)幀圖像模型進行訓(xùn)練。數(shù)據(jù)集為網(wǎng)上獲取的不同場景下的連續(xù)視頻幀圖像,其中訓(xùn)練集火圖像數(shù)為12550 張,非火圖像為10850 張;測試集火圖像數(shù)為1716 張,測試非火圖像數(shù)為1223 張。

      3.2 圖片數(shù)據(jù)預(yù)處理

      火災(zāi)數(shù)據(jù)集都是一些不標(biāo)準(zhǔn)的數(shù)據(jù)集,不能直接送到網(wǎng)絡(luò)中訓(xùn)練,雖然有些網(wǎng)絡(luò)可以直接對原始數(shù)據(jù)集處理,但每次訓(xùn)練都需要重新處理數(shù)據(jù)集,則會浪費大量訓(xùn)練時間,因此預(yù)先處理出適用于預(yù)訓(xùn)練模型的數(shù)據(jù)集是非常必要的。

      許多CNN 需要輸入標(biāo)準(zhǔn)尺寸的圖像,而攝像頭采集到的數(shù)據(jù)往往不能滿足這樣的要求,所以必須要對這些數(shù)據(jù)集剪切到指定尺寸,同時使用數(shù)據(jù)集增強技術(shù)擴充數(shù)據(jù)集,數(shù)據(jù)增強方法非常適用于圖像識別與目標(biāo)檢測,即使圖片進行一些幾何變換(翻轉(zhuǎn)、裁剪等),其類別信息與特征也不變,可以使神經(jīng)網(wǎng)絡(luò)的泛化誤差大大降低。

      3.3 實驗環(huán)境及超參數(shù)設(shè)置

      本文實驗采用GPU 是NVIDIA GeForce GTX 1080Ti,CPU 為Intel Xeon ES-260,32G 內(nèi) 存,128G SSD;Windows10 64bit 操作系統(tǒng),環(huán)境配置CUDA9.0,PyCharm 編譯軟件,PyTorch 深度學(xué)習(xí)框架的軟硬件平臺。

      深度學(xué)習(xí)算法包含許多超參數(shù),它們分別控制算法的不同表現(xiàn),也會對算法的運行時間、推斷能力等造成影響。超參數(shù)可以手動選擇,也可以讓機器自動選擇,手選超參要對超參數(shù)的作用以及模型有著較高的認(rèn)知,自動選擇超參數(shù)算法則是建立在超強的算力基礎(chǔ)上面。本文采取手動調(diào)整超參數(shù)方式設(shè)置如下超參數(shù):學(xué)習(xí)率(learning-rate)為0.001,迭代次數(shù)為25 次,優(yōu)化器(optimizer)為SGD 優(yōu)化器,批大?。╞atch_size)為16。

      3.4 性能評價指標(biāo)

      實驗結(jié)果通過TP(True Positive)、FP(False Posi?tive)、TN(True Negative)、FN(False Negative)、準(zhǔn)確率A、誤報率P、敏感度R、漏檢率Miss 八個指標(biāo)評價模型的好壞。

      TP、FP、TN、FN 四個概念之間的關(guān)系如表2 所示。

      表2 預(yù)測結(jié)果概念定義表

      其中:

      (1)TP:表示火數(shù)據(jù)集中被分類為火的圖像數(shù)量。

      (2)FP:表示火數(shù)據(jù)集中未被分類為火的圖像數(shù)量。

      (3)TN:表示非火數(shù)據(jù)集中未被分類為火的圖像數(shù)量。

      (4)FN:表示非火數(shù)據(jù)集中被分類為火的圖像數(shù)量。

      (5)準(zhǔn)確率:指真正有火的數(shù)據(jù)集數(shù)量在所有火圖像中所占的比例,表示模型發(fā)出正確警報的概率。

      (6)誤報率:指非火圖片被分類成火的統(tǒng)計在所有報警圖像數(shù)量的占比,表示模型發(fā)出錯誤警報的概率。

      (7)敏感度:指正確圖像數(shù)量在所有火焰圖像中的比例。表示系統(tǒng)對火圖像的敏感程度,敏感程度R 值越大,則代表模型對火圖像的識別能力越強。

      (8)漏檢率:指未檢測到的火圖片在總測試集中所占的比例。漏檢率值Miss 越低,表示模型對火的識別能力越強。

      3.5 實驗結(jié)果與分析

      通過對訓(xùn)練集訓(xùn)練得到結(jié)果如圖5 所示。

      圖5 可以看出各模型訓(xùn)練開始時loss 值就較小,并且loss 值可以快速收斂,模型在訓(xùn)練20 個epoch后,loss 值趨于穩(wěn)定。

      由圖6 可以看出經(jīng)過一個epoch 的訓(xùn)練,各模型就達到了一個很好的預(yù)期效果,精確度最低為84%;第二個epoch 后,訓(xùn)練精度大幅提升,10 個epoch 以后訓(xùn)練精確度明顯提高,在98%左右波動。

      我們對訓(xùn)練后的模型在測試集上測試,實驗結(jié)果如表3 所示。

      表3 模型實驗結(jié)果對比

      圖5 各模型loss 曲線

      圖6 訓(xùn)練精確度曲線

      通過表3 可以看出就訓(xùn)練時間來說,隨著網(wǎng)絡(luò)深度的增加,訓(xùn)練的時間是越長的。DenseNet121 模型由于網(wǎng)路深度的原因,越到后面層學(xué)習(xí)的特征圖越多,占用內(nèi)存較大,訓(xùn)練時間較長。對于測試時間,我們可以看出DenseNet121 的測試時間較短,檢測2900 多張圖片僅需要19 秒,檢測速度快;InceptionV3 模型的時間檢測較長,需要40 多秒,ResNet18 和ResNet50 的檢測時間基本都在30 秒左右;對于測試集DenseNet 能表現(xiàn)出很好的檢測效果,精確度91.15%,其他三種模型的精確度都在90%以下。對于模型的大小,Incep?tionV3 網(wǎng)絡(luò)訓(xùn)練后模型大小95.3M,ResNet18 模型因其網(wǎng)絡(luò)層數(shù)低有43.7M,ResNet50 網(wǎng)絡(luò)模型大小89.9M,而DenseNet 網(wǎng)絡(luò)模型只有31.6M。綜合實驗我們可以得出雖然DenseNet 訓(xùn)練模型的時間較長,但在檢測時間和檢測精度上都明顯優(yōu)于其他三種模型,且模型小,更容易在硬件上被使用。

      對火圖像和非火圖像分別在四種模型下預(yù)測,得到四種模型的混淆矩陣如表4。

      將表4 的數(shù)據(jù)代入式(5)、式(6)、式(7)、式(8)可求出各模型的準(zhǔn)確率、誤報率、召回率、漏檢率,如表5所示。

      表4 4 種模型混淆矩陣

      表5 4 種模型準(zhǔn)確率、誤報率、召回率、漏檢率

      由表5 可以看出InceptionV3 網(wǎng)絡(luò)在召回率方面有很大優(yōu)勢達到94.75%,但準(zhǔn)確率和精確率都比較低,誤報問題比較嚴(yán)重,有23.14%的誤報率,但漏檢性能較好,漏檢率為5.25%;ResNet18 與ResNet50 基本保持相同的性能,準(zhǔn)確率分別是88.40%和87.65%,檢測效果一般;DenseNet 雖然在召回率方面略低于In?ceptionV3 網(wǎng)絡(luò),但準(zhǔn)確率在92.54%,明顯高于其他網(wǎng)絡(luò),誤報率和漏報率分別是7.46%和7.36%。

      通過以上實驗我們可以看出,微調(diào)后的DenseNet網(wǎng)絡(luò)模型具有預(yù)測時間短、精確度高、漏報率低、誤報率低等優(yōu)勢而且模型比較小,能夠很好地應(yīng)用到火災(zāi)檢測領(lǐng)域,則選取DenseNet121 模型作為最終深度遷移模型。

      4 結(jié)語

      本文基于遷移學(xué)習(xí)的視頻火災(zāi)圖像檢測方法研究,選取了遷移學(xué)習(xí)模型分別是InceptionV3、ResNet18、ResNet50、以及DenseNet 模型,將數(shù)據(jù)集放入預(yù)訓(xùn)練模型中訓(xùn)練,并對模型做了微調(diào),最終得到了不同的模型,分別對他們的精確度、漏報率、預(yù)測時間做了對比,實驗表明DenseNet 具有預(yù)測時間短、精確度高、漏報率低的優(yōu)勢,我們選取DenseNet 作為最后的模型。下一步準(zhǔn)備結(jié)合目標(biāo)檢測算法對火災(zāi)區(qū)域進行定位。

      猜你喜歡
      誤報率火焰火災(zāi)
      基于GRU-LSTM算法的物聯(lián)網(wǎng)數(shù)據(jù)入侵檢測分析
      基于SSA-SVM的網(wǎng)絡(luò)入侵檢測研究
      《火焰》
      最亮的火焰
      家用燃氣報警器誤報原因及降低誤報率的方法
      煤氣與熱力(2021年6期)2021-07-28 07:21:40
      漂在水上的火焰
      遇火災(zāi)怎么辦?
      吹不滅的火焰
      學(xué)與玩(2017年6期)2017-02-16 07:07:22
      掌握火災(zāi)逃生知識
      神經(jīng)網(wǎng)絡(luò)技術(shù)在網(wǎng)絡(luò)入侵檢測模型及系統(tǒng)中的應(yīng)用
      雅安市| 张家川| 呼图壁县| 博野县| 东乌| 平和县| 桑植县| 阿勒泰市| 乐昌市| 六安市| 大石桥市| 台中县| 梁山县| 广灵县| 洛阳市| 东平县| 大冶市| 简阳市| 昭苏县| 福建省| 汉川市| 东莞市| 岫岩| 庄浪县| 卢氏县| 泰兴市| 黎平县| 卢氏县| 城步| 弥勒县| 阿坝县| 仙游县| 康乐县| 游戏| 苏州市| 永善县| 缙云县| 勃利县| 高淳县| 石泉县| 梁山县|