韓超慧,馬 俊,吳文俊,陳 佳
?
基于深度遷移學(xué)習(xí)的煙霧圖像檢測(cè)
韓超慧,馬 俊,吳文俊,陳 佳*
(武漢紡織大學(xué) 數(shù)學(xué)與計(jì)算機(jī)學(xué)院,湖北 武漢 430200)
針對(duì)鄉(xiāng)村焚燒秸稈的煙霧預(yù)警問題,提出一種基于深度遷移學(xué)習(xí)的煙霧圖像檢測(cè)方法。該方法使用TensorFlow框架,引用已在ImageNet數(shù)據(jù)集上訓(xùn)練好的Inception-v3網(wǎng)絡(luò)模型作為源模型,將其在ImageNet數(shù)據(jù)集中提取到的邊緣、色彩、紋理等特征用于構(gòu)建新的煙霧檢測(cè)模型。利用真實(shí)場(chǎng)景的監(jiān)控圖像進(jìn)行實(shí)驗(yàn)驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,和傳統(tǒng)的煙霧圖像檢測(cè)方法相比,該方法取得了較高的檢測(cè)準(zhǔn)確率,測(cè)試準(zhǔn)確率達(dá)到了90%。
深度學(xué)習(xí);煙霧檢測(cè);遷移學(xué)習(xí);TensorFlow
煙霧作為焚燒秸稈的明顯特征之一,對(duì)其檢測(cè)可以有效對(duì)焚燒秸稈進(jìn)行預(yù)警,減少生命財(cái)產(chǎn)的損失,防止大氣污染,保護(hù)生態(tài)環(huán)境。為保護(hù)人民群眾的生命財(cái)產(chǎn)安全,根據(jù)《大氣污染法》和國(guó)家《秸稈禁燒和綜合利用管理辦法》等有關(guān)法規(guī),對(duì)焚燒秸稈的預(yù)防與告警已經(jīng)刻不容緩[1]。
傳統(tǒng)的煙霧檢測(cè)方法多采用物理信號(hào)進(jìn)行監(jiān)測(cè),使用大量的傳感器來(lái)檢測(cè)溫度、光聲等信號(hào)[2],[3],耗費(fèi)大量人力和物力來(lái)布置和安裝傳感器,雖然檢測(cè)精度較高,但其檢測(cè)的范圍太小,在鄉(xiāng)村農(nóng)田或是森林這種廣闊開放并且環(huán)境復(fù)雜的地帶,其檢測(cè)能力會(huì)大大降低甚至失效。近年,基于圖像的識(shí)別方法受到了廣泛重視,如基于光流法、幀差法和高斯背景建模的一系列煙霧檢測(cè)方法[4][5],其共同的特點(diǎn)就是首先通過(guò)背景建?;蜻\(yùn)動(dòng)目標(biāo)檢測(cè)提取出疑似煙霧區(qū)再進(jìn)行判別,該類方法相對(duì)于傳統(tǒng)的煙霧檢測(cè)方法,人力物力需求更小,檢測(cè)范圍更大,但其針對(duì)的場(chǎng)景單一,泛化能力差,這樣就在受到外界環(huán)境干擾的情況下很容易產(chǎn)生誤報(bào)(例如大風(fēng)使攝像頭產(chǎn)生晃動(dòng))。近年隨著計(jì)算機(jī)計(jì)算能力的提升與卷積神經(jīng)網(wǎng)絡(luò)在圖像處理方面的應(yīng)用[6],[7],深度學(xué)習(xí)圖像處理發(fā)展飛速,目前已經(jīng)相當(dāng)成熟,這就為煙霧檢測(cè)提供了更優(yōu)的解決途徑。深度學(xué)習(xí)區(qū)別于傳統(tǒng)框架,它無(wú)需人工設(shè)計(jì)檢測(cè)算子,自動(dòng)從數(shù)據(jù)中學(xué)習(xí)特征并經(jīng)過(guò)訓(xùn)練不斷優(yōu)化。然而深度學(xué)習(xí)需要大量的數(shù)據(jù)樣本,并要求訓(xùn)練集和測(cè)試集符合相同的數(shù)據(jù)分布。目前網(wǎng)絡(luò)上并沒有鄉(xiāng)村焚燒秸稈的煙霧數(shù)據(jù)集,而一般的煙霧數(shù)據(jù)集中,煙霧與攝像頭距離較近,煙霧的背景環(huán)境過(guò)于簡(jiǎn)單,與現(xiàn)實(shí)中的鄉(xiāng)村環(huán)境差距太大,無(wú)法應(yīng)用于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,所以只能從鄉(xiāng)村農(nóng)田監(jiān)控視頻中截取焚燒秸稈煙霧圖像來(lái)制作數(shù)據(jù)集。但由于人力物力與時(shí)間的有限,且焚燒秸稈較少發(fā)生,所以煙霧圖像數(shù)據(jù)集數(shù)量并不足以支撐整個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。為解決煙霧小數(shù)據(jù)集這一問題,采取遷移學(xué)習(xí)方法[8]利用少量的鄉(xiāng)村煙霧圖像來(lái)訓(xùn)練復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型。通過(guò)遷移學(xué)習(xí),將源模型在大數(shù)據(jù)集上訓(xùn)練出來(lái)的優(yōu)秀特征提取能力遷移到目標(biāo)模型上。
本文引入在ImageNet[9]數(shù)據(jù)集上訓(xùn)練好的Inception-v3[10]網(wǎng)絡(luò),將Inception-v3網(wǎng)絡(luò)中的最后一層全連接層(FullyConnectedLayers,F(xiàn)C)刪除并重新設(shè)定,然后將之前的隱藏層中的卷積層與池化層參數(shù)全部?jī)鼋Y(jié),再利用收集到的鄉(xiāng)村煙霧小數(shù)據(jù)集進(jìn)行訓(xùn)練,對(duì)重新設(shè)定的全連接層進(jìn)行微調(diào),得到深度遷移學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)煙霧檢測(cè)模型。最后采用鄉(xiāng)村監(jiān)控截取到的最新煙霧圖片數(shù)據(jù)進(jìn)行實(shí)驗(yàn)測(cè)試,結(jié)果證明即使在小數(shù)據(jù)集的情況下,由Inception-v3遷移得到的煙霧檢測(cè)模型仍能達(dá)到90%以上的準(zhǔn)確率。
表1表示Inception-v3網(wǎng)絡(luò)的結(jié)構(gòu),其中有6個(gè)卷積層,2個(gè)池化層,2個(gè)全連接層,與三種不同的Inception模塊。卷積層均采用3×3的卷積核,1、5層步長(zhǎng)為2,其余步長(zhǎng)為1。兩個(gè)池化層分別采用3×3、8×8的卷積核,步長(zhǎng)分別為2和1。
表1 Inception-v3網(wǎng)絡(luò)結(jié)構(gòu)
Inception模塊通過(guò)4個(gè)分支中不同尺寸的小型卷積將相關(guān)性很高的節(jié)點(diǎn)連接在了一次,構(gòu)建出了高效的符合Hebbian原理的稀疏結(jié)構(gòu),減輕了過(guò)擬合并降低計(jì)算量[11]。圖1為原始Inception模塊,圖2的模塊1將原始模塊中的5×5卷積使用兩個(gè)3×3代替,如圖5,這樣既可以有相同的視野,還具有更少的參數(shù)。圖3是用n×1卷積來(lái)代替5×5與3×3卷積,這里設(shè)定n=7來(lái)應(yīng)對(duì)17×17大小的特征圖(feature map)。圖4則是用Asymmetric方法,即使用3×1與1×3卷積來(lái)代替3×3卷積,視野同樣不變參數(shù)減少,如圖6。這樣的改進(jìn)使得計(jì)算量大大降低,使用2個(gè)2×2卷積代替3×3卷積可以節(jié)省11%的計(jì)算量,而使用Asymmetric則可以節(jié)省33%的計(jì)算量[12]。
圖1 原始Inception模塊
圖2 Inception模塊1
圖3 Inception模塊2
圖4 Inception模塊3
圖5 5×5卷積變?yōu)?×3卷積
圖6 3×3卷積變?yōu)?×1與1×3卷積
除了模型的改進(jìn),Inception-v3還改進(jìn)了目標(biāo)函數(shù)。原來(lái)的目標(biāo)函數(shù),在單類情況下,如果某一類概率接近1,其他的概率接近0,那么會(huì)導(dǎo)致交叉熵取對(duì)數(shù)后變得很大,這樣會(huì)引起兩個(gè)問題:過(guò)擬合導(dǎo)致樣本屬于某個(gè)類別的概率非常的大,模型太過(guò)于自信自己的判斷,所以,使用了一種平滑方法,可以使得類別概率之間的差別減小。這個(gè)方法考慮標(biāo)簽u(k)的分布和平滑參數(shù)?,與訓(xùn)練樣本x相互獨(dú)立。對(duì)于一個(gè)真實(shí)標(biāo)簽為y的訓(xùn)練樣本,標(biāo)簽分布為:
使用平滑方法使標(biāo)簽分布變?yōu)椋?/p>
原本目標(biāo)函數(shù)為:
平滑分布后目標(biāo)函數(shù)變?yōu)椋?/p>
在k=1000類的ImageNet實(shí)驗(yàn)中,使用了u(k)=1/1000和?=0.1來(lái)做標(biāo)簽平滑正則化(LSR),這使得實(shí)驗(yàn)中的top-1錯(cuò)誤率和top-5錯(cuò)誤率,降低了大約0.2%。
遷移學(xué)習(xí)是機(jī)器學(xué)習(xí)技術(shù)的一種,其中在一個(gè)任務(wù)上訓(xùn)練的模型被重新利用在另一個(gè)相關(guān)的任務(wù)上[13]。遷移學(xué)習(xí)也是一種優(yōu)化方法,可以在對(duì)另一個(gè)任務(wù)建模時(shí)提高進(jìn)展速度或者是模型性能。遷移學(xué)習(xí)是指針對(duì)新問題重新使用預(yù)先訓(xùn)練的模型,由于它能用較少的數(shù)據(jù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),這使得目前它在深度學(xué)習(xí)領(lǐng)域非常流行。在遷移學(xué)習(xí)中,能夠使用預(yù)先訓(xùn)練模型的問題只能是與之不同但相類似的問題。遷移學(xué)習(xí)的總體思路是利用已有知識(shí),即一個(gè)模型從一項(xiàng)任務(wù)中學(xué)到的很多被標(biāo)記的訓(xùn)練數(shù)據(jù)可以用在另外一個(gè)數(shù)據(jù)較少的新任務(wù)中[14],如圖7。遷移學(xué)習(xí)主要用于需要大量計(jì)算能力的計(jì)算機(jī)視覺和自然語(yǔ)言處理任務(wù)。在計(jì)算機(jī)視覺領(lǐng)域,神經(jīng)網(wǎng)絡(luò)通常會(huì)嘗試檢測(cè)早期圖層的邊緣,中間圖層的形狀以及底圖層中的一些特定的特征。通過(guò)遷移學(xué)習(xí),可以利用最初訓(xùn)練留下的早期層和中間層,并僅對(duì)底圖層進(jìn)行重新的訓(xùn)練。遷移學(xué)習(xí)的主要優(yōu)點(diǎn)是節(jié)省訓(xùn)練時(shí)間,在大多數(shù)情況下神經(jīng)網(wǎng)絡(luò)不需要大量數(shù)據(jù)就能使得性能更好。通常情況下,從頭開始訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)需要大量的數(shù)據(jù)[18],但并不總是能夠獲得足夠的數(shù)據(jù)。目前網(wǎng)絡(luò)上還沒有開源的大型煙霧圖像視頻庫(kù),而我們所采集到的煙霧圖像視頻也十分有限,并不足以支撐從頭開始訓(xùn)練深層網(wǎng)絡(luò),所以采用遷移學(xué)習(xí)的辦法來(lái)解決煙霧小數(shù)據(jù)集的問題。
圖7 遷移學(xué)習(xí)
TensorFlow是谷歌于2015年11月9日正式開源的計(jì)算框架。TensorFlow計(jì)算框架可以很好地支持深度學(xué)習(xí)的各種算法,但它的應(yīng)用也不限于深度學(xué)習(xí)[14]。如今在谷歌內(nèi)部,TensorFlow已經(jīng)得到了廣泛的應(yīng)用,并且也受到了工業(yè)界和學(xué)術(shù)界的廣泛關(guān)注。如今,包括優(yōu)步(Uber)、Snapchat、Twitter、京東、小米等國(guó)內(nèi)外科技公司也紛紛加入了使用TensorFlow的行列。正如谷歌在TensorFlow開源原因中所提到的一樣,TensorFlow正在建立一個(gè)標(biāo)準(zhǔn),使得學(xué)術(shù)界可以更方便地交流學(xué)術(shù)研究成果,工業(yè)界可以更快地將機(jī)器學(xué)習(xí)應(yīng)用于生產(chǎn)之中。本文將使用TensorFlow框架搭建遷移神經(jīng)網(wǎng)絡(luò),并將訓(xùn)練的神經(jīng)網(wǎng)絡(luò)參數(shù)保存在checkpoints文件中以供調(diào)用和將來(lái)繼續(xù)訓(xùn)練。
先對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,將所有圖片大小歸一化為299×299×3;再加載調(diào)用已經(jīng)在ImageNet上訓(xùn)練好的Inception-v3網(wǎng)絡(luò)參數(shù),將圖片輸入Inception-v3網(wǎng)絡(luò),計(jì)算得到圖片的特征向量;將圖片的特征向量分為訓(xùn)練集和測(cè)試集;利用訓(xùn)練集特征向量對(duì)新設(shè)定的全連接層進(jìn)行訓(xùn)練;最后用測(cè)試集進(jìn)行模型驗(yàn)證;再根據(jù)驗(yàn)證結(jié)果對(duì)模型進(jìn)行分析,對(duì)數(shù)據(jù)及網(wǎng)絡(luò)超參數(shù)調(diào)整之后重新訓(xùn)練。
圖8 模型流程
圖9 遷移神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
遷移神經(jīng)網(wǎng)絡(luò)主要由兩個(gè)部分組成:(1)由Inception-v3遷移得到的特征提取模塊,包含卷積層、池化層和Inception-v3特有的3種特殊卷積層;(2)根據(jù)圖片特征向量大小和分類數(shù)量新設(shè)定的FC層。
3.1.1 數(shù)據(jù)的收集
實(shí)驗(yàn)采用的數(shù)據(jù)均為鄉(xiāng)村監(jiān)控?cái)z像頭所拍攝的真實(shí)場(chǎng)景圖片。對(duì)布置在340個(gè)鄉(xiāng)鎮(zhèn)的監(jiān)控?cái)z像頭,進(jìn)行了歷時(shí)一個(gè)月的煙霧監(jiān)測(cè)抓拍,得到了共計(jì)2437張煙霧圖片作為正樣本,然后再讓每個(gè)攝像頭在不同時(shí)段隨機(jī)抓取了共約5344張圖片作為負(fù)樣本。
3.1.2 數(shù)據(jù)預(yù)處理
由于大多情況下鄉(xiāng)村是沒有煙霧的,所以造成了二分類樣本數(shù)據(jù)不均衡,這樣會(huì)導(dǎo)致訓(xùn)練出來(lái)的模型失效,容易將所有圖片都誤判為沒有煙霧。所以采取過(guò)采樣與欠采樣的方法來(lái)解決樣本不均衡的問題[15]。對(duì)無(wú)煙霧的場(chǎng)景圖片進(jìn)行欠采樣,刪除部分樣本,對(duì)有煙霧的場(chǎng)景圖片進(jìn)行過(guò)采樣,采取裁剪、翻轉(zhuǎn)等方式對(duì)煙霧圖片進(jìn)行數(shù)據(jù)增強(qiáng)。最后對(duì)兩類樣本進(jìn)行清理,將其中分類錯(cuò)誤和夜間抓取的圖片刪除。最終得到有煙霧圖片2700張,無(wú)煙霧圖片5000張。
圖10 實(shí)驗(yàn)數(shù)據(jù)
3.1.3 訓(xùn)練集與測(cè)試集的劃分
隨機(jī)將正樣本與負(fù)樣本中的煙霧圖片分為訓(xùn)練集、測(cè)試集,其中訓(xùn)練集占90%,測(cè)試集占10%。當(dāng)訓(xùn)練全部結(jié)束以后使用測(cè)試集測(cè)試準(zhǔn)確率。
本文使用TensorFlow來(lái)搭建遷移網(wǎng)絡(luò)的架構(gòu),使用Anaconda的JupyterNotebook和python完成編程。使用的工作環(huán)境包括一個(gè)a3.70GHzIntel(R)Core(TM)i7-8700kCPU和一個(gè)NVIDIAGeForczzeGTX1080TiGPU。
3.3.1 模型評(píng)價(jià)指標(biāo)
二分類模型一般有四種評(píng)價(jià)指標(biāo):
準(zhǔn)確率(Accuracy),即所有樣本被正確分類的占比:
精確率(Precison),即預(yù)測(cè)為正類的樣本中,實(shí)際為正類的占比:
召回率(Recall)即實(shí)際為正類的樣本中,正確預(yù)測(cè)為正類的占比:
F1 Score,即精確率和召回率的調(diào)和平均數(shù)[16]。(TP、FP、FP、FP見表2) F1 Score公式如下:
本實(shí)驗(yàn)采取F1 Score來(lái)評(píng)估模型性能。
表2 混淆矩陣
3.3.2 實(shí)驗(yàn)設(shè)置
分別使用支持向量機(jī)、深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、與本文的遷移網(wǎng)絡(luò)四種方法來(lái)進(jìn)行實(shí)驗(yàn)。為方便表述本文依次稱之為SVM(Support Vector Machine)、DNN(Deep Neural Network)、CNN(Convolutional Neural Network)、TLBI(Transfer Learning Based on Inception-v3)。
SVM模型將特征向量輸入支持向量機(jī)進(jìn)行訓(xùn)練和預(yù)測(cè),模型誤差項(xiàng)懲罰參數(shù)為100,模型采用高斯核函數(shù)(RBF)。
DNN模型設(shè)置了3層隱藏層,其中的神經(jīng)元個(gè)數(shù)分別為2048、1024、512。CNN模型隱藏層由3個(gè)卷積層與2個(gè)池化層交替連接組成,卷積核分別為7×7、6×6、5×5,池化的核分別為2×2、3×3、4×4,步長(zhǎng)分別為2、3、4。最后一層為全連接層使用softmax進(jìn)行二分類。
TLBI模型先將已在ImageNet上訓(xùn)練好的Inception-v3模型(除去最后一層全連接層)保留參數(shù)進(jìn)行遷移,然后將煙霧圖片輸入其中,獲取由遷移的Inception-v3模塊計(jì)算得到的特征向量,再利用特征向量訓(xùn)練新設(shè)定的全連接層。如圖9所示,將遷移過(guò)來(lái)的Inception-v3模塊與新設(shè)定的全連接層進(jìn)行對(duì)接,開始模型訓(xùn)練,在訓(xùn)練過(guò)程中對(duì)全連接層參數(shù)進(jìn)行微調(diào)(Fine-tuning)。TLBI采用的是Adam優(yōu)化算法[17],學(xué)習(xí)率為0.001,迭代次數(shù)為5000。
表3 幾種方法實(shí)驗(yàn)結(jié)果對(duì)比(a)訓(xùn)練集與測(cè)試集精度
(b)準(zhǔn)確率、召回率與F1分?jǐn)?shù)
模型Precison/%Recall/%F1 Score/% SVM37.952.944.2 DNN49.762.255.3 CNN71.679.275.2 TLBI89.096.292.6
3.3.3 實(shí)驗(yàn)結(jié)果分析
從表3中看出SVM在訓(xùn)練時(shí)間與測(cè)試時(shí)間上均領(lǐng)先其它模型很多,但其在訓(xùn)練集與測(cè)試集上的準(zhǔn)確率卻非常低,并沒有很好地提取出煙霧圖片的特征。DNN與CNN雖然在訓(xùn)練時(shí)間上相對(duì)于SVM大大增加,但同時(shí)在訓(xùn)練集與測(cè)試集上的準(zhǔn)確率也大大提高,這得益于深度人工神經(jīng)網(wǎng)絡(luò)自動(dòng)提取特征的能力,不足之處在于DNN與CNN在測(cè)試集的表現(xiàn)上并沒有達(dá)到在訓(xùn)練集上的水平,這說(shuō)明兩種模型均對(duì)數(shù)據(jù)產(chǎn)生了過(guò)擬合,這是由于鄉(xiāng)村煙霧背景過(guò)于復(fù)雜且煙霧圖片數(shù)量不足,這樣就導(dǎo)致兩種模型的泛化能力不足。TLBI在訓(xùn)練時(shí)間與測(cè)試時(shí)間上最長(zhǎng),這是由于Inception-v3本身比較復(fù)雜,權(quán)重參數(shù)比較多,在對(duì)TLBI網(wǎng)絡(luò)訓(xùn)練之前需在Inception-v3上計(jì)算出煙霧圖片的特征向量,這樣就大大增加了訓(xùn)練與測(cè)試的時(shí)間,但這樣也同樣使得Inception-v3在ImageNet數(shù)據(jù)集上訓(xùn)練出來(lái)的優(yōu)秀特征提取能力遷移到了TLBI上,所以其在訓(xùn)練集與測(cè)試集上的準(zhǔn)確率均大大超過(guò)了其他模型,而且測(cè)試集與訓(xùn)練集的準(zhǔn)確率差距非常小,說(shuō)明模型的泛化能力十分優(yōu)秀。最終的評(píng)分F1 Score也在四個(gè)模型中遙遙領(lǐng)先。
3.3.4 模型改進(jìn)方法
由于TLBI模型采取的是將批量圖片輸入Inception-v3模塊計(jì)算得到特征向量再進(jìn)行訓(xùn)練,所以每次訓(xùn)練迭代都需要重復(fù)調(diào)用Inception-v3運(yùn)算,這樣就浪費(fèi)了大量時(shí)間在重復(fù)運(yùn)算上。為了提高訓(xùn)練的效率,可以先將所有訓(xùn)練圖片輸入Inception-v3計(jì)算,然后將得到的特征向量保存到指定的文件夾中,之后的每次迭代無(wú)需重新調(diào)用Inception-v3計(jì)算,直接提取文件夾中的特征向量作為輸入,這樣就避免了訓(xùn)練時(shí)每次迭代的重復(fù)運(yùn)算,可以節(jié)省訓(xùn)練所耗費(fèi)的時(shí)間,提高訓(xùn)練模型的效率。
在鄉(xiāng)村農(nóng)田與森林的煙霧檢測(cè)中,由于地形廣闊開放并且環(huán)境復(fù)雜多樣,所以必須采用較為復(fù)雜的神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取。但復(fù)雜的神經(jīng)網(wǎng)絡(luò)必須使用大量的數(shù)據(jù)樣本對(duì)其進(jìn)行訓(xùn)練,而煙霧圖片的樣本數(shù)量并不能達(dá)到這一要求,遷移學(xué)習(xí)在針對(duì)小數(shù)據(jù)集的問題上表現(xiàn)十分優(yōu)秀,所以運(yùn)用遷移學(xué)習(xí)幫助模型提取煙霧特征可以有效的提高模型的精度,增加模型的泛化能力。實(shí)驗(yàn)表明,TLBI模型在針對(duì)鄉(xiāng)村煙霧的檢測(cè)問題中具有良好的準(zhǔn)確性,相對(duì)于傳統(tǒng)的SVM、DNN與CNN,TLBI的準(zhǔn)確率與泛化能力都更加優(yōu)秀。同時(shí),由于本文針對(duì)的是單張煙霧圖片的檢測(cè),所以并沒有考慮到煙霧的動(dòng)態(tài)特征,在之后的工作中將研究對(duì)連續(xù)的煙霧圖片的檢測(cè),將煙霧的動(dòng)態(tài)特征也納為重要特征之一,擬引入C3D神經(jīng)網(wǎng)絡(luò)與偽3D深度殘差網(wǎng)絡(luò)對(duì)連續(xù)的煙霧圖片檢測(cè)進(jìn)行遷移學(xué)習(xí)的研究。
[1] 李濤,卓海峰,王文富,等. 探討秸稈焚燒的危害與秸稈的綜合利用[J]. 科技信息:科學(xué)教研,2008,(20):35-35.
[2] Yamada M, Shiratori S S. Smoke sensor using mass controlled layer-by-layer self-assembly of polyelectrolytes films[J]. Sensors & Actuators B Chemical, 2000, 64(1): 124-127.
[3] Keller A, Rüegg M, Forster M, et al. Open photoacoustic sensor as smoke detector[J]. Sensors & Actuators B Chemical, 2005, 104(1): 1-7.
[4] 姚太偉, 王慧琴, 胡燕. 基于小波變換和稀疏光流法的火災(zāi)煙霧檢測(cè)[J].計(jì)算機(jī)工程, 2012, 38(6):204-206.
[5] Yu C, Zhang Y, Fang J, et al. Video smoke recognition based on optical flow[A].// International Conference on Advanced Computer Control[C]. IEEE, 2010.16-21.
[6] Huang G B, Lee H, Learned-Miller E. Learning hierarchical representations for face verification with convolutional deep belief networks[A].// Computer Vision and Pattern Recognition[C]. IEEE, 2012.2518-2525.
[7] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[A].// International Conference on Neural Information Processing Systems[C].Curran Associates Inc. 2012: 1097-1105.
[8] Sinno Jialin Pan, Qiang Yang. A Survey on Transfer Learning[J]. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10):1345-1359.
[9] Olga Russakovsky, Jia Deng, Hao Su, et al. ImageNet Large Scale Visual Recognition Challenge[J]. International Journal of Computer Vision, 2015, 115(3):211-252.
[10]Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the Inception Architecture for Computer Vision[A].// Computer Vision and Pattern Recognition[C].IEEE, 2016.2818-2826.
[11]C. Szegedy et al. . Going deeper with convolutions[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, USA, 2015.1-9.
[12]Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]. ICML'15 Proceedings of the 32nd International Conference on International Conference on Machine Learning, 2015,(37):448-456.
[13]Taylor M E, Stone P. Transfer Learning for Reinforcement Learning Domains: A Survey[J]. Journal of Machine Learning Research, 2009, 10(10):1633-1685.
[14]Abadi M,Agarwal A,Barham P,et al. TensorFlow: large-scale machine learning on heterogeneous distributed systems[M].Google Research whitepaper,2015.
[15]Yap B W, Rani K A, Rahman H A A, et al. An Application of Oversampling, Undersampling, Bagging and Boosting in Handling Imbalanced Datasets[C].// International Conference on Data Engineering,2014.13-22.
[16]Jorge M. Lobo, Alberto Jiménez-Valverde, Raimundo Real. AUC: a misleading measure of the performance of predictive distribution models[J]. Global Ecology and Biogeography, 2010, 17(2):145-151.
[17]Kingma D P, Ba J. Adam: A Method for Stochastic Optimization[A].//the 3rd International Conference on Learning Representations[C].ICLR, 2015.
Smoke Image Detection based on Deep Transfer Learning
HAN Chao-hui, MA Jun, WU Wen-jun, CHEN Jia
(School of Mathematics and Computer Science,Wuhan Textile University, Wuhan Hubei 430200, China)
Aiming at the problem of smoke warning in rural burning straw, a smoke image detection method based on deep transfer learning is proposed. The method uses the TensorFlow framework to reference the Inception-v3 network model trained on the ImageNet dataset as the source model, and uses the edges, colors, textures and other features extracted in the ImageNet dataset to construct a new smoke detection model. Experiments are carried out using the monitoring images of real scenes. The experimental results show that compared with the traditional smoke image detection methods, the method achieves high detection accuracy and the test accuracy reaches 90%.
deep learning; smoke detection; transfer learning; TensorFlow
陳佳(1982-),女,副教授,博士,研究方向:圖像處理,模式識(shí)別.
湖北省教育廳科研計(jì)劃項(xiàng)目(D20181705);湖北省高等學(xué)校優(yōu)秀中青年科技創(chuàng)新團(tuán)隊(duì)計(jì)劃(T201807).
TP181
A
2095-414X(2019)02-0065-07