黃卿 黃德宏 黃海 劉權(quán) 謝乃輝
(1.廣西廣播電視技術(shù)中心崇左分中心;2.廣西廣播電視信息網(wǎng)絡(luò)股份有限公司防城港分公司)
近年來,在新技術(shù)及經(jīng)濟(jì)社會發(fā)展強(qiáng)烈需求的共同驅(qū)動下,人工智能發(fā)展進(jìn)入新階段,以機(jī)器學(xué)習(xí),深度學(xué)習(xí)為代表的人工智能技術(shù)被譽(yù)為第四次工業(yè)革命。在廣播電視行業(yè)中,國家廣播電視總局科技司也編制了《廣播電視人工智能應(yīng)用白皮書(2018)》,要求將人工智能技術(shù)應(yīng)用于廣播電視行業(yè)。
卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像和語音識別方面取得了卓越成效。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks),是深度學(xué)習(xí)(deep learning)的代表算法之一[1-2]。
目前,廣播電視無線發(fā)射臺站的監(jiān)控系統(tǒng)大多采用閾值告警的方式,無法識別閾值內(nèi)數(shù)據(jù)波動的故障情況以及數(shù)據(jù)偶發(fā)性超閾值的軟故障情況。因此,本文基于CNN的經(jīng)典模型AlexNet對發(fā)射機(jī)入射功率監(jiān)控圖進(jìn)行識別測試,識別出上述兩種故障情況。
數(shù)據(jù)集來源于大新中波臺某頻率中波發(fā)射機(jī)入射功率監(jiān)控圖,由于圖片特征值明顯,因此準(zhǔn)備樣本集共1000張(小樣本數(shù)據(jù)集),分為兩類,頻繁在閾值區(qū)域內(nèi)波動(err類)和偶發(fā)性功率下降超過閾值(right類),每類樣本數(shù)量為500張,訓(xùn)練集共800張,驗(yàn)證集共200張。所有圖片經(jīng)過代碼預(yù)處理,將原本分辨率為1425×630的圖片處理成分辨率為475×210的圖片,以作為神經(jīng)網(wǎng)絡(luò)的輸入。
err類例圖如圖1a所示,某頻率1KW發(fā)射機(jī)日播出周期內(nèi)的采樣顯示情況,可以看到,其入射功率頻繁在400W上方波動,若門限值設(shè)置為400W,則系統(tǒng)不會出現(xiàn)任何的告警。right類例圖如圖1b所示,入射功率采樣顯示出現(xiàn)偶發(fā)性超閾值的情況,這樣的情況理論上是可以忽略的,但系統(tǒng)卻因此而出現(xiàn)告警。
圖1 監(jiān)控圖樣
AlexNet模型是2012年ImageNet競賽冠軍獲得者Hinton和他的學(xué)生Alex Krizhevsky設(shè)計(jì)的。其包含了 6 億三千萬條連接,6000 萬個(gè)參數(shù)和 65 萬個(gè)神經(jīng)元,其網(wǎng)絡(luò)結(jié)構(gòu)包括 5 層卷積,其中第一、第二和第五層卷積后面連接了最大池化層,然后是 3 個(gè)全連接層。AlexNet 不算池化層總共有 8 層,前 5 層為卷積層,其中第一、第二和第五層卷積都包含了一個(gè)最大池化層,后三層為全連接層。
由于本文的訓(xùn)練環(huán)境采用的計(jì)算機(jī)是普通的CPU計(jì)算機(jī),而此前AlexNet為提高運(yùn)算效率,利用了兩塊GPU進(jìn)行計(jì)算,鑒于本次實(shí)驗(yàn)的環(huán)境無法承載傳統(tǒng)的AlexNet模型進(jìn)行測試,因此有必要對傳統(tǒng)的AlexNet模型進(jìn)行一定的修改。
圖2 AlexNet模型修改前后對比圖和構(gòu)建的CNN模型代碼圖
如圖2a所示顯示的是傳統(tǒng)的AlexNet模型的卷積層、池化層、全連接層參數(shù)等信息,如圖2b所示的是基于本文的條件修改AlexNet模型后的CNN模型各層參數(shù)信息,如圖2c所示為基于AlexNet構(gòu)建的CNN模型代碼圖,可以看到,修改后的CNN模型,一開始輸入的是本文預(yù)處理好的 475×210×3的圖像,卷積核的數(shù)量較傳統(tǒng)AlexNet模型縮減一半,為48,大小為11×11×3,步長為4,激活函數(shù)依然使用relu。池化層中pool_size = (3, 3),步長為2。之后的卷積核的數(shù)量同樣較傳統(tǒng)AlexNet模型縮減一半,其他保持不變。而由于樣本集特征值較為明顯,因此可以考慮縮減全連接層神經(jīng)元數(shù)量,最后的全連接層中神經(jīng)元的個(gè)數(shù)改為256和64,輸出softmax由1000改為2。(圖2)
模型構(gòu)建好后,本文基于Keras對模型進(jìn)行訓(xùn)練,如圖3a所示為圖片處理方法類圖,將樣本集進(jìn)行一定的處理并向模型做路徑指引。
在主函數(shù)中設(shè)置“epochs=30”即訓(xùn)練30輪,便可進(jìn)行模型測試。如圖3c所示為模型訓(xùn)練過程圖,可以看到,訓(xùn)練集中acc值隨著loss值下降而上升,在驗(yàn)證集方面,val acc的值也隨著val loss值的下降而上升,模型的訓(xùn)練精度最終達(dá)到了0.995。如圖3b所示為模型acc-loss圖,圖中可以看出,模型雖然存在一些過擬合的現(xiàn)象,但收斂效果較好。因此,可以嘗試對模型進(jìn)行實(shí)測。(圖3)
圖3 圖片處理方法類圖、模型訓(xùn)練過程圖和acc-loss圖
圖4 模型識別測試樣本圖
圖5 模型調(diào)用和識別結(jié)果圖
本文準(zhǔn)備了9張未經(jīng)過模型訓(xùn)練過的樣本圖作為識別測試圖,如圖4所示,分別對圖由1到9進(jìn)行編號,可以看到,屬于err類的為編號1、編號4、編號5、編號8、編號9這5張圖。屬于right類的為編號2、編號3、編號6、編號7這4張圖。
調(diào)用已經(jīng)保存好的模型對上述圖片進(jìn)行識別實(shí)測,如圖5所示為模型調(diào)用和識別結(jié)果圖。由最后的輸出結(jié)果可以看到,模型判斷編號1、編號4、編號5、編號8、編號9這5張圖為err 類的可能性都為99.9%以上。而判斷編號2、編號3、編號6、編號7這4張圖為err類的可能性分別僅為:35%左右、20%左右、32%左右、14%左右。因此,該模型基于本次樣本集可很好地識別出頻繁在閾值區(qū)域內(nèi)波動和偶發(fā)性功率下降超過閾值的情況。
本文基于卷積神經(jīng)網(wǎng)絡(luò)AlexNet模型構(gòu)建了相應(yīng)的CNN模型,并用構(gòu)建的模型對發(fā)射機(jī)入射功率監(jiān)控圖進(jìn)行識別,以識別出頻繁在閾值區(qū)域內(nèi)波動和偶發(fā)性功率下降超過閾值的情況。實(shí)驗(yàn)表明,該訓(xùn)練精度為0.995的CNN模型實(shí)測效果良好。
隨著技術(shù)的不斷成熟,可以預(yù)見,人工智能技術(shù)將會在廣播電視無線傳輸發(fā)射領(lǐng)域得到大量應(yīng)用,為安全播出工作的順利推進(jìn)保駕護(hù)航,并促進(jìn)廣播電視行業(yè)的長足發(fā)展。