• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于卷積神經(jīng)網(wǎng)絡(luò)的紙幣分類與點(diǎn)鈔

      2020-11-10 06:00:58馬亞州侯益明王紫薇
      無線互聯(lián)科技 2020年15期
      關(guān)鍵詞:池化層紙幣步長

      張 勇,馬亞州,侯益明,王紫薇

      (山西農(nóng)業(yè)大學(xué) 信息科學(xué)與工程學(xué)院,山西 太谷 030801)

      目前,隨著社會經(jīng)濟(jì)的迅速發(fā)展,紙幣流通量開始日益增大,給紙幣分離、清點(diǎn)工作帶來困擾。因此,通過機(jī)器手段解放人力和解決清點(diǎn)前的紙幣分類問題變得越來越重要。國內(nèi)有通過X射線掃描紙幣扎帶上照影劑成像的條紋數(shù)目來確定紙幣的把數(shù)[1],但是只適用于數(shù)額過大并且已經(jīng)捆成一把的紙幣,而且對紙幣上的條紋要求過高,適用性差。

      為提高紙幣分類和點(diǎn)鈔效率以及準(zhǔn)確率,本研究使用卷積神經(jīng)網(wǎng)絡(luò)技術(shù)對紙幣面值進(jìn)行了準(zhǔn)確識別,適用性強(qiáng),運(yùn)行速度快,準(zhǔn)確率高,為進(jìn)一步應(yīng)用提供了理論指導(dǎo)。

      1 圖像準(zhǔn)備與預(yù)處理

      1.1 圖像準(zhǔn)備

      準(zhǔn)備面值為0.5元、1元、5元、10元、20元、50元、100元的紙幣共420張(見表1),各類紙幣在新舊程度上均不相同。拍攝紙幣多個角度的照片,保證多樣性。

      表1 樣本數(shù)量表

      1.2 圖像預(yù)處理

      (1)收集的圖像大小不一定全部相同,因此,需要對收集到的圖像進(jìn)行處理,將圖像就行壓縮至150×150(通道為3),使其具有相同大小。

      (2)在生成圖片的路徑和標(biāo)簽之后,需要將所有的圖片路徑和標(biāo)簽分別做打亂處理,可以保證在訓(xùn)練模型時不會造成同一個batch反復(fù)出現(xiàn),若不做打亂處理,會使得神經(jīng)網(wǎng)絡(luò)“記住”這些樣本,影響泛化能力,造成過擬合[2]。

      (3)由于搜集到的圖像類型可能不是完全相同的,可能會有jpg,png等類型,為了預(yù)防對訓(xùn)練模型產(chǎn)生影響,需要將圖像解碼,然后將圖像的類型轉(zhuǎn)化成一致的,只能是jpg或只能是png格式。

      (4)對圖像進(jìn)行旋轉(zhuǎn)、縮放,歸一化操作,在搜集到的圖像當(dāng)中可能會存在物體顛倒的情況,需要進(jìn)行圖像的旋轉(zhuǎn),使得訓(xùn)練出來的模型更加健壯。

      2 紙幣分類模型

      2.1 CNN特征提取

      卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法在圖像處理領(lǐng)域的一個應(yīng)用,是多層感知機(jī)(Multi-Layer Perceptron,MLP)的變種,本質(zhì)是一個多層感知機(jī),減少了權(quán)重的數(shù)量,使得網(wǎng)絡(luò)易于優(yōu)化,也降低了模型的復(fù)雜度,降低了過擬合的風(fēng)險[3]。

      2.1.1 卷積層

      卷積層是卷積神經(jīng)網(wǎng)絡(luò)的核心,使用卷積核進(jìn)行特征的提取和特征的映射,卷積核對預(yù)處理后的圖像進(jìn)行相應(yīng)運(yùn)算,最終提取出圖像中的特征。卷積層的個數(shù)會對提取到的特征有一定影響,如果卷積層個數(shù)少,可能會使得訓(xùn)練的模型不好、精確度不高,但如果卷積層個數(shù)多,可能會使得訓(xùn)練的模型過于貼合訓(xùn)練數(shù)據(jù),造成過擬合[4]。在該模型中,經(jīng)過多次實(shí)驗(yàn),最終確定為兩個卷積層。

      2.1.2 池化層

      池化層也稱欠采樣或下采樣,主要用于特征降維、壓縮數(shù)據(jù)和參數(shù)的數(shù)量。主要有最大池化法(Max Pooling)、平均池化法(Average Pooling)以及隨機(jī)池化法(Stochastic Pooling),在模型中采用最大池化方法,相較于平均池化法、隨機(jī)池化法,最大池化法更像是做了特征的選擇,選出了分類辨識度更好的特征,提供了非線性[5]。通過池化可以減小過擬合,提高模型的容錯性。

      2.1.3 全連接層

      池化層沒有參數(shù),而在全連接層,全連接層的全連接方式帶來了更多的參數(shù)。在CNN的尾部進(jìn)行重新擬合,減少特征信息的損失。在模型中采用了兩層全連接層,可以最大限度地減少特征信息的損失,全連接層的輸出矩陣用于softmax層的輸入進(jìn)行分類,得到分類結(jié)果。

      2.2 紙幣分類模型

      紙幣分類模型一共有7層模型,包括兩層卷積層、兩層池化層、兩層全連接層和一層softmax層[5]。為了減少卷積的計(jì)算量,在進(jìn)行卷積之前將圖像壓縮至150×150。使用到的卷積層的卷積核分別為64個3×3的卷積核以及16個3×3的卷積核。使用兩層卷積層可以從不同的視野提取到特征。

      為了能夠保證取到圖像邊緣的特征和公平起見,將卷積運(yùn)算模式設(shè)置為填充模式,兩層卷積層都設(shè)置padding為“SAME”,既可以使得卷積后的圖像與原圖的尺寸保持一致,又可以保證取得邊緣的特征。在每層的卷積層之后,還設(shè)置了池化層,每層池化層都采取max pooling的方法,選取3×3的最大池化層(max pooling),第一個池化層設(shè)置步長為2,第二個池化層設(shè)置步長為1。

      模型采用線性整流函數(shù)(relu)作為激活函數(shù),造成了網(wǎng)絡(luò)的稀疏性,可以削弱參數(shù)的相互依存關(guān)系,緩解過擬合問題的發(fā)生。最后的兩層為全連接層,在第一個全連接層和第二個全連接層都設(shè)置了128個神經(jīng)元,最后一層利用softmax函數(shù)做出多分類的預(yù)測。模型的設(shè)計(jì)結(jié)構(gòu)如圖1所示。

      圖1 模型的設(shè)計(jì)結(jié)構(gòu)

      2.3 模型訓(xùn)練原理

      本研究所用模型的訓(xùn)練采用正向傳播的過程來逐步提取圖像的特征。在每層的卷積層中,卷積核在給定輸入的矩陣上滑動,將3×3的卷積核與輸入矩陣采用內(nèi)積計(jì)算方式進(jìn)行計(jì)算,得到的內(nèi)積結(jié)果加上偏執(zhí)量(bias)得到輸出卷積矩陣的一個元素,輸出矩陣所有元素都是通過卷積核在給定輸入矩陣上進(jìn)行滑動作運(yùn)算得到的。并且在滑動窗口滑動前,設(shè)置好步長,如果想要獲得更多的特征,可以盡量使步長小一點(diǎn)。通過卷積層之后得到的圖像特征的大小為:

      D2=K

      (1)

      式(1)中,H1表示圖像的高,W1表示圖像寬,K表示通道數(shù),H2表示卷積之后的圖像的高,W2表示卷積之后的圖像寬,D2表示卷積之后的通道數(shù),F(xiàn)表示Filter大小,P表示邊界填充(padding),S表示步長。通過此公式就可以計(jì)算出經(jīng)過卷積層得到的特征圖的大小。

      選用一個大小為3×3的最大池化層(max-pooling),本研究沒有選擇average-pooling,因?yàn)橄噍^于average-pooling,最大池化層更像是做了特征的選擇,選出了分類辨識度更好的特征,提供了非線性[6]。經(jīng)過最大池化層后,將一個n×n的矩陣劃分成多個小區(qū)域,再從小區(qū)域中選擇出最大的值作為這個區(qū)域的特征。池化之后,再執(zhí)行“l(fā)rn()”操作,使得局部響應(yīng)歸一化,有助于快速收斂,也可以使得響應(yīng)比較大的值變得更大,并抑制其他反饋較小的神經(jīng)元,增強(qiáng)了模型的泛化能力。

      通過卷積層、池化層后得到的是一個“立體”的特征圖,但是后面要進(jìn)行分類,在全連接層需要進(jìn)行矩陣的運(yùn)算,因此,需要將這個“立體”的特征圖進(jìn)行“拉長”操作,讓這個特征圖進(jìn)行reshape變成一個一維向量,再進(jìn)行全連接的操作。在最后連接一個歸一化指數(shù)函數(shù)(softmax函數(shù)),進(jìn)行預(yù)測結(jié)果[7]。將預(yù)測結(jié)果映射到[0,1]的區(qū)間,比較預(yù)測結(jié)果與真實(shí)結(jié)果的擬合效果,并且通過dropout來調(diào)整參數(shù),減小損失值(loss),使得訓(xùn)練模型的分類效果更好。全連接層計(jì)算的過程如圖2所示。

      圖2全連接層計(jì)算示意圖

      (2)

      式(2)是通過全連接層后得到的矩陣,得到矩陣后通過softmax函數(shù)計(jì)算就可以得到分類的結(jié)果。

      2.4 實(shí)驗(yàn)過程

      在訓(xùn)練模型時,卷積層的個數(shù)越多,訓(xùn)練出來的模型越好,但是訓(xùn)練好模型之后進(jìn)行數(shù)據(jù)測試,發(fā)現(xiàn)訓(xùn)練出來的模型產(chǎn)生了過擬合的現(xiàn)象,對于新收集到的數(shù)據(jù)進(jìn)行分類的效果不是很好,甚至出現(xiàn)了錯誤。因此,需要減少卷積層的數(shù)目,經(jīng)過不斷實(shí)驗(yàn),最終發(fā)現(xiàn)當(dāng)模型中的卷積層的個數(shù)為2、池化層的個數(shù)為2時,得到的模型能夠達(dá)到最好的效果。

      在確定完卷積層、池化層、全連接層個數(shù)后進(jìn)行訓(xùn)練,發(fā)現(xiàn)損失值很大,訓(xùn)練效率很低,對此,調(diào)整了訓(xùn)練的次數(shù),使得次數(shù)以5的步長增大,可以發(fā)現(xiàn)當(dāng)次數(shù)為130的時候,能夠保證訓(xùn)練出來的模型的損失值最小,訓(xùn)練效率最高。為了使模型更好,可以改變學(xué)習(xí)率(learning rate)來調(diào)整損失值的大小[8],使得損失值盡可能小。在訓(xùn)練損失值,使得損失值盡可能小的時候,采用的是自適應(yīng)距估計(jì)(Adam算法)的方法,因?yàn)槊看蔚鷧?shù)的變化都有一定的范圍,不會因?yàn)樘荻群艽蠖鴮?dǎo)致學(xué)習(xí)率(步長)也變得很大,參數(shù)的值相對比較穩(wěn)定。經(jīng)過不斷的實(shí)驗(yàn),最終發(fā)現(xiàn)當(dāng)學(xué)習(xí)率為0.000 1的時候,能夠達(dá)到最優(yōu)的效果。

      輸入圖像以150×150×3輸入,經(jīng)過第一層卷積層之后以150×150×64大小輸出,之后經(jīng)過第一層池化層(3×3),池化層選擇的是最大池化層,以75×75×64的大小輸出;然后經(jīng)過第二層卷積層、池化層得到75×75×16大小的三維數(shù)組。之后要連接全連接層,因此,需要將這個三維數(shù)組進(jìn)行reshape操作,使其變成一個一維的向量,再連接兩個全連接層,在卷積層和全連接層都采用線性整流函數(shù)(relu函數(shù))進(jìn)行激活操作,以保證梯度不會越來越小至梯度消失。最后一層為softmax層,得到的數(shù)值映射到[0,1]區(qū)間,從而轉(zhuǎn)化為每個類別的概率[9]。

      隨著訓(xùn)練輪次不斷增加,損失值也在不斷地減小,可以觀察到當(dāng)選取輪次為130的時候,得到的損失值最小,之后輪次再增加,損失值會有小幅度的增大,如圖3所示。

      圖3 損失值變化情況

      隨著輪次的增大,訓(xùn)練效率也在不斷地增大,當(dāng)輪次為120的時候,得到的訓(xùn)練效率為100%。在此選擇輪次為130時的模型,此時訓(xùn)練出來的模型效果最好,如圖4所示。

      圖4 訓(xùn)練效率

      3 紙幣分類與點(diǎn)鈔結(jié)果分析

      在進(jìn)行點(diǎn)鈔測試時,一次性輸入多張圖片,模型依次讀取每張圖片,并且對其進(jìn)行分類,再將分類結(jié)果相加,即為最終錢幣金額,實(shí)現(xiàn)點(diǎn)鈔功能。測試次數(shù)為150次,成功求得金額146次,準(zhǔn)確率97.33%。紙幣分類結(jié)果如表2所示。

      4 結(jié)語

      實(shí)驗(yàn)表明,紙幣識別準(zhǔn)確率達(dá)97.78%,點(diǎn)鈔測試準(zhǔn)確率達(dá)97.33%,進(jìn)一步證明了基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行紙幣分類、計(jì)數(shù)的可行性。該方法具有簡單實(shí)現(xiàn)、運(yùn)行速度快的優(yōu)點(diǎn),進(jìn)一步為金融部門等工作人員解決了困難,具有巨大的研究價值。

      表2 各類別的識別準(zhǔn)確率

      猜你喜歡
      池化層紙幣步長
      基于Armijo搜索步長的BFGS與DFP擬牛頓法的比較研究
      卷積神經(jīng)網(wǎng)絡(luò)模型研究分析*
      改進(jìn)深度卷積神經(jīng)網(wǎng)絡(luò)及其在變工況滾動軸承故障診斷中的應(yīng)用
      基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的人體行為識別研究
      科技傳播(2020年6期)2020-05-25 11:07:46
      基于全卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)分類*
      消失的紙幣
      猜紙幣
      猜紙幣
      讀寫算(上)(2016年9期)2016-02-27 08:45:01
      基于逐維改進(jìn)的自適應(yīng)步長布谷鳥搜索算法
      一種新型光伏系統(tǒng)MPPT變步長滯環(huán)比較P&O法
      電測與儀表(2014年2期)2014-04-04 09:04:00
      海林市| 丹东市| 双辽市| 秦安县| 且末县| 临西县| 三原县| 南宁市| 岑巩县| 句容市| 博乐市| 无为县| 喀什市| 乌兰浩特市| 兴文县| 呼伦贝尔市| 昌邑市| 北宁市| 宁都县| 扶沟县| 凭祥市| 南充市| 景宁| 吉木萨尔县| 万年县| 会理县| 孝昌县| 财经| 凤庆县| 宜兴市| 嘉荫县| 大安市| 安康市| 七台河市| 沅陵县| 德钦县| 平利县| 水富县| 大悟县| 庄浪县| 合川市|