• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于GoogLeNet的色織物花型分類

      2017-08-16 08:15:07張宏偉張凌婕李鵬飛宋執(zhí)環(huán)
      紡織科技進(jìn)展 2017年7期
      關(guān)鍵詞:花型織物準(zhǔn)確率

      張宏偉,張凌婕,李鵬飛,宋執(zhí)環(huán)

      (1.西安工程大學(xué),陜西 西安 710048;2.浙江大學(xué)工業(yè)控制技術(shù)國家重點(diǎn)實(shí)驗(yàn)室,浙江 杭州 310027)

      基于GoogLeNet的色織物花型分類

      張宏偉1,2,張凌婕1,*,李鵬飛1,宋執(zhí)環(huán)2

      (1.西安工程大學(xué),陜西 西安 710048;2.浙江大學(xué)工業(yè)控制技術(shù)國家重點(diǎn)實(shí)驗(yàn)室,浙江 杭州 310027)

      針對色織物花型人工視覺分類效率低的問題,提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的色織物花型圖像識別分類方法。構(gòu)建了18種類別的色織物花型圖像樣本數(shù)據(jù)庫,建立了基于GoogLeNet的色織物花型分類深度卷積神經(jīng)網(wǎng)絡(luò),并通過實(shí)驗(yàn)分析選擇最優(yōu)的訓(xùn)練迭代期與學(xué)習(xí)率。結(jié)果表明利用深度神經(jīng)網(wǎng)絡(luò)分類識別色織物花型是可行、有效的。

      深度卷積網(wǎng)絡(luò);色織物;花型分類

      隨著色織生產(chǎn)過程圖像采集和存儲技術(shù)的發(fā)展,色織物花型圖像的分類和管理越來越受到紡織企業(yè)的重視。傳統(tǒng)的色織物花型分類主要依賴于人工目測,由技術(shù)工人視覺檢測并做不同的標(biāo)記;但是這種方法受到人的心理、生理、熟練程度和疲勞程度等因素的影響,效率較低,難以適應(yīng)紡織工業(yè)轉(zhuǎn)型升級的需求。對此,一些聚類算法被相應(yīng)提出運(yùn)用于分類中,如人工神經(jīng)網(wǎng)絡(luò)、模糊C-means算法、灰度共生矩陣法和多分辨率及灰度共生矩陣法等[1-2]。目前灰度共生矩陣算法在坯布分類中應(yīng)用較多,但它局限于只能提取單一尺度下的特征,在識別花型復(fù)雜的色織物時效果較差。近幾年深度學(xué)習(xí)技術(shù)被廣泛用于大規(guī)?;ヂ?lián)網(wǎng)圖像的分類,效果較好,對具有復(fù)雜圖像特性的色織物花型自動分類具有良好的借鑒意義。

      因此,本文針對色織物花型人工視覺分類效率低的問題,提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的色織物花型分類模型[3]。利用廣東溢達(dá)紡織有限公司提供的18種花型色織物裁片樣本,首先建立規(guī)模為3 549幅的色織物花型圖像樣本庫,然后構(gòu)建基于GoogLeNet的色織物花型分類卷積神經(jīng)網(wǎng)絡(luò)模型,最后給出模型評價準(zhǔn)則,并通過實(shí)驗(yàn)對比確定模型的訓(xùn)練迭代期和學(xué)習(xí)率。

      1 色織物花型樣本和深度學(xué)習(xí)系統(tǒng)

      1.1 色織物花型樣本庫的構(gòu)建

      色織物圖像樣本庫由廣東溢達(dá)紡織提供的18種色織物裁片采集得到,圖像規(guī)模為3 549幅,其中75%用于訓(xùn)練,15%用于校驗(yàn),10%用于測試。為便于建模,每幅色織物花型圖像的分辨率設(shè)置為256×256×3。如圖1所示,這18種色織物花型極為復(fù)雜,難以用傳統(tǒng)人工構(gòu)造圖像特征的方法進(jìn)行區(qū)分,更難以使用淺層學(xué)習(xí)模型的方法進(jìn)行分類。

      圖1 部分色織物花型樣本圖

      1.2 色織物花型深度學(xué)習(xí)系統(tǒng)搭建

      色織物花型分類深度卷積網(wǎng)絡(luò)模型的訓(xùn)練涉及參數(shù)較多,計算量較大,常規(guī)的CPU計算平臺難以勝任。為了提高深度學(xué)習(xí)模型的建模效率,采用了容天DevtopSCW4750,硬件配置上它采用一個CPUInteli7-i7-5930,四個NVIDIAGeForceTitanX12G,八個8G內(nèi)存。軟件架構(gòu)上操作系統(tǒng)為Ubuntu14.04,深度神經(jīng)網(wǎng)絡(luò)參數(shù)配置平臺為Digits。

      2 基于GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型

      2.1 卷積神經(jīng)網(wǎng)絡(luò)模型

      如圖2所示,從傳統(tǒng)的圖像分類視角看,首先要對原始圖像進(jìn)行預(yù)處理,然后人為設(shè)計圖像特征并進(jìn)行特征提取。對于花型復(fù)雜的色織物來說,只能依據(jù)經(jīng)驗(yàn)選擇和設(shè)計圖像特征,人為因素對特征的有效性影響很大。針對不同的樣本庫需要重新設(shè)計圖像特征,導(dǎo)致傳統(tǒng)特征模型的通用性不強(qiáng),使用性能差[4]。

      圖2 傳統(tǒng)色織物分類模型

      如圖3所示,針對傳統(tǒng)神經(jīng)網(wǎng)絡(luò)存在的問題,在圖像分類問題背景下提出了CNN卷積神經(jīng)網(wǎng)絡(luò)模型[5-6]。

      圖3 卷積生成網(wǎng)絡(luò)(CNN)色織物分類模型

      卷積神經(jīng)網(wǎng)絡(luò)由若干卷積層,池化層,全連接層構(gòu)成。首先在輸入層輸入圖片,接著第一個卷基層對這幅圖像進(jìn)行了卷積操作,得到三個特征映射。卷基層包含了3個核,也就是三套參數(shù)。例如有一個5×5大小的圖像,使用一個3×3的卷積核進(jìn)行卷積,得到一個3×3的特征映射。卷積的公式為:

      (1)

      (2)

      (3)式中,w1是卷積前圖像的寬度;w2是卷積后特征映射的寬度;f是卷積核的寬度p的補(bǔ)零數(shù)量。圖像大小、步幅和卷積后的特征映射大小是有關(guān)系的,卷積過后池化層對特征映射做了下采樣。CNN中最常用的池化方法是最大池化,如圖4所示為最大池化的過程。

      采樣結(jié)束后得到了3個更小的特征映射,接著是第二卷積層,它有5個卷積核。每個卷積核把前面下采樣之后的3個特征映射進(jìn)行卷積,接著就是池化下采樣。圖3中所示的網(wǎng)絡(luò)最后兩層是全連接層,第一個全連接層的每個神經(jīng)元和上一層的5個特征映射中的每個神經(jīng)元相連,第二個全連接層的每個神經(jīng)元則和第一個全連接層的每個神經(jīng)元相連,這樣得到了整個網(wǎng)絡(luò)的輸出。目前很多文獻(xiàn)對CNN模型進(jìn)行了改進(jìn)[7-8],最常使用的CNN網(wǎng)絡(luò)結(jié)構(gòu)分為Zeiler與Inception,其中典型的Zeiler類網(wǎng)絡(luò)是AlexNet[9],典型的Inception類網(wǎng)絡(luò)是GoogLeNet[10]。

      圖4 最大池化

      2.2GoogLeNet的卷積神經(jīng)網(wǎng)絡(luò)

      在網(wǎng)絡(luò)更寬更深的背景下,為了防止過擬合和計算量的增加,以及增加網(wǎng)絡(luò)深度和寬度的同時減少參數(shù),GoogLeNet在2014年ILSVRC比賽中被提出。它將Top5的錯誤率降低到6.67%,是一個22層的深度網(wǎng)絡(luò);一般的卷積層只是一味地增加卷積層的深度,而GoogLeNet在單層的卷積層上使用不同尺度的卷積核。GoogLeNet架構(gòu)的核心是Inception模塊,深度達(dá)到27層,Inception架構(gòu)中存在著濾波器,濾波器組的輸出合并在一起構(gòu)成了下一層的輸入。具體來說先使用1×1卷積量子來進(jìn)行降維,再進(jìn)行3×3,5×5的卷積操作,這樣尺寸不同的卷積核就可以提取不同尺寸的信息,這種Inception模型既能大大提升卷積提取特征的能力,又不會使計算量提升很多,而GoogLeNet就是由這種模型逐步構(gòu)建出來的。模型的特點(diǎn)是采用了模塊化的結(jié)構(gòu)、使用平均池化代替全連接層及增加了兩個輔助softmax用于前向傳導(dǎo)梯度,避免梯度消失。最為關(guān)鍵的是GoogLeNet來自Google團(tuán)隊(duì)并由其維護(hù),其卷積網(wǎng)絡(luò)的結(jié)構(gòu)易于工程化實(shí)現(xiàn),適合于色織物裁片花型的分類研究和后期的實(shí)用化推廣。

      3 實(shí)驗(yàn)結(jié)果與討論

      為了驗(yàn)證GoogLeNet深度卷積網(wǎng)絡(luò)模型對色織物花型分類的有效性,首先對如圖1所示的3 549幅色織花型裁片進(jìn)行圖像采集,并逐個進(jìn)行人工標(biāo)記,建立色織物花型分類深度學(xué)習(xí)樣本集(每類花型圖像樣本規(guī)模大約200幅,每類隨機(jī)挑選出75%用于訓(xùn)練,15%用于校驗(yàn),10%用于測試);然后建立基于GoogLeNet的色織物花型分類模型;最后通過實(shí)驗(yàn)對比,選擇最優(yōu)的訓(xùn)練迭代期參數(shù)與學(xué)習(xí)率參數(shù)。為了評價不同超參數(shù)條件下深度學(xué)習(xí)模型的優(yōu)劣,選擇分類準(zhǔn)確率和建模時間作為評價基準(zhǔn)。分類準(zhǔn)確率由準(zhǔn)確分類的待測色織物花型樣本數(shù)目和待測色織物花型樣本總數(shù)之比得出:

      (4)

      式中,n準(zhǔn)和n總分別為正確分類的待測織物花型圖像數(shù)和待分類織物花型圖像總數(shù)。建模時間由1.2節(jié)所述的GPU學(xué)習(xí)工作站和Digits參數(shù)配置平臺計算得到。本實(shí)驗(yàn)的目的是通過設(shè)置合適的訓(xùn)練迭代期和基礎(chǔ)學(xué)習(xí)率,在較高的分類準(zhǔn)確率和較低的建模時間中找到最佳的平衡點(diǎn)。

      首先,建立基于GoogLeNet網(wǎng)絡(luò)的織物花型分類模型,并通過實(shí)驗(yàn)對比不同訓(xùn)練迭代期下的分類準(zhǔn)確率,選擇合適的訓(xùn)練迭代期參數(shù)。模型基礎(chǔ)學(xué)習(xí)率固定為0.01的步長,改變訓(xùn)練迭代期的次數(shù),并且在每經(jīng)過33.33%的迭代期時學(xué)習(xí)率逐步設(shè)定為0.001和0.000 1的步長,分別測試該模型在訓(xùn)練迭代期為30,50,70時的準(zhǔn)確率和建模時間。然后模型迭代次數(shù)固定為50,分別設(shè)定模型的基礎(chǔ)學(xué)習(xí)率為1,0.1,0.05,0.01,0.001的步長,分析對比該模型的分類準(zhǔn)確率。

      不同訓(xùn)練迭代期下色織物花型的識別準(zhǔn)確率和建模時間如表1所示。GoogLeNet的分類準(zhǔn)確率很高,并且隨著訓(xùn)練迭代期逐漸增大穩(wěn)定在100%左右。因?yàn)镚oogLeNet是一個22層的深度網(wǎng)絡(luò),用更多的卷積、更深的層次和規(guī)模更大的訓(xùn)練集會得到較好的效果;所以在對本實(shí)驗(yàn)2 662幅色織物花型圖像的建模中,分類準(zhǔn)確率較高。GoogLeNet的建模時間隨著迭代次數(shù)的增加逐漸增加。綜合考量識別準(zhǔn)確率和建模時間,訓(xùn)練迭代期選擇為50次時,分類準(zhǔn)確率和建模時間可以實(shí)現(xiàn)較好的折中,滿足工程化的需求。

      表1 不同訓(xùn)練迭代期下GoogLeNet

      另外,在訓(xùn)練樣本集規(guī)模為2 662幅色織物花型圖像的條件下,GoogLeNet最快可以在4min以內(nèi)訓(xùn)練完成,且分類準(zhǔn)確率可以達(dá)到99%以上,證明了基于GoogLeNet的卷積神經(jīng)網(wǎng)絡(luò)模型對于色織物花型分類的建模實(shí)時性和準(zhǔn)確性較好。

      表1固定訓(xùn)練迭代期為50,分別設(shè)定基礎(chǔ)學(xué)習(xí)率為1,0.1,0.05,0.01和0.001的步長,對應(yīng)的GoogLeNet模型分類準(zhǔn)確率和建模時間分別如表2所示。隨著基礎(chǔ)學(xué)習(xí)率的降低,準(zhǔn)確率逐步上升;但是建模時間在0.01的步長時取得最小值。所以綜合考量分類準(zhǔn)確率和建模時間,基礎(chǔ)學(xué)習(xí)率選為0.01的步長時,既能取得較高的分類準(zhǔn)確率,又具有較好的建模實(shí)時性。

      表2 不同學(xué)習(xí)率下GoogLeNet的分類準(zhǔn)確率和建模時間

      4 結(jié)論

      為解決色織物花型人工視覺分類效率低和人工難以構(gòu)造色織物花型分類特征的問題,首先構(gòu)建了一個規(guī)模為3 549幅的色織物花型圖像數(shù)據(jù)庫,然后通過改變GoogLeNet的訓(xùn)練迭代次數(shù)和基礎(chǔ)學(xué)習(xí)率參數(shù),研究色織物花型分類模型的準(zhǔn)確率和建模時間變化,選擇出合適的訓(xùn)練迭代次數(shù)和基礎(chǔ)學(xué)習(xí)率。其實(shí)驗(yàn)結(jié)果表明,基于GoogLeNet的色織物深度學(xué)習(xí)模型對于色織物花型分類問題是一種有效可行的解決方案,并且選擇合適的訓(xùn)練迭代期和基礎(chǔ)學(xué)習(xí)率對色織物分類準(zhǔn)確性和建模時間有重要影響。

      [1] 朱 昊.圖像處理技術(shù)在織物花型結(jié)構(gòu)識別中的應(yīng)用[J].絲綢,2008,(1):42-44.

      [2] 任建峰,郭 雷,李 剛.多類支持向量機(jī)的自然圖像分類[J].西北工業(yè)大學(xué)學(xué)報,2005,23(3):295-298.

      [3] 余 凱,賈 磊,陳雨強(qiáng).深度學(xué)習(xí)的昨天、今天和明天[J].計算機(jī)研究與發(fā)展,2013,50(9):1 799-1 804.

      [4] 趙仲秋,季海峰,高 雋.基于稀疏編碼多尺度空間潛在語義分析的圖像分類[J].計算機(jī)學(xué)報,2014,377(6):1 251-1 260.

      [5] 諶 璐,賀興時.改進(jìn)的支持向量機(jī)算法在人臉識別上的應(yīng)用[J].紡織高?;A(chǔ)科學(xué)學(xué)報,2015,(1):108-115.

      [6] 常 亮,鄧小明,周明全,等.圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J].自動化學(xué)報,2016,42(9):1 300-1 312.

      [7]ZEILERMD,F(xiàn)ERGUSR.Visualizingandunderstandingconvolutionalnetworks[J].ComputerVision-ECCV, 2014,8 689:818-833.

      [8] 常 亮,鄧小明,周明全.圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J].自動化學(xué)報,2016,42(9):1 300-1 312.

      [9]KRIZHEVSKYA,SUTSKEVERI,HINTONGE.Imagenetclassificationwithdeepconvolutionalneuralnetworks[J].AdvancesinNeuralInformationProcessingSystems,2012,25(2):1 097-1 105.

      [10]SZEGEDYC,LIUW,JIAY,etal.Goingdeeperwithconvolutions[C].IEEEConferenceonComputerVisionandPatternRecognition,2015:1-9.

      Pattern Classification of Yarn-Dyed Fabrics Based on GoogLeNet

      ZHANG Hong-wei1, 2, ZHANG Ling-jie1,*, LI Peng-fei1, SONG Zhi-huan2

      (1.Xi′an Polytechnic University, Xi′an 710048, China; 2.State Key Laboratory of Industrial Control Technology, Zhejiang University, Hangzhou 310027, China)

      Aiming at the low efficiency problem of manual classification for the pattern of yarn-dyed fabric, pattern recognition and classification method for yarn-dyed fabrics based on deep convolution neural network (CNN) was proposed. 18 kinds of sample database of yarn-dyed fabric patterns were established. Deep convolution neural network of yarn-dyed fabric pattern classification models were developed based on GoogLeNet. Optimal training epoch periods and learning rates were selected through experimental analysis based on the model evaluation criterion. Results showed that it was feasible and effective to classify yarn-dyed fabric patterns by deep convolution neural networks.

      deep convolution network; yarn-dyed fabric; pattern classification

      2017-06-12;

      2017-06-19

      陜西省自然科學(xué)基金(2014JQ2-5029);西安工程大學(xué)博士科研啟動基金(BS1411)

      張宏偉(1983-),男,講師,安徽淮北人,主要研究方向:機(jī)器學(xué)習(xí)、軟測量,E-mail:zhanghongwei@zju.edu.cn。

      *通信作者:張凌婕,E-mail:379530773@qq.cm。

      TS

      A

      1673-0356(2017)07-0033-03

      猜你喜歡
      花型織物準(zhǔn)確率
      無Sn-Pd活化法制備PANI/Cu導(dǎo)電織物
      《紡織品織物折痕回復(fù)角的測定》正式發(fā)布
      竹纖維織物抗菌研究進(jìn)展
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      哥特式浪漫
      高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
      提花圓緯機(jī)花型圖案嵌入式顯現(xiàn)系統(tǒng)
      織物柔軟劑的香氣發(fā)展趨勢
      维西| 鹰潭市| 开封县| 墨脱县| 磴口县| 墨竹工卡县| 临朐县| 鸡西市| 华蓥市| 开远市| 麟游县| 鹤庆县| 犍为县| 江阴市| 泰州市| 龙门县| 台山市| 油尖旺区| 临沂市| 随州市| 阿拉善左旗| 九龙城区| 高碑店市| 万载县| 伊春市| 建宁县| 拜城县| 长海县| 石渠县| 外汇| 乡宁县| 璧山县| 白水县| 贵德县| 清徐县| 阿勒泰市| 白朗县| 沐川县| 蓬莱市| 怀仁县| 京山县|