趙子宇 楊霄霞 郭 慧 葛浙東 周玉成,
(1.山東建筑大學(xué)信息與電氣工程學(xué)院 濟(jì)南 250101;2.中國林業(yè)科學(xué)研究院木材工業(yè)研究所 北京 100091)
木材辨識在木結(jié)構(gòu)古建筑、海關(guān)、進(jìn)出口檢疫檢驗等領(lǐng)域均有著廣泛應(yīng)用,對現(xiàn)代木材工業(yè)和木材貿(mào)易起到至關(guān)重要、保駕護(hù)航的作用。傳統(tǒng)的木材辨識主要基于木材的微觀解剖特征(顯微結(jié)構(gòu)參數(shù))和宏觀特征(顏色、氣味、紋理等)判斷材種的科、屬或種,基于宏觀特征辨識木材在生產(chǎn)實踐上應(yīng)用價值較大,但準(zhǔn)確性較差;基于微觀解剖特征辨識木材準(zhǔn)確性較高,但在生產(chǎn)現(xiàn)場不太適用。近年來,機(jī)器視覺技術(shù)逐步應(yīng)用到木材辨識中,如朱佳等(2014)提出一種基于Graph Cuts的圖像分割方法對木材SEM進(jìn)行特征提取,通過木材輪廓、細(xì)胞等特征辨識木材種類;Barmpoutis等(2018)將木材橫切面圖像的顏色、紋理等特征轉(zhuǎn)化為多維聯(lián)合直方圖形式,通過支持向量機(jī)分類器辨識木材。但以上方法均存在木材辨識訓(xùn)練參數(shù)多、訓(xùn)練耗時長、分類正確率低等問題,需探尋更快、更準(zhǔn)確的方法實現(xiàn)最佳辨識效果(項宇杰等,2019;劉子豪等,2013)。
卷積神經(jīng)網(wǎng)絡(luò)研究始于20世紀(jì)80年代(Lecunetal.,1989),是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)的代表算法之一(Krizhevskyetal.,2012)。卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)能力,能夠自動提取圖像特征,模型可直接采用原始圖像作為輸入(Chenetal.,2017;Kiranyazetal.,2016)。Yang等(2019)以5種針葉材表面紋理圖像作為卷積神經(jīng)網(wǎng)絡(luò)模型的輸入,通過K倍交叉驗證法對模型性能進(jìn)行衡量,此方法運算耗時較長。陳龍現(xiàn)等(2018)采用自行開發(fā)的計算機(jī)斷層掃描系統(tǒng)掃描木材內(nèi)部缺陷,并使用LeNet-5模型對木材內(nèi)部缺陷圖像進(jìn)行辨識,但木材種類相對單一,辨識效果不佳。劉英等(2019)將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到木材缺陷檢測中,采用非下采樣剪切波變換預(yù)處理和線性迭代聚類方法對木材缺陷進(jìn)行分類,但辨識準(zhǔn)確率較低。He等(2019)采用一種混合的全卷積神經(jīng)網(wǎng)絡(luò)(Mix-FCN)定位木材缺陷位置,并從木材表面圖像中自動分類缺陷類型。但現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)模型需要大量訓(xùn)練樣本,耗時長,木材辨識僅對較少材種進(jìn)行研究,并未能運用到實際應(yīng)用中(李楠,2018)。
傳統(tǒng)的微觀解剖特征辨識方法需對木材樣本橫、徑、弦三切面進(jìn)行解剖,染色后用高倍顯微鏡獲得圖像,耗時7~15天,這對海關(guān)、進(jìn)出口檢疫檢驗等法定部門在盡可能短的時間內(nèi)鑒別木材材種的要求不相符。鑒于此,本研究提出一種基于卷積神經(jīng)網(wǎng)絡(luò)模型——PWoodIDNet模型的木材宏、微觀辨識方法,該模型以木材樣本橫切面圖像作為輸入,通過分解卷積核方式減少運算參數(shù),并通過GPU并行算法對模型進(jìn)行分類更新,從采集樣本到鑒定出結(jié)果僅需1 h左右,可為海關(guān)、進(jìn)出口檢疫檢驗、家具企業(yè)等法定部門和企業(yè)提供先進(jìn)的辨識方法和儀器,從而推動我國木材進(jìn)出口檢疫檢驗行業(yè)和木材加工制造企業(yè)的科技進(jìn)步。
PWoodIDNet模型采用雙GPU模式,模型卷積層通過分解卷積核方式將多個小的卷積核堆疊,即改進(jìn)后的Inception模塊,減少運算參數(shù),步長設(shè)置為1,使輸出特征圖尺寸不變;模型池化層是在卷積層之后分別設(shè)置4個最大池化層和1個平均池化層,從而達(dá)到特征選擇和降維的目的;模型全連接層后設(shè)置Dropout方法,抑制過擬合現(xiàn)象。
圖1中紅色區(qū)域表示采用改進(jìn)后的Inception模塊對圖像進(jìn)行卷積?,F(xiàn)行Inception模塊通過1×1、3×3、5×5的卷積核與3×3的最大池化層連接在一起,并在每個卷積層和池化層前添加1×1的卷積核進(jìn)行降維。本研究對現(xiàn)行Inception模塊進(jìn)行改進(jìn),將5×5的卷積核、3×3的最大池化層替換為2組3×3的卷積核、3組3×3的卷積核,增加網(wǎng)絡(luò)層數(shù),減少運算參數(shù),加深網(wǎng)絡(luò)寬度,以提高網(wǎng)絡(luò)對尺度的適應(yīng)性。最后將4個分支進(jìn)行特征融合,得到輸出特征圖,使下一層可從不同尺度上提取到更多的特征。構(gòu)建方式如圖2所示。
圖2 改進(jìn)的Inception模塊Fig.2 Improved Inception module
圖2中上一層的輸出特征圖(Input)輸入到改進(jìn)后的Inception模塊,并行進(jìn)入4個分支進(jìn)行特征提取。第一分支由1×1的卷積核組成,第二分支由1×1的卷積核與1組3×3的卷積核組成,第三分支由1×1的卷積核與2組3×3的卷積核組成,第四分支由1×1的卷積核與3組3×3的卷積核組成,最后4個分支輸出到Depth Concat層進(jìn)行特征融合。
模型構(gòu)建過程如下:
第一步,構(gòu)建輸入圖像卷積層。設(shè)輸入圖像尺寸為Z(i,j,k)_In,0≤i≤224、0≤j≤224、k=3。構(gòu)建32個5×5的卷積核,其中GPU1為16個5×5,GPU2為16個5×5。則GPU1的f=5,令步長為s0=2,擴(kuò)充值為p′,則有:
(1)
Ll1=(Ll-1+2p′-f)/s0+1。
(1.1)
由式(1.1)得,填充值p′=3。
GPU2的f=5,令步長為s0=2,擴(kuò)充值為p′,則有:
(2)
Ll2=(Ll-1+2p′-f)/s0+1。
(2.1)
由式(2.1)得,填充值p′=3。
第二步,構(gòu)建最大池化層(32)。設(shè)上層GPU1和GPU2輸出圖像尺寸為A1(i1,j1)和A2(i2,j2),其中i1、j1、i2、j2均為113,即上層GPU1和GPU2輸出圖像均為113×113×16。構(gòu)建32個3×3矩陣,GPU1為16個3×3矩陣,GPU2為16個3×3矩陣。則GPU1的f=3,令步長為s0=2,擴(kuò)充值為p′,預(yù)指定參數(shù)p→∞,則最大池化模型為:
(i1,j1)∈{0,1,…,Ll+1}。
(3)
Ll+1=(Ll+2p′-f)/s0+1。
(3.1)
由式(3.1)得,填充值p′=0。
GPU2的f=3,令步長為s0=2,擴(kuò)充值為p′,預(yù)指定參數(shù)p→∞,則最大池化模型為:
(4)
(4.1)
由式(4.1)得,填充值p′=0。
第三步,構(gòu)建卷積層(64)。設(shè)上層GPU1和GPU2輸出圖像尺寸為Z1(i1,j1)和Z2(i2,j2),其中i1、j1、i2、j2均為56,即上層GPU1和GPU2輸出圖像均為56×56×16。
構(gòu)建改進(jìn)的Inception模塊。
①第一分支:構(gòu)建16個1×1的卷積核,GPU1為8個1×1,GPU2為8個1×1。
②第二分支:
a.構(gòu)建6個1×1的卷積核,GPU1為3個1×1,GPU2為3個1×1。
b.構(gòu)建8個3×3的卷積核,GPU1為4個3×3,GPU2為4個3×3。
③第三分支:
a.構(gòu)建6個1×1的卷積核,GPU1為3個1×1,GPU2為3個1×1。
b.構(gòu)建16個3×3的卷積核,GPU1為8個3×3,GPU2為8個3×3。
④第四分支:
a.構(gòu)建6個1×1的卷積核,GPU1為3個1×1,GPU2為3個1×1。
b.構(gòu)建24個3×3的卷積核,GPU1為12個3×3,GPU2為12個3×3。
⑤將GPU1和GPU2在第一分支中輸出的8個56×56的矩陣、第二分支中輸出的4個56×56的矩陣、第三分支中輸出的8個56×56的矩陣與第四分支中輸出的12個56×56的矩陣相加,得到32個56×56的矩陣(32=8+4+8+12),即GPU1和GPU2中改進(jìn)的Inception模塊輸出特征圖尺寸均為56×56。
第四步,構(gòu)建最大池化層(64)。設(shè)上層GPU1和GPU2輸出圖像尺寸為A1(i1,j1)和A2(i2,j2),其中i1、j1、i2、j2均為56,即上層GPU1和GPU2輸出圖像均為56×56×32。構(gòu)建64個3×3矩陣,GPU1為32個3×3矩陣,GPU2為32個3×3矩陣。
第五步,構(gòu)建卷積層(128)。設(shè)上層GPU1和GPU2輸出圖像尺寸為Z1(i1,j1)和Z2(i2,j2),其中i1、j1、i2、j2均為28,即上層GPU1和GPU2輸出圖像均為28×28×32。
構(gòu)建Inception模塊,同第三步計算步驟,將GPU1和GPU2在第一分支中輸出的16個28×28的矩陣、第二分支中輸出的8個28×28的矩陣、第三分支中輸出的16個28×28的矩陣與第四分支中輸出的24個28×28的矩陣相加,得到64個28×28的矩陣(64=16+8+16+24),即GPU1和GPU2中Inception模塊輸出特征圖尺寸均為28×28。
第六步,構(gòu)建最大池化層(128)。設(shè)上層GPU1和GPU2輸出圖像尺寸為A1(i1,j1)與A2(i2,j2),其中i1、j1、i2、j2均為28,即上層GPU1和GPU2輸出圖像均為28×28×64。構(gòu)建128個3×3矩陣,GPU1為64個3×3矩陣,GPU2為64個3×3矩陣。
第七步,構(gòu)建卷積層(256)。設(shè)上層GPU1和GPU2輸出圖像尺寸為Z1(i1,j1)與Z2(i2,j2),其中i1、j1、i2、j2均為14,即上層GPU1和GPU2輸出圖像均為14×14×64。
構(gòu)建Inception模塊,同第三步計算步驟,將GPU1和GPU2在第一分支中輸出的32個14×14的矩陣、第二分支中輸出的16個14×14的矩陣、第三分支中輸出的32個14×14的矩陣與第四分支中輸出的48個14×14的矩陣相加,得到128個14×14的矩陣(128=32+16+32+48),即GPU1和GPU2中Inception模塊輸出特征圖尺寸均為14×14。
第八步,構(gòu)建最大池化層(256)。設(shè)上層GPU1和GPU2輸出圖像尺寸為A1(i1,j1)和A2(i2,j2),其中i1、j1、i2、j2均為14,即上層GPU1和GPU2輸出圖像均為14×14×128。構(gòu)建256個3×3矩陣,GPU1為128個3×3矩陣,GPU2為128個3×3矩陣。
第九步,構(gòu)建卷積層(512)。設(shè)上層GPU1和GPU2輸出圖像尺寸為Z1(i1,j1)和Z2(i2,j2),其中i1、j1、i2、j2均為7,即上層GPU1和GPU2輸出圖像均為7×7×128。
構(gòu)建Inception模塊,同第三步計算步驟,將GPU1和GPU2在第一分支中輸出的64個7×7的矩陣、第二分支中輸出的32個7×7的矩陣、第三分支中輸出的64個7×7的矩陣與第四分支中輸出的96個7×7的矩陣相加,得到256個7×7的矩陣(256=64+32+64+96),即GPU1和GPU2中Inception模塊輸出特征圖尺寸均為7×7。
第十步,構(gòu)建平均池化層。設(shè)上層GPU1和GPU2輸出圖像尺寸為A1(i1,j1)和A2(i2,j2),其中i1、j1、i2、j2均為7,即上層GPU1和GPU2輸出圖像均為7×7×256。構(gòu)建512個7×7矩陣,GPU1為256個7×7矩陣,GPU2為256個7×7矩陣。
第十一步,構(gòu)建全連接層。設(shè)置1個全連接層,全連接層后加入Dropout方法,抑制過擬合。構(gòu)建分類層(輸出),采用Softmax分類器進(jìn)行分類,分類數(shù)為16。
模型在每個卷積層和全連接層后均設(shè)置ReLU激活函數(shù),實現(xiàn)模型更好地提取圖像相關(guān)特征,擬合訓(xùn)練數(shù)據(jù),且計算簡單。
試驗用16種木材樣本取自山東建筑大學(xué)木材標(biāo)本館,分別為東非黑黃檀(Dalbergiamelanoxylon)、尼泊爾紫檀(Glutasp.)、紅櫟(Quercussp.)、樟子松(Pinussylvestrisvar.mongolica)、輻射松(Pinusradiata)、西非蘇木(Danielliasp.)、非洲檀香(Spirostachysafricana)、白梧桐(Triplochitonscleroxylon)、輕木(Ochromasp.)、南美紅雞翅(Andirasp.)、普拉藤黃(Platoniainsignis)、菲律賓烏木(Diospyrossp.)、軍刀豆(Machaeriumsp.)、黃楊木(Buxussp.)、楓木(Acersp.)和納托山欖(Palaquiumsp.)。采用SkyScan1272型顯微CT和ZW-H3800工業(yè)相機(jī),以木材橫切面為研究對象,分別獲取木材微觀和宏觀結(jié)構(gòu)圖像。表1所示為不同樹種宏、微觀部分圖像效果。
表1 不同樹種宏、微觀部分圖像效果Tab.1 Partial rendering of macro-and micro-images of different tree species
木材微觀試驗樣本直徑約2 mm,高約8 mm,分辨率0.95 μm,樣本每旋轉(zhuǎn)0.1°采集1次數(shù)據(jù),每次掃描獲得數(shù)據(jù)3 600行1 280列,直至完成對樣本180°掃描。利用NRecon軟件重構(gòu)截面圖像,消除環(huán)形偽影和射線硬化等不良影響,進(jìn)行平滑和其他顯示設(shè)置,截取圖像大小為2 280×1 760。
木材宏觀試驗樣本尺寸為50 mm×50 mm×20 mm。不同光照條件下獲取木材樣本紋理特征,并進(jìn)行初步降噪與飽和度調(diào)整,圖像大小為1 920×1 080。
首先,選擇16種木材樣本,每種樣本獲取50張高分辨率顯微CT圖像和工業(yè)相機(jī)圖像,共1 600幅;然后,截取具有木射線、薄壁組織、軸向管胞、紋孔等特征的目標(biāo)區(qū)域,擴(kuò)充至2 400幅,在樣本表面紋理圖像中隨機(jī)選取波狀紋、皺狀紋、斑點狀、多孔狀等特征區(qū)域,擴(kuò)充至2 400幅,共4 800幅,截取樣本圖像大小為224×224;通過水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、鏡像、亮度變換等圖像增強算法二次擴(kuò)充數(shù)據(jù)集,最終宏、微觀圖像集擴(kuò)充至19 200幅。截取后的圖像通過手動篩選,避免樣本選取的單一性和誤選性,提升數(shù)據(jù)集的多樣性。其中,70%圖像用于木材辨識的訓(xùn)練集,30%圖像用于驗證集。
2.3.1 模型訓(xùn)練參數(shù) 模型訓(xùn)練次數(shù)設(shè)為4 200次,學(xué)習(xí)率設(shè)為0.000 1,訓(xùn)練批次樣本數(shù)設(shè)為16,權(quán)重參數(shù)和偏置參數(shù)初值用均值μ=0、標(biāo)準(zhǔn)偏差σ=0.01的截斷正態(tài)分布隨機(jī)生成,模型全連接層輸出為16。
2.3.2 并行加速 為加快模型訓(xùn)練速度和搜索匹配速度,系統(tǒng)硬件采用AMD Ryzen Threadripper 2920X CPU @3.5GHz,內(nèi)存為128 GB,GPU顯卡采用NIVIDIA GeForce RTX 1080Ti,利用GPU運算庫進(jìn)行并行優(yōu)化,提高訓(xùn)練模型精度和效率(Krizhevskyetal.,2012)。
在卷積神經(jīng)網(wǎng)絡(luò)中,優(yōu)化算法選擇是模型設(shè)計的關(guān)鍵。當(dāng)前,優(yōu)化算法種類繁多,其中以SGDM(Rumelhartetal.,1986;Traorebetal.,2018;Dimauroetal.,2019)、RMSprop(Hintonetal.,2012)、Adam(Kingmaetal.,2014)最為常見。本研究選用木材微觀數(shù)據(jù)集,分別對3種常見優(yōu)化算法進(jìn)行比較,選出最適合PWoodIDNet模型的優(yōu)化算法。
采用3種優(yōu)化算法對模型進(jìn)行訓(xùn)練,如圖3所示。SGDM優(yōu)化算法模型分類準(zhǔn)確率曲線最平緩,當(dāng)?shù)螖?shù)為300次時,模型已接近收斂狀態(tài);同時,SGDM優(yōu)化算法能夠抑制模型震蕩,并加速學(xué)習(xí)。RMSprop優(yōu)化算法模型分類準(zhǔn)確率曲線持續(xù)出現(xiàn)振蕩現(xiàn)象,振蕩頻率范圍最大位置準(zhǔn)確率最低達(dá)30%(0.3)。Adam優(yōu)化算法模型分類準(zhǔn)確率曲線較RMSprop平緩,網(wǎng)絡(luò)結(jié)構(gòu)模型的訓(xùn)練分類精度波動較大,訓(xùn)練過程未達(dá)到收斂狀態(tài)。
圖3 不同優(yōu)化算法分類準(zhǔn)確率對比Fig.3 Comparison of classification accuracy of different optimization algorithms
不同優(yōu)化算法損失值對比如圖4所示。訓(xùn)練初期,SGDM、Adam優(yōu)化算法模型的初損失值較大,但收斂速度較快;RMSprop優(yōu)化算法模型持續(xù)出現(xiàn)振蕩現(xiàn)象,并一直持續(xù)到訓(xùn)練結(jié)束。訓(xùn)練中期,SGDM優(yōu)化算法模型持續(xù)處于收斂狀態(tài),損失值接近0,高于其他算法的收斂速度。當(dāng)?shù)螖?shù)達(dá)3 600次后,Adam優(yōu)化算法模型振蕩現(xiàn)象減輕,并逐漸趨于收斂狀態(tài)。
圖4 不同優(yōu)化算法損失值對比Fig.4 Comparison of loss value of different optimization algorithms
不同優(yōu)化算法的分類結(jié)果如表2所示。在迭代次數(shù)相同的情況下,SGDM優(yōu)化算法模型對木材顯微CT圖像的辨識效果最佳,測試集的平均分類準(zhǔn)確率為99.17%,相比Adam優(yōu)化算法提高1.72%,相比RMSprop優(yōu)化算法提高2.86%。
表2 不同優(yōu)化算法的分類結(jié)果Tab.2 Classification results of different optimization algorithms
綜上所述,采用SGDM優(yōu)化算法可有效抑制模型振蕩,收斂更穩(wěn)定,能夠提高PWoodIDNet模型對木材的辨識效果。
對國內(nèi)外現(xiàn)行經(jīng)典的AlexNet模型、GoogLeNet模型(Szegedyetal.,2015)與PWoodIDNet模型進(jìn)行分類準(zhǔn)確率和損失值比較,數(shù)據(jù)集分別采用木材微觀和宏觀數(shù)據(jù)集。
3種模型的分類準(zhǔn)確率如圖5所示。訓(xùn)練初期,PWoodIDNet模型分類準(zhǔn)確率隨迭代次數(shù)增加逐漸趨于收斂狀態(tài),當(dāng)?shù)螖?shù)為300次時,分類準(zhǔn)確率達(dá)99%,并一直持續(xù)到迭代完成,辨識效果優(yōu)于其他模型,分類準(zhǔn)確率最高可達(dá)99.98%;GoogLeNet模型分類準(zhǔn)確率隨迭代次數(shù)增加持續(xù)增大,但分類準(zhǔn)確率曲線出現(xiàn)振蕩現(xiàn)象,未達(dá)到收斂狀態(tài);AlexNet模型分類準(zhǔn)確率曲線振蕩現(xiàn)象比較嚴(yán)重,分類準(zhǔn)確率較低。隨迭代次數(shù)增加,GoogLeNet模型、AlexNet模型分類準(zhǔn)確率曲線僅出現(xiàn)小范圍振蕩,未出現(xiàn)劇烈波動,逐漸趨于收斂狀態(tài)。
圖5 3種模型的分類準(zhǔn)確率Fig.5 Classification accuracy of three models
3種模型的損失值如圖6所示。PWoodIDNet模型損失值隨迭代次數(shù)增加逐漸降低,當(dāng)?shù)螖?shù)為200次時出現(xiàn)拐點,損失值逐漸趨于收斂狀態(tài),直至迭代結(jié)束。隨PWoodIDNet模型網(wǎng)絡(luò)層數(shù)增加,運算參數(shù)減少,加速損失值收斂速度。GoogLeNet模型迭代600次左右時曲線出現(xiàn)輕微振蕩現(xiàn)象,損失值整體呈下降趨勢,隨迭代次數(shù)增加逐漸趨于收斂狀態(tài)。AlexNet模型損失值整體呈下降趨勢,當(dāng)?shù)螖?shù)為1 000次時,曲線仍不斷出現(xiàn)振蕩現(xiàn)象,收斂速度較慢,迭代次數(shù)達(dá)3 000次后,損失值變化緩慢,逐漸接近0。
圖6 3種模型的損失值Fig.6 Loss value of three models
采用卷積神經(jīng)網(wǎng)絡(luò)模型實現(xiàn)木材宏、微觀圖像的辨識,結(jié)果如表3所示。同一模型,微觀圖像平均分類準(zhǔn)確率均高于宏觀圖像。PWoodIDNet模型分類準(zhǔn)確率、運算速度明顯高于其他2種模型,相比現(xiàn)行GoogLeNet模型,準(zhǔn)確率提高1.49%,速度提高59.69%;相比現(xiàn)行AlexNet模型,準(zhǔn)確率提高3.76%,速度提高2.63%。PWoodIDNet通過優(yōu)化模型和分解卷積核方式,提高了分類準(zhǔn)確率,驗證了模型的有效性。
表3 木材辨識模型結(jié)果Tab.3 Results of wood identification model
PWoodIDNet模型通過分解卷積核方式將1×1與3×3的卷積核堆疊,減少運算參數(shù),即改進(jìn)后的Inception模塊。采用小尺寸的卷積核進(jìn)行卷積,通過4組改進(jìn)后的Inception模塊,網(wǎng)絡(luò)層數(shù)僅72層,模型整體復(fù)雜度降低,訓(xùn)練和預(yù)測時間減少。木材微觀數(shù)據(jù)集下PWoodIDNet模型與現(xiàn)行GoogLeNet模型的損失值如圖7所示,雖然PWoodIDNet模型的初損失值較高,但收斂速度最快,模型的泛化能力強。如表4所示,PWoodIDNet模型網(wǎng)絡(luò)層數(shù)和訓(xùn)練耗時最少,體現(xiàn)出模型復(fù)雜度較低的特點,其他3種GoogLeNet模型的網(wǎng)絡(luò)層數(shù)較多且復(fù)雜,收斂速度較慢。
圖7 微觀數(shù)據(jù)集下PWoodIDNet模型與GoogLeNet模型的損失值Fig.7 Loss value of PWoodIDNet and GoogLeNet models under micro data sets
表4 不同模型的復(fù)雜度與時間對比Tab.4 Complexity and time comparison of different models
木材辨識技術(shù)包括宏觀辨識和微觀辨識2種方法,通常采用無損檢測設(shè)備,既不破壞木材內(nèi)部結(jié)構(gòu)又省去切片制作過程,提高了辨識效率。高分辨率顯微CT具有穿透力強、檢測速度快、非破壞性等特點,常用于木材缺陷檢測、密度測定等方面(彭冠云等,2009;費本華等,2007)。本研究將高分辨率顯微CT應(yīng)用于木材微觀構(gòu)造辨識,薄壁組織、管胞、樹膠道、導(dǎo)管、木射線等特征清晰可見,很大程度上提高了木材辨識的質(zhì)量。應(yīng)進(jìn)一步豐富木材圖像數(shù)據(jù)集,建立屬于自己的Web網(wǎng)站服務(wù)器,實現(xiàn)高分辨率顯微CT檢測的木材微觀圖像云共享。
本研究通過優(yōu)化模型和卷積核尺寸,實現(xiàn)快速、準(zhǔn)確辨識木材,克服了傳統(tǒng)手動特征提取、分類效果不佳、訓(xùn)練方法復(fù)雜、訓(xùn)練參數(shù)過多、耗時過長等問題。采用高分辨率顯微CT獲取的木材微觀圖像,提高了樣本質(zhì)量,應(yīng)用PWoodIDNet模型,提升了模型分類準(zhǔn)確率,加快了辨識速度。但本研究只對16種木材樣本進(jìn)行研究,木材種類相對單一,應(yīng)增加木材種類,并設(shè)計開發(fā)出更適合多樹種識別的網(wǎng)絡(luò)模型。
PWoodIDNet模型突破現(xiàn)有辨識方法木材辨識種類范圍窄、準(zhǔn)確率低和辨識速度慢的難點,能夠有效辨識木材,分類準(zhǔn)確率可達(dá)99%,是一種高效、無損、準(zhǔn)確的木材辨識分類方法,可為海關(guān)、進(jìn)出口檢疫檢驗、家具企業(yè)等法定部門和企業(yè)提供先進(jìn)的辨識方法和儀器,推動我國木材進(jìn)出口檢疫檢驗行業(yè)和木材加工制造企業(yè)的科技進(jìn)步。