苗宇杰 祝詩平 普 京 李俊賢 馬羚凱 黃 華
(西南大學(xué)工程技術(shù)學(xué)院 重慶 400716)
家具是日常工作和生活中的必備物品,且隨著人們生活水平不斷提高和居住環(huán)境逐漸改善,人們越來越傾向購買實(shí)木家具。涂飾木蠟油不僅可以滋養(yǎng)木材,防止木材開裂,增強(qiáng)木材表面硬度、光澤度和耐磨性,防水防污,對木材起到良好的防護(hù)和裝飾作用(趙暢等,2016),而且也使得木材紋理能夠更加完美地展示出來。然而,木材品種繁多、價(jià)格相差懸殊,經(jīng)木蠟油涂飾后的木材表面與一些昂貴木材類似(陳宏偉等,2021),導(dǎo)致實(shí)木家具市場上經(jīng)常出現(xiàn)以假亂真、以次充好的現(xiàn)象,嚴(yán)重?fù)p壞消費(fèi)者利益。
傳統(tǒng)木材種類識(shí)別主要通過肉眼或借助放大鏡(10 倍)進(jìn)行觀察,還可通過年輪、木射線和髓心的形態(tài)做出判斷,同時(shí)分析木材的物理特征,如顏色、質(zhì)量和氣味等(Wheeleret al.,1998),該方法主觀性強(qiáng),且費(fèi)時(shí)、費(fèi)力、效率低。在木材種類自動(dòng)化識(shí)別領(lǐng)域中,一些學(xué)者基于木材顯微圖像展開研究,如Martins 等(2013)提出一種基于圖像分割和多特征集的分類方法,用于識(shí)別數(shù)據(jù)庫中112 種木材顯微圖像。也有一些學(xué)者基于光譜展開探索,如Nisgoski 等(2017)應(yīng)用人工神經(jīng)網(wǎng)絡(luò)對近紅外光譜不同波段進(jìn)行檢測,實(shí)現(xiàn)了對4 種木材的分類識(shí)別;Zhao 等(2016) 提出一種基于木材表面光譜特征的木材識(shí)別方案,對東北地區(qū)5種常見木材進(jìn)行分類,準(zhǔn)確率達(dá)95%?;陲@微圖像和光譜的識(shí)別技術(shù),雖然取得了不錯(cuò)效果,但是設(shè)備昂貴、操作復(fù)雜,尤其在制作顯微切片時(shí)會(huì)損壞木材,因此,這些方法更適合用于實(shí)驗(yàn)室分析,實(shí)際生活中對成品家具木材的種類識(shí)別并不合適。
近年來,基于宏觀圖像的木材種類識(shí)別,因其靈活性和可操作性受到越來越多關(guān)注,很多學(xué)者通過提取木材顏色特征(Zhao,2013)或紋理特征(Barmpoutiset al.,2018)識(shí)別木材種類。Souza 等(2020)在實(shí)驗(yàn)室利用砂紙打磨木材表面并使用Zeiss Discovery V 12 顯微鏡獲取46 種放大10 倍的高分辨率(150 dpi)圖像,提取圖像局部二值模式(local binary patterns,LBP)紋理特征,通過支持向量機(jī)(support vector machine,SVM)分類器識(shí)別木材,準(zhǔn)確率達(dá)97.67%。
上述方法提取木材特征均需人工完成,圖像預(yù)處理和特征選擇會(huì)消耗大量時(shí)間,而以卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)為代表的深度學(xué)習(xí)方法可自動(dòng)提取特征并進(jìn)行概率預(yù)測,目前已在圖像識(shí)別、自然語言處理和文本分析等方面取得了不錯(cuò)效果;但CNN 需要大量的標(biāo)記樣本進(jìn)行訓(xùn)練以及強(qiáng)大的圖像處理器(graphics processing unit,GPU)加速學(xué)習(xí)(Hanet al.,2018),且復(fù)雜的CNN 深層網(wǎng)絡(luò)還要花費(fèi)大量時(shí)間調(diào)參。無論是訓(xùn)練一個(gè)大的網(wǎng)絡(luò)模型還是收集大量數(shù)據(jù)都是一個(gè)耗時(shí)的過程,而遷移學(xué)習(xí)可以很好解決上述問題。在農(nóng)業(yè)領(lǐng)域,已有很多學(xué)者將CNN 用于諸多方面(李鑫然等,2021;鮑烈等,2020),結(jié)果表明CNN 能夠提供更好的性能,優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)方法。
也有不少學(xué)者將CNN 用于木材缺陷檢測(崔明光,2019;劉英等,2019;陳龍現(xiàn)等,2018)以及木材微觀圖像的種類識(shí)別(Heet al.,2020;Geuset al.,2020;李楠,2018),但基于木材宏觀圖像的種類識(shí)別研究還較少,尤其是經(jīng)木蠟油涂飾后的家具木材種類識(shí)別未見報(bào)道。鑒于此,本研究基于AlexNet、ResNet34、MobileNetv2和MobileNetv3 這4 種比較成熟的CNN 對木材宏觀圖像的種類進(jìn)行識(shí)別,與SVM 和人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,ANN)識(shí)別結(jié)果進(jìn)行比較,分析不同模型性能以及涂飾木蠟油后木材數(shù)據(jù)對模型性能的影響,并選擇識(shí)別效果最好的模型設(shè)計(jì)木材宏觀圖像種類識(shí)別系統(tǒng),有效提高木材種類識(shí)別速度和精度,以期為木材資源的合理利用、木材進(jìn)出口貿(mào)易管理及消費(fèi)者確定家具木材種類提供一種科學(xué)有效的方法。
圖1a-d 為2020 年11 月21 日于重慶市九龍坡某家具廠拍攝,主要采集木材徑切面和弦切面,未涂飾木蠟油木材(以下統(tǒng)稱素材)紅橡(Quercusspp.)、水曲柳(Fraxinus mandshurica)、欖仁木(Terminaliaspp.)和欒葉蘇(Hymenaea cunrbaril)圖像共2 914 張。于重慶北碚某家具賣場拍攝的涂飾木蠟油紅橡和欖仁木圖像(圖1e、f)共966 張。
圖1 木材圖像示例Fig. 1 Examples of wood image
神經(jīng)網(wǎng)絡(luò)需要固定維度的圖像,故所有圖像調(diào)整為224 像素×224 像素×3 通道。各類別圖像數(shù)據(jù)如表1所示。將RGB 圖像轉(zhuǎn)化為灰度圖像,提取圖像的LBP 和灰度共生矩陣(gray level co-occurrence matrix,GLCM)紋理特征,采用主成分分析(principal component analysis,PCA)對特征數(shù)據(jù)降維,獲取99.9%的有效特征信息,特征由272 維降至44 維,建立木材圖像特征數(shù)據(jù)庫,作為SVM(核函數(shù)為徑向基函數(shù))和結(jié)構(gòu)為44-100-4(輸入層為44 個(gè)神經(jīng)元、隱含層為100 個(gè)神經(jīng)元、輸出層為4 個(gè)神經(jīng)元)ANN 的輸入數(shù)據(jù)。
表1 不同木材圖像數(shù)據(jù)數(shù)量Tab. 1 Number of different wood image data
硬件環(huán)境為Intel(R)Core(TM)i5-10200H CPU,主頻2.40 GHz, 運(yùn)行內(nèi)存 16 G, GPU 為 GeForce GTX1650Ti,顯存4 G。軟件環(huán)境為CUDA Toolkit 10.0, CUDNN V7.4.1.5;Python 3.7.1;Torch1.9.0;使用PyTorch 深度學(xué)習(xí)框架在PyCharm 平臺(tái)上構(gòu)建模型。PyTorch 是一個(gè)高層神經(jīng)網(wǎng)絡(luò)API,提供各種激活函數(shù)、損失函數(shù)和優(yōu)化器,可快速構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,操作簡單,易于調(diào)試。
卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)的代表算法之一,其通過權(quán)值共享與局部進(jìn)行連接,可降低網(wǎng)絡(luò)模型復(fù)雜度。目前,CNN 已在圖像識(shí)別、自然語言處理等方面取得了成功,并陸續(xù)出現(xiàn)AlexNet、ResNet34、MobileNetV2 和MobileNetV3 等多種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)。
AlexNet(Krizhevskyet al.,2012)是計(jì)算機(jī)視覺領(lǐng)域首個(gè)被廣泛關(guān)注的深度卷積神經(jīng)網(wǎng)絡(luò)模型,為LeNet 網(wǎng)絡(luò)的進(jìn)階版,主要由5 個(gè)卷積層和3 個(gè)全連接層組成,還包括局部響應(yīng)歸一化層Dropout 層。
ResNet34(Heet al.,2016)是由34 個(gè)卷積層組成的深度神經(jīng)網(wǎng)絡(luò)模型,包括32 個(gè)卷積層和2 個(gè)全連接層。與傳統(tǒng)深度網(wǎng)絡(luò)結(jié)構(gòu)不同,ResNet34 利用殘差學(xué)習(xí)思想,可訓(xùn)練更深的網(wǎng)絡(luò)結(jié)構(gòu),同時(shí)避免梯度消失問題,能夠極大提高訓(xùn)練效率和模型性能。
MobileNetV2(Sandleret al.,2018)引入deep-wise卷積替代ResNet34 的標(biāo)準(zhǔn)卷積方式,可大大減少卷積核的冗余表達(dá),相較傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò),具有更小的模型大小和更快的推理速度,同時(shí)保持較高的準(zhǔn)確率。
MobileNetV3(Howardet al.,2020)在MobileNetV2的基礎(chǔ)上引入注意力機(jī)制,通過該機(jī)制,網(wǎng)絡(luò)可以學(xué)習(xí)使用全局信息選擇性地強(qiáng)調(diào)信息性特征、抑制不太有用的特征,且引入能有效改進(jìn)網(wǎng)絡(luò)精度的h-swish激活函數(shù)(Howardet al.,2020):
另外,在網(wǎng)絡(luò)末端使用平均池化操作更改計(jì)算量大的層,降低計(jì)算量的同時(shí)不造成精度損失。MobileNetV3 的基本網(wǎng)絡(luò)結(jié)構(gòu)單元(Howardet al., 2020)如圖2 所示。
圖2 MobileNetV3 bneck 結(jié)構(gòu)Fig. 2 Structure of MobileNetV3 bneck
在木材種類圖像識(shí)別領(lǐng)域,難以獲取大規(guī)模數(shù)據(jù)集,CNN 模型在大型圖像數(shù)據(jù)集ImageNet 上得到充分訓(xùn)練,擁有較好的圖像分類識(shí)別能力(張瑞青等,2020)。本研究基于遷移學(xué)習(xí),利用AlexNet、ResNet34、MobileNetV2 和MobileNetV3 預(yù)訓(xùn)練模型在ImageNet數(shù)據(jù)集上學(xué)到的大量知識(shí),用于優(yōu)化木材種類圖像識(shí)別問題。
神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)主要有2 個(gè)應(yīng)用場景:特征提取和參數(shù)遷移(吳茂貴等,2019)。特征提取指在經(jīng)ImageNet 數(shù)據(jù)集訓(xùn)練好的網(wǎng)絡(luò)模型上,修改或添加1個(gè)新分類器,新任務(wù)訓(xùn)練過程中,只訓(xùn)練新分類器,網(wǎng)絡(luò)參數(shù)未進(jìn)行訓(xùn)練,故訓(xùn)練速度較快,但識(shí)別精度較低。參數(shù)遷移則指在新任務(wù)訓(xùn)練過程中,對網(wǎng)絡(luò)參數(shù)和分類器均進(jìn)行訓(xùn)練。經(jīng)ImageNet 數(shù)據(jù)集訓(xùn)練好的網(wǎng)絡(luò)模型,針對多分類問題已經(jīng)可以達(dá)到較高的識(shí)別準(zhǔn)確率,所以使用自己的數(shù)據(jù)集通過訓(xùn)練調(diào)整網(wǎng)絡(luò)模型的特征參數(shù),能夠很快適應(yīng)新分類任務(wù)并獲得較好的識(shí)別效果。本研究采用ImageNet 數(shù)據(jù)集訓(xùn)練好的多分類網(wǎng)絡(luò)模型,并將模型最后一個(gè)分類器輸出改為4,使用家具木材數(shù)據(jù)對網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,在訓(xùn)練過程中優(yōu)化網(wǎng)絡(luò)特征參數(shù)和分類器,以更好適應(yīng)家具木材種類識(shí)別問題。
對樣本進(jìn)行測試后分別計(jì)算精度(Precision)和召回率(Recall),以綜合指標(biāo)F1 得分作為精度和召回率的評估值,其中平均準(zhǔn)確率=分類正確的數(shù)量/測試總數(shù)量,其他指標(biāo)計(jì)算公式(Fabijańskaet al.,2021)如下:
式中:TP 為真陽性樣本數(shù)量;FP 為假陽性數(shù)量;FN 為假陰性樣本數(shù)量。
采用 AlexNet、 ResNet34、 MobileNetV2 和MobileNetV3 對素材圖像進(jìn)行建模,并將素材數(shù)據(jù)集按6∶2∶2 分為訓(xùn)練集、驗(yàn)證集和測試集。提取素材圖像的LBP 和GLCM 紋理特征,經(jīng)PCA 降維后,使用SVM 和ANN 進(jìn)行分類。各模型分類結(jié)果如表2 所示。
表2 基于素材圖像的不同網(wǎng)絡(luò)模型學(xué)習(xí)結(jié)果Tab. 2 Learning results of different network models based on wood images coated without wood wax oil
結(jié)果顯示,SVM 和ANN 的訓(xùn)練速度快于卷積神經(jīng)網(wǎng)絡(luò),但其準(zhǔn)確率均未超過80%。Souza 等(2020)采用立體顯微鏡得到放大10 倍的高分辨率木材宏觀圖像,能夠獲取更為細(xì)微的木材紋理信息,識(shí)別準(zhǔn)確率較高。在深度學(xué)習(xí)網(wǎng)絡(luò)模型中,AlexNet 訓(xùn)練速度最快,一次迭代時(shí)間僅21.69 s,但驗(yàn)證集準(zhǔn)確率相對較低(82.61%),且模型較大(217 M)。ResNet34 的驗(yàn)證集準(zhǔn)確率最高(90.45%),但訓(xùn)練時(shí)間較久,一次迭代用時(shí)74.13 s。MobileNetV2 與MobileNetV3 的訓(xùn)練時(shí)間較接近,其中MobileNetV3 的驗(yàn)證集準(zhǔn)確率更高(89.25%),且模型較小,方便后期布置到嵌入式設(shè)備中。綜合考慮準(zhǔn)確率和訓(xùn)練時(shí)間,本研究選擇MobileNetV3 作為識(shí)別模型,并在此基礎(chǔ)上進(jìn)行遷移學(xué)習(xí)和參數(shù)優(yōu)化。
基于素材圖像的MobileNetV3 結(jié)構(gòu)不同參數(shù)訓(xùn)練及驗(yàn)證結(jié)果如表3 所示,在試驗(yàn)1-12 中,將2 914 張素材圖像數(shù)據(jù)按6∶2∶2 和2∶6∶2 分為訓(xùn)練集、驗(yàn)證集和測試集,對訓(xùn)練集數(shù)據(jù)進(jìn)行擴(kuò)充,并基于遷移學(xué)習(xí)優(yōu)化模型。為驗(yàn)證遷移學(xué)習(xí)下數(shù)據(jù)集擴(kuò)充對模型的影響,在試驗(yàn)13-18 中未對訓(xùn)練集進(jìn)行擴(kuò)充,將模型學(xué)習(xí)率分別設(shè)為0.01、0.001 與0.000 1 進(jìn)行訓(xùn)練。不同學(xué)習(xí)率下2 種學(xué)習(xí)方式的驗(yàn)證集準(zhǔn)確率與訓(xùn)練損失如圖3 所示。
3.2.1 學(xué)習(xí)率對模型的影響 由表3 和圖3 可知,學(xué)習(xí)率對各模型訓(xùn)練結(jié)果具有較大影響。試驗(yàn)9 中,學(xué)習(xí)率為0.000 1,基于遷移學(xué)習(xí),模型識(shí)別準(zhǔn)確率最高、訓(xùn)練損失最小、性能最優(yōu)。在全新學(xué)習(xí)方式下,學(xué)習(xí)率為0.01 時(shí),試驗(yàn)1 和4 的訓(xùn)練損失和驗(yàn)證集準(zhǔn)確率均未得到有效收斂,且震蕩幅度較大;學(xué)習(xí)率為0.000 1時(shí),模型驗(yàn)證集準(zhǔn)確率最低,較小的學(xué)習(xí)率容易使模型在訓(xùn)練過程中陷入局部最優(yōu);學(xué)習(xí)率為0.001 時(shí),試驗(yàn)2 模型識(shí)別準(zhǔn)確率最高達(dá)89.25%。在遷移學(xué)習(xí)方式下,隨著學(xué)習(xí)率降低,模型驗(yàn)證集準(zhǔn)確率反而升高。
3.2.2 遷移學(xué)習(xí)對模型的影響 在遷移學(xué)習(xí)方式下,因加載了預(yù)訓(xùn)練模型,模型前端各層網(wǎng)絡(luò)均可獲得較好的訓(xùn)練參數(shù),模型剛開始訓(xùn)練時(shí)就能得到較好的訓(xùn)練結(jié)果。由圖3 可知,遷移學(xué)習(xí)對加速網(wǎng)絡(luò)收斂和提高驗(yàn)證集準(zhǔn)確率均有明顯促進(jìn)作用。在全新學(xué)習(xí)方式下,試驗(yàn)3 學(xué)習(xí)率為0.000 1 時(shí),訓(xùn)練初始階段驗(yàn)證集準(zhǔn)確率僅25%,訓(xùn)練損失0.92。經(jīng)約100 個(gè)epoch后,訓(xùn)練損失得到收斂。在遷移學(xué)習(xí)方式下,試驗(yàn)9模型訓(xùn)練之初就已得到較低的損失值和較高的識(shí)別準(zhǔn)確率,且網(wǎng)絡(luò)收斂迅速,經(jīng)5 個(gè)epoch 后,模型平均準(zhǔn)確率達(dá)到峰值。
3.2.3 數(shù)據(jù)擴(kuò)充對模型的影響 由表3 和圖3 可知,數(shù)據(jù)擴(kuò)充對模型訓(xùn)練結(jié)果具有較大影響。在全新學(xué)方式下,按照不同比例劃分?jǐn)?shù)據(jù)集,訓(xùn)練集包含數(shù)據(jù)集越多模型識(shí)別準(zhǔn)確率越高,網(wǎng)絡(luò)收斂效果越好。在試驗(yàn)1-6 中,按照6∶2∶2 劃分?jǐn)?shù)據(jù)集的模型識(shí)別效果較好,驗(yàn)證集準(zhǔn)確率和訓(xùn)練損失均有效收斂。在試驗(yàn)7-12 中,按照不同比例劃分?jǐn)?shù)據(jù)集,并進(jìn)行遷移學(xué)習(xí)。按照6∶2∶2 劃分?jǐn)?shù)據(jù)集,試驗(yàn)9 的識(shí)別效果最好,識(shí)別準(zhǔn)確率達(dá)98.13%。在試驗(yàn)13-18 中,按照不同比例劃分?jǐn)?shù)據(jù)集,但未對訓(xùn)練集進(jìn)行數(shù)據(jù)擴(kuò)充,與試驗(yàn)7-12 相比,訓(xùn)練速度得到有效提升,但驗(yàn)證集準(zhǔn)確率有所下降。在試驗(yàn)15 中,驗(yàn)證集準(zhǔn)確率為96.56%,與試驗(yàn)9 相比,準(zhǔn)確率降低1.57%。按照2∶6∶2 劃分?jǐn)?shù)據(jù)集,驗(yàn)證集識(shí)別準(zhǔn)確率均較低。在遷移學(xué)習(xí)中,訓(xùn)練集數(shù)據(jù)量對識(shí)別準(zhǔn)確率有較大影響,訓(xùn)練集數(shù)據(jù)量越多模型識(shí)別效果越好。
為驗(yàn)證涂飾木蠟油木材圖像對模型識(shí)別性能的影響,將涂飾木蠟油的紅橡和欖仁木與素材紅橡和欖仁木按1∶1 分別混合,并與剩下的2 種素材圖像共同組成新的數(shù)據(jù)集。為避免因訓(xùn)練集數(shù)量改變對識(shí)別結(jié)果的影響,該數(shù)據(jù)集與未涂飾木蠟油時(shí)的數(shù)據(jù)一樣,其中涂飾木蠟油的紅橡和欖仁木均為362 張。將該數(shù)據(jù)集按6∶2∶2 分為訓(xùn)練集、驗(yàn)證集和測試集,并對訓(xùn)練集進(jìn)行擴(kuò)充。選用學(xué)習(xí)率為0.000 1 的MobileNetV3 網(wǎng)絡(luò)模型,將涂飾木蠟油的木材圖像與素材圖像數(shù)據(jù)混合在一起進(jìn)行訓(xùn)練,并進(jìn)行遷移學(xué)習(xí)。結(jié)果(表4)表明,混有涂飾木蠟油的木材圖像數(shù)據(jù),在驗(yàn)證集上的準(zhǔn)確率為97.25%,僅降低0.88%,模型識(shí)別準(zhǔn)確率未有較大影響,準(zhǔn)確率仍很高,且可準(zhǔn)確識(shí)別出涂飾木蠟油的木材。
表4 不同數(shù)據(jù)類型的試驗(yàn)結(jié)果對比Tab. 4 Comparison of experimental results with different data types
使用經(jīng)遷移學(xué)習(xí)、學(xué)習(xí)率為0.000 1 訓(xùn)練得到的模型對混有涂飾木蠟油的木材圖像測試集進(jìn)行分類識(shí)別,通過混淆矩陣計(jì)算得到準(zhǔn)確率、召回率和F1。由表5 可知,該模型對4 種家具木材分類的平均準(zhǔn)確率為94.16%,準(zhǔn)確率較高。分類性能(按F1 得分)從高到底依次為欖仁木、紅橡、水曲柳、欒葉蘇。由混淆矩陣可知,欒葉蘇和水曲柳識(shí)別錯(cuò)誤較多,主要是因?yàn)? 種木材在不同位置時(shí)顏色和紋理有些類似,低分辨率圖像下較難區(qū)分。
表5 模型的混淆矩陣與分類性能Tab. 5 Confusion matrix and classification performance of model
為便于操作,應(yīng)用Python 語言將腳本程序開發(fā)為圖形用戶界面。本研究采用2 種圖像獲取方式,一是調(diào)用OpenCV 攝像頭拍照獲取圖像數(shù)據(jù),二是利用PyQt5 的文件選擇功能選擇本地圖像文件。載入圖像后,在組件中顯示,即可進(jìn)行識(shí)別,使用訓(xùn)練好的網(wǎng)絡(luò)模型進(jìn)行檢測。選擇一張素材中的紅橡木材圖像進(jìn)行檢測,識(shí)別概率為100%,如圖4a 所示;再選一張涂飾木蠟油的紅橡木材圖像進(jìn)行檢測,識(shí)別概率也為100%,如圖4b 所示。
圖4 可視化界面檢測結(jié)果Fig. 4 Visual interface detection results
1) 為快速識(shí)別常見家具木材圖像種類,本研究對AlexNet、 ResNet34、 MobileNetV2 和MobileNetV3經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)與SVM 和ANN 傳統(tǒng)機(jī)器學(xué)習(xí)模型進(jìn)行建模分析。綜合考慮模型性能,選用MobileNetV3 并基于遷移學(xué)習(xí)提出一種木材圖像種類識(shí)別模型,該模型對素材的識(shí)別準(zhǔn)確率達(dá)98.13%,為木材圖像種類的自動(dòng)識(shí)別提供了一種技術(shù)手段。但本研究只對4 種木材圖像進(jìn)行研究,種類相對較少,后續(xù)研究應(yīng)補(bǔ)充木材種類獲得更多的木材類別。
2) 本研究對混有涂飾木蠟油的木材數(shù)據(jù)進(jìn)行訓(xùn)練并進(jìn)行遷移學(xué)習(xí),結(jié)果發(fā)現(xiàn)在素材中混入涂飾木蠟油的木材圖像進(jìn)行訓(xùn)練,驗(yàn)證集準(zhǔn)確率為97.25%,對網(wǎng)絡(luò)模型影響較小,驗(yàn)證集準(zhǔn)確率僅降低0.88%,能夠準(zhǔn)確識(shí)別素材材種以及涂飾木蠟油的木材材種,這為木材加工過程中的工作人員以及購買實(shí)木家具的消費(fèi)者確定木材種類、防止上當(dāng)受騙提供了可能。
本研究模型在材種識(shí)別過程中僅適用于木材紋理清晰的圖像,對涂飾封閉性油漆的家具木材圖像并不能有效識(shí)別,因此對不同涂飾情況下的家具木材圖像識(shí)別仍需進(jìn)一步探索。