摘 要:本文針對(duì)大型機(jī)械設(shè)備潤(rùn)滑油磨粒分析識(shí)別領(lǐng)域中自動(dòng)化識(shí)別難度大、準(zhǔn)確率不高以及難以實(shí)際應(yīng)用等問題,基于人工智能模型框架(PyTorch-Base-Trainer,PBT)進(jìn)行磨粒形狀自動(dòng)分析與識(shí)別研究。提取不同時(shí)期與不同類型的典型磨粒圖像作為訓(xùn)練模型的數(shù)據(jù)集,基于PBT構(gòu)建磨粒形狀自動(dòng)化分析與識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)模型,反復(fù)訓(xùn)練模型,利用測(cè)試集數(shù)據(jù)檢測(cè)模型性能。試驗(yàn)結(jié)果表明,基于PBT構(gòu)建的磨粒形狀自動(dòng)化識(shí)別模型異常磨粒最佳識(shí)別率為99.3%。本研究使人工智能與深度學(xué)習(xí)技術(shù)應(yīng)用于磨粒分析識(shí)別領(lǐng)域,為磨粒分析自動(dòng)化提供參考。
關(guān)鍵詞:磨粒分析;人工智能;PBT框架
中圖分類號(hào):TP 181" " " " " " " 文獻(xiàn)標(biāo)志碼:A
潤(rùn)滑油磨粒是存在于潤(rùn)滑油中的微小磨損顆粒,通常來自機(jī)械設(shè)備在運(yùn)行過程中金屬表面的磨損。根據(jù)磨粒類型、大小、形狀和數(shù)量,能夠得到關(guān)于設(shè)備磨損狀況和故障模式的重要信息,因此磨粒對(duì)設(shè)備健康監(jiān)測(cè)、預(yù)防性維護(hù)以及延長(zhǎng)設(shè)備壽命的作用十分重要[1-4]。
以前分析潤(rùn)滑油中的磨粒的主要方法是由經(jīng)驗(yàn)豐富的專家利用肉眼識(shí)別,不僅費(fèi)時(shí)、成本高,而且分析結(jié)果易受主觀影響,限制了其在行業(yè)中的應(yīng)用范圍[4]。隨著智能圖像識(shí)別技術(shù)的快速發(fā)展,人工智能在圖像識(shí)別方面優(yōu)勢(shì)明顯[5]。
磨粒分析的進(jìn)展經(jīng)歷了多個(gè)階段:在初期階段,主要利用人工微觀檢查,雖然該方法具備專業(yè)性,但是耗時(shí)且準(zhǔn)確率有限。在技術(shù)進(jìn)步階段,20世紀(jì)70年代鐵譜技術(shù)、掃描電子顯微鏡(SEM)和能譜分析技術(shù)出現(xiàn),提升了分析精度[6]。在自動(dòng)化與數(shù)字化階段,計(jì)算機(jī)視覺和圖像處理技術(shù)的應(yīng)用初步使分析數(shù)字化[7],但是還面臨數(shù)據(jù)多樣性和復(fù)雜性的挑戰(zhàn),高級(jí)的分析設(shè)備和技術(shù)需要較高的投資成本以及高級(jí)專業(yè)人員。
2006年深度學(xué)習(xí)技術(shù)興起,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的應(yīng)用為圖像分析帶來了巨大變革[6]。在提高磨粒識(shí)別的效率和準(zhǔn)確性方面,人工智能大模型技術(shù)取得了突破,減少了對(duì)專業(yè)技術(shù)人員的依賴,能夠處理復(fù)雜數(shù)據(jù),識(shí)別多樣化磨粒特征。
1 磨粒人工智能識(shí)別模型的構(gòu)建
本文將探討基于PyTorch的人工智能模型框架在磨粒自動(dòng)化分析和識(shí)別中的應(yīng)用,利用先進(jìn)技術(shù)對(duì)磨粒進(jìn)行高效識(shí)別,為大型機(jī)械設(shè)備的預(yù)測(cè)性維護(hù)提供強(qiáng)大的技術(shù)支持。
1.1 人工智能識(shí)別框架
在本研究中,采用基于PyTorch的人工智能模型框架的圖像分類管道,即人工智能模型框架(PyTorch Base Trainer,PBT)。PBT不僅優(yōu)化了訓(xùn)練流程,降低了模型開發(fā)的復(fù)雜程度,還利用其分布式訓(xùn)練的能力顯著提升了訓(xùn)練效率。PBT基礎(chǔ)訓(xùn)練庫定義了一個(gè)基類(Base),所有訓(xùn)練引擎(Engine)以及回調(diào)函數(shù)(Callback)都會(huì)繼承基類。Engine類完成訓(xùn)練的迭代方法(例如on_batch_begin、on_batch_end),用戶在回調(diào)函數(shù)的過程中可以對(duì)迭代方法進(jìn)行輸入/輸出處理。
PBT是1個(gè)針對(duì)深度學(xué)習(xí)訓(xùn)練流程優(yōu)化的框架,改進(jìn)了老一代Keras(Keras是一種高層神經(jīng)網(wǎng)絡(luò),也是構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的有效工具。其在TensorFlow、Microsoft Cognitive Toolkit和Theano等應(yīng)用程序編程接口(Application Programming Interface,API)基礎(chǔ)上提供了一種簡(jiǎn)化接口,使深度學(xué)習(xí)模型的開發(fā)更加直觀、快速。其支持快速試驗(yàn),能夠從理念快速轉(zhuǎn)換為試驗(yàn)結(jié)果)框架,在分布式訓(xùn)練方面表現(xiàn)卓越。利用PyTorch的分布式數(shù)據(jù)并行(Distributed" Data Parallelism,DDP)功能,PBT在每個(gè)進(jìn)程中復(fù)制模型并分配數(shù)據(jù)批次,完成高效的并行訓(xùn)練。該方法采用梯度平均技術(shù)加快訓(xùn)練過程,并保證模型副本間的一致性,顯著提升了訓(xùn)練效率,與老一代框架模型相比,可縮減80%的訓(xùn)練時(shí)間。PBT的設(shè)計(jì)理念是提供最大的配置靈活性,以適應(yīng)不同的研究需求和環(huán)境。其支持命令行參數(shù)和YAML文件,使用者能夠方便地調(diào)整設(shè)置。PBT的Model Checkpoint和自定義回調(diào)函數(shù)功能使模型能夠得到保存并進(jìn)行監(jiān)控,提升了試驗(yàn)的可操作性和監(jiān)控效率。
此外,PBT集成了NNI模型剪枝工具,支持多種剪枝策略以提高模型運(yùn)行效率。這個(gè)特性在處理大規(guī)模數(shù)據(jù)集和復(fù)雜模型的過程中十分重要,能夠有效減少模型的參數(shù)數(shù)量,減少在運(yùn)行過程中的內(nèi)存,保持模型性能。為使深度學(xué)習(xí)在不同領(lǐng)域廣泛應(yīng)用,PBT還提供了一系列用于不同深度學(xué)習(xí)應(yīng)用場(chǎng)景的通用庫,例如分類、檢測(cè)、分割和姿態(tài)估計(jì),這些基于PBT的庫可快速構(gòu)建和部署模型,無論是在GPU、CPU中,還是在個(gè)人電腦中均能高效運(yùn)行。
綜上所述,PBT提供了1個(gè)高效、靈活且易于使用的深度學(xué)習(xí)訓(xùn)練框架,不僅簡(jiǎn)化了模型開發(fā)流程,還提供了完整的分布式訓(xùn)練解決方案和性能優(yōu)化工具,促進(jìn)深度學(xué)習(xí)技術(shù)的研究和應(yīng)用。在試驗(yàn)中PBT框架的這些特性不僅加快了試驗(yàn)進(jìn)程,還提高了識(shí)別的準(zhǔn)確度,展現(xiàn)了深度學(xué)習(xí)技術(shù)在傳統(tǒng)工業(yè)領(lǐng)域應(yīng)用的巨大潛力。
1.2 模型構(gòu)建的核心代碼
PBT提供了豐富的API函數(shù),不同的模型構(gòu)建方式會(huì)影響磨粒形狀自動(dòng)化識(shí)別的準(zhǔn)確度和模型訓(xùn)練速度,主要影響因素是初始學(xué)習(xí)率配置和多GPU并行配置。在本試驗(yàn)中模型配置的初始學(xué)習(xí)率為0.05,權(quán)重衰減系數(shù)設(shè)為5×10-4,這有助于模型在初期快速收斂,核心參數(shù)配置從YAML文件讀取超參數(shù)并更新配置,模型構(gòu)建的核心代碼如下。
def build_model(self, cfg, **kwargs):
\"\"\"build_model\"\"\"
# 模型構(gòu)建,配置初始學(xué)習(xí)率
self.logger.info(\"build_model,net_type:{}\".format(cfg.net_type))
model = build_models.get_models(net_type=cfg.net_type,input_size= cfg.input_size,width_mult=cfg.width_mult,num_classes=cfg.num_classes, pretrained=cfg.pretrained)
cfg = setup_config.parser_config(parser.parse_args(1)=0.05, parser.parse_args(2)=5e-4,cfg_updata= True)
# 構(gòu)建模型并行化,如果配置了分布式訓(xùn)練,則該模型在多個(gè)GPU上并行運(yùn)行。
model = self.build_model_parallel(model, cfg.gpu_
id,distributed= cfg.distributed)return model
2 人工智能識(shí)別模型的訓(xùn)練
2.1 試驗(yàn)數(shù)據(jù)集的構(gòu)建
1個(gè)涵蓋了廣泛譜片圖像的多元化數(shù)據(jù)集是本研究的基礎(chǔ)。從《磨粒圖譜》(安德森編著)和《磨粒分析》(楊其明著)中提取圖像,基于這些圖像建立1個(gè)包括3個(gè)磨損時(shí)期和6種不同類型磨粒的基礎(chǔ)圖片庫。在每張圖片中都有詳細(xì)的標(biāo)注信息,例如形成原因、特征形貌和來源。根據(jù)機(jī)械磨損的時(shí)期不同,將磨粒圖像劃分為3個(gè)類別(如圖1所示),分別為類別一(磨合時(shí)期磨粒)、類別二(正常時(shí)期磨粒)和類別三(異常時(shí)期磨粒),分別對(duì)應(yīng)機(jī)械磨損期的前、中和后期[8-9]。
為了擴(kuò)大數(shù)據(jù)集并滿足神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)需求,本文應(yīng)用一系列數(shù)據(jù)增強(qiáng)技術(shù),例如隨機(jī)裁剪、翻轉(zhuǎn)以及調(diào)整對(duì)比度、亮度和飽和度,在不增加原始數(shù)據(jù)的基礎(chǔ)上生成更多有效數(shù)據(jù)。使用數(shù)據(jù)增強(qiáng)技術(shù)處理后的異常磨損圖像樣本如圖2所示。
在進(jìn)行模型訓(xùn)練的過程中,不同來源的磨粒圖像的尺寸和分辨率的異質(zhì)性可能會(huì)對(duì)訓(xùn)練的一致性和效率造成負(fù)面影響。將所有圖像調(diào)整至統(tǒng)一尺寸,并將圖像統(tǒng)一縮放至256 ppi×256 ppi,既能保證數(shù)據(jù)輸入的一致性,又能降低所需的計(jì)算量來加速訓(xùn)練過程。與其他2個(gè)時(shí)期相比,異常磨損時(shí)期的磨粒種類更多、更復(fù)雜,因此用于異常磨損的訓(xùn)練集數(shù)據(jù)更多。本次試驗(yàn)的磨粒圖像樣本數(shù)見表1,在訓(xùn)練過程中從測(cè)試集隨機(jī)抽取25%的樣本作為驗(yàn)證集。
2.2 訓(xùn)練參數(shù)的配置
在試驗(yàn)過程中模型訓(xùn)練使用相同的超參數(shù)配置,在模型訓(xùn)練過程中采用批量訓(xùn)練方法,使用Multi-StepLR學(xué)習(xí)率調(diào)整策略。與只能固定步長(zhǎng)(step)衰減的StepLR學(xué)習(xí)率調(diào)整策略相比,Multi-StepLR可以設(shè)置每一個(gè)步長(zhǎng)的大小,使學(xué)習(xí)率滿足多指定步長(zhǎng)衰減。當(dāng)訓(xùn)練輪次(epoch)符合設(shè)定值時(shí),調(diào)整學(xué)習(xí)率。Multi-StepLR學(xué)習(xí)率調(diào)整策略如公式(1)所示。
(1)
式中:lrepoch為當(dāng)前周期的學(xué)習(xí)率;Gmma為學(xué)習(xí)率;lrepoch-1為上一個(gè)訓(xùn)練周期的學(xué)習(xí)率;milestones為1個(gè)包括訓(xùn)練索引的列表。
Multi-StepLR的學(xué)習(xí)曲線如圖3所示,該學(xué)習(xí)曲線魯棒性好、收斂快。
在本磨粒圖像人工智能識(shí)別模型的訓(xùn)練過程中,優(yōu)化器采用了小批量隨機(jī)梯度下降算法(mini-SGD),設(shè)置學(xué)習(xí)率為0.05,批量(batch)大小為32,訓(xùn)練30個(gè)輪次,采用損失函數(shù)為優(yōu)秀的CrossEntropyLoss函數(shù),如公式(2)所示。
H(p,q)=-∑p(x)log(q(x)) " " " " (2)
式中:H(p,q)為交叉熵;x為神經(jīng)網(wǎng)絡(luò)輸出值;p(x)為期望輸出的概率分布;q(x)為實(shí)際輸出的概率分布。
交叉熵描述實(shí)際輸出概率與期望輸出概率之間的差距,交叉熵的值越小,2個(gè)概率分布就越接近。在訓(xùn)練過程中數(shù)據(jù)損失值平穩(wěn)下降,訓(xùn)練集與驗(yàn)證集的準(zhǔn)確率平穩(wěn)上升至差距很小,訓(xùn)練完成。
2.3 運(yùn)行過程與結(jié)果分析
配置試驗(yàn)參數(shù)后,即可進(jìn)行模型訓(xùn)練。PBT框架提供了最佳模型、次最佳模型和最近模型,使用同樣的試驗(yàn)參數(shù)對(duì)這3個(gè)模型進(jìn)行訓(xùn)練,從中選擇識(shí)別率最高的模型。當(dāng)PBT模型進(jìn)行訓(xùn)練時(shí),訓(xùn)練集和測(cè)試集識(shí)別準(zhǔn)確率曲線如圖4所示。由圖4可知,隨著訓(xùn)練周期迭代,訓(xùn)練集的準(zhǔn)確率穩(wěn)步上升。測(cè)試集的準(zhǔn)確率在迭代周期前期有一些波折,但是總體呈上升趨勢(shì),收斂速度快,魯棒性好。訓(xùn)練集和測(cè)試集損失值曲線如圖5所示。由圖5可知,訓(xùn)練集的損失值穩(wěn)步下降,訓(xùn)練完成后穩(wěn)定在0.1左右。驗(yàn)證集的損失值在訓(xùn)練前期急劇上升,隨后穩(wěn)步下降,最后也穩(wěn)定在0.1左右。訓(xùn)練迭代后訓(xùn)練集與測(cè)試集的損失值差距很小。綜上所述,PBT模型訓(xùn)練后訓(xùn)練集與測(cè)試集準(zhǔn)確率和損失值差距很小,構(gòu)建的磨粒圖像識(shí)別模型識(shí)別能力較強(qiáng)。
迭代訓(xùn)練30個(gè)輪次后(訓(xùn)練時(shí)間小于1 h)形成最佳模型、次最佳模型和最近模型3個(gè)模型,運(yùn)用測(cè)試集進(jìn)行測(cè)試,最佳模型性能卓越,異常磨粒最佳模型的識(shí)別率為99.3%,模型識(shí)別率見表2。
分別從3個(gè)類別的測(cè)試集中隨機(jī)抽取25%的樣本作為驗(yàn)證集,評(píng)估磨粒圖像識(shí)別模型的性能。使用精確率(Accuracy)、召回率(Recall)以及F1值評(píng)估模型的性能。精確率反映了模型預(yù)測(cè)為正例的樣本中實(shí)際為正例樣本的比例,代表了模型的預(yù)測(cè)準(zhǔn)確性和精確性。Accuracy的計(jì)算過程如公式(3)所示。
Accuracy=TP/(TP+FP) " "(3)
式中:TP為正確預(yù)測(cè)為正例的樣本數(shù);FP為錯(cuò)誤預(yù)測(cè)為正例而真正為負(fù)例的樣本數(shù)。
精確度指標(biāo)越高,模型的預(yù)測(cè)效果越好。模型對(duì)3個(gè)類別的識(shí)別精確率都超過90%,平均值為95.43%,對(duì)類別異常時(shí)期的磨粒識(shí)別精確率接近100%,說明模型對(duì)磨粒圖像識(shí)別的預(yù)測(cè)效果優(yōu)秀。
Recall衡量了模型正確識(shí)別出正樣本的比例。Recall的計(jì)算過程如公式(4)所示。
Recall=TP/(TP+FN)" " " " (4)
式中:FN為預(yù)測(cè)為負(fù)例而真正為正例的樣本數(shù)。
Recall反映了模型中所有正例樣本被正確識(shí)別的比例,Recall越高,模型檢測(cè)識(shí)別能力越好。模型對(duì)3個(gè)類別的磨粒識(shí)別Recall都在90%以上,平均值為95.24%,說明模型能夠識(shí)別正確樣本。
F1值綜合評(píng)價(jià)模型的性能,其計(jì)算過程如公式(5)所示。
F1=(2×Accuracy·Recall)/(Accuracy+Recall) (5)
模型性能評(píng)估見表3。模型對(duì)3個(gè)類別的磨粒識(shí)別F1值都超過90%,平均值為95.23%,總體準(zhǔn)確率為95.24%,說明該模型可以識(shí)別3種類別的磨粒。
這個(gè)高性能的識(shí)別結(jié)果不僅證明了模型在磨粒形態(tài)識(shí)別任務(wù)方面的有效性,還展示了其在實(shí)際應(yīng)用場(chǎng)景中的實(shí)用性。本文構(gòu)建的模型能夠縮減磨粒判別時(shí)間,提高判別準(zhǔn)確度。
3 結(jié)論
本文針對(duì)大型機(jī)械設(shè)備潤(rùn)滑油磨粒分析識(shí)別領(lǐng)域中自動(dòng)化識(shí)別難度大、準(zhǔn)確率不高和難以實(shí)際應(yīng)用等問題,基于PBT對(duì)磨粒形狀自動(dòng)分析與識(shí)別進(jìn)行研究。本文構(gòu)建了磨粒圖像人工智能識(shí)別模型,對(duì)磨粒圖像形狀進(jìn)行自動(dòng)化識(shí)別。模型運(yùn)行結(jié)果表明,訓(xùn)練后的模型對(duì)不同時(shí)期的磨粒圖像均有優(yōu)秀的識(shí)別能力,異常磨粒最佳識(shí)別率為99.3%。本文提出的PBT形狀識(shí)別模型為人工智能與深度學(xué)習(xí)技術(shù)應(yīng)用于磨粒分析識(shí)別領(lǐng)域以及磨粒分析自動(dòng)化提供了新思路。
參考文獻(xiàn)
[1]劉峰壁,任和.機(jī)械潤(rùn)滑故障與油液分析(上)[M].廣州:華南理工大學(xué)出版社,2019.
[2]黃志堅(jiān).機(jī)械設(shè)備故障診斷與監(jiān)測(cè)技術(shù)[M].北京:化學(xué)工業(yè)出版社,2020.
[3]錢勇武,張萌萌,吳同浦.齒輪箱潤(rùn)滑油在線監(jiān)測(cè)系統(tǒng)總體設(shè)計(jì)[J].機(jī)械制造與自動(dòng)化,2021,50(3):207-209.
[4]YUAN C Q, PENG Z X, ZHOU X C, et al.The characterization"of wear transitions in sliding wear process contaminated with silica and iron powder[J]. Tribology International,2005,38(2):129-143.
[5]張順,龔怡宏,王進(jìn)軍.深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用[J].計(jì)算機(jī)學(xué)報(bào),2019(3):100-101.
[6]徐元強(qiáng).數(shù)字同軸全息油液磨粒檢測(cè)技術(shù)的初步研究[D].濟(jì)南:山東大學(xué),2010.
[7]范斌.基于油液監(jiān)測(cè)技術(shù)的重型車輛綜合傳動(dòng)磨損狀態(tài)研究[D].呼和浩特:內(nèi)蒙古工業(yè)大學(xué),2013.
[8]楊其明.磨粒分析:磨粒圖譜與鐵譜技術(shù)[M].北京:中國鐵道出版社,2002.
[9]安德森,金元生,楊其明.磨粒圖譜[M].北京:機(jī)械工業(yè)出版社,1987.
通信作者:鐘金鋼(1964—),男,江西新余人,暨南大學(xué)物理與光電工程學(xué)院教授,研究方向?yàn)橛?jì)算成像、機(jī)器視覺。
電子郵箱:tzjg@jnu.edu.cn。
通信作者:張冠文(1964—)男,廣東東莞人,廣東省科學(xué)院測(cè)試分析研究所(中國廣州分析測(cè)試中心)教授級(jí)高級(jí)工程師,研究方向?yàn)榭茖W(xué)儀器。
電子郵箱:dg-qiang@163.com。