摘 要:對(duì)于晶圓表面缺陷檢測(cè)來說,缺陷樣本存在著樣本數(shù)量不足,缺陷表現(xiàn)形式多樣的問題。為解決此類問題,提出了一種基于改進(jìn)生成對(duì)抗網(wǎng)絡(luò)的晶圓表面缺陷檢測(cè)模型。該模型首先在GANomaly模型的基礎(chǔ)上引入了跳層連接,并引入CBAM注意力機(jī)制,用以更好地關(guān)注圖像重要區(qū)域,其次引入記憶模塊以約束潛在空間的表示,最后在原模型架構(gòu)上新增一個(gè)自編碼器架構(gòu)判別器,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點(diǎn)。實(shí)驗(yàn)結(jié)果表明,該模型能夠準(zhǔn)確分辨具有缺陷的晶圓樣本,檢測(cè)精度達(dá)到了0.985,相較于GANomaly算法提升了6.7%。對(duì)于Mvtec AD數(shù)據(jù)集,檢測(cè)精度達(dá)到了0.79,相較于GANomaly算法提升了3%。
關(guān)鍵詞:晶圓表面缺陷;生成對(duì)抗網(wǎng)絡(luò);CBAM;記憶模塊
中圖分類號(hào):T391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2024)20-0037-07
Wafer Surface Defect Detection Based on Improved Generative Adversarial Network
LING Hongwei, ZHANG Jianmin
(School of Artificial Intelligence, Jianghan University, Wuhan 430056, China)
Abstract: For wafer surface defect detection, there are problems that the number of defect samples is insufficient and the defects are in various forms. In order to solve such problems, a wafer surface defect detection model based on improved Generative Adversarial Network is proposed. Firstly, the model introduces layer hopping connection on the basis of the GANomaly model, and introduces CBAM Attention Mechanism to better focus on the important regions of the image. Secondly, it introduces a memory module to constrain the representation of the potential space. Finally, it adds a new autoencoder architecture discriminator on the original model architecture to ensure that the training is more stable and it is easier to converge to the optimal equilibrium point. The experimental results show that the model is able to accurately distinguish wafer samples with defects, and the detection accuracy reaches 0.985, which is improved by 6.7% compared to the GANomaly algorithm. For the Mvtec AD dataset, the detection accuracy reaches 0.79, which is improved by 3% compared to the GANomaly algorithm.
Keywords: wafer surface defect; Generative Adversarial Network; CBAM; memory module
0 引 言
現(xiàn)代半導(dǎo)體芯片[1]采用高級(jí)硅材料和精細(xì)制造工藝,具有高集成度、高性能、低能耗和快速處理速度等特點(diǎn),使其在高科技領(lǐng)域中扮演著核心角色。晶圓作為重要組成材料,伴隨著芯片的高密度集成也為其帶來了艱巨挑戰(zhàn),由于晶體管數(shù)量的急劇增加,晶圓[2]在設(shè)計(jì)和制造過程中的復(fù)雜性也隨之增加,這就要求使用先進(jìn)的光刻技術(shù)和精確的制造流程來確保每個(gè)晶圓的性能。
早期,在計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)領(lǐng)域,表面缺陷檢測(cè)的經(jīng)典方法包括邊緣檢測(cè)[3]、紋理分析[4]、顏色分析[5]等。然而,這些方法大多需要大量的人工參與,不僅需要人工設(shè)定和調(diào)整特征提取的參數(shù),還需要人工標(biāo)注大量的訓(xùn)練樣本。此外,這些方法的抗噪聲能力和泛化能力往往較弱,對(duì)于復(fù)雜的、不規(guī)則的、多樣的表面缺陷[6],識(shí)別效果不盡如人意。因此,無監(jiān)督的缺陷檢測(cè)顯得尤為重要。
無監(jiān)督學(xué)習(xí)[7]因?yàn)槠錈o須依賴標(biāo)簽數(shù)據(jù)的優(yōu)勢(shì),已在圖像異常檢測(cè)領(lǐng)域得到廣泛應(yīng)用。隸屬于無監(jiān)督學(xué)習(xí)的生成對(duì)抗網(wǎng)絡(luò)(GAN)通過探究數(shù)據(jù)本身的內(nèi)在特性,能有效識(shí)別并挖掘出數(shù)據(jù)的共通性,測(cè)量異常得分以實(shí)現(xiàn)圖像異常的檢測(cè)。這使其在各類工業(yè)環(huán)境下的圖像異常檢測(cè)中發(fā)揮了重要作用。
2017年,Lee[8]提出的AnoGAN是第一個(gè)將GAN運(yùn)用到缺陷檢測(cè)領(lǐng)域的模型,其引入雙向GAN來利用潛在空間編碼進(jìn)行異常評(píng)分,但其因?yàn)槎啻蔚?,存在著?jì)算復(fù)雜性大的問題。2018年,Akcay等人[9]提出GANomaly解決了AnoGAN計(jì)算復(fù)雜性的問題,其引入了自編碼器結(jié)構(gòu)作為生成器以提高計(jì)算效率,并開發(fā)了一個(gè)可解釋局部異常的標(biāo)準(zhǔn)化分?jǐn)?shù)。2019年,Youkachen等人[10]通過使用卷積自動(dòng)編碼器(CAE)和銳化過程來提取輸入圖像的缺陷特征,然后應(yīng)用后處理進(jìn)行可視化,對(duì)熱軋鋼帶表面進(jìn)行缺陷分割。2019年,Yang等人[11]提出了一種基于無監(jiān)督多尺度特征聚類的全卷積自動(dòng)編碼器(MS-FCAE)方法,該方法利用不同尺度級(jí)別的多個(gè)特征AE子網(wǎng)絡(luò)來重建多個(gè)紋理背景圖像。該方法在多個(gè)紋理數(shù)據(jù)集上實(shí)現(xiàn)了92.0%的精度。
為此,本文為實(shí)現(xiàn)更好的缺陷檢測(cè)能力,針對(duì)晶圓表面缺陷數(shù)據(jù)集提出了一種基于改進(jìn)生成對(duì)抗網(wǎng)絡(luò)的晶圓表面缺陷檢測(cè)模型,在GANomaly模型的基礎(chǔ)上引入了跳層連接,在反向傳播時(shí),有效減少梯度消失、梯度爆炸現(xiàn)象,并在跳層連接處引入CBAM注意力機(jī)制[12]幫助模型更好地關(guān)注圖像的重要區(qū)域和重要特征;為約束潛在空間的表示從而引入記憶模塊MemAE[13],使得重構(gòu)后的圖像樣本分布接近正常樣本。最后,在原模型架構(gòu)上新增一個(gè)自編碼器架構(gòu)判別器,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點(diǎn)。
1 相關(guān)工作
1.1 模型總體結(jié)構(gòu)
本文所提出的基于改進(jìn)生成對(duì)抗網(wǎng)絡(luò)的晶圓表面缺陷檢測(cè)模型架構(gòu)如圖1所示,該模型由5部分構(gòu)成:編碼器GE、解碼器GD、記憶模塊M和判別器D1以及判別器D2。
生成器模塊由編碼器GE、記憶模塊M、解碼器GD組成:輸入圖像x,編碼器GE對(duì)其進(jìn)行編碼,獲取潛在特征z,記憶模塊檢索與其最為相似的特征,得到新的潛在特征,最后將輸入解碼器GD進(jìn)行上采樣,得到重構(gòu)圖像。
判別器模塊由判別器D1,D2組成:判別器D1獲取輸入圖像x和重建圖像 從而得到潛在表示,并預(yù)測(cè)其類標(biāo)簽。判別器D2根據(jù)BEGAN[14]模型思想,為自編碼器結(jié)構(gòu),以最小化生成器G和最大化判別器D2來達(dá)到,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點(diǎn)。
1.2 編碼器和解碼器
編碼器GE用于將高維圖像x映射到低維潛在特征z來捕獲輸入圖像的數(shù)據(jù)分布,輸入圖像x在編碼器網(wǎng)絡(luò)中通過5個(gè)模塊,每個(gè)模塊包含卷積層、BatchNorm層和LeakyReLU激活函數(shù)并輸出潛在特征z,也稱為帶有獨(dú)特表示的瓶頸特征。
解碼器GD用于將潛在特征映射為重構(gòu)圖像,有著與編碼器GE對(duì)稱的網(wǎng)絡(luò)結(jié)構(gòu),潛在特征在解碼器網(wǎng)絡(luò)中經(jīng)歷5個(gè)塊,每個(gè)模塊包含反卷積層、BatchNorm層和ReLU激活函數(shù)。另外該模型也同時(shí)引入了跳層連接,通過層與層之間的直接信息傳輸,保留了更多的圖像特征,從而幫助產(chǎn)生更好的重建。
1.3 MemAE記憶模塊
在生成器重構(gòu)圖像的過程中,往往會(huì)因?yàn)樽跃幋a器的泛化能力過強(qiáng),部分異常也能被很好地重構(gòu),導(dǎo)致重構(gòu)誤差較小,降低了異常檢測(cè)的準(zhǔn)確率。為有效解決該問題,本文引入了記憶模塊MemAE用以強(qiáng)化正樣本特征,擴(kuò)大正常樣本與缺陷樣本之間的重構(gòu)誤差,其工作原理是通過獲取編碼器GE輸出的潛在特征z,將其用作查詢條件來檢索最相關(guān)的記憶項(xiàng)進(jìn)行重建得到以輸入到解碼器GD。在訓(xùn)練階段,記憶內(nèi)容被更新為更能代表正常樣本的記憶元素。在測(cè)試階段,通過記憶模塊的尋址操作得到的潛在特征僅包含與正樣本相關(guān)的圖像信息,針對(duì)缺陷樣本會(huì)產(chǎn)生更大的重構(gòu)誤差,以提高模型的檢測(cè)效果,記憶模塊結(jié)構(gòu)如圖2所示。
指定向量空間R,即,其中N表示記憶矩陣M所包含N個(gè)有效特征信息,而C表示特征信息的維度。MemAE模塊的計(jì)算為:
(1)
式(1)中,表示注意力權(quán)重系數(shù),用于衡量潛在特征z與記憶元素mi的相似性,而表示第i個(gè)注意力系數(shù),mi表示記憶矩陣M中第i個(gè)行向量。注意力系數(shù)計(jì)算式為:
(2)
式(2)中,表示潛在特征z與記憶元素mi的余弦相似度,為有效避免非常小的注意力權(quán)重使缺陷樣本仍舊具有較好的重構(gòu)效果,MemAE引入了稀疏處理的操作,如式(3)所示:
(3)
式(3)中,λ表示稀疏閾值,將小于λ的注意力權(quán)重系數(shù)wi設(shè)置為0,并進(jìn)行歸一化,其中ε>0且數(shù)值非常小,避免分母為0。
1.4 CBAM注意力機(jī)制
CBAM是一種混合注意力機(jī)制,旨在幫助模型更好地捕捉圖像中的重要信息,從而提高其性能和泛化能力。主要由通道注意力模塊和空間注意力模塊兩大部分組成。通道注意力模塊通過計(jì)算每個(gè)通道的重要性權(quán)重來告訴模型更應(yīng)該強(qiáng)調(diào)哪些通道的信息,以便更好地捕捉特征。空間注意力模塊通過計(jì)算每個(gè)空間位置的重要性權(quán)重來告訴網(wǎng)絡(luò)應(yīng)該更關(guān)注哪些位置的信息,具體結(jié)構(gòu)如圖3所示。
通道注意力計(jì)算式為:
(4)
式(4)中,和表示平均池化特征和最大池化特征。
空間注意力計(jì)算式為:
(5)
式(5)中,和分別表示平均池化特征和最大池化特征。CBAM注意力機(jī)制通過通道和空間兩個(gè)維度,幫助神經(jīng)網(wǎng)絡(luò)更好地理解圖像,并提高其性能。
1.5 判別器
本模型分別包含判別器D1和判別器D2,判別器D1的主要任務(wù)是區(qū)分真實(shí)圖像或生成圖像,判別器D2的主要任務(wù)是用以約束生成器以強(qiáng)化生成器的重構(gòu)能力。兩者的目的均是最小化其輸入圖像x與重構(gòu)圖像之間的差異,讓生成器和判別器學(xué)習(xí)正常數(shù)據(jù)的底層分布。
其中判別器D1通過轉(zhuǎn)置卷積,BatchNorm2d,LeakyReLU激活函數(shù)不斷地改變特征維度,最后通過Sigmoid激活函數(shù)判斷圖像的真假。判別器D2采用自編碼器結(jié)構(gòu),用以強(qiáng)化生成器的重構(gòu)能力,以確保模型訓(xùn)練更穩(wěn)定,判別器整體卷積架構(gòu)如圖4所示。
1.6 損失函數(shù)
該模型的損失函數(shù)由判別器D1產(chǎn)生的對(duì)抗損失ladv1,重建損失lcon,潛在損失llat,和權(quán)重熵?fù)p失lw,SSIM損失,以及判別器D2產(chǎn)生的對(duì)抗損失ladv2組成,具體內(nèi)容如下:
1)對(duì)抗損失ladv1。為促使生成器G重構(gòu)出的圖像更接近輸入圖像,判別器D能有效對(duì)輸入圖像x與重構(gòu)圖像進(jìn)行分類,以達(dá)到最小化生成器G的損失,并使判別器D的損失最大化目的,損失函數(shù)為:
(6)
2)重建損失lcon。重建損失采用L1范數(shù),對(duì)輸入圖像x和重建圖像進(jìn)行處理來確保模型生成的圖像與正常樣本的上下文信息相似。具體損失函數(shù)為:
(7)
3)潛在損失llat。為減少冗余信息影響解碼器重構(gòu)圖像,將輸入圖像x和重建圖像輸入到判別器中,并分別提取維度為100的特征,使用L2范數(shù)進(jìn)行歸一化,潛在損失函數(shù)為:
(8)
4)權(quán)重熵?fù)p失lw。權(quán)重熵?fù)p失函數(shù)為強(qiáng)化記憶模塊MemAE對(duì)正樣本的記錄,使用注意力權(quán)重的交叉熵來表示權(quán)重熵?fù)p失,計(jì)算式為:
(9)
5)結(jié)構(gòu)相似度指數(shù)SSIM[15]。用于比較兩幅圖像之間的相似程度,不僅僅是像素級(jí)別的比較。主要通過亮度比較,對(duì)比度比較,結(jié)構(gòu)比較來評(píng)估兩幅圖像的相似度,計(jì)算式為:
(10)
6)對(duì)抗損失ladv2。為進(jìn)一步提高生成器的圖像重構(gòu)能力,在判別器D2處引用了對(duì)抗性損失函數(shù)以對(duì)生成器進(jìn)行約束。對(duì)抗性損失ladv2如式(11)所示:
(11)
模型訓(xùn)練的總體損失,計(jì)算式為:
(12)
式中λadv1、λcon、λlat、λssim、λadv2表示各個(gè)損失函數(shù)對(duì)應(yīng)的權(quán)重參數(shù),經(jīng)多次實(shí)驗(yàn)調(diào)參得到λadv1=1、λcon=50、λlat=1、λssim=1。α作為訓(xùn)練中的超參數(shù)定義為2×10-4。
1.7 異常分?jǐn)?shù)
在后續(xù)測(cè)試中,將采用異常分?jǐn)?shù)進(jìn)行異常檢測(cè)的判定,其計(jì)算式為:
(13)
式(13)中,x′表示測(cè)試圖像,λ表示加權(quán)參數(shù),Lcon表示重建誤差,Llat表示原圖和重建圖進(jìn)入判別器潛在特征的損失。
測(cè)試中,對(duì)于測(cè)試樣本下的得分A可記為,Ai表示第i個(gè)異常分?jǐn)?shù),xi′表示測(cè)試集Dtest中第i個(gè)測(cè)試樣本。最后進(jìn)行歸一化處理,將每一個(gè)異常分?jǐn)?shù)縮放到[0,1]之間,計(jì)算式為:
(14)
式中,min(A)和max(A)分別表示異常得分集合A中的最小值和最大值,以為基準(zhǔn)對(duì)測(cè)試集進(jìn)行判定。
2 實(shí)驗(yàn)結(jié)果及分析
2.1 數(shù)據(jù)集
本次實(shí)驗(yàn)的晶圓數(shù)據(jù)集是由某半導(dǎo)體公司在實(shí)際生產(chǎn)環(huán)境中提供的,每張圖像大小均在130×130??偣?77張圖像數(shù)據(jù)集,其中訓(xùn)練集277張均為正樣本、測(cè)試集200張,由100個(gè)正樣本,100個(gè)負(fù)樣本組成,以達(dá)到數(shù)據(jù)平衡性,按照缺陷晶圓的圖像特征和命名規(guī)范,把采集的晶圓圖像缺陷類型分為以下三類:空Die缺陷(KD)、外來物缺陷(WLW)、污染缺陷(ZW),圖5展示了缺陷數(shù)據(jù)集中各類缺陷的晶圓圖像。
為進(jìn)一步驗(yàn)證模型的性能,同時(shí)對(duì)公共數(shù)據(jù)集Mvtec AD數(shù)據(jù)集[16]進(jìn)行實(shí)驗(yàn)。Mvtec AD數(shù)據(jù)集總共分為兩大類:紋理類與物體類,其中紋理類涵蓋了地毯、網(wǎng)格和皮革等5類數(shù)據(jù)集,物體類由瓶子、金屬螺母和電纜等10類數(shù)據(jù)集組成,其缺陷多樣,具有一定的說服力,樣本數(shù)據(jù)如圖6所示。
2.2 實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)所使用的平臺(tái)及運(yùn)行環(huán)境配置如表1所示。
2.3 性能評(píng)估指標(biāo)
本文采取通過精確率(P)和召回率(R)、F1分?jǐn)?shù)(F)以及ROC的曲下面積AUC來對(duì)模型性能進(jìn)行度量。在缺陷實(shí)驗(yàn)中,常用混淆矩陣(Confusion Matrix)來表示樣本預(yù)測(cè)值的正負(fù)和樣本真實(shí)值的正負(fù)之間的關(guān)系,混淆矩陣如表2所示。
2.4 訓(xùn)練細(xì)節(jié)及參數(shù)設(shè)置
輸入模型圖像大小均為64×64像素,Epoch為50,每批次輸入64張圖像,初始學(xué)習(xí)率為0.000 2,衰減動(dòng)量b1 = 0.5,b2 = 0.999,異常分?jǐn)?shù)中加權(quán)參數(shù)λ = 0.9。
2.5 實(shí)驗(yàn)結(jié)果
為了驗(yàn)證模型的有效性,利用晶圓數(shù)據(jù)集與無監(jiān)督模型AnoGAN、EGBAD、GANomaly進(jìn)行對(duì)比實(shí)驗(yàn),對(duì)比結(jié)果如表3所示。
表3從精確率和召回率、F1分?jǐn)?shù)及AUC進(jìn)行全面評(píng)估模型晶圓表面缺陷檢測(cè)的能力。AnoGAN和EGBAD的AUC值分別為0.592、0.594,這意味著兩者無法有效的區(qū)分正常和異常樣本,不具備對(duì)異常圖像的缺陷檢測(cè)能力。相比之下GANomaly的整體效果得到了極大的提升,AUC值達(dá)到了0.918,具有較高的正樣本識(shí)別能力,同時(shí)也保持了相對(duì)較高的召回率。本文所提出的模型在所有評(píng)估指標(biāo)上均表現(xiàn)卓越,精確率達(dá)到完美的1.0意味著在識(shí)別異常時(shí)沒有產(chǎn)生任何誤報(bào),而高召回率也確保了大多數(shù)異常能被識(shí)別,本模型的AUC值相較于GANomaly提升了6.7%,實(shí)驗(yàn)中晶圓數(shù)據(jù)集缺陷檢測(cè)可視化數(shù)據(jù)圖如圖7所示。
為進(jìn)一步驗(yàn)證本章對(duì)模型所做改進(jìn)對(duì)晶圓表面缺陷檢測(cè)的有效性,對(duì)模型增加的CBAM注意力機(jī)制,MemAE記憶模塊以及新增自編碼式判別器進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4所示。在表4中,Base表示基準(zhǔn)模型GANomaly;CBAM表示在生成器第3、4層引入跳層連接,并于第四層連接處添加CBAM注意力機(jī)制;MemAE表示在生成器模塊處引入記憶模塊;D2表示在判別器模塊中增添一個(gè)自編碼式判別器,表格中空白項(xiàng)表示無此項(xiàng)。
通過表3的數(shù)據(jù)可以直觀地看出,跳層連接處CBAM注意力機(jī)制的引入,極大程度提高了模型的圖像重構(gòu)能力,AUC值相較于基準(zhǔn)模型提高了3.3%,隨著MemAE記憶模塊的引入以及判別器D2的增添,AUC值相較于基準(zhǔn)模型分別提高了5.5%和6.7%。為驗(yàn)證模型的有效性,本文同時(shí)也對(duì)公共數(shù)據(jù)集Mvtec AD數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),對(duì)比結(jié)果如表5所示。
分析表4中數(shù)據(jù)可知,本文所提出的基于改進(jìn)生成對(duì)抗網(wǎng)絡(luò)的晶圓表面缺陷檢測(cè)模型在平均性能上都獲得了較為優(yōu)秀的檢測(cè)性能,特別針對(duì)Screw、Toothbrush兩類數(shù)據(jù)集,AUC值都得到了明顯提高,而對(duì)于紋理類數(shù)據(jù)集Carpet由于較強(qiáng)的圖像重構(gòu)能力,無法達(dá)到有效的檢測(cè)效果,整體平均AUC相較于基準(zhǔn)模型Ganomaly提高了3%。
3 結(jié) 論
針對(duì)晶圓表面缺陷檢測(cè),為解決有監(jiān)督學(xué)習(xí)獲取標(biāo)注數(shù)據(jù)昂貴、困難且缺乏先驗(yàn)知識(shí)的問題,提出了基于改進(jìn)生成對(duì)抗網(wǎng)絡(luò)的晶圓表面缺陷檢測(cè)模型。在跳層連接處引入CBAM注意力機(jī)制幫助模型更好地關(guān)注圖像的重要區(qū)域和重要特征;為約束潛在空間的表示從而引入記憶模塊MemAE,使得重構(gòu)后的圖像樣本分布接近正常樣本。最后,在原模型架構(gòu)上新增一個(gè)自動(dòng)編碼器架構(gòu)判別器,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點(diǎn)。通過實(shí)驗(yàn)驗(yàn)證,本文所提出的模型對(duì)晶圓表面缺陷檢測(cè)AUC值達(dá)到了0.985,相較于GANomlay提升了6.7%,在公共數(shù)據(jù)集MVTec AD上AUC值達(dá)到了0.79,相較于基準(zhǔn)模型GANomaly提高了3%。證明該模型具有潛在價(jià)值,特別針對(duì)晶圓數(shù)據(jù)集能有效進(jìn)行缺陷檢測(cè),對(duì)以后的晶圓表面缺陷檢測(cè)任務(wù)具有一定的指導(dǎo)意義;對(duì)于公共數(shù)據(jù)集MVTec AD缺陷檢測(cè)仍有一定的提升空間。
參考文獻(xiàn):
[1] 常凱,馮麗妃.我國半導(dǎo)體芯片制造底層技術(shù)短板待補(bǔ) [N].中國科學(xué)報(bào),2023-11-09(1).
[2] 曹蕓玉.基于深度學(xué)習(xí)的晶圓表面缺陷檢測(cè)系統(tǒng)研究 [D].鄭州:華北水利水電大學(xué),2023.
[3] JIN Q F,CHEN L. A Survey of Surface Defect Detection of Industrial Products Based on a Small Number of Labeled Data [J/OL].arXiv:2203.05733 [cs.CV].(2022-03-11).https://arxiv.org/abs/2203.05733.
[4] 劉世民.基于機(jī)器視覺的某低壓斷路器復(fù)雜紋理面板的瑕疵檢測(cè) [D].廈門:廈門理工學(xué)院,2022.
[5] 邱笑迎.基于顏色特征的面料花型圖案檢索算法 [J].計(jì)算機(jī)時(shí)代,2023(9):92-95.
[6] YANG W H. A Survey of Surface Defect Detection Based on Deep Learning [C]//2022 7th International Conference on Modern Management and Education Technology (MMET 2022).Dordrecht:Atlantis Press,2022:362-367.
[7] TAO X,GONG X Y,ZHANG X,et al. Deep Learning for Unsupervised Anomaly Localization in Industrial Images: A Survey [J].IEEE Transactions on Instrumentation and Measurement,2022,71:1-21.
[8] LEE D.Anomaly Detection in Multivariate Non-stationary Time Series for Automatic DBMS Diagnosis [J/OL].arXiv:1708.02635 [stat.ML].(2017-08-08).https://arxiv.org/abs/1708.02635.
[9] AKCAY S,ATAPOUR-ABARGHOUEI A,BRECKON T P. Ganomaly: Semi-supervised Anomaly Detection via Adversarial Training [C]//ACCV 2018:14th Asian Conference on Computer Vision.Perth:Springer,2019:622-637.
[10] YOUKACHEN S,RUCHANURUCKS M,PHATRAPOMNANT T,et al. Defect Segmentation of Hot-rolled Steel Strip Surface by Using Convolutional Auto-encoder and Conventional Image Processing [C]//2019 10th International Conference of Information and Communication Technology for Embedded Systems (ICICTES).Bangkok:IEEE,2019:1-5.
[11] YANG H,CHEN Y F,SONG K Y,et al. Multiscale Feature-clustering-based Fully Convolutional Autoencoder for Fast Accurate Visual Inspection of Texture Surface Defects [J].IEEE Transactions on Automation Science and Engineering,2019,16(3):1450-1467.
[12] WOO S,PARK J,LEE J-Y,et al. CBAM: Convolutional Block Attention Module [J/OL].arXiv:1807.06521 [cs.CV].(2018-07-17).https://arxiv.org/abs/1807.06521.
[13] GONG D,LIU L Q,LE V,et al.Memorizing Normality to Detect Anomaly: Memory-augmented Deep Autoencoder for Unsupervised Anomaly Detection [C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul:IEEE,2019:1705-1714.
[14] BERTHELOT D,SCHUMM T,METZ L. BEGAN: Boundary Equilibrium Generative Adversarial Networks [J/OL].arXiv:1703.10717 [cs.LG].(2017-03-31).https://arxiv.org/abs/1703.10717v4.
[15] HORé A,ZIOU D. Image Quality Metrics: PSNR vs. SSIM [C]//2010 20th International Conference on Pattern Recognition.Istanbul:IEEE,2010:2366-2369.
[16] BERGMANN P,F(xiàn)AUSER M,SATTLEGGER D,et al. MVTec AD—A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach:IEEE,2019:9584-9592.
作者簡(jiǎn)介:凌鴻偉(1999—),男,漢族,四川德陽人,碩士在讀,研究方向:計(jì)算機(jī)視覺;通信作者:張建敏(1971—),女,漢族,湖北武漢人,教授,博士,研究方向:智能醫(yī)療與健康。