徐宇奇,王欣悅,徐小良
(杭州電子科技大學(xué)計(jì)算機(jī)學(xué)院,浙江 杭州 310018)
脈沖卷積神經(jīng)網(wǎng)絡(luò)(Spiking Convolutional Neural Network,SCNN)作為第三代神經(jīng)網(wǎng)絡(luò)中的分支,使用離散的脈沖信號(hào)進(jìn)行信息傳遞,類似大腦皮層的信息處理方式使其具有巨大的發(fā)展?jié)摿?成為神經(jīng)形態(tài)視覺(jué)任務(wù)中的研究熱點(diǎn),在目標(biāo)跟蹤、圖像識(shí)別與視頻識(shí)別等領(lǐng)域應(yīng)用廣泛[1]。得益于脈沖傳遞的低耗能特性,SCNN還可以應(yīng)用于邊緣設(shè)備。與卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)不同,SCNN具有獨(dú)特的時(shí)間維度,與通道、二維空間維度相結(jié)合形成了相當(dāng)復(fù)雜的維度空間,大量的脈沖事件分布在復(fù)雜的網(wǎng)絡(luò)空間內(nèi),增加了網(wǎng)絡(luò)學(xué)習(xí)的壓力,使神經(jīng)元容易錯(cuò)誤地關(guān)注到某些不重要的脈沖事件,在時(shí)間窗口內(nèi)發(fā)放大量冗余脈沖,致使網(wǎng)絡(luò)在增加計(jì)算量與能耗的同時(shí),降低了后續(xù)神經(jīng)元的可選擇性,損害網(wǎng)絡(luò)的信息表示[2-5]。相比于CNN,SCNN更需要多維度的注意力方法幫助網(wǎng)絡(luò)對(duì)分布復(fù)雜化的脈沖事件作出精準(zhǔn)的重要性判斷。目前還沒(méi)有專門適用于SCNN的多維度注意力方法來(lái)緩解上述問(wèn)題。
在CNN中,有一種多維度的注意力方法(Convolutional Block Attention Module,CBAM)[6]可以通過(guò)壓縮-提取模塊獲取特征圖通道維度與二維空間維度的注意力并加以融合,快速聚焦于特征圖的關(guān)鍵位置,但對(duì)于脈沖數(shù)據(jù),CBAM無(wú)法考慮時(shí)間域范圍內(nèi)的全局性與多個(gè)樣本間的全局性,并不適用于SCNN。因此,本文對(duì)CBAM進(jìn)行改進(jìn),提出一種適用于SCNN的多維度注意力方法,使得神經(jīng)元對(duì)各個(gè)脈沖事件的重要性作出精準(zhǔn)的判斷。
Wu等[5,7]提出了隨時(shí)空域反向傳播(Spatio-Temporal Backpropagation,STBP)學(xué)習(xí)算法,并與Pytorch框架兼容,將帶泄漏整合發(fā)放(Leaky Integrate-And-Fire,LIF)神經(jīng)元模型轉(zhuǎn)換為顯示迭代版本,快速訓(xùn)練更深層的脈沖神經(jīng)網(wǎng)絡(luò)。其膜電位u計(jì)算如下:
(1)
(2)
(3)
STBP學(xué)習(xí)算法使用近似導(dǎo)數(shù)來(lái)解決脈沖活動(dòng)不可微問(wèn)題。將瞬時(shí)的變化率近似為神經(jīng)元在激活前一小段時(shí)間內(nèi)的變化率,使用梯度下降算法進(jìn)行誤差的反向傳播,近似導(dǎo)數(shù)如下:
(4)
式中,a為影響曲線寬窄的超參數(shù)。
本文提出適用于SCNN的多維度注意力方法主要包括3個(gè)方面,分別為通道維度注意力的獲取、時(shí)間維度注意力的獲取、通道和時(shí)間與二維空間注意力的融合。
本文采用通道維度注意力(Channel Attention,CA)方法來(lái)獲取SCNN中特征圖V的通道維度注意力。首先,將特征圖V的維度進(jìn)行重新排列,獲得通道維度在批次維度與時(shí)間維度下的全面信息;然后,通過(guò)卷積操作獲取每個(gè)二維空間位置的重要性,對(duì)通道維度下的數(shù)據(jù)進(jìn)行加權(quán)壓縮;最后,通過(guò)全連接層獲取全局信息通道維度的注意力。CA方法的步驟主要為批次-時(shí)間-通道整合、CA獲取。
2.1.1 批次-時(shí)間-通道整合
為了使獲取的通道注意力包含批次與時(shí)間維度的全局性,分別對(duì)V進(jìn)行批次與通道維度、時(shí)間與通道維度的整合。假設(shè)1個(gè)尺寸為S×Ti×C×W×H的矩陣V,其中,S表示批次下的樣本數(shù),Ti表示包含當(dāng)前時(shí)間點(diǎn)t=ti在內(nèi)的前置時(shí)間點(diǎn),即Ti∈{t1,t2,…,ti},C表示通道數(shù),W與H表示二維寬和高。對(duì)處于當(dāng)前時(shí)間點(diǎn)t=ti的V進(jìn)行批次與通道維度的整合,將V沿S維度進(jìn)行累加,矩陣尺寸由S×1×C×W×H變?yōu)?×C×W×H,記為矩陣A。此時(shí),矩陣A攜帶了該批次的全局信息。
對(duì)V進(jìn)行時(shí)間與通道維度的整合,將V沿前置時(shí)間點(diǎn)進(jìn)行關(guān)于f(t)的加權(quán)相乘并累加,再經(jīng)過(guò)函數(shù)g(x)進(jìn)行激活,矩陣尺寸由1×Ti×C×W×H變?yōu)?×C×W×H,記為矩陣B,此時(shí)的矩陣B攜帶了前置時(shí)間點(diǎn)的全局信息。
(5)
(6)
(7)
2.1.2 通道維度注意力CA的獲取與使用
將得到的矩陣A和B與當(dāng)前樣本在時(shí)間點(diǎn)t下的特征圖Vt進(jìn)行整合,得到的矩陣記為Ct。
Ct=λA+μB+ξVt
(8)
式中,矩陣A,B,Ct和Vt尺寸均為C×W×H。λ,μ,ξ為可學(xué)習(xí)參數(shù),三者初始值相加為1,通過(guò)學(xué)習(xí)來(lái)確定矩陣A,B與Vt對(duì)矩陣Ct的貢獻(xiàn)程度,并使其限制在±0.1。通道注意力CA的獲取過(guò)程如圖1所示。
圖1 通道注意力CA獲取示意圖
對(duì)矩陣Ct進(jìn)行雙通道壓縮操作時(shí),直接使用MaxPool與AvgPool進(jìn)行壓縮并未考慮二維空間位置不同的重要性,存在一定的缺陷,故通過(guò)對(duì)矩陣Ct進(jìn)行額外的卷積操作來(lái)獲取全局二維空間的注意力。首先使用SoftMax與Sigmoid激活函數(shù)對(duì)卷積得到的數(shù)據(jù)進(jìn)行激活,并將激活后的數(shù)據(jù)分別與矩陣Ct相乘,獲得的矩陣記為D1與D2;然后,對(duì)D1進(jìn)行AvgPool操作,對(duì)D2進(jìn)行MaxPool操作,得到2個(gè)尺寸為C×1×1的矩陣。特別地,對(duì)于通過(guò)AvgPool得到的矩陣,將其中的每個(gè)元素乘以W×H,隨后將2個(gè)尺寸為C×1×1的矩陣共同輸入到1個(gè)共享的雙層全連接感知機(jī)MLP={Fc1(C,C/r1),Fc2(C/r1,C)}中,其中C為通道維度,r1為超參數(shù),Fc為全連接層。再將通過(guò)感知機(jī)MLP輸出的2個(gè)矩陣相加后,通過(guò)ReLu激活函數(shù)進(jìn)行激活,得到最終的多維度整合的通道注意力尺寸為C×1×1的矩陣CA,將CA與對(duì)應(yīng)的Vt中通道維度的數(shù)據(jù)相乘即可使后續(xù)膜電位攜帶通道注意力。本文將由輸入矩陣Ct到獲取通道注意力的一系列操作記為ConvSE(Convolutional Squeeze Excitation)模塊。
本文采用適合于SCNN的時(shí)間維度注意力方法(Temporal Attention,TA)來(lái)獲取SCNN中特征圖V的時(shí)間維度注意力。先通過(guò)轉(zhuǎn)換迭代維度來(lái)獲取所有時(shí)間點(diǎn)的信息,再由ConvSE模塊獲取時(shí)間維度注意力TA。
2.2.1 迭代維度轉(zhuǎn)換
在STBP算法中,將LIF神經(jīng)元模型定義為顯式迭代的版本,具體實(shí)現(xiàn)中使用先層次后時(shí)間的迭代方法,即完成當(dāng)前時(shí)刻下的網(wǎng)絡(luò)前饋后,保存各層膜電位與各層輸出數(shù)據(jù),再進(jìn)入下一個(gè)時(shí)間點(diǎn)進(jìn)行前饋,直到遍歷時(shí)間點(diǎn)結(jié)束。
若使用時(shí)間維度進(jìn)行迭代,在經(jīng)過(guò)卷積層后只能獲取當(dāng)前時(shí)間點(diǎn)之前的中間特征圖,無(wú)法獲取還未遍歷到的時(shí)間點(diǎn)數(shù)據(jù),導(dǎo)致網(wǎng)絡(luò)無(wú)法獲取每一層的完整時(shí)間維度的注意力??蛇M(jìn)行迭代維度的轉(zhuǎn)換來(lái)解決該問(wèn)題。首先,將先層次后時(shí)間的迭代方法轉(zhuǎn)換為先時(shí)間后層次迭代,忽略前置時(shí)間點(diǎn)的膜電位對(duì)后續(xù)時(shí)刻的影響,在每層(如第i層)獲得所有時(shí)間點(diǎn)直接得到的中間特征圖Vi;然后,使用Vi獲取時(shí)間維度注意力,再進(jìn)行后續(xù)的前置時(shí)間膜電位衰減加權(quán),或進(jìn)行發(fā)送脈沖后的超極化操作;最后,繼續(xù)以上步驟進(jìn)行層次上的迭代直到網(wǎng)絡(luò)結(jié)束。
2.2.2 時(shí)間維度注意力TA的獲取與使用
獲取的第i層中間特征圖Vi的尺寸為T×C×W×H,分別表示時(shí)間、通道、二維空間寬和高維度。通過(guò)對(duì)Vi進(jìn)行2.1.2節(jié)所述的ConvSE操作,獲取時(shí)間維度注意力TA,并將其迭代作用于膜電位的更新,如圖2所示,具體步驟如下。
圖2 TA的獲取與作用示意圖
(1)對(duì)所有時(shí)間點(diǎn)的中間特征圖Vi進(jìn)行通道維度的累加,尺寸變?yōu)門×W×H。
(2)針對(duì)步驟1獲得的矩陣,使用結(jié)合了二維空間注意力的ConvSE模塊,將其感知機(jī)MLP中的參數(shù)r1替換為r2,通過(guò)基于卷積操作的雙路池化操作獲取到時(shí)間維度上的注意力矩陣TAi,該矩陣大小為T×1×1。
將通道維度注意力、時(shí)間維度注意力與在ConvSE模塊中的二維空間維度注意力互相結(jié)合,形成適用于調(diào)整SCNN中神經(jīng)元膜電位的多維度注意力方法。首先對(duì)迭代維度進(jìn)行調(diào)整,獲取第i層經(jīng)過(guò)卷積后得到的所有時(shí)刻的中間特征圖Vi,后續(xù)步驟如下。
本文提出的適用于SCNN的多維度注意力方法能將各個(gè)維度的注意力互相結(jié)合,使其形成相輔相成的關(guān)系以幫助網(wǎng)絡(luò)更好地獲取到在各個(gè)復(fù)雜維度下多維度有機(jī)融合的注意力分布,隨著SCNN本身學(xué)習(xí)的進(jìn)行,各個(gè)維度的注意力獲取也在相應(yīng)地進(jìn)行調(diào)整,以達(dá)到適應(yīng)網(wǎng)絡(luò)的最好效果。
實(shí)驗(yàn)中,所有代碼的實(shí)現(xiàn)均采用Python3.8,平臺(tái)運(yùn)行為PyCharm2020.2,服務(wù)器操作系統(tǒng)版本為Ubuntu18.04,CPU型號(hào)為Intel(R)Core(TM)i9-10900X,主頻為3.70 GHz,GPU型號(hào)為RTX3090。實(shí)驗(yàn)數(shù)據(jù)集為3個(gè)神經(jīng)形態(tài)數(shù)據(jù)集N-MNIST[8],CIFAR10-DVS[9]和DVS-Gesture[10],從識(shí)別精度、收斂速度、各維度注意力等方面來(lái)評(píng)估系統(tǒng)的性能。
3.1.1 數(shù)據(jù)集
3個(gè)神經(jīng)形態(tài)數(shù)據(jù)集中,N-MNIST和CIFAR10-DVS數(shù)據(jù)集上的時(shí)間窗口T=10,劃分時(shí)間流時(shí)取間隔dt=10 ms;DVS-Gesture數(shù)據(jù)集上的時(shí)間窗口取T=40,dt=15 ms。
3.1.2 網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)設(shè)置
選用表1中的網(wǎng)絡(luò)結(jié)構(gòu)與具體參數(shù),采用本文提出的適用于SCNN的多維度注意力方法分別在3個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。
表1 實(shí)驗(yàn)數(shù)據(jù)集的網(wǎng)絡(luò)結(jié)構(gòu)表
表1中,128C3表示輸出通道為128且卷積核尺寸為3×3的卷積層,AP2表示池化核尺寸為2×2的平均池化層,1024 FC表示輸出數(shù)量為1 024的全連接層,VOTING表示分類層,Stride表示卷積核單次移動(dòng)的步長(zhǎng)。
3個(gè)數(shù)據(jù)集使用的參數(shù)與優(yōu)化器如表2所示,其中,θ,A與k為STBP學(xué)習(xí)算法中的參數(shù);λ,μ,ξ與r1為獲取通道注意力CA時(shí)所使用的參數(shù);τ,σ與r2為獲取時(shí)間注意力TA時(shí)所使用的參數(shù),優(yōu)化器選擇使用Adam[11]。
表2 實(shí)驗(yàn)數(shù)據(jù)集參數(shù)表
從識(shí)別精度、收斂速度與復(fù)雜度等方面對(duì)本文提出的適用于SCNN的多維度注意力方法(簡(jiǎn)稱CTSA)進(jìn)行評(píng)估和分析。
3.2.1 精度評(píng)估
分別對(duì)通道維度注意力CA、時(shí)間維度注意力TA、多維度注意力CTSA在3個(gè)數(shù)據(jù)集上進(jìn)行識(shí)別精度的評(píng)估。結(jié)果如表3—表5所示,其中的“-comp”項(xiàng)為對(duì)比方法。
表3 CA精度評(píng)估
通道維度注意力CA、時(shí)間維度注意力TA與常規(guī)網(wǎng)絡(luò)和對(duì)照方法(-comp組)的精度評(píng)估對(duì)比如表3所示,其中,CA-comp為不進(jìn)行批次-通道與時(shí)間-通道的整合,直接對(duì)中間特征圖進(jìn)行壓縮-提取以獲得通道注意力,且在壓縮時(shí)不考慮二維空間注意力;TA-comp為對(duì)輸入數(shù)據(jù)直接進(jìn)行壓縮-提取操作獲取注意力,且在壓縮時(shí)不考慮的二維空間注意力。
表3與表4分別展示了CA,TA與常規(guī)網(wǎng)絡(luò)和對(duì)照方法(-comp組)的精度評(píng)估對(duì)比,可以發(fā)現(xiàn):盡管以往的通道與時(shí)間維度注意力(-comp組)的應(yīng)用在每個(gè)數(shù)據(jù)集上都帶來(lái)了一定的精度提升,但與本文方法對(duì)比,仍具有一定的差距。其中在N-MNIST與CIFAR10-DVS數(shù)據(jù)集上,CA比TA帶來(lái)了更多的提升,這是因?yàn)檫@2個(gè)數(shù)據(jù)集將時(shí)間窗口大小T設(shè)置為10,與通道維度數(shù)量相差較大,CA取得了更好的效果;而在DVS-Gesture數(shù)據(jù)集上,T=40,時(shí)間維度極大延長(zhǎng)后,使數(shù)據(jù)本身隱含了更多的時(shí)間維度的信息,給TA帶來(lái)更大的發(fā)揮空間,TA的精度提升高于CA。
表4 TA精度評(píng)估
表5展示了通道維度注意力CA、時(shí)間維度注意力TA與多維度注意力CTSA在各個(gè)數(shù)據(jù)集上的識(shí)別精度,可以看出,在單維度注意力方法的基礎(chǔ)上,CTSA進(jìn)一步幫助SCNN提升了性能。
表5 CTSA精度評(píng)估
在CIFAR10-DVS數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)時(shí)發(fā)現(xiàn),訓(xùn)練精度與測(cè)試精度相差較大,存在一定程度的過(guò)擬合現(xiàn)象,這是由于該數(shù)據(jù)集的復(fù)雜程度較高且數(shù)據(jù)量相對(duì)不足,導(dǎo)致網(wǎng)絡(luò)泛化能力較低。針對(duì)以上問(wèn)題,通過(guò)對(duì)圖像進(jìn)行裁剪、翻轉(zhuǎn)等傳統(tǒng)數(shù)據(jù)增強(qiáng)方法(Data Augmentation,DA)來(lái)提升訓(xùn)練數(shù)據(jù)的差異性,從而緩解過(guò)擬合現(xiàn)象[12]。在網(wǎng)絡(luò)進(jìn)行訓(xùn)練之前,本文先對(duì)CIFAR10-DVS的數(shù)據(jù)進(jìn)行增強(qiáng)處理,對(duì)應(yīng)表5中的STBP(DA)方法。如圖3所示,首先,在128×128的圖片上增加大小為24的padding,尺寸變?yōu)?76×176,并將尺寸隨機(jī)裁剪回128×128;然后,對(duì)圖片進(jìn)行隨機(jī)的水平翻轉(zhuǎn)。在此基礎(chǔ)上,繼續(xù)驗(yàn)證各注意力在CIFAR10-DVS數(shù)據(jù)集上的性能,實(shí)驗(yàn)結(jié)果表明,相比于經(jīng)過(guò)數(shù)據(jù)增強(qiáng)的STBP算法,CTSA在該數(shù)據(jù)集上的識(shí)別精度提高了4.31%。
圖3 CIFAR10-DVS數(shù)據(jù)增強(qiáng)流程圖
3.2.2 收斂速度評(píng)估
為進(jìn)一步探究各維度注意力方法為SCNN帶來(lái)的性能提升,先采用CA與CA-comp、TA與TA-comp分別在3個(gè)數(shù)據(jù)集上進(jìn)行收斂速度的對(duì)比,結(jié)果如圖4所示,再對(duì)CA,TA與CTSA進(jìn)行收斂速度的對(duì)比,結(jié)果如圖5所示。其中normal曲線為只使用STBP算法的常規(guī)網(wǎng)絡(luò),圖中橫軸為迭代次數(shù),縱軸為精度。
圖4 單一維度注意力方法收斂速度對(duì)比
圖5 CA,TA,CTSA收斂速度對(duì)比
從圖4可以看出,和原網(wǎng)絡(luò)與對(duì)照方法(-comp)相比,CA與TA均能更為快速地達(dá)到較高的精度,圖中虛線圓圈標(biāo)注的部分相差最大。前期精度上升速度略低于對(duì)照方法的主要原因在于本文方法整合了全局?jǐn)?shù)據(jù),且額外加入了卷積與全連接操作,在訓(xùn)練初始階段更為困難,但最終均能快速地收斂到更高的精度。
從圖5可以看出,在迭代過(guò)程的中期,多維度注意力方法CTSA與其他的單維度注意力方法逐漸拉開(kāi)差距,最終以最小的迭代次數(shù)完成收斂。因?yàn)镃TSA方法不局限于單個(gè)維度,而是將通道維度與時(shí)間維度的注意力有機(jī)結(jié)合,使兩者相輔相成,在幫助網(wǎng)絡(luò)提高精度的同時(shí)獲得更快的收斂速度。
3.2.3 參數(shù)分析
對(duì)CTSA中參數(shù)λ,μ,ξ的默認(rèn)值進(jìn)行分析,將λ,μ限定在[0,0.3]之間,ξ隨兩者變化而變化,三者相加為1。每次變化步長(zhǎng)為0.05,分別進(jìn)行實(shí)驗(yàn)并使用精度評(píng)估。實(shí)驗(yàn)過(guò)程中,使用網(wǎng)格搜索方法[13-15]尋找最優(yōu)的參數(shù)組。由于實(shí)驗(yàn)量較大,本文使用預(yù)訓(xùn)練與自訓(xùn)練聯(lián)合的方法[16-17]進(jìn)行,結(jié)果如圖6所示。
圖6 參數(shù)分析
從圖6可以看出,在3個(gè)數(shù)據(jù)集上得到最好精度的λ,μ取值分別為(0.1,0.1),(0.15,0.15)與(0.1,0.15)。此外可以觀察到,(0,0)附近的邊緣位置與(0.3,0.3)邊緣位置精度較低,前者主要是由于當(dāng)λ,μ都為0或有某一個(gè)為0時(shí),通道維度CA注意力失去了整合后的某些全局?jǐn)?shù)據(jù)導(dǎo)致精度較低;后者是由于當(dāng)λ,μ較大時(shí),ξ取值較小,自身的原始信息傳遞效率過(guò)低導(dǎo)致精度下降。
3.2.4 注意力可視化展示
在網(wǎng)絡(luò)收斂完全時(shí),將3個(gè)數(shù)據(jù)集的CA矩陣與TA矩陣分別相乘,得到通道-時(shí)間二維位置的重要性,如圖7所示,每個(gè)位置的重要性由暗到亮而遞增。對(duì)于N-MNIST與CIFAR10-DVS,取時(shí)間維度全長(zhǎng)進(jìn)行展示;對(duì)于DVS-Gesture,從0開(kāi)始每4個(gè)時(shí)間點(diǎn)選取1個(gè)用于展示。3個(gè)數(shù)據(jù)集的通道維度均取0~9,數(shù)據(jù)均取自于第1個(gè)卷積層。
圖7 CA與TA融合重要性示意圖
對(duì)比圖7可以看出,DVS-Gesture數(shù)據(jù)集受時(shí)間維度的影響更為明顯。這是因?yàn)镈VS-Gesture數(shù)據(jù)集對(duì)時(shí)間維度會(huì)更為敏感,使用的是由DVS相機(jī)直接捕獲的脈沖數(shù)據(jù),而N-MNIST與CIFAR10-DVS數(shù)據(jù)集是通過(guò)基于幀的圖片轉(zhuǎn)換得到的。
3.2.5 復(fù)雜度分析
對(duì)CA,TA與CTSA進(jìn)行時(shí)間與空間的復(fù)雜度分析。
(1)時(shí)間復(fù)雜度:對(duì)于CA方法,由于矩陣相加可并行操作,因此其中B-C,T-C整合與壓縮提取過(guò)程均只需在每個(gè)時(shí)間點(diǎn)進(jìn)行1次操作即可,每個(gè)步驟執(zhí)行次數(shù)均為時(shí)間窗口的大小T,因此時(shí)間復(fù)雜度為O(n);對(duì)于TA方法,時(shí)間維度只需進(jìn)行1次操作即可獲取時(shí)間維度注意力,其時(shí)間復(fù)雜度為O(1);對(duì)于CTSA方法,將CA矩陣、TA矩陣與在TA方法中獲得的SASA矩陣結(jié)合共同作用于每個(gè)時(shí)間點(diǎn),復(fù)雜度為O(n);
(2)空間復(fù)雜度:從輸入數(shù)據(jù)的角度分析,上述方法都在每個(gè)時(shí)間點(diǎn)產(chǎn)生了額外的中間變量,因此空間復(fù)雜度為O(n);從網(wǎng)絡(luò)參數(shù)的角度分析,ConvSE模塊中卷積層與2個(gè)全連接層所用參數(shù)遠(yuǎn)小于原始網(wǎng)絡(luò)卷積層的參數(shù),空間復(fù)雜度為O(1)。綜上所述,CTSA方法的空間復(fù)雜度為O(n)。
本文提出一種適用于SCNN的多維度注意力方法。從全局視野出發(fā),運(yùn)用SCNN復(fù)雜的時(shí)空動(dòng)力學(xué),通過(guò)壓縮-提取模塊獲取SCNN中特征圖的通道、時(shí)間與二維空間維度注意力并加以融合,對(duì)分布在復(fù)雜時(shí)空維度下的各個(gè)脈沖事件作出更為精準(zhǔn)的重要性判斷,保證了網(wǎng)絡(luò)信息的高效傳輸。但是,本文方法需要整合每個(gè)時(shí)間點(diǎn)的通道和批次,增加了一定的存儲(chǔ)負(fù)擔(dān),計(jì)劃繼續(xù)挖掘時(shí)間維度與通道維度之間的共性,形成全局適用的注意力,減少存儲(chǔ)空間的消耗。