• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于寬度學(xué)習(xí)的微多普勒目標(biāo)分類

      2023-10-12 07:22:34李曉斌袁子喬
      火控雷達(dá)技術(shù) 2023年3期
      關(guān)鍵詞:正確率寬度權(quán)重

      李曉斌 袁子喬 徐 飛 劉 暢

      (西安電子工程研究所 西安 710100)

      0 引言

      隨著智能化信息技術(shù)發(fā)展的不斷深入,針對(duì)于窄帶雷達(dá)的空中目標(biāo)識(shí)別技術(shù)研究受到廣泛關(guān)注,越來越需要窄帶防空雷達(dá)在具備發(fā)現(xiàn)目標(biāo)的同時(shí)進(jìn)行目標(biāo)屬性自動(dòng)分類的能力。近年來,微動(dòng)特性在雷達(dá)目標(biāo)探測(cè)與識(shí)別中受到廣泛關(guān)注,微動(dòng)是指雷達(dá)目標(biāo)除質(zhì)心平動(dòng)以外的振動(dòng)或轉(zhuǎn)動(dòng),由微動(dòng)產(chǎn)生的多普勒頻率為微多普勒頻率。不同的微動(dòng)會(huì)產(chǎn)生不同的微多普勒,微多普勒效應(yīng)可以反映目標(biāo)結(jié)構(gòu)部件的幾何構(gòu)成和運(yùn)動(dòng)特性,是目標(biāo)本質(zhì)的特征?;谀繕?biāo)微動(dòng)差異可以提取具有良好分類性能的特征,從而實(shí)現(xiàn)對(duì)目標(biāo)的分類和識(shí)別。

      傳統(tǒng)特征提取方法[2]需要更多的人工操作,不僅耗費(fèi)時(shí)間和精力,且因?yàn)槿斯そ?jīng)驗(yàn)抽取信號(hào)特征是隨機(jī)過程,會(huì)帶來相應(yīng)的誤差。隨著人工智能的崛起,基于大數(shù)據(jù)和深度學(xué)習(xí)[1]的分類識(shí)別方法越來越多,相比于傳統(tǒng)的利用波形熵、二階中心矩等特征,利用支持向量機(jī)、決策樹作為分類器來實(shí)現(xiàn)微多普勒分類的方法,由于能夠提取到識(shí)別對(duì)象中更深層次的信息特征,所以它的分類效果會(huì)更好。但是深層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)并不是完美無缺,它的網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,需要對(duì)很多的超參數(shù)進(jìn)行設(shè)置。它需要不斷地進(jìn)行多次迭代,求取層與層之間的連接權(quán)重,并且需要反向調(diào)節(jié)網(wǎng)絡(luò)的權(quán)重,才能夠得到較好的分類結(jié)果。此外,當(dāng)模型訓(xùn)練好之后,就不能再對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行更新。若更新訓(xùn)練數(shù)據(jù),那么就需要將整個(gè)深層神經(jīng)網(wǎng)絡(luò)再次訓(xùn)練,給用戶造成了很多不便。

      寬度學(xué)習(xí)(Broad Learning System,BLS)系統(tǒng)[3-6]相較于深層神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,只有輸入層和輸出層兩層,不需要通過多層的隱藏層來提取識(shí)別對(duì)象的特征,并且省去了不斷更新層與層之間連接權(quán)重的過程,計(jì)算量變小,所以它的訓(xùn)練速度非常迅速,訓(xùn)練時(shí)間減少了成百上千倍。此外,當(dāng)訓(xùn)練數(shù)據(jù)發(fā)生更新時(shí),它不需要重新訓(xùn)練整個(gè)網(wǎng)絡(luò),而只是通過BLS的增量學(xué)習(xí)算法就可以達(dá)到重建網(wǎng)絡(luò),這極大地提升了用戶的體驗(yàn)感。因此,考慮將寬度學(xué)習(xí)算法應(yīng)用到雷達(dá)的目標(biāo)分類識(shí)別,探索其可行性。

      1 寬度學(xué)習(xí)系統(tǒng)

      寬度學(xué)習(xí)的前身是隨機(jī)向量函數(shù)連接網(wǎng)絡(luò)(Random Vector Functional Link Neural Network,RVFLNN)[7],如圖1所示。

      圖1 RVFLNN的網(wǎng)絡(luò)結(jié)構(gòu)

      這種網(wǎng)絡(luò)結(jié)構(gòu)由輸入層、隱藏層和輸出層3部分組成,輸入層除了與隱藏層相連接之外,還直接和輸出層進(jìn)行了連接。這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)通過不斷更新輸入層與輸出層之間的連接權(quán)重W和輸入層與隱藏層之間的連接權(quán)重Wh而取得較好的分類效果。其中,X為輸入數(shù)據(jù),Y為輸出的分類結(jié)果,輸入數(shù)據(jù)X經(jīng)過非線性變換ξ(xWh+βh)得到增強(qiáng)節(jié)點(diǎn)的值。此外,輸入層和輸出層、隱藏層與輸出層都是僅有線性變換。

      寬度學(xué)習(xí)系統(tǒng)的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,可以看到,寬度學(xué)習(xí)系統(tǒng)相較于RVFLNN,只是由輸入層和輸出層組成,但是輸入層發(fā)生了變化。首先,輸入數(shù)據(jù)X經(jīng)過線性變換成為多個(gè)特征節(jié)點(diǎn)Z1,Z2,…,Zn,增強(qiáng)節(jié)點(diǎn)H1,H2,…,Hn則由特征節(jié)點(diǎn)經(jīng)過非線性變換映射得到。特征節(jié)點(diǎn)和增強(qiáng)節(jié)點(diǎn)共同構(gòu)成了輸入層,并且與輸出層Y直接連接。其中φ為激活函數(shù),常用的激活函數(shù)有tanh、sigmoid等。W為網(wǎng)絡(luò)的權(quán)重,β為網(wǎng)絡(luò)的偏置,它們都是隨機(jī)生成的。

      圖2 寬度學(xué)習(xí)系統(tǒng)網(wǎng)絡(luò)結(jié)構(gòu)圖

      1.1 特征節(jié)點(diǎn)

      特征節(jié)點(diǎn)Z是輸入數(shù)據(jù)X經(jīng)過線性變換映射得到的,映射函數(shù)為φ(XWe+βe)。則生成第i個(gè)特征節(jié)點(diǎn)Zi為

      Zi=φ(XWei+βei)

      (1)

      其中,βei為偏置項(xiàng),Wei為隨機(jī)生成的權(quán)重,優(yōu)化目標(biāo)函數(shù)為

      (2)

      (3)

      ρ>0,S為軟閾值算子,定義為

      (4)

      特征層可以定義為Zn=[Z1,…,Zn]。

      1.2 增強(qiáng)節(jié)點(diǎn)

      增強(qiáng)節(jié)點(diǎn)是由特征節(jié)點(diǎn)經(jīng)過非線性變換映射得到的,映射函數(shù)為ζj(ZjWhj+βhj),它能夠進(jìn)一步提取輸入信號(hào)的深層次特征,得到增強(qiáng)節(jié)點(diǎn)的表達(dá)式為

      Hm≡ζ(ZnWhm+βhm)

      (5)

      其中Whj為特征節(jié)點(diǎn)到增強(qiáng)節(jié)點(diǎn)的權(quán)重,βhj為偏置項(xiàng)。由于整個(gè)過程都是非線性變換,所以需要使用激活函數(shù)對(duì)增強(qiáng)節(jié)點(diǎn)進(jìn)行激活,而映射函數(shù)ζj(ZjWhj+βhj)中已經(jīng)完成了該步驟,故本文不再介紹。

      增強(qiáng)層可以定義為Hm≡[H1,…,Hm]。

      1.3 偽逆運(yùn)算

      根據(jù)上述介紹,寬度學(xué)習(xí)的輸入數(shù)據(jù)為X,輸出結(jié)果為Y,輸入層與輸出層的連接權(quán)重為W,則網(wǎng)絡(luò)的數(shù)學(xué)模型為Y=WX,由于寬度學(xué)習(xí)是一種有監(jiān)督的網(wǎng)絡(luò)模型,故輸入數(shù)據(jù)X和輸出結(jié)果Y是已知的,只需要求解連接權(quán)重W即可。寬度學(xué)習(xí)使用了嶺回歸方法對(duì)連接權(quán)重W進(jìn)行求解。寬度學(xué)習(xí)網(wǎng)絡(luò)的數(shù)學(xué)模型為

      Y=[Z1,…,Zn∣ξ(ZnWh1+βh1),…,ξ(ZnWhm+βhm)]W

      =[Z1,…,Zn∣H1,…,Hm]W

      =[Zn∣Hm]W

      (6)

      其中,Zn為輸入層的所有特征節(jié)點(diǎn),Hm為輸入層的所有增強(qiáng)節(jié)點(diǎn),將Zn和Hm組合在一起作為輸入X。求解連接權(quán)重W就是對(duì)式(6)進(jìn)行逆運(yùn)算W=[Zn∣Hm]+Y。逆運(yùn)算求解時(shí),由于輸入并不規(guī)則,所以求解并不是非常容易。寬度學(xué)習(xí)系統(tǒng)是通過偽逆進(jìn)行求解,連接權(quán)重W求解公式為

      W=(VTV+In+mc)-1VTY

      (7)

      其中,V為Zn和Hm的組合,n和m代表兩種節(jié)點(diǎn)的數(shù)量,它們并不是固定值,需要實(shí)驗(yàn)者根據(jù)數(shù)據(jù)集的大小進(jìn)行設(shè)定。

      因此,輸入數(shù)據(jù)A的偽逆為

      (8)

      其中:c為正則化參數(shù)。

      2 BLS的增量學(xué)習(xí)算法

      當(dāng)特征節(jié)點(diǎn)、增強(qiáng)節(jié)點(diǎn)和樣本數(shù)據(jù)發(fā)生變化時(shí),寬度學(xué)習(xí)系統(tǒng)相較于傳統(tǒng)的機(jī)器學(xué)習(xí)算法或者深層神經(jīng)網(wǎng)絡(luò),它的特點(diǎn)在于并不需要重新訓(xùn)練整個(gè)網(wǎng)絡(luò)。只需要使用增量學(xué)習(xí)算法就可以重建模型,接下來,本文將分別進(jìn)行闡述。

      2.1 增加增強(qiáng)節(jié)點(diǎn)

      增強(qiáng)節(jié)點(diǎn)的作用在于能夠?qū)⑿盘?hào)信息中的深層次特征提取出來,所以增強(qiáng)節(jié)點(diǎn)的增多可以提高分類精度。

      現(xiàn)有的輸入層為V=[Zn∣Hm],添加p個(gè)增強(qiáng)節(jié)點(diǎn)后為

      Vm+1≡[Vm∣ζ(ZnWhm+1+βhm+1)]

      (9)

      其中Whm+1∈Rnk×p,是映射p個(gè)增強(qiáng)節(jié)點(diǎn)的特征節(jié)點(diǎn)權(quán)重系數(shù),βhm+1∈Rp是偏置項(xiàng)。

      得到Vm+1的偽逆是:

      (10)

      令D=(Vm)+ζ(ZnWhm+1+βhm+1),C=ζ(ZnWhm+1+βhm+1)-VmD,則BT為

      (11)

      更新后的權(quán)重是:

      (12)

      BLS的增加增強(qiáng)節(jié)點(diǎn)算法如圖3所示。

      圖3 BLS的增加增強(qiáng)節(jié)點(diǎn)算法

      2.2 增加特征節(jié)點(diǎn)

      特征節(jié)點(diǎn)的個(gè)數(shù)也會(huì)影響到分類精度,特征節(jié)點(diǎn)個(gè)數(shù)過少,會(huì)導(dǎo)致從輸入數(shù)據(jù)中提取的特征并不充分,即使增強(qiáng)節(jié)點(diǎn)再多,也并不能提高分類精度,所以常常需要增加特征節(jié)點(diǎn)來達(dá)到預(yù)期的效果。

      假設(shè)增加第n+1個(gè)特征節(jié)點(diǎn),表達(dá)式為

      Zn+1=φ(XWen+1+βen+1)

      (13)

      所對(duì)應(yīng)的增強(qiáng)節(jié)點(diǎn)則為

      Hexm=[ζ(Zn+1Wex1+βex1),…,ζ(Zn+1Wexm+βexm)]

      (14)

      (15)

      (16)

      得到新的權(quán)重:

      (17)

      BLS的特征節(jié)點(diǎn)增強(qiáng)算法如圖4所示。

      圖4 BLS的特征節(jié)點(diǎn)增強(qiáng)算法

      2.3 增加輸入數(shù)據(jù)

      在實(shí)際應(yīng)用時(shí),常常會(huì)有新數(shù)據(jù)的添加,寬度學(xué)習(xí)系統(tǒng)通過將新數(shù)據(jù)再次經(jīng)過函數(shù)φ(XWe+βe)求得新的特征節(jié)點(diǎn),并對(duì)新的特征節(jié)點(diǎn)經(jīng)過非線性變換得到新的增強(qiáng)節(jié)點(diǎn),構(gòu)造了新的輸入層,不需要重新訓(xùn)練整個(gè)模型,就能重建模型。

      (18)

      (19)

      對(duì)應(yīng)的偽逆矩陣為

      (20)

      (21)

      因此,需要更新的權(quán)重結(jié)果為

      (22)

      其中,Ya是新增數(shù)據(jù)Xa所對(duì)應(yīng)的標(biāo)簽值。

      BLS的輸入數(shù)據(jù)增加算法如圖5所示。

      圖5 BLS的輸入數(shù)據(jù)增加算法

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 網(wǎng)絡(luò)輸入節(jié)點(diǎn)數(shù)量的選擇

      在寬度學(xué)習(xí)算法中,特征節(jié)點(diǎn)和增強(qiáng)節(jié)點(diǎn)的數(shù)量影響著模型的預(yù)測(cè)性能和運(yùn)算速度,為了設(shè)置合適的參數(shù)值,本文基于包含三類地面目標(biāo)的微多普勒數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),分別為履帶式裝甲車、輪式裝甲車和輪式民用車輛。其中履帶式裝甲車有2352幀數(shù)據(jù),輪式民用車輛有5143幀數(shù)據(jù),輪式裝甲車有4095幀數(shù)據(jù),每幀數(shù)據(jù)都有512個(gè)數(shù)據(jù)點(diǎn)。本文使用單幀作為樣本,將數(shù)據(jù)集中80%作為訓(xùn)練集,20%作為測(cè)試集進(jìn)行三類地面目標(biāo)的分類實(shí)驗(yàn)。使用稀疏正則化約束,增強(qiáng)節(jié)點(diǎn)的縮放尺度設(shè)為0.8,迭代輪數(shù)為5。實(shí)驗(yàn)結(jié)果如表1所示。

      表1 增加特征節(jié)點(diǎn)數(shù)量的分類結(jié)果(平均正確率,%)

      本文又對(duì)增加增強(qiáng)節(jié)點(diǎn)數(shù)量進(jìn)行了實(shí)驗(yàn),如表2所示。

      表2 增加增強(qiáng)節(jié)點(diǎn)數(shù)量的分類結(jié)果(平均正確率,%)

      可以看到,當(dāng)增強(qiáng)節(jié)點(diǎn)數(shù)量維持不變時(shí),增加特征節(jié)點(diǎn)數(shù)量,分類正確率從91.03%逐漸增長(zhǎng)至93.69%,以此時(shí)的特征節(jié)點(diǎn)為基數(shù),增加增強(qiáng)節(jié)點(diǎn)數(shù)量,可以看到分類正確率有一個(gè)緩慢上升。隨著每次增加特征節(jié)點(diǎn)和增強(qiáng)節(jié)點(diǎn)的數(shù)量,分類精度逐漸提高,但是當(dāng)其達(dá)到一定數(shù)量時(shí),再增加節(jié)點(diǎn)數(shù)量,正確率開始下降,這可能是過擬合造成的。故本文選擇特征節(jié)點(diǎn)為40,增強(qiáng)節(jié)點(diǎn)數(shù)為8000作為后續(xù)實(shí)驗(yàn)的網(wǎng)絡(luò)輸入節(jié)點(diǎn)數(shù)量。

      3.2 分類識(shí)別實(shí)驗(yàn)與分析

      為驗(yàn)證寬度學(xué)習(xí)相比深度學(xué)習(xí)在微多普勒目標(biāo)分類的優(yōu)越性,本文搭建了一個(gè)雙向長(zhǎng)短記憶神經(jīng)網(wǎng)絡(luò)(Bi_LSTM)與寬度學(xué)習(xí)算法進(jìn)行實(shí)驗(yàn)對(duì)比,使用的數(shù)據(jù)集有3種,除上一小節(jié)中介紹的針對(duì)三類地面目標(biāo)的分類外,第二種是針對(duì)槳狀飛機(jī)、噴氣式飛機(jī)和直升機(jī)三類飛機(jī)的分類問題,其中槳狀飛機(jī)有4588幀數(shù)據(jù),噴氣式飛機(jī)有1136幀數(shù)據(jù),直升機(jī)有5336幀數(shù)據(jù)。第三種是針對(duì)單人和小分隊(duì)的兩類地面目標(biāo)的分類問題,單人數(shù)據(jù)有4279幀數(shù)據(jù),小分隊(duì)數(shù)據(jù)有8704幀數(shù)據(jù)。由于數(shù)據(jù)樣本不均衡,對(duì)上述三種數(shù)據(jù)均采取了數(shù)據(jù)增廣手段,最后得到第二種分類中槳狀飛機(jī)有4588幀數(shù)據(jù),噴氣式飛機(jī)有4544幀數(shù)據(jù),直升機(jī)有5336幀數(shù)據(jù);第三種分類中單人數(shù)據(jù)有8558幀數(shù)據(jù),小分隊(duì)數(shù)據(jù)有8704幀數(shù)據(jù)。選取70%作為訓(xùn)練集,10%作為驗(yàn)證集,20%作為測(cè)試集。在訓(xùn)練過程中,使用訓(xùn)練集進(jìn)行訓(xùn)練,只使用驗(yàn)證集測(cè)試網(wǎng)絡(luò)效果,以免數(shù)據(jù)泄露導(dǎo)致分類精度增高。本文實(shí)驗(yàn)所使用的編程語言為Matlab,采用單GPU運(yùn)行。

      雙向長(zhǎng)短記憶網(wǎng)絡(luò)是一種應(yīng)用十分廣泛的深度神經(jīng)網(wǎng)絡(luò),本文搭建的Bi_LSTM網(wǎng)絡(luò)中有2個(gè)bilstm層、1個(gè)dropout層和1個(gè)全連接層,bilstm層中分別有128和64個(gè)隱藏單元。迭代輪數(shù)為20輪,小批量尺寸為16個(gè)樣本,初始學(xué)習(xí)率設(shè)為0.001,并采用學(xué)習(xí)率衰減策略,每5輪衰減一次,每次衰減系數(shù)為0.5,并采用梯度截?cái)嗖呗詫⑻荻确秶拗茷閇-1,1],避免梯度爆炸問題,每輪迭代都打亂訓(xùn)練集數(shù)據(jù)。經(jīng)過100輪迭代后,訓(xùn)練結(jié)束,圖6為單人、小分隊(duì)目標(biāo)訓(xùn)練階段,目標(biāo)損失函數(shù)和準(zhǔn)確率隨著訓(xùn)練次數(shù)增加的變化曲線。圖7、圖8和圖9分別表示本方法在三類數(shù)據(jù)上的混淆矩陣。

      圖6 單人、小分隊(duì)目標(biāo)損失函數(shù)和準(zhǔn)確率隨著訓(xùn)練次數(shù)增加的變化曲線

      圖7 Bi_LSTM在三類車輛數(shù)據(jù)上的混淆矩陣

      圖8 Bi_LSTM在三類飛機(jī)數(shù)據(jù)上的混淆矩陣

      圖9 Bi_LSTM在兩類單人、小分隊(duì)數(shù)據(jù)上的混淆矩陣

      寬度學(xué)習(xí)算法中窗口數(shù)batchsize為10,迭代輪數(shù)為5輪。特征節(jié)點(diǎn)數(shù)和增強(qiáng)節(jié)點(diǎn)數(shù)分別設(shè)置為40和8000,稀疏正則化約束參數(shù)設(shè)為2~30,增強(qiáng)節(jié)點(diǎn)的縮放尺度設(shè)為0.8,激活函數(shù)都是采用tanh函數(shù)。迭代5輪求其平均值。圖10、圖11和圖12分別表示本方法在三類數(shù)據(jù)上的混淆矩陣。

      圖10 寬度學(xué)習(xí)在三類車輛數(shù)據(jù)上的混淆矩陣

      圖11 寬度學(xué)習(xí)在三類飛機(jī)數(shù)據(jù)上的混淆矩陣

      圖12 寬度學(xué)習(xí)在兩類單人、小分隊(duì)數(shù)據(jù)上的混淆矩陣

      為更明顯地看出各個(gè)數(shù)據(jù)集的正確率,本文列出了所有結(jié)果如表3所示。其中,有效值保留到小數(shù)點(diǎn)后兩位,而均值反映了兩種算法在所有數(shù)據(jù)集上的分類效果的總體表現(xiàn),可以看到Bi_LSTM算法和寬度學(xué)習(xí)算法的平均分類結(jié)果接近。

      表3 兩個(gè)算法在三種數(shù)據(jù)集上的分類結(jié)果(平均正確率,%)

      接下來本文對(duì)比兩個(gè)算法上在三種數(shù)據(jù)集上的訓(xùn)練時(shí)間,如圖6所示為單人、小分隊(duì)基于Bi_LSTM的目標(biāo)損失函數(shù)和準(zhǔn)確率隨著訓(xùn)練次數(shù)增加的變化曲線。可以看到迭代到第20輪時(shí),正確率趨于穩(wěn)定,而本次用時(shí)共94′40″。其他數(shù)據(jù)集基于Bi_LSTM分類的訓(xùn)練時(shí)間也是此操作。如表4所示,可以看到Bi_LSTM的訓(xùn)練時(shí)間要明顯慢于寬度學(xué)習(xí)。

      表4 兩個(gè)算法在三種數(shù)據(jù)集上的訓(xùn)練時(shí)間

      綜上所述,我們可以得出,在精度方面,寬度學(xué)習(xí)算法與Bi_LSTM深度學(xué)習(xí)算法在三類數(shù)據(jù)集分類實(shí)驗(yàn)中相差不多;而在訓(xùn)練速度方面,寬度學(xué)習(xí)算法遠(yuǎn)遠(yuǎn)快于Bi_LSTM算法。從這里體現(xiàn)出寬度學(xué)習(xí)算法應(yīng)用于雷達(dá)的目標(biāo)分類識(shí)別是可行的。

      4 結(jié)束語

      本文研究了寬度學(xué)習(xí)算法在窄帶雷達(dá)目標(biāo)識(shí)別方面的應(yīng)用。首先介紹了寬度學(xué)習(xí)系統(tǒng)的基本概念以及BLS的增量學(xué)習(xí)算法,然后對(duì)BLS的網(wǎng)絡(luò)輸入節(jié)點(diǎn)數(shù)量進(jìn)行了分析實(shí)驗(yàn),接下來搭建了Bi_LSTM深度學(xué)習(xí)算法,在3種數(shù)據(jù)集上和寬度學(xué)習(xí)進(jìn)行對(duì)比實(shí)驗(yàn),得出寬度學(xué)習(xí)和Bi_LSTM算法在三種數(shù)據(jù)集上的平均分類正確率接近;也比較了兩種算法的訓(xùn)練時(shí)間,證明了寬度學(xué)習(xí)的訓(xùn)練速度要遠(yuǎn)遠(yuǎn)快于深度學(xué)習(xí),為窄帶雷達(dá)微多普勒目標(biāo)分類識(shí)別方面的問題提出了一種解決方法。

      猜你喜歡
      正確率寬度權(quán)重
      門診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
      權(quán)重常思“浮名輕”
      為黨督政勤履職 代民行權(quán)重?fù)?dān)當(dāng)
      基于公約式權(quán)重的截短線性分組碼盲識(shí)別方法
      馬屁股的寬度
      生意
      品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
      生意
      紅細(xì)胞分布寬度與血栓的關(guān)系
      孩子成長(zhǎng)中,對(duì)寬度的追求更重要
      人生十六七(2015年5期)2015-02-28 13:08:24
      桃园市| 平顺县| 勐海县| 枝江市| 永济市| 晴隆县| 景德镇市| 得荣县| 台前县| 舟山市| 富蕴县| 瑞金市| 武宁县| 常山县| 柳河县| 保亭| 芜湖市| 隆尧县| 大城县| 河间市| 吉林市| 许昌县| 沁阳市| 通渭县| 东宁县| 古浪县| 大关县| 凤凰县| 康乐县| 牙克石市| 楚雄市| 景洪市| 灌阳县| 潜山县| 岳西县| 惠安县| 平定县| 皋兰县| 鄂托克前旗| 碌曲县| 梅河口市|