• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于顯著性增強和遷移學習的魚類識別研究

      2020-05-02 08:20:28賈宇霞樊帥昌易曉梅
      漁業(yè)現(xiàn)代化 2020年1期
      關鍵詞:批處理殘差魚類

      賈宇霞,樊帥昌,易曉梅

      (1 浙江農(nóng)林大學信息工程學院,浙江 杭州 311300;2 浙江省林業(yè)智能監(jiān)測與信息技術研究重點實驗室,浙江 杭州 311300;3 林業(yè)感知技術與智能裝備國家林業(yè)和草原局重點實驗室,浙江 杭州 311300)

      現(xiàn)代漁業(yè)發(fā)展關系到很多新設施、新技術、新機制的應用開發(fā),漁業(yè)監(jiān)測是其中非常重要的部分。為保證魚類健康生長,從魚苗育種期間就需要對魚種進行快速識別和特征信息采集。這些數(shù)據(jù)同時反映了水下環(huán)境參數(shù)的變化,能夠更好地輔助魚類養(yǎng)殖、捕撈和魚道建設等,因此有必要對魚類進行實時檢測識別。隨著計算機技術的發(fā)展,目前已經(jīng)建立了許多有效的魚類識別方法。張志強等[1]提取魚類圖像中的各個顏色分量及長短軸之比作為分類特征,然后運用該特征值建立有關淡水魚的品種識別模型。Alsmadi等[2]利用Memetic算法優(yōu)化BP神經(jīng)網(wǎng)絡并進行魚類識別,該方法能夠?qū)崿F(xiàn)魚類有毒和無毒的區(qū)分。吳一全等[3]采用Krawtchouk矩、灰度共生矩陣獲得魚類的形狀和紋理特征組合后,通過蜂群優(yōu)化多核最小二乘支持向量機,實現(xiàn)高精度魚類識別。然而這些方法需要魚體離水后在相對結(jié)構(gòu)化的單一背景下手動提取尺寸、形狀、顏色和紋理等特征參數(shù),不僅耗時耗力,而且對魚類的生長和存活都造成了難以逆轉(zhuǎn)的影響[4]。

      近年來,深度學習在物種識別上取得了積極進展,其能夠?qū)崿F(xiàn)自動化的圖像特征提取并直接給出預測結(jié)果,使得操作過程更加簡單,泛化性能更加強大,因而逐漸在農(nóng)業(yè)領域得到應用。相關研究也開始滲透到魚類識別領域,如:提出一個通過稀疏低秩矩陣分解提取前景,然后利用深度結(jié)構(gòu)結(jié)合線性SVM進行魚類識別的框架[5];使用包含形態(tài)學操作、金字塔平移等操作消除背景噪聲后,采用卷積神經(jīng)網(wǎng)絡實現(xiàn)魚類數(shù)據(jù)集的分類;在訓練步驟之前應用圖像處理有助于去除圖像中的水下障礙物、污垢和非魚體[6]。以上方法雖然取得了良好的分類效果,然而通過去除背景噪聲的方法來定位目標區(qū)域,可能對分類產(chǎn)生負面影響,在對圖像分割預處理期間可能無意剔除有效輪廓,移除有用的對象背景信息。所以,在突出前景目標的基礎上保留原始圖像中的部分背景可能是有利的[7]。

      為此,通過研究已有的深度神經(jīng)網(wǎng)絡,在降低對數(shù)據(jù)手動標注的需求下,提出圖像顯著性增強算法對復雜背景下的魚類主體進行自動增強,并針對深度學習訓練參數(shù)多、訓練時間長等問題,結(jié)合遷移學習方法建立一種簡單高效的魚類分類模型。

      1 材料與方法

      1.1 魚類圖像數(shù)據(jù)集

      1.1.1 Fish4Knowledge數(shù)據(jù)集

      Fish4Knowledge數(shù)據(jù)集[8]是從水下實況視頻中截取的魚類畫面,部分魚類樣本圖像如圖1所示。該數(shù)據(jù)集包含 23 種魚類27 370 張圖像,不同種類的圖像數(shù)量差異巨大,其中,單個頂級物種約占圖像的44%,排名前15的物種對應于97%的圖像。按照文獻[5]中的設置,將該數(shù)據(jù)集以5∶1∶1的比例劃分為訓練集、驗證集和測試集。考慮到訓練集中數(shù)據(jù)不均衡現(xiàn)象易對模型訓練結(jié)果造成偏差[9],所以,對于訓練集中數(shù)量小于300的種類,采取水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、90°旋轉(zhuǎn)、180°旋轉(zhuǎn)、270°旋轉(zhuǎn)等5種數(shù)據(jù)增強方法來擴充數(shù)據(jù)集,最后統(tǒng)一將圖像縮放到224×224像素用于后續(xù)試驗。

      圖1 Fish4Knowledge魚類示例圖片F(xiàn)ig.1 Fish samples of Fish4Knowledge

      1.1.2 Fish30Image數(shù)據(jù)集

      Fish30Image數(shù)據(jù)集是通過網(wǎng)絡爬取和自主拍攝相結(jié)合的方式構(gòu)建的魚類圖像數(shù)據(jù)集。經(jīng)人工篩選剔除其中無關、重復及非RGB格式的圖像數(shù)據(jù)后,該數(shù)據(jù)集最終獲得30類共4 737張魚類有效圖片,部分魚類樣本圖像如圖2所示。其中最多的一類包含469張圖像,最少的一類只有45張圖像。為了避免深度學習因數(shù)據(jù)量太少而出現(xiàn)過擬合現(xiàn)象,F(xiàn)ish30Image數(shù)據(jù)集采用數(shù)據(jù)增強的方法,主要通過亮度調(diào)節(jié)、鏡像、隨機裁剪、隨機旋轉(zhuǎn)變換、疊加噪聲等操作實現(xiàn)10倍的數(shù)據(jù)擴充。由于圖像數(shù)量較少,所以試驗中只設置訓練集和測試集,訓練集和測試集分別占據(jù)數(shù)據(jù)集的4/5和1/5。

      圖2 Fish30Image示例圖片F(xiàn)ig.2 Fish samples of Fish30Image

      1.2 圖像顯著性增強

      1.2.1 顯著性檢測

      圖像分類中目標區(qū)域的定位對提升精確度有一定幫助,所以對目標進行顯著性檢測引起了眾多國內(nèi)外學者的興趣。研究人員根據(jù)人的視覺注意機制將顯著性檢測算法分為兩種:基于數(shù)據(jù)驅(qū)動的自底向上方法和基于任務驅(qū)動的自頂向下方法。其中,前者主要利用顏色、形狀、深度等底層線索直接進行顯著性模型構(gòu)建,因其形成過程快速,且不需要訓練過程和特定的先驗知識而得到廣泛應用,常見方法有LC[10]、HFT[11]、RC[12]等。LC算法運算速度快,但該方法忽略了除顏色外的其他信息,會將噪聲誤判為顯著性區(qū)域;HFT算法利用高斯濾波器進行平滑操作來抑制背景區(qū)域,存在無法處理全分辨率圖像,且檢測到的顯著性信息有缺失的問題;RC算法能夠在全分辨率圖像上進行檢測,但因過分強調(diào)局部特征,所以不會完整地高亮突顯整個物體。

      與上述方法相比較,全頻域顯著性檢測方法FT(Frequency-tuned)算法[13]在 LAB 空間中利用顏色和亮度特征來估計中央周邊差對比度[14],并采用多個帶通濾波器組合的方法濾除高頻噪聲信息得到圖像顯著值。其能夠突出區(qū)域中最大的顯著物體,得到顯著目標的整體輪廓,同時生成的顯著圖分辨率與原圖相同且計算速度較快,因而能夠更加高效精確地檢測魚類目標。FT算法顯著值計算公式可表示為:

      SPT(x,y)=‖Iu-IG(x,y)‖

      (1)

      式中:Iu為圖像在LAB 空間的像素算術平均值;IG為高斯濾波后的像素特征值。式(1)計算圖像中所有像素特征值與平均值之間的歐氏距離。

      1.2.2 顯著性增強

      原始圖像經(jīng)FT算法獲取的顯著圖提供了魚類目標的潛在區(qū)域,在此基礎上對顯著圖進行自適應閾值計算得到二值顯著圖,并將其作為GrabCut 算法的初始區(qū)域?qū)︳~類目標進行全自動圖像分割,最后將分割圖與原始圖像進行線性融合,得到魚類區(qū)域和背景區(qū)域?qū)Ρ榷雀吁r明的圖像。其中GrabCut是一種交互式圖像分割算法,用戶框選目標區(qū)域后,默認將框外像素全部當成背景對高斯混合模型進行目標對象和背景建模。進而通過反復迭代來更新模型參數(shù),調(diào)整候選區(qū)域中每一像素的目標、背景歸屬,從而實現(xiàn)前背景的精準分割。

      GrabCut算法發(fā)展了經(jīng)典交互式圖割方法。首先,利用三通道的高斯混合模型代替單通道模型來描述目標對象和背景像素的分布,充分運用圖像的顏色信息和反差信息;其次,使用迭代方法實現(xiàn)能量函數(shù)最小化,使得圖像分割更精確;最后,非完全標記功能簡化交互過程。以顯著性圖作為GrabCut的輸入,既能避免畫框的人力資源消耗,又能改善魚類區(qū)域的分割效果。圖3展示了顯著性增強的主要步驟。

      圖3 顯著性增強主要步驟Fig.3 Main steps of significant enhancement

      1.2 殘差遷移學習模型

      1.2.1 殘差模型

      在深度學習圖像識別分類中,相較于淺層神經(jīng)網(wǎng)絡,深層網(wǎng)絡由于其高維的非線性操作,可有效提取更多的特征。但隨著網(wǎng)絡結(jié)構(gòu)的加深,模型在訓練過程中容易出現(xiàn)梯度消失或梯度爆炸現(xiàn)象,導致網(wǎng)絡難以收斂。然而,殘差網(wǎng)絡(ResNet)中殘差模塊的引入,可有效解決上述問題。殘差模塊如圖4所示,如果設第1個殘差單元的輸入為xl,輸出為xl+1,則殘差單元的結(jié)構(gòu)可以表示為:

      xl+1=xl+F(xl)

      (2)

      式中:F(xl)為殘差處理模塊,是一個由卷積層、批量標準化(BN)和線性整流函數(shù)(ReLU)組成的模塊。圖中捷徑的設置,一方面使得訓練時底層殘差得以向上反饋;另一方面,兩條路徑的融合可以得到更有效的特征。

      為了進一步提高殘差網(wǎng)絡性能,He等[15]提出一個預激活的殘差塊(圖5)。該殘差塊在傳統(tǒng)殘差結(jié)構(gòu)的基礎上將BN和ReLU操作挪到了卷積操作之前,同時去掉主干單元和跳躍連接相加后需要經(jīng)過的激活函數(shù),因而加強了對模型的正則化,使得網(wǎng)絡更易于優(yōu)化。

      ResNet是一個由很多殘差塊堆疊的模塊化架構(gòu),這種堆疊多層的方式可有效地從輸入數(shù)據(jù)中提取特征,因此,可以在許多分類應用中實現(xiàn)高精度。本研究采用殘差塊的預激活形式堆疊網(wǎng)絡,并且選擇ResNet_50[16]作為網(wǎng)絡模型。

      圖4 傳統(tǒng)殘差結(jié)構(gòu)Fig.4 Traditional residual structure

      圖5 預激活殘差結(jié)構(gòu)Fig.5 Pre-activated residual structure

      1.2.2 基于Adam的殘差遷移學習

      遷移學習是指運用已有的源領域知識對相關的目標領域問題進行求解的一種方法[17]。AlexNet[18]、VggNet[19]、ResNet等深度神經(jīng)網(wǎng)絡已在大型公開圖像數(shù)據(jù)集 ImageNet 上進行了充分訓練,學習到了圖像分類識別所需的大量特征[20]。由于大部分知識存在相關性,所以通過遷移學習方法將ResNet_50預訓練模型運用到魚類識別中,在網(wǎng)絡訓練中初始化權(quán)重參數(shù),進而優(yōu)化模型的學習效率并減少過擬合的可能。試驗中模型訓練得越久,離最優(yōu)值越近,因此在訓練過程中隨著迭代的繼續(xù)應逐步降低學習率。本研究運用指數(shù)衰減法對學習率進行更新。指數(shù)衰減法的學習率更新式為:

      (3)

      式中:lr為衰減過后的學習率;lr0為初始學習率;dr為衰減率;gs為當前的迭代輪數(shù);ds為衰減步長。

      在訓練過程中采用多類別交叉熵計算分類損失。為提高調(diào)參效率,使模型在訓練集上的訓練能力達到最大,采用自適應矩陣估計算法(Adam)實現(xiàn)模型優(yōu)化,權(quán)重和偏置更新。Adam[21]集合了RMSProp[22]和AdaGrad[23]算法最優(yōu)的性能,是一種自適應學習率的梯度更新法,可有效減少出現(xiàn)局部最優(yōu)解的情況,而且內(nèi)存需求低、計算效率高。

      2 試驗設計

      圖6所示,首先使用顯著性增強方法對輸入圖像中的前景魚類目標定位分割,并將其融入原始圖像中,得到前景和背景對比度更加鮮明的魚類圖像。然后將得到的圖像集輸入基于遷移學習的殘差網(wǎng)絡模型中進行訓練,通過Adam算法優(yōu)化模型權(quán)重,更新超參數(shù)的值,直至經(jīng)過softmax分類器后達到理想的準確率。

      試驗在Windows10 64位操作系統(tǒng)訓練上運行,服務器配置為Intel(R) Core(TM) i7-6700 CPU @ 3.4GHz處理器和NVIDIA GeForce GTX 745顯卡。其中,神經(jīng)網(wǎng)絡的搭建、訓練以及測試均利用 Python語言調(diào)用開源機器學習庫TensorFlow[24]實現(xiàn)。

      基于遷移學習的卷積神經(jīng)網(wǎng)絡在訓練過程中,輸入圖像的學習率、批處理量和參數(shù)微調(diào)的范圍都會影響模型最終的檢測效果,因此在訓練卷積神經(jīng)網(wǎng)絡之前,需要選擇合適的參數(shù),以達到較好的訓練結(jié)果。為了在短時間內(nèi)找到殘差遷移學習所需參數(shù),試驗只對模型末端層進行相關訓練得到理想的學習率和批處理量值,并通過遷移學習微調(diào)網(wǎng)絡層對比試驗,得到最適合的參數(shù)調(diào)整范圍。使用 top-1準確率(即識別結(jié)果與圖像原始標簽一致的準確率[25])評估模型精度。模型初始訓練學習率為0.1,衰減參數(shù)為0.5,迭代次數(shù)為10 000步,批處理量為8,激活函數(shù)為ReLU。

      圖6 基于顯著性增強和遷移學習的魚類識別Fig.6 Fish recognition based on significant enhancement and transfer learning

      為使研究結(jié)果與已有魚類識別方法更具對比性,試驗首先在公用Fish4Knowledg數(shù)據(jù)集上訓練、調(diào)整、測試模型,再通過Fish30Image數(shù)據(jù)集進一步驗證模型效果。其中,F(xiàn)ish4Knowledge數(shù)據(jù)集采用驗證集和測試集的平均準確率作為分類準確率,F(xiàn)ish30Image數(shù)據(jù)集采用5折交叉驗證方式獲取分類準確率。表1為兩個數(shù)據(jù)集中訓練集、驗證集、測試集的設置。由于兩個數(shù)據(jù)集的圖片數(shù)量差異較大,所以本試驗按照訓練集比例設置不同的迭代步數(shù),選擇Fish4Knowledge數(shù)據(jù)集迭代10 000步的訓練結(jié)果和Fish30Image數(shù)據(jù)集迭代14 250步的訓練結(jié)果進行比較。

      表1 訓練集、驗證集和測試集的設置Tab.1 Training,validation and test sets

      3 結(jié)果及分析

      3.1 遷移學習學習率選擇

      學習率控制梯度下降的步長,不同的學習率對于模型收斂、識別準確度差異影響較大。為了優(yōu)化試驗結(jié)果,分析本試驗中學習率與分類結(jié)果之間的關系,在默認參數(shù)設置下對不同學習率模型進行試驗。模型在訓練過程中損失值隨迭代次數(shù)的變化情況如圖7所示。

      圖7 不同學習率對損失值的影響Fig.7 Effect of different learning rates on total loss

      由圖7可知,更高的學習率可以實現(xiàn)更快的收斂。初始學習率為0.001,0.01的模型收斂緩慢,0.2的學習率可以實現(xiàn)快速收斂,但最終的損失值偏高。這是因為太高的學習率可能會錯過最優(yōu)解,降低識別準確率[26]。而學習率處于 0.1時能夠取得比較好的結(jié)果,所以后續(xù)試驗初始學習率均設置為 0.1。

      3.2 遷移學習批處理量選擇

      訓練深度神經(jīng)網(wǎng)絡時,由于樣本數(shù)據(jù)量巨大,一般會分批從數(shù)據(jù)集中抽取少量的圖像計算平均值,然后根據(jù)平均值更新權(quán)重值。抽取圖像的數(shù)量即為批處理量(batch),批處理量的大小影響模型的性能和準確率。較大的批處理量可提高梯度的精度,但是較小的批處理量有利于收斂,因此要選擇合適的批處理量。

      圖8為初始學習率為0.1時不同批處理量對模型優(yōu)化過程的影響??梢钥闯觯幚砹吭酱?,損失值性能越好,批處理量為64的模型損失值最小。然而由于配置有限,批處理量為64時會出現(xiàn)內(nèi)存溢出現(xiàn)象,所以本試驗選取損失值性能與64相近的32作為批處理量。

      圖8 不同批處理量對損失值的影響Fig.8 Effect of different batches on total loss

      3.3 微調(diào)網(wǎng)絡層對比試驗

      為進一步提高準確率,需要對模型進行微調(diào)操作,逐步開放全連接層之前的卷積層。試驗中使用ResNet-N代表參數(shù)微調(diào)的范圍,N表示將ResNet_50預訓練模型第N層與其之后的參數(shù)利用試驗訓練集進行微調(diào)訓練,并將其余低層網(wǎng)絡參數(shù)全部凍結(jié)。除conv1層外,其中每一層都是一組殘差塊。圖9曲線展示了模型的識別精度隨微調(diào)層數(shù)的變化趨勢。

      試驗表明,隨著微調(diào)層數(shù)的增加,模型的識別準確率整體呈上升趨勢,且在ResNet-conv3_1時識別準確率達到最高。說明預訓練模型的conv1層和conv2層已具備良好的基礎特征提取能力。因此,本文后續(xù)遷移模型采取固定低2層網(wǎng)絡參數(shù),微調(diào)高層的訓練方式。

      圖9 ResNet-N分類精度Fig.9 Classification accuracy of ResNet-N

      3.4 模型效果驗證

      本方法在Fish4Knowledge和Fish30Image兩個數(shù)據(jù)集上訓練集與測試集Loss值隨迭代次數(shù)的變化曲線如圖10所示。可以看出訓練集和測試集的走勢基本一致,并且圖10(a)在迭代2 500 次、圖10(b)在迭代7 124次時Loss 值基本都已穩(wěn)定,因此可以判斷模型沒有發(fā)生過擬合。

      本模型與未使用遷移學習的全新學習模型在Fish4Knowledge數(shù)據(jù)集和Fish30Image數(shù)據(jù)集上的損失值變化情況如圖11所示。由圖可知,相同的參數(shù)配置下,本文方法對于加速網(wǎng)絡收斂和提高分類性能具有明顯的促進作用。全新學習模式下,損失值在訓練階段后期才逐漸趨于穩(wěn)定,且迭代完成后的損失值依舊很大。使用本文模型后,訓練初始階段網(wǎng)絡便迅速收斂,F(xiàn)ish4Knowledge數(shù)據(jù)集和Fish30Image數(shù)據(jù)集分別經(jīng)過約2 500步和7 124步時,模型的損失值已達到穩(wěn)定狀態(tài),獲得了極低的損失值。這在很大程度上節(jié)省了訓練時間,同時,魚類識別結(jié)果的可靠性也得到保證。

      圖10 訓練集和測試集的Loss值變化曲線Fig.10 Changes in loss for training set and test set

      圖11 模型全新學習和遷移學習對比Fig.11 Comparison between model new learning and transfer learning

      3.5 網(wǎng)絡模型對比分析

      本研究也探討了與圖像識別相關的深度神經(jīng)網(wǎng)絡ResNet-50、ResNet-101、ResNet-152和Inception V3在魚類圖像上的分類性能,上述模型在兩個數(shù)據(jù)集上的識別準確率和檢測時間見表2。由表可知,4種模型中,ResNet-50的平均檢測時間最短,比其他3種模型節(jié)省至少4.48 s。本方法在ResNet-50的基礎上進行了改進,所以識別精度有了大幅度提高,相比上述4種模型,識別準確率至少提升4.98%。通過試驗發(fā)現(xiàn),圖像顯著性增強方法的平均耗時僅為0.18 s,模型分類的平均檢測時間為6.35 s,由此可以發(fā)現(xiàn),使用此方法不會對檢測時間造成負擔。所以本模型在分類精度和檢測時間方面依舊具有很大優(yōu)勢。

      表2 數(shù)據(jù)集上不同模型的分類結(jié)果Tab.2 Classification results of different models on data sets

      3.6 與傳統(tǒng)魚類識別方法比較

      由于水中的噪聲和光度的頻繁變化,從水下相機捕獲的圖像中評估魚的種類通常具有挑戰(zhàn)性。相關文獻提出了基于水下魚類的識別方法,其中,在標準魚類數(shù)據(jù)集Fish4Knowledge上的研究已有不少成果。Huang等[27]提出一種平衡保證優(yōu)化樹的水下魚類識別方法,識別率達到95%;Huang等[28]使用拒絕選項與平衡強制優(yōu)化樹來識別魚類,獲得97.50%的準確率;Qin等[5]利用空間金字塔和SVM分類器等構(gòu)建的5層深度神經(jīng)網(wǎng)絡方法進行魚種分類,識別精度為98.64%;Chuang等[29]提出一種由完全無監(jiān)督特征學習技術和一個容錯分類組成的水下魚類識別框架,識別準確率為97.70%。本文方法的識別精度比上述4種方法分別提高了4.64%、1.00%、2.14%和1.94%。

      4 結(jié)論與展望

      本研究利用數(shù)據(jù)驅(qū)動思維,將人工智能方法應用于魚類識別,直接分析提取自然場景下的魚類圖像信息,突破了大多數(shù)研究方法要求魚類圖像背景單一的前提,并且避免了魚類識別中人工提取特征主觀性不足的問題。文中視覺注意機制的引入,能夠以更高的對比度突出魚類區(qū)域,抑制背景區(qū)域。同時,通過遷移學習初始化卷積網(wǎng)絡權(quán)重的訓練方式,既節(jié)約訓練時間,又保持較高的準確率。多個數(shù)據(jù)集的試驗結(jié)果表明,本文提出的模型識別結(jié)果穩(wěn)定,且在公開的Fish4Knowledge魚類數(shù)據(jù)集上,識別準確率比目前最好算法DeepFish有所提高。

      本研究僅對部分魚進行了識別試驗,要建立系統(tǒng)有效的魚類識別模型,就要求魚類識別分類器有更強大的訓練數(shù)據(jù)作為基礎,因此,今后應繼續(xù)拓展魚的研究種類,補充更多數(shù)據(jù)構(gòu)建大規(guī)模的魚類數(shù)據(jù)集來進一步完善網(wǎng)絡模型,以實現(xiàn)更多類別的區(qū)分。雖然對自然環(huán)境下的魚類進行了識別,但同當前絕大部分的魚類研究工作類似,局限于解決單個魚類主體的識別問題,對魚類重疊、遮擋情況鮮有考慮。然而自然場景中的魚類難免會有相互重疊和被他物遮擋的情況,其準確率仍需進一步研究。

      猜你喜歡
      批處理殘差魚類
      基于MFCC和ResNet的魚類行為識別
      基于雙向GRU與殘差擬合的車輛跟馳建模
      基于殘差學習的自適應無人機目標跟蹤算法
      基于遞歸殘差網(wǎng)絡的圖像超分辨率重建
      自動化學報(2019年6期)2019-07-23 01:18:32
      奇妙的古代動物 泥盆紀的魚類
      探索科學(2017年5期)2017-06-21 21:16:16
      魚類是怎樣保護自己的
      平穩(wěn)自相關過程的殘差累積和控制圖
      河南科技(2015年8期)2015-03-11 16:23:52
      魚類怎樣呼吸
      基于PSD-BPA的暫態(tài)穩(wěn)定控制批處理計算方法的實現(xiàn)
      批處理天地.文件分類超輕松
      长葛市| 宝兴县| 象山县| 桃源县| 双鸭山市| 罗定市| 柳河县| 鹤壁市| 盘山县| 开平市| 洮南市| 聊城市| 石河子市| 广平县| 崇明县| 团风县| 内丘县| 朔州市| 珲春市| 南康市| 永定县| 夏津县| 闻喜县| 铁岭县| 东宁县| 阿城市| 正定县| 吴堡县| 洛隆县| 昆明市| 同德县| 麦盖提县| 宁明县| 团风县| 朝阳市| 资兴市| 平原县| 荔波县| 张家界市| 罗山县| 醴陵市|