• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于卷積神經(jīng)網(wǎng)絡(luò)的中國(guó)繪畫圖像分類

      2019-06-07 15:08:13楊冰陳浩月王小華
      軟件導(dǎo)刊 2019年1期
      關(guān)鍵詞:圖像分類卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

      楊冰 陳浩月 王小華

      摘 要:繪畫圖像分類為繪畫管理與使用提供了便利。傳統(tǒng)圖像分類大多依靠人工提取形狀、顏色等特征,由于繪畫圖像分類需要更專業(yè)的知識(shí)背景,從而使人工提取特征的過(guò)程繁瑣且復(fù)雜?;诖?,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的中國(guó)繪畫分類方法,并在此基礎(chǔ)上結(jié)合SoftSign與ReLU兩種激活函數(shù)的優(yōu)點(diǎn),構(gòu)造一種新的激活函數(shù)。實(shí)驗(yàn)結(jié)果表明,基于改進(jìn)后激活函數(shù)構(gòu)造的卷積神經(jīng)網(wǎng)絡(luò),可以有效提高分類準(zhǔn)確率。

      關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);中國(guó)繪畫;激活函數(shù);圖像分類

      DOI:10. 11907/rjdk. 181736

      中圖分類號(hào):TP301文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1672-7800(2019)001-0005-04

      Abstract:The classification of painting images facilitates the management and use of paintings. Different from traditional image classification, features such as artificial extraction of shapes and colors are required. Classification of painting images requires a more professional knowledge background, which also makes the process of manually extracting features increasingly complicated. Based on this, a Chinese painting classification method based on convolutional neural network is proposed. Based on this, it combines the advantages of two activation functions including SoftSign and ReLU to construct a new activation function. Experimental results show that the convolutional neural network constructed based on the improved activation function can effectively improve the classification accuracy.

      Key Words: deep learning; convolution neural network; Chinese painting; activation function; image classification

      0 引言

      隨著數(shù)字化圖像的發(fā)展,圖像分類成為圖像領(lǐng)域的研究熱點(diǎn)之一。作為中國(guó)傳統(tǒng)文化的重要組成部分,對(duì)中國(guó)繪畫分類[1-2]的研究有助于更好地繼承與發(fā)揚(yáng)傳統(tǒng)文化。中國(guó)繪畫歷史源遠(yuǎn)流長(zhǎng),流派與藝術(shù)風(fēng)格眾多,且中國(guó)畫以寫意為主,與自然狀態(tài)下的圖像相差較大,所涵蓋的內(nèi)容也更加抽象,所以在特征提取方面需要更多專業(yè)知識(shí)。傳統(tǒng)圖像分類方法大多是基于淺層結(jié)構(gòu)的學(xué)習(xí)算法,雖然可以提取一定圖像特征,但在某些特征提取過(guò)程中容易導(dǎo)致特征丟失,且特征提取方法的泛化性較差。因此,中國(guó)繪畫的圖像分類存在諸多障礙。

      受Hubel & Wiesel對(duì)于貓視覺(jué)皮層電生理研究的啟發(fā),卷積神經(jīng)網(wǎng)絡(luò)由此誕生。Yann Lecun首次將卷積神經(jīng)網(wǎng)絡(luò)用于手寫數(shù)字識(shí)別[3-4];Krizhevsky等[5]提出經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)AlexNet,并在圖像識(shí)別任務(wù)上獲得重大突破。近年來(lái)CNN在多個(gè)領(lǐng)域發(fā)展迅速,其在解決圖像分類[6]與目標(biāo)檢測(cè)[7-8]等多方面問(wèn)題上都表現(xiàn)出色。卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是對(duì)真實(shí)生物神經(jīng)網(wǎng)絡(luò)進(jìn)行仿真,權(quán)值共享降低了網(wǎng)絡(luò)復(fù)雜性,而圖像能夠直接輸入神經(jīng)網(wǎng)絡(luò)的特點(diǎn)可避免特征提取與分類過(guò)程中數(shù)據(jù)重建的復(fù)雜性。與傳統(tǒng)復(fù)雜的特征提取方法諸如提取邊緣、紋理等特征[9]提取方法相比,卷積神經(jīng)網(wǎng)絡(luò)顯得尤為高效。在繪畫圖像領(lǐng)域,文獻(xiàn)[10]提出一種基于混合稀疏卷積神經(jīng)網(wǎng)絡(luò)的方法,對(duì)不同風(fēng)格作者的筆觸特征進(jìn)行分析;文獻(xiàn)[11]基于水墨的色彩與色調(diào),提出一種基于風(fēng)格的水墨自動(dòng)識(shí)別方法;文獻(xiàn)[12]應(yīng)用邊緣檢測(cè)定位局部區(qū)域并檢測(cè)繪畫筆劃,以實(shí)現(xiàn)基于直方圖的特征提取及重要線索捕獲,以反映不同藝術(shù)家風(fēng)格。

      深度學(xué)習(xí)為計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展作出了卓越貢獻(xiàn),其中一個(gè)重要因素是激活函數(shù)的不斷創(chuàng)新。神經(jīng)網(wǎng)絡(luò)中激活函數(shù)提供了網(wǎng)絡(luò)的非線性建模能力,使神經(jīng)網(wǎng)絡(luò)具有分層的非線性映射學(xué)習(xí)能力。因此,激活函數(shù)是神經(jīng)網(wǎng)絡(luò)的重要組成部分。2006年Hinton通過(guò)采用新型激活函數(shù)ReLU,使深度網(wǎng)絡(luò)的直接監(jiān)督式訓(xùn)練成為可能,但ReLU激活函數(shù)也同時(shí)存在神經(jīng)元死亡等問(wèn)題。

      卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)領(lǐng)域應(yīng)用廣泛,表現(xiàn)出極強(qiáng)的泛化性,因此本文在卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上研究圖像分類,并進(jìn)一步研究激活函數(shù)對(duì)圖像分類準(zhǔn)確率的影響,提出一種線性與非線性結(jié)合的函數(shù)作為激活函數(shù),并在中國(guó)繪畫數(shù)據(jù)集與通用數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果證明,改進(jìn)后的激活函數(shù)提高了分類性能。

      1 卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)

      1.1 卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),與普通神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)不同,卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層與下采樣層組成特征提取器。卷積層通常包含若干特征平面,每個(gè)特征平面由若干個(gè)神經(jīng)元排列成矩形,同一特征平面上的神經(jīng)元共享權(quán)值,共享權(quán)值稱為卷積核。權(quán)值共享的優(yōu)點(diǎn)是能夠減少神經(jīng)元之間的連接數(shù)量,同時(shí)降低過(guò)擬合風(fēng)險(xiǎn);下采樣可被認(rèn)為是一種特殊的卷積過(guò)程,能夠減少計(jì)算維度,提高模型泛化能力。卷積與下采樣大大簡(jiǎn)化了模型復(fù)雜性,并減少了模型參數(shù)。卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程主要包括前向傳播和后向傳播,訓(xùn)練過(guò)程中卷積層與下采樣層交替出現(xiàn)。

      前向傳播的目的是進(jìn)行特征提取,主要由卷積操作與下采樣操作實(shí)現(xiàn)。圖像由輸入層進(jìn)入卷積層,再通過(guò)激活函數(shù)得到輸出值。

      1.2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

      本文的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,輸入層是227[×]227的圖像,由17層組成,卷積、下采樣交替4次,后接兩層全連接層。其中第一個(gè)與第二個(gè)池化層之后接局部響應(yīng)歸一化層(Local Response Normalization,LRN)[14],其模仿生物神經(jīng)系統(tǒng)的側(cè)抑制機(jī)制,對(duì)局部神經(jīng)元的活動(dòng)創(chuàng)建競(jìng)爭(zhēng)機(jī)制,使響應(yīng)較大的值相對(duì)更大。第一個(gè)全連接層后接dropout[15],利用dropout消除或減弱神經(jīng)元節(jié)點(diǎn)間的聯(lián)合適應(yīng)性,讓一個(gè)神經(jīng)元的出現(xiàn)不依賴于另一個(gè)神經(jīng)元。每次dropout后,網(wǎng)絡(luò)模型都可看成整個(gè)網(wǎng)絡(luò)的子網(wǎng)絡(luò),相當(dāng)于實(shí)現(xiàn)了模型的平均。LRN與dropout技術(shù)同時(shí)提高了模型泛化能力。

      2 激活函數(shù)

      2.1 激活函數(shù)發(fā)展

      近年來(lái)神經(jīng)網(wǎng)絡(luò)尤其是卷積神經(jīng)網(wǎng)絡(luò)技術(shù)取得了巨大進(jìn)展,主要是由于幾個(gè)關(guān)鍵因素如卷積神經(jīng)網(wǎng)絡(luò)寬度[16]與深度[17]增加、數(shù)據(jù)集的擴(kuò)增、顯卡等高性能硬件的支持、Batch Normalization[18]層設(shè)計(jì)等,都在一定程度上提高了模型精度。其中,激活函數(shù)是卷積神經(jīng)網(wǎng)絡(luò)發(fā)展的關(guān)鍵技術(shù)。

      傳統(tǒng)神經(jīng)元模型使用的激活函數(shù)是Sigmoid,其數(shù)學(xué)形式為:[f(x)=1/(1+exp(-x))]。Sigmoid是使用范圍較廣的一類激活函數(shù),具有指數(shù)函數(shù)形狀,其在物理意義上最接近生物神經(jīng)元。此外,(0,1)的輸出還可被表示為概率,或用于輸入的歸一化,代表性的有Sigmoid交叉熵?fù)p失函數(shù)。然而,它有一個(gè)嚴(yán)重問(wèn)題即容易產(chǎn)生飽和效應(yīng),也稱為梯度彌散效應(yīng)。一般而言,Sigmoid 網(wǎng)絡(luò)在5層之內(nèi)即會(huì)產(chǎn)生梯度消失現(xiàn)象。

      TanH函數(shù)是Sigmoid函數(shù)的變形,其數(shù)學(xué)形式為:[f(x)=(1-exp(-2x))/(1+exp(-2x))]。TanH函數(shù)克服了Sigmoid函數(shù)非零均值輸出的缺點(diǎn),容錯(cuò)性好,同時(shí)延遲了飽和期,但仍未解決梯度消失問(wèn)題。

      SoftSign[19]函數(shù)類似于雙曲正切函數(shù),其數(shù)學(xué)形式為:[f(x)=x/(1+abs(x))]。SoftSign激活函數(shù)相較于雙曲正切函數(shù)具有更為平滑的漸近線,并且相比于雙曲正切函數(shù),SoftSign激活函數(shù)的激活值在網(wǎng)絡(luò)層數(shù)1~4層之內(nèi)并未過(guò)飽和。實(shí)驗(yàn)證明,SoftSign激活函數(shù)與雙曲正切函數(shù)相比,在圖片分類準(zhǔn)確率上具有更好的效果。

      ReLU函數(shù)[20]的出現(xiàn)極大地推動(dòng)了神經(jīng)網(wǎng)絡(luò)發(fā)展。ReLU是一個(gè)分段線性函數(shù),其正半軸輸入與輸出保持一致,負(fù)半軸輸入恒為零,該形式可以緩解梯度消失現(xiàn)象。但隨著訓(xùn)練的逐漸推進(jìn),落入硬飽和區(qū)輸入值的對(duì)應(yīng)權(quán)重將無(wú)法更新,由此出現(xiàn)神經(jīng)元死亡現(xiàn)象。ReLU的另一個(gè)突出問(wèn)題是輸出會(huì)出現(xiàn)偏移,即輸出均值恒大于零。因此,本文考慮綜合幾個(gè)激活函數(shù)的優(yōu)點(diǎn)對(duì)其進(jìn)行改進(jìn)。

      2.2 改進(jìn)的激活函數(shù)

      神經(jīng)網(wǎng)絡(luò)選擇激活函數(shù)時(shí),需要注意兩點(diǎn):①避免激活函數(shù)過(guò)飽和;②避免激活函數(shù)過(guò)度線性化。相比于ReLU,SoftSign函數(shù)使神經(jīng)網(wǎng)絡(luò)具有非線性特點(diǎn),能夠更好地進(jìn)行學(xué)習(xí);相比于SoftSign,ReLU函數(shù)在網(wǎng)絡(luò)訓(xùn)練過(guò)程中發(fā)揮了更大優(yōu)勢(shì),可緩解梯度消失現(xiàn)象,且收斂速度更快。結(jié)合SoftSign與ReLU函數(shù)的優(yōu)點(diǎn),構(gòu)建一個(gè)新的激活函數(shù),命名為SReLU。該激活函數(shù)定義如下:

      式中,[yi]是第i個(gè)激活函數(shù)f的輸入,當(dāng)激活函數(shù)層的輸入大于0時(shí)取ReLU函數(shù)值,反之,小于0時(shí)取雙曲正切函數(shù)值。與PReLU[21]類似,下標(biāo)c表示圖片顏色的不同通道,[ac]則表示不同顏色通道的取值,控制負(fù)半軸輸入。如果[ac=0],SReLU則退化為ReLU。與ReLU相比,SReLU具有負(fù)值,使激活的平均值更接近于0。非零均值輸出能夠加快學(xué)習(xí)速度,因?yàn)槠涮荻雀咏匀惶荻萚22]。SReLU激活函數(shù)如圖2所示。

      SReLU激活函數(shù)的參數(shù)[ac]可以進(jìn)行反向傳播,從而得到優(yōu)化,參數(shù)更新遵循鏈?zhǔn)角髮?dǎo)法則,[ac]梯度優(yōu)化公式如下:

      其中[ε]代表目標(biāo)函數(shù),[?f(yi)?ac]代表當(dāng)前層梯度。SReLU當(dāng)前層的梯度計(jì)算方式如下:

      3 實(shí)驗(yàn)結(jié)果與分析

      由于中國(guó)繪畫缺乏通用數(shù)據(jù)集,所以本文實(shí)驗(yàn)的繪畫數(shù)據(jù)集來(lái)自“紅動(dòng)中國(guó)”等網(wǎng)站,按繪畫類別將其分為花鳥、山水、人物3個(gè)類別,每類樣本各800幅,訓(xùn)練數(shù)據(jù)700幅,測(cè)試數(shù)據(jù)100幅。

      3.1 激活函數(shù)實(shí)驗(yàn)對(duì)比

      將本文激活函數(shù)SReLU分別與TanH、SoftSign、ReLU、Leak ReLu 4種激活函數(shù)進(jìn)行對(duì)比。其中,本文實(shí)驗(yàn)中將激活函數(shù)負(fù)半軸參數(shù)[ac]的值初始化為1時(shí)可取得最佳效果,Leak ReLu的負(fù)半軸系數(shù)也根據(jù)經(jīng)驗(yàn)初始化為1。實(shí)驗(yàn)結(jié)果如表1所示。

      由表1可以看出,TanH激活函數(shù)的準(zhǔn)確率最低,SoftSign激活函數(shù)的實(shí)驗(yàn)結(jié)果優(yōu)于TanH,ReLU激活函數(shù)具有較高準(zhǔn)確率,Leak ReLu激活函數(shù)略高于ReLu,而本文激活函數(shù)SReLU取得了最高的準(zhǔn)確率95.67%,相比于ReLU函數(shù)提高了2%,從而證明了本文激活函數(shù)應(yīng)用于中國(guó)繪畫數(shù)據(jù)集的有效性。

      值得注意的是,在相同模型參數(shù)下,Sigmoid激活函數(shù)對(duì)中國(guó)繪畫數(shù)據(jù)集的分類效果很差,所以本實(shí)驗(yàn)未將Sigmoid函數(shù)的實(shí)驗(yàn)結(jié)果考慮在內(nèi)。

      3.2 通用數(shù)據(jù)集實(shí)驗(yàn)比較

      為驗(yàn)證本文激活函數(shù)不僅在中國(guó)繪畫數(shù)據(jù)集分類上具有一定優(yōu)勢(shì),在其它數(shù)據(jù)集上依然具有可行性,所以將本文提出的激活函數(shù)應(yīng)用于其它通用數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)的通用數(shù)據(jù)集來(lái)源于牛津大學(xué)的Visual Geometry Group,本文選擇其中5類圖像進(jìn)行實(shí)驗(yàn),分別為寵物、花、飛機(jī)、房子與吉他,每類訓(xùn)練數(shù)據(jù)800幅,測(cè)試數(shù)據(jù)200幅。實(shí)驗(yàn)結(jié)果如表2所示。

      由表2可以看出,本文激活函數(shù)在通用數(shù)據(jù)集上的效果明顯優(yōu)于TanH和SoftSign激活函數(shù),同時(shí)相比于ReLU激活函數(shù),準(zhǔn)確率也提高了1.4%,而在本次實(shí)驗(yàn)中,Leak ReLu并未顯示出相較于ReLU的優(yōu)勢(shì)。由此可進(jìn)一步證明本文提出激活函數(shù)的有效性,且該激活函數(shù)具有一定泛化性。

      4 結(jié)語(yǔ)

      深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)全新的發(fā)展方向,并廣泛應(yīng)用于多個(gè)領(lǐng)域。本文利用卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)提取中國(guó)繪畫特征并對(duì)其進(jìn)行分類,取得了較高準(zhǔn)確率。激活函數(shù)為卷積神經(jīng)網(wǎng)絡(luò)模型帶來(lái)了非線性因素,增強(qiáng)了模型表達(dá)能力。本文提出一種改進(jìn)的激活函數(shù),綜合考慮了激活函數(shù)非線性與梯度彌散改善問(wèn)題,以及激活函數(shù)參數(shù)在圖像不同顏色通道上的初始化及參數(shù)更新問(wèn)題,分別在中國(guó)繪畫數(shù)據(jù)集和通用數(shù)據(jù)集上與改進(jìn)前的激活函數(shù)進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果表明卷積神經(jīng)網(wǎng)絡(luò)的圖像分類準(zhǔn)確率得到了相應(yīng)提高。

      參考文獻(xiàn):

      [1] 高峰, 聶婕, 黃磊,等. 基于表現(xiàn)手法的國(guó)畫分類方法研究[J]. 計(jì)算機(jī)學(xué)報(bào), 2017, 40(12): 2871-2882.

      [2] 鮑泓. 基于視覺(jué)感知的中國(guó)畫圖像語(yǔ)義自動(dòng)分類研究[D]. 北京:北京交通大學(xué),2012.

      [3] LECUN L,BOTTOU L,BENGIO Y,et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE,1998,86(11):2278-2324.

      [4] 趙志宏,楊紹普,馬增強(qiáng). 基于卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的車牌字符識(shí)別研究[J]. 系統(tǒng)仿真學(xué)報(bào),2010,22(3):638-641.

      [5] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]. International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012:1097-1105.

      [6] XIAO T, XU Y, YANG K, et al. The application of two-level attention models in deep convolutional neural network for finegrained image classification[C]. IEEE Conference on Computer Vision and Pattern Recognition. Columbus:IEEE CVPR, 2014:842-850.

      [7] HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis&Machine Intelligence,2014,37(9):1904-1916.

      [8] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C].IEEE Conference on Computer Vision and Pattern Recognition,2014:580-587.

      [9] LIU C, JIANG H. Classification of traditional Chinese paintings based on supervised learning methods[C]. IEEE International Conference on Signal Processing,Communications and Computing,2014:641- 644.

      [10] SUN M J,ZHANG D,REN J C,et al. Brushstroke based sparse hybrid convolutional neural networks for author classification of Chinese ink-wash paintings[C]. IEEE International Conference on Image Processing,2015:626-630.

      [11] SHENG J C. An effective approach to identify digitized IWPs (ink and wash paintings)[C]. International Congress on Image and Signal Processing, 2013:407-410.

      [12] SHENG J, JIANG J. Style-based classification of Chinese ink and wash paintings[J]. Optical Engineering, 2013, 52(9): 093101.

      [13] 高學(xué),王有旺. 基于CNN和隨機(jī)彈性形變的相似手寫漢字識(shí)別[J]. 華南理工大學(xué)學(xué)報(bào):自然科學(xué)版, 2014 (1) :72-76.

      [14] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]. International Conference on Neural Information Processing Systems,2012:1097-1105.

      [15] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Advances in Neural Information Processing Systems,2012,25(2):1097-1105.

      [16] SZEGEDY C,LIU W,JIA Y Q, et al. Going deeper with convolutions[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015:1-9.

      [17] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. http://papers.nips.cc/paper/8424-imagenet-classification-with-deep-convolutional-neural-netwonet.pdf,2014.

      [18] IOFFE S,SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]. Proceedings of the 32 nd International Conference on Machine Learning,2015:448-456.

      [19] GLOROT X, BENGIO Y. Understanding the difficulty of training deep feedforward neural networks[C]. International conference on artificial intelligence and statistics,2010:249-256.

      [20] NAIR V, HINTON G E. Rectified linear units improve restricted boltzmann machines[C]. Proceedings of the 27th International Conference on Machine Learning (ICML-10),2010:807-814.

      [21] HE K, ZHANG X, REN S, et al. Delving deep into rectifiers: surpassing humanlevel performance on ImageNet classification[C]. The IEEE International Conference on Computer Vision (ICCV). 2015:1026-1034.

      [22] CLEVERT D A,UNTERTHINER T,HOCHREITER S. Fast and accurate deep network learning by exponential linear units (ELUs)[DB/OL]. arXiv:1511.07289, 2015.

      (責(zé)任編輯:黃 ?。?/p>

      猜你喜歡
      圖像分類卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
      基于云計(jì)算的圖像分類算法
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
      基于錨點(diǎn)建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      一種基于引導(dǎo)濾波和MNF的高光譜遙感圖像分類方法
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于最大似然法的南京市土地利用類型分類研究
      商(2016年22期)2016-07-08 14:32:30
      基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
      巴中市| 鲁山县| 安吉县| 揭西县| 尖扎县| 武城县| 调兵山市| 乐东| 鄄城县| 永城市| 固始县| 通榆县| 镇江市| 周至县| 韶山市| 壶关县| 淳化县| 阜南县| 临猗县| 资溪县| 驻马店市| 安泽县| 镇沅| 绥芬河市| 九江市| 五河县| 象州县| 绵竹市| 达日县| 漠河县| 和顺县| 永康市| 金溪县| 凤山县| 龙陵县| 铜山县| 射洪县| 西昌市| 永川市| 江安县| 蒙阴县|