• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于回歸與深度強化學(xué)習(xí)的目標(biāo)檢測算法

      2018-02-12 12:24:56舒朗郭春生
      軟件導(dǎo)刊 2018年12期
      關(guān)鍵詞:強化學(xué)習(xí)目標(biāo)檢測深度學(xué)習(xí)

      舒朗 郭春生

      摘要:基于強化學(xué)習(xí)的目標(biāo)檢測算法在檢測過程中通常采用預(yù)定義搜索行為,其產(chǎn)生的候選區(qū)域形狀和尺寸變化單一,導(dǎo)致目標(biāo)檢測精確度較低。為此,在基于深度強化學(xué)習(xí)的視覺目標(biāo)檢測算法基礎(chǔ)上,提出聯(lián)合回歸與深度強化學(xué)習(xí)的目標(biāo)檢測算法。首先,深度強化學(xué)習(xí)agent根據(jù)初始候選區(qū)域所提取的信息決定相應(yīng)搜索行動,根據(jù)行動選擇下一個逼近真實目標(biāo)的候選區(qū)域;然后,重復(fù)上述過程,直至agent能確定當(dāng)前區(qū)域為目標(biāo)區(qū)域時終止搜索過程;最后,由回歸網(wǎng)絡(luò)對當(dāng)前區(qū)域坐標(biāo)進行回歸,達(dá)到精確定位目的。實驗結(jié)果顯示,在單類別目標(biāo)檢測中,與原算法相比其精度提高了5.4%,表明通過引入回歸有效提高了目標(biāo)檢測精確度。

      關(guān)鍵詞:目標(biāo)檢測;強化學(xué)習(xí);深度學(xué)習(xí);回歸網(wǎng)絡(luò)

      Deep Reinforcement Learning for Object Detection with Regression

      SHU Lang, GUO Chun?sheng

      (School of Communication Engineering, HangZhou DianZi University, Hangzhou 310018, China)

      Abstract:The object detection algorithm based on reinforcement learning usually adopts predefined search actions in the detection process and the shape and size of the proposal regions generated by them are not changed much, resulting in low accuracy of object detection. For this reason, based on the deep reinforcement object detection algorithm, we proposed an object detection algorithm by combining regression with deep reinforcement learning. Firstly, the agent determines the search action according to the information extracted from the initial proposal regions, and then selects the next proposal region approaching the ground truth according to the action. Then?the above process is repeated until agent has enough confidence to determine the current region as the ground truth, and then the search process is terminated. Finally, the current region coordinates are regressed by the regression network to achieve a better localization. Compared with the original algorithm, the accuracy of single?class object detection is improved by 5.4%, which indicates that the accuracy of visual object detection is improved effectively by introducing regression.

      Key Words:object detection; reinforcement learning; deep learning; regression network

      0?引言

      隨著卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network ,CNN)的引入,目標(biāo)檢測準(zhǔn)確度有了顯著提高[1?2],典型算法為R?CNN[3]、Faster R?CNN[4]。 這類典型算法通過候選區(qū)域生成算法得到高質(zhì)量的候選區(qū)域,然后對這些候選區(qū)域進行一系列處理,最終完成對目標(biāo)的檢測。由于此類算法通常需要處理大量冗余的候選區(qū)域,因此在檢測速度上存在提升空間[5]。

      強化學(xué)習(xí)是機器學(xué)習(xí)領(lǐng)域的一個重要研究方向,是一種通過和環(huán)境不斷交互進而從試錯中學(xué)習(xí)最優(yōu)策略的方法,在決策控制領(lǐng)域發(fā)揮著重要作用[6]。為了減少目標(biāo)檢測過程中處理的候選區(qū)域數(shù)量,針對傳統(tǒng)目標(biāo)檢測算法不足,提出了很多基于強化學(xué)習(xí)的改進方法。Mathe等[7]提出了一種序列模型,從部分圖像位置上收集證據(jù)進行視覺目標(biāo)檢測。該算法將序列模型轉(zhuǎn)化為強化學(xué)習(xí)中的策略搜索過程,能夠平衡強化學(xué)習(xí)中的難題,其檢測速度比滑動窗口提高兩個數(shù)量級。Caicedo等[8]提出了一種基于深度強化學(xué)習(xí)目標(biāo)的定位算法,該算法將整幅圖片看作一個環(huán)境,通過引入一個智能體(agent)對邊界框進行自頂向下的搜索策略,該agent可以根據(jù)學(xué)習(xí)到的策略對邊界框執(zhí)行一系列簡單的變形行動,最終將目標(biāo)準(zhǔn)確定位。Bueno等[9]提出了一種基于分層的深度強化學(xué)習(xí)目標(biāo)檢測框架,根據(jù)收集的線索不斷將注意力聚集到有更多信息的區(qū)域,以達(dá)到檢測目的。Kong等[10]提出了一種基于協(xié)同深度強化學(xué)習(xí)進行不同目標(biāo)的聯(lián)合搜索算法,該算法將每個檢測器看作一個agent,使用基于多agent的深度強化學(xué)習(xí)算法學(xué)習(xí)目標(biāo)定位的最優(yōu)策略,通過利用這些上下文信息有效提高目標(biāo)定位的準(zhǔn)確度。

      基于強化學(xué)習(xí)的目標(biāo)檢測算法根據(jù)收集到的信息執(zhí)行相應(yīng)區(qū)域探索策略,能夠顯著減少待處理的候選區(qū)域數(shù)量,但存在精確度較低的缺陷。為解決上述問題,本文引入回歸,研究了回歸網(wǎng)絡(luò)和深度Q網(wǎng)絡(luò)(deep Q?Network,DQN)[11]的聯(lián)合優(yōu)化問題,利用經(jīng)驗池優(yōu)選訓(xùn)練數(shù)據(jù),改善網(wǎng)絡(luò)訓(xùn)練效率;通過對DQN搜索到的候選區(qū)域作進一步微調(diào),提高目標(biāo)檢測精確度。

      1?算法原理

      強化學(xué)習(xí)提供一種通用框架解決智能體(agent)采取何種策略最大化累積獎賞策略[12]。文獻(xiàn)[5]中將整幅圖像看作一個環(huán)境,agent對候選區(qū)域進行變形,其目的是使候選區(qū)域?qū)⒛繕?biāo)區(qū)域緊緊包圍起來。算法模型如圖1所示,該模型主要由行動?A、狀態(tài)S以及獎賞函數(shù)R?等組成。

      行動集合定義:?A:{向右,向左,向上,向下,變大,變小,變寬,變高,終止},每個行動根據(jù)當(dāng)前候選區(qū)域的尺寸大小,按照一定比例η?對其尺寸進行一個離散變化,終止行動代表agent已經(jīng)找到目標(biāo)。

      狀態(tài)集合?S為一個元組,s=(o,h),其中o是當(dāng)前觀察區(qū)域的特征向量,h?是一個固定大小向量,代表agent曾采取的?h?個歷史行動。

      當(dāng)agent采取行動?a由狀態(tài)s進入下一個狀態(tài)s′?時,環(huán)境給予agent相應(yīng)的獎賞?R(a,s→s′)。獎賞函數(shù)R?定義了在當(dāng)前狀態(tài)下所采取的行動是否有助于目標(biāo)定位,計算如下:

      其中,?IoU是目標(biāo)區(qū)域g與候選區(qū)域b?之間的交并比。

      當(dāng)采取終止行動時,對應(yīng)的獎賞函數(shù)?R?t?為:

      根據(jù)以上定義的行動集合、狀態(tài)集合以及獎賞函數(shù),通過應(yīng)用Q?learning算法[13]學(xué)習(xí)最優(yōu)策略?Q(s,a)?,智能體agent根據(jù)Q函數(shù)選擇具有最高期望獎賞的行動,其中Q函數(shù)使用貝爾曼方程進行更新[14],更新過程如下:

      其中,?s為當(dāng)前狀態(tài),a為當(dāng)前選擇的行動,r為即時獎賞,γ代表折扣系數(shù),s′代表下一狀態(tài),a′?代表接下來采取的行動。為了處理高維數(shù)據(jù),文獻(xiàn)[5]引入深度CNN網(wǎng)絡(luò),即DQN近似表示Q函數(shù),通過建立經(jīng)驗池(replay memory)存儲更新過程中需要的經(jīng)驗數(shù)據(jù)?(s,a,r,s′)?。為了對同類多個目標(biāo)進行檢測,算法還應(yīng)用了返回抑制機制(Inhibition?of?Return,IoR) [15]以避免對某個顯著目標(biāo)重復(fù)檢測。最后,對檢測到的目標(biāo)區(qū)域應(yīng)用一個預(yù)訓(xùn)練的SVM分類器[16]以識別檢測到的目標(biāo)類別。

      2?深度強化學(xué)習(xí)目標(biāo)檢測

      在基于深度學(xué)習(xí)的目標(biāo)檢測算法中,通常需要大量候選區(qū)域用于檢測目標(biāo),而對這些候選區(qū)域的處理成為提高檢測速度的瓶頸。在基于強化學(xué)習(xí)的目標(biāo)檢測算法中,需要對候選區(qū)域進行選擇性搜索,主要按照當(dāng)前候選區(qū)域的尺寸比例進行區(qū)域搜索,故存在精確度較低的缺點。本文在基于深度強化學(xué)習(xí)的目標(biāo)檢測框架基礎(chǔ)上引入回歸,通過DQN網(wǎng)絡(luò)與回歸網(wǎng)絡(luò)相融合提高目標(biāo)檢測的準(zhǔn)確度。

      圖2為本文算法的模型框架,主要由特征提取網(wǎng)絡(luò)、DQN網(wǎng)絡(luò)和回歸網(wǎng)絡(luò)3部分組成。其中特征提取網(wǎng)絡(luò)為預(yù)先訓(xùn)練好的VGG網(wǎng)絡(luò)[17]。該模型首先由VGG網(wǎng)絡(luò)對候選區(qū)域進行特征提取,然后將提取的特征向量送入DQN網(wǎng)絡(luò),DQN網(wǎng)絡(luò)負(fù)責(zé)確定搜索路徑,最后當(dāng)DQN網(wǎng)絡(luò)終止搜索時,回歸網(wǎng)絡(luò)根據(jù)特征向量對候選區(qū)域進行回歸,輸出最終檢測結(jié)果。此外,DQN網(wǎng)絡(luò)訓(xùn)練需要經(jīng)驗池存儲大量的經(jīng)驗樣本,而回歸網(wǎng)絡(luò)的訓(xùn)練則需要大量滿足?IoU?大于一定閾值的樣本。在這個模型中,DQN網(wǎng)絡(luò)著重解決區(qū)域搜索問題,而回歸網(wǎng)絡(luò)則主要提高候選區(qū)域的準(zhǔn)確度,故兩個網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)與優(yōu)化目標(biāo)均不相同,本文通過下述工作對回歸網(wǎng)絡(luò)和DQN網(wǎng)絡(luò)聯(lián)合進行優(yōu)化。

      2.1?損失函數(shù)

      為了對DQN網(wǎng)絡(luò)與回歸網(wǎng)絡(luò)進行聯(lián)合優(yōu)化,本文將損失函數(shù)設(shè)定為多任務(wù)損失函數(shù),即DQN網(wǎng)絡(luò)損失與回歸網(wǎng)絡(luò)損失的加權(quán)和。其中,DQN網(wǎng)絡(luò)采用的是均方誤差損失函數(shù),回歸網(wǎng)絡(luò)采用魯棒性較強的smoothL1損失函數(shù)[18]。整體損失函數(shù)定義為:

      其中,?i是該樣本在最小數(shù)據(jù)樣本集中的索引值,參數(shù)y?i代表第i?個樣本的DQN網(wǎng)絡(luò)輸出,?Q(s?i,a)代表目標(biāo)輸出,N?dqn?代表輸入DQN網(wǎng)絡(luò)的樣本數(shù),?N?reg?代表送入回歸網(wǎng)絡(luò)的樣本數(shù),λ為加權(quán)系數(shù),用來平衡DQN網(wǎng)絡(luò)損失與回歸網(wǎng)絡(luò)損失,函數(shù)?R(t?i-t?*?i)代表回歸損失。其中R?函數(shù)為smoothL1損失函數(shù),?t代表參數(shù)化的候選區(qū)域坐標(biāo),即t=(t?x,t?y,t?w,t?h),t?*代表參數(shù)化的真實目標(biāo)區(qū)域坐標(biāo)t=(t?*?x,t?*?y,t?*?w,t?*?h)。本文對候選區(qū)域坐標(biāo)b=(x,y,w,h)?進行參數(shù)化[2]:

      其中,?x、y分別代表回歸網(wǎng)絡(luò)輸出的候選區(qū)域中心點,w、h為其寬和高;x?a、y?a?分別代表DQN網(wǎng)絡(luò)得到的候選區(qū)域中心點,?w?a、h?a為其寬和高;x?*、y?*分別代表真實目標(biāo)區(qū)域的中心點,w?*、h?*?為其寬和高。

      2.2?模型訓(xùn)練

      在本文算法中,DQN網(wǎng)絡(luò)與回歸網(wǎng)絡(luò)采用相同的架構(gòu),它們之間的聯(lián)合訓(xùn)練如下:

      (1)為了平衡DQN網(wǎng)絡(luò)的探索與利用難題,本文使用?ε貪心算法(ε?greedy policy),即每次訓(xùn)練以概率?ε進行行動探索,以1-ε的概率利用已學(xué)習(xí)到的策略進行決策,其中ε?的初始值為1。隨著訓(xùn)練周期(epoch)的增加?ε?逐漸降低至0.1。對于agent終止行動的學(xué)習(xí)是比較困難的,因此為了幫助agent學(xué)習(xí)該行動,本文在當(dāng)前區(qū)域與真實區(qū)域之間?IoU?>0.6時,強制其選擇終止行動。

      (2)經(jīng)驗池里存放的經(jīng)驗為?(s,a,r,s′,b,g),其中s為當(dāng)前狀態(tài),a為采取的行動,r是在狀態(tài)s下執(zhí)行行動a后立即得到的獎賞,s′為下一個狀態(tài),b為當(dāng)前區(qū)域坐標(biāo), g?代表目標(biāo)真實區(qū)域坐標(biāo)。DQN網(wǎng)絡(luò)與回歸網(wǎng)絡(luò)共用一個經(jīng)驗池,其中DQN網(wǎng)絡(luò)訓(xùn)練時,使用的部分?jǐn)?shù)據(jù)是?(s,a,r,s′)?;貧w網(wǎng)絡(luò)訓(xùn)練時,使用的數(shù)據(jù)是(s,b,g),兩網(wǎng)絡(luò)的輸入數(shù)據(jù)均為s?。

      (3)在對回歸網(wǎng)絡(luò)進行訓(xùn)練時,為了回歸的準(zhǔn)確性,本文僅使用目標(biāo)區(qū)域與真實區(qū)域之間的?IoU?大于一定閾值的經(jīng)驗樣本送入回歸網(wǎng)絡(luò)進行訓(xùn)練。

      對于一幅圖像,設(shè)其初始候選區(qū)域為整個圖像,首先將該初始區(qū)域的尺寸大小歸一化為224×224,傳入預(yù)訓(xùn)練好的VGG進行特征提取,然后以概率?ε從合理行動集合中隨機選取一個行動進行搜索,以1-ε的概率利用已學(xué)習(xí)到的策略進行決策。執(zhí)行行動a后,得到新候選區(qū)域b′?,根據(jù)式(1)賦予agent相應(yīng)的獎賞?r,然后將b′對應(yīng)的圖像區(qū)域尺寸歸一化為224×224,送入特征提取網(wǎng)絡(luò)提取特征,并與歷史行動向量結(jié)合,得到下一個狀態(tài)s′。重復(fù)上述過程,直至行動a為終止行動或者搜索步驟達(dá)到最大步驟數(shù),結(jié)束搜索過程,然后由回歸網(wǎng)絡(luò)對候選區(qū)域進行微調(diào),得到最終的定位結(jié)果。將每一步行動后所得到的經(jīng)驗信息元組(s,a,r,s′,b,g)?存入經(jīng)驗池中,利用該經(jīng)驗池數(shù)據(jù)對整個網(wǎng)絡(luò)進行聯(lián)合訓(xùn)練。從經(jīng)驗池中隨機采樣一批經(jīng)驗數(shù)據(jù)傳入DQN網(wǎng)絡(luò)與回歸網(wǎng)絡(luò)進行訓(xùn)練,其中對于候選區(qū)域與真實區(qū)域的?IoU?小于0.4的樣本數(shù)據(jù)不參加回歸網(wǎng)絡(luò)訓(xùn)練,然后按照式(5)計算網(wǎng)絡(luò)的損失函數(shù),并對兩網(wǎng)絡(luò)進行參數(shù)更新。

      3?實驗及結(jié)果分析

      3.1?實驗平臺及參數(shù)設(shè)定

      本文使用Torch7深度學(xué)習(xí)平臺[19],在數(shù)據(jù)庫VOC2007與VOC2012上進行仿真實驗[20],采用VOC2007與VOC2012的訓(xùn)練集數(shù)據(jù)對模型進行訓(xùn)練,采用VOC2007中的測試集對模型進行測試。本文僅對一種類別的目標(biāo)進行檢測。在實驗中,比例值?η較大時,生成的候選區(qū)域很難覆蓋到目標(biāo),值較小時,需要經(jīng)過多次搜索才能定位到目標(biāo),經(jīng)過權(quán)衡后取η?=0.2。算法中的DQN網(wǎng)絡(luò)使用兩個全連接層,輸出維度為行動數(shù)量,同時在網(wǎng)絡(luò)中加入Dropout[21]層以及ReLU[22]。在使用貝爾曼方程更新Q函數(shù)時,選用的折扣系數(shù)?γ?取值為0.9。本文經(jīng)驗池的大小設(shè)定為1 000,每次隨機采樣的最小批大小為128,訓(xùn)練次數(shù)為20個epoch。

      3.2?實驗結(jié)果與分析

      圖3為本文模型損失值在訓(xùn)練過程中的變化曲線,從圖中可以看出,隨著迭代次數(shù)的增加,模型的損失值急速下降,當(dāng)訓(xùn)練次數(shù)達(dá)到20 000次時,網(wǎng)絡(luò)逐漸收斂,損失值變化趨于平穩(wěn)。由此可見在訓(xùn)練過程中模型的參數(shù)得到了更新,網(wǎng)絡(luò)學(xué)習(xí)到了相關(guān)定位知識。

      圖4是在簡單背景條件下對飛機類別的目標(biāo)檢測效果,其中綠色框代表DQN網(wǎng)絡(luò)每次產(chǎn)生的候選區(qū)域,紅色框代表結(jié)合回歸網(wǎng)絡(luò)所得到的最終定位結(jié)果,白色框代表真實目標(biāo)區(qū)域。對于正常尺寸目標(biāo),如圖4(b)和圖4(d)所示,模型僅需很少的搜索步驟即可定位到飛機目標(biāo)所在位置。對于尺寸較大目標(biāo),如圖4(a)所示,DQN網(wǎng)絡(luò)根據(jù)當(dāng)前區(qū)域特征,僅需執(zhí)行一次搜索行動便能準(zhǔn)確定位目標(biāo)位置,隨后通過回歸網(wǎng)絡(luò)再對目標(biāo)區(qū)域進行精確定位。對于尺寸較小目標(biāo)如圖4(c)所示,由于目標(biāo)較小,DQN網(wǎng)絡(luò)便會朝著目標(biāo)區(qū)域的方向不斷進行搜索,直到收集到足夠的信息才會終止搜索行動,確定的區(qū)域即為目標(biāo)區(qū)域(如圖中尺寸最小的綠色框),并由回歸網(wǎng)絡(luò)對目標(biāo)位置進行更加準(zhǔn)確的定位。

      圖5是在復(fù)雜背景條件下對飛機類別的目標(biāo)檢測效果。從圖中可以看出,背景中除了經(jīng)常出現(xiàn)的藍(lán)天白云外,還存在建筑物、草地以及行人等多種干擾物體,傳統(tǒng)的目標(biāo)檢測方法容易受這些干擾物的影響,難以精確地對目標(biāo)進行定位。本文算法通過DQN網(wǎng)絡(luò)可以確定目標(biāo)所在的大體位置,利用回歸網(wǎng)絡(luò)進一步對候選區(qū)域坐標(biāo)進行精確定位,從而實現(xiàn)對復(fù)雜背景條件下的目標(biāo)定位。

      表1給出了文獻(xiàn)[4]算法、文獻(xiàn)[5]算法和本文算法在單一類別目標(biāo)數(shù)據(jù)中的檢測準(zhǔn)確率。從表中可以看出,相比于文獻(xiàn)[5]算法,本文算法的檢測精確度相對提高了5.4%,表明本文算法能夠有效提升目標(biāo)定位的精確度。

      4?結(jié)語

      為克服基于強化學(xué)習(xí)的目標(biāo)檢測算法中精確度較低的缺點,本文提出將回歸網(wǎng)絡(luò)與DQN網(wǎng)絡(luò)相融合的定位方式,首先由DQN網(wǎng)絡(luò)對目標(biāo)進行粗定位,然后利用回歸網(wǎng)絡(luò)對DQN網(wǎng)絡(luò)產(chǎn)生的候選區(qū)域坐標(biāo)進行矯正,以得到更準(zhǔn)確的定位。在模型訓(xùn)練階段,本文通過共享經(jīng)驗池的方式對DQN網(wǎng)絡(luò)和回歸網(wǎng)絡(luò)進行聯(lián)合優(yōu)化,在簡化訓(xùn)練過程的同時,提高數(shù)據(jù)利用效率。實驗結(jié)果表明,相比于原算法,本文算法在單一類別目標(biāo)檢測中有效提高了精確度。

      參考文獻(xiàn):

      [1]?KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]. International Conference on Neural Information Processing Systems. Curran Associates Inc.2012:1097?1105.

      [2]?LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature,2015,521(7553):436?437.

      [3]?GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition,2014:580?587.

      [4]?REN S, HE K, GIRSHICK R, et al. Faster R?CNN: towards real?time object detection with region proposal networks[C].International Conference on Neural Information Processing Systems. MIT Press,2015:91?99.

      [5]?HUANG J, GUADARRAMA S, MURPHY K,et al Speed/accuracy trade?offs for modern convolutional object detectors[C].Computer Vision and Pattern Recognition,2017:3296?3297.

      [6]?周志華.機器學(xué)習(xí)[M].北京:清華大學(xué)出版社,2016.

      [7]?MATHE S, PIRINEN A, SMINCHISESCU C. Reinforcement learning for visual object detection[C].Computer Vision and Pattern Recognition. IEEE,2016:2894?2902.

      [8]?CAICEDO J C, LAZEBNIK S. Active object localization with deep reinforcement learning[C].IEEE International Conference on Computer Vision,2015:2488?2496.

      [9]?BELLVER M, GIR?I?NIETO X, MARQUS F, et al. Hierarchical object detection with deep reinforcement learning[C]. Barcelona, Spain: Conference on Neural Information Processing Systems,2016.

      [10]?KONG X, XIN B, WANG Y, et al. Collaborative deep reinforcement learning for joint object search[C]. IEEE Conference on Computer Vision and Pattern Recognition,2017:7072?7081.

      [11]?LI H, WEI T, REN A, et al. Deep reinforcement learning: framework, applications, and embedded implementations[C]. IEEE International Conference on Computer?Aided Design,2017:847?854.

      [12]?高陽,陳世福,陸鑫.強化學(xué)習(xí)研究綜述[J].自動化學(xué)報,2004,30(1):86?100.

      [13]?JOS N, DEL R, POSENATO D, et al. Continuous?action Q?learning[J]. Machine Learning,2002,49(2?3):247?265.

      [14]?劉全,翟建偉,章宗長,等.深度強化學(xué)習(xí)綜述[J].計算機學(xué)報,2018(1):1?27.

      [15]?ITTI L, KOCH C. Computational modelling of visual attention[J]. Nature Reviews Neuroscience,2001,2(3):194?203.

      [16]?BOSER B E, GUYON I M, VAPNIK V N. A training algorithm for optimal margin classifiers[C] .The Workshop on Computational Learning Theory.1992:144?152.

      [17]?SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large?scale image recognition[J]. Computer Science,2014(6):1547?1552.

      [18]?GIRSHICK R. Fast r?cnn[C]. IEEE International Conference on Computer Vision,2015:1440?1448.

      [19]?COLLOBERT R, KAVUKCUOGLU K, FARABET C. Torch7: a Matlab?like environment for machine learning[C].BigLearn: Conference on Neural Information Processing Systems,2011.

      [20]?EVERINGHAM M, GOOL L V, WILLIAMS C K I, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision,2010,88(2):303?338.

      [21]?SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research,2014,15(1):1929?1958.

      [22]?NAIR V, HINTON G E. Rectified linear units improve restricted boltzmann machines[C]. International Conference on International Conference on Machine Learning, Omnipress,2010:807?814.

      猜你喜歡
      強化學(xué)習(xí)目標(biāo)檢測深度學(xué)習(xí)
      基于強化學(xué)習(xí)的在線訂單配送時隙運能分配
      論“以讀促寫”在初中英語寫作教學(xué)中的應(yīng)用
      智能交通車流自動導(dǎo)引系統(tǒng)
      視頻中目標(biāo)檢測算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識別中的人體運動目標(biāo)檢測方法
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      分布式系統(tǒng)中基于非合作博弈的調(diào)度算法
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      沧州市| 丹东市| 兴业县| 喜德县| 抚宁县| 祁阳县| 正镶白旗| 连南| 板桥市| 逊克县| 景东| 汪清县| 扬中市| 沂水县| 公安县| 壤塘县| 汉寿县| 沈丘县| 封丘县| 花垣县| 鄄城县| 景洪市| 齐齐哈尔市| 蚌埠市| 泽州县| 金乡县| 三门县| 嘉黎县| 夹江县| 鹤庆县| 禹州市| 三河市| 永宁县| 高雄县| 舒兰市| 巴彦淖尔市| 芦溪县| 临潭县| 双柏县| 綦江县| 喀喇沁旗|