• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      大數(shù)據(jù)環(huán)境下基于遷移學(xué)習(xí)的人體檢測(cè)性能提升方法

      2015-07-22 21:50:36陳駿龍劉亞洲唐曉晴
      現(xiàn)代電子技術(shù) 2015年14期
      關(guān)鍵詞:遷移學(xué)習(xí)大數(shù)據(jù)

      陳駿龍+劉亞洲+唐曉晴

      摘 要: 大數(shù)據(jù)環(huán)境下,可用于人體檢測(cè)的數(shù)據(jù)樣本數(shù)量迅速增長(zhǎng)。這些數(shù)據(jù)樣本在清晰度以及所包含的判別信息等方面有較大差別,導(dǎo)致這些數(shù)據(jù)無法直接使用。傳統(tǒng)基于遷移學(xué)習(xí)的人體檢測(cè)方法主要針對(duì)沒有目標(biāo)域樣本或者目標(biāo)域樣本很少的情況,無法充分利用大量的數(shù)據(jù)樣本。針對(duì)這一問題,提出基于遷移學(xué)習(xí)的人體檢測(cè)性能提升方法,該方法根據(jù)遷移學(xué)習(xí)的思想,利用分類器的特性計(jì)算源樣本與目標(biāo)樣本間的相似性并根據(jù)樣本分布圖,篩選目標(biāo)樣本更新分類器。相對(duì)于已有方法,該方法充分利用了數(shù)據(jù),且在不增加檢測(cè)時(shí)間的基礎(chǔ)上對(duì)檢測(cè)性能有一定的提升。

      關(guān)鍵詞: 大數(shù)據(jù); 遷移學(xué)習(xí); 人體檢測(cè); SVM

      中圖分類號(hào): TN911?34; TP391.4 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2015)14?0001?05

      Performance improving method of human detection based on transfer learning in

      big data environment

      CHEN Junlong, LIU Yazhou, TANG Xiaoqing

      (School of Computer Science and Engineering, Nanjing University of Science and Technology, Nanjing 210094, China)

      Abstract: In the big data environment, the number of data samples for the human detection increases rapidly. There is a great difference between sharpness and discrimination information in these data samples, so the data cannot be used directly. The traditional human detection methods based on transfer learning are suitable for the situations of no target domain sample or few domain samples only. In view of the above problems, a performance improving method based on transfer learning theory for human detection is proposed. The characteristics of classifier are utilized to calculate the similarity between source samples and target samples according to the idea of transfer learning. The selection of target samples is executed to update the classifier according to sample distribution. Compared with the existing methods, this method makes full use of the data, and improves the detection performance without addition of more time.

      Keywords: big data; transfer learning; human detection; SVM

      0 引 言

      近年來人體檢測(cè)一直是目標(biāo)檢測(cè)的熱門主題,在智能監(jiān)控、車載系統(tǒng)以及交通系統(tǒng)等應(yīng)用中處于核心地位,吸引了許多研究人員從事這一研究。由于人體姿態(tài)、衣著和背景的頻繁變化讓其成為計(jì)算機(jī)視覺研究的一大挑戰(zhàn)。目前用于人體檢測(cè)的方法很多,例如較早的Haar特征[1]、對(duì)其進(jìn)行的優(yōu)化[2?3]、目前流行的HOG特征[4]以及根據(jù)HOG特征改進(jìn)的可變形部件模型(Deformable Part Models)[5]等。

      隨著人體檢測(cè)的發(fā)展,用于人體檢測(cè)的數(shù)據(jù)樣本數(shù)量也在不斷增長(zhǎng)。例如常用數(shù)據(jù)庫(kù):MIT[1],INRIA[4],Caltech[6]等,根據(jù)時(shí)間的變化,數(shù)據(jù)樣本數(shù)量呈現(xiàn)出不斷增長(zhǎng)的趨勢(shì)。2000年建庫(kù)的MIT只有900多行人樣本,2009年建庫(kù)的Caltech有30萬行人樣本,行人樣本數(shù)量增加了300多倍。

      現(xiàn)有方法通常使用一次原始數(shù)據(jù)訓(xùn)練模型,無法應(yīng)對(duì)一些場(chǎng)景的變換。針對(duì)場(chǎng)景的變化,許多研究人員利用遷移學(xué)習(xí)的思想對(duì)行人檢測(cè)進(jìn)行了優(yōu)化。遷移學(xué)習(xí)的目標(biāo)是有效地利用先驗(yàn)知識(shí),達(dá)到更快,更好地解決新問題的目的[7]。目前遷移學(xué)習(xí)已經(jīng)廣泛地應(yīng)用在自然語言處理[8?9]和模式識(shí)別[10?11]等領(lǐng)域。文獻(xiàn)[12]利用遷移學(xué)習(xí)解決了在特定場(chǎng)景下的行人檢測(cè)問題,提出了基于分類一致性的學(xué)習(xí)模型,該模型有效地提高了檢測(cè)效果。還有直接添加樣本的方法[13],這個(gè)方法迭代約10次后性能可達(dá)到最大值。文獻(xiàn)[14?15]根據(jù)目標(biāo)域中兩類樣本的分布,更新源樣本的權(quán)值,本質(zhì)上就是從源樣本中選取與目標(biāo)樣本相似的部分進(jìn)行訓(xùn)練,這個(gè)方法迭代2次后就可達(dá)到最佳效果。上述方法解決了場(chǎng)景變換對(duì)檢測(cè)的影響,但是這些方法無法有效地利用已有目標(biāo)樣本[16?19]。

      本文主要基于遷移學(xué)習(xí)的思想,針對(duì)大量已有的數(shù)據(jù),從樣本選擇方面入手,依據(jù)樣本間的相似性和樣本的分布特征對(duì)數(shù)據(jù)篩選。該方法能夠有效地應(yīng)用已有數(shù)據(jù)樣本,提升檢測(cè)性能。

      1 大數(shù)據(jù)環(huán)境下基于遷移學(xué)習(xí)的人體檢測(cè)

      1.1 人體檢測(cè)所用特征及分類器

      本方法采用方向梯度直方圖(HOG)特征與支持向量機(jī)(SVM)分類器[4]。HOG特征對(duì)圖像的幾何形變和光照的變化都能保持很好的不變性。特征提取方法:將檢測(cè)圖像分為N個(gè)胞元(Cell),由若干個(gè)胞元組合為一個(gè)塊(Block),整副圖像由可重疊的若干塊構(gòu)成,通過統(tǒng)計(jì)每塊包含的胞元在各方向上的梯度分布,組成圖像的HOG特征。支持向量機(jī)(SVM)是一種基于VC維與結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理的機(jī)器學(xué)習(xí)方法。通過尋找最佳分類平面,使兩類不同數(shù)據(jù)點(diǎn)間隔最大,從而對(duì)數(shù)據(jù)進(jìn)行分類。SVM對(duì)于小樣本非線性以及高維數(shù)據(jù)有很好的分類效果。

      1.2 遷移學(xué)習(xí)

      遷移學(xué)習(xí)可以從現(xiàn)有的數(shù)據(jù)中遷移知識(shí)幫助學(xué)習(xí)。它的目標(biāo)是利用從一個(gè)環(huán)境中學(xué)到的知識(shí)去幫助新環(huán)境中的學(xué)習(xí)任務(wù),因此遷移學(xué)習(xí)不會(huì)像傳統(tǒng)機(jī)器學(xué)習(xí)那樣做同分布假設(shè)。傳統(tǒng)的機(jī)器學(xué)習(xí)與遷移學(xué)習(xí)的大致流程[20]如圖1所示。遷移學(xué)習(xí)方面的工作主要分為以下3個(gè)部分:同構(gòu)空間下基于實(shí)例的遷移學(xué)習(xí),同構(gòu)空間下基于特征的遷移學(xué)習(xí)與異構(gòu)空間下的遷移學(xué)習(xí)。基于實(shí)例的遷移學(xué)習(xí)具有更強(qiáng)的知識(shí)遷移能力,基于特征的遷移學(xué)習(xí)具有更廣泛的知識(shí)遷移能力,而異構(gòu)空間的遷移學(xué)習(xí)具有廣泛的學(xué)習(xí)與擴(kuò)展能力。

      遷移學(xué)習(xí)常用符號(hào)表示如下:D表示域,由特征空間[χ]與邊緣概率分布P(X) 兩部分組成。其中X是一個(gè)特定的學(xué)習(xí)樣本,[X={x1,x2,…,xn}∈χ],[xi]是對(duì)應(yīng)于這個(gè)學(xué)習(xí)樣本的第i個(gè)特征向量。通常情況下,如果兩個(gè)域不同,那么他們的特征空間或者邊緣概率分布就不同。給定一個(gè)域[D={χ,P(X)}],任務(wù)[T]由兩部分組成:標(biāo)簽空間[Y]和目標(biāo)預(yù)測(cè)函數(shù)[f(?)],表示為[T={Y,f(?)}]。目標(biāo)預(yù)測(cè)函數(shù)[f(?)]只能通過學(xué)習(xí)訓(xùn)練數(shù)據(jù)[{xi,yi}]得到,其中[xi∈X],[yi∈Y]。給定實(shí)例[x],可以用目標(biāo)檢測(cè)函數(shù)[f(?)]預(yù)測(cè)對(duì)應(yīng)的結(jié)果[f(x)]。

      遷移學(xué)習(xí)定義:給定源域[DS]與源域的任務(wù)[TS],目標(biāo)域[DT]與目標(biāo)域的任務(wù)[TT],用源域[DS]與源任務(wù)[TS]的知識(shí),當(dāng)[DS≠DT]或者[TS≠TT],改進(jìn)目標(biāo)域[DT]中的目標(biāo)預(yù)測(cè)函數(shù)[f(?)]的能力。

      圖1 傳統(tǒng)機(jī)器學(xué)習(xí)與遷移學(xué)習(xí)的區(qū)別

      三類遷移學(xué)習(xí):

      (1) 同構(gòu)空間下基于實(shí)例的遷移學(xué)習(xí):其基本思想是源域與目標(biāo)域之間存在差異,但仍有部分樣本之間存在關(guān)系,這部分樣本比較適合訓(xùn)練針對(duì)目標(biāo)域的檢測(cè)器。此類的目標(biāo)是從源域訓(xùn)練數(shù)據(jù)中找出與目標(biāo)域數(shù)據(jù)相似的實(shí)例,將這些實(shí)例遷移到目標(biāo)域的學(xué)習(xí)中去。其關(guān)鍵技術(shù)是如何過濾源域中與目標(biāo)域差異較大的數(shù)據(jù)。

      (2) 同構(gòu)空間下基于特征的遷移學(xué)習(xí):其基本思想是利用互聚類算法同時(shí)對(duì)源域與目標(biāo)域數(shù)據(jù)進(jìn)行聚類,產(chǎn)生一個(gè)公共的特征表示,新的特征比原始特征更優(yōu)。通過把目標(biāo)域數(shù)據(jù)表示在這個(gè)新的空間里,以實(shí)現(xiàn)遷移學(xué)習(xí)。根據(jù)源域中有無有標(biāo)記數(shù)據(jù)又分為基于特征的有監(jiān)督遷移學(xué)習(xí)和基于特征的無監(jiān)督遷移學(xué)習(xí)(自學(xué)習(xí)聚類)。

      (3) 異構(gòu)空間下的遷移學(xué)習(xí)(翻譯學(xué)習(xí)):主要用于解決源域與目標(biāo)域數(shù)據(jù)分別屬于兩個(gè)不同特征空間的問題。

      1.3 基于遷移學(xué)習(xí)思想模型更新策略

      基于遷移學(xué)習(xí)思想模型更新策略主要利用了同構(gòu)空間下基于實(shí)例的遷移學(xué)習(xí)思想并對(duì)其擴(kuò)展,更新策略過程如圖2所示。利用目標(biāo)域與源域的相似性過濾數(shù)據(jù),篩選目標(biāo)域的數(shù)據(jù)用于更新檢測(cè)模型。

      圖2 基于遷移學(xué)習(xí)的模型更新過程

      傳統(tǒng)的遷移學(xué)習(xí)方法根據(jù)樣本特征分布直接篩選源樣本,如圖3所示,樣本點(diǎn)距離表示其相似性,并采用K近鄰等聚類方法選擇樣本[21],K近鄰等方法的參數(shù)等只能根據(jù)經(jīng)驗(yàn)選擇并且對(duì)結(jié)果影響很大。

      圖3 INRIA庫(kù)樣本與VIRAT庫(kù)樣本分布圖

      本文介紹的策略使用分類器對(duì)目標(biāo)域與源域樣本打分,根據(jù)得分分布篩選目標(biāo)域樣本,最終更新模型,很好地克服這一問題,且在衡量相似性方面,傳統(tǒng)方法將特征投影至低維根據(jù)距離確定相似性,其過程中會(huì)損失一定的判別信息;本方法使用分類器得分衡量相似性,對(duì)特征的使用更加充分。

      基于遷移學(xué)習(xí)思想的模型更新策略:給定源域[DS]和源任務(wù)[TS]及目標(biāo)域[DT]和目標(biāo)任務(wù)[TT],當(dāng)[DS]與[DT]相似但不相等,且[TS=TT=T]時(shí),利用分類器對(duì)[DS]與[DT]打分,根據(jù)得分分布,對(duì)目標(biāo)域[DT]進(jìn)行篩選得到[DT′]。

      本文使用通用分類器(SVM)對(duì)各個(gè)樣本打分,根據(jù)得分的分布衡量目標(biāo)域與源域樣本的相似性。如圖4所示,源域與目標(biāo)域樣本所占比例最大的位于各自的中間位置,可以看出這一部分的樣本最能代表各自的域。根據(jù)這個(gè)理論,將目標(biāo)域樣本分為3個(gè)部分:分?jǐn)?shù)最高(max)、分?jǐn)?shù)中等(mid)以及分?jǐn)?shù)最低(min)。根據(jù)圖4可得分?jǐn)?shù)的高低所代表的意義如下:

      (1) max:與源域樣本交集最大,代表[DT]中與[DS]最相似的數(shù)據(jù),根據(jù)SVM分類器的特點(diǎn)可知這一部分?jǐn)?shù)據(jù)樣本距離分類面最遠(yuǎn)(識(shí)別為正樣本),最容易分辨。同時(shí),在同構(gòu)空間中對(duì)目標(biāo)域與源域樣本都有很好的判別能力,因此這部分?jǐn)?shù)據(jù)包含判別信息最多。

      (2) mid:目標(biāo)域中所占比例最大,與源域有一定交集,代表[DT]中與[DS]相關(guān)但有一定區(qū)別的數(shù)據(jù),這部分?jǐn)?shù)據(jù)在[DT]中處于主導(dǎo)地位,在數(shù)量上占有很高比例,根據(jù)SVM分類器的特點(diǎn)可知,這部分樣本位于分類面附近,包含一定的判別信息。

      (3) min:與源域樣本幾乎沒有交集,代表[DT]中與[DS]最不相似的數(shù)據(jù),根據(jù)SVM分類器特點(diǎn)可知這部分?jǐn)?shù)據(jù)距離分類面最遠(yuǎn)(識(shí)別為負(fù)樣本),包含判別信息最少。

      圖4 樣本得分分布圖

      在篩選數(shù)據(jù)時(shí)選擇max與mid樣本,過濾min樣本。min樣本包含判別信息最少,可能會(huì)對(duì)分類器產(chǎn)生負(fù)作用;max樣本包含了大量的判別信息;mid包含了目標(biāo)域的大部分特征。因此在max樣本中加入mid樣本可以使分類器在保證檢測(cè)能力的基礎(chǔ)上向目標(biāo)域遷移。

      具體算法如下所示:

      基于遷移學(xué)習(xí)思想的模型更新策略:

      /*初始化通用檢測(cè)器*/

      (1) 用源域數(shù)據(jù)訓(xùn)練模型:對(duì)[DS]數(shù)據(jù)提取HOG特征,用SVM分類器訓(xùn)練模型;

      (2) 加入難例:用訓(xùn)練好的分類器對(duì)負(fù)樣本重新檢測(cè),把檢測(cè)為正的樣本作為難例;

      (3) 訓(xùn)練通用檢測(cè)器:把難例加入負(fù)樣本,重新訓(xùn)練檢測(cè)器,得到通用檢測(cè)器;

      /*數(shù)據(jù)篩選*/

      (4) 篩選目標(biāo)域數(shù)據(jù):用通用檢測(cè)器對(duì)[DT]打分,按分?jǐn)?shù)把數(shù)據(jù)分為max,mid,min三類,選擇max和mid兩類數(shù)據(jù)構(gòu)成[DT′],過濾min;

      /*更新檢測(cè)器*/

      (5) 對(duì)過濾后得到的數(shù)據(jù)[DT′],提取HOG特征,用SVM訓(xùn)練模型;

      (6) 重復(fù)步驟(2);

      (7) 重新訓(xùn)練得到最終模型:加入步驟(6)中得到的難例,重新訓(xùn)練,得到最終的模型。

      2 實(shí) 驗(yàn)

      2.1 實(shí)驗(yàn)數(shù)據(jù)集與評(píng)測(cè)方法

      源域數(shù)據(jù)選擇的是INRIA行人數(shù)據(jù)庫(kù),INRIA數(shù)據(jù)庫(kù)中行人的正樣本有2 416張,分辨率為64×128,如圖5所示,負(fù)樣本有1 218張,每張負(fù)樣本隨機(jī)取10個(gè)64×128的圖像塊。目標(biāo)域數(shù)據(jù)選擇的是Caltech行人數(shù)據(jù)庫(kù),Caltech庫(kù)是由行車記錄儀拍攝得到的,特點(diǎn)是數(shù)據(jù)量大,用于訓(xùn)練的0~5有6萬多個(gè)正樣本,樣本間質(zhì)量差異較大,如圖6所示,min中樣本肉眼也不易分辨。Caltech中用于測(cè)試的6~10則包含了大量的被遮擋以及低分辨率的行人目標(biāo),是目前最有挑戰(zhàn)的數(shù)據(jù)庫(kù)之一。

      圖5 INRIA庫(kù)正樣本

      圖6 各分段樣本示例

      實(shí)驗(yàn)使用漏檢率(Miss Rate)和每張圖片中誤檢數(shù)(False Positive Per Image,F(xiàn)PPI)來衡量檢測(cè)效果[6]。漏檢率即未檢測(cè)出的行人樣本與行人樣本總數(shù)的比值,如式(1)所示:

      [missrate=FalseNegativeTruePositive + FalseNegative] (1)

      誤檢數(shù)代表將每張待檢測(cè)圖片中錯(cuò)誤標(biāo)記為正樣本的數(shù)量。

      2.2 實(shí)驗(yàn)結(jié)果與分析

      與Dalal提出的基于HOG特征的行人檢測(cè)[4]對(duì)比,在目標(biāo)域中也選擇大約2 000個(gè)正樣本,負(fù)樣本與文獻(xiàn)[4]中的方法一致,對(duì)1 218張INRIA的負(fù)樣本隨機(jī)截取12 180張。

      (1) 檢測(cè)出難例數(shù)量與迭代次數(shù)。Dalal在文獻(xiàn)[4]中提出了在訓(xùn)練出第一個(gè)檢測(cè)器后對(duì)負(fù)樣本檢測(cè),將檢測(cè)出的樣本作為難例加入負(fù)樣本重新訓(xùn)練,提出了迭代1次上述操作后難例減少,并且隨著迭代次數(shù)的增加檢測(cè)效果不變。在篩選數(shù)據(jù)后也重復(fù)了這一步驟,使用max樣本訓(xùn)練所得結(jié)果如圖7所示,可以看出難例與檢測(cè)效果的變化與Dalal所得結(jié)果一致,因此在后面對(duì)比實(shí)驗(yàn)中只選擇加入1次難例的結(jié)果。

      圖7 難例數(shù)量變化與檢測(cè)效果

      (2) 對(duì)數(shù)據(jù)的篩選。如前文所述,將目標(biāo)域數(shù)據(jù)分為max,mid與min,在每個(gè)分段中分別選擇2 000個(gè)正樣本用于訓(xùn)練,并根據(jù)樣本得分分布得出的假設(shè),選擇1 000個(gè)max樣本與1 000個(gè)mid樣本聯(lián)合訓(xùn)練,并且在樣本中隨機(jī)選擇2 000正樣本用作對(duì)比。

      圖8 實(shí)驗(yàn)結(jié)果對(duì)比圖

      如圖8(a)所示,實(shí)驗(yàn)結(jié)果證明了本文的假設(shè)。對(duì)于min來說,幾乎沒有判別信息,可以看出其漏檢率達(dá)到了100%(無檢測(cè)能力),同樣包含了部分min樣本的隨機(jī)選擇(Random)樣本漏檢率為92%,這也說明了大數(shù)據(jù)環(huán)境下數(shù)據(jù)樣本雖然很多,但由于樣本的質(zhì)量有所差異,因此無法直接使用。對(duì)于mid與max樣本漏檢率分別為63%與66%,而選擇max與mid樣本的實(shí)驗(yàn)結(jié)果漏檢率也達(dá)到了63%,證明了本文的假設(shè)是成立的。

      圖8(b)則提供了使用本策略更新后的檢測(cè)器與原始檢測(cè)器的分類效果對(duì)比,相對(duì)于原始基于HOG特征的行人檢測(cè),我們的方法在漏檢率上有了5%的提升。在時(shí)間及計(jì)算量方面,相對(duì)于原始方法,只增加了一次模型訓(xùn)練,檢測(cè)過程與原方法一致,檢測(cè)時(shí)間沒有增加。

      3 結(jié) 語

      大數(shù)據(jù)環(huán)境下用于行人檢測(cè)的數(shù)據(jù)樣本數(shù)量很多,然而由于樣本之間存在差異,這些數(shù)據(jù)無法直接使用。本文針對(duì)這一場(chǎng)景提出了基于遷移學(xué)習(xí)的提升人體檢測(cè)性能的方法,與傳統(tǒng)遷移學(xué)習(xí)方法相比,充分利用了已有數(shù)據(jù)樣本,與傳統(tǒng)人體檢測(cè)方法相比解決了數(shù)據(jù)樣本無法直接使用的問題。

      參考文獻(xiàn)

      [1] PAPAGEORGIOU C, POGGIO T. A trainable system for object detection [J]. International Journal of Computer Vision, 2000, 38(1): 15?33.

      [2] DEPOORTERE V, CANT J, VAN DEN BOSCH B, et al. Efficient pedestrian detection: a test case for svm based categorization [C]// Proceedings of Workshop on Cognitive Vision. [S.l.]: [s.n.] 2002: 1241?1248.

      [3] VIOLA P, JONES M J. Robust real?time face detection [J]. International Journal of Computer Vision, 2004, 57(2): 137?154.

      [4] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection [C]// Computer Vision and Pattern Recognition. Montbonnot:[s.n.], 2005: 886?893.

      [5] FELZENSZWALB P Fl. Object detection with discriminatively trained part?based models [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627?1645.

      [6] DOLL?R P, WOJEK C, SCHIELE B, et al. Pedestrian detection: A benchmark [C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL, USA: IEEE, 2009: 304?311.

      [7] PAN S J, YANG Q. A survey on transfer learning [J]. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10): 1345?1359.

      [8] URIBE D. Domain adaptation in sentiment classification [C]// Proceedings of 2010 Ninth International Conference on Machine Learning and Applications. [S.l.]: ICMLA, 2010: 111?121.

      [9] ZHUANG F. Concept learning for cross?domain text classification: a general probabilistic framework [C]// Proceedings of the Twenty?Third international joint conference on Artificial Intelligence. [S.l.]: [s.n.], 2013: 654?661.

      [10] GOPALAN R, LI R, CHELLAPPA R. Domain adaptation for object recognition: An unsupervised approach [C]// Procdeedings of 2011 IEEE International Conference on Computer Vision. [S.l.]: ICCV, 2011: 612?634.

      [11] JHUO I H. Robust visual domain adaptation with low?rank reconstruction [C]// Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: CVPR, 2012: 6247924.

      [12] 于立萍,唐煥玲.基于分類一致性的遷移學(xué)習(xí)及其在行人檢測(cè)中的應(yīng)用[J].山東大學(xué)學(xué)報(bào):工學(xué)版,2013,43(4):26?31.

      [13] WANG M, WANG X. Automatic adaptation of a generic pedestrian detector to a specific traffic scene [C]// Proceedings of 2011 IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: CVPR, 2011: 5995698.

      [14] WANG Meng, LI W, WANG X. Transferring a generic pedestrian detector towards specific scenes [C]// Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, RI USA: IEEE, 2012: 3274?3281.

      [15] WANG X, WANG M, LI W. Scene?specific pedestrian detection for static video surveillance [J]. IEEE Trans on PAMI, 2014, 36(2): 361?374.

      [16] MUNDER S, GAVRILA DM. An experimental study on pedestrian classification [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(11): 1863?1868.

      [17] ESS A, LEIBE B, VAN GOOL L, et al. Depth and appearance for mobile scene analysis [C]// Proceedings of 2007 IEEE 11th International Conference on Computer Vision. [S.l.]: IEEE, 2007: 1?5.

      [18] OVERETT G, PETERSSON L, BREWER N, et al. A new pedestrian dataset for supervised learning [C]// 2008 IEEE Intelligent Vehicles Symposium. [S.l.]: IEEE, 2008: 123?128.

      [19] ENZWEILER M, GAVRILA D M. Monocular pedestrian detection: Survey and experiments [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(12): 2179?2195. [10.1109/TPAMI.2008.260].

      [20] DAI Wen?yuan, YANG Qiang, XUE Gui?rong, et al. Boosting for transfer learning [C]// Proceedings of the 24th international Conference on Machine Learning. [S.l.]: ACM, 2007: 234?239.

      [21] LIANG F. A sparse coding based transfer learning framework for pedestrian detection [C]// Proceedings of Advances in multimedia modeling. [S.l.]: Springer. 2013: 272?282.

      猜你喜歡
      遷移學(xué)習(xí)大數(shù)據(jù)
      從認(rèn)知角度探討大學(xué)英語網(wǎng)絡(luò)教學(xué)模式
      基于多特征融合的跨域情感分類模型研究
      奇異值分解與移移學(xué)習(xí)在電機(jī)故障診斷中的應(yīng)用
      基于大數(shù)據(jù)背景下的智慧城市建設(shè)研究
      科技視界(2016年20期)2016-09-29 10:53:22
      一種基于遷移極速學(xué)習(xí)機(jī)的人體行為識(shí)別模型
      鹤峰县| 光泽县| 哈密市| 沙田区| 兴和县| 台安县| 大田县| 曲阜市| 南华县| 陇川县| 塔城市| 崇文区| 宁海县| 长寿区| 香格里拉县| 昌邑市| 聂拉木县| 察雅县| 黑龙江省| 井陉县| 哈巴河县| 左贡县| 石台县| 襄樊市| 兰西县| 富川| 彭阳县| 扶绥县| 武义县| 徐水县| 灵山县| 韶山市| 辽宁省| 合江县| 高要市| 宁津县| 普洱| 松滋市| 西吉县| 阜康市| 庄浪县|