• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      候選框

      • 迭代框架優(yōu)化的密集場景單棵樹木檢測
        預(yù)設(shè)的錨框產(chǎn)生候選框,然后進行特征提取,最后進入分類和回歸的流程.Mask R-CNN[11]采用RoI Align代替RoI Pooling進行進一步優(yōu)化,解決了RoI特征和回歸位置的不匹配問題.王文豪等人[12]認為該類算法感受野較大,不適合遙感圖像中目標(biāo)偏小的情況.單階段檢測以YOLO系列[13]和SSD系列[14]為代表,跳過了候選框的生成步驟,直接回歸得到類別概率和樣本坐標(biāo).YOLO系列對比兩階段檢測速度更快,但精度有所下降且泛化性弱.SSD系列

        小型微型計算機系統(tǒng) 2023年11期2023-11-10

      • 基于改進AI-YOLO v4算法的施工現(xiàn)場安全預(yù)警技術(shù)研究
        定框;B為預(yù)測候選框。很明顯,如果A∩B=?,那么交并比為0,無法進行網(wǎng)絡(luò)訓(xùn)練[14]。結(jié)合前人的研究成果,對其進行改進,定義邊界框回歸損失函數(shù)(GIOU)為:(4)式中:C為包含A和B的最小框。很明顯所定義的邊界框回歸損失函數(shù)沒有考慮真實標(biāo)定框和預(yù)測候選框中心的距離,對其進行修正,提出新的邊界框回歸損失函數(shù),即:(5)式中:b、bgt分別為預(yù)測框與真實框的中心點;ρ(b,bgt)為預(yù)測框與真實框中心點歐氏距離;c為預(yù)測框與真實框相交矩形區(qū)域?qū)蔷€長度;ω

        粘接 2023年10期2023-10-20

      • 圖像級標(biāo)記弱監(jiān)督目標(biāo)檢測綜述
        上生成大量目標(biāo)候選框,然后對目標(biāo)候選框提取特征并預(yù)測其類別,最后將預(yù)測結(jié)果與輸入的圖像類別標(biāo)記計算損失并以此更新模型參數(shù)。所以,整個弱監(jiān)督目標(biāo)檢測問題可理解為學(xué)習(xí)一個從圖像包含的若干候選框到圖像類別標(biāo)記的映射關(guān)系。圖1 弱監(jiān)督目標(biāo)檢測訓(xùn)練和測試示意圖Fig.1 Illustration of training and test phases in weakly-supervised object detection1.2 基礎(chǔ)框架弱監(jiān)督目標(biāo)檢測所需解決的問

        中國圖象圖形學(xué)報 2023年9期2023-09-26

      • 改進YOLOv4的安全帽佩戴檢測方法
        數(shù);最后采用多候選框學(xué)習(xí)策略減少漏檢的概率。實驗表明,改進后的方法在視頻監(jiān)控下滿足安全帽佩戴檢測的準確性和實時性。1 YOLOv4原理1.1 特征提取網(wǎng)絡(luò)CSPDarkNet53YOLOv4使用新的特征提取網(wǎng)絡(luò)CSPDarkNet53代替YOLOv3[5]中采用的darknet53特征提取網(wǎng)絡(luò)。新的特征提取網(wǎng)絡(luò)首先借鑒CSPNet[6](Cross Stage Partial Network)網(wǎng)絡(luò)結(jié)構(gòu),將梯度變化整合到特征圖中,增強卷積網(wǎng)絡(luò)的學(xué)習(xí)能力,在保

        計算機應(yīng)用與軟件 2023年2期2023-03-15

      • 基于改進Faster R-CNN的航空發(fā)動機制件表面缺陷檢測算法
        測精度,并根據(jù)候選框尺度截取對應(yīng)層級的特征圖,該模型在傳統(tǒng)目標(biāo)檢測中檢測精度有較大提升,但在航空部件的缺陷檢測中效果并不好,仍有較大改進空間。在此次研究中,由于實際生產(chǎn)數(shù)據(jù)未脫敏,同時也為了更好地和其他模型進行比較,本文作者選取和實際制件數(shù)據(jù)較為接近的東北大學(xué)鋼帶表面缺陷公共數(shù)據(jù)集NEU-DET[7]作為研究對象,提出一個基于Faster R-CNN的改進模型(如圖1所示)。該模型使用深度殘差網(wǎng)絡(luò)ResNet-50[8]作為卷積部分提取缺陷特征,使用含有內(nèi)

        機床與液壓 2022年23期2022-12-29

      • 面向設(shè)備開關(guān)圖像識別的改進Faster R-CNN①
        強、特征融合和候選框的設(shè)計改進Faster R-CNN 模型.上述方法均是針對單一的開關(guān)類型,只能應(yīng)用到相近的領(lǐng)域,限制了方法的普適性.相較于上述文獻中所述的設(shè)備開關(guān)操作場景,本文研究的操作場景更加復(fù)雜,具體表現(xiàn)為設(shè)備控制所涉及的開關(guān)種類繁多、同類開關(guān)形狀與大小也各異.從開關(guān)的類型及其狀態(tài)劃分,總共分為18 類開關(guān),36 種開關(guān)狀態(tài); 從圖像數(shù)據(jù)分析,圖像中的開關(guān)密集分布,形狀相似,數(shù)量較多.這些都給開關(guān)識別帶來了很大的困難.針對這些挑戰(zhàn),本文提出了一種面

        計算機系統(tǒng)應(yīng)用 2022年10期2022-11-07

      • 一種改進的多任務(wù)級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)人臉檢測算法
        質(zhì)就是篩選人臉候選框的過程,在這個過程中使用的篩選算法是NMS算法。該算法在目標(biāo)檢測領(lǐng)域被廣泛應(yīng)用,其主要目的是更好地排除冗余的檢測框,保留精準度更高的回歸窗口。在傳統(tǒng)的NMS算法中,交并比(Intersection over Union, IOU)閾值的設(shè)置會直接影響到候選框的保留或者刪除,若閾值過高則達不到過濾的作用,而閾值設(shè)置過低則會刪除掉大量的候選框,難以實現(xiàn)分類平衡。因此,在實際應(yīng)用的過程中找到一個合適的閾值是困難的。IOU是判斷人臉框擾動程度的

        信陽師范學(xué)院學(xué)報(自然科學(xué)版) 2022年4期2022-11-01

      • 結(jié)合強化學(xué)習(xí)自適應(yīng)候選框挑選的SAR目標(biāo)檢測方法
        N)產(chǎn)生的大量候選框進行挑選時,往往采用非極大值抑制(Non-Maximum Suppression,NMS)方法。在大場景SAR圖像檢測中,由于目標(biāo)特征易受雜波影響,可鑒別性更差,并且單個目標(biāo)占據(jù)圖像比例更小,導(dǎo)致基于Faster R-CNN的目標(biāo)檢測方法在整張?zhí)卣鲌D上產(chǎn)生的候選框會包含大量雜波,而NMS方法無法在篩選候選框時有效去除雜波,導(dǎo)致目標(biāo)檢測產(chǎn)生大量虛警。近幾年,在人工智能領(lǐng)域中,強化學(xué)習(xí)[14,15]得到了廣泛關(guān)注。強化學(xué)習(xí)根據(jù)當(dāng)前自身狀態(tài)(

        雷達學(xué)報 2022年5期2022-11-01

      • 基于輕量化SSD算法的行人目標(biāo)檢測
        )減少篩選區(qū)域候選框以及選用自適應(yīng)極大值抑制方法排除重疊檢測框,在人群密度不一致的情況下,提高了檢測的精度和速度。2)通過使用MobilenetV2網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)的VGG網(wǎng)絡(luò)進行特征提取,減少模型規(guī)模。2 相關(guān)工作2.1 SSD檢測算法針對傳統(tǒng)目標(biāo)識別中的問題,基于深度學(xué)習(xí)的目標(biāo)識別檢測方法被提出,Ross Girshick等人于2014年提出R-CNN算法,這是首個將深度學(xué)習(xí)成功應(yīng)用于目標(biāo)識別檢測上的算法,Ross Girshick等人又于2015年提出F

        計算機仿真 2022年9期2022-10-25

      • Fast Stereo-RCNN三維目標(biāo)檢測算法
        采樣,生成三維候選框.第2步三維候選框投影生成二維檢測框,F(xiàn)aster-RCNN[5]提取特征,依據(jù)語義、上下文、先驗信息計算檢測框的損失函數(shù),精確提取三維檢測框.Mono3D用復(fù)雜的先驗信息提取三維檢測框,存在損失函數(shù)誤差累計問題,平均檢測精度為2.38%.候選框密集采樣與多個先驗特征融合計算量大,檢測速度為3秒/幀.Li等人在2019年提出了基于Faster-RCNN的Stereo-RCNN[7]三維目標(biāo)檢測算法.Stereo-RCNN將雙目圖像作為網(wǎng)

        小型微型計算機系統(tǒng) 2022年10期2022-10-15

      • 面向多目標(biāo)跟蹤系統(tǒng)的專用循環(huán)目標(biāo)檢測器
        ch 方法選取候選框并分別進行分類和位置回歸。在此基礎(chǔ)上,文獻[2]和文獻[3]分別實現(xiàn)了端到端的訓(xùn)練方式、ROI Pooling 技術(shù)和候選框推薦網(wǎng)絡(luò)(RPN)代替Selective search 選取候選框等優(yōu)化策略,進一步提高了網(wǎng)絡(luò)的訓(xùn)練速度和檢測速度。文獻[4]通過級聯(lián)幾個檢測網(wǎng)絡(luò)達到不斷優(yōu)化預(yù)測結(jié)果的目的,與普通級聯(lián)不同的是,它的幾個檢測網(wǎng)絡(luò)是基于不同IOU 閾值確定的正負樣本上訓(xùn)練得到的。對一階段目標(biāo)檢測器,文獻[5]首先在圖像上預(yù)定義預(yù)測區(qū)域

        計算機工程與應(yīng)用 2022年18期2022-09-21

      • 基于多閾值判斷的單線激光雷達草叢識別方法
        的差值。圖6 候選框示意圖Fig.6 Candidate box schematic分析可知,草叢障礙物與其他障礙物的特征區(qū)別在于相鄰點云之間的斜率變化。從圖5中的點云連接線的斜率分布情況可以看出,從左到右,斜率不斷在突變,因此相鄰點云連接線的斜率差值比較大,對于其他連續(xù)體障礙物來說,斜率雖有變化,但是突變情況很少,因此對于這類障礙物的斜率差值變化就比較小。通過這一特征規(guī)律,斜率差值可以作為草叢障礙物和其他連續(xù)體障礙物的根本區(qū)別。相鄰兩紅色連接線間的斜率差

        科學(xué)技術(shù)與工程 2022年20期2022-08-24

      • 結(jié)合Faster-RCNN和局部最大值法的森林單木信息提取
        絡(luò)用來獲得單木候選框,外包框提取網(wǎng)絡(luò)基于單木候選框獲取最終單木外包框。1.2.1 特征提取網(wǎng)絡(luò)VGG-16 網(wǎng)絡(luò)[14]被用來作為特征提取網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)構(gòu)簡潔,具有良好的遷移能力,適合在CHM 模型上進行提取特征。VGG-16 網(wǎng)絡(luò)的輸出為CHM 特征圖,大小為CHM的1/16,CHM特征圖是RPN的輸入。傳統(tǒng)方法中為減少點云噪聲和CHM 中空洞對尋找樹頂點的影響,會利用不同窗口大小的濾波器對CHM進行濾波,濾波器窗口大小的選擇會對提取結(jié)果有巨大影響。窗口

        實驗室研究與探索 2022年4期2022-08-06

      • 重定位非極大值抑制算法
        置和尺寸不同的候選框,這些候選框大部分聚集在可能包含感興趣目標(biāo)的區(qū)域,對這些候選框執(zhí)行保留和抑制操作很有必要。這些候選框只包含坐標(biāo)與類別置信度信息。其中,坐標(biāo)并不能作為決定最優(yōu)邊界框的依據(jù),而類別置信度作為一個類別概率標(biāo)簽,用于表示候選框中存在某個類別物體的概率,類別置信度越高,候選框中存在某個類別物體的可能性越大。最優(yōu)邊界框的選定會影響后續(xù)的候選框抑制操作,如果不選擇類別置信度得分最高的候選框而是選擇其它候選框作為最優(yōu)邊界框,會導(dǎo)致類別置信度得分最高的候

        光學(xué)精密工程 2022年13期2022-08-02

      • 基于改進MDNet 的視頻目標(biāo)跟蹤算法①
        的高層特征, 候選框的選取部分借鑒了RCNN[12], 具有很高的跟蹤準確率. 但一般來說, 跟蹤模型會隨著目標(biāo)的變化而穩(wěn)定變化, 當(dāng)目標(biāo)出現(xiàn)一些復(fù)雜情況時, 模型更新會使得模型的可靠性降低, 用這樣的模型去進行后續(xù)的跟蹤, 很難重新準確定位目標(biāo); 跟蹤問題中, 每幀的正樣本在空間上高度重疊,不能捕獲豐富的外觀變化, 并且正樣本和負樣本極度不平衡. 本文在MDNet 算法基礎(chǔ)上提出了一種基于候選框置信度與坐標(biāo)方差閾值判斷相結(jié)合的模型更新方法, 使其正樣本在

        計算機系統(tǒng)應(yīng)用 2022年5期2022-06-27

      • 基于Two-Stage的目標(biāo)檢測算法綜述
        oposal(候選框)+卷積神經(jīng)網(wǎng)絡(luò)+SVM(支持向量機)的組合模式出現(xiàn)在大眾的視野中,這種Two-Stage目標(biāo)檢測模型以其優(yōu)秀的準確率為目標(biāo)檢測的研究提供了一個新的思路。Two-Stage(兩階段)目標(biāo)檢測是將檢測流程分為兩部分,首先要生成候選區(qū)域,再判斷候選區(qū)域中是否存在需要檢測的物體,以及該物體的類別。目前最為流行的Two-Stage算法是R-CNN系列,其中包括R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN等,本文就以

        河北省科學(xué)院學(xué)報 2022年2期2022-05-18

      • 基于頭部姿態(tài)識別的學(xué)習(xí)狀態(tài)檢測系統(tǒng)的實現(xiàn)
        處理,得到最優(yōu)候選框。圖1 SSD算法模型架構(gòu)Fig.1 SSD algorithm model architectureSSD算法模型使用了6張大小不同的預(yù)測特征圖來檢測不同尺度的目標(biāo),分別來自conv4_3,conv7,conv8_2,conv9_2,conv10_2和conv11_2卷積層,前端網(wǎng)絡(luò)提取的特征圖尺寸大,細節(jié)性較好,適用于檢測小物體。隨著特征圖尺寸的變小,細節(jié)性也隨之變差,適用于檢測大物體。除此之外,SSD網(wǎng)絡(luò)設(shè)置了不同寬高比的預(yù)測候選

        沈陽師范大學(xué)學(xué)報(自然科學(xué)版) 2022年1期2022-05-05

      • 基于YOLOV4的港口作業(yè)人員檢測系統(tǒng)研究
        和回歸器,得出候選框類別和精確位置,最后利用非極大值抑制算法去除高度重疊的檢測框,獲得高質(zhì)量的檢測目標(biāo),從而實現(xiàn)目標(biāo)的精確分類和定位,其工作過程如圖2 所示。Fig.2 Working process of Faster R-CNN algorithm圖2 Faster R-CNN 算法工作過程1.1.1 區(qū)域建議網(wǎng)絡(luò)大部分目標(biāo)算法生成的候選框都比較耗時,例如利用滑動窗口法和圖像金字塔生成候選框,又如RCNN 算法中使用選擇性搜索方法生成候選框。Faste

        軟件導(dǎo)刊 2022年3期2022-03-25

      • 基于改進Faster RCNN 的目標(biāo)檢測算法?
        擇性搜索來提取候選框使得模型無法滿足實時性檢測的需求。于是任少卿等繼續(xù)提出了Fast R-CNN 的改進版Faster R-CNN[15],使用區(qū)域生成網(wǎng)絡(luò)RPN(Region Proposal Network)代替選擇性搜索方法,更高效地生成候選區(qū)域。以上這些網(wǎng)絡(luò)模型都需要先生成一系列的候選區(qū)域,再通過卷積神經(jīng)網(wǎng)絡(luò)進行分類。Joseph Redmon 等提出的YOLO(You Only Look Once)[16]網(wǎng)絡(luò)模型取消了區(qū)域生成網(wǎng)絡(luò),直接回歸目標(biāo)

        計算機與數(shù)字工程 2022年12期2022-03-18

      • 聯(lián)合YOLOv4檢測的候選框選擇和目標(biāo)跟蹤方法
        和跟蹤結(jié)果作為候選框,通過分類選擇器選擇最優(yōu)的候選結(jié)果。本文還加入了基于外觀向量身份重識別(ReID)算法提取深度外觀特征,用于將跟蹤軌跡和選定候選對象關(guān)聯(lián)。1 基本概念當(dāng)前的目標(biāo)跟蹤算法主流是DBT,所以檢測質(zhì)量對跟蹤的性能影響很大。將深度學(xué)習(xí)檢測分為兩類:基于分類的R-CNN系列目標(biāo)檢測算法和將檢測轉(zhuǎn)換為回歸的檢測算法。前者首先通過Selective Search等算法產(chǎn)生候選 區(qū)域,代表算 法有R-CNN、Faster R-CNN、Mask RCNN

        現(xiàn)代電子技術(shù) 2022年3期2022-02-16

      • 基于改進SSD算法對奶牛的個體識別
        特征圖。此外,候選框的尺寸比例也需要人工根據(jù)經(jīng)驗設(shè)置。本文以SSD算法為基礎(chǔ),針對前文提到的兩個缺點,對SSD算法進行改進,提出了基于淺層特征模塊的改進SSD(shallow feature module SSD,SFM-SSD)算法。SFM-SSD在原始SSD算法的基礎(chǔ)上,將主干卷積神經(jīng)網(wǎng)絡(luò)由VGG16換為MobileNetV2,利用MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)中的深度可分離卷積[14]來降低網(wǎng)絡(luò)的運算量;再利用淺層特征模塊(shallow featu

        計算機工程與應(yīng)用 2022年2期2022-01-25

      • 面向自然場景文本檢測的改進NMS算法
        算法會產(chǎn)生大量候選框,其中大部分候選框并不緊靠目標(biāo)文本區(qū)域,并且該類候選框的存在將直接導(dǎo)致最終檢測效果較差。檢測效果較差主要由兩種情況造成:(1)如圖1(c)中紫色檢測框所示,對長文本區(qū)域,受卷積核感受野等影響,選擇單一檢測框定位往往不夠準確。(2)如圖1(c)中紅色檢測框所示,對多個鄰近文本區(qū)域,相鄰檢測框易產(chǎn)生混疊現(xiàn)象,對文本區(qū)域定位較差。在本文中,針對自然場景文本檢測在后處理階段產(chǎn)生的檢測結(jié)果不緊靠文本區(qū)域的問題,提出了一種改進的NMS算法。圖1 N

        計算機工程與應(yīng)用 2022年1期2022-01-22

      • 基于優(yōu)化候選區(qū)域的戰(zhàn)場目標(biāo)檢測研究
        PN網(wǎng)絡(luò)來提取候選框,該改進算法對車輛有較高的檢測精度,但在物體模糊不清或者有遮擋發(fā)生時,會出現(xiàn)漏檢的情況。張御宇等[5],針對小尺度目標(biāo)提出改進的Faster R-CNN算法,該算法增強了高低卷積層間的信息傳遞,增加錨的尺寸和錨框選擇策略,檢測準確率有了明顯的提高,但文中沒有考慮改進算法的耗時問題。綜上所述,本文提出基于優(yōu)化候選區(qū)域的Faster R-CNN算法主要針對小型目標(biāo)和存在遮擋影響的目標(biāo)檢測問題。1)在主網(wǎng)絡(luò)conv3-3和conv5-3卷積層

        計算機仿真 2021年10期2021-11-19

      • 基于改進SSD算法的學(xué)生課堂行為狀態(tài)識別
        對SSD算法的候選框設(shè)計及損失函數(shù)進行改進:一方面采用K-means聚類算法統(tǒng)計訓(xùn)練集真實框長寬比,重新設(shè)置SSD網(wǎng)絡(luò)預(yù)測層候選框比例及分布,增大候選框與真實框的匹配度;另一方面融合焦點損失函數(shù)調(diào)節(jié)樣本權(quán)重,解決訓(xùn)練時正負樣本及難易分類樣本不平衡問題?;诟倪MSSD算法對智慧教室中舉手、睡覺、回答、寫字、聽講5類學(xué)生課堂行為狀態(tài)進行識別。1 原理與方法圖1所示為基于改進的SSD算法的學(xué)生課堂行為狀態(tài)識別的實現(xiàn)流程。由圖可見,實現(xiàn)對學(xué)生課堂行為狀態(tài)識別包括3

        計算機工程與設(shè)計 2021年10期2021-11-01

      • 融合神經(jīng)網(wǎng)絡(luò)與超像素的候選區(qū)域優(yōu)化算法
        約2 000個候選框;在Faster RCNN中,使用候選區(qū)域網(wǎng)絡(luò)(Region Proposals Network, RPN)生成大約800個候選框[5]。當(dāng)前主流候選區(qū)域算法主要有Object-ness[6],BING[7]及Edge Boxes[8]。隨著深度神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展,其已經(jīng)在目標(biāo)檢測、圖像哈希(Image Hashing,IH)、圖像細分類、視覺描述與生成、視覺問答等方面有著廣泛的應(yīng)用[9]。特別地,文獻[10]使用循環(huán)神經(jīng)網(wǎng)絡(luò)作為代理來

        國防科技大學(xué)學(xué)報 2021年4期2021-08-24

      • 改進Faster R-CNN的快件搬運機器人視覺定位策略
        rch算法生成候選框,但只在單層卷積層的feature map上生成候選框且RPN和最后的分類與回歸層都各自用目標(biāo)函數(shù)進行分類與回歸,導(dǎo)致運算量還是偏大,精度仍不高。為改進上述問題, 在Faster-RCNN的網(wǎng)絡(luò)模型基礎(chǔ)上增加卷積層,在多層卷積層的feature map上生成候選框且用兩個3×3卷積核分別進行卷積運算,直接進行分類和回歸。該改進的Faster-RCNN檢測到所設(shè)計導(dǎo)航圖案中目標(biāo)的區(qū)域后,再通過Harris角點檢測算法提取目標(biāo)區(qū)域的參考角點

        湖北工業(yè)大學(xué)學(xué)報 2021年4期2021-08-24

      • 基于YOLOv3改進的手勢檢測算法*
        (NMS)選取候選框不夠準確的特點,引入了加權(quán)NMS[16],并根據(jù)候選框的位置關(guān)系去除冗余的候選框。在Egohands數(shù)據(jù)集[17]中實驗表明,本文提出的算法相對于標(biāo)準的YOLOv3算法在準確率和mAP上有較大的提升。1.1 Kmeans++重聚類原始的YOLOv3網(wǎng)絡(luò)使用Kmeans在VOC、COCO等數(shù)據(jù)集上進行聚類,得到的聚類中心并不符合本文數(shù)據(jù)庫中的手勢分布,所以對數(shù)據(jù)集進行重新聚類有助于網(wǎng)絡(luò)更快地收斂以及更準確的回歸。Kmeans++相對于Km

        機電工程技術(shù) 2021年6期2021-07-25

      • 基于改進區(qū)域推薦網(wǎng)絡(luò)的多尺度目標(biāo)檢測算法
        測器模塊,加入候選框重疊度DOL,該公式的核心是分別計算出大目標(biāo)與小目標(biāo)候選框的重疊面積和單獨一個小目標(biāo)的候選框面積,若前者超過后者的θ倍,就把相應(yīng)的小目標(biāo)候選框刪除,從而達到減少目標(biāo)檢測時間和提升算法對不同尺度目標(biāo)的檢測效果。3.1 區(qū)域生成網(wǎng)絡(luò)RPNS和RPNB傳統(tǒng)的Faster R-CNN 算法在目標(biāo)檢測時,首先將要進行目標(biāo)檢測的圖片輸入到網(wǎng)絡(luò)中,通過卷積層的卷積操作,產(chǎn)生不同尺度的特征圖(Feature map),特征圖一部分直接送到分類器進行分類

        安慶師范大學(xué)學(xué)報(自然科學(xué)版) 2021年2期2021-06-28

      • 改進深度可分離卷積的SSD車型識別
        。由于該方法對候選框進行了預(yù)分類,雖然車型識別的精度有所提高,但是檢測速度較慢。文獻[9]融合循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)嵌入二級框架,增強了內(nèi)部特征信息的完整性,在對視頻監(jiān)控圖像中車型識別的精確性上表現(xiàn)良好,但是其存在模型過大、運行時內(nèi)存占用高的問題。SSD目標(biāo)檢測算法在檢測精度和速度方面綜合性能更好,但仍存在參數(shù)多導(dǎo)致模型臃腫的缺點[10]。結(jié)合上述研究,筆者提出使用改進的深度可分離卷積作為SSD算法基礎(chǔ)網(wǎng)絡(luò),對特征提取過程進行簡化,重新設(shè)計區(qū)域候選框,

        重慶大學(xué)學(xué)報 2021年6期2021-06-24

      • 基于Soft-NMS的候選框去冗余加速器設(shè)計*
        網(wǎng)絡(luò)輸出的冗余候選框,找到最佳的目標(biāo)位置,提高檢測的準確率。文獻[6]的研究表明NMS在基于RPN+Fast-R-CNN網(wǎng)絡(luò)的目標(biāo)檢測應(yīng)用計算任務(wù)中占22%左右計算延遲,因此對NMS的量化與加速也很值得研究。文獻[7]中給出了最常用的Hard-NMS方法,將所有的候選框按得分值從高到低排序,選取得分值最高的候選框(本文稱為靶候選框),刪除所有與靶候選框的重疊率超出閾值(本文設(shè)為Nt)的候選框,對未刪除的候選框選取得分值最高的繼續(xù)此操作。Hard-NMS是一

        計算機工程與科學(xué) 2021年4期2021-05-11

      • 基于目標(biāo)檢測算法的安全帽佩戴智能識別
        像內(nèi)的物體生成候選框,并對該候選框內(nèi)的物體進行分類識別。基于目標(biāo)檢測算法識別圖像時,首先將圖像送入到訓(xùn)練好的模型中,然后對輸入圖像進行運算處理,生成候選框,同時對候選框內(nèi)的物體進行分類,最后用NMS算法去除冗余的候選框。識別流程如圖1所示。圖1 目標(biāo)檢測流程常用的目標(biāo)檢測算法模型有基于區(qū)域的R系列模型和基于回歸的模型。R系列模型的特點是:用端到端的卷積網(wǎng)絡(luò)模型進行識別檢測,保證一定的精度,但其實時性和檢測速度有待提高?;貧w模型的特點是:將檢測任務(wù)轉(zhuǎn)換為回歸

        水泥技術(shù) 2021年2期2021-04-20

      • 使用候選框進行全卷積網(wǎng)絡(luò)修正的目標(biāo)分割算法
        思路是首先依靠候選框網(wǎng)絡(luò),產(chǎn)生高置信度的候選框實現(xiàn)了對待檢測目標(biāo)的框定及分類,然后將框內(nèi)的特征像素導(dǎo)入全卷積網(wǎng)絡(luò),進而得到分割掩碼。這種方式能夠?qū)崿F(xiàn)較高的分割精度,但對于液晶面板場景中多種尺度共存、語義信息模糊的缺陷,其檢測精度達不到要求,這是因為候選框內(nèi)的特征圖的像素分辨率相較于原圖已經(jīng)縮小了數(shù)十倍,在此之上進行反卷積操作導(dǎo)致最終分割粒度太粗,小目標(biāo)的缺陷很容易被忽略;②直接將卷積神經(jīng)網(wǎng)絡(luò)最后一層卷積層的特征進行上采樣,得到和原圖相同分辨率的特征圖,這就

        重慶郵電大學(xué)學(xué)報(自然科學(xué)版) 2021年1期2021-03-11

      • FRDet:一種基于候選框特征修正的多方向遙感目標(biāo)快速檢測方法
        重依賴高密度的候選框去覆蓋目標(biāo)所在的區(qū)域,尤其是在遙感場景中,通常采用的實現(xiàn)高覆蓋率的方法是使用多種尺度和寬高比的候選框。例如,TextBoxes++[5]基于SSD[6]檢測網(wǎng)絡(luò)定義了7種特定的寬高比(包括1、2、3、5、1/2、1/3和1/5)的候選框。DMPNet[7]添加了幾個旋轉(zhuǎn)框,合計12個(6個常規(guī)和6個傾斜)用以完全覆蓋任意方向的目標(biāo)。DeepTextSpotter[8]跟著YOLOv2[9]利用訓(xùn)練集上的k均值聚類(k=14)框以自動找到

        計算機與現(xiàn)代化 2021年2期2021-02-27

      • 基于改進SSD 框架的遙感影像飛機目標(biāo)檢測方法*
        較高,但必須將候選框輸入CNN 中再檢測,導(dǎo)致檢測速度較慢。第2 類方法的代表為YOLO[6](You Only Look Once)、單一目標(biāo)多尺度檢測框架[7](Single Shot MultiBox Detector,SSD)等,它的思想是利用深度卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征后,將特征圖均勻分割成網(wǎng)格,在網(wǎng)格上使用候選框檢測目標(biāo)。由于減少了輸入候選框到CNN 中再檢測的環(huán)節(jié),SSD 方法的檢測速度相對較高,是飛機目標(biāo)檢測的首選框架,但存在的問題是對不同

        火力與指揮控制 2021年1期2021-02-03

      • 一種改進的輕量人頭檢測方法
        法分析設(shè)置初始候選框,提高候選框的精度。在測試集上對該方法進行測試,與改進前的方法對比,漏檢率降低,檢測精度和檢測速度均有所提升。1 YOLOv3-tiny檢測算法YOLOv3-tiny 是YOLOv3(You Only Look Once)的輕量級版本,作為目前最優(yōu)秀的目標(biāo)檢測架構(gòu)之一,采用回歸的方式做到了真正的端到端檢測,極大地提高了檢測實時性,并且借鑒了FPN 的思想,在多個尺度的融合特征圖上分別獨立做檢測,以輕量級、成本低的優(yōu)點已被廣泛運用于各大工

        計算機工程與應(yīng)用 2021年1期2021-01-11

      • 基于深度學(xué)習(xí)的航空發(fā)動機安裝位置識別
        ,每種尺度上的候選框數(shù)量為A,預(yù)測的類別是C,則最終每個特征尺度上預(yù)測得到的結(jié)果是一個S×S×A×(4+1+C)維度的張量.不同于SSD算法,YOLOv3沒有將主干網(wǎng)絡(luò)的中間特征圖直接作為輸出,而是將下一層的網(wǎng)絡(luò)特征圖進行上采樣后與上一層特征圖拼接.將3種尺度的特征圖進行融合,豐富了網(wǎng)絡(luò)結(jié)構(gòu),這也是YOLOv3檢測效果要優(yōu)于SSD算法的原因之一.3 算法改進與模型訓(xùn)練YOLOv3利用深度殘差網(wǎng)絡(luò)提取圖像特征,并利用多尺度融合進行檢測,可以較好實現(xiàn)目標(biāo)檢測任

        北京交通大學(xué)學(xué)報 2020年5期2020-11-17

      • 基于深度學(xué)習(xí)的多目標(biāo)識別在移動智能體中的應(yīng)用?
        絡(luò)的檢測方法將候選框提取、特征提取、目標(biāo)分類、目標(biāo)定位統(tǒng)一于一個神經(jīng)網(wǎng)絡(luò)中。神經(jīng)網(wǎng)絡(luò)[9]直接從圖像中提取候選區(qū)域,通過整幅圖像特征來預(yù)測行人位置和概率。將行人檢測問題轉(zhuǎn)化為回歸問題,真正實現(xiàn)端到端的檢測。本文中的多目標(biāo)識別主要是對移動智能體運動過程中采集的實時視頻,首先進行候選框提取,判斷其中是否包含障礙物,若有則給出目標(biāo)位置。實際上,大部分的初始候選框中并不包含障礙物,如果對每個初始候選框都直接預(yù)測目標(biāo)的概率,會大大增加網(wǎng)絡(luò)學(xué)習(xí)的難度。在本文的識別方法

        計算機與數(shù)字工程 2020年5期2020-07-13

      • 基于Faster R-CNN的顏色導(dǎo)向火焰檢測
        )來獲取初始的候選框,以代替耗時的選 擇 性 搜 索 算 法 。Faster R-CNN 在 COCO[15]與 PASCAL VOC[16]目標(biāo)檢測任務(wù)上取得了很好的效果,因此,本文選擇Faster R-CNN作為文中方法的基礎(chǔ)。Faster R-CNN的檢測框基于錨生成,錨是在目標(biāo)檢測過程中生成的最初的一批候選框。依據(jù)人為確定的m種大小比例(Scale)與n種橫縱比(Aspect Ratio),將這些比例與橫縱比進行組合,可以在每個錨點處獲得m×n種形

        計算機應(yīng)用 2020年5期2020-06-07

      • 一種基于聚類特征的Faster R-CNN糧倉害蟲檢測方法
        -CNN模型的候選框提取網(wǎng)絡(luò)更適用于VOC2007數(shù)據(jù)集中的20種分類任務(wù),不符合糧倉害蟲的形態(tài)學(xué)特征,用于檢測糧倉害蟲時會造成候選框冗余過大,因此本文使用聚類算法改進Faster R-CNN模型的區(qū)域提案網(wǎng)絡(luò),利用Faster R-CNN模型訓(xùn)練數(shù)據(jù)集來對糧倉害蟲圖像進行檢測。本研究建立了糧倉害蟲數(shù)據(jù)集SGI-6包括網(wǎng)絡(luò)獲取圖像、顯微鏡采集圖像和單反拍攝圖像三種多目標(biāo)尺度的數(shù)據(jù)集。實驗室拍攝的圖像以大米和小米為背景模擬糧倉的真實環(huán)境,并且對數(shù)據(jù)集做了翻轉(zhuǎn)

        中國糧油學(xué)報 2020年4期2020-05-25

      • 基于Efficient高效網(wǎng)絡(luò)的目標(biāo)檢測和識別
        在預(yù)測階段生成候選框,然后對候選框做回歸和非極大值抑制計算,篩選與真實框重合度最高的候選框。在Faster R-CNN中,VGG-16骨架網(wǎng)絡(luò)輸出h×w大小的特征圖,對特征圖上每個點設(shè)置3個尺寸和3種縱橫比共9個候選框,特征圖上每個點映射到原圖中是一塊區(qū)域[6],如圖4所示。圖4 特征圖與輸入圖片的對應(yīng)關(guān)系Faster R-CNN是對候選框中心坐標(biāo)(x,y)和長寬(h,w)四個位置坐標(biāo)相對于真實標(biāo)記框位置的偏移量進行預(yù)測,這比直接預(yù)測框的位置坐標(biāo)學(xué)習(xí)起來更

        沈陽理工大學(xué)學(xué)報 2020年6期2020-05-14

      • 結(jié)合動態(tài)概率定位模型的道路目標(biāo)檢測
        Net,通過對候選框生成網(wǎng)絡(luò)RPN[14],改進概率定位模型以及目標(biāo)識別網(wǎng)絡(luò)進行聯(lián)合訓(xùn)練,從而使得各個子任務(wù)之間相互協(xié)同,提高目標(biāo)定位和檢測的精度,有效解決了目標(biāo)檢測任務(wù)中定位信息少、模型不穩(wěn)定和對小目標(biāo)檢測效果不理想等問題。1 HyperLocNet車輛檢測網(wǎng)絡(luò)目標(biāo)檢測包含目標(biāo)定位和目標(biāo)識別兩個關(guān)鍵問題。針對現(xiàn)有回歸定位和概率定位兩種定位方法的局限,HyperLocNet 將定位和識別網(wǎng)絡(luò)融合在同一個網(wǎng)絡(luò)中共享信息,實現(xiàn)多任務(wù)的端到端學(xué)習(xí),其模型結(jié)構(gòu)如圖

        江漢大學(xué)學(xué)報(自然科學(xué)版) 2020年2期2020-04-29

      • 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR 艦船檢測算法
        提案網(wǎng)絡(luò)產(chǎn)生的候選框經(jīng)過RoI 池化層(RoI 池化層用于不同尺寸的特征圖變成固定長度的向量)輸入到檢測網(wǎng)絡(luò),檢測網(wǎng)絡(luò)用于對候選框的分類和定位。本文將引入Faster R-CNN 進行SAR 船舶目標(biāo)檢測,并與傳統(tǒng)的CFAR 進行對比實驗。1 神經(jīng)網(wǎng)絡(luò)技術(shù)原理1.1 人工神經(jīng)網(wǎng)絡(luò)受人類中樞神經(jīng)系統(tǒng)的影響,人工神經(jīng)網(wǎng)絡(luò)由神經(jīng)元構(gòu)成的,如圖1。單個神經(jīng)元的作用是通過權(quán)重將輸入信息進行連接并與閾值b(通常在深度學(xué)習(xí)中叫做偏置)進行比較,在激活函數(shù)的作用下得到神經(jīng)

        現(xiàn)代計算機 2020年9期2020-04-25

      • 改進級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的平面旋轉(zhuǎn)人臉檢測
        路由網(wǎng)絡(luò)先估計候選框角度,再輸入網(wǎng)絡(luò)中識別,但由于沒能精準估計角度及使用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)導(dǎo)致檢測時間過長,精度不高。Cascade CNN[7]通過級聯(lián)多個CNN逐步過濾非人臉樣本,實驗結(jié)果表明,該方法能夠有效實現(xiàn)人臉檢測;而MTCNN[8]將人臉分類、邊框回歸、人臉關(guān)鍵點定位3個任務(wù)合并,證明相關(guān)聯(lián)的不同任務(wù)地實現(xiàn)多任務(wù)學(xué)習(xí),可以互相提升性能;PCN[9]也通過級聯(lián)網(wǎng)絡(luò)檢測了RIP人臉。本文由此在傳統(tǒng)的級聯(lián)CNN的基礎(chǔ)上,嵌入一個32net的RIP分類網(wǎng)絡(luò),

        計算機工程與設(shè)計 2020年3期2020-04-24

      • 基于深度學(xué)習(xí)的重疊人臉檢測
        得到大量的人臉候選框,并給這些人臉候選框一個初始得分。然后使用人臉膚色檢測法二次檢測來過濾掉無效的人臉候選框,并重新調(diào)整人臉候選框的得分,接著使用非極大值抑制法[9](non-maximum suppression,NMS)比較候選窗口之間的重疊度[9](intersection over union,IoU),刪除重疊度大于閾值的候選窗口獲得最終的人臉檢測窗口。重疊人臉檢測框流程如圖1所示。1.1 人臉分類的學(xué)習(xí)人臉分類學(xué)習(xí)的目的是區(qū)分人臉和非人臉部分,

        計算機技術(shù)與發(fā)展 2020年2期2020-04-15

      • 融入幀間差分法的深度學(xué)習(xí)目標(biāo)識別仿真研究
        過程,補充增強候選框分割圖像,通過NMS算法對候選框進行篩選。仿真結(jié)果表明,該算法在識別目標(biāo)種類的同時還能對目標(biāo)在圖像中的位置進行精確標(biāo)定,并可判斷目標(biāo)是否處于運動狀態(tài),具有較高的識別率。目標(biāo)檢測與識別;創(chuàng)新性實驗項目;幀間差分法;深度學(xué)習(xí)近年來,隨著現(xiàn)代機器人技術(shù)的快速發(fā)展,機器工作的場景已不再局限于室內(nèi),在許多室外工作場所中,機器代替人工進行生產(chǎn)作業(yè)提高了工作效率、降低了生產(chǎn)成本。這些應(yīng)用都需要可靠的目標(biāo)檢測識別算法[1]來幫助機器人完成任務(wù)。傳統(tǒng)的識

        實驗技術(shù)與管理 2019年12期2019-12-27

      • 空對地高度自適應(yīng)目標(biāo)智能檢測算法*
        系列算法中區(qū)域候選框的尺寸設(shè)置對檢測算法的影響進行了分析。在SSD系列算法中,區(qū)域候選框的尺寸設(shè)置通過預(yù)先設(shè)置的好的參數(shù)s1,s2和輸入圖像的尺寸共同決定,現(xiàn)有的SSD系列算法大都采用文獻[13]中的參數(shù)設(shè)置s1=0.2,s2=0.9,而后依據(jù)式(1)和(2)分別計算出6個不同尺度特征圖最大(max_size)和最小(min_size)區(qū)域候選框尺寸。以300×300大小的輸入圖像(這里定義尺寸為image_size)為例,依據(jù)式(1)和(2)可以計算得到

        現(xiàn)代防御技術(shù) 2019年6期2019-12-20

      • 基于FAST R-CNN行人檢測識別的研究與改進
        得圖像中約2k候選框。利用卷積收集提取圖片特點,獲得feature map后按照以前RoI框選擇出對應(yīng)的區(qū)域等三個進程。1.1 選擇性搜索通常對一張圖像進行檢測會采用不同的滑窗進行窮舉的方式搜索,這種方法計算量過大且速度慢,于是通過比較一張圖片不同區(qū)域顏色、紋理等方面將相識度較大的部分劃分為同一個區(qū)域,這便是選擇性搜索的基本思想。(1)生成了一個區(qū)域。計算總相似度:(3)找相似度最高的區(qū)域,并將其合并。(4)從中移除與和有關(guān)的相識度。(5)計算新集與所有子

        網(wǎng)絡(luò)安全技術(shù)與應(yīng)用 2019年7期2019-07-10

      • 人臉檢測算法的優(yōu)化
        算法性能。1 候選框生成算法候選框是人臉檢測網(wǎng)絡(luò)的基礎(chǔ)。檢測任務(wù)與分類任務(wù)并不相同,檢測任務(wù)需首先對單個樣本進行分類并生成候選框,其后對所生成候選框的區(qū)域進行分類,而分類任務(wù)是直接對單個樣本進行分類。2 Faster RCNN人臉檢測網(wǎng)絡(luò)框架考慮到區(qū)域候選框是檢測網(wǎng)絡(luò)最大的瓶頸,該系統(tǒng)中Faster RCNN使用RPN(region proposal network)來有效解決計算候選框耗時的問題。Faster RCNN[5]采用RPN生成候選框,RPN的

        計算機技術(shù)與發(fā)展 2019年6期2019-06-14

      • 基于單幀標(biāo)注的弱監(jiān)督動作定位
        作執(zhí)行者的矩形候選框,然后連接候選框形成候選動作軌跡,利用人工標(biāo)注的矩形框去除大量不滿足條件的候選軌跡,同時對保留下來的候選軌跡打分,保留得分最高的提名作為訓(xùn)練視頻中動作的位置,然后訓(xùn)練一個SVM分類器。測試階段,先在測試視頻的每一幀上給出矩形候選框,然后連接候選框形成候選動作軌跡,利用訓(xùn)練好的SVM分類器對候選軌跡打分,確定哪個候選軌跡是視頻中動作的位置。2 提取候選框由于滑動窗口方法給出的矩形框數(shù)量過多,而且不適用于尺度變化較大的目標(biāo),這里利用目標(biāo)檢測

        電子技術(shù)與軟件工程 2019年4期2019-04-26

      • 遺漏負樣本挖掘的行人檢測方法?
        提出合理的區(qū)域候選框,然后在第二階段進行細化。另一類方法旨在消除候選區(qū)域階段,直接訓(xùn)練一個端到端的分類器[4]。第二種方法通常更容易訓(xùn)練,計算效率更高,但第一類方法在性能上往往更有利。Faster R-CNN[5]框架屬于第一類方法。它主要由兩個模塊組成:RPN和Fast R-CNN[6]。其中,RPN是用于提取候選框的模塊,它改善了過去提取候選框的方法,大幅度減少候選框的數(shù)量、提高了整體物體檢測的準確性。Fast R-CNN檢測并識別RPN提出的候選框。

        計算機與數(shù)字工程 2019年2期2019-02-27

      • 基于改進型SSD算法的目標(biāo)車輛檢測研究
        2 SSD區(qū)域候選框SSD采用多尺度特征圖方法,在不同尺度特征圖上都會設(shè)置不同大小和寬高比的區(qū)域選框,區(qū)域候選框定義如下計算。式中:m為特征層數(shù);smin=0.2為最低特征層尺度;smax=0.9為最高特征層尺度;中間特征層尺度均勻分布。區(qū)域候選框具有不同的寬高比 ar∈{1,2,3,。區(qū)域候選框的寬、高分別為同時對于寬高比為1的區(qū)域候選框增加一個尺度每個區(qū)域候選框的中心坐標(biāo)為)。其中 w為第 k個fk特征圖的寬,hfk為第 k個特征圖的高,i∈[0,wf

        重慶理工大學(xué)學(xué)報(自然科學(xué)) 2019年1期2019-02-22

      • 利用深度學(xué)習(xí)進行目標(biāo)檢測
        個分支負責(zé)預(yù)測候選框,直接在特征圖后接一個卷積層預(yù)測候選框即可,另外一個分支負責(zé)預(yù)測候選框屬于哪一個類別,當(dāng)然,每一層預(yù)測的候選框以及所屬類別的個數(shù)都是固定的。因此,我們可以獲得6組候選框,接下來只需要將6組候選框合并到一起并且計算損失函數(shù),然后更新網(wǎng)絡(luò)的參數(shù)即可。下面介紹網(wǎng)絡(luò)的詳細結(jié)構(gòu)。對于上面的每一層中的一個特征圖來說,會產(chǎn)生固定個數(shù)的候選框。比如說特征圖的大小是m×n,并且每個位置產(chǎn)生的候選框的個數(shù)是k個,那么對于一個c類物體的檢測任務(wù)來說,會產(chǎn)生(

        中國設(shè)備工程 2018年23期2018-12-18

      • 基于Faster R-CNN的榆紫葉甲蟲識別方法研究
        的,生成的初始候選框為固定的三種尺寸、三種比例,用其識別榆紫葉甲蟲時,初始候選框的長寬比不符合榆紫葉甲蟲的長寬比形態(tài)學(xué)特征,容易造成候選框冗余過大。加之榆紫葉甲蟲的甲殼反光,在框定榆紫葉甲蟲目標(biāo)時會出現(xiàn)誤差,在榆紫葉甲蟲和榆樹葉片豁口或孔洞相鄰時或者兩只榆紫葉甲相鄰時框定誤差尤其嚴重。因此,本文使用Faster R-CNN模型識別榆紫葉甲蟲時,對初始候選框生成網(wǎng)絡(luò)進行改進,使其生成的初始候選框更加貼合榆紫葉甲蟲本身的特征,減少周圍復(fù)雜環(huán)境造成的影響,以提高

        計算機工程與應(yīng)用 2018年23期2018-12-04

      • 遷移學(xué)習(xí)結(jié)合難分樣本挖掘的機場目標(biāo)檢測
        識別能力,機場候選框的獲取還是基于邊緣或區(qū)域分割的手工方法,因此,傳統(tǒng)方法的局限性依舊存在.2014年,文獻[6]提出區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-based Convolutional Neural Networks, R-CNN)框架,使得目標(biāo)檢測取得巨大突破,開啟了基于深度學(xué)習(xí)的目標(biāo)檢測熱潮.為進一步提升R-CNN的準確率和速度,文獻[7]提出了R-CNN的繼承者Fast R-CNN.Faster R-CNN[8]采用區(qū)域建議網(wǎng)絡(luò)(Region P

        西安電子科技大學(xué)學(xué)報 2018年5期2018-10-11

      • 自動駕駛場景下小且密集的交通標(biāo)志檢測
        類:一類是基于候選框提取的目標(biāo)檢測算法,另一類是基于回歸方法的目標(biāo)檢測算法。下面介紹這兩大類目標(biāo)檢測算法的代表性檢測框架。R-CNN是Ross Girshick等[9]最早提出的用卷積神經(jīng)網(wǎng)絡(luò)做目標(biāo)檢測的框架,它是基于候選框提取的目標(biāo)檢測算法。首先通過selective search算法[10]提取候選框,然后用這些候選框微調(diào)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練SVM(支持向量機)分類器,進行邊框回歸等。R-CNN在VOC2012數(shù)據(jù)集上mAP[11]達到了53.3%,和之前

        智能系統(tǒng)學(xué)報 2018年3期2018-07-20

      • 基于聚合通道特征及卷積神經(jīng)網(wǎng)絡(luò)的行人檢測
        ,提取圖像出的候選框。這個階段提取候選框的算法有滑動窗口策略、Selective Search[2]等,其中基于滑動窗口策略具有代表性的工作是Felzenszwalb P F等[3]提出的形變部位模型(deformable part model,DPM),這個方法能一定程度上克服部分遮擋的影響。其次,提取候選框集的描述特征過程。Piotr Dollár等提出積分通道特征(integral channel features,ICF),利用積分圖技術(shù)對圖像的各

        計算機工程與設(shè)計 2018年7期2018-07-19

      • 基于YOLO網(wǎng)絡(luò)的行人檢測方法
        ,聚類選取初始候選框,重組特征圖,擴展橫向候選框數(shù)量,構(gòu)建基于YOLO網(wǎng)絡(luò)的行人檢測器YOLO-P。1 檢測方法基于YOLO網(wǎng)絡(luò)的檢測方法將候選框提取、特征提取、目標(biāo)分類、目標(biāo)定位統(tǒng)一于一個神經(jīng)網(wǎng)絡(luò)中。神經(jīng)網(wǎng)絡(luò)直接從圖像中提取候選區(qū)域,通過整幅圖像特征來預(yù)測行人位置和概率。將行人檢測問題轉(zhuǎn)化為回歸問題,真正實現(xiàn)端到端(end to end)的檢測。行人檢測就是對輸入的圖像或視頻,進行候選框提取,判斷其中是否包含行人,若有給出其位置。而事實上,大部分的候選框

        計算機工程 2018年5期2018-05-30

      • 目標(biāo)檢測算法R-CNN在現(xiàn)實場景數(shù)字檢測任務(wù)中的應(yīng)用
        像處理技術(shù)完成候選框提取的思路,可極大提高目標(biāo)檢測效率,使其能夠完成實時檢測任務(wù)?!娟P(guān)鍵詞】實時目標(biāo)檢測 深度學(xué)習(xí)1引言Ross Girshick在2014年于CVPR發(fā)表論文《Rich feature hierarchies for Accurate ObjectDetection and Segmentation》,第一次將在圖像分類任務(wù)中表現(xiàn)優(yōu)異的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于目標(biāo)檢測當(dāng)中,該檢測算法即R-CNN(Regionswith Convolutiona

        電子技術(shù)與軟件工程 2018年24期2018-05-10

      • 一種針對特定目標(biāo)的提議算法
        ,得到一系列的候選框,然后利用提取的特征和分類器對候選框進行處理,從而檢測出要求的目標(biāo)[2]。對于這種檢測算法,如果要求檢測結(jié)果的準確性高,就需要對圖像的遍歷過程更加精細,但是這樣會引起計算量的增加,影響檢測的速度;如果想加快檢測速度,那么對圖像的遍歷過程就會相對粗糙,造成檢測結(jié)果的準確性降低[3]。如何更加快速準確地檢測出目標(biāo)也已經(jīng)成為當(dāng)今學(xué)者們普遍關(guān)注和研究的一個重要課題[4]。近些年來,為了更好地調(diào)節(jié)檢測的準確性和快速性之間的矛盾,人們對得到的候選框

        火力與指揮控制 2018年3期2018-04-19

      • 基于卷積神經(jīng)網(wǎng)絡(luò)的實時行人檢測方法①
        圖上,計算不同候選框的形狀偏移量和該區(qū)域為行人的概率得分,通過非極大值抑制方法輸出行人檢測結(jié)果.圖1 基于卷積神經(jīng)網(wǎng)絡(luò)的實時行人檢測模型GoogleNet[14],VGG等作為當(dāng)前流行的深度卷積神經(jīng)網(wǎng)絡(luò)模型,能夠很好的提取圖片特征.但這兩種模型過于龐大,很難訓(xùn)練.文獻[11]提出的特征提取模型作為GoolgeNet的精簡版,取得類似GoogleNet的訓(xùn)練成績,故采用其方法實現(xiàn)模型前端的特征提取.考慮到行人檢測的特殊性,本文設(shè)計了如圖2所示的多候選框行人檢

        計算機系統(tǒng)應(yīng)用 2017年9期2017-09-15

      海城市| 铅山县| 铁岭市| 同心县| 迭部县| 南岸区| 扬中市| 务川| 浙江省| 福鼎市| 临高县| 田阳县| 彭水| 和林格尔县| 庄浪县| 铅山县| 汝阳县| 白银市| 张家川| 泊头市| 天津市| 布拖县| 股票| 瑞丽市| 武平县| 天气| 靖州| 双鸭山市| 镇远县| 交城县| 息烽县| 黔江区| 富川| 依兰县| 双柏县| 南充市| 徐州市| 门头沟区| 林州市| 固始县| 诏安县|