• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學習的目標檢測與應用

      2025-03-28 00:00:00侯小燕
      科技創(chuàng)新與應用 2025年8期
      關鍵詞:目標檢測深度學習神經網絡

      摘" 要:對圖像或視頻進行目標檢測即對圖像上的目標進行定位和類別判斷,它是計算機視覺領域最基本和重要的任務之一。基于深度學習進行目標檢測的方法是當前視覺目標檢測領域的主流技術。該文回顧并分析近年來基于深度學習進行目標檢測的一些技術成果,總結提高目標檢測性能的方法并調研目標檢測在各個領域的不同應用,同時提出當前目標檢測存在的一些問題和對應的解決方法,最后針對目前存在的挑戰(zhàn)討論目標檢測的發(fā)展方向。

      關鍵詞:深度學習;目標檢測;應用;視覺領域;神經網絡

      中圖分類號:TP391" " " 文獻標志碼:A" " " " " 文章編號:2095-2945(2025)08-0021-06

      Abstract: Object detection for image or video is one of the most basic and important tasks in the field of computer vision. With the development of artificial intelligence and computer vision technology, object detection technology based on deep learning has developed rapidly, and has become the mainstream method in the field of visual object detection. This paper reviews some technical achievements of object detection based on deep learning in recent years. The methods to improve the performance of object detection is summarized, and different applications of object detection in various fields are investigated. At the same time, some problems existing in current object detection and corresponding solutions are proposed. Finally, the development direction of object detection is discussed according to the existing challenges.

      Keywords: deep learning; object detection; application; vision domain; neural network

      目標檢測是將圖像或視頻中有不同外觀、形狀、姿態(tài)和光照的不同目標進行類別區(qū)分和定位,區(qū)別于圖像分類,目標檢測不僅要求能夠識別目標類別,還需要精確地定位目標的位置。由于不同圖像或視頻上存在的目標差異、背景差異、光照和遮擋等因素的影響,目標檢測一直是計算機視覺領域的研究熱點和存在挑戰(zhàn)的問題。隨著神經網絡的發(fā)展,基于深度學習的方法成為主流的目標檢測方法。它將深度卷積網絡引入到目標檢測領域,使目標檢測取得了重大突破。區(qū)域卷積網絡R-CNN[1]是第一個將深度學習應用到目標檢測上的算法,是典型的雙階段網絡,它將目標檢測任務分為候選區(qū)域提取和分類2個子任務進行。之后逐步出現了新的網絡如Fast R-CNN[2]、Faster R-CNN[3]和SSD[4]、YOLO[5-12]系列、EfficientDet[13]、CenterNet[14]、FCOS[15]和DETR[16-23]系列等,它們的改進進一步提升了目標檢測的精度和速度,同時也加入了各種策略來輔助性能提升,使目標檢測技術取得了重大發(fā)展。

      1" 基于神經網絡的目標檢測方法

      卷積神經網絡是一種深度學習網絡,廣泛應用于圖像處理的各個領域,包括目標檢測、分割、分類、追蹤和文本識別等。它通過模擬生物的視知覺機制,利用卷積運算對圖像進行特征提取和分類,具有強大的表征學習能力和平移不變性,是深度學習領域的重要算法之一?;谏窠浘W絡的目標檢測技術的發(fā)展經歷了從雙階段到單階段,從anchor-based到anchor-free、從網絡結構大型化到輕量化的轉變,到目前為止,目標檢測的性能已取得了顯著提升。表1為基于卷積網絡的目標檢測的一些關鍵方法和分類。

      1.1" 目標檢測網絡

      1.1.1" 雙階段anchor-based網絡

      Anchor被稱為錨框或候選框,anchor-based網絡即基于錨框或候選框的網絡,首先設置目標的大概位置作為預設框,然后在這些預設框的基礎上進行篩選和微調,從而得到更準確的預測框。它的本質是加入了強先驗信息,基于anchor回歸,讓模型去預測anchor與真實邊框的偏移,比從無到有的直接擬合物體的邊框容易一些。

      anchor-based檢測框架可以分解為以下4個部分:錨框對應特征層分配標準Assignment、錨框訓練標簽分配標準Ground-truth、網絡輸出與損失函數設計Output amp; Loss和預測階段Prediction。

      雙階段檢測網絡包括2個階段:候選區(qū)域生成、候選區(qū)域分類及邊界框的回歸。在提議生成階段算法首先在輸入圖像中生成一系列可能包含某些對象的候選區(qū)域,這一階段通常利用選擇性搜索或區(qū)域提議網絡(Region Proposal Network, RPN)來完成。在提議分類階段,算法對第一階段生成的每個候選區(qū)域進行對象類別預測和更精確的邊界框回歸。典型的雙階段anchor-based網絡有R-CNN、Fast R-CNN、Faster R-CNN等。3種網絡主要結構對比見表2。

      1.1.2" 單階段anchor-based網絡

      區(qū)別于雙階段網絡,單階段網絡通過一個階段完成目標的類別預測和邊界框回歸,從而簡化了檢測流程,實現更快的檢測推理速度。單階段anchor-based網絡在單一前向傳播中完成目標檢測任務,無須生成候選區(qū)域,它們通過密集的錨框直接預測目標的類別和位置。典型的單階段anchor-based網絡包括SSD、YOLO系列(YOLOX、YOLOv6、YOLOv8和YOLOv9除外)、RetinaNet和EfficientDet等[4-13,24]。

      YOLO系列的網絡經歷了從YOLOv1到YOLOv9的發(fā)展歷程,在速度和準確性上取得了非常大的提升。RetinaNet[24]采用ResNet50作為特征提取backbone,自頂向下的特征金字塔網絡FPN為特征融合模塊,最后從不同尺度的特征層上引出并行的分類和位置檢測頭來檢測不同大小的目標。EfficientDet[13]對網絡寬度width、深度depth和分辨率resolution這3個維度進行復合縮放,可以對網絡各個模塊的分辨率、深度和寬度進行統(tǒng)一縮放,同時引入雙向加權特征金字塔BiFPN。anchor-based由于加入了人為先驗分布,同時在訓練的時候預測的值域變化范圍實際上較小,所以anchor-based的網絡更加容易訓練也更加穩(wěn)定。

      1.1.3" anchor-free網絡

      由于anchor-based結構本身存在一些問題:由于錨框的選擇存在尺寸、寬高比與數量等很多超參,檢測結果對于anchor設計的先驗prior比較依賴,固定參數的選擇又會降低模型的泛化能力;密集的錨框設計會造成正負樣本嚴重不均衡問題,且導致計算成本增加;訓練時需要設定IOU閾值,檢測精度對閾值設置較為敏感。為解決上述問題,anchor-free網絡應運而生。它們的區(qū)別在于是否使用預定義的anchor框來匹配真實的目標框。anchor-free網絡不依賴預定義的錨框,而是直接在特征圖上預測目標的位置和大小,它通常通過關鍵點檢測、中心點預測、逐像素等方式來實現目標檢測。經典的anchor-free網絡包括CornerNet、CenterNet和FCOS等。anchor-free本質上是一種密集預測的方法,它的缺點是收斂比較慢,且容易產生更多假陽,同時由于每個位置只預測一個框,可能會導致一些重疊或遮擋區(qū)域無法被檢測到。

      1.1.4" 基于transformer的改進網絡

      相較于傳統(tǒng)的卷積神經網絡,transformer的特征學習和表示能力更加強大,因此出現很多基于transformer框架改進的目標檢測網絡,最典型的比如DETR、Deformable DETR、Conditional DETR、Conditional DETR V2、Co-DETR、DAB-DETR、DN-DETR和DINO[16-23]等。此外還有其他一些基于transformer的改進檢測網絡,transformer在抽取時空表征關系上的巨大優(yōu)勢使其在視覺目標檢測上也效果顯著。

      1.1.5" 輕量化檢測網絡

      基于神經網絡的目標檢測方法在精度上能達到較高指標,但由于存儲空間和功耗限制,這些模型在嵌入設備或移動端的存儲與計算仍然存在巨大挑戰(zhàn)。為了降低模型存儲,加快訓練和推理速度,減小硬件功耗,很多研究者提出了輕量化的網絡結構,也出現了一些其他方法,如對大模型進行量化、剪枝、蒸餾等操作來減小模型參數量,從而提高移動端模型部署的成功率。輕量化檢測網絡通常采用輕量化結構的網絡作為backbone和neck,現有的輕量化backbone如MobileNet系列、MnasNet、GhostNet和ShuffleNet系列等。此外,也存在通過降低網絡的寬度、深度和分辨率來減小網絡的結構,如tinyYOLO、nanoDet[31]等。

      1.2" 性能提升方法

      神經網絡可以通過大量技巧tricks去優(yōu)化訓練效果,從而使檢測任務得到不錯的精度。本文介紹一些tips來提升網絡訓練的性能,其中某些tricks并不是網絡訓練的必要過程,而是一些啟發(fā)式建議。

      網絡結構合理正確,根據數據集設置合理的網絡大小和結構。

      訓練數據和標簽準確,剔除無效和低質量數據,數據類別均衡。

      圖像增強,如翻轉、旋轉、形變變換、加噪、濾波、光照、顏色變換、裁剪、縮放和融合等。

      使用合適的學習率策略,如warmup,采用學習率預熱加線性衰減的調度策略使得模型既能快速進入最優(yōu)解的鄰域并進行細致探索。

      采用dropout正則化防止過擬合。

      合理的batchsize設置能加速網絡收斂。

      進行難例挖掘,離線難例挖掘如TopK Loss和難分負樣本挖掘Hard Negative Mining(HNM),在線難例挖掘如OHEM,在訓練過程中動態(tài)地選擇一些具有高損失的樣本作為訓練樣本。

      多尺度訓練和測試,輸入不同尺度的圖片進行模型訓練能提高網絡精度。

      數據集較小時可以使用交叉驗證。

      隨機權值平均通過平均多個模型參數來改善模型的訓練和泛化能力。

      激活函數選擇,采用GELU和Swish激活函數梯度更加平滑,使輸出的概率分別更加平滑,能夠自適應地調整輸入信號的流動。

      使用注意力機制提升網絡特征提取能力。

      2" 目標檢測的應用和挑戰(zhàn)

      目標檢測網絡由于其出色的性能在很多領域得到了應用,如安防、醫(yī)療、交通、商業(yè)、金融和教育等方向。主要應用的內容有行人檢測、自動駕駛領域的檢測、人臉檢測、醫(yī)學影像檢測、遙感目標檢測、商品檢測和文本檢測等。

      行人檢測在視頻監(jiān)控、智能駕駛、機器人和安防等領域起著非常重要的作用[34-35]。目前常用行人檢測方法如Faster R-CNN、SSD和YOLO系列在質量較好的數據上都能取得不錯的效果。但行人檢測由于遮擋問題、行人無規(guī)則運動、行人姿態(tài)變化、密集檢測、天氣條件、小目標檢測和背景復雜等問題存在一定挑戰(zhàn)。

      自動駕駛領域的檢測用于檢測和識別路上的車輛、行人、交通信號、車道線、路牌和障礙物等,以輔助智能化駕駛決策[36-37]。如根據目標識別的遠近來輔助決定是否剎車、識別并跟蹤前輛車的行為來保持與前輛車的安全距離,也可以進行內部監(jiān)控,如司機是否進行疲勞駕駛、是否接打電話等。

      人臉檢測和識別在金融、商業(yè)、教育和安防等領域有著廣泛的應用,例如解鎖手機、商店刷臉支付、機場身份驗證、銀行身份驗證和罪犯驗證等。目前常用的人臉檢測網絡有MTCNN[38]、retinaface[39]以及其他一些目標檢測網絡如YOLO系列、SSD和anchor-free的目標檢測網絡。但由于人臉的姿態(tài)、大小、光照、表情復雜、遮擋和畸變等問題,人臉檢測和識別也存在一定挑戰(zhàn)。

      目標檢測也用于醫(yī)療領域的識別和診斷,如胸外、泌尿、骨類和血管類等很多領域的影像處理。目前常用基于深度學習的醫(yī)學目標檢測網絡有NNDection[40]、MedYOLO[41]等。由于某些器官或病灶在單一模態(tài)圖如計算機斷層CT或者核磁共振成像MRI等上不能清晰顯影,檢測任務常常需要基于多模態(tài)進行,很多學者也提出了多模態(tài)檢測網絡[42-43],利用多模態(tài)數據特征充分提高目標檢測精度。醫(yī)學圖像檢測的難點在于:數據獲取和標注困難,不同品牌、不同機器參數設置不同導致CT或MRI等圖像灰度變化范圍大且不一致。

      自然語言處理NLP方面,文本檢測是NLP處理的基礎。文本檢測廣泛應用于各個領域,如零售商標檢測、快遞條碼檢測、車牌文字檢測和文字識別等。目前常用的文本檢測網絡有CTPN、SegLink、EAST、DBNet和ABCNet[44-47]等。文本檢測也存在一定挑戰(zhàn):文本大小不一致,文本由于顏色、大小、形狀、字體、傾斜、語言以及長度等存在多樣性,自然場景中的文本缺乏通用性,光照條件不定,背景復雜,字符粘連和斷字,遮擋和模糊等。

      許多研究基于深度學習的檢測方法對遙感圖上通用的對象類別如道路、建筑物、樹木、車輛、船舶、機場、飛機和市區(qū)等進行檢測[48],并取得了良好的效果。但遙感圖像因存在分辨率巨大、大小目標分布不一致、目標被云霧等遮擋、數據量較少和閾值不同等問題導致檢測也存在一定挑戰(zhàn)。

      目標檢測網絡也應用在其他很多方面,如超市商品檢測并打印價格,智慧工地進行如安全帽檢測、煙火檢測和進入危險區(qū)域報警等;目標檢測可以進行圖像搜索,進行特定場景下人數統(tǒng)計,進行圖像自動標注、進行目標跟蹤,輔助目標分割和分類,輔助身份驗證,輔助其他相關的識別等。圖1為目標檢測在不同場景下的應用示例。

      3" 結論

      本文對基于深度學習的目標檢測網絡進行了分類總結和對比,給出了目標檢測網絡的一些訓練技巧;調研了目標檢測在諸如行人檢測、自動駕駛領域的檢測、人臉檢測、醫(yī)學影像檢測、遙感目標檢測、文本檢測和其他檢測等中的應用,并分析了各個應用目前存在的挑戰(zhàn)。針對小目標和目標比例特殊、圖像拍攝角度變化大、光照不好、遮擋、模糊和背景復雜等問題以及模型大小和實時檢測速度等問題,目標檢測網絡在盡可能朝能克服這些問題的方向改進,比如用動態(tài)視頻序列圖像代替單幀圖對存在模糊、遮擋、截斷等問題的圖像進行目標檢測,比如利用雙目相機獲取深度信息輔助檢測,比如提升小目標檢出率的一些tricks,比如減小模型大小并加快推理速度來滿足實時性的需求。隨著大模型的發(fā)展,也可能出現更通用的目標檢測大模型。目標檢測未來的發(fā)展將具有更快的速度、更高的精度、更強的魯棒和泛化性,并最終將應用于人們生活的方方面面。

      參考文獻:

      [1] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//In Proceedings of the IEEE conference on computer vision and pattern recognition,2014:580-587.

      [2] GIRSHICK R. Fast r-cnn[C]//In Proceedings of the IEEE international conference on computer vision,2015:1440-1448.

      [3] REN S, HE K, GIRSHICK R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J]. Advances in neural information processing systems, 2015(28).

      [4] LIU W, ANGUELOV D, ERHAN D, et al. Ssd: Single shot multibox detector[J]. In Computer Vision-ECCV 2016: 14th European Conference, Amsterdam, The Netherlands October 11-14 2016 Proceedings, 2016, Part I(14):21-37.

      [5] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]//In Proceedings of the IEEE conference on computer vision and pattern recognition,2016:779-788.

      [6] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//In Proceedings of the IEEE conference on computer vision and pattern recognition,2017:7263-7271.

      [7] REDMON J, FARHADI A. Yolov3: An incremental improvement[J]. InComputer vision and pattern recognition 2018(1804):1-6.

      [8] BOCHKOVSKIY A, WANG C Y, LIAO H Y. Yolov4: Optimal speed and accuracy of object detection[J]. arxiv preprint arxiv:2004.10934,2020.

      [9] GE Z, LIU S, WANG F, et al. Yolox: Exceeding yolo series in 2021[J]. arxiv preprint arxiv:2107.08430,2021.

      [10] LI C, LI L, JIANG H, et al. YOLOv6: A single-stage object detection framework for industrial applications[J]. arxiv preprint arxiv:2209.02976,2022.

      [11] WANG C Y, BOCHKOVSKIY A, LIAO H Y. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2023:7464-7475.

      [12] WANG C Y, YEH I H, LIAO H Y. Yolov9: Learning what you want to learn using programmable gradient information[J]. arxiv preprint arxiv:2402.13616,2024.

      [13] TAN M, PANG R, LE Q V. Efficientdet: Scalable and efficient object detection[C]//In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2020:10781-10790.

      [14] DUAN K, BAI S, XIE L, et al. Centernet: Keypoint triplets for object detection[C]//In Proceedings of the IEEE/CVF international conference on computer vision, 2019:6569-6578.

      [15] TIAN Z, CHU X, WANG X, et al. Fully convolutional one-stage 3d object detection on lidar range images[J]. Advances in Neural Information Processing Systems,2022 (35):34899-34911.

      [16] CARION N, MASSA F, SYNNAEVE G, et al. Zagoruyko S. End-to-end object detection with transformers[C]//In European conference on computer vision,2020 (Aug23):213-229.

      [17] ZHU X, SU W, LU L, et al. Deformable detr: Deformable transformers for end-to-end object detection[J]. arxiv 2020. arxiv preprint arxiv:2010.04159,2010.

      [18] MENG D, CHEN X, FAN Z, et al. Conditional detr for fast training convergence[C]//In Proceedings of the IEEE/CVF international conference on computer vision,2021:3651-3660.

      [19] CHEN X, WEI F, ZENG G, et al. Conditional detr v2: Efficient detection transformer with box queries[J]. arxiv preprint arxiv:2207.08914,2022.

      [20] ZONG Z, SONG G, LIU Y. Detrs with collaborative hybrid assignments training[C]//In Proceedings of the IEEE/CVF international conference on computer vision,2023:6748-6758.

      [21] LIU S, LI F, ZHANG H, et al. Dab-detr: Dynamic anchor boxes are better queries for detr[J]. arxiv preprint arxiv:2201.12329,2022.

      [22] LI F, ZHANG H, LIU S, et al. Dn-detr: Accelerate detr training by introducing query denoising[C]//In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2022:13619-13627.

      [23] ZHANG H, LI F, LIU S, et al. Dino: Detr with improved denoising anchor boxes for end-to-end object detection[J]. arxiv preprint arxiv:2203.03605,2022.

      [24] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//In Proceedings of the IEEE international conference on computer vision,2017:2980-2988.

      [25] LAW H, DENG J. Cornernet: Detecting objects as paired keypoints[C]//In Proceedings of the European conference on computer vision (ECCV),2018:734-750.

      [26] HOWARD A G, ZHU M, CHEN B, et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[J]. arxiv preprint arxiv:1704.04861,2017.

      [27] SANDLER M, HOWARD A, ZHU M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//In Proceedings of the IEEE conference on computer vision and pattern recognition,2018:4510-4520.

      [28] HOWARD A, SANDLER M, CHU G, et al. Searching for mobilenetv3[C]//In Proceedings of the IEEE/CVF international conference on computer vision,2019:1314-1324.

      [29] TAN M, CHEN B, PANG R, et al. Mnasnet: Platform-aware neural architecture search for mobile[C]//In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2019:2820-2828.

      [30] HAN K, WANG Y, TIAN Q, et al. Ghostnet: More features from cheap operations[C]//In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2020:1580-1589.

      [31] LYU R. Super fast and lightweight anchor-free object detection model[J]. real-time on mobile devices,2020.

      [32] ZHANG X, ZHOU X, LIN M, et al. Shufflenet: An extremely efficient convolutional neural network for mobile devices[C]//In Proceedings of the IEEE conference on computer vision and pattern recognition,2018:6848-6856.

      [33] MA N, ZHANG X, ZHENG H T, et al. Shufflenet v2: Practical guidelines for efficient cnn architecture design[C]// In Proceedings of the European conference on computer vision (ECCV),2018:116-131.

      [34] DOLLAR P, WOJEK C, SCHIELE B, et al. Pedestrian detection: An evaluation of the state of the art[J]. IEEE transactions on pattern analysis and machine intelligence, 2011, 34(4):743-761.

      [35] BRUNETTI A, BUONGIORNO D, TROTTA G F, et al. Computer vision and deep learning techniques for pedestrian detection and tracking: A survey[J]. Neurocomputing, 2018, 26(300):17-33.

      [36] LI C, CAO Y, PENG Y. Research on automatic driving target detection based on YOLOv5s[J]. In Journal of Physics: Conference Series,2022, 2171(1):012047.

      [37] SHARMA M, GUPTA A K. An algorithm for target detection, identification, tracking and estimation of motion for passive homing missile autopilot guidance[J]. InMobile Radio Communications and 5G Networks: Proceedings of MRCN,2020, 2021:57-71.

      [38] ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks[J]. IEEE signal processing letters. 2016, 23(10):1499-1503.

      [39] DENG J, GUO J, ZHOU Y, et al. Retinaface: Single-stage dense face localisation in the wild[J]. arxiv preprint arxiv:1905.00641,2019.

      [40] BAUMGARTNER M, J?魨GER P F, ISENSEE F, et al. nnDetection: a self-configuring method for medical object detection[J]. InMedical Image Computing and Computer Assisted Intervention-MICCAI 2021: 24th International Conference, Strasbourg, France, September 27-October 1, 2021, Proceedings, 2021, Part V(24):530-539.

      [41] SOBEK J, MEDINA I J, MEDINA I B, et al. MedYOLO: A Medical Image Object Detection Framework[J]. Journal of Imaging Informatics in Medicine,2024(6):1-9.

      [42] CHARRON O, LALLEMENT A, JARNET D, et al. Automatic detection and segmentation of brain metastases on multimodal MR images with a deep convolutional neural network[J]. Computers in biology and medicine,2018, 1(95):43-54.

      [43] LI M, KUANG L, XU S, et al. Brain tumor detection based on multimodal information fusion and convolutional neural network[J]. IEEE access,2019,9(7):180134-180146.

      [44] SHI B, BAI X, BELONGIE S. Detecting oriented text in natural images by linking segments[C]//In Proceedings of the IEEE conference on computer vision and pattern recognition,2017:2550-2558.

      [45] ZHOU X, YAO C, WEN H, et al. East: an efficient and accurate scene text detector[C]//In Proceedings of the IEEE conference on Computer Vision and Pattern Recognition,2017:5551-5560.

      [46] LIAO M, WAN Z, YAO C, et al. Real-time scene text detection with differentiable binarization[J]. In Proceedings of the AAAI conference on artificial intelligence,2020, 34(7):11474-11481.

      [47] LIU Y, CHEN H, SHEN C, et al. Abcnet: Real-time scene text spotting with adaptive bezier-curve network[C]// In proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2020:9809-9818.

      [48] LI Z, WANG Y, ZHANG N, et al. Deep learning-based object detection techniques for remote sensing images: A survey[J]. Remote Sensing,2022, 14(10):2385.

      猜你喜歡
      目標檢測深度學習神經網絡
      神經網絡抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      視頻中目標檢測算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識別中的人體運動目標檢測方法
      MOOC與翻轉課堂融合的深度學習場域建構
      大數據技術在反恐怖主義中的應用展望
      深度學習算法應用于巖石圖像處理的可行性研究
      軟件導刊(2016年9期)2016-11-07 22:20:49
      基于深度卷積網絡的人臉年齡分析算法與實現
      軟件工程(2016年8期)2016-10-25 15:47:34
      移動機器人圖像目標識別
      基于神經網絡的拉矯機控制模型建立
      重型機械(2016年1期)2016-03-01 03:42:04
      基于P3電位的目標檢測研究
      科技視界(2016年4期)2016-02-22 13:09:19
      广东省| 潞西市| 浦县| 洞口县| 巴中市| 东莞市| 色达县| 古蔺县| 肥东县| 红安县| 茌平县| 九江县| 曲沃县| 凌海市| 阿巴嘎旗| 宣武区| 邢台市| 漳平市| 西丰县| 攀枝花市| 宽城| 青铜峡市| 双柏县| 永康市| 元氏县| 福海县| 剑河县| 南召县| 丹巴县| 锡林郭勒盟| 泸州市| 都昌县| 余干县| 四子王旗| 贵阳市| 景宁| 巴马| 临夏县| 莱芜市| 永泰县| 赣州市|