• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于YOLOv3算法的船舶雙目視覺(jué)檢測(cè)與定位方法

      2021-04-30 19:59張嘯塵趙建森王勝正張敏程成
      關(guān)鍵詞:坐標(biāo)系視圖邊框

      張嘯塵 趙建森 王勝正 張敏 程成

      摘要:

      為快速、準(zhǔn)確地檢測(cè)船舶目標(biāo),提出一種基于YOLOv3算法的船舶雙目視覺(jué)檢測(cè)與定位方法。

      在特征學(xué)習(xí)時(shí)針對(duì)樣本中不同船舶長(zhǎng)寬比例,重新聚類樣本中心錨點(diǎn)框,增強(qiáng)對(duì)船舶檢測(cè)的準(zhǔn)確性;利用SURF算法進(jìn)行特征匹配,并引入雙目測(cè)距算法,實(shí)現(xiàn)目標(biāo)的測(cè)距與定位。實(shí)驗(yàn)結(jié)果表明,該方法在每秒傳輸圖片30幀的情況下,平均檢測(cè)精度達(dá)到94%,在1 n mile內(nèi)的目標(biāo)平均定位誤差為11 m左右,與現(xiàn)有檢測(cè)算法相比,具有更好的實(shí)時(shí)性、準(zhǔn)確性。該方法對(duì)智能船舶視覺(jué)感知信息與雷達(dá)、AIS信息的融合,以及避碰輔助決策具有非常重要的作用。

      關(guān)鍵詞:

      智能船舶; 目標(biāo)檢測(cè); 雙目測(cè)距; 輔助決策

      中圖分類號(hào):? U675.79; TP242.6+2

      文獻(xiàn)標(biāo)志碼:? A

      收稿日期: 2020-04-09

      修回日期: 2020-08-10

      基金項(xiàng)目:

      國(guó)家自然科學(xué)基金(51709167,61701299);國(guó)家重點(diǎn)研發(fā)計(jì)劃(2019YFB1600605);上海市科技創(chuàng)新行動(dòng)計(jì)劃社會(huì)發(fā)展領(lǐng)域項(xiàng)目(18DZ1206101);大學(xué)生創(chuàng)新創(chuàng)業(yè)項(xiàng)目(S20190105, S20190117)

      作者簡(jiǎn)介:

      張嘯塵(1995—),男,江蘇蘇州人,碩士研究生,研究方向?yàn)榇爸悄軐?dǎo)航、計(jì)算機(jī)視覺(jué),(E-mail)247101485@qq.com;

      趙建森(1983—),男,黑龍江牡丹江人,副教授,博士,研究方向?yàn)橹悄芡ㄐ拧⑽⒉ê吞炀€,(E-mail)7230981@163.com;

      王勝正(1976—),男,湖南雙峰人,教授,博士,研究方向?yàn)楹胶7抡?、智能船舶?dǎo)航、大數(shù)據(jù)、機(jī)器學(xué)習(xí),(E-mail)szwang@shmtu.edu.cn

      Binocular vision detection and positioning method for

      ships based on YOLOv3 algorithm

      ZHANG Xiaochen, ZHAO Jiansen, WANG Shengzheng,

      ZHANG Min, CHENG Cheng

      (Merchant Marine College, Shanghai Maritime University, Shanghai 201306, China)

      Abstract:

      In order to detect target ships quickly and accurately, a binocular vision detection and positioning method for ships based on YOLOv3 algorithm is proposed.? During feature learning, the center anchor frames of the samples are re-clustered for the different ship length-width ratios in the samples to enhance the accuracy of ship detection; the feature matching is carried out by the SURF algorithm, and the binocular ranging algorithm is introduced to achieve target ranging and positioning. The experimental results show that, under the condition of 30 frames per second, the average detection accuracy of this method is 94%, and the average positioning error of the targets within 1 n mile is about 11 m. Compared with the existing detection algorithms, it is of better real-time performance and accuracy. It plays a very important role in the information fusion from the visual perception, radars and AIS, as well as collision avoidance auxiliary decision for intelligent ships.

      Key words:

      intelligent ship; target detection; binocular ranging; auxiliary decision

      0 引 言

      中國(guó)船級(jí)社2015年發(fā)布的《智能船舶規(guī)范》中提到,智能船舶需利用傳感器、通信、互聯(lián)網(wǎng)等技術(shù)手段自主感知和分析船舶周邊環(huán)境的信息和數(shù)據(jù),以保證自身安全、自主航行。由此可見(jiàn),信息感知技術(shù)在智能船舶領(lǐng)域是一項(xiàng)非常關(guān)鍵的技術(shù)。目前比較成熟的兩種感知手段是船舶自動(dòng)識(shí)別系統(tǒng)(automatic identification system,AIS)和雷達(dá)。雖然這兩種感知手段使用范圍較廣,但是AIS信息存在主觀錯(cuò)誤和延遲,雷達(dá)存在檢測(cè)盲區(qū),因此多信息源信息融合成為港口監(jiān)測(cè)和智能船舶自主航行迫切需求的新技術(shù)。大部分沿海、內(nèi)陸水域以及智能化船舶上已經(jīng)配備視頻監(jiān)控裝置,但是船舶位置和航行態(tài)勢(shì)仍需依靠人工判斷。隨著計(jì)算機(jī)視覺(jué)智能感知技術(shù)的發(fā)展,船舶目標(biāo)智能識(shí)別和跟蹤成為該領(lǐng)域新的研究熱點(diǎn)。

      1.1.4 輸出層

      對(duì)特征融合層輸出的3個(gè)尺度特征圖進(jìn)行分類和位置回歸。本文將原始圖片縮放到416×416的大小,然后根據(jù)特征圖大小分別劃分為13×13、26×26、52×52的等大的單元格,每個(gè)單元格用3個(gè)錨點(diǎn)框預(yù)測(cè)3個(gè)邊框。YOLOv3網(wǎng)絡(luò)在3個(gè)特征圖中分別通過(guò)(4+1+c)k個(gè)大小為c的卷積核進(jìn)行卷積預(yù)測(cè),k為預(yù)設(shè)邊框的數(shù)量

      (本文k取3),c為預(yù)測(cè)目標(biāo)的類別數(shù)量(本文c取2),其中4k個(gè)參數(shù)負(fù)責(zé)預(yù)測(cè)目標(biāo)邊框的偏移量,k個(gè)參數(shù)負(fù)責(zé)預(yù)測(cè)目標(biāo)邊框內(nèi)包含目標(biāo)的概率,ck個(gè)參數(shù)負(fù)責(zé)預(yù)測(cè)這k個(gè)預(yù)設(shè)邊框?qū)?yīng)c個(gè)目標(biāo)類別的概率,最后進(jìn)行融合得到結(jié)果。

      1.2 損失函數(shù)

      用第i個(gè)網(wǎng)格的第j個(gè)錨點(diǎn)框進(jìn)行預(yù)測(cè)時(shí),與輸出層計(jì)算對(duì)象對(duì)應(yīng),需要對(duì)這個(gè)錨點(diǎn)框產(chǎn)生的邊框進(jìn)行中心坐標(biāo)誤差、寬高誤差、置信度誤差和分類誤差的計(jì)算。因此,本文檢測(cè)方法損失函數(shù)為

      Lij=λPij+Cij+Dij(1)

      式中:Lij為第i個(gè)網(wǎng)格的第j個(gè)錨點(diǎn)框預(yù)測(cè)的總損失;Pij為第i個(gè)網(wǎng)格的第j個(gè)錨點(diǎn)框預(yù)測(cè)得到的邊框坐標(biāo)損失;λ為邊框坐標(biāo)損失的權(quán)值,由于定位誤差對(duì)整個(gè)模型的影響較大,該值一般較大,本文λ取值為5;Cij為第i個(gè)網(wǎng)格的第j個(gè)錨點(diǎn)框預(yù)測(cè)置信度損失;Dij為第i個(gè)網(wǎng)格的第j個(gè)錨點(diǎn)框預(yù)測(cè)分類損失。

      2 船舶定位原理

      2.1 雙目視覺(jué)原理

      圖像處理、立體視覺(jué)經(jīng)常涉及世界坐標(biāo)系、相機(jī)坐標(biāo)系、像素坐標(biāo)系和圖像坐標(biāo)系。利用坐標(biāo)系相互轉(zhuǎn)換實(shí)現(xiàn)測(cè)距的雙目視覺(jué)原理見(jiàn)圖3。

      圖3中:Ow-XwYwZw為世界坐標(biāo)系,描述相機(jī)在世界中的位置;Ol-XlYlZl和Or-XrYrZr分別為左、右相機(jī)的相機(jī)坐標(biāo)系,坐標(biāo)原點(diǎn)為相機(jī)的光心;ol-ulvl和or-urvr分別為左、右相機(jī)的像素坐標(biāo)系,坐標(biāo)原點(diǎn)位于圖像左上角;o1-x1y1和o2-x2y2分

      別為左、右相機(jī)的圖像坐標(biāo)系,坐標(biāo)原點(diǎn)位于圖像中心;

      P(Xw,Yw,Zw)為世界坐標(biāo)系中的一

      點(diǎn),即現(xiàn)實(shí)中的目標(biāo)點(diǎn);P1、P2為點(diǎn)P分別在左、右相機(jī)中的像點(diǎn),這兩個(gè)像點(diǎn)在圖像坐標(biāo)系中的坐標(biāo)分別為(x1,y1)、(x2,y2),在像素坐標(biāo)系中的坐標(biāo)分別為(u1,v1)、(u2,v2);B為左、右相機(jī)基線之間的距離;fx和fy分別為左、右相機(jī)的焦距。

      像素坐標(biāo)系與世界坐標(biāo)系的轉(zhuǎn)換關(guān)系如下:

      式中:Zc為點(diǎn)P在相機(jī)坐標(biāo)系中Z方向的坐標(biāo)值,一般地,假設(shè)世界坐標(biāo)系與相機(jī)坐標(biāo)系重合,即Zc=Zw;(u,v)為點(diǎn)P在像素坐標(biāo)系中的坐標(biāo);K為相機(jī)內(nèi)參數(shù)矩陣;R為世界坐標(biāo)系到相機(jī)坐標(biāo)系的旋轉(zhuǎn)矩陣;T為世界坐標(biāo)系到相機(jī)坐標(biāo)系的平移矩陣。

      當(dāng)K、R、T已知時(shí),由點(diǎn)在世界坐標(biāo)系中的坐標(biāo)很容易求得其在像素坐標(biāo)系中的坐標(biāo),而從像素坐標(biāo)系中的坐標(biāo)求世界坐標(biāo)系中的坐標(biāo)存在Zc未知的情況,因此通過(guò)引入雙目視覺(jué)消去Zc的影響。

      一般地,假設(shè)世界坐標(biāo)系與左相機(jī)的相機(jī)坐標(biāo)系重合,即Zl=Zw,右相機(jī)與左相機(jī)的姿態(tài)相同,僅在世界坐標(biāo)系Xw軸正方向移動(dòng)距離B,則左、右相機(jī)坐標(biāo)投影關(guān)系如下:

      式中:Kl、Kr

      分別為左、右相機(jī)內(nèi)參數(shù)矩陣;

      Rl、Rr

      分別為世界坐標(biāo)系到左、右相機(jī)的相機(jī)坐標(biāo)系的旋轉(zhuǎn)矩陣;

      Tl、Tr

      分別為世界坐標(biāo)系到左、右相機(jī)的相機(jī)坐標(biāo)系的平移矩陣。

      式中的u1-u2就是通常所說(shuō)的視差。

      2.2 特征點(diǎn)檢測(cè)與匹配算法

      尺度不變特征變換(scale-invariant feature transform, SIFT)算法和SURF算法是當(dāng)今主流的匹配算法,這兩種算法的實(shí)現(xiàn)步驟是一致的,見(jiàn)圖4。這兩種算法僅在尺度空間、特征點(diǎn)檢測(cè)、方向和特征描述子的選擇上存在一定差異。

      在尺度空間建立方面,SIFT算法使用高斯差分(difference of Gaussian, DOG)與不同尺度的圖片卷積建立空間,而SURF算法使用不同尺度的箱式過(guò)濾器(box filters)與原圖片卷積。在特征點(diǎn)檢測(cè)方面,SIFT算法先進(jìn)行非極大抑制,再去除低對(duì)比度的點(diǎn),最后通過(guò)Hessian矩陣去除邊緣的點(diǎn);而SURF算法相反,先利用Hessian矩陣確定候選點(diǎn),然后進(jìn)行非極大抑制。在方向方面,SIFT算法在正方形區(qū)域內(nèi)統(tǒng)計(jì)梯度幅值的直方圖,找最大值對(duì)應(yīng)的方向;而SURF算法在圓形區(qū)域內(nèi)計(jì)算各個(gè)扇形范圍內(nèi)x、y方向的haar小波響應(yīng),找模最大的扇形方向。在特征描述子方面,SIFT算法將16×16的采樣點(diǎn)劃分為4×4的區(qū)域,統(tǒng)計(jì)成直方圖,一共128維;SURF算法將20×20的區(qū)域劃分為4×4的區(qū)域,計(jì)算haar小波響應(yīng),一共64維。

      SIFT算法與SURF算法在性能上存在差異:SIFT算法在尺度和旋轉(zhuǎn)變換的情況下匹配效果更好;SURF算法在亮度變化的情況下匹配效果更好,在模糊方面也優(yōu)于SIFT算法,運(yùn)算速度是SIFT算法的3倍。

      3 船舶檢測(cè)與定位

      3.1 船舶檢測(cè)優(yōu)化

      YOLOv3網(wǎng)絡(luò)基于錨點(diǎn)框預(yù)測(cè)邊框,合適的錨點(diǎn)框能讓預(yù)測(cè)框與真實(shí)的邊框更加接近。YOLOv3網(wǎng)絡(luò)原始的錨點(diǎn)框是基于VOC和COCO數(shù)據(jù)集進(jìn)行聚類得到的,數(shù)量為9。結(jié)合船舶所在的空間環(huán)境和本文拍攝場(chǎng)景,本文采用K均值聚類的方法對(duì)訓(xùn)練集的邊框進(jìn)行聚類,得到更加合適的錨點(diǎn)框,使模型快速收斂并對(duì)船舶進(jìn)行更好的檢測(cè),聚類方法中距離公式如下:

      D=1-b∩cb∪c(7)

      其中:b為標(biāo)注框;c為聚類中心框;D為距離。標(biāo)注框與聚類中心框的形狀越相近,交并比越大,D越小,因此通過(guò)計(jì)算能獲取最小距離對(duì)應(yīng)的最佳錨點(diǎn)框。

      本文在所有船舶樣本(即所有的標(biāo)注框b)中隨機(jī)指定9個(gè)聚類中心(即聚類中心框c

      ;考慮不同類型船舶的長(zhǎng)寬比有明顯差別,每種船舶至少選取一個(gè)聚類中心)形成9個(gè)集群

      ;用式(7)計(jì)算每個(gè)樣本與9個(gè)聚類中心的距離D,將樣本劃分到與其距離最小的集群中,并將每個(gè)聚類中心更新為當(dāng)前集群的均值;重復(fù)以上步驟直至聚類中心變化很小,得到9個(gè)最佳聚類中心。

      3.2 船舶定位優(yōu)化

      視差值直接影響測(cè)距效果,但在背景復(fù)雜,船舶在視圖中占比小、特征不明顯的情況下,用傳統(tǒng)的BM算法、SGBM算法都不能得到有效的視差圖。SIFT算法通常在搜索正確的特征時(shí)更加準(zhǔn)確,但更加耗時(shí)。SURF算法特征描述子大部分基于強(qiáng)度差值,計(jì)算更快捷。考慮船舶定位所需的實(shí)時(shí)性,本

      文先利用SURF算法對(duì)左、右視圖進(jìn)行特征點(diǎn)匹配,然后在此基礎(chǔ)上使用YOLOv3網(wǎng)絡(luò)檢測(cè)到的船舶邊框?qū)μ卣鼽c(diǎn)對(duì)進(jìn)行約束篩選,從而快速、準(zhǔn)確地獲得有效視差并進(jìn)行距離計(jì)算和定位。測(cè)距定位流程見(jiàn)圖5。

      3.2.1 SURF算法匹配特征點(diǎn)

      首先使用SURF算法對(duì)輸入的左、右相機(jī)圖像進(jìn)行特征點(diǎn)提取和匹配,見(jiàn)圖6。

      從圖6可見(jiàn),存在大量的錯(cuò)誤匹配點(diǎn)和無(wú)用匹配點(diǎn)(大樓匹配點(diǎn))。因此,本文提出特征點(diǎn)對(duì)匹配閾值條件:

      式中:v1和vr分別為特征點(diǎn)對(duì)在左、右視圖中的縱坐標(biāo)值(由于兩張視圖在SURF算法匹配前進(jìn)行過(guò)立體矯正,有效匹配的特征點(diǎn)對(duì)的縱坐標(biāo)值應(yīng)基本相同);N為在左視圖中檢測(cè)到的目標(biāo)邊框數(shù);M為在右視圖中檢測(cè)到的目標(biāo)邊框數(shù);用I1j判斷左視圖特征點(diǎn)是否落在左視圖第j個(gè)邊框中,是則為1,否則為0;用Irk判斷右視圖特征點(diǎn)是否落在右視圖第k個(gè)邊框中,是則為1,否則為0;T為閾值,可根據(jù)立體矯正效果設(shè)置,本文將其設(shè)置為10像素(本文拍攝的圖片的分辨率為960×480)。

      3.2.2 特征點(diǎn)對(duì)條件約束

      在圖6的基礎(chǔ)上,用式(8)進(jìn)行條件約束,見(jiàn)圖7。在獲得同一目標(biāo)的多組特征點(diǎn)對(duì)和多個(gè)視差值后,對(duì)視差值進(jìn)行均值計(jì)算,提取最優(yōu)視差值,最后通過(guò)式(5)和(6)計(jì)算船舶位置。

      4 實(shí)驗(yàn)與結(jié)果分析

      4.1 雙目攝像機(jī)船舶視頻源

      上海港國(guó)際客運(yùn)中心碼頭東起高陽(yáng)路,西至虹口港,北沿東大名路,南到黃浦江,岸線全長(zhǎng)近1 200 m,是上海市水運(yùn)重大交通樞紐之一,可同時(shí)停泊3艘7萬(wàn)噸級(jí)的豪華郵輪。因此,對(duì)上海港國(guó)際客運(yùn)中心碼頭船舶進(jìn)行檢測(cè)與定位具有一定的實(shí)際意義。

      本研究共使用15 000幀在上海港國(guó)際客運(yùn)中心碼頭拍攝的圖片作為初始數(shù)據(jù)集,利用旋轉(zhuǎn)變換、加入高斯噪聲等數(shù)據(jù)增強(qiáng)的方式擴(kuò)大圖像數(shù)據(jù),增強(qiáng)YOLO模型神經(jīng)網(wǎng)絡(luò)的泛化能力。隨后將擴(kuò)大的圖像數(shù)據(jù)的分辨率校正為416×416大小,并按

      7∶3的比例分為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集包含21 000幀圖片,測(cè)試集包含9 000幀圖片。

      本研究采用Windows 10操作系統(tǒng),16 GB RAM,CPU I7-9750H主頻為2.6 GHz,GPU為RTX 2070,實(shí)驗(yàn)平臺(tái)為Visual Studio 2017及Python 3.6.5。

      4.2 實(shí)驗(yàn)結(jié)果分析

      為驗(yàn)證檢測(cè)的有效性,對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練200次后,平均損失函數(shù)值下降到1以下并趨于穩(wěn)定,表明該算法在訓(xùn)練過(guò)程中具有很好的收斂性。

      通過(guò)精確率-召回率曲線評(píng)估本文檢測(cè)方法的性能,對(duì)100幀圖片進(jìn)行評(píng)估。假設(shè)測(cè)試圖中實(shí)際有船舶A艘,通過(guò)本文檢測(cè)方法檢測(cè)到的船舶有B艘,其中檢測(cè)到的的確是船舶的有C艘,則精確率P=C/B,召回率R=C/A。

      根據(jù)圖8可知,在精確率為95%的條件下召回率能達(dá)到85%,而當(dāng)召回率達(dá)到92%時(shí)精確率依然可以達(dá)到85%。

      本文采用SURF算法得到特征點(diǎn)對(duì),結(jié)合多目標(biāo)檢測(cè)得到的船舶邊框處理特征點(diǎn)對(duì),確定船舶最佳視差,通過(guò)計(jì)算得到船舶位置信息,效果見(jiàn)圖9。

      為實(shí)現(xiàn)測(cè)距定位效果可視化,對(duì)測(cè)試圖中的船舶位置進(jìn)行二維平面還原。多幀圖片的二維還原圖見(jiàn)圖10,其中:坐標(biāo)為(0,0)的點(diǎn)與圖3中的Ol重合;Z軸與圖3中Zl軸重合;X軸與圖3中Xl軸重合。從圖10可知,本文算法預(yù)測(cè)位置與激光測(cè)距儀測(cè)量位置基本重合。

      4.3 性能評(píng)估

      4.3.1 多目標(biāo)檢測(cè)性能評(píng)估

      本文在YOLOv3網(wǎng)絡(luò)訓(xùn)練過(guò)程中采用K均值聚類的方法對(duì)訓(xùn)練集的邊框重新進(jìn)行聚類,得到更加合適的錨點(diǎn)框。分別對(duì)原錨點(diǎn)框和新錨點(diǎn)框進(jìn)行訓(xùn)練得到兩個(gè)模型,再用這兩個(gè)模型對(duì)500幀圖片進(jìn)行檢測(cè)并計(jì)算精度。結(jié)果表明,原錨點(diǎn)框訓(xùn)練得到的模型的檢測(cè)精度為89%,新錨點(diǎn)框訓(xùn)練得到的模型的檢測(cè)精度為94%。

      4.3.2 測(cè)距性能評(píng)估

      用(XV,ZV)和(XL,ZL)分別表示采用本文方法測(cè)得的船舶位置坐標(biāo)和采用激光測(cè)距儀測(cè)得的船舶位置坐標(biāo),則單一船舶定位誤差可表示為

      E=(XV-XL)2+(ZV-ZL)2(9)

      本文對(duì)500幀圖片上的3 000艘船進(jìn)行定位誤差計(jì)算,部分船坐標(biāo)值及其定位誤差值見(jiàn)表1。最后求得最大誤差為16 m,平均誤差為11 m。

      考慮距離遠(yuǎn)近對(duì)定位誤差的影響,每100 m計(jì)算一次平均誤差值,目標(biāo)距離與本文方法定位誤差關(guān)系曲線見(jiàn)圖11。由圖11可見(jiàn),定位誤差隨距離增大而增大。

      大量實(shí)驗(yàn)表明,本文方法能實(shí)現(xiàn)對(duì)播放速度為30幀/s的視頻中目標(biāo)的高精度自動(dòng)檢測(cè)和10次/s的目標(biāo)位置信息更新。在現(xiàn)今有人值守的船端,船員能夠通過(guò)視覺(jué)傳感器實(shí)時(shí)獲悉周邊有無(wú)他船、他船種類和他船位置信息。

      5 結(jié)束語(yǔ)

      本文提出的基于YOLOv3算法的船舶檢測(cè)與定位方法對(duì)播放速度為30幀/s的視頻中目標(biāo)的平均檢測(cè)精度達(dá)94%,目標(biāo)在1 n mile內(nèi)的平均定位誤差為11 m左右。本文方法對(duì)智能船舶視覺(jué)感知信息與雷達(dá)、船舶自動(dòng)識(shí)別系統(tǒng)(AIS)信息的融合,以及避碰輔助決策具有非常重要的作用。本研究?jī)H利用激光測(cè)距儀對(duì)定位方法進(jìn)行評(píng)估,且并未考慮船舶大小和船舶定位點(diǎn)(定位點(diǎn)為船首或桅桿)。后續(xù)將測(cè)算船舶大小,確定船舶定位點(diǎn),并且融合雷達(dá)、AIS等海上交通數(shù)據(jù),對(duì)定位方法進(jìn)行進(jìn)一步評(píng)估。

      參考文獻(xiàn):

      [1]蔣晶晶, 安博文. 低空航拍視頻中基于Vibe算法的船舶檢測(cè)方法[J]. 微型機(jī)與應(yīng)用, 2017, 36(10): 44-47. DOI: 10.19358/j.issn.1674-7720.2017.10.013.

      [2]李雙雙. 內(nèi)河視頻監(jiān)控中運(yùn)動(dòng)船舶檢測(cè)算法研究[D]. 大連: 大連海事大學(xué), 2018.

      [3]GIRSHICKR, DONAHUE J, DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2014: 580-587. DOI: 10.1109/CVPR.2014.81.

      [4]GIRSHICKR. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision. IEEE, 2015: 1440-1448. DOI: 10.1109/ICCV.2015.169.

      [5]RENShaoqing, HE Kaiming, GIRSHICK R,et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149. DOI: 10.1109/TPAMI.2016.2577031.

      [6]LIUWei, ANGUELOV D, ERHAN D,et al. SSD: single shot multi-box detector[C]//European Conference on Computer Vision 2016, Lecture Notes in Computer Science. Springer, 2016, 9905: 21-37. DOI: 10.1007/978-3-319-46448-0_2 vol 9905.

      [7]SHAOZhenfeng, WANG Linggang, WANG Zhongyuan,et al. Saliency-aware convolution neural network for ship detection in surveillance video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(3): 781-794. DOI: 10.1109/TCSVT.2019.2897980.

      [8]SHAOZhenfeng, WU Wenjing, WANG Zhongyuan,et al. SeaShips: a large-scale precisely annotated dataset for ship detection[J]. IEEE Transactions on Multimedia, 2018, 20(10): 2593-2604. DOI: 10.1109/TMM.2018.2865686.

      [9]HUANGZhijian, SUI Bowen, WEN Jiayi,et al. An intelligent ship image/video detection and classification method with improved regressive deep convolutional neural network[J]. Complexity, 2020(1): 1-11. DOI: 10.1155/2020/1520872.

      [10]劉博, 王勝正, 趙建森, 等. 基于Darknet網(wǎng)絡(luò)和YOLOv3算法的船舶跟蹤識(shí)別[J]. 計(jì)算機(jī)應(yīng)用, 2019, 39(6): 1663-1668. DOI: 10.11772/j.issn.1001-9081.2018102190.

      [11]REDMONJ, DIVVALA S, GIRSHICK R,et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016: 779-788. DOI: 10.1109/CVPR.2016.91.

      [12]張帆, 王欣, 孫增玉. 基于雙目視覺(jué)+激光測(cè)距融合的空間目標(biāo)位姿測(cè)量方法研究[C]//第二屆中國(guó)空天安全會(huì)議. 中國(guó)指揮與控制學(xué)會(huì)空天安全平行系統(tǒng)專業(yè)委員會(huì), 2017: 109-116.

      [13]YANGM S, SINAGA K P. A feature-reduction multi-viewK-means clustering algorithm[J]. IEEE Access, 2019, 7: 114472-114486. DOI: 10.1109/ACCESS.2019.2934179.

      [14]CHENWei, CAO Qian. Feature points extraction and matching based on improved SURF algorithm[C]//2018 IEEE International Conference on Mechatronics and Automation (ICMA). IEEE, 2018: 1194-1198. DOI: 10.1109/ICMA.2018.8484336.

      [15]FANGQiang, ZHUO Li, HU Xiaochen,et al. Fine-grained vehicle recognition using hierarchical fine-tuning strategy for urban surveillance videos[C]//2016 International Conference on Progress in Informatics and Computing (PIC). IEEE, 2016: 233-236. DOI: 10.1109/PIC.2016.7949501.

      (編輯 賈裙平)

      猜你喜歡
      坐標(biāo)系視圖邊框
      極坐標(biāo)系中的奇妙曲線
      三角函數(shù)的坐標(biāo)系模型
      求坐標(biāo)系內(nèi)三角形的面積
      Y—20重型運(yùn)輸機(jī)多視圖
      SA2型76毫米車載高炮多視圖
      《投影與視圖》單元測(cè)試題
      外出玩
      Django 框架中通用類視圖的用法
      例談坐標(biāo)系與參數(shù)方程??碱}型
      通過(guò)美工刀切分屏幕與邊框
      开化县| 固原市| 吉隆县| 兴文县| 呼伦贝尔市| 武功县| 长海县| 禹州市| 历史| 阿尔山市| 洞头县| 会理县| 灵丘县| 东丰县| 泰兴市| 钟祥市| 九寨沟县| 黄大仙区| 庆城县| 疏勒县| 银川市| 平利县| 定南县| 宁阳县| 毕节市| 上思县| 清新县| 剑河县| 遵义市| 商丘市| 龙泉市| 苏尼特右旗| 滨海县| 高淳县| 馆陶县| 织金县| 随州市| 淳安县| 阿图什市| 张家港市| 项城市|