• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向海洋牧場(chǎng)智能化建設(shè)的海珍品實(shí)時(shí)檢測(cè)方法

      2021-08-04 05:55:58蔡克衛(wèi)陳鵬宇林遠(yuǎn)山
      關(guān)鍵詞:準(zhǔn)確率卷積深度

      洪 亮,王 芳,蔡克衛(wèi),陳鵬宇,林遠(yuǎn)山

      (1. 大連海洋大學(xué)信息工程學(xué)院,大連 116023;2. 遼寧省海洋信息技術(shù)重點(diǎn)實(shí)驗(yàn)室,大連 116023; 3. 設(shè)施漁業(yè)教育部重點(diǎn)實(shí)驗(yàn)室,大連海洋大學(xué),大連 116023)

      0 引言

      海洋牧場(chǎng)是指利用自然的海洋生態(tài)環(huán)境,將人工放養(yǎng)的經(jīng)濟(jì)海洋生物聚集起來(lái),像在陸地放牧牛羊一樣,對(duì)海參、海膽、扇貝、魚等海珍品資源進(jìn)行有計(jì)劃和有目的的海上放養(yǎng),是拓展海洋漁業(yè)發(fā)展空間、促進(jìn)海洋漁業(yè)可持續(xù)發(fā)展的有效措施。海洋牧場(chǎng)建設(shè)過(guò)程中需要進(jìn)行海珍品捕撈量調(diào)查、養(yǎng)殖狀態(tài)監(jiān)測(cè)、海珍品采捕等任務(wù),目前這些任務(wù)主要依靠人工完成,成本高,危險(xiǎn)性大?;谒聶C(jī)器人的海珍品捕撈量調(diào)查、狀態(tài)監(jiān)測(cè)、采捕是未來(lái)的發(fā)展方向,這些任務(wù)主要依靠水下海珍品檢測(cè)技術(shù)來(lái)完成。因此,水下海珍品檢測(cè)是其中的關(guān)鍵。

      為此,國(guó)內(nèi)外學(xué)者對(duì)水下海珍品檢測(cè)進(jìn)行廣泛研究。郭常有等[1]將扇貝彩色圖像通過(guò)閾值分割轉(zhuǎn)變?yōu)槎祱D像,利用濾波技術(shù)減少圖像噪聲,并采用改進(jìn)的OPTA算法和邊界追蹤算法提取扇貝圖像邊界,計(jì)算扇貝的位置坐標(biāo)和大小。吳一全等[2]提出了一種淡水魚種類識(shí)別方法。將形狀與紋理特征組合成高維特征向量,通過(guò)人工蜂群算法的待定參數(shù)進(jìn)行尋優(yōu)。吳健輝等[3]提出一種基于圖像處理技術(shù)的魚種類識(shí)別方法。采用鄰域邊界算法對(duì)魚體的輪廓進(jìn)行提取,建立魚體背部輪廓數(shù)學(xué)模型。采用魚體背部彎曲潛能算法對(duì)不同種類魚體樣本的背部彎曲潛能值進(jìn)行計(jì)算和聚類統(tǒng)計(jì)。崔尚等[4]提出基于Sobel改進(jìn)算子的海參圖像識(shí)別方法。將圖像進(jìn)行直方圖均衡化處理,利用Sobel改進(jìn)算子將增強(qiáng)后的圖像進(jìn)行分割處理,經(jīng)過(guò)膨脹、腐蝕和小目標(biāo)移除算法處理,得到含有海參目標(biāo)的二值化圖像。以上方法的基本思路是根據(jù)檢測(cè)對(duì)象的特點(diǎn)利用圖像處理技術(shù)設(shè)計(jì)特定算法進(jìn)行識(shí)別,此類方法通常效率較高,但這些方法只針對(duì)單一品種進(jìn)行檢測(cè),更重要的是需要根據(jù)領(lǐng)域知識(shí)進(jìn)行手工特征提取,過(guò)程繁瑣,工作量大,魯棒性較差。

      深度學(xué)習(xí)[5-8]具有自動(dòng)特征提取的特點(diǎn),大大提高了目標(biāo)檢測(cè)的效率和精度[9-12],推動(dòng)了目標(biāo)檢測(cè)[13-17]在農(nóng)業(yè)[18-20]、工業(yè)[21]等領(lǐng)域的廣泛應(yīng)用。為此,Li等[22]嘗試使用基于改進(jìn)的Faster-RCNN算法實(shí)現(xiàn)了12種魚類的識(shí)別。通過(guò)使用區(qū)域建議網(wǎng)絡(luò),產(chǎn)生的高質(zhì)量建議,與后續(xù)的魚檢測(cè)識(shí)別網(wǎng)絡(luò)共享卷積特征,實(shí)現(xiàn)了良好的識(shí)別和檢測(cè)性能。袁利毫等[23]提出基于YOLOv3的水下檢測(cè)算法,利用水下機(jī)器人采集的數(shù)據(jù)對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,采用小批量梯度下降法和沖量對(duì)神經(jīng)網(wǎng)絡(luò)權(quán)重進(jìn)行更新,并調(diào)整算法的超參數(shù),提高了水下小目標(biāo)的識(shí)別率和檢測(cè)速度。Kaveti等[24]提出了基于Inception v2的SSD檢測(cè)算法實(shí)現(xiàn)了水下魚類、海星和海綿的檢測(cè)。利用機(jī)器人平臺(tái)收集水下圖像數(shù)據(jù),建立數(shù)據(jù)標(biāo)簽,訓(xùn)練改進(jìn)的算法模型,實(shí)現(xiàn)高精度檢測(cè)。趙德安等[25]提出了基于機(jī)器視覺(jué)的水下河蟹識(shí)別方法,該方法通過(guò)在投餌船下方安裝攝像頭進(jìn)行河蟹圖像采集,修改基于YOLOv3網(wǎng)絡(luò)的輸入輸出,并采用自建的數(shù)據(jù)集對(duì)其進(jìn)行訓(xùn)練,實(shí)現(xiàn)了對(duì)水下河蟹的識(shí)別。郭祥云等[26]采用基于深度殘差網(wǎng)絡(luò)實(shí)現(xiàn)了水下海參識(shí)別算法。以海參圖像為正樣本,非海參圖像為負(fù)樣本構(gòu)建數(shù)據(jù)集,以不同像素圖像分別進(jìn)行模型訓(xùn)練與識(shí)別。上述基于深度學(xué)習(xí)的海珍品檢測(cè)方法的檢測(cè)精度得到大幅提升,但是模型較大,難以部署到如水下機(jī)器人這種移動(dòng)設(shè)備上。此外鮮有考慮水下圖像模糊、對(duì)比度低、缺色等對(duì)檢測(cè)所帶來(lái)的檢測(cè)性能影響。

      為此,本文在原有YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上進(jìn)行改進(jìn),提出了面向海洋牧場(chǎng)智能化建設(shè)的海珍品實(shí)時(shí)檢測(cè)方法。該模型使用深度可分離卷積代替YOLOv3中的標(biāo)準(zhǔn)卷積,減少參數(shù)量,提升推理速度;針對(duì)水下圖像模糊、對(duì)比度低、缺色等特點(diǎn),采用基于UGAN的圖像增強(qiáng)方法來(lái)對(duì)海珍品圖像進(jìn)行預(yù)處理;并且利用基于Mosaic的數(shù)據(jù)增廣方法,提升圖像數(shù)據(jù)的多樣化,增加模型的魯棒性。

      1 海珍品檢測(cè)網(wǎng)絡(luò)框架

      1.1 YOLOv3網(wǎng)絡(luò)

      YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)整體框架分為兩個(gè)部分:主干網(wǎng)絡(luò)和檢測(cè)器。

      主干網(wǎng)絡(luò)部分:YOLOv3采用Darknet-53作為特征提取的主干網(wǎng)絡(luò)。由一個(gè)3×3卷積層和5個(gè)階段的殘差結(jié)構(gòu)組成,每個(gè)階段的殘差結(jié)構(gòu)數(shù)量分別為1、2、8、8、4。其中每個(gè)殘差結(jié)構(gòu)由一個(gè)3×3卷積層和殘差塊構(gòu)成。殘差塊由一個(gè)1×1卷積層、一個(gè)3×3卷積層和求和運(yùn)算構(gòu)成。YOLOv3主干網(wǎng)絡(luò)一方面采用全卷積結(jié)構(gòu),另一方面借鑒ResNet思想,引入了Residual結(jié)構(gòu),使網(wǎng)絡(luò)深度增加,特征提取能力大幅增強(qiáng)。

      檢測(cè)器部分:YOLOv3網(wǎng)絡(luò)生成三個(gè)分支,每個(gè)分支對(duì)應(yīng)三種大小特征圖,分別為13×13、26×26、52×52,每個(gè)分支結(jié)構(gòu)由連續(xù)卷積塊、3×3卷積和1×1卷積構(gòu)成。其中連續(xù)卷積塊由1×1、3×3、1×1、3×3和1×1連續(xù)卷積構(gòu)成。經(jīng)過(guò)網(wǎng)絡(luò)計(jì)算,每個(gè)特征圖會(huì)輸出三個(gè)邊界框,每個(gè)邊界框會(huì)預(yù)測(cè)中心坐標(biāo)x、y,寬w、高h(yuǎn)、置信度和所屬類別信息。

      1.2 DSC-YOLO網(wǎng)絡(luò)

      為提高YOLOv3對(duì)水下海珍品檢測(cè)的實(shí)時(shí)性,本文對(duì)其結(jié)構(gòu)進(jìn)行改進(jìn),提出一種輕量化模型DSC-YOLO,該模型采用深度可分離卷積[27]代替YOLOv3中的標(biāo)準(zhǔn)卷 積。深度可分離卷積是MobileNet采用的一種技術(shù),其可分解為一個(gè)深度卷積和一個(gè)點(diǎn)卷積,如圖1所示。該方法和標(biāo)準(zhǔn)卷積相比,其計(jì)算如式(1)所示。

      式中M為輸入特征圖通道數(shù),H、W為輸入特征圖的高和寬,N為卷積核個(gè)數(shù),Dk為卷積核大小。具體地,將該技術(shù)應(yīng)用到神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,如圖2所示。

      在DSC-YOLO卷積結(jié)構(gòu)中,圖像數(shù)據(jù)先經(jīng)過(guò)一個(gè)3×3深度卷積層;然后傳入歸一化層,加速數(shù)據(jù)收斂、防止過(guò)擬合和降低網(wǎng)絡(luò)對(duì)權(quán)重敏感度;接著經(jīng)過(guò)LeakyRelu激活函數(shù)層;輸入到一個(gè)1×1點(diǎn)卷積層;最后經(jīng)過(guò)歸一化層和經(jīng)過(guò)LeakyRelu激活函數(shù)層輸出。

      將YOLOv3中標(biāo)準(zhǔn)卷積替換為深度可分離卷積,其標(biāo)準(zhǔn)卷積的參數(shù)量是深度可分離卷積的8.88倍,如表1所示,大大降低了計(jì)算量,提高實(shí)時(shí)性。

      表1 標(biāo)準(zhǔn)卷積和深度可分離卷積的參數(shù)量對(duì)比 Table 1 Comparison of parameters between standard convolution and depthwise separable convolution

      1.3 基于UGAN(Underwater Generative Adversarial Network)的水下圖像增強(qiáng)

      受水體懸浮顆粒對(duì)光產(chǎn)生折射、散射、選擇性吸收等特性的影響,攝像頭采集到的水下圖像存在色彩缺失、細(xì)節(jié)模糊、對(duì)比度低、噪聲污染嚴(yán)重等問(wèn)題,缺失大量有效信息的水下圖像勢(shì)必影響目標(biāo)檢測(cè)的性能。清晰的圖像有助于提升檢測(cè)的準(zhǔn)確性,因此,有必要對(duì)水下圖像進(jìn)行增強(qiáng)。傳統(tǒng)水下圖像增強(qiáng)主要包括基于物理模型的增強(qiáng)方法和基于非物理模型的增強(qiáng)方法。前者針對(duì)模型缺陷,進(jìn)行修補(bǔ)復(fù)原;后者針對(duì)圖像的清晰度進(jìn)行提高。這兩種方法都需要手工特征提取。新的UGAN方法采用無(wú)監(jiān)督方式,可以自動(dòng)學(xué)習(xí)到訓(xùn)練數(shù)據(jù)樣本的分布,產(chǎn)生新的數(shù)據(jù)。其主要思想是網(wǎng)絡(luò)通過(guò)不斷地對(duì)抗博弈,產(chǎn)生新的圖像數(shù)據(jù),實(shí)現(xiàn)從水下模糊圖像到水下清晰圖像的映射過(guò)程,如圖3所示。本文使用UGAN對(duì)水下圖像進(jìn)行增強(qiáng)。為展示UGAN處理效果,本文從水下數(shù)據(jù)集隨機(jī)選擇四張具有代表水下環(huán)境特性的圖像送入U(xiǎn)GAN模型進(jìn)行處理,效果如圖4所示。圖4中左側(cè)圖像代表了水下環(huán)境常見(jiàn)的圖像問(wèn)題,如模糊、對(duì)比度低、缺色或顏色背景等。右側(cè)圖像為UGAN增強(qiáng)后的對(duì)應(yīng)圖像。由圖可見(jiàn),UGAN能夠?qū)︻伾M(jìn)行校正,使圖像更加明亮、清晰。

      UGAN模型由生成網(wǎng)絡(luò)和辨別網(wǎng)絡(luò)構(gòu)成,其整體為全卷積結(jié)構(gòu)。生成網(wǎng)絡(luò)采用Encoder-Decoder模式,在Encoder部分,由8個(gè)卷積層構(gòu)成,卷積核大小為4×4,步長(zhǎng)為2。每個(gè)卷積層后連接歸一化層和斜率為0.2的LeakyReLU激活層。在Decoder部分,由8個(gè)反卷積層構(gòu)成,反卷積核大小為4×4,步長(zhǎng)為2。反卷積層后沒(méi)有接入歸一化層。前7個(gè)反卷積層連接ReLU激活層[28],最后一個(gè)反卷積層連接Tanh激活層。在上采樣過(guò)程,每個(gè)反卷積層與對(duì)應(yīng)的卷積層進(jìn)行拼接輸出到下一層,生成網(wǎng)絡(luò)呈現(xiàn)出U形。辨別網(wǎng)絡(luò)由5個(gè)卷積層構(gòu)成,前三層卷積核大小為4×4,步長(zhǎng)為2,第四層卷積核大小為4×4,步長(zhǎng)為1,第五層卷積核大小為1×1,步長(zhǎng)為1。每個(gè)卷積層后連接歸一化層和LeakyReLU激活層。辨別網(wǎng)絡(luò)采用PatchGAN設(shè)計(jì),輸出32×32×1的矩陣概率,與普通GAN的辨別網(wǎng)絡(luò)輸出的一個(gè)實(shí)數(shù)概率相比,可以獲取更多的圖像細(xì)節(jié)信息。

      訓(xùn)練UGAN網(wǎng)絡(luò)之前需要一組圖像對(duì),圖像對(duì)通過(guò)CycleGAN[29]獲取,把空氣中圖像輸入到CycleGAN中,生成對(duì)應(yīng)的水下環(huán)境風(fēng)格圖像。然后將空氣中圖像和水下環(huán)境風(fēng)格圖像作為圖像對(duì)訓(xùn)練UGAN。生成網(wǎng)絡(luò)接收一個(gè)水下環(huán)境風(fēng)格圖像和一個(gè)隨機(jī)噪聲,然后經(jīng)生成網(wǎng)絡(luò)生成水下生成圖像,水下生成圖像與對(duì)應(yīng)空氣中圖像送入辨別網(wǎng)絡(luò)進(jìn)行辨別,若辨別為真,則返回真實(shí)標(biāo)簽,否則,返回生成標(biāo)簽。生成網(wǎng)絡(luò)與辨別網(wǎng)絡(luò)互相對(duì)抗博弈,直到辨別網(wǎng)絡(luò)分辨不出水下圖像是否為真實(shí)或生成圖像為止。

      1.4 基于Mosaic的數(shù)據(jù)增廣

      深度學(xué)習(xí)需要大量訓(xùn)練數(shù)據(jù),而水下訓(xùn)練圖像獲取成本昂貴,有必要使用數(shù)據(jù)增廣技術(shù)來(lái)生成大量訓(xùn)練樣本[30]。目前數(shù)據(jù)增廣主要有光度變換(亮度、對(duì)比度、色相、飽和度)、幾何變換(隨機(jī)縮放、裁剪、翻轉(zhuǎn)和旋轉(zhuǎn))、圖像遮擋、圖像拼接等。考慮到Mosaic數(shù)據(jù)增廣綜合了光度變換、幾何變換和圖像拼接的優(yōu)點(diǎn),是一種集大成的方法,可以得到多樣的數(shù)據(jù)格式,有望提升性能。為此,使用Mosaic方法進(jìn)行數(shù)據(jù)增廣。其思想是將四張傳統(tǒng)增廣的圖像拼接在一起,形成一張完整圖像,如圖5所示。豐富了圖片的背景,提升目標(biāo)多樣性,變相地提高了輸入網(wǎng)絡(luò)的圖片數(shù)量。并且在進(jìn)行批歸一化[30]的時(shí)候同時(shí)計(jì)算四張圖片的權(quán)值,以提升檢測(cè)的性能。

      具體做法是從水下數(shù)據(jù)集隨機(jī)選取四張像素一致的圖像,每張圖像先進(jìn)行傳統(tǒng)數(shù)據(jù)增廣方法,然后將增廣后的圖像進(jìn)行隨機(jī)大小裁剪,接著將第一張裁剪的圖像固定在整體圖像的左上角,第二張裁剪的圖像固定在整體圖像的左下角,第三張裁剪的圖像固定在整體圖像的右下角,第四張裁剪的圖像固定在整體圖像的右上角。最后得到一張Mosaic增廣的圖像,增廣后的圖像與原四張圖像像素保持一致。

      1.5 總體框架

      基于上述改進(jìn)方法,將三個(gè)方法結(jié)合在一起,改進(jìn)的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)框架如圖6所示。圖中總共分為兩部分:第一部分為數(shù)據(jù)預(yù)處理,第二部分DSC-YOLO網(wǎng)絡(luò)。

      數(shù)據(jù)預(yù)處理包括兩部分內(nèi)容:基于UGAN的圖像增強(qiáng)、基于Mosaic的數(shù)據(jù)增廣。圖像增強(qiáng)用于提升圖像清晰度與識(shí)別率,數(shù)據(jù)增廣用于豐富海珍品的多樣性,提升模型魯棒性。DSC-YOLO網(wǎng)絡(luò)減少大量標(biāo)準(zhǔn)卷積操作,減小模型大小,提升海珍品識(shí)別速度。相應(yīng)地,將DSC-YOLO卷積結(jié)構(gòu)應(yīng)用到Y(jié)OLOv3網(wǎng)絡(luò)結(jié)構(gòu),得到改進(jìn)的DSC-YOLO海珍品檢測(cè)網(wǎng)絡(luò)。在主干網(wǎng)絡(luò)部分,將416×416圖像送入網(wǎng)絡(luò)的第一個(gè)3×3卷積替換為深度可分離卷積,同時(shí)將每個(gè)階段的殘差結(jié)構(gòu)中的3×3卷積替換為深度可分離卷積。在檢測(cè)器部分,將連續(xù)卷積塊中3×3卷積替換為深度可分離卷積,同時(shí)將從連續(xù)卷積塊輸出的3×3卷積替換為深度可分離卷積。網(wǎng)絡(luò)每個(gè)分支輸出的特征圖大小、Anchor數(shù)量和Anchor大小與原網(wǎng)絡(luò)保持不變。

      2 材料與方法

      為了驗(yàn)證本文海珍品檢測(cè)方法的有效性,進(jìn)行了相應(yīng)的試驗(yàn)。本節(jié)將從數(shù)據(jù)集來(lái)源、試驗(yàn)設(shè)置和試驗(yàn)環(huán)境、評(píng)估標(biāo)準(zhǔn)進(jìn)行闡述。

      2.1 數(shù)據(jù)集來(lái)源

      本文采用“2017首屆水下機(jī)器人目標(biāo)抓取大賽(2017 Underwater Robot Picking Contest,URPC2017)”提供的真實(shí)水下圖像數(shù)據(jù)集(http://2017.cnurpc.org/a/js/ 2017/0829/66.html)。該數(shù)據(jù)集共有三個(gè)類別:海參、海膽、扇貝,包含18 982張圖像,圖像分辨率為720×405,標(biāo)注格式為VOC格式。

      2.2 試驗(yàn)方法

      將水下數(shù)據(jù)集隨機(jī)劃分成三份,其中15 182幅圖像用于訓(xùn)練,1 900幅圖像用于驗(yàn)證,1 900幅圖像用于測(cè)試,比例約為8:1:1。在訓(xùn)練階段,將DSC-YOLO、UGAN水下圖像增強(qiáng)和Mosaic數(shù)據(jù)增廣進(jìn)行組合,訓(xùn)練得到4個(gè)模型: DSC-YOLO、DSC-YOLO+UGAN、DSC-YOLO+ Mosaic、DSC-YOLO+UGAN+Mosaic,然后將此4個(gè)模型與YOLOv3模型進(jìn)行試驗(yàn)對(duì)比。使用預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,節(jié)省時(shí)間,提高訓(xùn)練速度。在輸入卷積神經(jīng)網(wǎng)絡(luò)前,數(shù)據(jù)集中所有圖像的分辨率調(diào)整為416×416。訓(xùn)練時(shí)以4幅圖像作為一個(gè)批次進(jìn)行小批量訓(xùn)練,每訓(xùn)練一批圖像,權(quán)值更新一次。權(quán)值衰減速率為0.000 5,動(dòng)量為0.9,初始學(xué)習(xí)率為0.001。對(duì)網(wǎng)絡(luò)進(jìn)行110輪訓(xùn)練,每訓(xùn)練1輪保存一次模型,最終選取精度最高的模型。

      本文試驗(yàn)采用的操作系統(tǒng)為Ubuntu16.04,深度學(xué)習(xí)框架為PyTorch,試驗(yàn)處理器為AMD Ryzen Threadripper 1920X 12核,內(nèi)存為8 G,顯卡為NVIDIA GeForce RTX2080,顯存為8 G GDDR6。

      2.3 評(píng)估標(biāo)準(zhǔn)

      本文以準(zhǔn)確率P、召回率R、多類平均準(zhǔn)確率mAP0.5(mean Average Precision)和F1分?jǐn)?shù)作為評(píng)價(jià)標(biāo)準(zhǔn)。準(zhǔn)確率P為被正確預(yù)測(cè)的正樣本數(shù)量占總預(yù)測(cè)的正樣本數(shù)量的比值,如式(2)所示。召回率R為被正確預(yù)測(cè)的正樣本數(shù)量占總正樣本數(shù)量的比值,如式(3)所示。單類平均準(zhǔn)確率AP(Average Precision)為準(zhǔn)確率P與召回率R構(gòu)成的P-R曲線的面積,如式(4)所示。多類平均準(zhǔn)確率mAP0.5為當(dāng)交并比(Intersection Over Union,IOU)為0.5時(shí),準(zhǔn)確率P與召回率R構(gòu)成的P-R曲線的面積,如式(5)所示。IOU為預(yù)測(cè)框與真實(shí)框的交集與并集的比值,當(dāng)預(yù)測(cè)框與真實(shí)框的IOU大于0.5,則為正樣本,預(yù)測(cè)框與真實(shí)框的IOU小于0.5,則為負(fù)樣本。F1分?jǐn)?shù)為精確率和召回率的調(diào)和平均數(shù),如式(6)所示。

      其中,TP為模型正確預(yù)測(cè)的正樣本數(shù)量,F(xiàn)P為模型錯(cuò)誤預(yù)測(cè)的正樣本數(shù)量,F(xiàn)N為模型錯(cuò)誤預(yù)測(cè)的負(fù)樣本數(shù)量,P(R)為P-R曲線函數(shù),n為類別數(shù)量。

      3 結(jié)果與分析

      模型在1 900張圖像測(cè)試集上,采用2.3部分所提的準(zhǔn)確率(P)、召回率(R)、多類平均準(zhǔn)確率(mAP0.5)、F1分?jǐn)?shù),以及推理時(shí)間(Inference time)和模型大小(Size)共6項(xiàng)指標(biāo),對(duì)各個(gè)模型進(jìn)行評(píng)估,試驗(yàn)結(jié)果如表2所示。

      表2 模型檢測(cè)性能對(duì)比 Table 2 Comparisons of model detection performance

      由表2可知,在準(zhǔn)確率P方面,YOLOv3模型為86%,DSC-YOLO+U+M模型為84.4%,僅相差1.6個(gè)百分點(diǎn)。在召回率R上,YOLOv3模型為91.4%,DSC-YOLO+U+M模型和DSC-YOLO+M模型同時(shí)取得了最大值94.1%,提高了2.7個(gè)百分點(diǎn)。

      YOLOv3模型的mAP0.5為92.2%,模型大小為492.6 MB,推理時(shí)間為8.1 ms。與YOLOv3模型相比,DSC-YOLO+U+M模型大小為146.7 MB,減小約70%,推理時(shí)間縮減為6.8 ms,F(xiàn)1分?jǐn)?shù)提升0.4個(gè)百分點(diǎn),并且多類平均準(zhǔn)確率提升2.4個(gè)百分點(diǎn)。

      此外,除了YOLOv3模型外,采用UGAN的模型比未采用UGAN的模型,在多類平均準(zhǔn)確率和F1分?jǐn)?shù)指標(biāo)上均有提升。并且采用Mosaic的模型比未采用Mosaic的模型,在多類平均準(zhǔn)確率和F1分?jǐn)?shù)指標(biāo)上均有明顯的提升。

      綜上,除了準(zhǔn)確率P外,DSC-YOLO+U+M模型相較于YOLOv3和其他模型而言,在大幅降低模型參數(shù)量的情況下,其他各項(xiàng)指標(biāo)都有所提升,展現(xiàn)出了優(yōu)越的性能,模型檢測(cè)效果如圖7所示。

      此外,試驗(yàn)中發(fā)現(xiàn),本文模型對(duì)漏標(biāo)的圖像數(shù)據(jù)具有較強(qiáng)的魯棒性,能夠?qū)D像中漏標(biāo)的海珍品檢測(cè)出來(lái)。本文隨機(jī)從測(cè)試集中選擇三張存在漏標(biāo)現(xiàn)象的數(shù)據(jù),如圖8所示。圖像8a中4個(gè)海參、5個(gè)海膽未標(biāo)注,圖8b中1個(gè)海參、3個(gè)扇貝未標(biāo)注,圖像8c中3個(gè)海參、1個(gè)海膽、6個(gè)扇貝未標(biāo)注。其他模型均存在不同程度的漏檢,而本文的最終模型DSC-YOLO+U+M將未標(biāo)注數(shù)據(jù)正確檢測(cè)出來(lái)。

      根據(jù)上圖模型檢測(cè)數(shù)量統(tǒng)計(jì)模型的漏檢率,如表3所示。其中漏檢率計(jì)算是模型未檢測(cè)到的目標(biāo)個(gè)數(shù)除以實(shí)際標(biāo)注和漏標(biāo)數(shù)量總和。由表3可知,本文提出的方法漏檢率數(shù)值最低,綜合來(lái)說(shuō),本文提出的模型在數(shù)據(jù)集漏標(biāo)的情況下,能夠?qū)⒙?biāo)的海珍品正確地檢測(cè)出來(lái),魯棒性良好。

      表3 模型漏檢率對(duì)比 Table 3 Comparisons of the model missing rate

      4 結(jié) 論

      本文提出了基于改進(jìn)的YOLOv3網(wǎng)絡(luò)的海珍品檢測(cè)框架,該框架在訓(xùn)練階段之前引入圖像增強(qiáng)和數(shù)據(jù)增廣方法用于提升圖像清晰度和檢測(cè)性能。然后采用深度可分離卷積,將標(biāo)準(zhǔn)卷積分解成深度卷積和點(diǎn)卷積,使參數(shù)量和計(jì)算量大大減少,推理速度縮短,模型大小縮減。在推理速度和準(zhǔn)確率方面得到提高的同時(shí),從定性和定量角度分析各個(gè)模型的性能。試驗(yàn)證明,改進(jìn)的YOLOv3網(wǎng)絡(luò)模型與圖像增強(qiáng)和數(shù)據(jù)增廣方法相結(jié)合,性能優(yōu)于YOLOv3模型。

      1)本文通過(guò)改進(jìn)模型,使得模型參數(shù)量和計(jì)算量減少,模型占用內(nèi)存大小為146.7 MB,YOLOv3網(wǎng)絡(luò)模型占用內(nèi)存大小為492.6 MB,模型占用內(nèi)存減小70%。加入圖像增強(qiáng)和數(shù)據(jù)增廣方法,不增加模型參數(shù)量和計(jì)算量的同時(shí),提高檢測(cè)性能。

      2)根據(jù)定性和定量結(jié)果比較,在網(wǎng)絡(luò)訓(xùn)練之前采用基于生成對(duì)抗網(wǎng)絡(luò)的圖像增強(qiáng)方法,提升了圖像的清晰度和檢測(cè)的準(zhǔn)確率,檢測(cè)的目標(biāo)更多,更全面,使得召回率提升2.7個(gè)百分點(diǎn)。

      猜你喜歡
      準(zhǔn)確率卷積深度
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      深度理解一元一次方程
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      深度觀察
      深度觀察
      深度觀察
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      丰顺县| 凤山县| 格尔木市| 蒲江县| 抚顺县| 壶关县| 什邡市| 舞阳县| 衡阳县| 分宜县| 忻城县| 新闻| 密山市| 滁州市| 武穴市| 民权县| 太谷县| 万州区| 政和县| 三穗县| 甘孜县| 阿荣旗| 都兰县| 自治县| 德清县| 曲阜市| 灌云县| 荔波县| 西充县| 封开县| 永年县| 南宫市| 岱山县| 阜新市| 肥西县| 泗阳县| 都昌县| 民勤县| 历史| 亚东县| 天台县|