• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于孿生網(wǎng)絡(luò)的協(xié)作機(jī)器人目標(biāo)追蹤

      2023-01-12 07:14:34韓江雪郭小明湯永恒王麗鑫潘斌
      關(guān)鍵詞:分支卷積機(jī)器人

      韓江雪,郭小明,湯永恒,王麗鑫,潘斌

      (1.遼寧石油化工大學(xué) 計(jì)算機(jī)與通信工程學(xué)院,遼寧 撫順 113001;2.遼寧石油化工大學(xué) 理學(xué)院,遼寧 撫順 113001)

      智能制造的發(fā)展離不開機(jī)器人,發(fā)展智能機(jī)器人是打造智能制造裝備平臺(tái)、提升制造自動(dòng)化和智能化水平的必經(jīng)之路。智能機(jī)器人在工業(yè)上廣泛應(yīng)用的同時(shí),普通消費(fèi)市場對(duì)輕型協(xié)作機(jī)器人的需求也與日劇增,人機(jī)協(xié)作將給未來社會(huì)的生產(chǎn)和制造帶來根本性變革[1]。目前,協(xié)作機(jī)器人的應(yīng)用場景是模仿工業(yè)機(jī)器人,而其中最為關(guān)鍵的一步就是通過攝像頭指導(dǎo)機(jī)械手進(jìn)行精準(zhǔn)移動(dòng),即協(xié)作機(jī)器人目標(biāo)跟蹤,這也是機(jī)械手?jǐn)[脫單調(diào)的示教器控制和拖拽軌跡記錄,通過攝像頭與現(xiàn)實(shí)世界有機(jī)連接起來的重要一步。目標(biāo)跟蹤結(jié)合協(xié)作機(jī)器人可以在跟蹤錄像、標(biāo)定校準(zhǔn)、手勢(shì)操作、高精度動(dòng)作模仿、工件夾取等多方面展開更多應(yīng)用。

      1 研究現(xiàn)狀

      目標(biāo)跟蹤任務(wù)可以被分解為分類任務(wù)和回歸任務(wù)。分類任務(wù)旨在通過分辨前景和背景得出目標(biāo)的粗略位置,而回歸任務(wù)則是預(yù)測(cè)目標(biāo)的精確位置,通常用跟蹤框標(biāo)出。以往的目標(biāo)跟蹤方法依據(jù)回歸任務(wù)的方法差異可以被分為三類。第一類為采用不準(zhǔn)確且低效的多尺度檢驗(yàn)預(yù)測(cè)目標(biāo)位置,包括判別式相關(guān)濾波器(Discriminative Correlation Filter)2]和SiamFC(Fully-Convolutional Siamese Networks)[3]。其 中,SiamFC使用AlexNet[4]網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),其處理速度較快但跟蹤精度不夠。第二類為采用梯度上升方法優(yōu)化多個(gè)初始包圍框以預(yù)測(cè)最終跟蹤框的ATOM(Accurate Tracking by Overlap Maximization)[5]算法,此方法顯著提高了精度但也帶來了巨大的運(yùn)算負(fù)擔(dān),初始包圍框的數(shù)量和分布等超參數(shù)也需要仔細(xì)調(diào)整。第三類為運(yùn)用區(qū)域建議網(wǎng)絡(luò)RPN(Region Proposal Network)預(yù)測(cè)跟蹤框的位置,包括SiamRPN[6]、SiamRPN++[7]和DaSiamRPN[8]。其中,SiamRPN++將骨干網(wǎng)絡(luò)更換為更深層的ResNet[9]網(wǎng)絡(luò),使跟蹤精度相比第一類方法有所提高,但降低了處理速度。由于使用了基于錨框(Anchor-Based)的跟蹤器,在跟蹤過程中會(huì)選擇幾種固定大小的錨框在原圖中做滑動(dòng)以獲得跟蹤位置,影響模型的泛化能力[10]。

      2 本文算法

      用于協(xié)作機(jī)器人的目標(biāo)跟蹤算法需要考慮的首要目標(biāo)便是中心點(diǎn)位置,所以本文選擇無錨的方法進(jìn)行跟蹤。綜合權(quán)衡協(xié)作機(jī)器人的具體工作需求、硬件因素以及相關(guān)算法中存在的問題,提出了基于改進(jìn)的RepVGG作為骨干網(wǎng)絡(luò)的無錨目標(biāo)跟蹤算法,整個(gè)網(wǎng)絡(luò)分為孿生網(wǎng)絡(luò)模塊、分類回歸模塊和機(jī)器人執(zhí)行模塊。網(wǎng)絡(luò)整體框架如圖1所示。圖中,L、T、R、B分別表示回歸模塊預(yù)測(cè)的目標(biāo)位置相對(duì)于中心點(diǎn)向左、向上、向右、向下的偏移量;n、m為輸出特征圖的通道數(shù)。

      圖1 網(wǎng)絡(luò)整體框架

      2.1 孿生網(wǎng)絡(luò)模塊

      孿生網(wǎng)絡(luò)是一種神經(jīng)網(wǎng)絡(luò)框架,它由模板分支和搜索分支兩個(gè)結(jié)構(gòu)相同、權(quán)值共享的骨干網(wǎng)絡(luò)構(gòu)成。骨干網(wǎng)絡(luò)提取輸入圖像的特征后,通過一個(gè)神經(jīng)網(wǎng)絡(luò)來計(jì)算模板分支輸入與搜索分支輸入之間的相似度,經(jīng)過計(jì)算得到較大相似度的位置,此處即為需要跟蹤的目標(biāo)。本文采用改進(jìn)的RepVGG網(wǎng)絡(luò)替換傳統(tǒng)的ResNet網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),通過深度互相關(guān)運(yùn)算與多層特征融合方法提取不同細(xì)粒度的圖像特征,以達(dá)到更好的跟蹤效果。

      2.1.1 骨干網(wǎng)絡(luò) RepVGG網(wǎng)絡(luò)的設(shè)計(jì)思路部分來自ResNet網(wǎng)絡(luò),其訓(xùn)練時(shí)采用多分支結(jié)構(gòu),并設(shè)計(jì)了如式(1)形式的模塊。

      式中,x、g(x)、f(x)分別為恒等分支、1×1卷積分支和3×3卷積分支。RepVGG網(wǎng)絡(luò)使用1×1和3×3卷 積 分 支,ResNet網(wǎng) 絡(luò) 是 跨 層 連 接,而RepVGG網(wǎng)絡(luò)是每層都使用此兩種分支。RepVGG網(wǎng)絡(luò)可以在訓(xùn)練階段通過對(duì)上述模塊的堆砌來構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò),然后通過簡單的代數(shù)變換將三個(gè)分支轉(zhuǎn)換為y=h(x)的形式。其中,h(x)代表帶偏置的3×3卷積,參數(shù)可由訓(xùn)練好的模型參數(shù)轉(zhuǎn)換得到。ResNet和RepVGG網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

      圖2 ResNet和RepVGG網(wǎng)絡(luò)結(jié)構(gòu)

      RepVGG原網(wǎng)絡(luò)用于提取圖像的特征,整個(gè)網(wǎng)絡(luò)分為5個(gè)階段,其卷積操作的總步長為32。然而,卷積操作的步長越長,得到的特征圖也就越小,不利于目標(biāo)跟蹤任務(wù)中對(duì)跟蹤框的預(yù)測(cè),適當(dāng)減少步長可以有效提高跟蹤精度。本文采用RepVGG-A2作為骨干網(wǎng)絡(luò),其中第4、5階段的步長調(diào)整為1,其余階段的步長均為2,以尺寸255×255作為網(wǎng)絡(luò)輸入,修改后的RepVGG-A2訓(xùn)練模型的網(wǎng)絡(luò)參數(shù)如表1所示。每階段RepVGG訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。其中,RepVGG Block的個(gè)數(shù)N=每階段的層數(shù)-1。

      表1 修改后的RepVGG-A2訓(xùn)練模型的網(wǎng)絡(luò)參數(shù)

      圖3 每階段RepVGG訓(xùn)練模型的網(wǎng)絡(luò)結(jié)構(gòu)

      2.1.2 訓(xùn)練模型轉(zhuǎn)換為部署模型 RepVGG的另一個(gè)特點(diǎn)是可以進(jìn)行參數(shù)重構(gòu),將訓(xùn)練好的模型通過參數(shù)重構(gòu)轉(zhuǎn)變?yōu)檫\(yùn)行時(shí)使用的部署模型,將多分支網(wǎng)絡(luò)重構(gòu)為單分支網(wǎng)絡(luò),降低顯存占用,在沒有損失模型性能的前提下提高運(yùn)行速度。RepVGG網(wǎng)絡(luò)每層的卷積操作可以表示為:

      式中,Ki為輸入信道數(shù)為C1、輸出信道數(shù)為C2、核大小為i的卷積層;μi、σi、γi、βi分別為經(jīng)過核大小為i的卷積后的批歸一化(Batch-Normalization)層的參數(shù);BN為批歸一化操作;μ0、σ0、γ0、β0分別為恒等分支(Identity Block)的批歸一化層參數(shù);A(1)∈RN×C1×H1×W1、A(2)∈RN×C2×H2×W2分別為輸入和輸出;*為卷積操作。

      根據(jù)批歸一化運(yùn)算公式,需要先計(jì)算xi中所有元素的均值μi和標(biāo)準(zhǔn)差σi,對(duì)x1i、x2i、…、xm i進(jìn)行歸一化處理得到分布?,并引入縮放參數(shù)γi和平移參數(shù)βi得到新的分布yi,其表達(dá)式見式(3)。批歸一化處理示意圖如圖4所示。

      圖4 批歸一化處理示意圖

      式中,xbi為當(dāng)前輸入第b個(gè)特征圖中第i個(gè)點(diǎn)的值;yib為xbi經(jīng)過批歸一化后的輸出值。

      根據(jù)式(3),將每個(gè)批歸一化層及其之前的一個(gè)卷積層轉(zhuǎn)換成一個(gè)帶有偏差向量bi的卷積層,其卷積核為i。變化后的歸一化計(jì)算式如式(4)所示。

      由于恒等分支可視為值為1的1×1卷積操作,所以1×1卷積分支的參數(shù)變換同時(shí)適用于恒等映射分支;恒等分支的卷積核可視為一個(gè)3×3的單位矩陣,將3個(gè)偏置向量相加得到最終的偏置,將恒等分支卷積核、做一層0填充(Zero Padding)后的1×1卷積核以及3×3卷積核對(duì)應(yīng)相加,得到最終帶有偏置的3×3卷積核。

      2.1.3 深度互相關(guān)與多層特征融合 利用RepVGG深度網(wǎng)絡(luò)提取特征之后,將不同深度的層聚合起來以同時(shí)獲得更多尺度的特征。視覺跟蹤需要從小到大、從粗略到精細(xì)的各種特征。聚集這些特征可以強(qiáng)化對(duì)跟蹤目標(biāo)的定位和預(yù)測(cè)能力。

      深度互相關(guān)模塊是處理兩個(gè)分支信息的核心操作。受SiamRPN++的啟發(fā),使用深度互相關(guān)模塊來生成多個(gè)語義響應(yīng)圖,其表達(dá)式為:

      式中,★為逐通道進(jìn)行互相關(guān)運(yùn)算;X、Z分別為搜索分支輸入和模板分支輸入。生成的響應(yīng)圖Map具有與φ(X)相同的通道數(shù),且包含大量用于計(jì)算跟蹤框的信息。

      模板分支和搜索分支分別輸入到共享參數(shù)的RepVGG骨干網(wǎng)絡(luò)中,取其中3、4、5階段的 輸出,通過自適應(yīng)模塊將通道數(shù)轉(zhuǎn)為同一數(shù)量,兩兩對(duì)應(yīng)進(jìn)行深度互相關(guān)運(yùn)算得到Mapi,分別以Map3、Map4、Map5表示;再將響應(yīng)圖進(jìn)行融合,得到最后的多層融合特征φ(x):

      式中,MIX為特 征融合操 作。Map3、Map4、Map5的通道數(shù)n=256,φ(x)的通道數(shù)為3n。經(jīng)過1×1卷積降維,將融合特征的通道數(shù)降低到m=256以減少參數(shù)數(shù)量,提高計(jì)算速度,生成最后的響應(yīng)圖Map*。相比于直接對(duì)3個(gè)階段的響應(yīng)圖Mapi進(jìn)行加權(quán)融合,采用1×1卷積減少通道數(shù)的方法的跟蹤性能更優(yōu)。

      2.2 分類回歸模塊

      響應(yīng)圖Map*中的每個(gè)位置(i,j)都可以映射回輸入的搜索區(qū)域(x,y)。與基于錨框的跟蹤算法不同,本文算法直接對(duì)響應(yīng)圖中的每個(gè)位置進(jìn)行分類和回歸,并通過端到端的全卷積運(yùn)算進(jìn)行訓(xùn)練,避免手動(dòng)設(shè)置復(fù)雜的超參數(shù)。跟蹤任務(wù)被分解為兩個(gè)子任務(wù):一個(gè)分類分支用于預(yù)測(cè)響應(yīng)圖中每個(gè)位置對(duì)應(yīng)的是背景還是跟蹤目標(biāo),另一個(gè)回歸分支用于計(jì)算該位置的邊界框。對(duì)分類分支采用交叉熵?fù)p失函數(shù),對(duì)回歸分支采用IoU(Intersection over Union)損失函數(shù)。

      將使用孿生網(wǎng)絡(luò)模塊提取的響應(yīng)圖Map*輸入后續(xù)的神經(jīng)網(wǎng)絡(luò)中,經(jīng)過分類子網(wǎng)絡(luò)和回歸子網(wǎng)絡(luò)以及其后連接的卷積層(見圖5),最后在分類子分支輸出分類特征圖,其每個(gè)點(diǎn)包含一個(gè)2維向量,表示輸入搜索區(qū)域中相應(yīng)位置的前景和背景得分,以及中心評(píng)估特征圖,其每個(gè)點(diǎn)給出對(duì)應(yīng)位置的中心度得分。在回歸分支輸出回歸特征圖,每個(gè)點(diǎn)包含一個(gè)4維向量t(i,j)=(L,T,R,B),表示在搜索分支輸入圖像相應(yīng)位置到真實(shí)邊界框的4個(gè)邊的距離。

      圖5 分類子網(wǎng)絡(luò)和回歸子網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)

      2.2.1 回歸分支 用(x0,y0)和(x1,y1)表示真實(shí)框的左上角和右下角坐標(biāo),用(x,y)表示響應(yīng)圖Map*上的點(diǎn)(i,j)對(duì)應(yīng)的搜索分支輸入圖像的坐標(biāo)。對(duì)應(yīng)關(guān)系(x,y)=(dis+i×總步長,dis+j×總步長)。其中,dis=[(搜索圖像尺寸-1)-(響應(yīng)圖尺寸-1)×骨干網(wǎng)絡(luò)總步長]÷2=31?;貧w分支特征圖(i,j,:)上 每 個(gè) 點(diǎn) 的 回 歸 目 標(biāo)t?(i,j)表示為:

      式中,Ι()為特征圖上每一個(gè)點(diǎn)對(duì)應(yīng)的標(biāo)簽;(i,j,:)為回歸分支的預(yù)測(cè)結(jié)果。

      真實(shí)框和預(yù)測(cè)值之間的IoU損失函數(shù)為:

      2.2.2 分類子分支與中心度分支 分類子分支用交叉熵?fù)p失函數(shù)計(jì)算對(duì)應(yīng)在搜索圖片上的點(diǎn)與真實(shí)框逐個(gè)點(diǎn)位的交叉熵:

      式中,、分別為分類任務(wù)中正樣本與負(fù)樣本的損失函數(shù)計(jì)算結(jié)果;Ι(i,j)為對(duì)應(yīng)搜索圖片的像素,通過Ι(i,j)值可判斷像素是否在真實(shí)框內(nèi)。對(duì)于前景得分(i,j,0)的特征圖,在真實(shí)框內(nèi)的像素的Ι(i,j)值為1,其余為0;對(duì)于背景得分(i,j,1)的特征圖,則與之相反。

      從遠(yuǎn)離跟蹤目標(biāo)中心的位置得到的跟蹤框的質(zhì)量往往都很低,會(huì)降低算法的性能,且協(xié)作機(jī)器人目標(biāo)跟蹤更是與中心點(diǎn)的準(zhǔn)確度密切相關(guān)。受FCOS[11]目標(biāo)檢測(cè)算法的啟發(fā),添加了一個(gè)與分類子分支平行的中心度分支。中心度特征圖上的每個(gè)點(diǎn)給出對(duì)應(yīng)搜索分支輸入圖像位置的中心度得分為:

      C(i,j)的值與特征圖的點(diǎn)對(duì)應(yīng)搜索區(qū)域的位置(x,y)和跟蹤目標(biāo)中心點(diǎn)之間的距離成正比,如果(x,y)位于背景中,則C(i,j)=0。中心度分支的整體損失函數(shù)采用BCE Loss表示為:

      2.3 機(jī)器人執(zhí)行模塊

      目標(biāo)跟蹤的主要任務(wù)是預(yù)測(cè)視頻序列中第1幀圖像中跟蹤框的位置變化。從回歸分支得到的l+r和t+b代表目標(biāo)在當(dāng)前幀中的預(yù)測(cè)寬度w和高度h。由于跟蹤框的大小和長寬比通常在連續(xù)的幀上只會(huì)發(fā)生微小的變化,為了使用這種時(shí)空一致性來監(jiān)督預(yù)測(cè),受SiamRPN算法啟發(fā),對(duì)分類得分cls進(jìn)行尺度懲罰;為了消除響應(yīng)圖中邊緣位置對(duì)跟蹤框的影響,又對(duì)分類得分添加余弦窗懲罰。

      式中,H為余弦窗;λ為平衡權(quán)重;輸出q是響應(yīng)圖中具有最高得分的位置。由于沒有采用基于錨框的跟蹤方式,響應(yīng)圖的每個(gè)像素都會(huì)生成預(yù)測(cè)的邊界框,在實(shí)際的跟蹤過程中,如果只將q作為跟蹤框,它將在相鄰視頻幀之間抖動(dòng)。因此,從q的3×3鄰域中選擇得分最高的3個(gè)點(diǎn)的回歸框的加權(quán)平均值作為最后的預(yù)測(cè)框。

      輸出給協(xié)作機(jī)器人的預(yù)測(cè)框的數(shù)據(jù)格式為一個(gè)4向量,包括目標(biāo)中心點(diǎn)(x,y),以及跟蹤框的尺寸(w,h)。考慮到機(jī)械結(jié)構(gòu)特性,為降低工作負(fù)擔(dān),提高運(yùn)行的流暢度,對(duì)跟蹤框的變化做平滑處理。最終的尺寸為:

      式中,(gtw,gth)為前一幀完成平滑處理的預(yù)測(cè)框;α為加權(quán)參數(shù);(w1,h1)為最終平滑后的結(jié)果。

      3 實(shí)驗(yàn)環(huán)境及結(jié)果

      實(shí)驗(yàn)訓(xùn)練過程在64位ubuntu 18.04操作系統(tǒng)上進(jìn)行,使用pytorch框架對(duì)網(wǎng)絡(luò)進(jìn)行構(gòu)建和訓(xùn)練,硬件 配 置CPU為Intel Xeon(R)Platinum 816,內(nèi) 存256 G,GPU為4張NVIDIA P100。實(shí)驗(yàn)測(cè)試過程在64位Windows 10操作系統(tǒng)上進(jìn)行,硬件配置CPU為Intel(R)Core(TM)i5-9400,內(nèi)存8 G,GPU為NVIDIA GTX1660Ti。將模板分支和搜索分支的輸入圖像大小分別設(shè)置為127和255像素。修改后的RepVGG網(wǎng)絡(luò)被用作骨干網(wǎng)絡(luò),該網(wǎng)絡(luò)參數(shù)在ImageNet上進(jìn)行預(yù)訓(xùn)練,然后使用其預(yù)訓(xùn)練參數(shù)作為初始值來重新訓(xùn)練構(gòu)建的模型。

      3.1 參數(shù)設(shè)置

      整個(gè)訓(xùn)練使用的數(shù)據(jù)集有COCO[12]、YouTube-BB[13]、LaSOT[14]、ImageNet DET[15]、ImageNet VID[15]、GOT-10K[16]。訓(xùn)練過程中batchsize被設(shè)置為96,總共20個(gè)時(shí)期(epochs)通過使用初始學(xué)習(xí)率為0.001的SGD來執(zhí)行。前10個(gè)時(shí)期用于訓(xùn)練分類和回歸子網(wǎng)絡(luò),此時(shí)骨干網(wǎng)絡(luò)的參數(shù)被凍結(jié)。在后10個(gè)時(shí)期,解凍RepVGG的最后3個(gè)階段的參數(shù),使用所有的數(shù)據(jù)集進(jìn)行訓(xùn)練。

      3.2 性能分析

      LaSOT是一個(gè)包含70個(gè)子類,每類20個(gè)跟蹤序列的超大型單目標(biāo)跟蹤數(shù)據(jù)集。使用1 120個(gè)跟蹤序列進(jìn)行訓(xùn)練,用余下的280個(gè)用于測(cè)試。由于協(xié)作機(jī)器人一般工作在室內(nèi)的固定地點(diǎn),因此主要關(guān)注照明變化(IV)、部分遮擋(POC)、相機(jī)運(yùn)動(dòng)(CM)場景下跟蹤器的性能表現(xiàn)。跟蹤器測(cè)試結(jié)果如圖6所示。圖中,綠框?yàn)檎鎸?shí)值,黃框?yàn)轭A(yù)測(cè)值。協(xié)助機(jī)器人目標(biāo)追蹤成功率及精確度如圖7所示。

      圖6 跟蹤器測(cè)試結(jié)果

      圖7 協(xié)助機(jī)器人目標(biāo)追蹤成功率及精確度

      由圖7可以看出與SiamRPN++、SiamMask[10]、SiamFC、DaSiamRPN、VITAL、DSTRCF、ECO、DSiam、StructSiam、TRACA、CSK孿生網(wǎng)絡(luò)跟蹤器以及其他類型的跟蹤器相比,所提算法保持了很高的水平;對(duì)比目前主流的孿生跟蹤算法SiamFC,在LaSOT數(shù)據(jù)集上的照明變化(IV)、相機(jī)運(yùn)動(dòng)(CM)等與協(xié)作機(jī)器人工作環(huán)境相近的場景中成功率分別提升了60%和64%,與DaSiamRPN的性能相當(dāng);在大數(shù)據(jù)集上具有如此好的效果,證明改進(jìn)的孿生網(wǎng)絡(luò)具有良好的泛化能力。

      3.3 有效性分析

      為確認(rèn)改進(jìn)策略的有效性,繼續(xù)在LaSOT數(shù)據(jù)集上進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果如表2所示。

      表2 LaSOT數(shù)據(jù)集對(duì)比實(shí)驗(yàn)結(jié)果

      由表2可以看出,使用中心度模塊可以提高追蹤的性能,采用RepVGG作為骨干網(wǎng)絡(luò)可以提高運(yùn)行速度;本文算法雖然與實(shí)驗(yàn)1相比準(zhǔn)確度和成功率略有下降,但減少參數(shù)量,F(xiàn)PS為45幀/s,達(dá)到了實(shí)時(shí)跟蹤的效果,在精確度與實(shí)時(shí)性之間找到了相對(duì)較優(yōu)的平衡點(diǎn)。

      4 結(jié)論

      提出了一種基于孿生網(wǎng)絡(luò)的協(xié)作機(jī)器人目標(biāo)跟蹤算法,整個(gè)網(wǎng)絡(luò)的各個(gè)分支卷積核的尺寸大多為3×3,且不需要復(fù)雜的超參數(shù)調(diào)節(jié);在復(fù)雜數(shù)據(jù)集上的測(cè)試也有主流孿生網(wǎng)絡(luò)跟蹤器的優(yōu)秀性能。由于現(xiàn)有計(jì)算庫有CuDNN、Intel MKL等,硬件對(duì)3×3卷積的優(yōu)化以及RepVGG骨干網(wǎng)絡(luò)的特殊設(shè)計(jì),使整個(gè)網(wǎng)絡(luò)的顯存占用更低,處理速度更快,在中等性能的圖形處理器上也能達(dá)到實(shí)時(shí)處理的效果;在精確度和實(shí)時(shí)性之間找到了相對(duì)較優(yōu)的平衡點(diǎn)。然而,在實(shí)際使用中還會(huì)有很多問題需要解決。協(xié)作機(jī)器人作為一種新型且具有高生產(chǎn)力的產(chǎn)品,只有更多地開發(fā)針對(duì)其硬件優(yōu)化的高質(zhì)量算法,才能廣泛地推廣到消費(fèi)級(jí)市場;只有降低購買者的學(xué)習(xí)成本和使用成本,才能更好地發(fā)揮其高精度、輕便、易部署、低后期維護(hù)成本的特點(diǎn),更好地提高社會(huì)生產(chǎn)力。

      猜你喜歡
      分支卷積機(jī)器人
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      巧分支與枝
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      一類擬齊次多項(xiàng)式中心的極限環(huán)分支
      機(jī)器人來幫你
      認(rèn)識(shí)機(jī)器人
      機(jī)器人來啦
      認(rèn)識(shí)機(jī)器人
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
      伊金霍洛旗| 淄博市| 长春市| 无为县| 涞源县| 璧山县| 奈曼旗| 涿州市| 璧山县| 措美县| 达孜县| 长寿区| 基隆市| 香河县| 天峻县| 伊通| 云和县| 元氏县| 宿松县| 永顺县| 正宁县| 大余县| 永修县| 老河口市| 临朐县| 辛集市| 南乐县| 若尔盖县| 镇原县| 威远县| 班玛县| 安国市| 舟曲县| 香河县| 手游| 全州县| 五河县| 连平县| 噶尔县| 岑巩县| 乐清市|