• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于openmv的無(wú)人機(jī)定點(diǎn)降落視覺(jué)識(shí)別技術(shù)研究

      2021-07-11 18:43:52吳文秀關(guān)志全汪磊鄭軍斌陽(yáng)璞瓊
      關(guān)鍵詞:視覺(jué)識(shí)別無(wú)人機(jī)

      吳文秀 關(guān)志全 汪磊 鄭軍斌 陽(yáng)璞瓊

      摘?要:無(wú)人機(jī)廣泛應(yīng)用于軍事、農(nóng)業(yè)、交通運(yùn)輸?shù)确矫?,具有巨大的?yīng)用潛力和廣闊前景。受電池能量密度和能量利用效率等因素的制約,無(wú)人機(jī)機(jī)載電池沒(méi)有足夠的續(xù)航能力,發(fā)揮不了最大優(yōu)勢(shì)。為提高無(wú)人機(jī)的飛行續(xù)航能力,采用無(wú)線充電基站對(duì)無(wú)人機(jī)進(jìn)行充電。為達(dá)到無(wú)線充電的最大充電效率,需要實(shí)現(xiàn)無(wú)人機(jī)精確降落。為了實(shí)現(xiàn)無(wú)人機(jī)的定點(diǎn)降落,提高定點(diǎn)飛行能力,提出了一種GPS和視覺(jué)識(shí)別相結(jié)合定點(diǎn)降落方法。首先通過(guò)pixhawk飛控模塊配合M8N模塊來(lái)進(jìn)行GPS定位,使無(wú)人機(jī)到達(dá)充電基站附近,然后通過(guò)再啟用視覺(jué)輔助(openmv)實(shí)現(xiàn)較精準(zhǔn)的降落。實(shí)驗(yàn)結(jié)果表明,無(wú)人機(jī)能夠準(zhǔn)確識(shí)別充電基站從而實(shí)現(xiàn)定點(diǎn)降落。

      關(guān)鍵詞: 無(wú)人機(jī);視覺(jué)識(shí)別;openmv;定點(diǎn)降落

      文章編號(hào): 2095-2163(2021)01-0041-05 中圖分類號(hào):V279;V249 文獻(xiàn)標(biāo)志碼:A

      【Abstract】Unmanned Aerial Vehicle (UAV) is widely used in military, agriculture, transportation and other fields, and has great application potential and broad prospects. Restricted by factors such as battery energy density and energy utilization efficiency, the onboard battery of UAV does not have enough endurance, which can't give full play to its advantages. In order to improve the flight endurance of UAV, wireless charging base station is used to charge UAV. In order to achieve the maximum charging efficiency of wireless charging, it is necessary to realize the accurate landing of UAV. In order to realize the fixed-point landing of UAV and improve its fixed-point flight capability, a fixed-point landing method combining GPS and visual recognition is proposed. At first, the pixhawk flight control module is matched with M8N module to carry out GPS positioning, so that the UAV can reach the vicinity of the charging base station, and then, the visual aid (openmv) is enabled again to achieve a more accurate landing. The experimental results show that the UAV can accurately identify the charging base station and realize fixed-point landing.

      【Key words】UAV; visual recognition; openmv; fixed point landing

      0 引?言

      目前,各類科技創(chuàng)新有效地推動(dòng)了現(xiàn)代無(wú)人機(jī)技術(shù)的發(fā)展,無(wú)人機(jī)廣泛用于氣象探測(cè)、災(zāi)害監(jiān)測(cè)、農(nóng)藥噴灑、地質(zhì)勘測(cè)、地圖測(cè)繪、交通管制等諸多領(lǐng)域[1-5]。近些年來(lái),無(wú)人機(jī)技術(shù)取得了長(zhǎng)足進(jìn)步,且應(yīng)用領(lǐng)域正在不斷拓展,對(duì)其各項(xiàng)技術(shù)指標(biāo)也隨即提出了更高的要求。傳統(tǒng)的無(wú)人機(jī)技術(shù)主要依靠慣性導(dǎo)航系統(tǒng)(Inertial Navigation System, INS)和全球定位系統(tǒng)(Global Position System, GPS)進(jìn)行導(dǎo)航,然而,導(dǎo)航過(guò)程中的慣性器件具有累積誤差,對(duì)初始值過(guò)于敏感,而GPS并不總是可獲取的,并且即使是可獲取,精度也無(wú)法滿足無(wú)人機(jī)導(dǎo)航要求[6-7]。隨著現(xiàn)代技術(shù)的發(fā)展,計(jì)算機(jī)視覺(jué)導(dǎo)航開(kāi)始逐步走上無(wú)人機(jī)技術(shù)領(lǐng)域的舞臺(tái)[8-11]。計(jì)算機(jī)視覺(jué)技術(shù)利用搭載的攝像頭獲取外界環(huán)境的數(shù)字圖像信息,通過(guò)計(jì)算機(jī)算法分析解算獲取圖像的有效信息[12-14],比如形狀、尺度等,無(wú)人機(jī)根據(jù)這些有效信息進(jìn)行相應(yīng)的操作到達(dá)目的地。張義楨等人[15]提出了一種基于二維碼圖像識(shí)別的無(wú)人機(jī)定位方法。AprilTag標(biāo)志的樣式與二維碼比較相似但是卻沒(méi)有那么復(fù)雜,可以減少處理器所需要的計(jì)算量,滿足一些實(shí)時(shí)性的要求。

      本文主要研究了無(wú)人機(jī)的定點(diǎn)降落相關(guān)技術(shù),系統(tǒng)的主要流程是先通過(guò)GPS使無(wú)人機(jī)降落到充電基站附近,再通過(guò)視覺(jué)裝置openmv識(shí)別充電基站上的AprilTag圖標(biāo),實(shí)現(xiàn)定點(diǎn)降落。研究了openmv與飛控pixhawk之間的通信以及openmv識(shí)別AprilTag圖標(biāo)的相關(guān)代碼編寫和測(cè)試。

      1 系統(tǒng)總體設(shè)計(jì)

      以實(shí)現(xiàn)無(wú)人機(jī)的定點(diǎn)降落為目標(biāo)進(jìn)行系統(tǒng)設(shè)計(jì),系統(tǒng)整體框圖如圖1所示。

      為實(shí)現(xiàn)無(wú)人機(jī)的定點(diǎn)降落控制過(guò)程,先通過(guò)GPS導(dǎo)航至指定地點(diǎn)附近(無(wú)人機(jī)充電基站位置),依靠氣壓計(jì)和加速度計(jì)控制好高度(GPS數(shù)據(jù)和高度數(shù)據(jù)由當(dāng)前選擇降落的無(wú)線充電基站提供),再啟用視覺(jué)輔助實(shí)現(xiàn)較精準(zhǔn)的降落。系統(tǒng)主要涉及到飛控和視覺(jué)模塊兩大塊,飛控和視覺(jué)處理模塊均搭載在同一架無(wú)人機(jī)平臺(tái)上。電腦端作為主機(jī)端,負(fù)責(zé)接收無(wú)人機(jī)數(shù)據(jù)和傳達(dá)指令給無(wú)人機(jī)[16-18]。

      電腦控制臺(tái)與無(wú)人機(jī)間,無(wú)人機(jī)搭載的飛控模塊和視覺(jué)模塊間都需要進(jìn)行通信。電腦控制臺(tái)主要與pixhawk飛控模塊進(jìn)行信息交流,而pixhawk與openmv(視覺(jué)模塊)之間也可直接通信。由此看出,pixhawk是整個(gè)自動(dòng)降落系統(tǒng)中比較核心的部分,并且將全面控制著無(wú)人機(jī)的運(yùn)動(dòng),處理來(lái)自電腦端和openmv的數(shù)據(jù),其中電腦控制臺(tái)與pixhawk間的通信不再贅述。

      2 視覺(jué)定位原理

      視覺(jué)定位采用開(kāi)源視覺(jué)模塊openmv。這部分的主要作用為:當(dāng)無(wú)人機(jī)通過(guò)GPS導(dǎo)航至充電基站附近時(shí)(x,y,z方向距離在1 m左右),啟用攝像頭,在當(dāng)前視野中搜尋目標(biāo)點(diǎn)。

      基站上需要安裝帶有一定信息量的標(biāo)識(shí),幫助視覺(jué)模塊判斷當(dāng)前自己相對(duì)于目標(biāo)點(diǎn)的位置。需要多個(gè)自由度的信息,分別指的是x,y,z軸的位移和yaw(或者說(shuō)z軸)旋轉(zhuǎn)角度(以無(wú)人機(jī)為參考點(diǎn))。

      暫定的對(duì)齊步驟為(以下步驟均以無(wú)人機(jī)為原點(diǎn)建立坐標(biāo)系,見(jiàn)圖2,且各步驟的定位信息來(lái)源均依靠視覺(jué)模塊,不再依靠GPS):

      (1)旋轉(zhuǎn)。機(jī)頭到與充電基站頭部平行(以無(wú)人機(jī)機(jī)頭與機(jī)尾所在直線位于x軸,如果基站的對(duì)準(zhǔn)未做特殊要求的話,0°和180°均可,默認(rèn)對(duì)齊到0°)的狀態(tài)。

      (2)高度不變,水平平移。此時(shí)通過(guò)測(cè)得的x,y軸距離值,控制好無(wú)人機(jī)的飛行姿態(tài)后,再飛行到充電基站的正上方。

      (3)控制無(wú)人機(jī)平穩(wěn)下落至目標(biāo)點(diǎn)上,下落過(guò)程中,不斷進(jìn)行距離及旋轉(zhuǎn)角度的校正[19-20]。

      采用AprilTag標(biāo)志標(biāo)識(shí)充電基站,AprilTag是一個(gè)第三方的視覺(jué)基準(zhǔn)庫(kù)而且在機(jī)器人位置識(shí)別等領(lǐng)域得到了廣泛使用。一些AprilTag標(biāo)志如圖3所示。使用AprilTag進(jìn)行位置計(jì)算時(shí)可以分為2步:獲取tag和計(jì)算tag。其中,獲取tag基本方法是去尋找場(chǎng)景中可能是屬于tag系列的各種圖樣,這種圖形樣式也有利于辨別黑白邊緣特征。將tag標(biāo)識(shí)的外觀信息提取完畢,還需要相機(jī)的焦距和圖像分辨率大小信息。相機(jī)的焦距由使用的openmv攝像頭參數(shù)決定,圖像分辨率則由具體編程和實(shí)際測(cè)試確定[21-22]。

      3 軟件設(shè)計(jì)

      3.1 系統(tǒng)總體軟件流程

      無(wú)人機(jī)定點(diǎn)自動(dòng)降落過(guò)程中,首先通過(guò)GPS定位降落到目標(biāo)點(diǎn)附近,打開(kāi)openmv攝像頭,系統(tǒng)獲取到AprilTag標(biāo)志時(shí),無(wú)人機(jī)進(jìn)入自穩(wěn)模式。自穩(wěn)模式下,無(wú)人機(jī)的油門及角度控制沒(méi)有被鎖定,控制很自由。對(duì)獲取到的AprilTag標(biāo)志進(jìn)行分析,通過(guò)pixhawk調(diào)整無(wú)人機(jī)姿態(tài)完成降落。整個(gè)系統(tǒng)軟件流程圖如圖4所示。

      pixhawk代碼的主要編寫位置在“自穩(wěn)模式”代碼處,基于該模式,進(jìn)行與openmv聯(lián)動(dòng)的代碼編寫。

      3.2 視覺(jué)處理模塊軟件流程

      視覺(jué)處理方面使用openmv模塊,加上AprilTag標(biāo)識(shí)來(lái)實(shí)現(xiàn)無(wú)人機(jī)的位置計(jì)算。openmv部分代碼的主要功能為計(jì)算當(dāng)前相對(duì)于目標(biāo)點(diǎn)的位置,并通過(guò)串口按照自訂協(xié)議傳輸相關(guān)數(shù)據(jù)[23]。openmv視覺(jué)處理流程如圖5所示。

      4 軟件程序代碼設(shè)計(jì)

      視覺(jué)處理主要代碼參見(jiàn)如下:

      sensor. reset()

      sensor. set_pixformat(sensor. RGB565)

      sensor. set_framesize(sensor. QQVGA)

      sensor. skip_frames(time=2 000)

      sensor.set_auto_gain(False)#關(guān)閉自動(dòng)增益

      sensor.set_auto_whitebal(False)#關(guān)閉白平衡

      clock=time.clock()

      uart=UART(3,115200)#定義串口3變量

      uart.init(115200,bits=8,parity=None,stop=1)#串口配置定義

      這里設(shè)置好了openmv的一些基本參數(shù)。sensor.set_pixformat用于設(shè)置像素模式,代碼里設(shè)置為彩色圖像模式RGB565,每個(gè)像素16bit。sensor.set_framesize用于設(shè)置圖像的分辨率,這里考慮到了stm32的性能和需要的幀率要求,將其值設(shè)為sensor.QQVGA,即openmv里定義的160×120分辨率。set_auto_gain(False)和set_auto_whitebal(False)用于關(guān)閉openmv的自動(dòng)增益和白平衡的功能,因?yàn)檫@2個(gè)功能對(duì)AprilTag的處理有影響。時(shí)鐘和串口的初始化代碼依次展開(kāi)如下:

      f_x = (2.8 / 3.984) * 160 # 默認(rèn)值

      f_y = (2.8 / 2.952) * 120 # 默認(rèn)值

      c_x = 160 * 0.5 # 默認(rèn)值(image.w * 0.5)

      c_y = 120 * 0.5 # 默認(rèn)值(image.h * 0.5)

      img = sensor.snapshot() #截取一幀圖像

      for tag in img.find_apriltags(fx=f_x, fy=f_y, cx=c_x, cy=c_y):?# 默認(rèn)為TAG36H11

      代碼中,find_apriltags()函數(shù)可獲取攝像頭相對(duì)于當(dāng)前目標(biāo)的位置和角度信息,然后將處理得到的值存儲(chǔ)到tag中。函數(shù)的傳入值共有4個(gè),即:fx,fy,cx和cy,其他傳入值沒(méi)寫出則保持默認(rèn)(默認(rèn)選擇AprilTag的TAG36H11家族)。在設(shè)置上面提到的4個(gè)值時(shí),需根據(jù)一些硬件配置和軟件配置進(jìn)行選擇。圖中的2.8代表的是所用攝像頭的焦距信息。而3.984和2.952兩個(gè)值則是所使用的感光元件尺寸(本課題使用的openmv型號(hào)為openmv3,感光元件為ov7725)。160與120即是所設(shè)置的分辨率了。0.5為默認(rèn)值,無(wú)需變動(dòng)。sensor.snapshot()函數(shù)為立即截取當(dāng)前攝像頭圖像。每截取一張圖像,即開(kāi)始尋找AprilTag標(biāo)識(shí),初步計(jì)算出相對(duì)位置和角度。位置及角度的轉(zhuǎn)換代碼詳見(jiàn)如下。

      p_x[0]=int(tag.x_translation()*k1/100%10)#獲取x軸位移的個(gè)位(單位m)

      p_x[1]=int(tag.x_translation()*k1/10%10)#獲取x軸位移的0.1位(單位m)

      p_x[2]=int(tag.x_translation()*k1/1%10)#獲取x軸位移的0.01位(單位m)

      p_y[0]=int(tag.y_translation()*k1/100%10)#獲取y軸位移的個(gè)位(單位m)

      p_y[1]=int(tag.y_translation()*k1/10%10)#獲取y軸位移的0.1位(單位m)

      p_y[2]=int(tag.y_translation()*k1/1%10)#獲取y軸位移的0.01位(單位m)

      p_z[0]=int(tag.z_translation()*k1/100%10)#獲取z軸位移的個(gè)位(單位m)

      p_z[1]=int(tag.z_translation()*k1/10%10)#獲取z軸位移的0.1位(單位m)

      p_z[2]=int(tag.z_translation()*k1/1%10)#獲取z軸位移的0.01位(單位m)

      r_z[0]=int(degrees(tag.z_rotation())/100%10)#獲取z軸角度的百位(單位(°))

      r_z[1]=int(degrees(tag.z_rotation())/10%10)#獲取z軸角度的十位(單位(°))

      r_z[2]=int(degrees(tag.z_rotation())/1%10)#獲取z軸角度的個(gè)位(單位(°))

      通過(guò)實(shí)際測(cè)試,可以得到一個(gè)AprilTag測(cè)出的距離與實(shí)際距離的比例值k1,然后在運(yùn)算時(shí)考慮進(jìn)去。角度無(wú)需使用比例系數(shù),但需要進(jìn)行弧度與角度的轉(zhuǎn)換(degrees()函數(shù))。位置和角度將按照協(xié)議規(guī)定進(jìn)行處理。之后即可調(diào)用相應(yīng)的串口發(fā)送函數(shù)將信息傳遞到pixhawk端。

      研究中給出了實(shí)現(xiàn)openmv定位精度測(cè)試及視覺(jué)定位的關(guān)鍵代碼,具體如下。

      while(True):

      clock.tick()

      img=sensor.snapshot()

      for tag in img.find_apriltags(fx=f_x, fy=f_y, cx=c_x, cy=c_y):#默認(rèn)為TAG36H11

      img.draw_rectangle(tag.rect(),color=(255,0,0))#畫矩形

      img.draw_cross(tag.cx(),tag.cy(),color=(0,255,0))#在矩形中心畫十字

      print_args=(tag.x_translation(),tag.y_translation(),tag.z_translation(),

      degrees(tag.x_rotation()),degrees(tag.y_rotation()),degrees(tag.z_rotation()))

      print("Tx: %f, Ty %f, Tz %f, Rx %f, Ry %f, Rz %f" % print_args)

      print(clock. fps())#打印幀率

      上面用于測(cè)試的一小段代碼,主要作用是將AprilTag函數(shù)獲取的信息通過(guò)串口直接打印在電腦端的openmv IDE界面上,同時(shí)也會(huì)將運(yùn)行幀率打印出來(lái)。本次測(cè)試使用電腦屏幕顯示AprilTag標(biāo)記,方便隨時(shí)調(diào)整標(biāo)記的大小。測(cè)試時(shí)要注意,不要將屏幕的亮度調(diào)太高,過(guò)高的亮度會(huì)使攝像頭觀察到的AprilTag標(biāo)記被白光掩蓋,將會(huì)嚴(yán)重影響AprilTag的識(shí)別效果(眩光干擾)。

      5 實(shí)驗(yàn)分析

      為了驗(yàn)證系統(tǒng)有效性,進(jìn)行了相關(guān)的實(shí)驗(yàn),距離AprilTag標(biāo)記15 cm的實(shí)驗(yàn)結(jié)果如圖6所示。

      測(cè)試數(shù)據(jù)見(jiàn)表1(忽略正負(fù),位移單位為m,角度單位為(°)。15 cm時(shí)測(cè)定的比例系數(shù)6.17作為測(cè)量時(shí)的距離校正。表格的數(shù)據(jù)為openmv測(cè)得的數(shù)值)。

      經(jīng)過(guò)測(cè)量,當(dāng)ApriTag的標(biāo)記大小為12 cm邊長(zhǎng)的正方形時(shí),最近的識(shí)別距離為0.15 m(垂直距離),系統(tǒng)獲取到的視覺(jué)目標(biāo)清晰有效。最遠(yuǎn)也符合論述的范圍。誤差均在容忍范圍之內(nèi)。

      openmv搭載到無(wú)人機(jī)上時(shí),要注意使用自穩(wěn)云臺(tái),確保無(wú)人機(jī)在調(diào)控姿態(tài)時(shí)攝像頭始終是垂直向下的。openmv的供電直接由pixhawk的5 V供電提供。接下來(lái)可連接好openmv與pixhawk的串口通信接口。

      6 結(jié)束語(yǔ)

      以無(wú)人機(jī)為研究對(duì)象,研究了一種無(wú)人機(jī)定點(diǎn)降落的方式,較傳統(tǒng)的降落方式,采用了機(jī)器視覺(jué)openmv和新的地面識(shí)別圖標(biāo),該標(biāo)識(shí)包含6個(gè)自由度信息,為無(wú)人機(jī)的位置判斷提供比GPS更加準(zhǔn)確的參考。通過(guò)對(duì)openmv視覺(jué)識(shí)別系統(tǒng)的探討開(kāi)發(fā),為無(wú)人機(jī)定點(diǎn)降落的研究開(kāi)拓了一些新的思路。

      參考文獻(xiàn)

      [1]FENG Quanlong, LIU Jiantao, GONG Jianhua. UAV remote sensing for urban vegetation mapping using Random Forest and texture analysis[J]. Remote Sensing,2015,7(1):1074-1094.

      [2]祁圣君,井立,王亞龍. 無(wú)人機(jī)系統(tǒng)及發(fā)展趨勢(shì)綜述[J]. 飛航導(dǎo)彈,2018(4):17-21.

      [3]湯明文,戴禮豪,林朝輝,等. 無(wú)人機(jī)在電力線路巡視中的應(yīng)用[J]. 中國(guó)電力,2013,46(3):35-38.

      [4]李德仁,李明. 無(wú)人機(jī)遙感系統(tǒng)的研究進(jìn)展與應(yīng)用前景[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2014,39(5):505-513,540.

      [5]范承嘯,韓俊,熊志軍,等. 無(wú)人機(jī)遙感技術(shù)現(xiàn)狀與應(yīng)用[J].測(cè)繪科學(xué),2009,34(5):214-215.

      [6]聶博文,馬宏緒,王劍,等. 微小型四旋翼飛行器的研究現(xiàn)狀與關(guān)鍵技術(shù)[J]. 電光與控制,2007,14(6):113-117.

      [7]趙文一. 無(wú)人機(jī)視覺(jué)輔助自主降落系統(tǒng)研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2018.

      [8]吳顯亮,石宗英,鐘宜生. 無(wú)人機(jī)視覺(jué)導(dǎo)航研究綜述[J]. 系統(tǒng)仿真學(xué)報(bào),2010,22(S1):62-65.

      [9]鐘木財(cái),何炳蔚,曾金源,等. 基于單目視覺(jué)的無(wú)人機(jī)自主跟蹤降落研究[J]. 機(jī)械制造與自動(dòng)化,2019,48(4):149-152,187.

      [10]王旭峰,董新民,孔星煒,等. 視覺(jué)輔助的無(wú)人機(jī)自主空中加油建模與仿真[J].飛行力學(xué),2013,31(4):331-335.

      [11]范保杰,朱琳琳,崔書平,等. 旋翼無(wú)人機(jī)視覺(jué)跟蹤系統(tǒng)[J].紅外與激光工程,2011,40(1):149-152.

      [12]王海羅. 基于視覺(jué)感知的無(wú)人機(jī)目標(biāo)識(shí)別與跟蹤技術(shù)研究[D]. 北京:北京理工大學(xué),2015.

      [13]蘇贇,王挺,姚辰,等. 基于合作目標(biāo)的無(wú)人機(jī)目標(biāo)跟蹤方法[J]. 機(jī)器人,2019,41(4):425-432.

      [14]韓鵬,耿增顯,劉宏,等. 無(wú)人機(jī)視覺(jué)識(shí)別與移動(dòng)追蹤技術(shù)綜述[J].飛航導(dǎo)彈,2018(10):24-28.

      [15]張義楨,向婕,唐立軍. 基于二維碼圖像識(shí)別的無(wú)人機(jī)定位方法研究[J]. 計(jì)算機(jī)應(yīng)用與軟件,2019,36(9):117-121.

      [16]徐貴力,倪立學(xué),程月華. 基于合作目標(biāo)和視覺(jué)的無(wú)人飛行器全天候自動(dòng)著陸導(dǎo)引關(guān)鍵技術(shù)[J].航空學(xué)報(bào),2008(2):437-442.

      [17]李永健. 基于機(jī)器視覺(jué)的四旋冀無(wú)人機(jī)定點(diǎn)著陸系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 廣州:華南理工大學(xué),2015.

      [18]金偉,葛宏立,杜華強(qiáng),等. 無(wú)人機(jī)遙感發(fā)展與應(yīng)用概況[J]. 遙感信息,2009(1):88-92.

      [19]索文凱,胡文剛,張炎,等. 無(wú)人機(jī)自主降落過(guò)程視覺(jué)定位方法研究[J]. 激光技術(shù),2019,43(5):101-106.

      [20]吳賽飛. 基于視覺(jué)信息引導(dǎo)的艦載無(wú)人機(jī)精確著艦技術(shù)研究[D]. 南京:南京航空航天大學(xué),2016.

      [21]崔紅霞,林宗堅(jiān),孫杰. 無(wú)人機(jī)遙感監(jiān)測(cè)系統(tǒng)研究[J]. 測(cè)繪通報(bào),2005(5):11-14.

      [22]WATANABE Y, FABIANI P. Optimal guidance design for UAV visual target tracking in an urban environment[J]. IFAC Proceedings Volumes,2010,43(15):69-74.

      [23]GUPTA K, EMRAN B J, NAJJARAN H. Vision-based pose estimation of a multi-rotor unmanned aerial vehicle[J]. International Journal of Intelligent Unmanned Systems,2019,7(3):120-132.

      猜你喜歡
      視覺(jué)識(shí)別無(wú)人機(jī)
      傳統(tǒng)春節(jié)視覺(jué)意象設(shè)計(jì)理論問(wèn)題思考
      試論品牌經(jīng)濟(jì)時(shí)代的城市形象設(shè)計(jì)要點(diǎn)
      科技視界(2016年26期)2016-12-17 20:47:02
      高校文化建設(shè)中視覺(jué)識(shí)別系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn)
      宜賓旅游形象識(shí)別系統(tǒng)研究
      高職院校新開(kāi)設(shè)無(wú)人機(jī)專業(yè)的探討
      人間(2016年26期)2016-11-03 17:52:40
      利用無(wú)人機(jī)進(jìn)行航測(cè)工作的方式方法
      一種適用于輸電線路跨線牽引無(wú)人機(jī)的飛行方案設(shè)計(jì)
      科技視界(2016年22期)2016-10-18 14:30:27
      基于視覺(jué)識(shí)別時(shí)代的學(xué)校美術(shù)課程
      今傳媒(2016年9期)2016-10-15 23:19:42
      淺析無(wú)人機(jī)技術(shù)在我國(guó)的發(fā)展前景
      企業(yè)視覺(jué)識(shí)別系統(tǒng)(VI)與企業(yè)品牌建設(shè)
      仁怀市| 称多县| 灌云县| 孟连| 鹤岗市| 电白县| 旌德县| 万宁市| 青神县| 宝山区| 海门市| 福清市| 阿拉善右旗| 太康县| 中山市| 井研县| 昌平区| 专栏| 晋宁县| 班玛县| 沧源| 博湖县| 车致| 保山市| 隆子县| 镇坪县| 塔城市| 枣强县| 八宿县| 南平市| 黄浦区| 道真| 紫阳县| 昔阳县| 崇州市| 大悟县| 平乡县| 安丘市| 澳门| 博爱县| 十堰市|