• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于無人駕駛小麥?zhǔn)崭顧C(jī)立體視覺感知系統(tǒng)

      2024-12-31 00:00:00李邦國王輝宋楊任志偉劉躍華徐樂程
      關(guān)鍵詞:目標(biāo)檢測無人駕駛深度學(xué)習(xí)

      摘要:針對小麥?zhǔn)崭顧C(jī)在農(nóng)場無人駕駛作業(yè)時無法實(shí)現(xiàn)動態(tài)障礙的實(shí)時避障,無人駕駛技術(shù)安全性低等問題,設(shè)計(jì)一種基于立體視覺與深度學(xué)習(xí)相結(jié)合的無人駕駛立體視覺感知系統(tǒng)。首先使用立體視覺相機(jī)采集左右目灰度圖像,通過圖像中像素位置的視差以及立體視覺成像原理,實(shí)現(xiàn)對障礙物的距離計(jì)算;再將相機(jī)采集的RGB圖像通過深度學(xué)習(xí)進(jìn)行處理,實(shí)現(xiàn)障礙物的檢測識別,最終完成對動態(tài)障礙物的感知。結(jié)果表明,基于立體視覺與深度學(xué)習(xí)的無人駕駛感知系統(tǒng)在農(nóng)場無人駕駛作業(yè)中動態(tài)障礙物的檢測速率達(dá)到30.1 fps,精確率達(dá)到98.24%。該方法能夠較好的滿足作業(yè)中動態(tài)障礙物檢測的識別要求,顯著提升無人駕駛小麥?zhǔn)崭顧C(jī)作業(yè)時的安全性和可靠性,為智能農(nóng)機(jī)無人駕駛的研制奠定理論與技術(shù)基礎(chǔ)。

      關(guān)鍵詞:小麥?zhǔn)崭顧C(jī);無人駕駛;立體視覺相機(jī);深度學(xué)習(xí);目標(biāo)檢測

      中圖分類號: S225; TP391; U489" " " 文獻(xiàn)標(biāo)識碼:A" " " 文章編號:2095?5553 (2024) 09?0244?06

      Stereo visual perception system based on unmanned wheat harvester

      Li Bangguo, Wang Hui, Song Yang, Ren Zhiwei, Liu Yuehua, Xu Lecheng

      (Weichai LovoL Smart Agricultural Technology Co., Ltd., Weifang, 261000, China)

      Abstract: In response to the problems of wheat harvesters being unable to achieve real?time obstacle avoidance of dynamic obstacles during unmanned operation on farms, and the low safety of unmanned driving technology, this paper designs an unmanned stereo vision perception system based on a combination of stereo vision and deep learning. The system first uses a stereo vision camera to collect grayscale images of left and right eyes, and calculates the distance between obstacles through the disparity of pixel positions in the image and the principle of stereo vision imaging; Then, the RGB images collected by the camera are processed through deep learning to achieve obstacle detection and recognition, ultimately completing the perception of dynamic obstacles. The research results indicate that the autonomous driving perception system based on stereo vision and deep learning has a detection rate of 30.1 fps and an accuracy rate of 98.24% for dynamic obstacles in unmanned driving operations on farms. The method proposed in this article can effectively meet the recognition requirements of dynamic obstacle detection during operation, significantly improving the safety and reliability of unmanned wheat harvesters during operation, and laying a theoretical and technical foundation for the development of intelligent unmanned agricultural machinery.

      Keywords: wheat harvester; unmanned driving; stereo vision camera; deep learning; target detection

      0 引言

      由于我國人口老齡化以及城市化進(jìn)程的加快,勞動力在數(shù)量和質(zhì)量上不斷降低,依靠大量勞動力的傳統(tǒng)農(nóng)業(yè)裝備已經(jīng)不能適應(yīng)當(dāng)今社會和經(jīng)濟(jì)的發(fā)展需要,智能化是農(nóng)業(yè)裝備研究的必然趨勢[1]。農(nóng)機(jī)自動駕駛技術(shù)可有效提高作業(yè)質(zhì)量,作業(yè)效率和降低勞動強(qiáng)度,在全國各地得到了規(guī)?;瘧?yīng)用[2?4]。

      隨著科技水平不斷發(fā)展,無人駕駛技術(shù)正逐漸向智能化及產(chǎn)業(yè)化方向邁進(jìn),越來越多的人關(guān)注如何在復(fù)雜環(huán)境下實(shí)現(xiàn)精密導(dǎo)航定位,全球衛(wèi)星導(dǎo)航定位系統(tǒng)(Global Navigation Satellite System, GNSS)、慣性導(dǎo)航系統(tǒng)(Inertial Navigation System, INS)和視覺的組合是其中一種具有潛力的組合方式[5?8]。雖然相關(guān)學(xué)者對無人駕駛技術(shù)進(jìn)行了研究,但研究領(lǐng)域一般是在道路幾何特征明顯,有明顯車道線的結(jié)構(gòu)化道路上的無人駕駛,針對道路不規(guī)則,背景復(fù)雜且隨機(jī)性較強(qiáng)的農(nóng)田非結(jié)構(gòu)化道路的無人駕駛技術(shù)研發(fā)較少。與結(jié)構(gòu)化道路不同的是農(nóng)田中沒有紅綠燈、交通指示牌和車道線等標(biāo)志物,而是存在一些噴灌設(shè)備、樹木和墳?zāi)沟日系K物[9]。

      然而針對動態(tài)障礙物國內(nèi)外廠家多使用激光雷達(dá)[10, 11]搭配普通單目視覺攝像頭實(shí)現(xiàn)避障,但是小麥?zhǔn)崭顧C(jī)作業(yè)過程中環(huán)境惡劣,激光雷達(dá)受揚(yáng)塵、濃霧等環(huán)境影響較大且價格昂貴,單目攝像頭存在測距誤差大等問題。

      近年來,YOLO(You Only Look Once)系列算法作為目標(biāo)檢測最快的算法之一,被廣泛用于無人駕駛障礙物檢測[12, 13]。YOLO系列算法首先將圖片進(jìn)行劃分單元格,在每個單元格里進(jìn)行候選框的判斷,若目標(biāo)的中心落在單元格中,則這個單元格就負(fù)責(zé)預(yù)測這個目標(biāo)。YOLO系列算法通過利用輸入圖像所包含的信息直接得出目標(biāo)的類別和邊界框,提升了算法的檢測速度與檢測效率[14]。

      綜上所述,本文采用深度學(xué)習(xí)與立體視覺相結(jié)合的感知方式,構(gòu)建一套基于無人駕駛小麥?zhǔn)崭顧C(jī)的環(huán)境感知系統(tǒng)。該系統(tǒng)首先使用雙目攝像頭搭建立體視覺感知,獲取RGB圖像和左右灰度圖像并計(jì)算出深度距離信息,結(jié)合YOLOv5s網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測,完成動態(tài)障礙物的實(shí)時檢測和避障,實(shí)現(xiàn)前進(jìn)方向的環(huán)境情況感知,為農(nóng)業(yè)裝備無人化作業(yè)的安全性、可靠性提供重要保障。

      1 技術(shù)路線

      1.1 YOLOv5算法

      本文進(jìn)行目標(biāo)檢測與識別的深度學(xué)習(xí)算法是YOLOv5[15, 16]深度學(xué)習(xí),根據(jù)深度和寬度一次增加可分為YOLOv5s,YOLOv5m,YOLOv5l和YOLOv5x。YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)由數(shù)據(jù)輸入端,BackBone網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)以及Head網(wǎng)絡(luò)四個部分組成,模塊化設(shè)計(jì)的同時也增強(qiáng)了網(wǎng)絡(luò)的學(xué)習(xí)能力。本文所使用的YOLOv5s具體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      YOLOv5的數(shù)據(jù)輸入端通過使用Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算和自適應(yīng)圖片縮放等功能實(shí)現(xiàn)輸入數(shù)據(jù)的增強(qiáng)。數(shù)據(jù)輸入網(wǎng)絡(luò)后,將4張或9張圖片進(jìn)行隨機(jī)裁剪、縮放后,再隨機(jī)排列拼接形成一張圖片,實(shí)現(xiàn)豐富數(shù)據(jù)集的同時,增加了小樣本目標(biāo),提升網(wǎng)絡(luò)的訓(xùn)練速度;同時每次訓(xùn)練時,自適應(yīng)的計(jì)算不同訓(xùn)練集中的最佳錨框值,反向更新后迭代到網(wǎng)絡(luò)參數(shù)中;在YOLOv5的圖片輸入中自適應(yīng)的按照比例添加最少的黑邊,不再統(tǒng)一規(guī)定圖片大小。

      BackBone網(wǎng)絡(luò)主要由CSP,Dropblock,Mish和SPPF四個部分組成,負(fù)責(zé)輸入數(shù)據(jù)的高維特征圖提取,首先通過BackBone網(wǎng)絡(luò)提取輸入圖像中的目標(biāo)障礙物的特征圖,提取特征圖的特征信息;再將包含不同維度特征信息的特征圖傳入Neck網(wǎng)絡(luò)中。

      Neck網(wǎng)絡(luò)主要由FPN和PAN組成,其主要功能為連接Backbone網(wǎng)絡(luò)與檢測網(wǎng)絡(luò),并將Backbone網(wǎng)絡(luò)提取的高維特征通過上采樣和下采樣等方式進(jìn)行特征融合,最終將特征提取完全的圖像送至檢測網(wǎng)絡(luò)進(jìn)行檢測。其中FPN模塊負(fù)責(zé)與Backbone網(wǎng)絡(luò)連接進(jìn)行上采樣,PAN模塊負(fù)責(zé)與檢測模塊的特征提取的下采樣,最終將兩者的結(jié)果進(jìn)行Concat張量拼接,使得特征融合更加全面。FPN和PAN流程示意圖如圖2所示。

      最后由Head網(wǎng)絡(luò)輸出向量,輸出向量中包括檢測目標(biāo)的類別,邊框和置信度等信息。

      本文系統(tǒng)中還加入了基于匈牙利匹配的跟蹤算法,實(shí)現(xiàn)了前后兩幀圖像通過YOLOv5s識別到的同一個障礙物的最優(yōu)匹配結(jié)果,避免在目標(biāo)識別檢測過程中因車輛震動、俯仰角變化等原因?qū)е略谇昂髢蓭瑘D像中同一障礙物檢測丟失的情況發(fā)生,確保檢測障礙物目標(biāo)的穩(wěn)定性。

      1.2 立體視覺檢測

      立體視覺檢測模塊由環(huán)境感知的立體視覺相機(jī)和提供算力的車載域控制器組成。立體視覺相機(jī)為OAK-D-PoE相機(jī),該相機(jī)搭載三顆板載攝像頭,分別為一顆IMX378 4k/60 fps彩色攝像頭,焦距為4.81,和兩顆OV9282/120 fps全局快門深度攝像頭,焦距為2.35,雙目深度傳感器基線為7.5 cm,且相機(jī)出廠時彩色攝像頭和深度攝像頭已完成像素對齊。彩色攝像頭采集到的RGB圖像主要用來目標(biāo)檢測,深度攝像頭主要采集圖像的深度信息。由于相機(jī)算力有限,因此由車載控制器為深度圖和目標(biāo)檢測提供算力,提高檢測速率。

      通過彩色攝像頭獲取到RGB圖像信息,將RGB圖像輸入到Y(jié)OLOv5s深度學(xué)習(xí)算法中進(jìn)行特征提取。利用深度學(xué)習(xí)算法,在RGB圖像中識別并框選出目標(biāo)障礙物,并在對應(yīng)位置生成Bounding Box,記錄障礙物像素位置信息。將RGB圖像按照逐幀方式傳入系統(tǒng)中并與深度圖像進(jìn)行時間序列對齊,實(shí)現(xiàn)由深度攝像頭拍攝轉(zhuǎn)化的深度圖像與RGB攝像頭拍攝的RGB圖像進(jìn)行時間戳對齊,計(jì)算出檢測框內(nèi)的深度信息并將深度信息映射到RGB圖像中。深度圖和RGB對應(yīng)效果如圖3所示。

      兩顆深度攝像頭可以實(shí)時獲取左右灰度圖像,由于左右攝像頭存在攝像頭間距,因此左右視圖存在像素位置視差,位置視差[d]為同名點(diǎn)在左視圖列坐標(biāo)[xl]減去右視圖列坐標(biāo)[xr]的像素單位,如式(1)所示。

      隨后通過雙目立體匹配算法SGBM獲取視差圖,根據(jù)最終代價選擇最佳視差,并生成視差圖。由視差圖與深度圖的換算公式能夠獲取到三維深度信息,如式(2)所示。

      通過生成的深度圖信息,得到每個位置對應(yīng)該像素點(diǎn)的深度值[z],對圖像能夠進(jìn)行三維表達(dá),即相機(jī)坐標(biāo)系下的[Z]坐標(biāo)。如圖4所示。

      根據(jù)角度和目標(biāo)障礙物對應(yīng)的深度距離,確定目標(biāo)障礙物在立體視覺傳感器對應(yīng)的相機(jī)坐標(biāo)系下的[X]軸坐標(biāo)和[Y]軸坐標(biāo)的坐標(biāo)位置。[X]軸坐標(biāo)、[Y]軸坐標(biāo)和目標(biāo)障礙物對應(yīng)的深度距離,確定目標(biāo)障礙物的中心點(diǎn)在相機(jī)坐標(biāo)系下的目標(biāo)三維位置。

      其中,根據(jù)三維深度圖信息,確定目標(biāo)障礙物在立體視覺傳感器對應(yīng)的相機(jī)坐標(biāo)系下的深度距離是指計(jì)算匹配目標(biāo)框內(nèi)深度圖的深度信息并基于三維深度圖信息獲得了目標(biāo)障礙物的深度距離[z],通過圖像坐標(biāo)系和實(shí)際物體坐標(biāo)系進(jìn)行坐標(biāo)轉(zhuǎn)換,最終得到被測障礙物體的中心相對相機(jī)的角度[θ]。圖像的坐標(biāo)轉(zhuǎn)換關(guān)系如圖5所示。

      在確定了角度后,[θ]可根據(jù)所述角度和所述目標(biāo)障礙物對應(yīng)的深度距離,確定所述目標(biāo)障礙物在所述立體視覺傳感器對應(yīng)的相機(jī)坐標(biāo)系下的X軸坐標(biāo)和Y軸坐標(biāo),具體可根據(jù)式(4)計(jì)算得

      2 試驗(yàn)分析

      設(shè)計(jì)的立體視覺感知系統(tǒng)的檢測的最遠(yuǎn)距離為35 m,水平視場角為±30°,安裝位置距離車輛頂部0.3 m,由于無人小麥?zhǔn)崭顧C(jī)自身高度約為3.5 m左右,車身較高,所以為了確保車輛近點(diǎn)無視野盲區(qū),立體視覺傳感器的安裝角度為豎直方向傾斜20°,具體相機(jī)安裝位置如圖6所示。

      本文訓(xùn)練模型使用的工作站CPU型號為Xeon GD 6128 3.4 GHz,GPU型號為NVIDIA RTX 4000 8 G,軟件環(huán)境為python 3.6.13,Torch 1.9.0。

      訓(xùn)練數(shù)據(jù)集為河南南陽、江蘇、蘇州以及濰坊高密等地采集戶外實(shí)際車輛工作中有效視頻數(shù)據(jù),并結(jié)合公開的數(shù)據(jù)集進(jìn)行針對匯總整理,對全部數(shù)據(jù)進(jìn)行篩選、分類和標(biāo)注。目前基于目標(biāo)識別的訓(xùn)練數(shù)據(jù)集合計(jì)為105 320張圖片,分為定義了人和車兩種類別,其中車的類別包含電動車、轎車、三輪車、拖拉機(jī)、收獲機(jī)、運(yùn)糧車等多種農(nóng)田作業(yè)環(huán)境中常見車輛。數(shù)據(jù)集訓(xùn)練過程如圖7所示。

      YOLOv5預(yù)訓(xùn)練模型共分為YOLOv5s(Small),YOLOv5m(Medium),YOLOv5l(Large),和YOLOv5x(Extra Large)四種,四種模型的結(jié)構(gòu)基本一樣,不同的是模型深度和模型寬度不同,從而導(dǎo)致訓(xùn)練速度模型大小和預(yù)測速率都會有差距。4種不同的模型對比如表1所示。

      分別使用上述4種預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,網(wǎng)絡(luò)模型部分參數(shù)統(tǒng)一設(shè)置如下:訓(xùn)練輪次為100,批尺寸為16,初始學(xué)習(xí)率、學(xué)習(xí)率動量和權(quán)重衰減系數(shù)均為默認(rèn)值。

      對模型訓(xùn)練的評價指標(biāo)從以下三個方面分析。

      1) 精確率(Precision):表示所有預(yù)測為正的集合中,真正樣本所占的比例。

      四種預(yù)訓(xùn)練模型訓(xùn)練后,YOLOv5x模型到Y(jié)OLOv5s模型的Precision升高1.02%,Recall提高0.99%,mAP@0.5提高0.97%,mAP@0.5:0.95提高0.85%,但檢測速率降低了12.8 fps,實(shí)時檢測效率較低。通過檢測結(jié)果可以看出在Precision、Recall和mAP較為接近的情況下,YOLOv5s檢測速率最快,實(shí)時性高,因此選擇YOLOv5s預(yù)訓(xùn)練模型為初始訓(xùn)練模型,以保證模型在實(shí)際應(yīng)用時的安全性。不同預(yù)訓(xùn)練模型的訓(xùn)練效果如表2所示。

      無人駕駛領(lǐng)域常用的深度學(xué)習(xí)主要分為兩個方向:一類是R-CNN和Fast R-CNN為代表的二階段檢測算法,具有較高精度但檢測速度較慢的特點(diǎn);另一類是以SSD和YOLO系列為代表的單階段算法,優(yōu)勢在于檢測速度快,可以更好地適應(yīng)實(shí)時檢測任務(wù)。因此本文還將YOLOv5s與Fast R-CNN和SSD進(jìn)行對比,同時還加入YOLO系列的YOLOv4,將4種不同的深度學(xué)習(xí)網(wǎng)絡(luò)檢測效果進(jìn)行對比,檢測速率同樣使用車載域控制器進(jìn)行測試。

      圖8為不同訓(xùn)練模型訓(xùn)練集損失(Train Loss)對比,可知YOLOv5s的最終損失值最低,最終穩(wěn)定在0.022左右,F(xiàn)ast R-CNN損失值略高于YOLOv5s,最終穩(wěn)定在0.025左右,SSD損失值最終穩(wěn)定在0.031左右,YOLOv4損失值最高,最終穩(wěn)定在0.032左右。

      4種深度學(xué)習(xí)訓(xùn)練數(shù)據(jù)對比如表3所示。在檢測速率接近的情況下YOLOv5s比YOLOv4的Precision高出0.26%;而YOLOv5s在Precision、Recall、mAP@0.5、mAP@0.5:0.95和檢測速率的數(shù)值都優(yōu)于SSD。Fast R-CNN的Precision比YOLOv5s高出1.07%,但是檢測速率僅有14.1 fps,比YOLOv5s的檢測速率低16 fps,不符合實(shí)時性的要求,因此選擇Precision和檢測速率綜合效果較好的YOLOv5s作為立體視覺感知系統(tǒng)的深度學(xué)習(xí)網(wǎng)絡(luò)。

      為確保系統(tǒng)的實(shí)用性,將模型加載到立體視覺感知系統(tǒng)中進(jìn)行實(shí)時性檢測,立體視覺感知系統(tǒng)中的車載域控制器負(fù)責(zé)深度學(xué)習(xí)模型的推理。車載域控制器的硬件環(huán)境的CPU為 Xeon GD,GPU型號為NVIDIA Jetson AGX Xavier 16 G,軟件環(huán)境為python3.6.12,Torch 1.8.0。

      最后將模型訓(xùn)練后放入車載域控制器中進(jìn)行測試,該系統(tǒng)能夠快速有效的檢測出無人駕駛小麥?zhǔn)崭顧C(jī)作業(yè)前方的動態(tài)障礙物。

      本文系統(tǒng)設(shè)置分為3個等級,當(dāng)障礙物距離作業(yè)車輛10 m范圍內(nèi)時停車;當(dāng)障礙物距離作業(yè)車輛20 m范圍內(nèi)時減速并將障礙物信息反饋,重新規(guī)劃路線;當(dāng)超過20 m時,車輛鳴笛示警,提醒司乘人員和動態(tài)障礙物注意作業(yè)車輛狀態(tài)。經(jīng)過無人駕駛小麥?zhǔn)崭顧C(jī)作業(yè)驗(yàn)證,本文設(shè)計(jì)的深度學(xué)習(xí)與立體視覺相結(jié)合的立體視覺感知系統(tǒng)可以實(shí)現(xiàn)實(shí)時、高精度的目標(biāo)檢測和跟蹤。檢測效果如圖9所示。

      3 結(jié)論

      1) 通過YOLOv5s深度學(xué)習(xí)算法和立體視覺感知方法,實(shí)現(xiàn)對動態(tài)障礙物快速有效的檢測識別以及對前進(jìn)方向的環(huán)境情況進(jìn)行高精度感知。設(shè)計(jì)一種基于深度學(xué)習(xí)與立體視覺相結(jié)合的立體視覺感知系統(tǒng),能有效的實(shí)現(xiàn)田間動態(tài)障礙物的檢測,檢測準(zhǔn)確度高(98.24%)、速度快(30.1 fps)且成本較低,可有效避免采用激光雷達(dá)和單目視覺帶來的維護(hù)困難,價格昂貴和識別效果差等技術(shù)問題,為無人化作業(yè)的安全性和可靠性提供關(guān)鍵保障。

      2) 基于深度學(xué)習(xí)與立體視覺相結(jié)合的立體視覺感知系統(tǒng)擁有較強(qiáng)的擴(kuò)展性和適用性,可以適用于不同農(nóng)作物和作業(yè)場景,并且根據(jù)不同的環(huán)境和作業(yè)條件進(jìn)行優(yōu)化,從而保證系統(tǒng)的高效和穩(wěn)定性。該系統(tǒng)具有更高的精度和更強(qiáng)的適應(yīng)性,大大提高無人化作業(yè)的安全性和效率,為現(xiàn)代化、智能化農(nóng)機(jī)和高端農(nóng)業(yè)裝備的發(fā)展奠定一定的基礎(chǔ)。通過無人駕駛系統(tǒng)收割小麥,既提升收割作業(yè)的效率,又緩解駕駛?cè)藛T勞動力緊缺問題,促進(jìn)農(nóng)業(yè)生產(chǎn)力的發(fā)展,是高端農(nóng)業(yè)裝備發(fā)展和精細(xì)化智能農(nóng)業(yè)發(fā)展的重要方向。

      參 考 文 獻(xiàn)

      [ 1 ] 常君瑞, 馬斌暢, 國芳. 5G通信技術(shù)在無人駕駛農(nóng)機(jī)領(lǐng)域的應(yīng)用研究[J]. 南方農(nóng)機(jī), 2022, 53(2): 48-50.

      Chang Junrui, Ma Binchang, Guo Fang. Research on the application of 5G communication technology in the field of unmanned agricultural machinery [J]. Southern Agricultural Machinery, 2022,53(2): 48-50.

      [ 2 ] 羅錫文, 廖娟, 臧英, 等. 我國農(nóng)業(yè)生產(chǎn)的發(fā)展方向:從機(jī)械化到智慧化[J]. 中國工程科學(xué), 2022, 24(1): 46-54.

      Luo Xiwen, Liao Juan, Zang Ying, et al. Developing from mechanized to smart agricultural production in China [J]. Strategic Study of CAE, 2022, 24(1): 46-54.

      [ 3 ] 周楠, 楊鵬, 魏春山, 等. 地塊尺度的山區(qū)耕地精準(zhǔn)提取方法[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(19): 260-266.

      Zhou Nan, Yang Peng, Wei Chunshan, et al. Accurate extraction method for cropland in mountainous areas based on field parcel [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(19): 260-266.

      [ 4 ] 羅承銘, 熊陳文, 黃小毛, 等. 四邊形田塊下油菜聯(lián)合收獲機(jī)全覆蓋作業(yè)路徑規(guī)劃算法[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(9): 140-148.

      Luo Chengming, Xiong Chenwen, Huang Xiaomao, et al. Coverage operation path planning algorithms for the rape combine harvester in quadrilateral fields [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(9): 140-148.

      [ 5 ] 于燕, 李寧. 基于北斗和激光雷達(dá)的機(jī)器人導(dǎo)航控制方法研究[J]. 中國農(nóng)機(jī)化學(xué)報, 2019, 40(8): 165-170.

      Yu Yan, Li Ning. Research on navigation control of robot based on Beidou and lidar [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(8): 165-170.

      [ 6 ] 張良, 伍濱濤, 謝景鑫, 等. 北斗導(dǎo)航農(nóng)機(jī)作業(yè)面積管理系統(tǒng)設(shè)計(jì)與試驗(yàn)[J]. 中國農(nóng)機(jī)化學(xué)報, 2020, 41(12): 139-146.

      Zhang Liang, Wu Bintao, Xie Jingxin, et al. Design and test on agricultural machinery operation area management system of Beidou navigation [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(12): 139-146.

      [ 7 ] 張秋昭, 張書畢, 劉志平, 等. 基于雙差偽距/偽距率的GPS/SINS緊組合導(dǎo)航[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2015, 40(12): 1690-1694, 1700.

      Zhang Qiuzhao, Zhang Shubi, Liu Zhiping, et al. Tightly?coupled GPS/SINS integrated system measurement model based on double?difference pseudo?range/pseudo?range rate [J]. Geomatics and Information Science of Wuhan University, 2015, 40(12): 1690-1694, 1700.

      [ 8 ] 董勝, 袁朝輝, 谷超, 等. 基于多學(xué)科技術(shù)融合的智能農(nóng)機(jī)控制平臺研究綜述[J]. 農(nóng)業(yè)工程學(xué)報, 2017, 33(8): 1-11.

      Dong Shen, Yuan Chaohui, Gu Chao, et al. Research on intelligent agricultural machinery control platform based on multi?discipline integration [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(8): 1-11.

      [ 9 ] 趙鋮鑰, 馬偉, 蘇道畢力格, 等. 激光雷達(dá)與視覺融合的跟隨運(yùn)輸機(jī)器人設(shè)計(jì)[J]. 中國農(nóng)機(jī)化學(xué)報, 2023, 44(6): 176-181.

      Zhao Chengyao, Ma Wei, Su Daobilige, et al. Design of a following transport robot based on lidar and vision fusion [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(6): 176-181.

      [10] 趙欣, 王萬里, 董靚, 等. 面向無人駕駛農(nóng)機(jī)的高精度農(nóng)田地圖構(gòu)建[J]. 農(nóng)業(yè)工程學(xué)報, 2022, 38(S1): 1-7.

      Zhao Xin, Wang Wanli, Dong Jing, et al. High precision farmland map construction for unmanned agricultural machinery [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(S1): 1-7.

      [11] 李清泉, 李必軍, 陳靜. 激光雷達(dá)測量技術(shù)及其應(yīng)用研究[J]. 武漢測繪科技大學(xué)學(xué)報, 2000(5): 387-392.

      Li Qingquan, Li Bijun, Chen Jing. Research on Laser range scanning and its application [J]. Geomatics and Information Science of Wuhan University, 2000(5): 387-392.

      [12] 王菁, 范曉飛, 趙智慧, 等. 基于YOLO算法的不同品種棗自然環(huán)境下成熟度識別[J]. 中國農(nóng)機(jī)化學(xué)報, 2022, 43(11): 165-171.

      Wang Jing, Fan Xiaofei, Zhao Zhihui, et al. Maturity identification of different jujube varieties under natural environments based on YOLO algorithm [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(11): 165-171.

      [13] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real?time object detection [C]. Computer Vision amp; Pattern Recognition. IEEE, 2016: 779-788.

      [14] 王新彥, 易政洋. 基于改進(jìn)YOLOv5的割草機(jī)器人工作環(huán)境障礙物檢測方法研究[J]. 中國農(nóng)機(jī)化學(xué)報, 2023, 44(3):171-176.

      Wang Xinyan, Yi Zhengyang. Research on obstacle detection method of mowing robot working environment based on improved YOLOv5 [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(3): 171-176.

      [15] 王宇博, 馬廷淮, 陳光明. 基于改進(jìn)YOLOv5算法的農(nóng)田雜草檢測[J]. 中國農(nóng)機(jī)化學(xué)報, 2023, 44(4): 167-173.

      Wang Yubo, Ma Tinghuai, Chen Guangming. Weeds detection in farmland based on a modified YOLOv5 algorithm [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(4): 167-173.

      [16] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [J]. IEEE Computer Society, 2014: 580-587.

      猜你喜歡
      目標(biāo)檢測無人駕駛深度學(xué)習(xí)
      我們村的無人駕駛公交
      無人駕駛車輛
      科學(xué)(2020年3期)2020-11-26 08:18:28
      無人駕駛公園
      視頻中目標(biāo)檢測算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識別中的人體運(yùn)動目標(biāo)檢測方法
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      移動機(jī)器人圖像目標(biāo)識別
      绥芬河市| 修文县| 巴彦淖尔市| 阳江市| 西乡县| 延长县| 灵石县| 大余县| 淳化县| 和硕县| 子洲县| 西和县| 凤山市| 松桃| 绥滨县| 谢通门县| 武夷山市| 伊川县| 涪陵区| 泽州县| 济阳县| 紫金县| 神农架林区| 深州市| 常山县| 栾川县| 惠水县| 综艺| 县级市| 库伦旗| 枞阳县| 石城县| 九龙县| 乌拉特后旗| 天水市| 武川县| 安多县| 盐津县| 晋江市| 饶河县| 山阴县|