• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于SVR-LSTM的人體上肢運(yùn)動遮擋軌跡補(bǔ)償方法

      2025-01-01 00:00:00彭金柱劉涵菲卞英楠

      摘要: 在人機(jī)協(xié)作過程中,由于光照條件等環(huán)境因素和機(jī)器人設(shè)備擺放等遮擋原因,導(dǎo)致使用基于視覺的運(yùn)動捕捉設(shè)備對人體運(yùn)動進(jìn)行捕捉時時間序列的軌跡數(shù)據(jù)有缺失,進(jìn)而導(dǎo)致意圖識別不準(zhǔn)確,增加了機(jī)器人運(yùn)動的不確定性。因此,提出了一種基于支持向量回歸(support vector regression,SVR)和長短期記憶(long short-term memory,LSTM)的人體上肢運(yùn)動時間序列軌跡缺失補(bǔ)償方法。采用網(wǎng)格搜索法對SVR模型中的參數(shù)進(jìn)行優(yōu)化來完善歷史樣本數(shù)據(jù)集,結(jié)合長短期記憶網(wǎng)絡(luò)對短、長時間序列軌跡缺失的預(yù)測補(bǔ)全更精確的優(yōu)勢,將SVR模型補(bǔ)全的歷史樣本數(shù)據(jù)集輸入LSTM模型訓(xùn)練,進(jìn)一步降低補(bǔ)償誤差。實(shí)驗(yàn)結(jié)果表明,在三維空間350 mm的運(yùn)動尺度范圍內(nèi),軌跡缺失程度為10%時,SVR-LSTM模型補(bǔ)償軌跡的平均誤差是0.14 mm;軌跡缺失程度為30%時,SVR-LSTM模型補(bǔ)償軌跡的平均誤差是0.47 mm。

      關(guān)鍵詞: 遮擋軌跡; 時間序列; 意圖識別; 軌跡補(bǔ)償; SVR-LSTM模型

      中圖分類號: TP391

      文獻(xiàn)標(biāo)志碼: A

      文章編號: 1671-6841(2025)01-0001-07

      DOI: 10.13705/j.issn.1671-6841.2023101

      Human Upper Limb Motion Occlusion Trajectory Compensation

      Method Based on SVR-LSTM

      PENG Jinzhu1, LIU Hanfei1, BIAN Yingnan2

      (1.School of Electrical and Information Engineering, Zhengzhou University, Zhengzhou 450001, China;

      2.Logistics School, Henan Communication Vocational Technology College, Zhengzhou 451460, China)

      Abstract: In the process of human-computer cooperation, the usage of vision-based motion capture equipment could cause the lack of human upper limb time series motion trajectory due to environmental factors such as lighting conditions and site restrictions such as the placement of robot equipment, resulting in inaccurate intention recognition, and thus increasing the uncertainty of robot motion. Therefore, an occlusion time series trajectory of human upper limb motion compensation method was proposed based on support vector regression (SVR) and long short-term memory (LSTM). The grid search method was used to optimize the parameters in the SVR model to improve the historical sample data set. Combining the advantages of the LSTM in more accurate prediction and completion resulted for short and long-time series track missing, the historical sample data set supplemented by the SVR model was input into the LSTM model training to further reduce the compensation error. The experimental results showed that the average error of the SVR-LSTM model compensation trajectory was 0.14 mm in the range of 350 mm motion scale in three-dimensional space when the trajectory missing degree was 10%. When the degree of track missing was 30%, the average error of SVR-LSTM model compensation track was 0.47 mm within the range of 350 mm motion scale in three-dimensional space.

      Key words: occlusion trajectory; time series; intent identification; trajectory compensation; SVR-LSTM model

      0引言

      “工業(yè)4.0”智能制造戰(zhàn)略的提出,使人機(jī)協(xié)作技術(shù)應(yīng)用范圍得到了擴(kuò)大及發(fā)展[1-2],探索從傳統(tǒng)向智能的人機(jī)協(xié)作模式的轉(zhuǎn)變顯得尤為重要[3-4]。其中,人機(jī)協(xié)作系統(tǒng)的安全性和穩(wěn)定性是眾多學(xué)者研究的重點(diǎn)[5]

      人機(jī)協(xié)作廣泛應(yīng)用于生命科學(xué)、工業(yè)生產(chǎn)、醫(yī)療康復(fù)和軍事等領(lǐng)域。彭金柱等[6]提出了一種基于視覺特征和肌電信號時域特征融合的方法對人的手勢進(jìn)行識別,提高了人機(jī)協(xié)作的效率。Corteville等[7]將人類上肢的運(yùn)動特性與導(dǎo)納控制相結(jié)合,實(shí)現(xiàn)了點(diǎn)對點(diǎn)的協(xié)同運(yùn)動控制。Erden等[8]假設(shè)在交互任務(wù)中動量保持不變,人類合作者的運(yùn)動意圖由交互作用力的變化來表示,由合作者控制力的變化來估計(jì)運(yùn)動意圖。

      在研究人體上肢運(yùn)動意圖識別的過程中,由于光照等環(huán)境因素和機(jī)器人設(shè)備擺放等場地限制,導(dǎo)致人體上肢運(yùn)動數(shù)據(jù)缺失,為了避免軌跡數(shù)據(jù)的缺失影響意圖識別的準(zhǔn)確性,需要對三維空間中的軌跡數(shù)據(jù)進(jìn)行補(bǔ)償處理。

      相關(guān)的研究和實(shí)驗(yàn)表明,SVR在具有非線性的歷史樣本集中具有較好的預(yù)測補(bǔ)償優(yōu)勢[9]。但是長時間軌跡序列的缺失使SVR無法精準(zhǔn)地補(bǔ)全軌跡信息。在深度學(xué)習(xí)的框架內(nèi),遞歸神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)解決了長時間序列缺失的問題,在自然語言處理[10]和軌跡交通[11]等領(lǐng)域證明了其時間序列預(yù)測的優(yōu)越性。但RNN無法保留和學(xué)習(xí)長時間序列信息。具有時間記憶功能的LSTM應(yīng)運(yùn)而生。陳友東等[12]提出了一種基于長短時記憶網(wǎng)絡(luò)的動作終點(diǎn)預(yù)測方法對人抓取動作的終點(diǎn)進(jìn)行預(yù)測,在觀測到50%的動作軌跡時,預(yù)測準(zhǔn)確率超過80%。Tang 等[13]使用粒子群優(yōu)化算法(particle swarm optimization, PSO)對LSTM進(jìn)行優(yōu)化,提出了一種最優(yōu)參數(shù)的自適應(yīng)選擇與LSTM預(yù)測相結(jié)合的算法,并基于表面肌電信號使用PSO-LSTM網(wǎng)絡(luò)連續(xù)地預(yù)測人體的肘關(guān)節(jié)和腕關(guān)節(jié)的角度。

      上述研究在模型數(shù)據(jù)采集過程中不可避免地會出現(xiàn)局部遮擋的情況,本文以Vicon運(yùn)動捕捉系統(tǒng)采集到的人體上肢運(yùn)動軌跡為研究對象,針對數(shù)據(jù)采集過程中由于遮擋造成歷史數(shù)據(jù)不完整和軌跡數(shù)據(jù)缺失的問題,提出一種基于支持向量回歸-長短期記憶(SVR-LSTM)模型的軌跡缺失補(bǔ)償方法,實(shí)驗(yàn)主要分為兩個部分:建立SVR歷史數(shù)據(jù)集補(bǔ)全模型,采用網(wǎng)格搜索法對其參數(shù)進(jìn)行尋優(yōu),解決歷史樣本不完整的問題;將SVR模型補(bǔ)全后的歷史數(shù)據(jù)集作為LSTM模型的輸入,并進(jìn)行雙向補(bǔ)償訓(xùn)練,解決了長短時間序列軌跡缺失的問題,大大減少了計(jì)算時間,提高了軌跡補(bǔ)償?shù)木_度。

      1數(shù)據(jù)集的建立

      1.1數(shù)據(jù)采集

      在人機(jī)交互的過程中,由于人和機(jī)器人合作方式、工作環(huán)境等不同,協(xié)作方式也不盡相同。本文使用Vicon運(yùn)動捕捉設(shè)備在搭建的特定環(huán)境下來檢測上肢運(yùn)動狀態(tài),并記錄人體上肢進(jìn)行不同抓取動作時的實(shí)時數(shù)據(jù),根據(jù)獲取的數(shù)據(jù)進(jìn)行預(yù)處理,構(gòu)成本文實(shí)驗(yàn)所需要的數(shù)據(jù)集。

      機(jī)器人前的共享操作臺上擺放了五種物品:膠槍(1號物品);PCB板(2號物品);尖嘴鉗(3號物品);螺絲刀(4號物品)以及螺絲(5號物品)。物品擺放位置如圖1所示。將標(biāo)定桿水平放置于桌面,桿短的一邊與桌邊平行,為三維空間坐標(biāo)系的x軸,桿長的另一邊與桌邊垂直,為三維空間坐標(biāo)系的y軸,三維空間坐標(biāo)系的z軸垂直于桌面交于原點(diǎn)。通過Vicon運(yùn)動捕捉相機(jī)捕捉標(biāo)定桿的位置來確定系統(tǒng)的基準(zhǔn)坐標(biāo)系。

      Vicon運(yùn)動捕捉設(shè)備獲取一個目標(biāo)的位姿信息至少需要三個熒光標(biāo)記球?qū)ζ溥M(jìn)行定位,標(biāo)記點(diǎn)分別為人體的肩、肘、腕關(guān)節(jié)。對不同的物品進(jìn)行抓取,Vicon運(yùn)動捕捉系統(tǒng)都是以300 Hz的頻率對人體上肢運(yùn)動進(jìn)行數(shù)據(jù)采集。

      本文實(shí)驗(yàn)硬件平臺配置:Inter i5-4460處理器,8 GB內(nèi)存(1 600 MHz),算法在Python平臺基于sklearn和keras功能包實(shí)現(xiàn)。

      1.2數(shù)據(jù)預(yù)處理

      本文的實(shí)驗(yàn)數(shù)據(jù)是人手抓取螺絲、PCB板、膠槍、螺絲刀以及鉗子五種物品動作所記錄下來的肩、肘、腕關(guān)節(jié)的運(yùn)動數(shù)據(jù)。Vicon運(yùn)動捕捉設(shè)備采集到的運(yùn)動數(shù)據(jù)是連續(xù)的時間序列數(shù)據(jù),以CSV文本形式保存,如圖2所示。一個CSV文件包含了進(jìn)行一次抓取動作所獲得的肩、肘和腕關(guān)節(jié)在三維空間中的位姿信息。

      為了減少工作量,在保證掌握上肢運(yùn)動細(xì)節(jié)和運(yùn)動數(shù)據(jù)量的前提下,對原始的運(yùn)動數(shù)據(jù)進(jìn)行以10 Hz頻率的降采樣處理,即在1 s內(nèi)記錄十次上肢運(yùn)動的位姿信息。

      一套完整的數(shù)據(jù)集包括了對某一物品抓取過程中肩、肘、腕關(guān)節(jié)在空間中的位置和姿態(tài)信息。根據(jù)本課題研究內(nèi)容,在人機(jī)協(xié)作的過程中,機(jī)器人需要通過人體的位置信息才能判斷并做出相應(yīng)的協(xié)助動作,因此,本數(shù)據(jù)集僅包含每種動作的關(guān)節(jié)位置的三維坐標(biāo)數(shù)據(jù)即可。10 Hz頻率的Vicon運(yùn)動捕捉系統(tǒng)對抓取五種物品的肩、肘、腕關(guān)節(jié)的動作進(jìn)行數(shù)據(jù)采集,每種物品的運(yùn)動數(shù)據(jù)包含了140組有效數(shù)據(jù),共有700組數(shù)據(jù)樣本,此700組數(shù)據(jù)構(gòu)成了實(shí)驗(yàn)的時序數(shù)據(jù)集。本實(shí)驗(yàn)所需的有效信息是位置信息,因此,在模型數(shù)據(jù)集的劃分中,每個動作均選擇100條軌跡作為訓(xùn)練集,20條軌跡作為測試集,20條軌跡作為驗(yàn)證集。

      1.3問題陳述(數(shù)據(jù)缺失)

      在采集數(shù)據(jù)的過程中,由于光照等環(huán)境因素和機(jī)器人設(shè)備擺放遮擋等原因,導(dǎo)致使用基于視覺的運(yùn)動捕捉設(shè)備對人體運(yùn)動進(jìn)行捕捉時軌跡數(shù)據(jù)有缺失,即運(yùn)動軌跡在時間序列上不連續(xù),如圖3所示。上肢運(yùn)動數(shù)據(jù)的缺失會造成后續(xù)研究工作意圖識別的不準(zhǔn)確,大大增加工作量,甚至增加機(jī)器人運(yùn)動的不確定性,在人機(jī)協(xié)作過程中影響人身安全。因此,對缺失部分的軌跡數(shù)據(jù)信息進(jìn)行補(bǔ)全是十分必要的。

      2SVR-LSTM組合預(yù)測模型

      2.1SVR模型

      SVR是支持向量機(jī)(SVM)的重要應(yīng)用分支,可以有效地預(yù)測時間序列數(shù)據(jù),已經(jīng)廣泛應(yīng)用于預(yù)測模型[14-15]。針對回歸預(yù)測的問題,其基本原理是通過引入核函數(shù),把非線性預(yù)測估計(jì)問題轉(zhuǎn)換為線性回歸問題,從而構(gòu)造決策函數(shù)進(jìn)行預(yù)測估計(jì)。

      相比傳統(tǒng)的統(tǒng)計(jì)學(xué)習(xí)方法和神經(jīng)網(wǎng)絡(luò)算法,SVR可以始終獲得全局最優(yōu)解,在小樣本數(shù)據(jù)集的預(yù)測中收斂性強(qiáng)、收斂速度快和預(yù)測性能好,具有稀疏的解空間[16-17]。但輸入特征較多時,需要進(jìn)行特征提取,工作量大且處理時間較長,無法滿足軌跡數(shù)據(jù)補(bǔ)全的實(shí)時性、高效性以及準(zhǔn)確性。

      2.2LSTM模型

      BP神經(jīng)網(wǎng)絡(luò)可以通過已知數(shù)據(jù)調(diào)整神經(jīng)元個數(shù)、模型的層數(shù)以及各層的權(quán)值系數(shù)來對未來數(shù)據(jù)進(jìn)行預(yù)測。但是由于其不能更準(zhǔn)確地描述時間序列之間的長距離、長間隔關(guān)系,因此加入門控單元對其進(jìn)行改進(jìn)[18]。

      LSTM模型是由Hochreiter和Schmidhuber提出的典型的基于門控的遞歸神經(jīng)網(wǎng)絡(luò)模型[19],后又由Gers和Schmidhuber對其進(jìn)行改進(jìn)[20]。LSTM模型由于門控遞歸單元的優(yōu)勢,被廣泛應(yīng)用于時間序列預(yù)測模型[21]。LSTM模型可以獲取到時間序列數(shù)據(jù)中的動態(tài)信息,以便進(jìn)行多步預(yù)測。它的核心思想是在存儲單元中存儲時變狀態(tài),其非線性門單元,即遺忘門f、輸入門i和輸出門o可以控制信息的流入和流出。LSTM網(wǎng)絡(luò)的循環(huán)單元結(jié)構(gòu)如圖4所示。網(wǎng)絡(luò)中三個門的計(jì)算公式為

      i=σ(WX+Uh+V),(1)

      f=σ(WX+Uh+V),(2)

      o=σ(WX+Uh+V),(3)

      其中:σ表示激活函數(shù);X是當(dāng)前時刻的輸入;h是上一時刻的外部狀態(tài);W,U,V都是可學(xué)習(xí)的網(wǎng)絡(luò)參數(shù)。

      2.3SVR-LSTM模型

      SVR模型雖然在處理長時間序列缺失的問題上效果不理想,但由于其決策模型可以輕松更新、對異常值具有魯棒性和出色的泛化能力等優(yōu)點(diǎn),在短時間序列缺失問題上具有很高的預(yù)測精度,也保證了實(shí)驗(yàn)的實(shí)時性,可以很好地解決歷史數(shù)據(jù)集不完整的問題。在實(shí)驗(yàn)過程中,遮擋情況的出現(xiàn)具有隨機(jī)性,遮擋時間的長短也具有不確定性,而LSTM模型具有門控單元和存儲器存儲單元,因此,不管是在短時間序列還是長時間序列的預(yù)測問題上都比較靈活,雙向補(bǔ)償訓(xùn)練也使補(bǔ)償結(jié)果更準(zhǔn)確。SVR-LSTM模型利用歷史軌跡和實(shí)時數(shù)據(jù)進(jìn)行雙向補(bǔ)償預(yù)測,在長、短時間序列預(yù)測上比單一的模型補(bǔ)償誤差更小。本文提出的SVR-LSTM模型補(bǔ)償流程如圖5所示。歷史樣本中會存在空值或是異常值的情況,異常特征由SVR模型得到,并進(jìn)行預(yù)測來完善歷史樣本數(shù)據(jù)集,再將完整的歷史樣本數(shù)據(jù)集輸入LSTM模型中訓(xùn)練學(xué)習(xí),對雙向補(bǔ)償?shù)玫降慕Y(jié)果進(jìn)行比較,選擇誤差最小的結(jié)果作為最終的補(bǔ)償軌跡數(shù)據(jù)。

      使用的SVR模型選用徑向基核函數(shù)(RBF),其具有較好的收斂性,易于調(diào)參,可以在一定程度上消除高維空間中的復(fù)雜內(nèi)積運(yùn)算。通過網(wǎng)格搜索法對懲罰系數(shù)C以及核參數(shù)gamma進(jìn)行尋優(yōu)。懲罰系數(shù)C和核參數(shù)gamma的取值范圍為[-10,50],尋優(yōu)步長設(shè)置為1。

      LSTM模型的參數(shù)包含神經(jīng)元的個數(shù)、模型的層數(shù)、最大迭代數(shù)、各層的權(quán)值系數(shù)以及初始學(xué)習(xí)率等。大部分的模型參數(shù)取值按照經(jīng)驗(yàn)值設(shè)定,對于神經(jīng)元的個數(shù),經(jīng)實(shí)驗(yàn)設(shè)定為10。

      2.4評價指標(biāo)

      上肢運(yùn)動是在三維空間中進(jìn)行的,因此得到的數(shù)據(jù)軌跡是三維空間數(shù)據(jù),在三維空間中,歐氏距離是最直觀的評判標(biāo)準(zhǔn)。本文的補(bǔ)全評價指標(biāo)為不同抓取動作下肩、肘、腕三個關(guān)節(jié)分別對應(yīng)的X、Y、Z軸坐標(biāo)的平均誤差,以及不同抓取動作下肩、肘、腕三個關(guān)節(jié)分別對應(yīng)的三維空間坐標(biāo)的平均誤差。

      1) 不同抓取動作下肩、肘、腕三個關(guān)節(jié)分別對應(yīng)的X、Y、Z軸坐標(biāo)的平均誤差為

      ERR=1N∑Ni=1A_B-A_B,(4)

      其中,A={j,z,w}表示肩、肘、腕三個關(guān)節(jié);B={X,Y,Z}表示三維空間下的X、Y、Z軸;i=1,2,…,N,N表示一條軌跡缺失點(diǎn)的個數(shù);A_B表示在i時刻下A關(guān)節(jié)的B軸坐標(biāo)的預(yù)測值;A_B表示在i時刻下A關(guān)節(jié)的B軸坐標(biāo)的真實(shí)值。

      2) 不同抓取動作下肩、肘、腕三個關(guān)節(jié)分別對應(yīng)的三維空間坐標(biāo)的平均誤差為

      ERR_A=1N∑Ni=1((A_X-A_X)2+

      (A_Y-A_Y)2+(A_Z-A_Z)2),(5)

      其中:A_X、A_X表示在i時刻下A關(guān)節(jié)的X軸坐標(biāo)的預(yù)測值和真實(shí)值;A_Y、A_Y表示在i時刻下A關(guān)節(jié)的Y軸坐標(biāo)的預(yù)測值和真實(shí)值;A_Z、A_Z表示A關(guān)節(jié)的Z軸坐標(biāo)的預(yù)測值和真實(shí)值。

      3實(shí)驗(yàn)結(jié)果與對比

      本文采用多步補(bǔ)償?shù)姆椒▽θ笔У能壽E位置信息進(jìn)行補(bǔ)全,基于SVR-LSTM模型實(shí)現(xiàn)對五種抓取動作的不同缺失程度的軌跡進(jìn)行預(yù)測補(bǔ)償。

      一個抓取動作的肩、肘、腕關(guān)節(jié)所對應(yīng)的空間運(yùn)動范圍不同,腕關(guān)節(jié)的運(yùn)動范圍明顯大于肘關(guān)節(jié)的運(yùn)動范圍,而肘關(guān)節(jié)的運(yùn)動范圍又明顯大于肩關(guān)節(jié)的運(yùn)動范圍。因此,在上肢抓取過程中,肩關(guān)節(jié)的運(yùn)動可看作定點(diǎn)運(yùn)動,本文主要側(cè)重于在抓取過程中對腕關(guān)節(jié)和肘關(guān)節(jié)軌跡缺失的預(yù)測補(bǔ)償。

      隨機(jī)選取一條抓取膠槍動作肘關(guān)節(jié)30%缺失程度的軌跡進(jìn)行補(bǔ)償,補(bǔ)償軌跡和真實(shí)軌跡對比結(jié)果如圖6所示,補(bǔ)償軌跡與真實(shí)軌跡之間的誤差曲線圖如圖7所示。由圖7的結(jié)果可知,隨著模型的多步補(bǔ)償,補(bǔ)償后的軌跡與真實(shí)軌跡之間的誤差值在逐漸減小,即補(bǔ)償軌跡越接近于真實(shí)軌跡。

      相同的實(shí)驗(yàn)條件下,分別對單一的SVR模型、RF(random forest,RF)模型進(jìn)行五種抓取動作,缺失程度分別為10%、30%的軌跡位置補(bǔ)償實(shí)驗(yàn),并將得到的誤差結(jié)果與本文提出的SVR-LSTM模型作對比,對比情況如圖8所示。

      上述實(shí)驗(yàn)結(jié)果對比發(fā)現(xiàn),本文提出的多步補(bǔ)償和長短時結(jié)合補(bǔ)償?shù)腟VR-LSTM模型,在補(bǔ)償10%程度缺失的抓取螺絲刀動作軌跡的過程中,SVR模型對異常值具有魯棒性、泛化能力強(qiáng)的同時,也過分依賴于參數(shù)和核函數(shù)的選擇,而SVR-LSTM模型進(jìn)行短時序數(shù)據(jù)補(bǔ)償時具有對異常值有魯棒性、泛化能力強(qiáng)、雙向補(bǔ)償?shù)葍?yōu)勢,X、Z坐標(biāo)補(bǔ)償效果明顯均比SVR模型好,誤差相差在1.3 mm以上,Y坐標(biāo)

      補(bǔ)全效果優(yōu)于SVR模型,誤差相差在0.2 mm以上。由于RF模型在小樣本集中收斂速度快,SVR-LSTM模型在補(bǔ)償小樣本數(shù)據(jù)集中有可能出現(xiàn)過擬合的現(xiàn)象,因此在短時序數(shù)據(jù)補(bǔ)償中,本文提出的方法比RF模型效果稍差,但是誤差范圍控制在1.5 mm以內(nèi)。在補(bǔ)償30%程度缺失的抓取螺絲刀動作軌跡的過程中,SVR模型和RF模型在較大樣本集中容易出現(xiàn)過擬合現(xiàn)象,而SVR-LSTM模型進(jìn)行短時序數(shù)據(jù)補(bǔ)償時具有更新速度快、收斂效果好和雙向補(bǔ)償訓(xùn)練等優(yōu)勢,軌跡補(bǔ)償效果明顯優(yōu)于SVR模型和RF模型,X、Y、Z坐標(biāo)補(bǔ)償誤差相差范圍分別至少在3 mm、1.5 mm和1.5 mm以上。

      在補(bǔ)償10%程度缺失的抓取PCB板動作軌跡的過程中,SVR-LSTM模型的X、Y坐標(biāo)補(bǔ)償效果均明顯優(yōu)于SVR模型和RF模型,誤差分別相差至少0.4 mm和0.8 mm,Z坐標(biāo)補(bǔ)償效果稍差于RF模型,誤差范圍控制在1.5 mm以內(nèi)。在補(bǔ)全30%程度缺失的抓取PCB板動作軌跡的過程中,本文提出的SVR-LSTM模型軌跡補(bǔ)償效果明顯優(yōu)于SVR模型和RF模型,X、Y、Z坐標(biāo)補(bǔ)償誤差相差范圍分別在0.3 mm、3.1 mm和0.2 mm以上。

      在對軌跡預(yù)測的過程中,選取一條缺失軌跡進(jìn)行補(bǔ)償?shù)慕Y(jié)果具有隨機(jī)性,為了減小隨機(jī)性對預(yù)測結(jié)果產(chǎn)生的影響,選取同一抓取動作的三條腕關(guān)節(jié)缺失軌跡,使用十折交叉驗(yàn)證評價各個模型的預(yù)測性能,并記錄每種模型的各條軌跡的預(yù)測補(bǔ)償誤差如表1所示。由表1可知,對于每一次的三維空間坐標(biāo)軌跡補(bǔ)償結(jié)果,SVR-LSTM模型的補(bǔ)償效果均優(yōu)于RF模型和SVR模型。隨機(jī)選取的三條缺失軌跡經(jīng)過各模型補(bǔ)償后的三維空間坐標(biāo)的平均誤差也是SVR-LSTM模型效果最優(yōu),其次是SVR模型,RF模型的三維空間軌跡補(bǔ)償效果最差,SVR-LSTM模型三維空間坐標(biāo)誤差低于RF模型44.7mm左右,SVR-LSTM模型三維空間坐標(biāo)誤差低于SVR模型5.5mm左右。

      4結(jié)論

      為了解決在裝配任務(wù)過程中由于遮擋造成的歷史數(shù)據(jù)集不完整和軌跡缺失的問題,本文利用SVR模型在短時間序列預(yù)測上具有高預(yù)測精度和泛化能力強(qiáng)的優(yōu)勢來補(bǔ)全歷史數(shù)據(jù)集,并采用網(wǎng)格搜索法對模型參數(shù)進(jìn)行尋優(yōu),以達(dá)到最好的補(bǔ)全效果。針對在長、短時間序列上的軌跡缺失問題,將補(bǔ)全后的歷史數(shù)據(jù)集作為LSTM模型的輸入,并對LSTM模型進(jìn)行雙向補(bǔ)償訓(xùn)練來補(bǔ)償軌跡缺失。實(shí)驗(yàn)結(jié)果表明,在軌跡序列長達(dá)10%缺失的情況下,SVR-LSTM模型補(bǔ)償軌跡的歐氏距離平均誤差分別比SVR、RF模型至少小1.4 mm和1.2 mm;在軌跡序列長達(dá)30%缺失的情況下,SVR-LSTM模型補(bǔ)償軌跡的歐氏距離平均誤差分別比SVR模型、RF模型至少小6 mm和45 mm。與RF模型、SVR模型的實(shí)驗(yàn)對比結(jié)果表明SVR-LSTM模型可以更精確地完成軌跡預(yù)測補(bǔ)償,減少計(jì)算量的同時,有效提高精確度。

      參考文獻(xiàn):

      [1]DUMORA J, GEFFARD F, BIDARD C, et al. Robot assistance selection for large object manipulation with a human[C]∥2013 IEEE International Conference on Systems, Man, and Cybernetics. Piscataway:IEEE Press, 2013: 1828-1833.

      [2]HUSSAIN S, XIE S Q, JAMWAL P K. Adaptive impedance control of a robotic orthosis for gait rehabilitation[J]. IEEE transactions on cybernetics, 2013, 43(3): 1025-1034.

      [3]劉洋, 孫愷. 協(xié)作機(jī)器人的研究現(xiàn)狀與技術(shù)發(fā)展分析[J]. 北方工業(yè)大學(xué)學(xué)報, 2017, 29(2): 76-85.

      LIU Y, SUN K. State of the art and future directions of collaborative robot[J]. Journal of North China university of technology, 2017, 29(2): 76-85.

      [4]計(jì)時鳴, 黃希歡. 工業(yè)機(jī)器人技術(shù)的發(fā)展與應(yīng)用綜述[J]. 機(jī)電工程, 2015, 32(1): 1-13.

      JI S M, HUANG X H. Review of development and application of industrial robot technology[J]. Journal of mechanical & electrical engineering, 2015, 32(1): 1-13.

      [5]FRITZSCHE M, ELKMANN N, SCHULENBURG E. Tactile sensing: a key technology for safe physical human robot interaction[C]∥International Conference on Human-Robot Interaction. Piscataway:IEEE Press, 2011: 139-140.

      [6]彭金柱, 董夢超, 楊揚(yáng). 基于視覺和肌電信息融合的手勢識別方法[J]. 鄭州大學(xué)學(xué)報(工學(xué)版), 2021, 42(2): 67-73.

      PENG J Z, DONG M C, YANG Y. Human gesture recognition method based on vision and EMG signal information[J]. Journal of Zhengzhou university (engineering science), 2021, 42(2): 67-73.

      [7]CORTEVILLE B, AERTBELIEN E, BRUYNINCKX H, et al. Human-inspired robot assistant for fast point-to-point movements[C]∥Proceedings 2007 IEEE International Conference on Robotics and Automation. Piscataway:IEEE Press, 2007: 3639-3644.

      [8]ERDEN M S, TOMIYAMA T. Human-intent detection and physically interactive control of a robot without force sensors[J]. IEEE transactions on robotics, 2010, 26(2): 370-382.

      [9]CHUNG J, GULCEHRE C, CHO K, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[EB/OL].(2014-12-11)[2023-04-30].https:∥arxiv.org/pdf/1412.3555.pdf.

      [10]趙淑芳, 董小雨. 基于改進(jìn)的LSTM深度神經(jīng)網(wǎng)絡(luò)語音識別研究[J]. 鄭州大學(xué)學(xué)報(工學(xué)版), 2018, 39(5): 63-67.

      ZHAO S F, DONG X Y. Research on speech recognition based on improved LSTM deep neural network[J]. Journal of Zhengzhou university (engineering science), 2018, 39(5): 63-67.

      [11]QIAO S J, SHEN D Y, WANG X T, et al. A self-adaptive parameter selection trajectory prediction approach via hidden Markov models[J]. IEEE transactions on intelligent transportation systems, 2015, 16(1): 284-296.

      [12]陳友東, 劉嘉蕾, 胡瀾曉. 人機(jī)協(xié)作中人的動作終點(diǎn)預(yù)測[J]. 北京航空航天大學(xué)學(xué)報, 2019, 45(1): 35-43.

      CHEN Y D, LIU J L, HU L X. Human motion end point prediction in human-robot collaboration[J]. Journal of Beijing university of aeronautics and astronautics, 2019, 45(1): 35-43.

      [13]TANG G, SHENG J Q, WANG D M, et al. Continuous estimation of human upper limb joint angles by using PSO-LSTM model[J]. IEEE access, 2020, 9: 17986-17997.

      [14]WU C H, HO J M, LEE D T. Travel-time prediction with support vector regression[J]. IEEE transactions on intelligent transportation systems, 2004, 5(4): 276-281.

      [15]陳榮, 梁昌勇, 謝福偉. 基于SVR的非線性時間序列預(yù)測方法應(yīng)用綜述[J]. 合肥工業(yè)大學(xué)學(xué)報(自然科學(xué)版), 2013, 36(3): 369-374.

      CHEN R, LIANG C Y, XIE F W. Application of nonlinear time series forecasting methods based on support vector regression[J]. Journal of Hefei university of technology (natural science), 2013, 36(3): 369-374.

      [16]李琳輝, 周彬, 任威威, 等. 行人軌跡預(yù)測方法綜述[J]. 智能科學(xué)與技術(shù)學(xué)報, 2021, 3(4): 399-411.

      LI L H, ZHOU B, REN W W, et al. Review of pedestrian trajectory prediction methods[J]. Chinese journal of intelligent science and technology, 2021, 3(4): 399-411.

      [17]AWAD M, KHANNA R. Support vector regression[M]∥Efficient Learning Machines. Berkeley: Berkeley Press, 2015: 67-80.

      [18]劉嘉敏, 蘇遠(yuǎn)歧, 魏平, 等. 基于長短記憶與信息注意的視頻-腦電交互協(xié)同情感識別[J]. 自動化學(xué)報, 2020, 46(10): 2137-2147.

      LIU J M, SU Y Q, WEI P, et al. Video-EEG based collaborative emotion recognition using LSTM and information-attention[J]. Acta automatica sinica, 2020, 46(10): 2137-2147.

      [19]HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735-1780.

      [20]GERS F A, SCHMIDHUBER J. Recurrent nets that time and count[C]∥Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks. Piscataway:IEEE Press, 2000: 189-194.

      [21]KE J T, ZHENG H Y, YANG H, et al. Short-term forecasting of passenger demand under on-demand ride services: a spatio-temporal deep learning approach[EB/OL]. (2017-06-20)[2023-04-30].https:∥arxiv.org/pdf/1706.06279.pdf.

      马鞍山市| 霍邱县| 新和县| 珠海市| 曲阜市| 松滋市| 化德县| 鹤壁市| 襄城县| 江安县| 册亨县| 三穗县| 鄂托克前旗| 隆子县| 高安市| 通化县| 镇赉县| 安阳市| 重庆市| 武胜县| 库伦旗| 博乐市| 榕江县| 即墨市| 阿鲁科尔沁旗| 博客| 宁远县| 吐鲁番市| 平山县| 监利县| 松阳县| 涪陵区| 五河县| 朝阳区| 光山县| 黔东| 星座| 温州市| 佛冈县| 青冈县| 临高县|