• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向作業(yè)與人工智能的仿人機器人研究進展

      2015-09-04 02:31:28吳偉國
      關(guān)鍵詞:仿人步行驅(qū)動

      吳偉國

      (哈爾濱工業(yè)大學(xué)機電工程學(xué)院,150001哈爾濱)

      自1996年日本本田技研(HONDA R&D)發(fā)布研制成功P2型仿人機器人以后,仿人機器人、表情機器人、多指手、雙足步行機器人等在機構(gòu)原理、控制理論與技術(shù)、系統(tǒng)集成以及實驗研究方面取得了快速發(fā)展.如果說20世紀60年代末早稻田大學(xué)加藤一郎教授研制首臺雙足步行機引領(lǐng)了仿人步行機器人研究第一輪世界潮流,那么,受日本本田技研1996—2000年相繼成功研制仿人機器人P2、P3、ASIMO的影響和鼓舞,20世紀末、21世紀初掀起了新一輪仿人機器人研發(fā)國際熱潮.美國、中國、韓國、德國、法國、意大利等國相繼研制出了仿人機器人,并在穩(wěn)定步行速度、集成化程度上有大幅提高.仿人機器人研究發(fā)展到今天,已經(jīng)從20世紀的基礎(chǔ)研究向21世紀的應(yīng)用基礎(chǔ)、應(yīng)用研究邁進,已從諸如有感知能力/表情/人工情感的仿人頭、多指手、穩(wěn)定快速動步行乃至跑步的仿人雙足步行機等部分研究進入集成化整體仿人設(shè)計研發(fā)仿人機器人及應(yīng)用基礎(chǔ)研究平臺的發(fā)展階段,其間涵蓋了各種驅(qū)動原理、不同集成化程度及性能指標(biāo)的相關(guān)研究,涉及的領(lǐng)域越來越寬,從機械、電子、自動控制、計算機與人工智能到生物學(xué)、心理學(xué)、神經(jīng)科學(xué)、行為科學(xué)乃至社會科學(xué),呈現(xiàn)出史無前例的多學(xué)科交叉態(tài)勢.本文對仿人機器人研究的總體現(xiàn)狀進行回顧、綜述與分析,客觀總結(jié)評價目前發(fā)展?fàn)顩r并提出看法和觀點.

      1 20世紀仿人機器人研究簡要回顧

      1.1 基于ZMP的雙足穩(wěn)定動步行控制技術(shù)

      1972年,著名機器人學(xué)者 Vukobratovic等[1]提出了ZMP(zero moment piont)的概念,并研究了基于ZMP的雙足步行控制方法,為雙足穩(wěn)定動步行提供了重要理論基礎(chǔ).自1971年早稻田大學(xué)加藤一郎教授成功研制出第一臺雙足步行機并實現(xiàn)靜步行以后的近30年間,經(jīng)過世界范圍內(nèi)專家學(xué)者、研究機構(gòu)和相關(guān)企業(yè)多年的不懈努力,穩(wěn)定雙足動步行理論與控制技術(shù)基礎(chǔ)得以奠定,并集中體現(xiàn)在:1)地面力反射控制;2)著地腳位置控制;3)姿勢保持控制這三項控制技術(shù)的實現(xiàn)[2-3];本田技研P2型控制系統(tǒng)構(gòu)成[2]以及控制技術(shù)堪稱將基于模型控制、步行仿真與實際機器人控制技術(shù)有效結(jié)合的典范.

      1.2 全自立仿人機器人集成(1996-2000年)

      1996年以前,專家學(xué)者分別利用電動、氣動、液壓等驅(qū)動原理以及連桿機構(gòu)、滾珠絲杠、齒輪傳動等原理,研制出多種雙足步行機,但是機構(gòu)較復(fù)雜,相對原動機驅(qū)動能力較重,難以實現(xiàn)快速穩(wěn)定動步行.隨著高精度諧波傳動、高性能交/直流伺服電動機與驅(qū)動控制技術(shù)的發(fā)展,以及高檔單片機、DC伺服驅(qū)動控制器與產(chǎn)品、網(wǎng)絡(luò)、鋁/鎂合金輕質(zhì)材料鑄造等技術(shù)的發(fā)展,使質(zhì)量輕、整體剛度好的仿人機器人集成化設(shè)計與制造成為可能.20世紀末,本田技研的P1、P2、P3型開創(chuàng)了仿人機器人集成化先河,著名的仿人機器人有ASMO[4]、WABIAN-RIV[5]、H7[6]、SDR-3X[7]等等(見圖 1).

      圖1 日本1996-2000年間研發(fā)的代表性仿人機器人

      1.3 仿人表情機器人(1994-2000年)

      1993年,東京理科大學(xué)原文雄教授在國際上首次研制出具有6種面部表情的表情機器人“AHI”[8](2002 年研制出“SAYA”[9]),表情實現(xiàn)是基于美國心理學(xué)家Paul Ekman等人提出的人類面部表情編碼系統(tǒng)FACS(facial action coding system)原理,并提出“表情智能”概念,應(yīng)用人工神經(jīng)網(wǎng)絡(luò)研究了表情視覺識別技術(shù)[10];自1996年以來,早稻田大學(xué)研制出“WE-3R”、“WE-3RII”、“WE-3RIV”、“WE-4RIV”等多個版本表情機器人,實現(xiàn)了視覺、嗅覺和面部顏色表情等感知功能[11-12],在人工肺、可變臉色及觸覺感知的面部皮膚以及對光強感受的表情實驗方面也進行了研究[11];1996年,哈爾濱工業(yè)大學(xué)蔡鶴皋教授、吳偉國博士研發(fā)出“仿人像演講機器人”[13];1999年MIT研制出了有視覺、聽覺機能,能夠傳遞感情信息并與人交流的“Kismet”.早在本田技研面向家庭開發(fā)出P系列之后,人們就對無情感的機器人與人共存會對人產(chǎn)生什么樣心理影響提出了疑問.

      仿人表情機器人研究意義在于為未來機器人與人類社會共存奠定“人工情感”研究與應(yīng)用技術(shù)基礎(chǔ);其現(xiàn)實意義在于解決無生命的“機器”人與人長期共存對有生命、有情感的人的心理影響.因此,這一時期的研究也為后續(xù)仿人全身機器人裝備頭部奠定了基礎(chǔ),但頭部尚未集成化而且能實現(xiàn)的表情也不夠豐富.

      1.4 仿人多指靈巧手(1974-2000年)

      多指靈巧手的研究最初源于人失去手后對人工假手的強烈需求.隨著工業(yè)機器人操作臂、仿人手臂被廣泛研究及對靈巧操作的技術(shù)需求,作為臂末端靈巧操作器種類之一的多指靈巧手自日本1974年研制出OKADA三指靈巧手之后取得了長足發(fā)展.如1980年MIT人工智能實驗室與猶他大學(xué)聯(lián)合研制了由氣缸與繩索驅(qū)動的四指靈巧手Utah-MIT Hand;1984年Nakano等研制了Hitachi四指手;1999年德國宇航中心Hirzinger教授等研制了DLR-I四指靈巧手;1999年美國研制的NASA Robonaut五指手.1993年北京航空航天大學(xué)研制出第1個三指手BUAA-I,此后又研制出BUAA-II、III型.

      1.5 多移動方式類人猿機器人(1999-2000年)

      自1991年起,名古屋大學(xué)福田敏男教授從猴子蕩樹枝移動中得到啟發(fā)研究了Brachiator II[14]以及此后的 Brachiator III[15],研究了基于行為的Brachiation機器人智能學(xué)習(xí)運動控制.

      1999年,吳偉國博士從人及類人猿動物運動獲得啟發(fā),在名古屋大學(xué)福田研究室做博士后研究時提出了兼有雙足步行、四足步行以及步行方式轉(zhuǎn)換、蕩樹枝移動機能的“多移動方式類人猿型機器人”新概念(圖2),研制出首臺類人猿機器人Gorilla robot I型,并研究了步行與步行方式轉(zhuǎn)換控制[16-18](圖 3(a));此后,福田研究室研發(fā)了Gorilla robot II、III[19](圖 3(b)、(c));Kobayashi等[20]又基于Q-學(xué)習(xí)方法和跌倒系數(shù)優(yōu)化方法研究了使用手杖的控制方法,并用Gorilla Robot III進行實驗,驗證了該控制方法的有效性,但這些機器人都是非集成化的.

      圖2 多移動方式類人猿機器人概念圖[16]

      圖3 Gorilla robot

      多移動方式類人猿機器人概念的提出和研究為研發(fā)一臺高移動能力與環(huán)境適應(yīng)性的仿生仿人機器人及其實用化提供了新設(shè)計、新思想和技術(shù)基礎(chǔ).這種機器人兼顧了環(huán)境適應(yīng)性以及移動作業(yè)能力,具有研究變力學(xué)結(jié)構(gòu)下控制問題的理論與實際意義.

      小結(jié):1970年以后的30年間,隨著仿人手臂、雙足步行機、多指靈巧手、面部表情機器人等理論與技術(shù)長期積累,以及具有多移動方式類人及類人猿機器人新概念的提出,從P2、P3到全自立小型化ASIMO等等,都說明已經(jīng)為進一步研究有表情智能、多感知、多移動方式等集成化、形象更加接近人類的仿人全身機器人做好了準(zhǔn)備,同時也預(yù)示著21世紀智能仿人機器人研發(fā)大發(fā)展時代必將到來的世界潮流與大趨勢.

      2 2000-2015年國際仿人機器人研究

      有專家學(xué)者預(yù)言,21世紀將會進入機器人與人類社會共存的時代.目前,國際上仿人機器人研究已從20世紀仿人雙足步行、多指手、面部等部分研究過渡到集成化仿人全身機器人平臺研發(fā),利用這樣的平臺開展仿人運動、操作等應(yīng)用基礎(chǔ)研究乃至應(yīng)用研究階段.本節(jié)根據(jù)關(guān)節(jié)不同驅(qū)動原理分別對國內(nèi)外仿人機器人研究進行綜述分析.包括:1)伺服電動機加諧波齒輪傳動;2)液壓驅(qū)動;3)氣動人工肌肉驅(qū)動;4)繩驅(qū)動等驅(qū)動方式的仿人機器人的應(yīng)用基礎(chǔ)研究現(xiàn)狀.并討論了在人工智能方面的應(yīng)用基礎(chǔ)研究現(xiàn)狀.

      2.1 以伺服電動機和諧波傳動為主要驅(qū)動方式的仿人機器人、仿人全身機器人

      國際上已研發(fā)的這類仿人機器人較多,本文主要介紹有代表性的樣機.目前已研發(fā)出的先進仿人機器人主要有:ASIMO、HRP、WABIAN、HUBO等系列,如圖4所示.

      圖4 國際上著名的仿人機器人

      1)本田技研“ASIMO”

      ASIMO(圖 4(a))高 1.3 m,質(zhì)量 48 kg,共 54個自由度,其采用本田公司開發(fā)的I-WALK步行技術(shù),步速可達9 km/h[21];美國卡耐基梅隆大學(xué)Chestnutt等[22]賦予了ASIMO自治通過多障礙物的能力,通過視覺系統(tǒng)預(yù)測障礙物在場景中的速度,并能在線矯正,確立機器人步行,自治并安全地通過動態(tài)環(huán)境;Kim等[23]利用 ASIMO機器人研究了讓繩子旋轉(zhuǎn)模擬跳繩運動的控制問題.

      2)日本通產(chǎn)省工業(yè)技術(shù)研究院產(chǎn)學(xué)研合作研發(fā)的“HRP”系列

      日本自1998年起實施了“與人協(xié)調(diào)、共存的仿人機器人系統(tǒng)研發(fā)項目”(HRP)5年計劃,完成了HRP-1仿人機器人、面向遙操作/虛擬仿人機器人平臺V-HRP、HRP仿人機器人等課題.其中軟件研究經(jīng)歷了由 HRP-1到 V-HRP,以及用 CORBA、Linux、ART-Linux等技術(shù)開發(fā)出開放式虛擬軟件平臺Open-HRP的過程,并促成了HRP-2版仿人機器人研制成功.Open-HRP對于仿人機器人硬件設(shè)計、研發(fā)、虛擬實驗都有著特別重要的作用和意義,其后期計劃之一為面向室外共同作業(yè)應(yīng)用研究[24-25].日本國立尖端科學(xué)技術(shù)研究院智能系統(tǒng)所主任Tanie認為:未來期望仿人機器人在工廠維護、維修、看護照料病人、與人協(xié)作、家庭安全服務(wù)、建筑機械遙操作中得到應(yīng)用[26].

      (1)HRP-2系列

      HRP-2(圖 4(b))[27]身高 1.539 m,質(zhì)量58 kg,是作為平臺進行應(yīng)用基礎(chǔ)研究最多的版本.2005 年,Kajita 等[28]研究了高 1.27 m、12-DOF、質(zhì)量31 kg的HRP-2LR跑步控制,其控制器由:姿勢穩(wěn)定器、倒立擺穩(wěn)定器、接觸力矩控制、沖擊吸收控制、腳部垂直力控制、力矩分配控制組成,實現(xiàn)了HRP-2LR平均速度0.16 m/s、重復(fù)飛躍相0.06 s、支撐相 0.3 s的連續(xù)跑步控制,腳底垂直方向最大接觸力接近500 N,為機器人自重的1.61 倍;Stasse 等[29]研究了實時、自治地生成黑白視覺系統(tǒng)的3D SLAM,利用HRP-2研究了當(dāng)變換場景特征時頭部搭載攝像機運動的單目視覺SLAM方法;Takubo等[30]利用HRP-2研究了基于3-D ZMP修整準(zhǔn)則變換的突然停止控制方法;Harada等[31]利用HRP-2研究了臂操作的阻抗控制、基于位置控制的方法、基于力控制的方法以及實時步態(tài)規(guī)劃,得到了根據(jù)對象物重力改變時機器人穩(wěn)定推拉物體的操作實驗結(jié)果;德國研究者Mittendorfer與日本CNRS-AIST聯(lián)合機器人實驗室的Yoshida等[32]為HRP-2的臂部、胸部分區(qū)裝備了基于傳感器單元的分布式陣列網(wǎng)絡(luò)結(jié)構(gòu)的多模式人工皮膚,實驗研究了基于自組織、多模式人工皮膚的全身接觸力反射技術(shù),實現(xiàn)了HRP-2懷抱箱子、與人擁抱等作業(yè);Kajita等[33]研究了HRP-2LR基于ZMP的跑步控制問題,足底最大沖擊力接近1 000 N,為機器人自重的3.226倍;Kajita等[34]基于ZMP研究了帶扭簧機構(gòu)前腳掌的 HRP-2LT(14-DOF、1.27 m、質(zhì)量 32.3 kg)跑步樣本生成問題,仿真實現(xiàn)了3 km/h跑步,并實驗實現(xiàn)了垂直跳躍動作;Yamazaki等[35]用 HRP-2進行了在具有故障檢測、恢復(fù)和視覺識別功能條件下,為病患者穿褲子的實驗研究;東京大學(xué)的Okamoto等[36]在分析人跳舞時隨著音樂節(jié)拍變化特征基礎(chǔ)上,提出了通過合成下肢、軀干、上肢運動個體臨時比例算法生成實際機器人全身運動的算法,同時發(fā)現(xiàn)關(guān)鍵姿勢是跳舞的基本要素,可以用來作為錨點生成全身運動,并用HRP-2做了跳舞實驗以驗證算法;Petit等[37]提出借助于BCI(brain-computer interface)設(shè)計采用環(huán)境與人相互作用的輔助通信方法控制HRP-2的新方法.

      (2)HRP-3P

      日本川田工業(yè)與JAIST共同研發(fā)了HRP-3P型仿人機器人(圖4(c)),其主要特點有:1)機械結(jié)構(gòu)防塵防水保護設(shè)計;2)開發(fā)了實現(xiàn)分布式控制系統(tǒng)的節(jié)點控制器;3)基于Ethernet的主控制器與節(jié)點控制器間的實時通信;4)較HRP-2的操作能力強,并進行了防水測試以及雨中上下臺階實驗.HRP-3P 高、寬、厚分別為 1.6、0.664、0.363 m,有 36-DOF(腕部 3-DOF,手 3-DOF),質(zhì)量 65 kg,步 速 2 km/h[38];Hasunuma 等[39]為HRP-3P研制了一套遙控“駕駛座艙”設(shè)備,研發(fā)了面向仿人機器人的自治-遙控混合控制系統(tǒng)及算法,并且進行了實時遙控遙操作,諸如上臺階、雙手持管前行、左手支撐右手操作等多種作業(yè)實驗;Kanehiro等[40]為HRP-3P研發(fā)了一套基于實時Ethnet通信和體內(nèi)搭載的分布式控制系統(tǒng),實時Ethnet通信是通過使用直接數(shù)據(jù)連接層通信和實時操作系統(tǒng)ART Linux來實現(xiàn)的,這樣可以減少嵌入式系統(tǒng)成本,提高研發(fā)效率;為提高與已有軟件的兼容性,還開發(fā)了工作在通信層的CORBA工具;在其頂層開發(fā)出一個面向HRP-3P在體網(wǎng)絡(luò)的小型分布式控制器和分布式I/O系統(tǒng);Yoshida等[41]研究了基于仿人機器人操作作業(yè)的全身旋轉(zhuǎn)運動規(guī)劃問題,并且進行了HRP-3P搬轉(zhuǎn)箱子的運動控制實驗.

      (3)HRP-4、HRP-4C

      Kaneko等[42]在著重雙足步行的同時也著眼于形象逼真、形態(tài)模仿人的運動設(shè)計,設(shè)計研制了“HRP-4C”(圖 4(d)):高 1.58 m,質(zhì)量 43 kg,42-DOF,運動控制器 CPU 為 Pentium M1.6 GHz,語音識別 CPU 為 VIA C7 1.0 GHz,關(guān)節(jié)、腳底、軀干、頭部分別配置增量編碼器、6軸力傳感器、姿勢傳感器、藍牙麥克風(fēng)接收器,電源用48 V DC NiMH電池.在設(shè)計上參考、對比了當(dāng)時多款仿人機器人參數(shù).圖5為其頭部特寫及表情.

      Miura等[43-44]利用美國 VICON 公司 3D 光學(xué)運動捕捉系統(tǒng),基于捕捉人體步行、轉(zhuǎn)身運動數(shù)據(jù)生成樣本讓HRP-4C動作,進行了再現(xiàn)實驗驗證;Kaneko等[45]通過模擬由運動捕捉器獲得真人的步行動作,實現(xiàn)了 HRP-4C與人相似的步行;Kaneko 等[46]開 發(fā) 了 HRP-4(34-DOF,身 高1.51 m、質(zhì)量 39 kg)、由 OpenRTM-aist軟件平臺和帶有RT-Preempt的Linux內(nèi)核構(gòu)成的軟件系統(tǒng),具有48 V/5.4 Ah Ni-MH電池和分布式控制系統(tǒng),與HRP-2相比,雖然多了4個自由度,但體重減輕了19 kg,外貌形象為苗條、年輕長發(fā)女性;Miura等[47]利用仿人機器人擬人化形態(tài)研究了將其作為輔助設(shè)備評估者使用來進行基本研究的可行性問題,期望用它進行定量測量以輔助評估,從而減少人類受試者接受測試所導(dǎo)致的昂貴測試成本以及倫理方面的負擔(dān),并給HRP-4C穿著“智能服Lite”進行了測試實驗.

      圖5 HRP-4C的頭部特寫及表情

      3)早稻田大學(xué)WABIAN-2、KOBIAN、KOBIAN-R

      早稻田大學(xué)加藤研究室是仿人雙足機器人研究的先驅(qū),現(xiàn)為高西研究室,研制的WABIAN-2(圖 4(e))高 1.5 m,質(zhì)量 67.5 kg,雙腿 14-DOF[48];Gautam 等[49-50]研制的 WABIAN-2R 高 1.5 m、41-DOF、質(zhì)量 67.5 kg(含電池),帶有由 3-DOF加速度計、3-DOF陀螺儀及3-DOF磁力計組成的慣性測量單元和力-力矩傳感器以及前腳掌;Kishi等[51]研制了 KOBIAN 和 KOBIAN-R 兩臺仿人機器人,擁有成人女性形象;頭部24-DOF.

      4)韓國KAIST的HUBO、Albert HUBO、DRC-HUBO

      韓國KAIST(韓國先端科學(xué)技術(shù)研究院)分別于 2003、2004、2005、2006、2013 年研發(fā)出 KHR-1、2、3(HUBO,圖 4(g))以及 MAHRU、Albert HUBO、DRC-HUBO 等 多 款 仿 人 機 器 人[52-61].Android版 Albert HUBO(圖 4(h))高 1.37 m,質(zhì)量57 kg,66-DOF,有刷DC電動機+RC servo motor(伺服機,也即舵機)驅(qū)動,為名人臉形像(圖6).它能聽、看、說并能表達多種表情,擁有動步行特征和宇航服外觀,每次充電供電時間長,具有獨立系統(tǒng)結(jié)構(gòu),頭與身體為兩個獨立的機器人系統(tǒng).主計算機1、2 分別為 Pentium III 1.1 GHz和933 MHz;操作系統(tǒng)(OS)分別為Windows XP和實時操作系統(tǒng)RTX(Real-time OS);內(nèi)、外部通信方式分別為CAN、IEEE802.11g;視覺系統(tǒng)為 CCD 相機;有聲音識別和聲音合成功能的語音系統(tǒng);21個RC伺服機和3個RC伺服機分別驅(qū)動面部皮膚運動和脖子機構(gòu)以形成所有諸如笑、悲傷、生氣、吃驚等表情以及眼瞼、眼球、下頜和脖子動作.頭部這24個伺服機由可驅(qū)動31個RC伺服機的SSC II(Scott Edwards Electronics公司生產(chǎn))控制器控制.

      圖6 Android版仿人機器人“Albert HUBO”的頭部[61]

      DRC-HUBO 是 KAIST的 Heo等[62]2013年研制的面向美國DRC(DARPA robotics challenge)機器人挑戰(zhàn)賽中邁過臺階或河中石板路等多種作業(yè)的仿人機器人(圖4(i)),質(zhì)量50 kg,臂和腿分別比前一版HUBO長6、26 cm,身高1.7 m,各關(guān)節(jié)局部伺服控制器使用的是1 kHz控制頻率高增益比例-微分位置控制器.臂和腿上的主要關(guān)節(jié)由200或100 W以上無刷DC或有刷DC伺服電動機驅(qū)動,并經(jīng)速比為100∶1或200∶1的諧波傳動減速.DRC-HUBO“骨盆”部位帶有慣性測量單元(IMU)傳感器,用以測量角度、角速度,踝關(guān)節(jié)有力/力矩傳感器;電源為48 V/7.8 Ah/380 Wh電池,總共30-DOF(其中,臂7-DOF,手爪 1-DOF).

      2.2 繩索肌腱驅(qū)動的肌肉骨骼型新型仿人機器人(2001-2015年)

      人體關(guān)節(jié)由兩塊或更多肌肉驅(qū)動,以非線性彈簧特性使關(guān)節(jié)柔順,相比諧波齒輪減速器等驅(qū)動的機器人,撓性驅(qū)動可吸收振動,減緩沖擊,保護機構(gòu),以實現(xiàn)雙足穩(wěn)定步行.一些學(xué)者受到人類肌腱-關(guān)節(jié)的生物學(xué)啟發(fā),開始研制仿人肌腱-關(guān)節(jié)的撓性驅(qū)動.繩驅(qū)動用于仿人機器人可追溯到1998年早稻田大學(xué)雙足機器人 WL-14[63],其髖關(guān)節(jié)俯仰采用鋼絲繩驅(qū)動,并可用非線性彈簧調(diào)整剛度,該驅(qū)動方式能減小75%的能耗.目前較有代表性的繩索撓性驅(qū)動仿人機器人有:單腿機器人、Kenzoh、Kojiro、Kenshiro、Kotaro 等(圖 7).

      東京大學(xué)JSK(情報理工學(xué)系)于2010年研制出圖 7(a)所示的仿人機器人 Kenzoh[64-65],其采用一種繩驅(qū)動的關(guān)節(jié)剛度調(diào)整機構(gòu)(圖8(a)),通過非線性彈簧模塊來調(diào)整鋼絲繩剛度,并通過機構(gòu)中的電位計間接得到彈簧變形,從而計算出關(guān)節(jié)剛度.Kenzoh可提起2 kg重物,雖然其關(guān)節(jié)剛度可調(diào),但每個關(guān)節(jié)需要兩個電動機、兩個非線性彈簧模塊,且出力不足以驅(qū)動腿部關(guān)節(jié).2011年進行了如圖 8(b))所示的改進[66-67],引入張力傳感器以準(zhǔn)確獲得鋼絲繩剛度,仍采用雙電動機驅(qū)動,且出力未有改善[68-71].普通“線性肌肉”由電動機、繩輪和鋼絲繩組成,Osada等[72]為 Kenzoh開發(fā)了“平面肌肉”,原理是平面布置的多個繩輪上多次彎繞鋼絲繩以產(chǎn)生大速比,并采用4個“平面肌肉”驅(qū)動脊柱[72-75](圖 9).

      圖7 幾種典型繩驅(qū)動機器人

      圖8 Kenzoh機器人剛度調(diào)整機構(gòu)[66-67]

      圖9 繩驅(qū)動脊柱及其驅(qū)動原理[72-73]

      美國佐治亞理工學(xué)院Deweerth課題組于2010年研制了有髖、膝關(guān)節(jié)俯仰兩個自由度繩驅(qū)動單腿機器人[76],腿部質(zhì)量 10.1 kg,腿長 87.4 cm.

      東京大學(xué)JSK的Nakanishi等[77]研制了可實現(xiàn)雙足步行的繩驅(qū)動骨架機器人Kojiro(圖 7(b)),身高 1.35 m,質(zhì)量 40 kg,能實現(xiàn)站立姿態(tài)下?lián)u擺平衡控制;東京大學(xué) Kozuki等[78]于2011年研制出按人體解剖學(xué)設(shè)計,由160塊人造“肌肉”、肌腱驅(qū)動控制的仿人機器人 Kenshiro(圖7(c)),身高1.58 m,約100臺無刷電動機驅(qū)動所有關(guān)節(jié),其特征為:1)有肋骨的胸廓結(jié)構(gòu)用ABS工程塑料經(jīng)3D打印而成[79];2)用“平面肌肉”驅(qū)動大臂[80];3)肩胛骨添加肌肉緩沖墊,以減小沖擊[81-82].Kenshiro 無模塊化驅(qū)動單元,大腿長0.348 m,質(zhì)量 4 kg,輸出范圍-30°~ 40°,出力3×9.81 N[83-84].其研究目的都在于模擬人體.

      東京大學(xué)Nakanishi研究室研制的Kotaro[88](圖 7(d))高 1.33 m,質(zhì)量 20 kg,91 個自由度,120個驅(qū)動器(可增加),為其設(shè)計的繩驅(qū)動肌肉單元內(nèi)有100×9.81 N的張力傳感器,用電動機驅(qū)動纏繞鋼絲繩的繩輪(圖10(a),(b)),鋼絲繩僅能承受20×9.81 N.腿部俯仰關(guān)節(jié)分別由兩個肌肉單元驅(qū)動,其中,膝關(guān)節(jié)兩個肌肉單元配置在前面,髖關(guān)節(jié)和踝關(guān)節(jié)肌肉單元均配置在后面,只能承受張力,不能承受壓力,要使機器人處于站立狀態(tài),需處于屈膝姿態(tài).預(yù)期于2020年實用化,原型樣機具有超多自由度、柔性可變、多節(jié)脊椎、多感知機能、可隨意添加筋肉、體內(nèi)分布式處理系統(tǒng)、學(xué)習(xí)和自組織化等特點,體內(nèi)搭載筋肉長度與張力、電流、溫度、關(guān)節(jié)角度、分布觸覺、肉質(zhì)觸覺、雙眼立體聽覺、揚聲器等傳感器.

      圖10 Kotaro機器人的繩驅(qū)動原理[88]

      2.3 氣動人工肌肉驅(qū)動仿人機器人(2006-2015年)

      典型氣動人工肌肉機器人是比利時布魯塞爾自由大學(xué)于2006年研制的Lucy和法國LMS研究室于2000年開發(fā)的BIP2000(圖11(a),(b)).Lucy采用的人工肌肉比普通氣動人工肌肉有更快速的響應(yīng)特性和更大輸出功率,在固定側(cè)偏運動情況下可實現(xiàn)前向步行[89];BIP2000有15個自由度,能實現(xiàn)靜步行,有較強穩(wěn)定能力,受到9.81 N擾動也不會傾覆[90].

      常見氣動人工肌肉為McKibben肌肉[91],靠縱橫比變化產(chǎn)生軸線位移下的牽拉運動,每個關(guān)節(jié)需要兩個人工肌肉驅(qū)動;Tsuji等[92]分別研究了仿人臂關(guān)節(jié)6根、10根人工肌肉驅(qū)動模型的關(guān)節(jié)驅(qū)動控制器設(shè)計問題;加拿大Ottawa大學(xué)的Dong與瑞士學(xué)習(xí)算法與系統(tǒng)實驗室的Figueroa等[93]于2014年分別研究了6、10個肌肉驅(qū)動手臂關(guān)節(jié)下基于負載分配的肌肉力控制方法(圖12):通過肌肉力的計算模塊和動力學(xué)參數(shù)自適應(yīng)模塊協(xié)調(diào)肌肉力,計算按負載分配給實際的肌肉與骨骼被控對象的肌肉力,并且同時用實際被控對象與所建立模型之間的預(yù)測誤差實時地更新參數(shù);日本大阪大學(xué)的Rosendo等[94]研究了由人工肌肉驅(qū)動的仿人跳躍機器人,質(zhì)量7.8 kg,氣動人工肌肉長200 mm,收縮率30%,如圖11(c)、圖13所示.該機器人腿部結(jié)構(gòu)上有雙關(guān)節(jié)肌肉和單關(guān)節(jié)肌肉,控制著三自由度;比目魚肌感知器與其并聯(lián),獨自伺服檢測著地期間壓力差.

      圖11 氣動人工肌肉驅(qū)動的仿人雙足機器人

      圖12 包括肌肉力的計算模塊和動力學(xué)參數(shù)自適應(yīng)模塊的肌肉協(xié)調(diào)方法原理[93]

      圖13 日本大阪大學(xué)氣動人工肌肉驅(qū)動腿部原理圖[94]

      東京大學(xué)的 Nishikawa等[95]基于 McKibben型PAM設(shè)計研制了帶有壓力、姿勢等傳感器,有前腳掌、全部關(guān)節(jié)由肌肉骨骼系統(tǒng)驅(qū)動的仿人雙足機器人(圖11(d)),并實現(xiàn)了騰空跳躍,圖14給出了其原型樣機跳躍實驗場景照片.

      氣動驅(qū)動裝置用于機器人時,負載響應(yīng)延遲問題較嚴重,其輸出的非線性問題較為明顯,且誤差很大,對于雙足步行來說,實現(xiàn)難度較大,且單個氣動人工肌肉無法驅(qū)動一個機器人關(guān)節(jié),增加了機器人成本和機構(gòu)的復(fù)雜程度.

      圖14 基于McKibben型PAM肌肉骨骼型仿人雙足機器人[95]

      2.4 液壓驅(qū)動的新型仿人機器人(2007-2015年)

      典型的液壓驅(qū)動仿人機器人分別是美國波士頓動力公司于2011年研發(fā)的Petman[96]和日本科技研究中心于2007年研制的 CB[97](圖15(a)、(b)).Petman采用了波士頓動力公司BigDog機器人驅(qū)動系統(tǒng),其動力來自帶有液壓系統(tǒng)的柴油發(fā)動機,動力強勁[98];CB有50個自由度,采用主被動控制,其中主動自由度有 34 個[99-100],這兩款仿人機器人盡管能夠?qū)崿F(xiàn)步行運動,質(zhì)量都接近100 kg,造價昂貴.

      圖15 液壓驅(qū)動的仿人機器人

      美國國防部尖端研究計劃局DARPA機器人挑戰(zhàn)項目(DARPA Robotics Challenge,DRC)(Pratt&Manzo,2013)發(fā)布于 2012年,起初是2013年6月的VRC(虛擬機器人挑戰(zhàn)),頂級指標(biāo)為波士頓動力公司制造的Atlas仿人機器人,并且開始尋求挑戰(zhàn)計劃;第2個挑戰(zhàn)項目是2013年12月在佛羅里達的邁阿密高速公路確定的“DRC Trials”(DARPA機器人挑戰(zhàn)大賽),來自世界各地16個代表隊參加了這場機器人角逐賽,其中排名前8個隊均使用了Atlas機器人的VRC.“DRC Trials”有運載、碎石堆、閥門、坡道、開門、軟管、爬2.4 m高梯子、切墻等8項競賽作業(yè),每項需在30 min內(nèi)完成.IHMC(The Florida Institute for Human&Machine Cognition)總結(jié)了在DRC Trials期間使用波士頓動力公司制造的Atlas機器人完成8項任務(wù)的經(jīng)驗,也總結(jié)了由仿真到硬件傳送以及競賽過程中“課程”學(xué)習(xí)等內(nèi)容[101].

      Atlas機器人[102](圖 15(c))質(zhì)量 150 kg,由28個液壓缸驅(qū)動所有關(guān)節(jié)自由度:臂、腿各6,軀干3、脖子 1.各關(guān)節(jié)運動范圍:肩俯仰-90~45°、側(cè)偏-90~90°;肘俯仰 0~180°、側(cè)偏 0~135°;腕部俯仰 0~180°、側(cè)偏-67.5~67.5°;總高 1.88 m;手及腳上裝有力傳感器;在骨盆部位裝有光纖慣性測量單元(IMU)用來測算機器人姿態(tài);臂上的每個驅(qū)動器都裝有線性電位計、兩個壓力傳感器(基于差分壓力測量值)分別用來測量位置、關(guān)節(jié)力;機器人傳感器套裝還包括3個以 IP(Ethernet)分布在機器人周圍用來支持360°視野的相機和一個提供視覺輸入給操作器(CRL,2014)的Carnegie Robotics MultiSense SL傳感器頭.MultiSense SL包括一套立體視覺相機和一個轉(zhuǎn)動的LIDAR激光雷達定位器,并且可以用來處理再現(xiàn)機器人視野的點-云.該部分包括給機器人供電的480 V電源、1個10 Gbit/s網(wǎng)絡(luò)通信的光纖連接器和水冷風(fēng)扇.傳感器直接與控制站覆蓋的光纖網(wǎng)絡(luò)通信[102];控制站可以無線遙控機器人,由5臺計算機:領(lǐng)域計算機、主操控單元(primary operator control unit,OCU)、3 個輔助操控單元(auxiliary OCUs)組成.領(lǐng)域計算機管理所有與機器人有關(guān)的通信,限制、壓縮來自機器人的高分辨率數(shù)據(jù)并發(fā)送給各OCU操控單元;主操控單元完成解壓縮并將響應(yīng)信息發(fā)送到通信管道;各輔助操控單元作為終端負責(zé)信息協(xié)調(diào)、面向用戶和處理來自用戶的信息.領(lǐng)域計算機直接以光纖連接到Atlas網(wǎng)絡(luò),并且它以DARPA指定的有限帶寬連接到 OCU 1[102];Atlas的末端可換接iRobot、Sandia、Robotiq 3種多指手,它們分別為 3指5自由度、4指12自由度、3指4自由度的多指手;質(zhì)量分別為 1.53、2.95、2.3 kg;傳動形式分別為蝸桿、齒輪、蝸桿傳動[102];MIT 為 Atlas設(shè)計、研制了基于可視化、感知和全身運動規(guī)劃的控制仿真軟件系統(tǒng),該系統(tǒng)有高效運動規(guī)劃的人機交互機能[103];Feng 等[104]基于逆運動學(xué)、逆動力學(xué)的成本函數(shù)及它們的權(quán)重系數(shù)、約束條件等建模,研究了Atlas全身運動控制優(yōu)化問題,并將設(shè)計的控制器應(yīng)用于Atlas,進行了DRC競技項目中不平整地面行走仿真與跨越障礙、關(guān)閉閥門、爬樓梯等實驗;美國Delaware大學(xué)的Rasmussen和Drexel大學(xué)的Sohn等[105]在DARPA獎資助下,研究了2013年DARPA DRC trials中駕駛Polaris vehicle(北極星車)的DRC-Hubo有效駕駛車輛的精確控制策略;他們還在DAROA資助下開展了DRCHubo、Hubo2+機器人在頭部兩個 Asus Xtion Pro Live空間深度相機視覺系統(tǒng)導(dǎo)引下搜索測試區(qū)域入口、找到車門上車的視覺系統(tǒng)研究[106];Cheng等[107]研究的仿人機器人 CB-i(圖 15(d))高1.55 m,質(zhì)量 85 kg,有 51-DOF(腿、臂、眼、頸/頭、手、嘴、軀干分別有 7、7、2、3、6、1、3-DOF),研究了智能學(xué)習(xí)運動控制問題(詳見2.5節(jié)).

      液壓驅(qū)動機構(gòu)外型較為復(fù)雜且質(zhì)量大,并存在油液泄露問題,但驅(qū)動力強勁,操作出力能力強,目前為多數(shù)仿人機器人研究者及研發(fā)機構(gòu)追捧.

      2.5 仿人機器人與人腦的腦-機接口技術(shù)的融合

      RoboCup最終目標(biāo)是按著 FIFA規(guī)則,到2050年用自律型仿人機器人11臺組成機器人足球隊奪取世界杯.以北野宏明、淺田捻等為代表的日本學(xué)者在1993年提出以多臺自律機器人實現(xiàn)足球比賽為目的的機器人學(xué)和人工智能研究領(lǐng)域的新標(biāo)準(zhǔn)問題,如何讓仿人機器人達到與人類足球運動員技術(shù)匹敵的程度以及團隊協(xié)作處理好臨場賽并最終獲勝一直是機器人學(xué)者考慮的大問題.需要在仿人機器人與人類之間找到一種有效的學(xué)習(xí)、訓(xùn)練方式,腦-機接口技術(shù)可能為解決這一復(fù)雜難題提供了新途徑.

      2014年 Petit等[37]提出借助于 BCI(braincomputer interface)設(shè)計,采用環(huán)境與人相互作用的輔助通信方法去控制一臺仿人機器人HRP-2.這種接口是基于穩(wěn)態(tài)可視化誘發(fā)電勢SSVP(steady-state visually evoked potentials)原理的,并且刺激物被集成到可再現(xiàn)來自裝在機器人上相機圖像的頭盔顯示器HMD(head-mounted display)上.為測試所設(shè)計的基于 SLAM(simultaneous localization and mapping)反饋的新通信方法的性能,用HRP-2進行了控制實驗,以測試用戶所要求的、在一確定區(qū)域內(nèi)為執(zhí)行一項作業(yè)的通信能力,并獲得經(jīng)驗;日本ATR計算神經(jīng)科學(xué)實驗室腦-機器人接口室的Morimoto與ATR腦信息通信研究實驗室的Kawato等[108]針對近年來腦-機接口研究以及在人腦與仿人機器人間所形成的閉環(huán)系統(tǒng)內(nèi)相互“連接”的研究進行了綜述.介紹了集成腦科學(xué)和來自腦信息解碼的機器人學(xué)、基于信息解碼的機器人控制、從機器人到腦并且以實時和閉環(huán)多模式形式反饋給腦的“腦-機接口”研究新方向,同時介紹了基于CPG的步行樣本學(xué)習(xí)方法(圖16)、CB-i步行學(xué)習(xí)實驗及外骨骼助力雙足訓(xùn)練實驗研究結(jié)果.

      德國慕尼黑大學(xué)的Ramirez-amaro和不萊梅大學(xué)的Beetz等[109]提出并驗證了一種合適的語義表達方法和比較初級的感知系統(tǒng),以充分證明來自人的觀察活動.首先,他們從傳感器數(shù)據(jù)提取底層信息;然后,通過推斷人的行為意圖推斷高層行為;該系統(tǒng)另一個很重要的方面就是具有面向新活動可即時按需學(xué)習(xí)的比例自適應(yīng)性,并且在仿人機器人iCub上進行了實驗驗證:在線執(zhí)行機器人控制環(huán)系統(tǒng)的魯棒性,機器人可以在0.12 s內(nèi)識別、推斷人的行為并且做出決定(識別率精確到85%);2011年,德國宇航中心(German Aerospace Center,DLR e.V.)的 Ott等[110]基于接觸力優(yōu)化方法研究了雙足步行機器人姿勢和平衡控制;Ott等[111]于2014年研究了仿人機器人Justin基于力矩控制的多作業(yè)和平衡控制.

      圖16 CB-i及其基于CPG的雙足步行學(xué)習(xí)方法原理圖[108]

      2.6 關(guān)于仿人機器人在Telexistence中的應(yīng)用研究

      Telexistence是構(gòu)筑具有3D畫面和聲音行為空間,集視、聽、觸覺感覺的人工現(xiàn)實感技術(shù).該概念是由東京大學(xué)名譽教授Tachi于1980年原創(chuàng)提出的,人工現(xiàn)實感技術(shù)可以實現(xiàn)雖非親臨現(xiàn)場但在異地以高感度產(chǎn)生逼真地臨場感.而且通過構(gòu)造遙感代理仿人機器人TELESAR和在日本國家大規(guī)模項目“Robots in Hazardous Environments”與CREST觸覺遙感項目中的TELESAR V等,證明該技術(shù)是可行的,不但在“仿人機器人項目(HRP)”中研發(fā)了“HRP超級座艙雙足機器人系統(tǒng)”,而且已經(jīng)研發(fā)出使用代理機器人和反射機器人投射技術(shù)(RPT)等組合實現(xiàn)分別處于異地產(chǎn)生臨場感這樣的共同遙感系統(tǒng)TELESAR II、IV、V,并且已證明協(xié)同臨場感系統(tǒng)的可行性.HRP仿人機器人、Telexistence Avatar(遙感阿凡達機器人系統(tǒng))以及主從機器人等已被用于其中(圖17)[112].

      圖17 仿人機器人在Telexistence中的應(yīng)用[112]

      3 國內(nèi)仿人機器人研究現(xiàn)狀(2001-2015年)

      自2000年底國防科技大學(xué)成功研制了我國第一臺仿人機器人“先行者”以來,國內(nèi)各大學(xué)相繼研制出了一些仿人機器人,主要有:哈爾濱工業(yè)大學(xué)的GoRoBoT-II型類人猿機器人[113-115]、仿人全身機器人GoRoBoT-III[116];清華大學(xué)的THBIP、Stepper機器人;浙江大學(xué)的“悟”、“空”機器人;北京理工大學(xué)的BHR-II機器人等[120-121].清華大學(xué)于2002年研制了THBIP,高1.7m,質(zhì)量130kg,可實現(xiàn)上下樓梯運動[117];浙江大學(xué)的“悟”、“空”機器人,高1.6m,質(zhì)量55kg,有30個自由度,具有視覺捕捉技術(shù),可打乒乓球,反應(yīng)時間50~100ms[118],動步行速度1.07km/h,面向打乒乓球的7-DOF臂輕量化設(shè)計到4.4kg(無外殼,裝外殼后質(zhì)量5kg),球拍最快移動速度達2.5m/s[119];北京理工大學(xué)于2005年研制的BHR-2高1.6m、質(zhì)量63kg、有32-DOF(其中手為3-DOF),用運動捕捉研究了步行[120-121].其后還研究了有仿人頭的機器人[122];清華大學(xué)研制的Stepper機器人是小型、剛性驅(qū)動雙足機器人(高0.44m),步速可達3.6km/h[123];國防科技大學(xué)還研制了Blackmann[124].這些機器人如圖18所示.

      圖18 國內(nèi)仿人機器人

      目前,國內(nèi)外典型的仿人機器人大多可實現(xiàn)雙足步行等運動,甚至具有多感知機能.這些機器人多采用電動機加減速器等傳動裝置進行驅(qū)動.而人類步行時來自地面反力最大可達自身體重7倍,對于機器人機構(gòu)來說,如此大的沖擊可能導(dǎo)致機構(gòu)損壞.為實現(xiàn)機器人快速步行同時有效緩沖外部沖擊,越來越多的專家學(xué)者和研究機構(gòu)開始致力于撓性驅(qū)動機器人研究,以期利用撓性吸收振動,減緩沖擊,保護機構(gòu),同時減小系統(tǒng)慣量影響,進行能量存儲.

      4 作者在仿人機器人方面研究(2001-2015年)

      4.1 具有多移動方式的類人及類人猿機器人GOROBOT-II

      2003年,本文作者在1999年提出的具有多移動方式類人猿機器人概念基礎(chǔ)上,在國家自然科學(xué)基金資助下研制出模塊化組合式類人猿機器人GOROBOT-II[113-116,125,126],于2005年IEEE ROBIO國際會議上提出了如圖19所示的具有腿式、輪式及特殊移動方式類人及類人猿型自主移動機器人的概念[125],并且為GOROBOT-II設(shè)計裝備了如圖20所示的腳用輪式移動機構(gòu),在2004年實現(xiàn)雙足步行、四足步行及步行方式轉(zhuǎn)換基礎(chǔ)上,進一步實現(xiàn)了輪式移動及腿式與輪式轉(zhuǎn)換等功能,圖21為gorobot-Ⅱ外觀及其雙足步行、四足步行、輪式移動等實驗視頻截圖.

      圖19 具有腿式、輪式及特殊移動方式類人及類人猿型自主移動機器人新概念[125]

      圖20 腳用輪式移動機構(gòu)[115]

      圖21 GOROBOT-II的外觀及其雙足步行、四足步行、輪式移動實驗視頻截圖[114,116]

      4.2 有面部表情、表情識別與再現(xiàn)及語音口型的

      仿人頭像機器人F&Hrobot系列版

      2004年,本文作者在國內(nèi)最早研制出了真正具有面部表情的仿人頭像機器人F&Hrobot-I型,并實現(xiàn)了如圖22(a))所示的喜怒哀樂嚴肅等8種面部表情[127];2005年研究實現(xiàn)了人類表情的視覺識別與表情再現(xiàn)(圖22(b))[128],將表情機器人F&Hrobot-I升級為II型;2006年在國際上首次提出研究表情機器人“語音-口型協(xié)調(diào)”問題,并將II型升級為集視覺、語音-口型協(xié)調(diào)、表情于一體的 F&Hrobot-III 型[129-130],提出并研究了基于有限狀態(tài)機的人工情感模型,并用F&Hrobot-III進行了初步的實驗驗證[130].

      圖 22 F&Hrobot-I、II的表情

      4.3 集成化仿人全身機器人GOROBOT-III(2007.01-2012.09)

      在前述的有表情仿人頭像機器人、多移動方式類人猿機器人研究工作基礎(chǔ)上,作者從2005年開始設(shè)計、研制一種集多種移動方式自主移動機能(圖19)、表情智能、兼作腳用的多指手等一體化的高度集成化仿人全身機器人系統(tǒng).在國家“863計劃”資助下,作者于2012年研制出了高約1.58m,70-DOF,集1∶1比例有多感知機能與表情的集成化仿人頭部(F&Hrobot-IV)、帶有腕力傳感器1∶1比例仿人四指靈巧手雙臂手、帶有前腳掌的仿人雙足及軀干部分全自立型仿人全身機器人的高度集成化系統(tǒng)GOROBOT-III[116](見圖23).早在2004年IEEEROBIO國際會議上,為面向四足步行及雙足行走雙臂操作而提出了兼作足式步行腳用的多指手[113],并進行了設(shè)計,這一概念和設(shè)計在2007年設(shè)計、2012年研制出的GOROBOT-III型仿人全身機器人上得以實現(xiàn)并裝備其上.

      為客觀地評價GOROBOT-III集成化設(shè)計結(jié)果,將國內(nèi)外代表性的已公開仿人機器人參數(shù)據(jù)入表1,定義兩項相對評價指標(biāo):指標(biāo)1是機器人總重(kg)與總自由度數(shù)比值,即單位自由度均重;指標(biāo)2是單位身高重(kg/m)與總自由度數(shù)比.由表1可以看出,GOROBOT-III系統(tǒng)具有較輕的單位自由度均重以及較小的單位身高重/總自由度數(shù)比值,接近于國外先進機器人這兩項指標(biāo),且系統(tǒng)整體剛度很高,在步行速度上有較大的提高潛力.

      圖23 仿人全身機器人GOROBOT-III的集成化示意圖與外觀

      表1 GOROBOT-Ⅲ與國內(nèi)外代表性集成化仿人機器人性能對比

      4.4 撓性驅(qū)動單元及其在雙足步行機器人的應(yīng)用

      針對剛性傳動(減速器)驅(qū)動的仿人機器人存在的抗沖擊能力差等問題,作者自2006年開始研究撓性驅(qū)動單元,基于鋼絲繩傳動與動滑輪組増力原理,分別在2013、2014年研制出FDU(flexible drive unit)-I、II型撓性驅(qū)動單元[131].其中,F(xiàn)DU-II帶有關(guān)節(jié)轉(zhuǎn)角位置編碼器和繩索張力傳感器;基于黏彈性動力學(xué)研究了FDU-II全位置閉環(huán)和張力反饋控制撓性驅(qū)動控制技術(shù)[132].并研究了單元快速響應(yīng)特性及負載特性(最大40kg),使頻響達6Hz,關(guān)節(jié)軌跡最大跟蹤誤差<1°;FDU-II已應(yīng)用于仿人雙足步行機器人FDUBR-I的髖部俯仰運動關(guān)節(jié),實現(xiàn)了雙足穩(wěn)定步行,步速0.1km/h[133].

      上述研究成果已獲授權(quán)發(fā)明專利十余項[116].

      5 仿人機器人研究現(xiàn)狀分析與總結(jié)

      仿人機器人研究目標(biāo)是以人類自身為參照的,因此,對照人類自身數(shù)據(jù)對上述仿人機器人研究現(xiàn)狀作如下分析與總結(jié).

      1)從關(guān)節(jié)驅(qū)動能力看關(guān)節(jié)抗沖擊能力

      國內(nèi)外以代替人工作為目標(biāo)研發(fā)的仿人機器人身高、體重大約分別在1.0~1.7m、30~100kg(不含負載).按人類步行、跳躍等動作時腳底與地面沖擊力3~7倍于自重計算,仿人機器人需承受來自地面的210~700kg的沖擊力.按國際上最高性能的HarmonicDrive?諧波減速器CSG系列產(chǎn)品數(shù)據(jù)計算,考慮如下實際約束條件:(1)瞬時許用最大轉(zhuǎn)矩/輸入轉(zhuǎn)速2000r/min時額定轉(zhuǎn)矩的比值≈4~5;(2)平均負載最大許用轉(zhuǎn)矩/輸入轉(zhuǎn)速2000r/min時額定轉(zhuǎn)矩的比值≈1.4;(3)HarmonicDrive?諧波齒輪傳動壽命10000h;(4)仿人機器人中各關(guān)節(jié)機械傳動中,滾動軸承多采用的是輕或超輕系列軸承——獲得緊湊的結(jié)構(gòu);(5)工作在瞬時許用最大轉(zhuǎn)矩時意味著諧波齒輪即將失效,等等.由Kajita等[33]研究的HRP-2LR跑步足底最大沖擊力實驗數(shù)據(jù)接近1 000 N可以算出,沖擊力為機器人自重的3.23倍,已接近前述(1)中瞬時最大驅(qū)動能力的上限4,而且這些跑步實驗持續(xù)的時間很短.雖然可在腳底部加上減緩沖擊的橡膠類材料,但其剛度難以適應(yīng)不同材質(zhì)的地面;另外,腳底彈性過大(相當(dāng)于彈簧)還會引起位置控制偏差大、定位不準(zhǔn)以及失穩(wěn)等問題.目前,以諧波齒輪傳動方式減速驅(qū)動關(guān)節(jié)的仿人機器人的實用化面臨著難以解決跳躍、快跑帶來的足底大沖擊等問題.液壓驅(qū)動下,即使最大壓力按公稱壓力2~3倍計算,也難以抵抗仿人機器人相當(dāng)于人跳躍、跑步時3~7倍于自重的沖擊力,同時可能伴隨著液壓油易泄露,壓力增高將降低可靠性以及噪聲與振動等問題.足底壓力傳感器、腳部六維力-力矩傳感器也面臨著因大沖擊力而超量程的安全問題.因此,研究具有頻繁抗3~7倍于自重的大沖擊能力,且質(zhì)輕的精密傳動或自動控制下能實現(xiàn)精確定位的傳動裝置以及大量程力-力矩傳感器具有特別重要的意義.

      2)現(xiàn)有仿人機器人負載及多指手操作的能力

      前述國內(nèi)外仿人機器人上的1∶1比例仿人手多指靈巧手自由度數(shù)不多,抓持重物能力遠不及人手,最大約在1~3 kg.現(xiàn)有仿人機器人除了DARPA的Atlas外,其余仿人機器人負載和多指手操作能力都較小,而人手一般可持20~30 kg重物(人手的動力不全在手上,而是由小臂上的肌腱群來驅(qū)動的).因此,本文作者研制的GOROBOT-III型仿人全身機器人并沒有采用所有動力源元件放在多指靈巧手內(nèi)的方案,而是仿生人手與小臂的解剖學(xué),提出一種將小臂與多指靈巧手合在一起設(shè)計單元臂的形式,采用將所有伺服電動機、傳動裝置均設(shè)置在小臂上的設(shè)計方法設(shè)計了1∶1比例仿人四指靈巧手.

      3)仿人機器人平臺研發(fā)與應(yīng)用基礎(chǔ)研究情況總結(jié)

      發(fā)達國家均研發(fā)出相應(yīng)仿人機器人平臺并進行應(yīng)用基礎(chǔ)研究,其中日本以HRP系列、ASIMO系列、CB-i各為平臺,韓國以HUBO為平臺,美國以Petman、Atlas為平臺,進行了面向應(yīng)用以及與人工智能技術(shù)相結(jié)合的持續(xù)的應(yīng)用基礎(chǔ)研究,已開展的應(yīng)用基礎(chǔ)或應(yīng)用研究涉及:(1)快速穩(wěn)定步行;(2)跑步控制與實驗;(3)利用三維運動捕捉系統(tǒng)獲取人體運動數(shù)據(jù),生成機器人相應(yīng)運動樣本,具體包括學(xué)習(xí)人類步行、跳舞及與音樂節(jié)拍協(xié)調(diào)運動;(4)DARPA挑戰(zhàn)賽的8項作業(yè);(5)全身多模式人工皮膚觸覺下的自組織、接觸力反射控制技術(shù)與操作實驗,與人擁抱等;(6)HRP開挖掘機作業(yè);(7)仿人機器人急停、摔倒、過矮門等運動;(8)為病患穿衣服;(9)機器人學(xué)習(xí)人做菜;(10)視覺導(dǎo)引自治通過障礙物環(huán)境;(11)ASIMO為跳繩搖繩的控制;(12)利用“駕駛座艙”設(shè)備實時遠程遙控操作;(13)機器人全身運動規(guī)劃搬箱子;(14)HRP-4C的商業(yè)演出;(15)仿人跳躍運動控制;(16)腦-仿人機器人“腦-機接口”實驗研究:包括步行學(xué)習(xí)及外骨骼助力雙足訓(xùn)練實驗;(17)仿人機器人在人工現(xiàn)實技術(shù)中的應(yīng)用;(18)打乒乓球;(19)尋找目標(biāo),上下車、開車;(20)仿人機器人“教師”;(21)與人協(xié)作抬物件;(22)服務(wù)導(dǎo)購;(23)HRP-4C穿著“智能服”接受測試實驗;(24)表情機器人與人的交流;(25)步行期間手持重物的平衡控制;(26)一手支撐一手作業(yè)等等作業(yè)與行為;(27)爬樓梯;(28)踢球等等.這些作業(yè)研究大多數(shù)都是在伺服電動機與諧波傳動驅(qū)動的HRP系列平臺下進行的,部分是在液壓驅(qū)動仿人機器人平臺下完成的,而氣動人工肌肉原理、繩索驅(qū)動原理的仿人機器人仍處于原型樣機設(shè)計與研發(fā)階段,需解決多撓性耦合下精確控制與頻響特性問題.

      4)仿人機器人研發(fā)策略

      從 HRP、P1、P2、P3 及 ASIMO、KHR 和 HUBO等各系列仿人機器人研發(fā)成果看仿人機器人研發(fā)戰(zhàn)略:(1)產(chǎn)學(xué)研協(xié)同攻關(guān);(2)持續(xù)的、系列化的研究,技術(shù)水平不斷完善、提高;(3)無論是本田技研、日本通產(chǎn)省工業(yè)技術(shù)研究院、早稻田大學(xué)高西研究室還是韓國先端科學(xué)技術(shù)研究院都經(jīng)歷至少5臺、多則10數(shù)臺的仿人機器人樣機研發(fā)才取得標(biāo)志性成果——仿人機器人系統(tǒng)平臺,可見研發(fā)工作宜求穩(wěn)而不可操之過急.以上3點值得我國借鑒.

      5)有關(guān)仿人機器人腳的研究

      人腳有著適應(yīng)快速步行,腳掌抓牢地面,減緩著地沖擊力,巧妙利用重力場與倒立擺作用,主被動控制結(jié)合減少能量消耗等特點,對于仿人機器人而言有著極高的研究價值,近年來,諸如有非線性彈簧變剛度前腳掌腳等各種原理的仿人腳部機構(gòu)研究開始被重視并開展研究.限于篇幅,另文闡述.

      6)仿人全身機器人優(yōu)化設(shè)計與仿真平臺的必要性

      目前,盡管世界上已研發(fā)許多仿人機器人,有的機械結(jié)構(gòu)與整機系統(tǒng)設(shè)計公開發(fā)表,但是難見有關(guān)仿人全身機器人系統(tǒng)運動與負載性能優(yōu)化設(shè)計方法的研究,類似 Open-HRP[24-25]這樣的軟件平臺,對于仿人機器人設(shè)計非常重要,但在原型樣機設(shè)計之前是否考慮優(yōu)化設(shè)計不得而知.從現(xiàn)有大多數(shù)仿人機器人文獻可知:仿人機器人全身運動還局限于人體可達所有運動范圍空間內(nèi)的一小部分.因此,著眼于仿人全身運動行為和負載能力的仿人機器人集成化虛擬設(shè)計與仿真軟件平臺的開發(fā),對于設(shè)計高運動能力和負載能力的仿人機器人具有重要的理論與實際意義.

      7)關(guān)于步行與全身行為的穩(wěn)定性獲得與控制問題

      現(xiàn)有仿人機器人大都是在結(jié)構(gòu)化地勢或室內(nèi)環(huán)境下完成作業(yè)實驗的,其步行與全身行為的控制方法主要分為:(1)基于模型的控制;(2)基于行為的控制;(3)基于CPG的運動控制(即生物控制方法);(4)基于腦-機接口技術(shù)的方法;(5)基于運動捕捉系統(tǒng)的運動學(xué)習(xí)方法,等等.其中,現(xiàn)有研究多為基于ZMP穩(wěn)定性準(zhǔn)則、運動樣本規(guī)劃以及反饋控制技術(shù)等基于模型的控制方法,屬于局部穩(wěn)定而非全局穩(wěn)定,難以很好地適應(yīng)環(huán)境與自身行為的變化.為此,從人成長過程中小腦平衡能力獲得啟發(fā),作者在文獻[134]中提出了基于串并聯(lián)機構(gòu)平臺、隨機運動生成和傳感系統(tǒng)的機器人步行(以及全身行為)穩(wěn)定性訓(xùn)練方法,目前,正在進行理論與試驗基礎(chǔ)研究,期望獲得全局穩(wěn)定器.

      8)電動機驅(qū)動與液壓驅(qū)動技術(shù)博弈

      目前,以Atlas、BigDog等為代表的液壓驅(qū)動仿生仿人機器人在步行及作業(yè)能力上較電動機驅(qū)動的仿生仿人機器人顯現(xiàn)出優(yōu)勢,其根源在于泵站小型化液壓驅(qū)動與控制技術(shù)的發(fā)展使得其綜合性能已超越了目前電動機驅(qū)動性能,其差別恰似上世紀研制的液壓驅(qū)動雙足步行機過于笨重,不如電驅(qū)動雙足步行機一樣.因此,目前電動機驅(qū)動下的仿人機器人步行與作業(yè)能力的進一步提高將依賴于更高功率性能體積(或質(zhì)量)比的新型電動機和傳動裝置新技術(shù)的問世,狹義上講,仿生仿人機器人若要達到近乎于人類或動物行為的控制目標(biāo),首先取決于驅(qū)動系統(tǒng)相對于自身或負載的驅(qū)動能力及其在傳感系統(tǒng)/控制系統(tǒng)的感知與控制下的快速響應(yīng)特性.

      6 結(jié)論

      1)在仿人雙足步行技術(shù)基礎(chǔ)上發(fā)展起來的仿人全身機器人已成為衡量一個國家機器人技術(shù)水平的重要標(biāo)志,也已成為仿人機器人應(yīng)用基礎(chǔ)研究、應(yīng)用研究的平臺,基于傳感系統(tǒng)、訓(xùn)練與智能學(xué)習(xí)算法,面向各種移動作業(yè)應(yīng)用和人工智能的大規(guī)模應(yīng)用基礎(chǔ)研究將成為仿人機器人平臺研究重心.

      2)以Atlas、CB-i等液壓驅(qū)動原理的仿人機器人驅(qū)動強勁,出力大,適合于強力操作類移動作業(yè)場合;而有表情的HRP-4C以及Albert HUBO等仿人全身機器人親和力好,更適合未來面向與人類長期共同生活、工作等用途.

      3)具有多種移動方式的類人猿型機器人、仿人全身機器人以其高度的運動靈活性,環(huán)境適應(yīng)能力強和多移動方式,將會成為一種通用型的機器人.

      綜上所述,現(xiàn)已研發(fā)出的仿生仿人機器人在很多方面與人和生物還相差甚遠,很大程度上還是動作行為與情感生硬的“機械”、“機器”,期待經(jīng)過專家學(xué)者們的不懈創(chuàng)新和技術(shù)積累,未來能夠研發(fā)出環(huán)境適應(yīng)性、柔順性、精確性、自學(xué)習(xí)進化能力、心性和情感、機體組成等方面與人和生物更加接近、“生物化柔性”與“機器智能”兼顧的仿生仿人機器人.

      [1]VUKOBRATOVIC M,STEPANENKO Y.On the stability of anthropomorphic systems[J].Math Biosci,1972,15(1):1-37.

      [2]HIRAI K,HIROSE M,HAIKAWA Y,et al.The development of honda humanoid robot[C]//Proceedings of 1998 IEEE International Conference on Robotics and Automation.Leuven:IEEE,1998:1621-1326.

      [3] TAKENAKA T.The control system for the Honda humanoid robot[J].Age and Ageing,2006,35(2):ii24-ii26.

      [4]Honda-Robotics.ASIMO[EB/OL].[2015-06-20].http://www.honda.co.jp/ASIMO/.

      [5]YAMAGUCHI J,TAKANISHI A.Development of a leg part of a humanoid robot:development of a biped walking robot adapting to the humans’normal living floor[J].Autonomous Robots,1997,4(4):369 –385.

      [6]NISHIWAKI K,KUFFNER J,KAGAMI S,et al.The experimental humanoid robot H7:a research platform for autonomous behavior[J].Philosophical Trans of the Royal Society A:Mathematical,Physical and Engineering Sciences,2007,365(1850):79-107.

      [7]Sony Corporation.Corporation history[EB/OL].[2015-06-23].http://www.sony.co.jp/SonyInfo/CorporateInfo/History/history.html.

      [8]KOBAYASHI H,HARA F,UCHIDA G,et al.Study on face robot for active human interface-mechanisms of face and facial expressions of 6 basic emotion[J].Journal of the Robotics Society of Japan,1994,12(1):155-163.

      [9] KOBAYASHI H,ICHIKAWA Y,SENDA M,et al.Realization of realistic and rich facial expressions by face robot[C]//Proceeding of 2003 IEEE International Conference on Intelligent Robots and Systems.Las Vegas:IEEE,2003:1123-1128.

      [10]KOBAYASHI H,HARA F.Recognition of mixed facial expression by neural network[C]//Proceeding of 1992 IEEE International Workshop Conference on Robot and Human Communication.Tokyo:IEEE,1992:381-486.

      [11]MIWA H,UMETSU T,TAKANISHI A,et al.Humanlike robot head that has olfactory sensation and facial color expression[C]//Proceeding of 2001 IEEE International Conference on Robotics and Automation.Seoul:IEEE,2001:3255-3260.

      [12]MIWA H,ITOH K,MATSUMOTO M,et al.Effective emotion expressions with emotion expression humanoid robot WE-4RII[C]//Proceedingof2004 IEEE InternationalConference on IntelligentRobots and System.Sendal:IEEE,2004:2203-2208.

      [13]柯顯信,柏垠,唐文彬.仿人面部表情機器人研究現(xiàn)狀與展望[J].機械設(shè)計,2009,26(11):5-8.

      [14]FUKUDA T,HOSOKAI H,KONDO Y.Brachiation type of mobile robot[C]//Proceedings of the 1991 IEEE International Conference on Advanced Robotics.Pisa:IEEE,1991:915–920.

      [15]HASEGAWA Y,ITO Y,F(xiàn)UKUDA T.Behavior coordination and its modification on brachiation-type mobile robot[C]//Proceedings of the 2000 IEEE International Conference on Robotics and Automation.San Francisco:IEEE,2000:3984-3989.

      [16]WU W G,HASEGAWA Y,F(xiàn)UKUDA T.ゴリラ型ロボットの機構(gòu)設(shè)計及び起き上がり動作の基礎(chǔ)研究[C]//RSJ2000.つくば:RSJ,2000.

      [17]WU W G,HASEGAWA Y,F(xiàn)UKUDA T.Standing up motion control of a gorilla robot for a transition from quadruped locomotion to biped walking[C]//ROBOMEC2001.Kagawa:JSME,2001.

      [18]WU W G,HASEGAWA Y,F(xiàn)UKUDA T.Walking model shifting control from biped to quadruped for a gorilla robot[C]//Proceedings of the 40th SICE Annual Conference.Nagoya:IEEE,2001:130-135.

      [19]FUKUDA T,HASEGAWA Y,SEKIYAMA K,et al.Multi-locomotion robotic systems-new concepts of bioinspired robotics[J].Springer Tracts in Advanced Robotics,2012,81:79-81.

      [20]KOBAYASHI T,SEKIYAMA K,AOYAMA T,et al.Cane-supported walking by humanoid robot and fallingfactor-based optimal cane usage selection[J].Robotics and Autonomous Systems,2015,68:21-35.

      [21]KAMIDE H,MAE Y,TAKUBO T,et al.Direct comparison of psychological evaluation between virtual and real humanoids:Personal space and subjective impressions[J].InternationalJournalofHuman-Computer Studies,2014,72(5):451-459.

      [22]CHESTNUTT J,MICHEL P,KUFFNER J,et al.Locomotion among dynamic obstacles for the Honda ASIMO[C]//Proceedings of the 2007 IEEE/RSJ InternationalConference on IntelligentRobots and Systems.San Diego:IEEE,2007:2572-2573.

      [23]KIM C H,YONEKURA K,TSUJINO H,et al.Physical control of the rotation of a flexible object:rope turning with a humanoid robot[J].Advanced Robotics,2011,25(3):491-506.

      [24]KANEHIRO F,F(xiàn)UJIWARA K,KAJITA S,et al.Open architecture humanoid robotics platform [C]//Proceeding of 2002 IEEE Int Conf on Robotics&Automation.Washington:IEEE,2002:24-30.

      [25]KANEKO K,KANEHIRO F,KAJITA S,et al.Design on prototype humanoid robotics platform for HRP[C]//Proceeding of the 2002 IEEE/RSJ Int Conference on Intelligent Robots and Systems.Lausenne:IEEE,2002:2431-2436.

      [26]TANIE K.Humanoid robot and its application possibility[C]//Proceeding of the 2003 IEEE Conference on MultisensorFusion and Integration for Intelligent Systems.Tokyo:IEEE,2003:213-214.

      [27]3KANEKO K,KANEHIRO F,KAJITA S,et al.Humanoid robot HRP-2[C]//Proceeding of 2004 IEEE Int Conf on Robotics& Automation.Los Angeles:IEEE,2004:1083-1090.

      [28]KAJITA S,NAGASAKI T,KANEKO K,et al.A running controller of humanoid biped HRP-2LR[C]//Proceedings of the 2005 IEEE International Conference on Robotics and Automation.Barcelona:IEEE,2005:616-622.

      [29]STASSE O,DAVISON A J,SELLAOUTI R,et al.Real-time 3D SLAM for humanoid robot considering pattern generator information[C]//Proceedings of the 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems.Beijing:IEEE,2006:348-355.

      [30]TAKUBO T,TANAKA T,INOUE K,et al.Emergent walking stop using 3-D ZMP modification criteria map for humanoid robot[C]//Proceedings of the 2007 IEEE International Conference on Robotics and Automation.Roma:IEEE,2007:2676-2681.

      [31]HARADA K,KAJITA S,KANEHIRO F,et al.Realtime planning of humanoid robot’s gait for forcecontrolled manipulation[J].IEEE/ASME Transactions on Mechatronics,2007,12(1):53-62.

      [32]MITTENDORFER P,YOSHIDA E,CHENG G.Realizing whole-body tactile interactions with a self-organizing,multi-modal artificial skin on a humanoid robot[J].Advanced Robotics,2015 29(1):51–67.

      [33]KAJITA S,NAGASAKI T,KANEKO K,et al.ZMP-based biped running control:the HRP-2LR humanoid biped robot[J].Proceedings of the 2007 IEEE Robotics &Automation Magazine,2007,14(2):63-72.

      [34]KAJITA S,KANEKO K,MORISAWA M,et al.ZMP-based biped running enhanced by toe springs[C]//Proceedings of the 2007 IEEE International Conference on Robotics and Automation.Roma:IEEE,2007:3963-3969.

      [35]YAMAZAKI K,OYA R,NAGAHAMA K,et al.Bottom dressing by a life-sized humanoid robot provided failure detection and recovery functions[C]//Proceedings ofthe 2014 IEEE/SICE International Symposium on System Integration.Tokyo:IEEE,2014:564-570.

      [36]OKAMOTO T,SHIRATORI T,KUDOH S,et al.Toward a dancing robotwith listening capability:keypose-based integration oflower-, middle-, and upper-body motions for varying music tempos[J].IEEE Transactions on Robotics,2014,30(3):771-778.

      [37]PETIT D,GERGONDET P,CHERUBINI A,et al.Navigation assistance for a bci-controlled humanoid robot[C]// Proceedings of the 4th Annual IEEE International Conference on Cyber Technology in Automation, Controland IntelligentSystems.Hong Kong:IEEE,2014:246-251.

      [38]AKACHI K,KANEKO K,KANEHIRA N,et al.Developmentofhumanoid robotHRP-3P[C]//Proceedings of the 2005 5th IEEE-RAS International Conference on Humanoid Robots.Tsukuba:IEEE,2005:50-55.

      [39]HASUNUMA H,HARADA K,HIRUKAWA H.The tele-operation of the humanoid robot-whole body operation for humanoid robots in contact with environment[C]//Proceedings of the 2006 IEEE-RAS International Conference on Humanoid Robots.Genoa:IEEE,2006:333-339.

      [40]KANEHIRO F,ISHIWATA Y,SAITO H,et al.Distributed control system of humanoid robots based on real-time ethernet[C]//Proceedings of the 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems.Beijing:IEEE,2006:2471-2477.

      [41]YOSHIDA E,POIRIER M,LAUMOND J P,et al.Whole-body motion planning for pivoting based manipulation by humanoids[C]//Proceedings of the 2008 IEEE International Conference on Robotics and Automation.Pasadena:IEEE,2008:3181-3186.

      [42]KANEKO K,MIURA K,KANEHIRO F,et al.Cybernetic human HRP-4C[C]//Proceedings of the 9th IEEE-RAS International Conference on Humanoid Robots.Paris:IEEE,2009:7-14.

      [43]MIURA K,NAKAOKA S,KAJITA S,et al.Trials of cybernetic human HRP-4C toward humanoid business[C]//Proceedings of the 2010 IEEE Workshop on Advanced Robotics and itsSocialImpacts.Seoul:IEEE,2010:165-169.

      [44]MIURA K,MORISAWA M,NAKAOKA S,et al.Robot motion remix based on motion capture data-towards humanlike locomotion of humanoid robots[C]//Proceedings of the 9th IEEE-RAS International Conference on Humanoid Robots.Paris:IEEE,2009:590-603.

      [45]KANEKO K,KANEHIRO F,MORISAWA M,et al.Hardware improvement of cybernetic human HRP-4C for entertainment use[C]//Proceedings of the 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems.San Francisco:IEEE,2011:4392-4399.

      [46]KANEKO K,KANEHIRO F,MORISAWA M,et al.Humanoid robot HRP-4 humanoid robotics platform with lightweight and slim body[C]//Proceedings of the 2011 IEEE/RSJ International Conference on Intelligent Robots and Systems.San Francisco:IEEE,2009:4400-4407.

      [47]MIURA K,YOSHIDA E,KOBAYASHI Y,et al.Humanoid robot as an evaluator of assistive devices[C]//Proceedings of the 2013 IEEE International Conference on Robotics and Automation.Karlsruhe:IEEE,2013:679-685.

      [48] OGURAY, OGURAY, AIKAWAH, etal.Development of a new humanoid robot WABIAN-2[C]//Proceedings of the 2006 IEEE International Conference on Roboticsand Automation.Orlando:IEEE,2006:76–81.

      [49]GAUTAM N,KONG W S,XU P,et al.Comparison of bipedal humanoid walking with human being using inertial measurement units and force-torque sensors[C]// Proceedings of the 2013 IEEE/SICE International Symposium on System Integration.Kobe:IEEE,2013:198-203.

      [50]HASHIMOTO K,HATTORI K,OTANI T,et al.Foot placement modification for a biped humanoid robot with narrow feet[J].The Scientific World Journal,2014,2014:1-9.Article ID 259570.

      [51]KISHI T,OTANI T,ENDO N,et al.Development of expressive robotic head for bipedal humanoid robot[C]//Proceedings of the 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems.Vilamoura:IEEE,2012:4584-4589.

      [52]KIM J H,OH J H.Realization of dynamic walking for the humanoid robot platform KHR-1[J].Advanced Robotics,2004,18(7):749-768.

      [53]KIM J Y,PARK I W,OH J H.Design and walking controlofthehumanoid robot,KHR-2 (KAIST Humanoid Robot-2)[C]// Proceedings ofthe International Conference on Control,Automation and Systems.Bangkok:ICCAS,2004:1539-1543.

      [54]KIM J Y,PARK I W,LEE J H,et al.System design and dynamic walkingofhumanoidrobotKHR-2[C]//Proceedings of the IEEE International Conference on Robotics& Automation.Seattle:IEEE,2005:1431-1436.

      [55]PARK I W,KIM J Y,OH J H.Online biped walking pattern generation for humanoid robot KHR-3(KAIST Humanoid Robot-3:HUBO)[C]//Proceedings of the IEEE InternationalConferenceon Humanoid robot.Daejeon:IEEE,2006:398-403.

      [56]AHN K H,OH Y W.Walking control of a humanoid robot via explicit and stable CoM manipulation with the angular momentum resolution[C]//Proceedings of the 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems.Beijing:IEEE,2006:2478-2483.

      [57]KIM J Y,LEE J H,OH J H.Experimental realization of dynamic walking for a human-riding biped robot,HUBO FX-1[J].Advanced Robotics,2007,21(3/4):461-484.

      [58]KIM J Y,PARK I W,OH J H.Walking control algorithm of biped humanoid robot on uneven and inclined floor[J].Journal of Intelligent and Robotic Systems,2007,48(4):457-484.

      [59]HACKEL M.Humanoid Robots:Human-like Machines[M].Vienna:I-Tech Education and Publishing,2007:43-64.

      [60]DANTAM N T,LOFARO D M,HEREID A,et al.The ach library: a new framework for real-time communication[J].IEEE Robotics & Automotion Magazine,2015,22(1):76-85.

      [61]OH J H,HANSON D,KIM W S,et al.Design of android type humanoid robot albert HUBO[C]//Proceedings of the 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems.Beijing:IEEE,2006:1428-1433.

      [62]HEO J W,OH J H.Biped walking pattern generation using an analytic method for a unit step with a stationary time interval between steps[J].IEEE Transactions on Industrial Electronics,2015,62(2):1091-1100.

      [63] YAMAGUCHIJ, NISHINOD, TAKANISHIA.Realization of dynamic biped walking varying joint stiffness using antagonistic driven joints[C]//Proceedings of the 1998 IEEE International Conference on Robotics and Automationp.Leuven:IEEE,1998:2022-2029.

      [64]MASAHIKO O,NOBUYUKI I,YUTO N,et al.Stiffness readout in musculo-skeletal humanoid robot by using rotary potentiometer[C]//Proceedings of the 2010 IEEE Sensors.Waikoloa:IEEE,2010:2329-2333.

      [65]ITO N,URATA J,NAKANISHI Y,et al.Development of very small high output motor driver for realizing forceful musculoskeletal humanoids[C]//Proceedings of the 2010 IEEE-RAS International Conference on Humanoid Robots.Nashville:IEEE,2010:385-390.

      [66]NAKANISHI Y,ITO N,SHIRAI T,et al.Design of powerful and flexible musculoskeletal arm by using nonlinear spring unit and electromagnetic clutch opening mechanism[C]//Proceedings of the 2011 IEEE-RAS International Conference on Humanoid Robots.Bled:IEEE,2011:377-382.

      [67]NAKANISHI Y,IZAWA T,KUROTOBI T,et al.Achievement of complex contact motion with environments by musculoskeletal humanoid using humanlike shock absorption strategy[C]//Proceedings of the 2012 IEEE/RSJ International Conference on IntelligentRobotsandSystems.Vilamoura:IEEE,2012:1815-1820.

      [68]NAKANISHI Y,IZAWA T,OSADA M, et al.Development of musculoskeletal humanoid kenzoh with mechanical compliance changeable tendons by nonlinear spring unit[C]//Proceedings of the 2011 IEEE International Conference on Robotics and Biomimetics.Phuket:IEEE,2011:2384-2389.

      [69]MASAHIKO O,NOBUYUKI I,YUTO N,et al.Stiffness readout in musculo-skeletal humanoid robot by using rotary potentiometer[C]//Proceedings of the 2010 IEEE Sensors.Waikoloa:IEEE,2010:2329-2333.

      [70]OSADA M,ITO N,NAKANISHI Y,et al.Realization of flexible motion by musculoskeletal humanoid“Kojiro”with add-on nonlinear spring units[C]//Proceedings of IEEE-RAS InternationalConference on Humanoid Robots.Nashville:IEEE,2010:174-179.

      [71]IZAWA T,NAKANISHI Y,ITO N,et al.Development of stiffness changeable multi joint cervical structure with soft sensor flesh for musculo-skeletal humanoids[C]//Proceedings of IEEE-RAS International Conference on Humanoid Robots.Nashville:IEEE,2010:665-670.

      [72]OSADA M,IZAWA T,URATA J,et al.Approach of“planar muscle” suitable for musculoskeletal humanoids,especially for their body trunk with spine having multiple vertebral[C]//Proceedings of IEEERAS International Conference on Humanoid Robots.Bled:IEEE,2011:358-363.

      [73]KOICHI N,ATSUSHI K,KOICHI N,et al.The humanoid saika that catches a thrown ball[C]//Proceedings of IEEE/RSJ International Conference on Robot and Human Interactive Communication.Kobe:IEEE ,1997:94-99.

      [74]ITO N,URATA J,NAKANISHI Y,et al.Development of Small Motor Driver Integrating Sensor Circuit and Interchangeable Communication Board[J].Journal of Robotics and Mechatronics,2011,23(3):443-450.

      [75]OSADA M,MIZOGUCHI H,ASANO Y,et al.Design of humanoid body trunk with“multiple spine structure”and“planar-muscle-driven”system for achievement of humanlike powerful and lithe motion[C]//Proceedings of IEEE InternationalConferenceon Roboticsand Biomimetics.Phuke:IEEE,2011:2217-2222.

      [76]MIGLIORE S A,TING L H,DEWEERTH S P.Passive joint stiffness in the hip and knee increases the energy efficiency of leg swing[J].Autonomous Robots,2010,29(1):119-135.

      [77]MIZUUCHI I,NAKANISHI Y,SODEYAMA Y,et al.An advanced musculoskeletal humanoid kojiro[C]//Proceedings of IEEE-RAS International Conference on Humanoid Robots.Daegu:IEEE,2007:294-299.

      [78]KOZUKI T,MIZOGUCHI H,ASANO Y,et al.Design methodology for the thorax and shoulder of human mimetic musculoskeletal humanoid Kenshiro-a thorax structure with rib like surface[C]//Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.Vilamoura:IEEE,2012:3687-3692.

      [79]ASANO Y,MIZOGUCHI H,KOZUKI T,et al.Achievement of twist squat by musculoskeletal humanoid with screw-home mechanism[C]//Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.Tokyo:IEEE,2013:4649-4654.

      [80]NAKANISHI Y,ASANO Y,KOZUKI T,et al.Motion Generation of Redundant MusculoskeletalHumanoid Based on Robot Model Error Compensation by Muscle Load Sharing and Interactive Control Device[C]//Proceedings of IEEE-RAS International Conference on Humanoid Robots.Atlanta:IEEE,2013:336-341.

      [81]NAKANISHI Y,ASANO Y,KOZUKI T,et al.Design concept of detail musculoskeletal humanoid“Kenshiro”-Toward a real human body musculoskeletal simulator[C]// Proceedings of IEEE-RAS International Conference on Humanoid Robots.Osaka:IEEE,2012:1-6.

      [82]MOTEGI Y,SHIRAI T,IZAWA T,et al.Motion control based on modification of the Jacobian map between the muscle space and work space with musculoskeletal humanoid[C]//Proceedings of IEEERAS International Conference on Humanoid Robots.Osaka:IEEE,2012:835-840.

      [83]ASANO Y,MIZOGUCHI H,KOZUKI T,et al.Lower thigh design ofdetailed musculoskeletalhumanoid“Kenshiro” [C]// Proceedings of IEEE/RSJ InternationalConference on IntelligentRobotsand Systems.Vilamoura:IEEE,2012:4367-4372.

      [84]OSADA M,MIZOGUCHI H,ASANO Y,et al.Design of humanoid body trunk with“multiple spine structure”and“planar-muscle-driven”system for achievement of humanlike powerful and lithe motion[C]//Proceedings of IEEE InternationalConferenceon Roboticsand Biomimetics.Phuket:IEEE,2011:2217-2222.

      [85]ASANO Y,MIZOGUCHI H,OSADA M,et al.Biomimetic design of musculoskeletal humanoid knee joint with patella and screw-home mechanism[C]//Proceedings ofIEEE International Conference on Robotics and Biomimetics.Phuket:IEEE,2011:1813-1818.

      [86]SHIRAI T,URATA J,NAKANISHI Y,et al.Whole body adapting behavior with muscle level stiffness control of tendon-driven multijoint robot[C]//Proceedings of IEEE International Conference on Robotics and Biomimetics.Phuket:IEEE,2011:2229-2234.

      [87]MIZOGUCHI H, ASANO Y, IZAWA T, et al.Biomimetic design and implementation ofmuscle arrangement around hip joint for musculoskeletal humanoid[C]//Proceedings of IEEE International Conference on Robotics and Biomimetics.Phuke:IEEE,2011:1819-1824.

      [88]MIZUUCHI I,NAKANISHI Y,NAMIKI Y,et al.Realization of standing of the musculoskeletal humanoid kotaro by reinforcing muscles[C]//Proceedings of IEEE-RAS InternationalConference on Humanoid Robots.Ganoa:IEEE,2006:176-181.

      [89]ESPIAU B,SARDAIN P.The anthropomorphic biped robot BIP2000[C]//Proceedings of IEEE International Conference on Robotics and Automation.San Francisco:IEEE,2000:3996-4001.

      [90]VERRELST B,HAM R V,VANDERBORGHT B,et al.The pneumatic biped“l(fā)ucy”actuated with pleated pneumatic artificial muscles[J].Autonomous Robots,2005,18(2):201-213.

      [91]CHOI T Y,JIN S,LEE J J.Implementation of a robot actuated by artificial pneumatic muscles[C]//Proceedings of International Joint Conference on SICEICASE.Busan:SICE,2006:4733-4737.

      [92]TSUJI T,MIYATA S,HASHIMOTO T,et al.Controller design for robot with pneumatic artificial muscles[C]//Proceedings of International Joint Conference on SICEICASE.Busan:SICE,2006:5419-5422.

      [93]DONG H,F(xiàn)IGUEROA N,SADDIK A E.Adaptive“l(fā)oad-distributed” muscle coordination method for kinematically redundant musculoskeletal humanoid systems[J].Robotics and Autonomous Systems,2015,64:59-69.

      [94]ROSENDO A,LIU X X,SHIMIZU M,et al.Stretch reflex improves rolling stability during hopping of a decerebrate biped system[J].Bioinspir Biomim,2015,10(1):016008:1-12.

      [95]NISHIKAWA S,TANAKA K,SHIDA K,et al.A musculoskeletalbipedal robot designed with angledependent moment arm for dynamic motion from multiple states[J].Advanced Robotics,2014,28(7):487-496.

      [96]HUDYJAYA J, MIR-NASIRI N.Development of minimalist bipedal walking robot with flexible ankle and split-mass balancing systems[J].International Journal of Automation and Computing,2013,10(5):425-437.

      [97]HYON S.A motorcontrolstrategywith virtual musculoskeletal systems for compliant anthropomorphic robots[J].IEEE/ASME Trans on Mechatronics,2009,14(6):677-688.

      [98]NELSON G,SAUNDERS A,NEVILLE N,et al.Petman:A humanoid robotfortesting chemical protective clothing[J].Journal of the Robotics Society of Japan,2012,30(4):372-377.

      [99]KAWATO M.From ‘understanding the brain by creating the brain’towards manipulative neuroscience[J].Philosophical Trans of the Royal Society B:Biological Sciences,2008,363(1500):2201-2214.

      [100]CHENG G,HYON S H,MORIMOTO J,et al.CB:A humanoid research platform for exploring neuroscience[J].Advanced Robotics,2007,21(10):1097-1114.

      [101]JOHNSON M,SHREWSBURY B,BERTRAND S,et al.Team IHMC’s lessons learned from the DARPA robotics challenge trials[J].Journal of Field Robotics,2015,32(2):192-208.

      [102]DEDONATO M,DIMITROV V,DU RUIXIANG,et al.Human-in-the-loop control of a humanoid robot for disaster response:a report from the DARPA robotics challenge trials[J].Journal of Field Robotics,2015,32(2):275-292.

      [103]FALLON M,KUINDERSMA S,KARUMANCHI S,et al.An architecture for online affordance-based perception and whole-body planning[J].Journal of Field Robotics,2015,32(2):229-254.

      [104]FENG S Y,WHITMAN E,XINJILEFU X,et al.Optimization-based full body control for the DARPA robotics challenge[J].Journal of Field Robotics,2015,32(2):293-312.

      [105]RASMUSSEN C,SOHN K,WANG Q S,et al.Perception and control strategies for driving utility vehicles with a humanoid robot[C]//Proceedings of the 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems.Chicago:IEEE,2014:973-980.

      [106]RASMUSSEN C,SOHN K,YUVRAJ K,et al.Early phases of humanoid vehicle ingress using depth cameras[C]//Proceedings of the 2014 Technologies for Practical Robot Applications.Woburn:IEEE,2014:1-6.

      [107]CHENG G,HYON S,MORIMOTO J,et al.CB:a humanoid research platform for exploring neuroscience[J].Adv Robot,2007,21(10):1097-1114.

      [108]MORIMOTO J,KAWATO M.Creating the brain and interacting with the brain:an integrated approach to understanding the brain[J].J R Soc Interface,2015,12(104):1-15.

      [109]RAMIREZ-AMARO K,BEETZ M,CHENG G.Understanding the intention of human activities through semantic perception:observation,understanding and execution on a humanoid robot[J].Advanced Robotics,2015,29(5):345-362.

      [110]OTT C,ROA M,HIRZINGER G.Posture and balance controlfor biped robots based on contactforce optimization[C]//Proceedings of the 2011 IEEE-RAS International Conference on Humanoid Robots.Bled:IEEE,2011:26-33.

      [111]OTT C,DIETRICH A,ROA M A.Torque-based multi-task and balancing control for humanoid robots[C]//Proceedings of the 11th International Conference on Ubiquitous Robots and Ambient Intelligence.Kuala Lumpur:KROS,2014:143-144.

      [112]BRUNNETT G,COQUILLART S,LIERE R V,et al.Virtual Realities[M]. Switzerland: Springer International Publishing,2015:229-259.

      [113]WU Weiguo,WANG Yu,LIANG Feng, et al.Development of modular combinational gorilla robot system [C]// Proceedings of the 2004 IEEE International Conference on Robotics and Biomimetics.Shengyang:Institute ofElectricaland Electronics Engineers Computer Society,2004:403-406.

      [114]WU W G,WANG Y,PAN Y Z,et al.Research on the walking modes shifting based on the variable ZMP and 3-DOF inverted pendulum model for a humanoid and gorilla robot[C]// Proceedings of IEEE/RSJ InternationalConference on IntelligentRobots and Systems.Beijing:IEEE,2006:1978-1983.

      [115]WU W G,WANG Y,LIANG F.Development,Stability Locomotion Analysis and Experiments of Wheeled-Locomotion Mechanism for a Humanoid and Gorilla Robot[C]//Proceedings of IEEE International Conferenceon Roboticsand Biomimetics.Kunming:IEEE,2006:1390-1395.

      [116]吳偉國.仿生仿人機器人及其智能運動控制研究室[EB/OL].(2014-06-10)[2015-06-23].http://homepage.hit.edu.cn/pages/wuweiguo/5

      [117]劉莉,汪勁松,陳懇.THB IP-I擬人機器人研究進展[J].機器人,2002,24(3):265-266.

      [118]張正濤.乒乓球機器人視覺測量與控制[D].北京:中國科學(xué)院自動化研究所,2010.

      [119]SUN Y C,XIONG R,ZHU Q G,et al.Balance motion generation for a humanoid robot playing table tennis[C]//Proceedings of 2011 11th IEEE-RAS International Conference on Humanoid Robots.Bled:IEEE,2011:19-25.

      [120]TAO X,QIANG H,LI J X,et al.Trajectory calculation and gaitchange on-line forhumanoid teleoperation[C]//Proceedings of IEEE International Conference on Mechatronics and Automation.Luoyang:IEEE,2006:1614-1619.

      [121]ZHANG L G,HUANG Q,LV S H,et al.Humanoid motion design considering rhythm based on human motion capture[C]//Proceedings of the 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems.Beijing:IEEE,2006:2491-2496.

      [122]YU Z G,MA G,HUANG Q.Modeling and design of a humanoid robotic face based on an active drive points model[J].Advanced Robotics,2014,28(6):379 -388.

      [123]HAO D,ZHAO M G,ZHANG N Y.High-speed and energy-efficient biped locomotion based on Virtual Slope Walking[J].Autonomous Robots,2011,30(2):199-216.

      [124]WANG J.Design and dynamic walking control of humanoid robotblackmann[C]//The 6th World Congress on Intelligent Control and Automation.Dalian,China:IEEE,2006:8848-8852.

      [125]WU W G,LANG Y D,ZHANG F H,et al.Design,simulation and walking experiments for a humanoid and gorilla robot with multiple locomotion modes[C]//Proceedings of 2005 IEEE/RSJ International Conference on Intelligent Robots and Systems.Edmonton:IEEE,2005:44-49.

      [126]ZHANG F H,WU W G,LANG Y D,et al.Omnidirectional quadruped walking gaits and simulation for a gorilla robot[C]//Proceedings of 2005 IEEE/RSJ InternationalConference on IntelligentRobots and Systems.Edmonton:IEEE,2005:2121-2126.

      [127]WU W G,MENG Q M.Development of the humanoid head portraitrobotsystem with flexible face and expression[C]//Proceedingsofthe2004 IEEE International Conference on Robotics and Biomimetics.Shenyang:IEEE,2004:718-723.

      [128]MENG Q M,WU W G,LU L.Research and development of the humanoid head portrait robot"H&Frobot-II" with expression and function of recognizing human expression[C]//Proceedings of the 2006 IEEE International Conferenceon Robotics and Biomimetics.Kunming:IEEE,2006:1372-1377.

      [129]吳偉國,宋策,孟慶梅.仿人頭像機器人"H&Frobot-III"語音及口形系統(tǒng)研制與實驗[J].機械設(shè)計,2008,25(1):15-19.

      [130]MENG Q M,WU W G.Artificial emotional model based on finite state machine[J].Journal of Central South University of Technology,2008,15(5):694-699.

      [131]吳偉國,侯月陽.機器人關(guān)節(jié)用撓性驅(qū)動單元研制與負載特性實驗[J].機械工程學(xué)報,2014,50(13):16-21.

      [132]WU W G,HOU Y Y.Controller design based on viscoelasticity dynamics modeland experimentfor flexible drive unit[J].JournalofCentralSouth University of Technology,2014,21(12):4468-4477.

      [133]侯月陽,吳偉國高力揚.有撓性驅(qū)動單元的雙足機器人研制與步行實驗[J].哈爾濱工業(yè)大學(xué)學(xué)報,2015,47(1):26-32.

      [134]WU W G,DU W Q.Design and research of a 6-DOF serial-parallel mechanism platform for stability training of legged-walking robot[J].Journal of Harbin Institute of Technology(New Series),2014,21(2):75-82.

      猜你喜歡
      仿人步行驅(qū)動
      基于模糊PI控制的驅(qū)動防滑仿真系統(tǒng)分析
      步行回家
      屈宏斌:未來五年,雙輪驅(qū)動,砥礪前行
      攀山擅離步行道自拍,不幸墜落身亡誰擔(dān)責(zé)?
      軌旁ATC系統(tǒng)門控柜接收/驅(qū)動板改造
      異構(gòu)遙操作仿人機械臂靈巧作業(yè)控制
      從步行到奔跑
      基于S3C6410的Wi-Fi驅(qū)動移植實現(xiàn)
      探究仿人機器人設(shè)計及步行控制方法
      具有面部表情的仿人頭部機器人系統(tǒng)的研制
      昌吉市| 南丹县| 蓬莱市| 鄱阳县| 邯郸市| 清河县| 临高县| 阜平县| 缙云县| 留坝县| 铁力市| 河北区| 上饶市| 嵊州市| 华坪县| 博爱县| 绥棱县| 石屏县| 正定县| 张家界市| 紫阳县| 商水县| 登封市| 平阳县| 庆元县| 利川市| 文山县| 手游| 凭祥市| 通河县| 景谷| 铜川市| 武穴市| 朔州市| 保康县| 聊城市| 湄潭县| 靖江市| 龙川县| 郸城县| 仲巴县|