美國(guó)亞馬遜FAR聯(lián)合麻省理工學(xué)院、加州大學(xué)伯克利分校、斯坦福大學(xué)及卡內(nèi)基梅隆大學(xué)等頂尖科研團(tuán)隊(duì),近日共同發(fā)布了一項(xiàng)名為OmniRetarget的突破性技術(shù)。該系統(tǒng)基于交互網(wǎng)格架構(gòu),通過(guò)保留智能體、環(huán)境地形及操作對(duì)象間的空間交互關(guān)系,可生成符合運(yùn)動(dòng)學(xué)規(guī)律的機(jī)器人動(dòng)作軌跡。
在最新公布的演示視頻中,宇樹科技G1人形機(jī)器人展現(xiàn)了驚人的運(yùn)動(dòng)能力。該機(jī)器人僅依靠本體感覺(jué)反饋系統(tǒng)(無(wú)需視覺(jué)或激光雷達(dá)輔助),便完成了攜帶椅子攀爬桌面、跳躍落地后執(zhí)行翻滾緩沖等復(fù)雜連續(xù)動(dòng)作。研究團(tuán)隊(duì)特別強(qiáng)調(diào),這些動(dòng)作序列均通過(guò)OmniRetarget引擎自動(dòng)生成,無(wú)需人工預(yù)設(shè)軌跡。
技術(shù)核心在于其獨(dú)特的交互保留機(jī)制。系統(tǒng)通過(guò)構(gòu)建三維網(wǎng)格模型,精確捕捉機(jī)器人肢體、接觸面及操作物體的空間位置關(guān)系。在軌跡生成過(guò)程中,算法會(huì)同步優(yōu)化拉普拉斯變形參數(shù)與運(yùn)動(dòng)學(xué)約束條件,確保生成的每個(gè)動(dòng)作既符合物理規(guī)律,又能保持與環(huán)境的自然交互。經(jīng)多數(shù)據(jù)集驗(yàn)證,該方法生成的軌跡在接觸穩(wěn)定性與運(yùn)動(dòng)可行性方面顯著優(yōu)于傳統(tǒng)基線模型。
實(shí)驗(yàn)數(shù)據(jù)顯示,基于該技術(shù)訓(xùn)練的本體感覺(jué)強(qiáng)化學(xué)習(xí)策略,僅使用5個(gè)基礎(chǔ)獎(jiǎng)勵(lì)函數(shù)和簡(jiǎn)單領(lǐng)域隨機(jī)化方法,便使G1機(jī)器人成功掌握了長(zhǎng)達(dá)30秒的連續(xù)跑酷技能。研究團(tuán)隊(duì)特別指出,這種訓(xùn)練方式無(wú)需設(shè)計(jì)復(fù)雜課程,所有任務(wù)均通過(guò)共享參數(shù)實(shí)現(xiàn)跨場(chǎng)景遷移。
目前公開(kāi)的演示案例涵蓋多種復(fù)雜場(chǎng)景:機(jī)器人可自主選擇翻滾、匍匐等不同方式穿越障礙,也能以8種差異化動(dòng)作模式完成箱子搬運(yùn)任務(wù)。研究團(tuán)隊(duì)已同步發(fā)布論文全文與訓(xùn)練數(shù)據(jù)集,代碼庫(kù)將于近期開(kāi)源,相關(guān)技術(shù)文檔可通過(guò)指定研究頁(yè)面獲取。











