美國(guó)亞馬遜FAR實(shí)驗(yàn)室聯(lián)合麻省理工學(xué)院、加州大學(xué)伯克利分校、斯坦福大學(xué)及卡內(nèi)基梅隆大學(xué)等頂尖科研機(jī)構(gòu),近日發(fā)布了一項(xiàng)突破性成果——名為OmniRetarget的交互保留數(shù)據(jù)生成引擎。該系統(tǒng)通過(guò)創(chuàng)新性的交互網(wǎng)格建模技術(shù),實(shí)現(xiàn)了機(jī)器人運(yùn)動(dòng)軌跡的精準(zhǔn)生成,為復(fù)雜場(chǎng)景下的人形機(jī)器人控制開(kāi)辟了新路徑。
研究團(tuán)隊(duì)公布的演示視頻顯示,宇樹(shù)科技研發(fā)的G1人形機(jī)器人完成了一系列高難度動(dòng)作:在完全依賴(lài)本體感覺(jué)反饋(無(wú)需視覺(jué)或激光雷達(dá))的條件下,機(jī)器人自主將椅子搬運(yùn)至桌邊,利用椅子作為支撐物完成攀爬動(dòng)作,隨后從桌面躍下并通過(guò)連續(xù)翻滾緩沖落地。整個(gè)過(guò)程持續(xù)近30秒,展現(xiàn)了長(zhǎng)時(shí)程動(dòng)態(tài)任務(wù)中的運(yùn)動(dòng)控制能力。
技術(shù)核心在于OmniRetarget引擎對(duì)空間關(guān)系的精確建模。系統(tǒng)通過(guò)分析智能體、操作對(duì)象及環(huán)境地形之間的三維接觸點(diǎn),構(gòu)建了動(dòng)態(tài)交互網(wǎng)格。在軌跡生成過(guò)程中,引擎采用拉普拉斯變形算法最小化人類(lèi)示范動(dòng)作與機(jī)器人執(zhí)行動(dòng)作的幾何差異,同時(shí)強(qiáng)制滿(mǎn)足關(guān)節(jié)運(yùn)動(dòng)學(xué)約束,確保生成的每個(gè)動(dòng)作都符合物理規(guī)律。
實(shí)驗(yàn)評(píng)估表明,該技術(shù)顯著優(yōu)于傳統(tǒng)基線(xiàn)方法。研究團(tuán)隊(duì)從多個(gè)運(yùn)動(dòng)數(shù)據(jù)庫(kù)中提取動(dòng)作數(shù)據(jù)進(jìn)行重新目標(biāo)追蹤,生成了超過(guò)9小時(shí)的高質(zhì)量軌跡數(shù)據(jù)。這些數(shù)據(jù)在接觸穩(wěn)定性保持和運(yùn)動(dòng)約束滿(mǎn)足兩個(gè)維度上均達(dá)到行業(yè)領(lǐng)先水平,為強(qiáng)化學(xué)習(xí)算法提供了更優(yōu)質(zhì)的訓(xùn)練樣本。
基于這些數(shù)據(jù)訓(xùn)練的本體感覺(jué)強(qiáng)化學(xué)習(xí)策略,在宇樹(shù)G1機(jī)器人上實(shí)現(xiàn)了復(fù)雜技能的學(xué)習(xí)。訓(xùn)練過(guò)程僅使用5個(gè)基礎(chǔ)獎(jiǎng)勵(lì)函數(shù)和簡(jiǎn)單的領(lǐng)域隨機(jī)化技術(shù),無(wú)需設(shè)計(jì)復(fù)雜的課程學(xué)習(xí)框架,機(jī)器人就掌握了包括連續(xù)翻滾、障礙攀爬、箱體跳躍在內(nèi)的多種運(yùn)動(dòng)技能。
演示案例庫(kù)進(jìn)一步展示了技術(shù)的泛化能力。在搬運(yùn)任務(wù)中,系統(tǒng)可生成8種不同風(fēng)格的搬箱動(dòng)作,涵蓋快速搬運(yùn)、穩(wěn)健搬運(yùn)、省力搬運(yùn)等多種模式。其他典型場(chǎng)景還包括匍匐前進(jìn)、跨越障礙、精準(zhǔn)跳躍等,驗(yàn)證了引擎在不同地形和操作需求下的適應(yīng)性。
研究團(tuán)隊(duì)指出,這種數(shù)據(jù)驅(qū)動(dòng)的方法特別適用于非結(jié)構(gòu)化環(huán)境中的機(jī)器人部署。通過(guò)將人類(lèi)運(yùn)動(dòng)智慧轉(zhuǎn)化為機(jī)器人可執(zhí)行的軌跡,系統(tǒng)大幅降低了復(fù)雜場(chǎng)景下的編程難度,為家庭服務(wù)、災(zāi)害救援等領(lǐng)域的實(shí)際應(yīng)用奠定了技術(shù)基礎(chǔ)。











