亞馬遜機器人團隊FAR(Frontier AI for Robotics)近期公布了其首個人形足式機器人研究成果——OmniRetarget,這款機器人憑借“盲眼”操作引發科技圈熱議。與傳統依賴視覺或雷達的機器人不同,OmniRetarget在無任何外部感知設備的情況下,完成了搬運9斤重椅子、攀爬1米高桌子、翻跟頭跳躍等復雜動作,甚至能流暢完成爬坡、搬箱子等任務。網友將其與特斯拉擎天柱對比,稱其功能“強10倍”。
OmniRetarget的核心突破在于實現了強化學習策略在復雜環境中的“移-操一體”(loco-manipulation)技能學習,并首次達成從仿真到人形機器人的零樣本遷移。這一成果依賴于其開源數據生成引擎,該引擎通過交互網格(interaction mesh)技術,將人類動作轉化為機器人可執行的高質量運動學參考。與傳統方法忽略人與環境交互不同,交互網格能精準建模機器人、物體和地形之間的空間與接觸關系,從而生成運動學可行的動作變體。
研究團隊介紹,交互網格是一個由機器人關節、物體采樣點及環境關鍵點構成的體積結構。通過德勞內四面體化(Delaunay tetrahedralization)構建網格后,算法會最小化源動作(人類示范)與目標動作(機器人動作)之間的拉普拉斯形變能,確保動作重定向時保留局部空間結構和接觸關系。例如,在搬運椅子時,網格會精確保持機器人手部與椅子的接觸點,同時調整身體姿態以適應不同高度或形狀的物體。
為提升數據多樣性,OmniRetarget通過參數化改變物體配置、地形特征等方式,將單個人類演示轉化為豐富數據集。例如,在機器人-物體交互中,系統會增強物體的空間位置和形狀,生成多樣化交互場景;在機器人-地形交互中,則通過調整平臺高度和深度,模擬不同地形條件。研究特別加入約束,防止機器人下半身隨物體簡單剛體變換,從而生成真正多樣化的動作。
在動力學實現層面,研究采用強化學習訓練低層策略,將運動學參考軌跡轉化為物理可執行動作。訓練時,機器人僅依賴本體感知(如關節速度、骨盆線速度)和參考軌跡作為先驗知識,無需直接感知場景信息。獎勵函數包含身體跟蹤、物體跟蹤、動作速率等五類指標,確保動作質量的同時提升泛化能力。實驗顯示,搭載OmniRetarget的宇樹G1機器人成功完成了持續30秒的多階段跑酷任務,動作精度與通用性均達行業領先水平。
與PHC、GMR等開源基線對比,OmniRetarget在運動學質量指標(如穿透、腳部打滑、接觸保留)上表現全面優于對手,下游強化學習策略成功率領先10%以上。即使在完整增強數據集上訓練,其成功率仍達79.1%,與僅使用標稱動作的82.2%接近,證明運動學增強可顯著擴大動作覆蓋范圍而不降低性能。
值得關注的是,OmniRetarget背后的Amazon FAR團隊成立僅七個多月,由華人學者段巖(Rocky Duan)領銜。該團隊前身為知名機器人公司Covariant,其創始人包括伯克利機器人學習實驗室主任Pieter Abbeel、Peter Chen等。去年8月,亞馬遜與Covariant達成技術許可協議,吸納其四分之一員工,并邀請Pieter Abbeel、Peter Chen和段巖加入。目前,段巖擔任FAR研究負責人,OmniRetarget的驚艷亮相標志著亞馬遜在人形機器人領域的首次突破。
參考鏈接:
[1]https://x.com/Thom_Wolf/status/1974774416815857779
[2]https://www.aboutamazon.com/news/company-news/amazon-covariant-ai-robots
[3]https://analyticsindiamag.com/ai-news-updates/amazon-forms-frontier-ai-robotics-team-to-revolutionise-automation/
[4]https://OmniRetarget.github.io/











