當Optimus、Figure AI等國際知名人形機器人逐步掌握抓取、握持等精細操作時,具身智能的商業化曙光似乎近在眼前。然而,產業界正面臨一個關鍵瓶頸:靈巧手作為機器人與物理世界交互的核心部件,其技術標準碎片化導致數據難以互通,成為制約規模化落地的最大障礙。全球百余家靈巧手企業各自為戰,動作數據被困在品牌壁壘中,形成一個個"數據孤島"。這種局面下,中國AI企業灝存科技提出了一套創新解決方案,試圖用"運動數據通用化"技術打破行業僵局。
灝存科技的核心突破在于構建了從數據采集到跨品牌適配的全棧技術體系。其最新演示顯示,操作員佩戴動作捕捉設備后,人體動作可實時、無延遲地復刻到多臺不同品牌的靈巧手上,實現"一套系統控制多端"的泛化控制效果。這套系統不追求硬件統一,而是以人類手部運動規律為基礎,將動作數據解耦為不依賴具體硬件的通用參數,如21個關鍵關節的旋轉角度和動作意圖,再根據不同品牌靈巧手的硬件特性自動完成運動映射。這種"數據格式轉換器"式的創新,使開發者無需為每個品牌單獨開發接口,顯著降低了研發成本。
行業面臨的四大挑戰催生了這種技術路徑。首先,硬件參數碎片化導致數據"水土不服":不同品牌靈巧手的關節自由度、扭矩輸出等差異顯著,傳統動捕數據直接映射常出現動作僵硬或機械損壞。其次,控制協議封閉引發"重復造輪子":主流企業采用私有協議,適配單款靈巧手需1-3個月開發周期。第三,采集場景受限造成數據"源頭枯竭":傳統光學動捕系統依賴固定攝像頭,難以覆蓋工業車間、戶外救援等真實場景。最后,個體差異導致數據"千人千面":不同操作員的手型尺寸和運動習慣差異,使原始數據難以跨場景復用。
玨存科技的解決方案針對性地解決了這些問題。其技術體系包含兩大核心硬件:MOTCAP G6s數據手套可精準捕捉手指細微動作,支持全無線連接和自適應手型;MOTCAP M11全身動捕系統則擺脫了固定攝像頭依賴,支持多場景數據采集。這兩款設備共同構建了"從實驗室到真實場景"的數據采集網絡,確保數據覆蓋工業裝配、醫療輔助等高要求場景。系統端到端傳輸延遲進入毫秒級,支持全身動捕與數據手套聯動,實現機器人基座、機械臂和靈巧手的異構協同控制。
國際巨頭的技術路徑印證了數據驅動的必要性,但也暴露出新型"數據孤島"風險。特斯拉Optimus通過垂直整合構建內部通用語言,其端到端神經網絡可無縫處理視覺和關節數據,但試圖將硬件打造為行業標準;Figure AI則追求語義層面的通用性,通過大模型生成行為邏輯,使機器人能理解"給我吃的"等高級指令。這些探索雖然先進,卻可能形成技術閉環。相比之下,灝存科技選擇了一條更開放的路徑:其系統已適配靈心巧手LinkerHand、傲意ROHand等主流靈巧手,支持導入URDF模型文件或廠商協議棧,顯著降低了合作企業的適配成本。
靈巧手的操控精度直接決定人形機器人的應用邊界。從擰緊螺絲到輔助手術,這些精細任務都依賴"手"的終極執行能力。當前產業格局下,灝存科技的技術突破具有特殊意義——它不試圖改變硬件技術路線,而是將人類運動規律轉化為行業共享資源,使開發者能專注于上層算法優化。這種模式或許能避免行業陷入"巨頭割據"的困境,為通用機器人時代提供更包容的基礎設施。隨著標準化動作數據技術的成熟,驅動機器人的可能不再是孤立的控制代碼,而是經過AI優化的、源于人類運動規律的通用數據語言。











