近日,專注于多模態具身智能數據采集與模型技術研發的樞途科技(深圳)有限公司宣布完成數千萬元天使輪融資,本輪融資由東方富海與兼固資本聯合領投。資金將主要用于視頻具身數據采集管線的迭代升級,以及加速向多家頭部具身智能企業交付商業化數據服務。
成立于2024年的樞途科技,致力于通過融合視覺、語言與環境交互系統,構建能夠適應開放場景的通用具身數據平臺。其核心技術聚焦于解決具身智能領域的關鍵瓶頸——訓練數據的規模、質量與多樣性不足問題,推動該技術在物流、制造與服務等領域的規模化應用。
當前,具身智能發展已進入應用階段,但模型性能提升面臨核心挑戰。端到端模仿學習雖在結構化場景中表現良好,卻依賴大量高質量演示數據,且存在因果混淆與泛化能力脆弱等問題,難以適應動態環境。而基于遙操控的數據采集方式則受限于硬件成本高、操作效率低、場景覆蓋窄等現實約束,難以實現規模化生產。
與部分企業僅將視頻數據處理后服務于自有模型不同,樞途科技自主研發的SynaData數據管線解決方案,實現了從互聯網視頻中提取多模態具身數據,并服務于第三方具身模型。該方案通過視頻數據升維、跨域retargeting等技術突破,將海量RGB視頻轉化為多模態、高精度的訓練數據,綜合數據采集成本降至行業平均水平的千分之五。
以“拿取外賣袋”任務為例,SynaData系統能夠從普通人手取袋的日常視頻中,批量提取手部運動軌跡、物體移動路徑、物體三維表面網格等多模態數據,并直接用于機器人抓取模型的訓練。測試結果顯示,基于該數據集訓練的模型,對外賣袋的抓取成功率提升至88%,展現出極強的場景泛化能力。
目前,SynaData系統已完成全管線技術驗證,累計處理數千小時覆蓋室內外多種環境的視頻內容,產出涵蓋抓取、放置、精細組裝等逾百種任務類型的標準化數據集。部分數據已在清華RDT、PI π0、智元UniVLA、EquiBot等主流開源視覺語言動作模型中得到應用。
針對視頻數據在精度、泛化性與標準化方面仍存在的瓶頸,樞途科技正圍繞三大方向推進系統升級。在精度維度上,通過動態遮擋建模與多視角重建技術,將軌跡與姿態重建精度從毫米級提升至2毫米以內,為精細操作任務提供數據支撐。泛化能力方面,計劃將適配本體類型擴展至100種以上,覆蓋人形機器人、靈巧手及各類移動底盤等全譜系硬件。
在生態構建層面,樞途科技預計于2025年第四季度推出業界首個基于真實場景視頻的開源具身數據集。該數據集旨在打通數據生產-仿真訓練-系統部署的全鏈路,與頭部仿真環境伙伴共同構建下一代具身智能數據基礎設施。
樞途科技CTO林嘯表示,數據決定上限,模型逼近上限。SynaData將解鎖互聯網上海量視頻的“數據富礦”,幫助具身機器人從“手把手教學”走向“觀看教學”,高效獲取物理世界的交互數據,突破能力上限,為機器人進入千行百業提供核心數據支撐。











