在國際智能機器人與系統大會(IROS 2025)期間,RoboSense速騰聚創于杭州舉辦了一場以“機器人之眼”為主題的沙龍活動,正式推出其Active Camera系列新品——“機器人操作之眼”AC2。這款產品被定位為業內首款集成dToF、RGB雙目與IMU的一體化超級傳感器系統,旨在通過多模態感知技術突破機器人視覺瓶頸。
活動現場,RoboSense創新事業部總裁王鵬指出,3D視覺深度信息獲取是機器人感知的核心挑戰。傳統方案中,雙目視覺、單目結構光及ToF技術各有局限,而面陣dToF技術憑借測距能力強、抗干擾性高、算力需求低的優勢,成為深度測量的最優解。AC2正是基于這一技術突破,通過硬件級數據融合實現8米內±5mm的毫米級感知精度,并集成1600x1400分辨率RGB相機,補充超清色彩信息,提升融合感知的精細度。
激光雷達事業部副總裁楊先聲博士詳細介紹了AC2的性能優勢。其120°×90°的超大視野(FoV)可覆蓋機器人操作所需的全場景范圍,減少視角調整帶來的誤差;100mm×30mm×45mm的小型化設計使其能靈活部署于人形機器人面部、機械臂末端等狹小空間。AC2采用車規級設計,滿足IP65防塵防水標準,工作溫度范圍覆蓋-10°C至55°C,確保在復雜環境中的穩定性。
針對環境光干擾問題,AC2基于dToF方案展現出強適應性。即使在100klux強光或明暗交替場景下,其深度感知精度仍保持穩定。連接方面,AC2采用GMSL2接口與FAKRA連接器,提供比USB更穩定的傳輸性能,防止連接中斷的同時提升帶寬,保障感知鏈路的順暢運行。
在圓桌論壇環節,清華大學孫富春教授、哈爾濱工業大學朱延河教授、上海理工大學李清都教授及武漢大學李淼教授圍繞“機器人的認知突圍與產業前景”展開討論。孫富春認為,AC2通過一體化多傳感器集成,有效解決了動態環境適應、數據采集完整性等挑戰,尤其適用于人形機器人與工業物流領域。朱延河則強調,Active Camera已超越傳統人類視覺框架,其多傳感器融合能力代表人工智能時代的創新方向。
李清都結合其團隊研發的“行者二號”“行者三號”人形機器人指出,AC2的120°融合視野高度適配大場景需求,且具備室內外強適應能力。李淼引用行業名言“一代硬件,一代算法,一代機器人”表示,AC2的推出將催生新的算法生態,推動具身智能多場景應用的突破。他期待中國機器人硬件企業與RoboSense合作,共同解決產業化難點。
為支持開發者需求,RoboSense同步升級AI-Ready生態,新增姿態估計、人體骨架識別等開源算法,并提供AC Studio工具套件、Wiki文檔及多場景數據集。這一生態體系旨在減少重復開發,加速機器人商業化進程。目前,AC2已展現出在工業、物流、家庭服務等成熟領域的效率提升潛力,同時在具身智能、數字孿生等前沿領域推動功能驗證與應用落地。
憑借芯片級技術優勢與激光雷達產業化經驗,RoboSense通過AC2完善了Active Camera產品線,形成覆蓋機器人移動與操作兩大核心任務的感知方案。公司表示,將持續為機器人產業提供技術基座,助力全球用戶探索智能機器人的更多可能性。











