近日,科技領域迎來一項突破性進展——全球首個跨本體全域環視導航基座大模型NavFoM正式問世。該模型由銀河通用聯合北京大學、阿德萊德大學、浙江大學等科研團隊共同研發,旨在突破傳統導航技術的場景限制,為機器人與智能設備提供通用化導航解決方案。
NavFoM的核心優勢在于其跨場景適應能力。通過融合多模態感知與深度學習技術,該模型無需預先構建地圖或采集特定場景數據,即可在室內外復雜環境中實現Zero-Shot(零樣本)導航。無論是陌生商場、戶外街道還是動態變化的空間,系統均能通過實時環境理解完成路徑規劃。更值得關注的是,其支持自然語言交互功能,用戶可直接通過語音指令設定目標位置或調整導航策略,例如"跟隨穿紅衣服的人"或"避開前方障礙物"。
在硬件兼容性方面,NavFoM展現出強大的泛化能力。研發團隊通過模塊化設計,使模型能夠適配不同形態的移動載體,包括四足機器人、輪式人形機器人、雙足機器人、無人機乃至自動駕駛車輛。這種"一模型多本體"的特性,顯著降低了智能設備開發的技術門檻與成本。據技術文檔顯示,同一套算法框架可支持從厘米級微機器人到米級大型載具的導航需求。
該模型采用分層架構設計,基座層提供通用導航能力,開發者可基于特定需求進行二次訓練。例如在物流場景中,通過注入倉儲環境數據與任務指令集,可快速生成專用導航模型;在救援場景中,結合災害區域影像與語音指令,可定制應急導航系統。這種開放式的開發模式,為垂直領域應用提供了靈活的技術底座。











