國內首款基于多模態大模型的AI助盲眼鏡近日正式面市,這款由杭州瞳行科技研發的創新產品,通過融合視覺模型與硬件設備,為視障群體出行導航提供了全新解決方案。針對視障人士在陌生環境中常面臨的"最后十米"定位難題,技術團隊將通義千問Qwen-VL及OCR系列模型接入設備,實現了環境感知與信息處理的突破性整合。
硬件配置方面,該設備采用121度超廣角雙攝像頭系統,配合由智能眼鏡主體、移動終端、遙控指環及改良盲杖組成的四件套方案。在算法優化層面,研發團隊針對不同使用場景開發了差異化處理模式:移動避障場景下,系統以300毫秒的超低延遲實時分析環境,僅對車輛、路牌等關鍵障礙物進行語音提示;靜態閱讀場景中,設備則自動切換至細節解析模式,可完整播報菜單內容或店鋪標識信息。這種動態調節機制顯著提升了信息傳遞效率。
據行業數據顯示,我國視障人士數量已突破1700萬,但現有輔助工具仍以傳統盲杖為主,導致超過60%的視障者主動減少外出活動。杭州瞳行科技技術總監陳剛透露,大模型技術的成熟使算力成本降至原有水平的十分之一,通過"基礎模型復用+場景微調"的技術路徑,企業得以在控制成本的同時,快速實現語音交互、緊急聯絡等復雜功能開發。這種技術演進正在重塑輔助器具行業的研發范式。
該產品的上市標志著智能輔助設備進入新階段,其多模態交互系統不僅支持環境聲音描述、文字轉語音等基礎功能,還通過持續學習的算法模型,逐步提升對復雜場景的適應能力。研發團隊表示,后續將開放開發者接口,鼓勵第三方機構基于現有框架開發更多垂直應用,進一步拓展設備的使用場景邊界。











