科技領域迎來一項突破性合作,芯片巨頭博通與人工智能企業CAMB.AI宣布聯合研發新型AI芯片組,該技術將實現設備端實時音頻翻譯功能,無需依賴云端服務器即可完成復雜語言處理任務。這項創新方案主要針對智能電視、智能音箱等消費電子產品,通過集成在SoC芯片中的專用模塊,將翻譯、配音及口述影像服務直接部署在本地設備。
核心技術創新在于突破傳統云端處理模式,所有音頻數據在設備內部完成解析與轉換。以口述影像功能為例,系統能實時識別視頻畫面中的動作細節、場景切換及文字信息,并通過語音合成技術向視力障礙用戶同步解說。這項輔助功能已通過電影《美食總動員》的測試片段驗證,演示中AI系統可同時用多種語言生成場景描述,并在屏幕顯示對應字幕。
技術團隊強調兩大顯著優勢:隱私安全與處理效率。由于數據全程在本地設備流轉,有效規避了云端傳輸可能引發的隱私泄露風險;支持超過150種語言的處理能力,配合本地化運算架構,使翻譯延遲控制在毫秒級,同時減少70%以上的無線帶寬占用。該語音模型已獲得NASCAR賽事轉播及康卡斯特流媒體平臺的實際應用驗證。
目前研發仍處于工程驗證階段,距離商業化落地尚需攻克散熱控制、多任務協同等工程難題。但業內專家指出,這項技術若成功量產,將重新定義智能設備的交互方式——用戶觀看外語節目時可實時切換配音語言,智能音箱能同步轉譯多語種對話,物聯網設備間的跨語言通信也將成為現實。特別是對于全球3.4億視障群體,這項技術將顯著提升他們獲取視聽內容的便利性。
參與研發的工程師透露,芯片組采用模塊化設計,可靈活適配不同硬件平臺。測試設備顯示,在4K視頻播放場景下,新增的AI模塊僅占用5%的運算資源,功耗增加不足2瓦。這項特性使其特別適合嵌入式設備升級,現有智能電視通過固件更新即可獲得部分功能支持。











