麻省理工學院計算機科學家團隊創立的初創公司Liquid AI,近日憑借其最新發布的第二代設備端基礎模型LFM2引發行業關注。這款基于創新"liquid"架構打造的模型,通過優化訓練與推理效率,在移動設備端實現了與云端大型語言模型的性能對標,為邊緣計算領域開辟了新的技術路徑。
LFM2系列首批推出350M、700M及1.2B參數的密集檢查點版本,采用門控短卷積混合架構設計。基準測試數據顯示,該模型在CPU吞吐量和生成質量兩個維度均超越Qwen3、Llama3.2及Gemma3等同類產品。其核心優勢在于突破傳統設備端模型的能力限制,使手機、筆記本電腦及車載系統等終端設備能夠直接運行實時AI應用,同時確保用戶數據全程留存本地。
技術層面,Liquid AI團隊在arXiv平臺公開的51頁技術報告中,系統披露了模型開發的全流程細節。從架構搜索策略到訓練數據配比,從蒸餾目標設定到課程學習方案,報告詳細記錄了如何通過工程化手段將模型參數壓縮至傳統模型1/5規模的同時,保持90%以上的性能表現。配套發布的LEAP邊緣部署棧,進一步簡化了模型在不同硬件環境下的適配流程。
針對企業級應用場景,研發團隊特別強化了模型的硬件約束適配能力。通過內置延遲預算、內存占用及散熱閾值等參數調節模塊,LFM2可自動優化運行策略以匹配設備性能。測試表明,在搭載驍龍8 Gen3芯片的智能手機上,該模型在保持每秒15 token生成速度的同時,功耗較前代產品降低42%。這種可預測性設計顯著提升了AI工具在工業檢測、醫療診斷等關鍵領域的部署可靠性。
值得關注的是,Liquid AI同步推出的模型定制化服務已吸引多家企業開展合作。通過調整微調數據集和訓練目標函數,客戶可快速獲得針對特定業務場景優化的專用模型。這種開放的技術生態策略,正在推動設備端AI從概念驗證階段向規模化商用加速邁進。















