螞蟻集團今日正式推出其自主研發的萬億參數通用語言模型Ling-1T,該模型作為螞蟻百靈大模型Ling 2.0系列的首款旗艦產品,標志著螞蟻集團在非思考型大模型領域的技術突破。據研發團隊介紹,Ling-1T在保持高效推理能力的同時,實現了模型規模與性能的平衡優化。
在多項權威基準測試中,Ling-1T展現出顯著優勢。以美國數學邀請賽(AIME 25)為例,該模型在平均消耗4000余個Token的情況下達到70.42%的準確率,超越同期測試的Gemini-2.5-Pro模型(5000+ Token,70.10%準確率)。這種在推理精度與計算效率間的平衡,得益于模型采用的演進式思維鏈(Evo-CoT)技術,該技術通過"中訓練+后訓練"的組合策略,顯著提升了模型的邏輯推理能力。
技術架構方面,Ling-1T延續了Ling 2.0的底層設計,在超過20萬億Token的高質量語料庫上完成預訓練,支持最長128K的上下文窗口。研發團隊特別指出,模型在代碼生成、軟件開發、競賽數學等專業領域表現突出,多項指標位居開源模型前列。在智能體工具調用任務BFCL V3測試中,模型僅通過少量指令微調就達到約70%的準確率,展現出強大的跨領域遷移能力。
實際應用場景中,Ling-1T已具備將自然語言轉化為可視化組件的能力,可自動生成兼容多平臺的前端代碼,并能根據指定風格創作營銷文案、文學續篇及多語種文本。這些功能被研發團隊視為構建通用智能體的關鍵基礎。例如在復雜指令理解測試中,模型能準確解析模糊邏輯問題,并輸出功能完備的解決方案。
盡管取得突破性進展,研發團隊坦言模型仍存在改進空間。當前版本采用基于GQA的注意力架構,在超長文本處理和復雜推理任務中雖表現穩定,但計算成本較高。為此,團隊計劃引入混合注意力機制以提升效率。模型在多輪交互、長期記憶管理等方面仍有局限,后續將通過強化工具理解能力來增強智能體主動性。
針對指令遵循問題,研發團隊發現部分場景下存在執行偏差或角色混淆現象。為此,他們將采用強化式身份對齊技術進行安全微調,以提升模型的一致性表現。這些改進措施將納入未來版本迭代計劃,持續優化模型在架構設計、推理能力和對齊機制等方面的綜合表現。
為方便開發者體驗,螞蟻集團同步開放了多個技術平臺:HuggingFace平臺(https://huggingface.co/inclusionAI/Ling-1T)和魔搭社區(https://modelscope.cn/models/inclusionAI/Ling-1T)提供模型下載服務;GitHub倉庫(https://github.com/inclusionAI/Ling-V2)包含完整技術文檔;國內用戶可通過靈犀對話平臺(https://ling.tbox.cn/chat)進行交互測試;海外開發者則可使用ZenMux平臺(https://zenmux.ai/inclusionai/ling-1t)體驗Chat功能和API服務。










