螞蟻集團旗下螞蟻百靈團隊近日宣布推出萬億參數(shù)通用語言模型Ling-1T,該模型作為Ling 2.0系列的首款旗艦產(chǎn)品,標志著團隊在非思考型大模型領域實現(xiàn)重大突破。據(jù)技術文檔披露,Ling-1T在保持128K超長上下文窗口支持的同時,通過創(chuàng)新訓練架構實現(xiàn)了推理效率與精度的雙重提升。
在基準測試中,Ling-1T展現(xiàn)出卓越性能。以美國數(shù)學邀請賽AIME25測試為例,該模型僅消耗平均4000+Token即達到70.42%的準確率,超越同期Gemini-2.5-Pro模型5000+Token消耗下70.10%的準確率。在代碼生成、軟件開發(fā)、競賽數(shù)學等12項高難度測試中,Ling-1T均取得開源模型領域領先成績,其中7項指標刷新行業(yè)紀錄。
技術架構方面,Ling-1T延續(xù)Ling 2.0核心框架,在20萬億token的高質量推理語料庫上完成預訓練。團隊獨創(chuàng)的"中訓練+后訓練"演進式思維鏈(Evo-CoT)機制,通過動態(tài)調整推理路徑顯著提升模型思考效率。特別值得關注的是,該模型采用全程FP8混合精度訓練技術,在保持萬億參數(shù)規(guī)模的同時,實現(xiàn)顯存占用降低30%、并行訓練效率提升15%的技術突破,相關部分技術已開源共享。
強化學習階段,研究團隊提出LPO(語言單元策略優(yōu)化)算法,以完整語義單元替代傳統(tǒng)詞元級優(yōu)化,有效解決訓練過程中的語義破碎問題。配合"語法-功能-美學"三重獎勵機制,模型在保證代碼正確性的基礎上,顯著提升對視覺美學的理解能力。在前端開發(fā)基準測試ArtifactsBench中,Ling-1T以59.31分接近行業(yè)頂尖水平,與榜首模型僅相差0.97分。
據(jù)研發(fā)團隊介紹,Ling-1T的訓練過程融合多項技術創(chuàng)新:通過自適應并行策略優(yōu)化計算資源分配,采用漸進式數(shù)據(jù)增強提升模型泛化能力,并構建多維度評估體系確保模型穩(wěn)定性。目前開發(fā)者可通過HuggingFace平臺及螞蟻百寶箱即時體驗模型功能,相關API接口已開放企業(yè)級應用測試。
同步推進的深度思考型大模型Ring-1T研發(fā)取得階段性進展,其preview版本已于9月30日實現(xiàn)開源。該系列模型的持續(xù)突破,標志著螞蟻集團在通用人工智能領域形成"高效推理+深度思考"的雙軌技術布局,為金融科技、智能客服等業(yè)務場景提供更強大的技術支撐。
















