螞蟻百靈大模型Ling 2.0系列迎來重大突破,其首款萬億參數(shù)旗艦?zāi)P蚅ing-1T于近日正式亮相。作為非思考型大模型的巔峰之作,該模型在復(fù)雜推理、代碼生成等高難度任務(wù)中展現(xiàn)出卓越性能,多項指標刷新開源模型紀錄。
在數(shù)學(xué)競賽權(quán)威榜單AIME 25(美國數(shù)學(xué)邀請賽)測試中,Ling-1T以平均4000余Token消耗達成70.42%準確率,超越同期Gemini-2.5-Pro模型(5000+Token,70.10%準確率)。這一突破性成果驗證了模型在推理精度與計算效率間的完美平衡,其通過演進式思維鏈(Evo-CoT)技術(shù),實現(xiàn)了"中訓(xùn)練+后訓(xùn)練"的架構(gòu)創(chuàng)新,顯著提升復(fù)雜問題處理能力。
技術(shù)架構(gòu)層面,Ling-1T延續(xù)Ling 2.0核心框架,依托20萬億級高質(zhì)量推理語料庫完成預(yù)訓(xùn)練,支持長達128K的上下文窗口。該模型首創(chuàng)FP8混合精度訓(xùn)練體系,在保持萬億參數(shù)規(guī)模的同時,實現(xiàn)顯存占用降低、并行策略優(yōu)化及15%以上的訓(xùn)練加速。相關(guān)混合精度技術(shù)已部分開源,為行業(yè)提供重要參考。
在強化學(xué)習(xí)階段,研發(fā)團隊提出LPO(語言單元策略優(yōu)化)算法,以完整句子為優(yōu)化單元,既避免詞元級處理的碎片化缺陷,又克服序列級優(yōu)化的籠統(tǒng)性。這種創(chuàng)新方法使獎勵信號與模型輸出在語義層面精準對齊,為超大規(guī)模模型訓(xùn)練提供穩(wěn)定支撐。
針對前端開發(fā)領(lǐng)域,團隊構(gòu)建"語法-功能-美學(xué)"三維獎勵機制,在確保代碼正確性的基礎(chǔ)上,強化模型對視覺美學(xué)的理解能力。在ArtifactsBench前端能力基準測試中,Ling-1T以59.31分位居開源模型首位,僅略遜于Gemini-2.5-Pro-lowthink的60.28分,展現(xiàn)出強大的工程化落地潛力。
據(jù)研發(fā)團隊透露,除Ling-1T外,萬億參數(shù)級的深度思考大模型Ring-1T也在同步推進,其preview版本已于9月30日開源。目前開發(fā)者可通過Hugging Face平臺及螞蟻百寶箱等渠道體驗Ling-1T模型,感受其在邏輯推理、代碼生成等領(lǐng)域的突破性表現(xiàn)。










