螞蟻百靈大模型Ling 2.0系列迎來重大突破,其首款萬億參數旗艦模型Ling-1T于近日正式亮相。作為非思考型大模型的巔峰之作,該模型在復雜推理、代碼生成等高難度任務中展現出卓越性能,多項指標刷新開源模型紀錄。
在數學競賽權威榜單AIME 25(美國數學邀請賽)測試中,Ling-1T以平均4000余Token消耗達成70.42%準確率,超越同期Gemini-2.5-Pro模型(5000+Token,70.10%準確率)。這一突破性成果驗證了模型在推理精度與計算效率間的完美平衡,其通過演進式思維鏈(Evo-CoT)技術,實現了"中訓練+后訓練"的架構創新,顯著提升復雜問題處理能力。
技術架構層面,Ling-1T延續Ling 2.0核心框架,依托20萬億級高質量推理語料庫完成預訓練,支持長達128K的上下文窗口。該模型首創FP8混合精度訓練體系,在保持萬億參數規模的同時,實現顯存占用降低、并行策略優化及15%以上的訓練加速。相關混合精度技術已部分開源,為行業提供重要參考。
在強化學習階段,研發團隊提出LPO(語言單元策略優化)算法,以完整句子為優化單元,既避免詞元級處理的碎片化缺陷,又克服序列級優化的籠統性。這種創新方法使獎勵信號與模型輸出在語義層面精準對齊,為超大規模模型訓練提供穩定支撐。
針對前端開發領域,團隊構建"語法-功能-美學"三維獎勵機制,在確保代碼正確性的基礎上,強化模型對視覺美學的理解能力。在ArtifactsBench前端能力基準測試中,Ling-1T以59.31分位居開源模型首位,僅略遜于Gemini-2.5-Pro-lowthink的60.28分,展現出強大的工程化落地潛力。
據研發團隊透露,除Ling-1T外,萬億參數級的深度思考大模型Ring-1T也在同步推進,其preview版本已于9月30日開源。目前開發者可通過Hugging Face平臺及螞蟻百寶箱等渠道體驗Ling-1T模型,感受其在邏輯推理、代碼生成等領域的突破性表現。










