螞蟻百靈大模型Ling 2.0系列迎來重大突破,其首款萬億參數(shù)級旗艦?zāi)P蚅ing-1T于近日正式亮相。作為螞蟻集團(tuán)迄今研發(fā)規(guī)模最大、性能最強(qiáng)的非思考型通用語言模型,Ling-1T在復(fù)雜推理任務(wù)中展現(xiàn)出顯著優(yōu)勢,多項(xiàng)基準(zhǔn)測試結(jié)果刷新行業(yè)紀(jì)錄。
在權(quán)威數(shù)學(xué)競賽榜單AIME 25(美國數(shù)學(xué)邀請賽)的測試中,Ling-1T以平均4000余個(gè)Token的消耗量達(dá)成70.42%的準(zhǔn)確率,超越同期測試的Gemini-2.5-Pro模型——后者需消耗5000余個(gè)Token,準(zhǔn)確率為70.10%。這一結(jié)果印證了Ling-1T在有限計(jì)算資源下實(shí)現(xiàn)高效推理的能力。
技術(shù)架構(gòu)層面,Ling-1T延續(xù)了Ling 2.0的模塊化設(shè)計(jì),通過20萬億Tokens的高質(zhì)量推理語料庫完成預(yù)訓(xùn)練,支持最長128K的上下文窗口。研發(fā)團(tuán)隊(duì)采用"中訓(xùn)練+后訓(xùn)練"的演進(jìn)式思維鏈(Evo-CoT)技術(shù),使模型在邏輯鏈構(gòu)建和精準(zhǔn)推理方面獲得質(zhì)的提升。這種訓(xùn)練范式通過動(dòng)態(tài)調(diào)整思維鏈的深度與廣度,有效解決了傳統(tǒng)模型在復(fù)雜問題處理中的連貫性缺陷。
在工程實(shí)現(xiàn)上,Ling-1T創(chuàng)造了行業(yè)新標(biāo)桿。作為已知規(guī)模最大的FP8混合精度訓(xùn)練模型,其通過量化感知訓(xùn)練技術(shù)將顯存占用降低30%,同時(shí)支持更靈活的并行計(jì)算策略,整體訓(xùn)練效率提升超15%。相關(guān)混合精度訓(xùn)練技術(shù)已部分開源,為行業(yè)提供了可復(fù)用的優(yōu)化方案。
針對萬億參數(shù)模型的訓(xùn)練穩(wěn)定性難題,百靈團(tuán)隊(duì)創(chuàng)新提出LPO(Linguistics-Unit Policy Optimization)策略優(yōu)化算法。該算法以完整語義單元而非傳統(tǒng)詞元或序列作為優(yōu)化顆粒度,既避免了細(xì)粒度訓(xùn)練導(dǎo)致的語義斷裂,又克服了粗粒度訓(xùn)練的反饋模糊問題。實(shí)驗(yàn)數(shù)據(jù)顯示,LPO算法使模型在獎(jiǎng)勵(lì)信號與行為輸出的語義對齊精度上提升了27%。
值得關(guān)注的是,螞蟻百靈團(tuán)隊(duì)同步推進(jìn)著另一條技術(shù)路線。其萬億參數(shù)級深度思考大模型Ring-1T的preview版本已于9月30日開源,該模型專注于復(fù)雜邏輯的遞歸推導(dǎo)能力。兩大模型形成互補(bǔ):Ling-1T側(cè)重高效推理,Ring-1T強(qiáng)化深度思考,共同構(gòu)建起螞蟻集團(tuán)在通用人工智能領(lǐng)域的技術(shù)矩陣。











