DeepSeek近日宣布推出兩款全新開(kāi)源大模型——DeepSeek-V3.2與DeepSeek-V3.2-Speciale,標(biāo)志著開(kāi)源社區(qū)在復(fù)雜推理任務(wù)領(lǐng)域?qū)崿F(xiàn)重大突破。這兩款模型不僅在性能上比肩國(guó)際頂尖閉源系統(tǒng),更通過(guò)技術(shù)創(chuàng)新重新定義了開(kāi)源模型的能力邊界,為全球開(kāi)發(fā)者提供更高效的AI解決方案。
技術(shù)團(tuán)隊(duì)在發(fā)布的報(bào)告中指出,當(dāng)前開(kāi)源模型與閉源系統(tǒng)在復(fù)雜任務(wù)處理能力上的差距正持續(xù)擴(kuò)大。通過(guò)深度分析發(fā)現(xiàn),這種分化主要源于三大技術(shù)瓶頸:傳統(tǒng)注意力機(jī)制在長(zhǎng)序列處理中的效率低下、后訓(xùn)練階段計(jì)算資源投入不足,以及AI智能體(Agent)在泛化能力與指令遵循方面的顯著滯后。針對(duì)這些挑戰(zhàn),DeepSeek研發(fā)團(tuán)隊(duì)提出三項(xiàng)關(guān)鍵技術(shù)革新:引入DSA稀疏注意力機(jī)制、構(gòu)建可擴(kuò)展強(qiáng)化學(xué)習(xí)框架,以及開(kāi)發(fā)大規(guī)模Agent任務(wù)合成流程。
作為基礎(chǔ)版本,DeepSeek-V3.2在平衡推理能力與輸出效率方面表現(xiàn)突出。在公開(kāi)基準(zhǔn)測(cè)試中,該模型達(dá)到GPT-5水平,較前代版本輸出長(zhǎng)度降低40%,顯著減少計(jì)算開(kāi)銷。在代碼生成任務(wù)中,V3.2在SWE-bench Verified和Terminal Bench 2.0測(cè)試集上超越多數(shù)開(kāi)源模型,展現(xiàn)出處理真實(shí)編程場(chǎng)景的潛力。其獨(dú)特的思考模式支持與Claude Code生態(tài)兼容,開(kāi)發(fā)者可通過(guò)簡(jiǎn)單配置啟用多輪推理工具調(diào)用功能。
性能強(qiáng)化版DeepSeek-V3.2-Speciale則將推理能力推向新高度。該模型整合數(shù)學(xué)定理證明模塊,在IMO 2025、CMO 2025等國(guó)際頂級(jí)數(shù)學(xué)競(jìng)賽中斬獲金牌,同時(shí)在ICPC世界總決賽和IOI信息學(xué)競(jìng)賽中表現(xiàn)優(yōu)異。測(cè)試數(shù)據(jù)顯示,Speciale版本在主流推理基準(zhǔn)上與Gemini-3.0-Pro持平,但需消耗更多計(jì)算資源。目前該模型僅開(kāi)放研究用途,暫未針對(duì)日常對(duì)話場(chǎng)景優(yōu)化。
技術(shù)實(shí)現(xiàn)層面,DSA稀疏注意力機(jī)制通過(guò)動(dòng)態(tài)權(quán)重分配將計(jì)算復(fù)雜度降低60%,使模型在保持性能的同時(shí)支持更長(zhǎng)上下文處理。強(qiáng)化學(xué)習(xí)框架突破性地將后訓(xùn)練計(jì)算預(yù)算提升至預(yù)訓(xùn)練階段的12%,解鎖高級(jí)推理能力。大規(guī)模任務(wù)合成流程生成超過(guò)1800個(gè)專業(yè)場(chǎng)景和8.5萬(wàn)條復(fù)雜指令,通過(guò)強(qiáng)化學(xué)習(xí)顯著提升模型泛化能力。這些創(chuàng)新使V3.2在搜索Agent評(píng)估中超越多數(shù)開(kāi)源系統(tǒng),工具調(diào)用準(zhǔn)確率提升35%。
當(dāng)前用戶可通過(guò)官方網(wǎng)頁(yè)端、移動(dòng)應(yīng)用及API接口體驗(yàn)DeepSeek-V3.2,其中API服務(wù)提供限時(shí)Speciale版本調(diào)用。技術(shù)報(bào)告特別強(qiáng)調(diào),盡管V3.2在世界知識(shí)廣度上仍落后于閉源模型,但其單位計(jì)算成本效益顯著優(yōu)于同類產(chǎn)品。研究團(tuán)隊(duì)同時(shí)指出,探索串并行擴(kuò)展的最佳組合將成為后續(xù)優(yōu)化重點(diǎn),以進(jìn)一步提升模型訓(xùn)練效率。










