英偉達近日正式推出全新開源模型系列Nemotron 3,涵蓋Nano、Super和Ultra三種規(guī)格,并同步發(fā)布配套技術(shù)工具與數(shù)據(jù)集,旨在為專用智能體AI系統(tǒng)開發(fā)提供高性能解決方案。該系列模型通過架構(gòu)創(chuàng)新與訓練方法突破,在推理效率、長序列處理及多智能體協(xié)同等核心場景實現(xiàn)顯著提升。

Nemotron 3系列采用差異化定位設(shè)計:Nano版本配備300億參數(shù)(活躍參數(shù)量30億),專為DGX Spark、H100和B200 GPU優(yōu)化,聚焦高效任務(wù)處理,現(xiàn)已投入市場;Super版本擁有1000億參數(shù),側(cè)重多智能體協(xié)同與高精度推理;Ultra版本參數(shù)規(guī)模達5000億級,搭載超大推理引擎,可應(yīng)對最復(fù)雜的應(yīng)用場景。后兩者計劃于2026年上半年發(fā)布,通過架構(gòu)升級進一步擴展基礎(chǔ)能力。
在基準測試中,Nano版本于Artificial Analysis Intelligence Index v3.0中以52分領(lǐng)先同規(guī)模模型,其性能優(yōu)勢源于創(chuàng)新的Mamba-Transformer MoE混合架構(gòu)。該架構(gòu)整合三大核心技術(shù):Mamba層以極低內(nèi)存開銷實現(xiàn)超長序列依賴追蹤,支持百萬級Token處理;Transformer層通過注意力機制精準建模任務(wù)邏輯,強化推理能力;MoE路由機制則通過動態(tài)調(diào)用專家模塊,在控制計算成本的同時提升吞吐效率。這種設(shè)計使模型天然適配多智能體并發(fā)場景,例如同時生成任務(wù)計劃、分析上下文或調(diào)用工具執(zhí)行工作流。

為提升模型實際應(yīng)用能力,英偉達在開源強化學習平臺NeMo Gym中對Nemotron 3進行后訓練。該平臺模擬真實世界環(huán)境,要求模型完成復(fù)雜動作序列,如調(diào)用API查詢數(shù)據(jù)、編寫可運行代碼或規(guī)劃多階段任務(wù)。這種訓練方式有效減少“推理漂移”現(xiàn)象,增強模型處理結(jié)構(gòu)化流程的穩(wěn)定性,降低將大模型轉(zhuǎn)化為領(lǐng)域?qū)<业募夹g(shù)門檻。
Nemotron 3的另一突破是支持100萬Token上下文窗口,可完整保存任務(wù)背景、歷史記錄與復(fù)雜計劃,避免傳統(tǒng)文本切割導(dǎo)致的信息碎片化。這一能力得益于混合架構(gòu)的低內(nèi)存開銷特性與MoE機制的按需激活策略,為企業(yè)級文檔分析、跨會話協(xié)作等場景提供邏輯連貫性保障。
針對Super和Ultra版本,英偉達引入三項進階技術(shù):潛在MoE通過共享潛在表征空間運算,使模型以相同成本調(diào)用4倍專家數(shù)量,提升對細微語義與復(fù)雜推理的處理精度;多Token預(yù)測技術(shù)允許模型一次生成多個詞,顯著加快長篇邏輯推理與結(jié)構(gòu)化輸出的響應(yīng)速度;NVFP4訓練格式則通過4位浮點優(yōu)化,在25萬億Token數(shù)據(jù)集訓練中實現(xiàn)成本與精度的平衡。
為支持開發(fā)者訓練定制模型,英偉達同步開放四大數(shù)據(jù)集:包含3萬億Token的預(yù)訓練集、1300萬樣本的后訓練集3.0、強化學習專用數(shù)據(jù)集,以及涵蓋近1.1萬條智能體工作流軌跡的安全數(shù)據(jù)集。結(jié)合NeMo Gym、RL、Data Designer等開源工具庫,開發(fā)者可完整復(fù)現(xiàn)模型開發(fā)流程。目前,埃森哲、德勤、甲骨文云基礎(chǔ)設(shè)施、西門子等企業(yè)已成為Nemotron 3的早期采用者。











