在AI大模型加速向應用端滲透的背景下,全球算力巨頭英偉達近日推出全新Nemotron 3系列開放模型,通過模塊化設計為開發者提供從輕量級到超大規模的AI開發工具鏈。該系列包含Nano、Super和Ultra三個版本,分別針對不同場景的效率與性能需求進行優化,標志著AI基礎設施供應商正從硬件競爭轉向生態構建。
作為系列中最先落地的型號,Nemotron 3 Nano已開放線上服務。該模型采用異構混合專家(MoE)架構,總參數達300億但運行時僅激活30億參數,在保持專業性能的同時將能耗降低60%。實測數據顯示,其推理速度較前代提升4倍,支持100萬token的上下文窗口,可勝任代碼生成、文檔摘要等日常任務。目前開發者可通過Hugging Face平臺直接調用,Baseten、Deepinfra等十余家云服務商已部署推理接口。
面向復雜任務場景的Super與Ultra版本計劃于2026年上半年發布。其中Super模型聚焦多智能體協作,通過動態參數激活機制實現1000億參數規模下的高效訓練;定位科研級推理的Ultra版本則將參數規模擴展至5000億級,專門服務于需要深度策略規劃的AI工作流。這兩個型號均采用NVIDIA Blackwell架構的4位NVFP4訓練格式,在保證模型精度的前提下將顯存需求壓縮至傳統方法的1/8,使得現有硬件設施即可支撐超大規模模型訓練。
為降低開發門檻,英偉達同步開放了3萬億token規模的訓練數據集,涵蓋預訓練、后訓練及強化學習全流程。其中Nemotron Agentic Safety Dataset提供真實場景的遙測數據,幫助開發者評估智能體系統的安全性。配套發布的NeMo Gym訓練環境與NeMo RL強化學習庫,則構建起從模型訓練到性能驗證的完整工具鏈,相關代碼已在GitHub和Hugging Face開源。
在生態合作方面,Nemotron 3系列已獲得LM Studio、vLLM等主流開發框架支持,Prime Intellect等企業正將其訓練環境集成至工作流系統。云服務層面,除亞馬遜AWS通過Bedrock服務提供無服務器部署方案外,Google Cloud、Microsoft Foundry等平臺也已完成適配測試。企業級基礎設施方面,Couchbase、DataRobot等數據管理平臺均宣布支持Nemotron 3模型部署。
這種"硬件+模型+工具鏈"的全棧開放策略,反映出算力供應商的商業邏輯轉變。通過降低AI開發門檻吸引更多應用創新,既能擴大GPU市場需求,又能鞏固自身在AI生態中的核心地位。隨著Nano版本在消費級市場的率先普及,這場由基礎設施供應商主導的AI平民化運動正在重塑產業格局。







