阿里云近期宣布了一項重大進展,正式推出了其最新的Qwen3系列混合推理模型,并慷慨地決定將這8款模型全部開源。這一舉措為全球的開發者、研究機構及企業提供了前所未有的機遇,使他們能夠免費獲取并利用這些先進的模型。
Qwen3系列中包含了兩款引人注目的MoE模型:Qwen3-235B-A22B和Qwen3-30B-A3B。前者擁有超過2350億的總參數和220多億的激活參數,而后者則以300億的總參數和30億的激活參數展現其獨特魅力。還有六個Dense模型,它們分別是Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B,各自在性能和規模上滿足不同需求。
這些模型不僅可以在魔搭社區和HuggingFace等平臺上自由下載,還完全支持Apache2.0協議,允許商業使用。阿里云還提供了額外的便利,用戶可以通過其百煉平臺直接調用Qwen3的API服務。對于個人用戶,通義APP已經準備好讓用戶體驗Qwen3的強大功能,而夸克也即將全面集成這一系列的模型。
Qwen3模型在支持的語言和方言上同樣表現出色,覆蓋了多達119種,極大地方便了全球各地的用戶。更為先進的是,Qwen3還提供了兩種思考模式,一種是適合復雜問題的“思考模式”,另一種是面向簡單問題、更注重速度的“非思考模式”。這種設計使得用戶可以根據實際需求調整模型的“思考”程度,從而在成本和推理質量之間找到最佳平衡點。
在性能表現上,旗艦模型Qwen3-235B-A22B在多項基準測試中展現出了與頂級模型相媲美的實力,甚至在某些方面超越了OpenAI-o1和DeepSeek-R1等大模型。而小型MoE模型Qwen3-30B-A3B,盡管其激活參數僅為QwQ-32B的10%,但其表現卻更為出色。即便是像Qwen3-4B這樣的小型模型,其性能也能與Qwen2.5-72B-Instruct相抗衡。
在部署方面,阿里云推薦使用SGLang和vLLM等框架,這些框架能夠高效地利用Qwen3模型的能力。對于希望在本地使用這些模型的用戶,阿里云也推薦了一系列工具,如Ollama、LMStudio、MLX、llama.cpp和KTransformers,它們都能為用戶提供便捷的使用體驗。