在人工智能領(lǐng)域的一次重大突破中,阿里巴巴于4月29日正式揭曉了其上半年最具分量的成果——Qwen 3大型AI模型。這一發(fā)布標(biāo)志著國內(nèi)AI技術(shù)的又一里程碑。
Qwen 3采用了前沿的混合專家(MoE)架構(gòu)設(shè)計,參數(shù)量達(dá)到了2350億,但在激活時僅需220億,相比之前的DeepSeek-R1模型,參數(shù)量減少了三分之二,而性能卻實現(xiàn)了全面飛躍。這一改變不僅優(yōu)化了模型結(jié)構(gòu),還顯著提升了運算效率。
尤為Qwen 3是國內(nèi)首款融合了“快速推理”與“深度思考”能力的混合推理模型。這一特性使得Qwen 3能夠根據(jù)任務(wù)復(fù)雜程度智能選擇推理路徑,對于簡單問題能夠迅速響應(yīng),而對于復(fù)雜問題則能進(jìn)行多步驟的深入解析,從而大幅降低了推理成本和算力消耗。
在性能評估方面,Qwen 3展現(xiàn)出了非凡的實力。在奧數(shù)水平測試中,Qwen 3在AIME25評測中獲得了81.5分,刷新了開源模型的記錄。在代碼能力評估中,LiveCodeBench評測結(jié)果顯示,Qwen 3得分突破70分,甚至超越了Grok3模型。而在評估模型與人類偏好對齊的ArenaHard評測中,Qwen 3以95.6分的高分,超過了OpenAI-o1和DeepSeek-R1。
除了性能的大幅提升,Qwen 3的部署成本也顯著降低。僅需4張H20顯卡即可部署Qwen 3的滿血版本,這為更廣泛的應(yīng)用提供了可能。Qwen 3還提供了豐富的模型版本選擇,包括2款MoE模型(30B和235B)以及6款密集模型(0.6B、1.7B、4B、8B、14B、32B),每一款模型都在同尺寸開源模型中達(dá)到了最佳性能。
在應(yīng)用層面,Qwen 3原生支持MCP協(xié)議,這大大降低了編碼的復(fù)雜性,使得手機及電腦Agent操作等任務(wù)變得更加高效。同時,Qwen 3首次支持119種語言和方言,為全球開發(fā)者、研究機構(gòu)和企業(yè)提供了前所未有的便利。他們可以在魔搭社區(qū)、HuggingFace等平臺免費下載模型并進(jìn)行商用。