近日,華為技術有限公司宣布了一項重大決定,將盤古70億參數的稠密模型、以及擁有720億參數的盤古Pro MoE混合專家模型進行開源,并同步推出了基于昇騰的模型推理技術。這一舉措標志著華為在推動人工智能領域的技術革新與應用拓展上邁出了重要一步。
據悉,華為已經將盤古Pro MoE 72B模型權重、基礎推理代碼以及針對昇騰平臺的超大規模MoE模型推理代碼,上傳至其開源平臺供開發者免費使用。而盤古7B的相關模型權重與推理代碼也將在不久的將來與公眾見面。華為方面表示,這一系列動作是其昇騰生態戰略的重要組成部分,旨在加速大模型技術的研究進程,并促進人工智能技術在各行各業的廣泛應用。
無獨有偶,在同一天,百度也宣布了文心大模型4.5系列的開源計劃。此次開源的模型涵蓋了47B和3B激活參數的混合專家(MoE)模型,以及0.3B參數的稠密型模型等共10款模型,并實現了預訓練權重和推理代碼的完全開放。用戶可以在飛槳星河社區、HuggingFace等平臺下載并部署這些模型,同時百度智能云千帆大模型平臺也提供了開源模型的API服務。
事實上,在百度和華為之前,阿里巴巴已經通過推出具有競爭力的開源大模型和魔搭社區,積極布局AI開源生態。而騰訊的混元項目也早已開源了混合推理MoE模型Hunyuan-A13B以及3D生成模型等,展現了中國科技巨頭在人工智能領域的深厚底蘊和開放態度。
隨著越來越多的企業加入到AI開源的行列中來,一個更加開放、協作的人工智能生態系統正在逐步形成。這不僅有助于加速技術的迭代升級,也為各行各業提供了更加便捷、高效的智能化解決方案。