近日,科技界迎來了兩大開源領域的重磅消息,華為與百度相繼宣布了關于其最新模型的開源計劃。
華為于6月30日正式邁出了開源步伐,宣布將盤古模型的多個版本及推理技術向公眾開放。具體而言,華為推出了包含70億參數的盤古稠密模型、擁有720億參數的盤古Pro MoE混合專家模型,以及基于昇騰的模型推理技術。據悉,盤古Pro MoE 72B模型的權重、基礎推理代碼以及針對昇騰平臺的超大規模MoE模型推理代碼,已率先在開源平臺上架。而盤古7B模型的相關權重與推理代碼也將緊隨其后,預計在不久的將來與公眾見面。華為方面表示,此舉旨在通過實踐昇騰生態戰略,推動大模型技術的深入研發與創新,進一步加速人工智能技術在各行各業的落地應用。
與此同時,百度也不甘落后,于同日宣布文心大模型4.5系列全面開源。此次開源的模型涵蓋了混合專家(MoE)模型與稠密型模型兩大類,共包括10款不同規格的模型,其中MoE模型擁有47B和3B激活參數,而稠密型模型則具備0.3B參數。百度承諾,文心大模型4.5系列的預訓練權重與推理代碼將完全開放給公眾。目前,這些模型已在飛槳星河社區、HuggingFace等平臺上線,用戶可自由下載并部署使用。百度智能云千帆大模型平臺也提供了開源模型的API服務,進一步降低了使用門檻。早在今年2月,百度就已預告了文心大模型4.5系列的推出計劃,并如期于6月30日正式實施開源。
百度文心大模型4.5系列的開源,不僅在模型數量和類型上占據行業領先地位,更在參數豐富度、開源寬松度以及可靠性等關鍵指標上展現出顯著優勢。此次開源的模型權重遵循Apache 2.0協議,既支持學術研究,也適用于產業應用。同時,依托飛槳提供的開源產業級開發套件,文心大模型4.5系列能夠廣泛兼容多種芯片,極大地降低了模型的后訓練和部署難度。