meta公司近日正式推出MobileLLM-R1系列輕量化語言模型,包含1.4億、3.6億和9.5億參數三種規格,專為移動端設備優化設計。該系列模型突破性地實現在智能手機等終端設備上直接運行,無需依賴云端計算資源。
與常規語言模型不同,MobileLLM-R1系列經過專項監督微調訓練,聚焦數學運算、編程開發(涵蓋Python/C++等語言)及科學問題求解三大領域。以參數規模最大的950M版本為例,其預訓練階段僅使用約2TB高質量數據,整體訓練數據量不足5TB。盡管數據規模顯著低于行業常規,該模型在MATH、GSM8K等數學基準測試中,性能表現超越采用36TB數據訓練的Qwen 3-0.6B模型。
在編程能力評估方面,MobileLLM-R1 950M展現出顯著優勢。與同為開源模型的Olmo 1.24B和SmolLM 1.7B對比,其在LiveCodeBench編程測試中的表現全面領先。特別是在數學能力測試中,950M版本的準確率達到Olmo 1.24B的5倍,是SmolLM 1.7B的2倍。
技術實現層面,開發者可通過vLLM推理引擎部署該系列模型,僅需在ModelRegistry中注冊Llama4ForCausalLM架構即可完成配置。目前MobileLLM-R1全系列已采用Apache 2.0開源協議,完整模型權重及訓練代碼均已上傳至Hugging Face平臺,供全球開發者自由使用。