小米公司今日正式推出自研的開源MoE(混合專家)模型——Xiaomi MiMo-V2-Flash,該模型專為智能體AI設計,以極致推理效率為核心目標。模型總參數量達3090億(309B),但通過動態激活機制將活躍參數量控制在150億(15B)水平,在保持高性能的同時顯著降低了計算資源消耗。
技術架構方面,該模型創新性地采用Hybrid注意力機制,結合多層MTP推理加速技術,在多個智能體評估基準測試中躋身全球開源模型前列。特別值得關注的是其代碼生成能力,經實測已超越所有現有開源模型,達到與行業標桿閉源模型Claude 4.5 Sonnet相當的水平,而推理成本僅為后者的2.5%,生成速度提升達200%。
為方便開發者體驗,小米同步上線了在線交互平臺Xiaomi MiMO Studio(官網地址已移除)。該平臺支持深度語義搜索與實時聯網檢索功能,用戶可通過自然語言交互直接測試模型性能。平臺界面設計簡潔,提供多場景對話模板,覆蓋技術咨詢、內容創作等實際應用場景。
在開源策略上,小米采取完全開放模式,不僅模型權重文件采用MIT許可協議開源,配套的推理代碼庫也同步公開。商業應用方面,該模型提供API接口服務,定價體系為輸入每百萬tokens 0.1美元,輸出每百萬tokens 0.3美元,目前處于限時免費測試階段。完整技術文檔與模型下載地址已在小米開發者平臺公布。





