小米公司近日正式開源了其最新研發的混合專家模型(MoE)——Xiaomi MiMo-V2-Flash,這款專為智能體AI打造的模型憑借卓越的推理性能和超高性價比,在全球開源社區引發廣泛關注。該模型總參數量達3090億,但通過動態路由機制將活躍參數量壓縮至150億,在保持強大能力的同時顯著降低了計算資源消耗。
技術架構方面,MiMo-V2-Flash創新性地融合了Hybrid注意力機制與多層MTP推理加速模塊。其獨特的1:5全局注意力與滑動窗口注意力(SWA)混合結構,配合128的窗口大小設計,不僅原生支持32K上下文長度,更可通過擴展模塊將處理能力提升至256K。這種設計使得模型在處理長文本時既能保持高效運算,又能精準捕捉關鍵信息。
在權威智能體評測基準中,該模型以顯著優勢躋身全球開源模型第二位。特別值得關注的是,其代碼生成能力已超越所有現有開源模型,達到與閉源標桿Claude 4.5 Sonnet相當的水平。更令人矚目的是,在保持性能領先的同時,MiMo-V2-Flash的推理成本僅為Claude 4.5 Sonnet的2.5%,而生成速度卻提升了兩倍,真正實現了"性能與效率的完美平衡"。
為方便開發者與用戶直接體驗,小米同步推出了基于該模型的在線AI聊天服務Xiaomi MiMO Studio。該服務不僅支持深度對話功能,還整合了實時聯網搜索能力,用戶無需復雜部署即可感受智能體AI的強大實力。在開源策略上,小米采用MIT協議全面開放模型權重與推理代碼,同時提供極具競爭力的商業API服務——輸入價格僅為每百萬tokens 0.1美元,輸出價格為每百萬tokens 0.3美元,且目前正處于限時免費推廣期。
















