小米公司近日宣布,其自主研發的具身大模型MiMo-Embodied正式面向全球開源,這一舉措被視為通用具身智能領域的重要突破。該模型通過創新架構設計,首次實現了自動駕駛與具身智能兩大技術體系的深度融合,為跨場景智能應用開辟了新路徑。
針對行業長期存在的"室內外智能割裂"難題,研發團隊構建了統一的任務建模框架。模型突破傳統垂直領域限制,在具身智能端可同步處理可供性推理、任務規劃、空間理解三大核心任務,在自動駕駛端則具備環境感知、狀態預測、駕駛規劃的完整能力鏈。這種跨域協同機制使得機器人與車輛的能力邊界得以拓展,例如家庭服務機器人通過知識遷移可理解交通規則,自動駕駛系統則能借鑒室內導航的精細操作經驗。
技術實現層面,模型采用多階段強化學習策略,通過"具身能力學習-自駕能力遷移-CoT推理增強-RL精細優化"的四步訓練法,顯著提升了復雜環境下的決策可靠性。實驗數據顯示,在29項涵蓋感知、決策、規劃的核心基準測試中,該模型全面超越現有開源及閉源方案,其中具身智能領域17項測試刷新最高紀錄,自動駕駛領域12項測試實現全鏈路性能突破,通用視覺語言任務的泛化能力亦有顯著提升。
開源版本包含70億參數的基礎模型,開發者可通過Hugging Face平臺獲取完整訓練代碼與預訓練權重。小米技術團隊特別強調,模型設計充分考慮了硬件適配性,支持在消費級GPU上高效部署,這為中小企業及研究機構參與具身智能生態建設提供了技術基礎。目前已有多個合作方啟動基于該模型的垂直場景開發,涵蓋工業巡檢、物流搬運、智慧交通等多個領域。
開源地址:https://huggingface.co/XiaomiMiMo/MiMo-Embodied-7B














