北京人形機器人創新中心近日宣布,正式開源三項關鍵技術成果,包括面向具身小腦能力的XR-1模型,以及配套的RoboMIND 2.0和ArtVIP數據訓練平臺。這一舉措標志著國內具身智能領域在核心技術開源方面邁出重要一步,為機器人實現復雜場景下的自主作業能力提供了重要支撐。
XR-1模型作為國內首個通過具身智能國家標準測試的視覺-語言-動作(VLA)大模型,具備多模態感知與決策能力。該模型通過整合視覺、語言和動作信息,使機器人能夠理解環境并執行精準操作,在工業制造、物流運輸、家庭服務等領域具有廣泛應用潛力。其開源版本將為開發者提供基礎框架,加速具身智能技術的迭代創新。
配套發布的RoboMIND 2.0和ArtVIP系統則聚焦于數據訓練環節。前者作為智能訓練平臺,可高效處理多源異構數據,支持模型快速優化;后者作為視覺-語言-動作對齊工具,能夠生成高質量訓練樣本,顯著提升模型在復雜場景中的泛化能力。這兩項工具的開源將降低行業研發門檻,推動更多企業參與具身智能生態建設。
業內專家指出,此次開源的三項成果形成完整技術閉環:XR-1提供核心算法支撐,RoboMIND 2.0優化訓練流程,ArtVIP保障數據質量。這種"模型+平臺+工具"的組合模式,有望解決國內具身智能領域長期存在的場景適配難、訓練效率低等問題,為機器人從實驗室走向實際應用場景奠定技術基礎。隨著開源社區的持續完善,國內具身智能產業或將迎來新一輪發展高潮。












