北京人形機器人創新中心近日宣布開源國內首個通過具身智能國家標準測試的VLA大模型XR-1,同時推出配套的數據訓練工具RoboMIND 2.0和ArtVIP最新版本。這一系列技術成果旨在破解機器人從“能識別”到“會操作”的關鍵難題,推動具身智能從實驗室走向真實應用場景。
針對傳統機器人依賴預設指令、環境適應能力弱的問題,研發團隊重點突破了具身小腦技術。以倒水任務為例,當杯子被中途拿走或杯口被遮擋時,XR-1模型能自主判斷后續動作——或暫停等待,或撥開障礙物繼續操作。這種“知行合一”的決策能力源于模型對物理世界規律的深度理解,使機器人能像人類一樣處理突發狀況,而非機械執行固定流程。
技術架構上,該中心構建了“具身天工”通用機器人平臺與“慧思開物”智能平臺兩大核心體系。其中“慧思開物”已開源WoW世界模型和Pelican-VL具身大腦成果,此次補充的XR-1模型則專注于具身小腦能力,與大腦模塊形成協同。配套發布的RoboMIND 2.0數據引擎和ArtVIP工具鏈,為模型訓練提供了海量多模態數據支持,顯著提升了機器人在復雜環境中的泛化能力。
在工業場景驗證中,搭載相關技術的“具身天工2.0”和“天軼2.0”機器人已進入福田康明斯發動機工廠,在無人產線上自主完成物料搬運、箱體取放等任務。電力領域與中國電科院的合作中,機器人可穿越高壓環境進行設備巡檢;運動科學方面,與李寧實驗室共同開發的測試系統能持續進行高強度跑鞋耐磨試驗。最新與拜耳集團達成的協議,將拓展固體藥品生產全流程的機器人應用,覆蓋制造、包裝、質檢等環節。
技術團隊透露,XR-1模型通過融合視覺、觸覺、力學等多維度感知信息,構建了三維空間動態認知框架。這種多模態融合機制使機器人能理解“杯子傾斜會灑水”“遮擋物可移動”等物理因果關系,從而生成符合邏輯的操作策略。目前模型在工業場景中的任務完成率較傳統方案提升47%,異常處理響應速度縮短至0.3秒以內。
隨著開源社區的參與,該技術體系正在形成跨行業解決方案。開發者可基于RoboMIND 2.0快速構建特定場景數據集,通過ArtVIP工具實現模型微調。這種開放模式已吸引汽車制造、物流倉儲、醫療護理等領域的企業展開聯合研發,預計年內將有超過20類新型工業機器人投入實測。










