阿里通義萬相團隊宣布,其全新研發的動作生成模型Wan2.2-Animate正式面向全球開發者開源。該模型突破傳統生成框架,可同時驅動人物、動漫角色及動物形象完成動態動作,在短視頻創作、舞蹈模板生成、動畫制作等領域展現出廣泛應用潛力。
作為Animate Anyone模型的升級版,Wan2.2-Animate在核心性能上實現跨越式提升。研究團隊通過構建百萬級人物視頻數據集,結合圖生視頻模型的后訓練技術,使生成視頻在主體一致性、動作流暢度等關鍵指標上達到行業領先水平。實測數據顯示,該模型在視頻質量評估、主體識別準確率等維度全面超越StableAnimator、LivePortrait等開源方案,甚至在人類主觀評測中優于Runway Act-two等閉源商業模型。
模型創新性地提出雙模式架構,支持"角色模仿"與"角色扮演"兩種生成范式。在角色模仿模式下,用戶僅需上傳靜態圖片與參考視頻,系統即可將視頻中角色的動作、表情精準遷移至圖片角色,賦予靜態形象動態表現力;角色扮演模式則可在保持原始視頻動作、表情與環境的基礎上,將視頻角色無縫替換為指定圖片角色,實現跨形象的動作復現。
技術實現層面,研究團隊采用統一表示框架,將角色特征、環境信息與動作指令編碼為標準化格式,使單一模型兼容兩種生成模式。針對身體運動與面部表情的差異化需求,模型分別運用骨骼信號與隱式特征進行解析,配合動作重定向模塊實現毫米級動作復刻。在角色替換場景中,特別設計的光照融合LoRA組件可自動適配環境光源,確保生成畫面無明顯光照斷層。
即日起,全球開發者可通過GitHub、HuggingFace及魔搭社區獲取完整模型代碼與訓練數據集。阿里云百煉平臺同步開放API調用服務,用戶也可直接登錄通義萬相官網體驗實時生成功能。該模型的開源將進一步降低動作生成技術的使用門檻,為數字內容創作領域注入新的技術動能。