阿里云旗下通義萬相團隊近日宣布,其全新研發的動作生成模型Wan2.2-Animate正式面向全球開發者開源。該模型突破傳統生成邊界,支持對真實人物、卡通形象及動物照片進行動態化處理,目前已覆蓋短視頻創作、舞蹈模板生成、動畫制作等多元化場景。開發者可通過GitHub、HuggingFace及魔搭社區獲取完整代碼與模型文件,亦可通過阿里云百煉平臺調用API接口,或在通義萬相官網直接體驗服務。
作為Animate Anyone模型的迭代升級版,Wan2.2-Animate在人物形象穩定性、畫面質量等核心指標上實現顯著突破。其獨創的雙模式架構包含動作模仿與角色扮演兩大功能:前者可將參考視頻中的人物動態精準遷移至靜態圖片角色,賦予其自然流暢的動作表現;后者則能在保留原始視頻動作與環境的基礎上,完成角色形象的無縫替換。這種設計使得同一模型可同時適配不同創作需求。
技術實現層面,研發團隊構建了包含面部表情、肢體動作及語音同步的大規模人物視頻數據庫,并依托通義萬相圖生視頻模型進行專項優化。模型通過統一編碼框架整合角色特征、環境參數及動作指令,使單一架構支持多模式推理。針對人體運動與面部細節,分別采用骨骼信號控制與隱式特征提取技術,配合動作重定向算法實現毫米級精度復刻。在角色替換場景中,創新引入光照融合LoRA模塊,有效解決不同光源條件下的畫面融合難題。
第三方評測數據顯示,該模型在視頻質量、主體一致性及語義對齊等維度全面超越StableAnimator、LivePortrait等同類開源方案。在用戶主觀評價測試中,其生成效果甚至優于Runway Act-two等商業閉源模型。目前模型已支持140億參數規模,在保持高效推理的同時,提供更豐富的細節表現力。
項目開源地址已同步上線三大技術社區:GitHub平臺提供完整代碼庫(https://github.com/Wan-Video/Wan2.2),魔搭社區與HuggingFace則分別部署模型文件(https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B;https://huggingface.co/Wan-AI/Wan2.2-Animate-14B)。此舉標志著國內團隊在多模態生成領域的技術輸出能力達到新高度。