2025年9月19日,阿里云通义万相团队重磅宣布,全新一代动作生成模型 Wan2.2-Animate 正式开源,为内容创作领域带来革命性突破。这款先进的 AI 模型能够精准驱动人物、动漫形象及动物照片进行动态演绎,在短视频制作、舞蹈模板生成、动漫特效制作等领域展现出广泛的应用潜力。
用户可通过 GitHub、HuggingFace 和魔搭社区免费获取模型资源与完整代码,亦可借助阿里云百炼平台便捷调用 API 接口,或直接在通义万相官网体验实时效果。Wan2.2-Animate 模型是在先前开源的 Animate Anyone 模型基础上实现全面突破的升级之作,在人物一致性、生成质量等核心指标上实现了质的飞跃,同时创新性地支持动作模仿与角色扮演两种智能推理模式。
在角色模仿模式下,用户只需输入一张目标角色图片并上传参考视频,模型便能以超乎想象的精准度,将视频中的动作与表情无缝迁移至图片角色,赋予静态图像以生动的动态表现力。而在角色扮演模式下,模型能够在完整保留原始视频的动作、表情及环境信息的基础上,智能替换视频中的人物角色,实现天衣无缝的角色转换效果。
通义万相团队为此构建了包含说话、面部表情和身体动作的大规模人物视频数据集,并基于通义万相图生视频模型进行深度后训练。Wan2.2-Animate 通过将角色信息、环境信息与动作特征统一规约到标准化表示格式中,实现了单一模型同时兼容两种推理模式的创新突破。针对身体运动与脸部表情,模型分别采用先进的骨骼信号与隐式特征技术,配合精密的动作重定向模块,确保动作与表情的精准复刻。在替换模式中,团队还特别设计了一套独立的光照融合 LoRA 技术,有效解决了跨角色场景下的光照融合难题,保证最终效果的自然和谐。
权威实测数据显示,Wan2.2-Animate 在视频生成质量、主体一致性及感知损失等关键性能指标上全面超越 StableAnimator、LivePortrait 等主流开源模型,一举成为当前性能最强的动作生成解决方案。更令人瞩目的是,在专业人类主观评测中,Wan2.2-Animate 的表现甚至超越了以 Runway Act-two 为代表的商业闭源模型,充分彰显了其卓越的技术实力。
GitHub:https://github.com/Wan-Video/Wan2.2
魔搭社区:https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B
HuggingFace:https://huggingface.co/Wan-AI/Wan2.2-Animate-14B