阿里云近日重磅宣布通义万相全新动作生成模型Wan2.2-Animate的正式开源,这一突破性技术将为短视频创作、舞蹈模板生成和动漫制作等领域带来革命性变革。用户无需复杂操作,即可通过GitHub、HuggingFace和魔搭社区便捷获取模型及相关代码资源,更可借助阿里云百炼平台调用强大API,或在通义万相官网直接体验其惊艳功能。
Wan2.2-Animate模型是在前代Animate Anyone模型基础上实现的全面飞跃,在人物一致性与生成质量等核心指标上实现了质的突破。该模型创新性地支持两种核心应用模式:动作模仿与角色扮演。在动作模仿模式下,用户只需提供一张角色图片和一段参考视频,模型便能精准捕捉视频中的角色动作与表情,并无缝迁移至用户提供的图片角色上,实现栩栩如生的动态效果。而在角色扮演模式中,模型能够在完整保留原视频动作、表情与环境的基础上,智能替换视频中角色,创造出令人惊叹的视觉体验。
为提升生成效果,通义万相团队精心构建了一个超大规模的人物视频数据集,全面覆盖说话、面部表情和身体动作等多元元素。团队利用通义万相图生视频模型进行深度训练,确保模型能够精准捕捉并还原各类动态特征。Wan2.2-Animate通过创新设计,将角色信息、环境信息和动作等关键元素统一规约到标准化表示格式中,实现了两种推理模式的完美兼容。针对身体运动和面部表情,模型分别采用先进的骨骼信号和隐式特征技术,结合精密的动作重定向模块,实现了毫米级精度的动作与表情复刻。此外,为攻克光照效果难题,团队特别研发了独立的光照融合LoRA技术,确保生成视频具有专业级的视觉效果。
在实际应用中,Wan2.2-Animate的表现堪称惊艳。在视频生成质量、主体一致性及感知损失等关键性能指标上,该模型已全面超越StableAnimator和LivePortrait等主流开源模型,一跃成为当前性能最强的动作生成技术。尤其在用户主观评测环节,其表现甚至超越了Runway Act-two等商业闭源模型,充分彰显了技术的领先性。
这一重要开源举措将极大推动相关领域的技术创新,为广大创作者提供前所未有的便捷工具,让优质动态内容的创作变得触手可及。划重点:🌟 **新模型开源**:阿里云Wan2.2-Animate模型正式开源,用户可在多平台免费下载体验。🎭 **两种模式**:支持动作模仿和角色扮演,全面提升动态表现力与角色替换能力。🚀 **性能优越**:在多项关键指标上超越现有开源模型,成为动作生成领域的标杆之作。