微新创想7月28日重磅报道,阿里云正式宣布旗下前沿AI模型通义万相2.2实现全面开源,这一突破性举措将彻底改变视频创作的边界。通义万相2.2最令人震撼的突破,在于其能够生成堪比电影级的高清视频能力。据悉,该模型单次即可生成5秒的高清视频片段,而这段视频的质量绝非同侪可比。在光影渲染、色彩饱和度、构图艺术以及人物微表情等关键细节上,通义万相2.2已经达到专业电影制作水准,展现出令人惊叹的视觉表现力。
此次开源共推出三款核心模型:文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-TI2V-5B)。特别值得一提的是,文生视频模型和图生视频模型创新性地采用了业界首创的MoE(Mixture of Experts)架构,总参数量高达27B,激活参数达到14B。这种架构通过高噪声专家模型与低噪专家模型的协同工作,前者负责构建视频的整体框架,后者则精雕细琢每个细节。这种分工协作模式在同参数规模下能节省约50%的计算资源,极大提升了模型运行效率,为大规模视频生成提供了前所未有的性能突破。
通义万相2.2更首创了电影美学控制系统,这一系统如同拥有丰富经验的导演,能够精准掌控视频中的所有美学元素。无论是需要紧张刺激的动作场景,还是浪漫唯美的爱情画面,该系统都能通过对光影、色彩、构图的精妙调整,让视频呈现出电影般的艺术感染力。这种智能化的美学控制能力,为创作者提供了前所未有的创作自由度。
通义万相2.2的开源,为广大创作者、开发者乃至普通用户打开了一扇通往电影级视频创作的大门。这一举措不仅降低了高质量视频制作的技术门槛,更将推动整个视频创作领域的创新浪潮。随着更多开发者和创作者的加入,我们可以预见,未来将涌现出更多令人惊艳的AI驱动的电影级视频作品,彻底重塑我们的视觉娱乐体验。