微新创想:传统的 AI 配音在面对影视、动画等高标准场景时,常因难以匹配复杂的情绪爆发和精准口型而遭遇瓶颈。针对这一痛点,通义实验室正式发布并开源了首个影视级多场景配音多模态大模型——Fun-CineForge。该模型致力于解决影视制作中长期存在的“声画脱节”问题,通过四大严苛维度的协同,实现更高质量的配音效果。
突破“声画脱节”:四大严苛维度的协同不同于仅依赖文字转语音的传统模型,Fun-CineForge 旨在攻克影视制作中的四大核心挑战。首先是口型同步,实现合成语音与画面唇部运动的高度一致。其次是情绪表达,结合面部形象与指令描述,赋予声音拟人化的情感深度。第三是音色一致性,在复杂的多角色对话中保持特定人物的音色稳定。最后是时间对齐,即使说话人被遮挡或不在画内,语音也能在毫秒级精确的时间点切入。
核心技术:引入“时间模态”与高质量数据集Fun-CineForge 的技术突破在于其独有的 “数据+模型”一体化设计。通义实验室配套开源了 CineDub 高质量数据集,该数据集通过自动化构建流程,利用思维链纠错机制,将中英文文本转录错率降至 1% -2% 左右,说话人分离错误率也大幅降至 1.2%。这为模型的训练提供了更可靠的数据基础。

四模态融合架构: 模型首次引入 “时间模态”,配合视觉(唇形表情)、文本(台词情感)和音频(音色参考)共同建模。这使得模型即便在“看不到”人脸的复杂场景下,也能依靠时间监督目标实现精准同步。这种多模态融合的方式,极大提升了配音的自然度和表现力。
表现卓越:填补多人对话配音空白实验数据显示,Fun-CineForge 在词错率(WER/CER)、唇部同步度(LSE-C/D)及音色相似度上均显著优于 DeepDubber-V1 等基线模型。尤其值得关注的是,该模型首次实现了对双人及多人对话场景的精准支持,在30秒以内的视频片段中表现出极强的鲁棒性。无论是单人独白还是多人对话,Fun-CineForge 都能提供高质量的配音体验。
该模型的发布不仅为影视制作提供了新的技术工具,也为AI语音合成领域带来了重要的突破。通过开源,开发者和研究者可以进一步探索和优化其性能,推动多模态语音技术的发展。
