
微新创想:OpenAI近日向Sora视频生成API推送重要更新 基于Sora2模型正式引入五项核心能力升级
此次更新主要解决批量视频生产中的一致性 时长和多格式适配痛点 大幅提升开发者与内容创作者的规模化效率
最关键的改进在于角色一致性支持 过去使用API批量生成视频时 同一主角在不同场景下往往出现面部特征 服装 道具等视觉漂移 现在开发者可预先上传或定义角色档案 包括外观 服装 配件等 模型会在后续多个片段生成中自动复用该参考 确保跨镜头 跨场景的视觉连续性 这一功能显著降低了后期修图成本 尤其适用于广告 短剧 系列内容等需要主角贯穿始终的场景

视频时长从此前上限提升至20秒 之前多为12秒或16秒级别 允许创作者一次生成更完整的叙事片段或动态镜头 避免频繁拼接带来的质量损耗与风格断层
同时 API新增视频延续 extend 能力 可基于已有片段自然接续生成 进一步支持更长叙事构建
输出格式方面 一次任务即可同时生成16:9横屏 适用于YouTube PC端 和9:16竖屏 适配TikTok 短视频平台 两套1080p素材 无需二次裁剪或重渲染 极大简化多平台分发流程
此外 更新强化了Batch API异步批量处理支持 适合大规模离线渲染队列 工作室工作流或自动化生产管道
