微新创想编辑总结:一则时长不足一分钟的科幻电影预告片《Trailer: Genesis》(《创世纪》)在社交媒体上迅速走红,其完全由 AI 创作的特性引发了广泛关注。从图像视频合成到音乐剪辑,整个预告片均由 AI 工具完成,展现了人工智能在影视创作领域的惊人潜力。制作者 Nicolas Neubert 公开了其使用的 AI 工具组合,包括 Midjourney 处理图像、Runway 处理视频、Pixabay 提供音乐素材,以及 CapCut 进行后期剪辑。这些工具的协同作用,为观众呈现了一场纯粹的 AI 创意盛宴。
Midjourney 作为广受欢迎的 AI 绘图工具,已更新至 5.2 版本;Runway 则是一款基于 AI 的视频生成工具,其 Gen-2 版本目前提供免费试用;CapCut 是一款免费且功能强大的视频剪辑工具,同时也可在 Adobe Premiere 或 Final Cut Pro 中进行更专业的剪辑。Neubert 通过推特 @iamneubert 分享了更多创作细节,透露自己花费了整整 7 个小时,利用 Midjourney 生成了 316 条提示、放大了 128 张图像,Runway 则生成了 310 个视频,其中包括一个带有文本的视频,最终预告片中使用了 44 个视频片段。
近日,Neubert 更是撰写了一篇详细的长文,揭秘了《创世纪》的完整制作流程,涵盖了具体步骤、AI 工具的使用技巧等,为读者提供了宝贵的参考。让我们深入探讨这一创新案例。
关于电影创意,Neubert 表示其反乌托邦主题灵感来源于几部经典电影,并以此为基础构建了完整的故事框架。正式制作的第一步是构建世界观和故事情节。对于《创世纪》预告片,Neubert 旨在逐步增强观众的紧张感,因此将故事分为三个阶段:设置场景、引入威胁、以及 CTA 中的高潮。他首先撰写了预告片的文案草稿,核心信息为「分享一切、承担后果、然后呼吁人类采取行动」,以此奠定整体基调。随后,围绕这些主题生成相应场景,通过滚动大量环境、军事科技、战斗主题的人类和科幻素材,收集到一个引人入胜的故事。为了增加深度,他还添加了三个带有发光护身符的孩子的镜头,暗示了更深层次的故事线索。
第二步是在 Midjourney 中生成连续的图像。在这一步中,Neubert 对自己在以往帖子中积累的稳定提示进行了优化,创建了一个可重复使用的模板,确保预告片每个镜头的主题、颜色和照明保持一致。模板如下:___________,星球大战风格、精细的人群场景、朴实的自然主义、青色和黄色、寒霜朋克、室内场景、cinestill50d—ar21:9—原始风格。对于每个场景,他都会用具体场景描述填补空白,同时最大限度地保持其他 tokens 的主题、颜色和照明连贯性。此外,利用 Midjourney 的强变化(Strong Variations)功能,可以轻松创建不同场景,同时保留之前的调色板。例如,女战士的场景可以转变为普通公民、网络黑客或战斗场景,无需生成新的提示。
第三步是在 Runway 中生成动画图像。Neubert 发现这一步相对简单。在设置上,他总是尝试激活放大(Upscaled)模式,但该模式常在人物镜头中出现面部问题,因此针对人物镜头,他通常使用标准质量。值得注意的是,他没有使用文字提示与图像提示相结合的方式,而是通过拖放图像并重新生成,直到获得满意的结果。
最后一步是在 CapCut 中进行后期剪辑。在 Midjourney 和 Runway 生成输出的同时,Neubert 首先放置了关键场景,如外景镜头作为开场。接着开始规划文本,当根据音乐定位文本时,时间轴中可能没有任何剪辑,这为生成图像提供了额外参考。他在不到一个小时的时间里就完成了时间线编排和定位。具体的步骤变得非常简单:生成剪辑→将它们导入 CapCut→放置在时间轴上,然后逐步拼凑故事。他还对 2 到 3 个编辑包进行了颜色匹配,使场景更具电影感。使用 CapCut 的关键技巧是对剪辑进行节拍同步。当音乐中出现「BWAAA」等节奏点时,他总是尝试连接剪辑内的动作或调整后续剪辑,增强身临其境感。此外,Neubert 还考虑了如何在剪辑中加入大量动作。他使用了两个技巧:一是 Runway 接收图像并计算哪些部分应进行动画处理,他逆向工程这一思路,在 Midjourney 中生成暗示运动的图像,从而在镜头中加入运动模糊或捕捉头部或人物的动态。二是分析 Runway 视频发现,在 4 秒剪辑中场景常发生剧烈变化,因此在预告片场景中,他仅使用两次完整 4 秒剪辑,其他剪辑长度为 0.5-2 秒,并将速度提高 1.5-3 倍,让观众在短时间内感知更多运动,本质上是快进该部分。
经过一番精心操作,最终呈现给观众的就是那个震撼的《创世纪》预告片。该预告片获得了广泛赞誉,有人表示这是自己至今看过的最好的 Runway 生成视频。
其实,在 Runway Gen-2 免费试用后,许多网友纷纷尝试将其与 Midjourney 结合,大胆创作。Midjourney+Runway:神奇的 AI 创作工具组合
这里分享一些其他生成用例。Runway 在人物动作细节的把握上表现出色。网友申城的视频中,人物眼睛的细节让动态视频更加传神,甚至平添了几分「演技」。图片动起来后,人与马在夜色中的动作十分自然,对于人物,甚至后续动作的想象空间也有了更大留白。Midjourney 与 Runway 的组合展现出强大的创作能力,在人物关键动作上能刻画出适当的故事感。
推特:@ai_insight1
还有一些变化更加丰富,也更具创意的生成结果。网友利用一系列 AI 工具生成视频短片,但结果似乎不尽人意。推特用户 @nickfloats 使用 ChatGPT 撰写脚本、Midjourney 生成图像、Runway 生成视频、Triniti 生成音乐、Eleven Labs AI 配音,简单拼接剪辑,不做其他调整。ChatGPT 撰写的脚本网友记录了制作全过程,想看看全程使用 AI 制作广告短片需要多久。在经过 45 分钟后,成片出来了,效果如何?网友对这个短片成果的评价是「The ad sucks」。广告中人物动作僵硬,画面逻辑关系不强,整体也难以凸显主题。AI 的通力合作似乎并未带来惊喜,反而更多「惊吓」。与《创世纪》相比,这个广告短片时长是其一半,但用时极少。最大的差异在于人类参与的细节。前者有精心构思的主题、不断调整追求连贯性、以及对细节的高要求。如果只让 AI 参与或完全依赖 AI 生成,显然无法产出高质量成果。人类对 AI 的应用和调整,才能体现这些工具的真正价值。