
人工智能视频生成技术的飞速发展正悄然引发一场严峻的信任危机。近日,权威媒体分析公司 Newsguard 发布的一项突破性研究揭示了这一令人不安的现实:尽管 AI 视频合成能力已达到令人惊叹的水平,但主流 AI 聊天机器人却普遍丧失了对这些”深度伪造”内容的识别能力,就连技术创造者自身的工具也无法幸免于难。
这项研究以 OpenAI 视频生成模型 Sora 为重点测试对象,结果令人震惊。数据显示,OpenAI 旗下旗舰产品 ChatGPT 在面对 Sora 生成的虚假视频时,错误识别率竟高达惊人的 92.5%。这意味着在绝大多数情况下,ChatGPT 会将精心制作的 AI 虚假视频当作真实记录。其他科技巨头的表现同样不容乐观:xAI 的 Grok 错误率飙升至 95%,而 Google 的 Gemini 虽表现相对较好,但错误率仍维持在 78% 的危险水平。
更令人担忧的是,现有的技术防护措施形同虚设。尽管 Sora 在生成视频时会添加可见水印和不可见元数据等安全标识,但研究发现这些标记极容易被免费工具或简单的”另存为”操作清除。一旦水印消失,聊天机器人不仅无法识别造假,有时甚至会一本正经地胡说八道,引用虚构的新闻来源来为虚假视频背书,进一步加剧信息混乱。
针对这一问题,OpenAI 方面坦诚表示,ChatGPT 目前确实缺乏判断内容是否由 AI 生成的技术能力。由于顶级 AI 视频工具已经能制作出肉眼难以分辨的素材,而反制手段又明显滞后于技术发展,这无疑为虚假信息的广泛传播埋下了巨大隐患。随着 AI 视频生成技术的不断进步,如何建立有效的识别机制,防止虚假内容泛滥,已成为整个科技行业亟待解决的重要课题。
