2026年1月,Newsguard发布的一项权威测试报告揭示了AI模型在识别伪造视频方面的严峻挑战。测试结果显示,Grok、ChatGPT和Gemini这三款主流AI模型对Sora生成的虚假视频识别错误率分别高达95%、92.5%和78%。这一数据令人震惊,凸显了当前AI技术在对抗深度伪造技术方面的不足。
研究团队使用了20条经过精心去水印处理的虚假视频作为测试样本,这些视频涵盖了政治、航空等高度敏感的场景。尽管这些视频保留了可见水印或C2PA溯源元数据等关键识别信息,但三款AI模型的表现却令人失望。更令人担忧的是,ChatGPT在7.5%的带水印视频中依然无法准确识别,甚至多次错误地否认元数据的存在。这一现象进一步暴露了AI模型在内容识别方面的局限性。
OpenAI在回应测试结果时承认,ChatGPT缺乏有效的AI内容识别能力,并且极少主动提示其这一技术局限。这一承认不仅反映了OpenAI对产品缺陷的坦诚,也揭示了当前AI行业在内容真实性检测方面存在的普遍问题。
专家们对此发出强烈警示:随着AI技术的快速发展,AI工具正逐渐成为虚假信息传播的新温床。如果无法有效解决AI模型在识别伪造内容方面的缺陷,虚假信息将更难被辨别,对社会造成的危害也将日益严重。这一警示不仅呼吁技术开发者加快研发更先进的识别技术,也提醒公众在接收信息时保持警惕,提高辨别能力。
