Newsguard 最新发布的研究报告揭示了生成式AI在传播实时新闻时的严峻问题。截至2023年8月的数据显示,十大主流AI工具在处理新闻内容时,高达35%的概率会传播虚假信息,这一比例较去年同期的18%几乎翻了一番。研究明确指出,这一虚假信息传播率的急剧攀升与AI聊天机器人引入实时网络搜索功能密切相关。随着AI拒绝回答用户问题的比例从31%降至0%,这些系统开始接入充斥着不实信息的网络生态,导致虚假信息传播现象愈演愈烈。
该研究发现,许多不良行为者正利用AI的特性刻意散布虚假信息。去年,Newsguard就曾监测到966个以16种语言运营的AI生成新闻网站,这些网站通过模仿正规媒体名称如”iBusiness Day”等,向公众传播假消息。具体来看,Inflection公司的AI模型在传播虚假信息方面表现最为突出,错误率高达56.67%;Perplexity模型也不容乐观,出错率达到46.67%。ChatGPT和Meta的AI模型错误率分别为40%,而Copilot(微软必应聊天)和Mistral的错误率为36.67%。表现相对较好的Claude和Gemini模型错误率分别为10%和16.67%。值得注意的是,Perplexity的表现出现了大幅下滑,去年8月该模型对虚假信息的揭穿率仍高达100%,而今年8月这一概率已接近50%。
引入网络搜索功能的初衷是为了解决AI回答内容过时的问题,然而这一改进却引发了新的挑战。这些聊天机器人开始从不可靠的来源获取信息,使得用户在判断事实与假消息时愈发困难。Newsguard指出,早期的AI系统通过拒绝回答问题来规避传播虚假信息的风险,但在当前虚假信息泛滥的网络生态中,辨别真伪变得异常复杂。OpenAI也承认,当前的语言模型始终可能产生”幻觉内容”,即虚假或无根据的信息。该公司表示正在研发新技术,力求让未来的模型能够更好地提示不确定性,而非笃定地生成虚假信息。
划重点
– 📊 研究显示,十大生成式AI工具在处理实时新闻时,有35%的概率传播虚假信息,这一比例几乎翻倍。
– 🔍 Inflection公司的AI模型表现最差,传播虚假信息的概率高达56.67%。
– 🤖 OpenAI承认当前模型可能产生虚假信息,并正致力于研发新技术来应对这一问题。