随着 OpenAI 的 ChatGPT、Google 的 Bard 等 AIGC 工具的兴起,由 AI 驱动的内容、信息、机器人已在过去一年中迅速渗透到 Web 网站的各个角落。这些工具在带来极大便利、提升效率的同时,也引发了虚假用户、垃圾广告、错误性消息等一系列问题。就在几天前,社交应用初创公司 IRL(IN REAL LIFE)估值一度飙升至17亿美元,并在软银领衔的C轮融资中筹集了1.7亿美元。然而,根据董事会内部调查,该公司对外宣称的2000万月活用户中,竟有高达95%是机器人。这一事件引发了人们对 AI 内容真实性的深刻担忧。
近日,为在线新闻媒体提供信任评级的公司 NewsGuard 发布了一份令人震惊的分析报告。报告指出,由于科技巨头、银行等全球主要品牌的广告预算,大量低质量的 AI 生成网站正获得源源不断的广告收入,这些充斥着 AI 内容的网站因此得以继续存活并扩散。对此,外媒 The Verge 记者James Vincent总结道:”AI正在杀死旧Web,新Web艰难诞生”。在他看来,这未必是一件坏事。
短短几分钟,生成式AI就能创造海量的文本和图像。The Verge指出,从历史角度来看,Web网站曾经是个人创造创新的重要平台。许多人在网络上开发网站、论坛和邮件列表,并通过这些渠道获得收入。后来,随着更多公司的加入,它们创建了灵活且功能丰富的平台,吸引了大量用户。这些公司追逐规模,因为一旦聚集足够多的人,通常就能找到盈利模式。但人工智能的出现彻底改变了这一假设。在ChatGPT、Bard、新Bing等工具流行的今天,它们能快速生成大量文本和图像,甚至制作音乐和视频。这些输出可能已经超越了传统新闻、信息和娱乐平台。
广告收入成为AI生成新闻和信息网站的重要生存手段。据NewsGuard发布的数据,从今年5月开始,他们每周就能发现25个新的AI生成新闻和信息网站(UAIN),目前已有数百个此类网站。这些网站存在的意义何在?NewsGuard指出,重要的一点是成为许多品牌公司的广告投放地。分析师发现,投放在这些UAIN网站的广告大多是编程方式生成的,这意味着许多知名公司并非主动选择在这些网站投放广告,而是由广告投放系统自动匹配过来的,其中大部分是Google Ads投放。NewsGuard表示,他们的分析师已将217个网站添加到其UAIN网站跟踪器中,其中许多网站似乎完全由程序化广告资助。
由于网站可以通过程序化广告赚钱,因此它们有动力持续发布内容。该公司发现,其中一个UAIN网站在今年6月9日至6月15日这一周发布了约8600篇文章,平均每天约有1200篇。相比之下,《纽约时报》每天发表约150篇文章,背后有庞大的编辑、记者团队。事实上,在今年5月和6月进行的最新研究中,NewsGuard分析师发现,来自141个主要品牌的393个程序化广告出现在217个UAIN网站中的55个上。这样的趋势下,基于广告收入的AI生成新闻和信息网站正在大量涌现,充斥着网络空间。
与此同时,大量AI生成的内容也渗透到了许多老牌社区和平台。LinkedIn正在利用人工智能激活用户;Snapchat和Instagram希望当用户不说话时,机器人能与之交谈。与此同时,一些Web网站也正在被动受到ChatGPT的冲击,知名程序员社区Stack Overflow便是其中之一。为此,今年早些时候,Stack Overflow紧急发布了”禁令”,禁止使用ChatGPT生成的内容来回答问题。原因是:由GPT生成的贡献通常不符合这些标准,不会为可信赖的环境做出贡献。当用户在不验证GPT提供答案正确性的情况下直接复制粘贴,没有确保答案中使用的来源被正确引用,也没有验证GPT提供的答案是否清晰简洁地回答了问题时,这种信任就被打破了。
不过,一味阻止AI使用并不能根本解决问题。Stack Overflow计划向那些在构建AI工具时抓取其数据的公司收费。此外,Stack Overflow自身也有计划提供AI相关服务。另一个受到AI影响较大的平台是问答社区Reddit。”Reddit的数据很有价值,但我们不需要将所有这些价值免费提供给世界上一些最大的公司”,当RedditCEO Steve Huffman说出这句话时,就意味着该公司会有所动作。令人意外的是,Reddit更新了API收费政策,想要从中获得更多收入,并体现其数据价值时,却遭到了许多版主实施封锁社区版块以示抗议。
作为网站访问的主要入口,全球第一大搜索引擎Google掌握着现代Web网站的命脉。不过,在Bing AI和ChatGPT作为替代搜索引擎的趋势推动下,Google也正在采取行动。有媒体报道称,Google正寻求打造一款由AI技术驱动的全新搜索引擎,新引擎的一大特点是”能够猜到用户的需求”。该引擎将根据用户搜索内容,学习并预测用户想要知道的事情,并提供预先挑选的购买物品、研究信息和其他信息清单。如果Google真的实施这一计划,那么AI对传统网站带来的影响将是颠覆性的。
让AI掌舵Web网站,会发生什么?毋庸置疑,AI现在无处不在。倘若所有平台都被AI蚕食,又会是什么样的景象?对此,科技网站Tom’s Hardware的主编Avram Piltch指出,尽管人工智能拥有重组文本的能力,但最终创建底层数据的还是人——无论是记者拿起电话核查事实,还是在遇到电池问题时Reddit用户能高兴地告诉你是怎么修复它的。相比之下,AI语言模型和聊天机器人产生的信息通常不一定准确,更棘手的是,当它出错时,其错误方式往往很难被发现。因此,这需要时间和专业知识来进一步核实。如果机器生成的内容取代了人类的作者身份,那么在原本只有人犯错的基础上,又多了AI本身就会犯错的可能性,甚至在一定程度上阻碍了人类专业知识的汲取能力,那么纠正我们集体错误的机会就会减少。
与此同时,The Verge记者James Vincent指出,人工智能对Web的影响并不是那么简单就可以概括的。即使在上面引用的少数例子中,也有许多不同的机制在起作用。在他看来,最成功的网站往往是利用规模发挥其优势的网站,要么通过增加社会联系或产品选择,要么通过对构成互联网本身的巨大信息群进行分类,但这种规模依赖于大量人类来创造潜在价值,在大规模生产方面,人类显然无法击败人工智能。但这一定是一件坏事吗?其实不然,James Vincent认为:”有些人会说这只是世界运行的一种方式,并指出Web本身杀死了之前的事物,而且往往是为了变得更好。例如,印刷版百科全书几乎已经绝迹,但我更喜欢维基百科的广度和可访问性,而不是《大英百科全书》的厚度和保证。对于与人工智能生成的写作相关的所有问题,也有很多方法可以改进它——从改进的引文功能到更多的人工监督。另外,即使Web尽管充斥着人工智能垃圾,但它可能会被证明是有益的,能够刺激资金更充足的平台的发展。例如,如果Google总是在搜索中给你提供垃圾结果,你可能会更倾向于为你信任的来源付费并直接访问它们。”
事实上,人工智能目前造成的变化只是Web历史上长期斗争中的最新一个。从本质上讲,这是一场信息之战——谁制造信息、如何访问信息以及谁获得报酬。但仅仅因为战斗是熟悉的并不意味着它不重要,也不能保证后续的系统会比我们现在的系统更好。新Web正在努力诞生,我们现在做出的决定将决定它的发展方式。