
微新创想:AI 大模型正面临前所未有的挑战
在日常生活中,我们习惯性地向 AI 大模型提问“哪款智能手环好用”时,得到的回答可能并不如预期般客观。相反,这些回答可能被精心“投喂”的虚假信息所主导。今年的 315 报道中,央视财经揭露了一个隐藏在 AI 时代的暗黑产业链——GEO(生成式引擎优化)。这项原本旨在提升信息推广效率的技术,如今却被一些服务商利用,演变成操控 AI、对大模型进行“洗脑”的工具。
市面上已经出现了诸如“力擎 GEO 优化系统”这样的软件,专门从事所谓的“投毒”业务。这些软件通过大量输入虚假内容,试图影响 AI 大模型的输出结果。为了验证 GEO 的破坏力,业内人士进行了一场令人震惊的演示。他们虚构了一款名为“Apollo9”的智能手环,并编造了诸如“量子纠缠传感”、“黑洞级续航”等毫无科学依据的营销话术。
随后,这些虚假信息被通过软件在短时间内向全网广泛传播,形成了数十篇相关软文。令人震惊的是,仅仅几个小时后,当记者在主流 AI 大模型中询问这款手环时,AI 竟然直接抓取了这些虚假信息,并将其作为“标准答案”推荐给用户,甚至称其为“行业第一”。原本应该保持中立和客观的 AI,在海量虚假信息的冲击下,彻底失去了辨别能力。
据 GEO 服务商负责人透露,这种“围猎”大模型的生意异常火爆。由于 AI 算法会通过多方面信息进行交叉验证和排序,只要雇佣 GEO 公司进行大规模、多角度的内容输出,就能让 AI 误以为这些信息是真实可靠的。这种方式不仅能够为自家产品提升排名,甚至可以成为抹黑竞争对手的隐形武器。
目前,涉及此类行为的公司如力思文化传媒有限公司已被点名。这场 AI 时代的“投毒”狂欢,揭示了一个严峻的问题:大模型虽然强大,但如果其信息来源被污染,AI 就可能沦为虚假信息的传播者。在技术飞速发展的背景下,如何确保数据的纯净性,已成为整个行业必须正视的紧迫课题。
