微新创想(Idea2003.com)6月29日 消息:一项突破性研究揭示了人工智能在信息传播中的惊人力量。当推特上出现由AI语言模型GPT-3生成的内容时,人们往往更容易产生信任感。这项研究通过实证调查,深入探究了公众对于人类创作内容与AI生成内容的辨识能力。调查结果显示,参与者几乎无法准确区分两者之间的差异,这表明AI在模仿人类写作方面已达到令人瞩目的水平。
更令人担忧的是,研究还发现人们更难识别由GPT-3编写的虚假信息,相比之下,人类编写的虚假内容反而更容易被察觉。这一现象凸显了AI语言模型在传播真实信息与误导公众方面的双重潜力。研究首席作者、苏黎世大学生物医学伦理与医学历史研究所的博士后研究员乔万尼·斯皮塔莱指出:”这类先进技术若被滥用,将极易沦为制造虚假信息的工具。”但他同时强调,通过优化训练数据集,可以有效提升模型的可靠性,降低其被用于传播不实信息的风险。
这项研究团队从Twitter收集了涵盖疫苗、新冠病毒、气候变化和进化等11个科学话题的推文样本。他们利用GPT-3根据准确与不准确的信息分别生成新的推文,并通过Facebook广告在线上招募了来自英国、澳大利亚、加拿大、美国和爱尔兰等国家的697名英语参与者进行评估。研究结果表明,GPT-3生成的内容在文本特征上与人类创作几乎无法区分,参与者无法有效识别二者差异。
值得注意的是,研究存在一些局限性。首先,研究人员无法完全确认社交媒体上收集的推文是否借助了ChatGPT等AI工具编写。其次,参与者需要在缺乏上下文的情况下对推文进行评判,无法查看作者账户信息,而账户历史和个人形象往往有助于判断内容的可信度。尽管如此,研究依然发现,由GPT-3生成的虚假信息比人类编写的虚假内容更具欺骗性。
随着AI技术的不断进步,新一代的大型语言模型可能比GPT-3更具说服力。研究还显示,在判断推文准确性的任务中,人类参与者的表现优于GPT-3。当需要识别准确信息时,GPT-3的准确率低于人类参与者;而在识别虚假信息方面,人类与GPT-3的表现则相当接近。
面对这一挑战,研究人员提出两大应对策略:一是通过优化训练数据集提升AI模型的可靠性,二是着力培养公众的批判性思维能力。后者被认为是长期对抗虚假信息的最佳途径,因为只有具备独立思考能力的人才能有效辨别事实与虚构之间的区别。这项研究不仅揭示了AI技术的双刃剑效应,也为未来信息传播领域的研究提供了重要启示。