微新创想(idea2003.com)9月14日 消息:近年来,大规模语言模型在众多下游任务中展现出卓越性能,但同时也面临着严峻挑战。其中,大模型生成的与事实相悖的“幻觉”内容已成为学术界的研究焦点。近期,腾讯 AI Lab 联合国内外多家顶尖学术机构共同发布了关于大模型幻觉的全面综述,深入探讨了幻觉的评估方法、溯源机制以及缓解策略。论文链接:https://arxiv.org/abs/2309.01219Github 链接:https://github.com/HillZhang1999/llm-hallucination-survey
研究者根据大模型幻觉的表现形式,将其与用户输入、模型生成内容及事实知识之间的冲突分为三大类。目前,学术界的研究重点主要集中在与事实知识冲突的幻觉上,因为这类幻觉最容易对用户产生误导,影响信息传播的准确性。与传统语言生成任务中的幻觉问题相比,大模型幻觉呈现出数据规模巨大、模型通用性强以及幻觉现象不易被察觉等新特征,为研究带来了新的挑战。
在评估大模型幻觉方面,研究人员已提出多种生成式和判别式的基准测试,通过问答、对话等不同任务形式检验模型的幻觉倾向。这些基准测试设计了相应的判定指标,但可靠的自动评估方法仍需进一步探索。分析表明,海量低质训练数据以及模型对自身能力的高估是导致幻觉现象的重要原因。
为了有效减少幻觉,研究人员从预训练、微调、强化学习等多个阶段入手进行干预。在预训练阶段,可通过提升语料质量来降低幻觉发生的概率;在微调阶段,人工检查数据可以有效识别并修正潜在的错误;在强化学习阶段,通过惩罚过度自信的回复,引导模型生成更可靠的内容。此外,在推理阶段,还可以通过优化解码策略、引入知识检索机制以及测量不确定度等方式,进一步缓解幻觉现象。
尽管近年来取得了一定的研究进展,但在可靠评估、多语言场景应用以及模型安全性等方面仍面临诸多挑战。总体而言,大模型幻觉的评估与缓解仍需深入研究,以推动大模型在实际应用中的可靠性和有效性,促进人工智能技术的健康发展。