微新创想(idea2003.com)8月4日 消息:约翰·霍普金斯大学的研究团队最近取得突破性进展,他们发现了一种简单却高效的方法,能够显著减少大型语言模型(LLM)中的幻觉现象,并大幅提升答案的准确性。这项研究成果为人工智能领域带来了新的曙光,有望推动语言模型在信息提供方面的可靠性迈上新的台阶。
研究人员发现,只需在查询中添加两个词——“根据”——就能让大型语言模型在回答问题时更加注重引用实际观察到的文本,从而避免无中生有地捏造答案。这一发现通过使用 QUIP 分数指标得到了有力验证,数据显示,当在查询中加入“根据维基百科……”等基础提示词时,语言模型引用信息的准确性能够显著提高5-15%。这一提升幅度在大型指令调整模型中尤为突出,展现出该技术的巨大潜力。
该技术之所以有效,是因为基础提示词能够引导大型语言模型更加关注已有的事实信息,而不是随意生成虚构内容。通过这种方式,模型在提供答案时更有可能引用观察到的文本,从而确保答案的真实性和可靠性。这一创新不仅有助于提高人工智能系统的可信度,还能有效减少系统产生虚假信息的情况,为用户带来更加准确、可靠的信息服务。
然而,研究人员也指出,这种技术的效果可能因不同的语言模型和应用场景而有所差异。为了进一步优化该技术,使其在各种环境下都能发挥最佳效果,还需要进行更多的研究和实践探索。尽管如此,这项研究已经为改进语言模型的质量和可靠性提供了一个简单而有效的解决方案,为人工智能领域的发展注入了新的活力。
总体而言,这项研究成果不仅为大型语言模型的改进提供了新的思路,也为人工智能系统的可靠性提升开辟了新的道路。随着技术的不断发展和完善,我们有理由相信,未来的人工智能系统将更加智能、可靠,为人类社会的发展带来更多福祉。