微新创想:一项覆盖美国、加拿大和英国三国的联合研究近日发表于《BMJ Open》期刊。该研究指出,包括ChatGPT、Gemini在内的五款主流AI模型在医疗咨询方面存在明显问题。测试结果显示,这些模型在回答健康相关问题时,约有50%的回答存在错误,其中近20%的错误属于严重级别。
研究团队围绕10个健康问题,从五大主题展开系统测试。结果显示,AI模型在处理开放式提问以及涉及干细胞、营养等专业领域的问题时,准确率显著下降。这表明当前主流AI模型在医疗领域的应用仍存在较大局限性。
值得注意的是,尽管AI模型在回答时语气较为肯定,但其内容往往缺乏可靠的医学依据和权威参考来源。这种现象可能导致用户对AI提供的医疗建议产生误解,甚至影响其健康决策。
研究还强调,AI模型本身不具备医疗资质,也缺乏临床判断能力。因此,若将其大规模应用于健康咨询场景,可能会加剧错误信息的传播,进而对公众健康造成潜在风险。
基于上述发现,研究呼吁加强公众对AI医疗咨询的认知教育,并推动相关监管机制的建立。只有在确保信息准确性和科学性的前提下,AI技术才能更好地服务于医疗健康领域。
