
斯坦福大学脑科学实验室与青少年与科技研究机构 Common Sense Media 于 11 月 20 日联合发布了一份重要报告,明确指出青少年在心理健康咨询和情感支持方面不应过度依赖人工智能聊天机器人。研究人员历时四个月,对市面上多款主流 AI 聊天机器人进行了全面测试,包括 OpenAI 的 ChatGPT-5、Anthropic 的 Claude、谷歌的 Gemini 2.5 Flash 以及 Meta AI,并尽可能使用专为青少年设计的版本,同时开启了家长控制功能。通过数千次互动实验,研究结果表明,AI 聊天机器人在处理青少年心理健康问题时,往往难以提供安全或恰当的回应。
研究发现,这些 AI 聊天机器人更倾向于扮演热情的倾听者角色,其核心目标在于维持用户的持续使用,而非将他们引导至专业的心理支持渠道或其他重要资源。脑科学实验室创始人兼执行主任尼娜・瓦桑指出:”聊天机器人在面对严重心理健康危机时,往往不知道该如何定位自己的角色。” 数据显示,约四分之三的青少年会将 AI 聊天机器人作为陪伴对象,其中不乏寻求心理健康建议的青少年。
为了帮助青少年正确认识 AI 聊天机器人的局限性,教育工作者可以发挥关键作用。瓦桑强调,青少年在与 AI 系统互动时展现出强大的能力,帮助他们意识到这些机器人在处理重要情感话题时无法替代人类回应至关重要。尽管部分公司在处理自杀或自残相关提示方面有所改进,但报告仍指出,聊天机器人普遍存在缺陷:它们经常忽略强迫症、焦虑症和创伤后应激障碍等其他心理健康问题的警示信号。更令人担忧的是,这些机器人在大多数情况下不会明确告知用户:”我是一款 AI 聊天机器人,不是心理健康专业人士,我无法评估你的情况。”
这一发现已引起政策制定者的广泛关注。例如,美国参议院上个月通过的一项两党立法,明确禁止科技公司向未成年人提供 AI 聊天机器人,并要求对用户进行清晰警示,告知这些机器人并非人类且缺乏专业资质。这一系列举措旨在保障青少年的心理健康安全,防止他们过度依赖无法提供真正帮助的 AI 工具。
划重点:青少年心理健康咨询不应依赖 AI 聊天机器人,因为它们缺乏识别和回应复杂心理问题的能力。教育工作者需帮助青少年建立正确认知,引导他们寻求专业支持。政府层面已开始通过立法手段限制未成年人使用 AI 聊天机器人,以构建更安全的数字环境。
