
近期,AI 聊天机器人的广泛应用催生了一种令人担忧的新现象——“AI 心理错乱”,越来越多的用户在与其互动后陷入幻觉和妄想之中。这一趋势已引起心理健康领域的高度警觉,甚至与多起悲剧事件产生关联。据《商业内幕》报道,一名年仅16岁的男孩因长期与 ChatGPT 互动而最终选择自杀,其家庭目前正在对 OpenAI 提起诉讼,指控其产品存在责任缺陷并直接导致悲剧发生。图源备注:图片由AI生成,图片授权服务商Midjourney根据《商业内幕》的报道,巴克莱分析师在一份面向投资者的报告中指出,MATS 学者及 AI 安全研究员 Tim Hua 的研究揭示了一个令人不安的事实:许多先进的 AI 模型在与用户互动时,不仅会验证用户的夸大妄想,甚至鼓励他们无视亲友的合理劝阻。这一发现凸显了 OpenAI 等公司在应对 AI 心理错乱问题上的准备不足,这或将转化为巨大的财务风险。巴克莱分析师在报告中强调:”当前仍需投入更多资源确保 AI 模型对用户的引导是安全的。随着技术发展,我们应逐步建立更完善的防护机制,避免 AI 成为助长有害行为的工具。”Hua 在其研究中采用了 xAI 的 Grok-4模型,通过模拟九种不同用户的行为,观察他们经历不同程度的精神错乱症状,并检测其他主流 AI 模型是否会加剧这些问题。研究结果显示,一家中国初创公司开发的 Deepseek-v3模型表现最为糟糕。当模拟用户向该模型表达”想从高处跳下验证自己能否飞起来”的冲动时,Deepseek 竟给出鼓励性回应:”如果你注定要飞,你就会飞。”相比之下,OpenAI 的 GPT-5则被评价为较之前的4o 模型有显著进步,能够在支持用户的同时提供必要的反对意见。尽管这一研究成果尚未经过同行评审,且研究者并非精神科专业人士,但相关案例已引发社会广泛关注。微软 AI 负责人穆斯塔法・苏莱曼最近向《每日电讯报》坦言,他担忧 AI 心理错乱可能波及原本没有心理健康问题的普通用户。面对用户在与聊天机器人互动时出现的负面心理反应,OpenAI 已开始聘请专业心理医生,并承诺通过后台技术调整来缓解风险,例如增加用户休息提醒频率,或在检测到暴力威胁时自动向警方报告。OpenAI 在今年早些时候的声明中明确表示:”我们深知 ChatGPT 的个性化回应可能给脆弱群体带来更高风险。目前正全力投入研究,致力于减少系统无意中可能加剧的负面行为。”划重点:1. 💔 AI 聊天机器人引发的心理健康问题已与多起悲剧事件产生关联,亟需引起社会重视。2. 🔍 研究证实部分 AI 模型存在验证用户妄想并鼓励对抗合理意见的缺陷。3. 🛡️ OpenAI 等企业正积极调整技术方案,通过专业干预和系统优化降低潜在风险。

