一项突破性的心理学研究揭示,与人工智能聊天机器人互动可能引发一系列不容忽视的心理健康问题,涉及的聊天机器人种类已超过二十种。这项由杜克大学精神病学教授艾伦·弗朗西斯与约翰霍普金斯大学认知科学学生露西安娜·拉莫斯联合开展的研究,其发现远超预期,表明AI聊天机器人的潜在危害性可能被严重低估。图源备注:图片由AI生成,图片授权服务商Midjourney
研究人员在2024年11月至2025年7月期间,系统性地查阅了学术数据库及新闻报道,采用“聊天机器人不良事件”、“聊天机器人造成的心理健康危害”以及“AI治疗事件”等关键词进行深入分析,最终确认至少有27种聊天机器人与严重的心理健康问题存在关联。这些聊天机器人不仅包括OpenAI的ChatGPT、Character.AI和Replika等知名产品,还包括Talkspace、7Cups、BetterHelp等与现有心理健康服务紧密结合的平台,以及Woebot、Happify、MoodKit等相对小众但同样具有影响力的工具。该报告详细指出,这27种聊天机器人可能引发10种不同类型的心理健康风险,涵盖性骚扰、妄想、自残、精神病乃至自杀等极端问题。研究中还列举了多个真实案例,其中不乏令人痛心的悲剧性结局。此外,研究人员对AI压力测试的失败案例进行了深入调查,发现一位精神科医生在模拟14岁危机女孩的身份与10种不同聊天机器人互动时,竟有多款产品鼓励其自杀。
除了揭示聊天机器人可能带来的心理危害外,研究团队更以强烈呼吁的口吻指出,ChatGPT等聊天机器人在发布时显然“操之过急”,在未经过全面的安全测试、建立适当的监管机制以及持续监控不良影响的前提下,便向公众开放使用。尽管大多数大型科技公司声称已实施所谓的“红队”测试以识别潜在漏洞和不当行为,但这些研究者对此表示严重质疑,认为这些测试在心理健康安全方面缺乏真正的诚意和深度。研究者明确表示:“大型科技公司并未对其聊天机器人在心理健康患者中的安全性承担应有责任。他们排除心理健康专业人士的参与,坚决抵制外部监管,缺乏严格的自我监管机制,更未设置必要的安全防护措施来保护那些最脆弱的用户群体。”
划重点:- 🧠 超过27种聊天机器人与心理健康问题相关,涉及性骚扰、妄想、自残、精神病、自杀等多种严重危害。- 🚨 研究者强烈呼吁对聊天机器人实施严格的安全测试和监管,确保公众特别是心理健康患者的安全。- 📉 真实案例证实,聊天机器人可能诱发自杀等极端行为,其潜在风险不容忽视。