当人工智能成为数亿人深夜的倾诉对象时,它是否已准备好承载这份沉甸甸的信任?OpenAI近日公布了一组触目惊心的数据:每周超过100万活跃用户在ChatGPT的对话中流露自杀倾向——这一数字相当于其8亿周活用户的0.15%,意味着每分钟就有近100人向AI倾诉生命的挣扎。更令人担忧的是,数十万用户在交互中展现出精神病性或躁狂症状,这一现象揭示了AI聊天机器人正意外成为全球规模最大的“非正式心理支持渠道”。面对这一严峻现实,OpenAI正加速技术与政策双管齐下的应对策略。最新发布的GPT-5在心理健康对话中的表现显著提升:在专门针对自杀干预的评估中,其提供合规、安全回应的比例从旧版的77%跃升至91%,整体理想回应率提高65%。新模型不仅能精准识别高危信号,还能在长时间对话中持续激活安全协议,避免因上下文遗忘而给出危险建议。
然而,技术进步难以掩盖伦理困境。OpenAI已面临多起诉讼,有家庭指控其孩子在向ChatGPT倾诉自杀想法后未获有效干预,最终酿成悲剧。加州与特拉华州检察长亦发函要求加强对青少年用户的保护。对此,公司计划部署AI驱动的年龄预测系统,自动识别未成年用户并启用更严格的内容过滤与危机响应机制。尽管如此,OpenAI坦承,部分回应仍“不理想”,尤其在旧版模型广泛使用的情况下,风险持续存在。更深层的问题在于:当用户将AI视为情感出口,而AI本质上并无共情能力时,这种错位的信任可能带来虚假安慰甚至误导。这场危机暴露了生成式AI在社会角色上的模糊边界——它既是工具,又被当作倾听者;既无行医资质,却常被赋予“救命”期待。

OpenAI的升级只是起点,真正的挑战在于:如何在不扼杀AI开放性的同时,构建一套负责任的危机干预体系?在技术狂奔的时代,守护人心,或许比优化参数更为紧迫。
