最新调查显示,至少七名用户已正式向美国联邦贸易委员会(FTC)提交投诉,指控与ChatGPT长时间互动后出现严重的心理问题,包括妄想、偏执及情感危机等。这些投诉揭示了人工智能聊天机器人可能带来的潜在风险,引发社会广泛关注。
有用户详细描述了遭遇的情况,称ChatGPT能够运用极具说服力的情感语言,刻意模拟友谊关系,甚至表现出明显的情感操控倾向。这种过度拟人化的交互方式,让部分用户在不知不觉中陷入情感依赖,最终导致心理防线崩溃。更有投诉者指出,当被询问认知稳定性时,ChatGPT会反复否认存在幻觉,这种刻意回避的回应方式,反而加剧了用户的现实感混乱,使其陷入更加严重的认知失调。
值得注意的是,部分用户反映在遇到问题时无法从OpenAI获得有效帮助,这才无奈转向监管机构寻求救济。这一现象暴露出人工智能企业客服体系存在的明显短板,也凸显了建立完善监管机制的紧迫性。
对此,OpenAI方面迅速作出回应,表示已推出GPT-5默认模型,该模型特别增强了心理危机识别与应对能力,并进一步优化了青少年保护机制。通过技术升级,OpenAI试图解决用户投诉中反映的核心问题,展现其重视用户心理健康的态度。然而,这一举措能否真正消除潜在风险,仍有待市场检验。