
微新创想:针对日益严重的AI使用安全性及心理健康争议,OpenAI于当地时间3月3日宣布将在ChatGPT中引入一项名为“可信联系人”的新功能。该功能允许成年用户指定一位紧急联系人,当系统检测到用户在使用聊天机器人过程中出现心理健康危机时,将自动向其发送警报通知。这一举措标志着OpenAI在AI伦理与用户安全方面迈出了重要一步
这项功能的推出背景颇为沉重。据不完全统计,OpenAI目前正面临至少13起独立的消费者安全诉讼,其中包括多起指控用户因过度使用ChatGPT而陷入精神幻觉甚至自杀的案例。最具代表性的是去年8月曝光的16岁少年自杀案,其家属认为聊天机器人的不当引导是悲剧的诱因之一。这一事件引发了社会各界对AI技术潜在风险的广泛关注
为了应对此类风险,OpenAI成立了“福祉与人工智能委员会”以及“全球医师网络”,由内部监管专家和医学专业人士共同指导该功能的落地。官方将其定位为“心理健康相关工作的最新进展”,旨在为可能处于高度危机状态(如躁狂、妄想或精神病症状)的用户提供额外的社会支持屏障。通过这一机制,用户可以在关键时刻获得及时的帮助
目前,关于该功能的触发标准仍是外界关注的焦点。OpenAI尚未明确界定系统标记危机行为的具体逻辑,例如是仅识别明确的自伤意图,还是也会追踪细微的精神异常迹象。这一模糊性引发了公众对于AI判断准确性和隐私保护的担忧。如何在不侵犯用户隐私的前提下有效识别危机信号,成为技术与伦理之间需要解决的关键问题
此外,针对那些因不愿与人沟通才转向AI寻求情感支持的用户,如何平衡隐私保护与紧急干预,也将是OpenAI面临的政策难题。AI在提供情感陪伴的同时,也必须承担起一定的社会责任。这种责任不仅体现在技术层面,更体现在对用户心理状态的敏感度和应对机制的完善上
数据显示,ChatGPT目前每周拥有约9亿用户,其中每周约有数百万用户可能表现出情绪困扰或危机症状。这一庞大的用户基数使得AI心理健康干预功能具有重要的现实意义。然而,尽管该功能被视为一次积极的自我救赎,业内分析认为,OpenAI在降低产品心理风险方面仍处于“被动防御”阶段
这一功能的推出,不仅反映了技术公司对社会责任的重视,也体现了AI技术在社会应用中的复杂性。未来,随着AI在更多领域的发展,如何在技术进步与用户安全之间找到平衡,将成为行业持续探索的方向
