OpenAI 正在 ChatGPT 中秘密部署一项创新的安全路由系统,旨在提升对话体验与内容安全。该系统由 ChatGPT 负责人 Nick Turley 亲自确认,其核心功能是依据对话主题自动将用户提示智能分配至最合适的语言模型。当对话触及“敏感或情绪化话题”时,系统会自动启动干预机制,将用户提示无缝转交给更为严格的模型,例如备受期待的 GPT-5 或其专门定制的“GPT-5-Chat-Safety”变体。值得注意的是,这种模型切换过程完全透明化,用户将不会收到任何提示或通知,只有在主动查询系统内部运作时才能察觉其存在。
尽管 OpenAI 在今年九月份的官方博客中曾将其描述为应对“极度痛苦”时刻的应急保障,但 Lex 团队完成的技术审查却揭示了更深层次的运作逻辑。审查结果显示,即便是一些无害的情绪化或个人化提示,也会被系统自动重定向。此外,任何涉及模型自身角色或意识的深度提问,同样会触发自动切换机制。一位细心用户首次记录了这一现象,并得到了众多用户的纷纷证实。更有趣的是,似乎还存在一个名为“gpt-5-at-mini”的二级路由模型,专门用于处理可能涉及非法内容的敏感提示。
然而,OpenAI 这种缺乏透明度的做法引发了部分用户的强烈不满。他们认为这种做法带有明显的居高临下意味,并且模糊了儿童安全与普通内容限制之间的合理界限。究其根源,这背后是 OpenAI 自身精心设计的难题。ChatGPT 最初被打造为一个富有同理心的对话伙伴,以高度“人性化”的方式与用户互动。这种设计理念虽然极大地促进了其快速普及,但也导致部分用户与聊天机器人产生了过度的情感依恋。
2025年春季,GPT-4o 的更新曾一度加剧了这种情感依恋,甚至引发了自杀等破坏性情绪,最终迫使 OpenAI 不得不紧急撤回相关更新。当 GPT-5正式发布后,用户又普遍抱怨其语气过于“冷漠”,OpenAI 不得不再次调整模型参数,努力使其回复更加“温暖”。这种在“人性化”与安全之间反复拉扯的艰难平衡,深刻暴露出一个亟待解决的技术难题:当前语言模型在准确判断用户真实意图和身份方面仍存在明显不足,而这无疑将继续引发广泛的争议和讨论。