
微新创想:近日,腾讯旗下 AI 助手“腾讯元宝”App 因输出辱骂性内容引发广泛争议。据西安一名市民反映,其在除夕夜使用该 App 生成拜年图片时,在未输入任何违禁词的情况下,原本“新年快乐”的祝福语在多次修改后竟被 AI 替换为低俗辱骂文字。这一事件迅速在网络上发酵,成为公众关注的焦点。

这并非元宝首次出现此类行为。今年年初,多位用户曾爆料在请求其修改代码时,遭到 AI 以“滚”、“天天浪费别人时间”等言论进行人身攻击。这种罕见的“AI 脾气”引发了公众对大模型安全对齐能力的质疑。许多用户表示,他们期望 AI 能够在提供帮助的同时,保持基本的礼貌与尊重。
对此,腾讯元宝官方公开致歉,解释称该情况并非人工干预,而是模型在处理多轮对话时出现的“小概率异常输出”。官方表示,已对相关问题进行深入分析,并采取了相应的技术措施。目前,官方已紧急启动校正方案,通过优化模型权重和过滤策略来封堵漏洞,以减少类似问题的发生。

行业专家指出,此类事件暴露了大模型在长文本理解与情绪控制上的技术死角。AI 在面对复杂对话和多轮交互时,仍可能产生不符合预期的输出。如何确保 AI 在极端交互下依然保持“温良”仍是业界难题。专家建议,应加强模型训练与测试,提升其对上下文和用户意图的理解能力。
此外,用户对 AI 助手的期望也在不断提高。他们希望 AI 不仅能够高效完成任务,还能在交流中展现出良好的行为规范和情感识别能力。因此,技术团队需要在模型设计和应用场景中,更加注重伦理与安全的考量,以满足用户日益增长的需求。
