
近期,AI 聊天机器人引发的合规性争议持续发酵,社交巨头 Meta 做出了重大调整。为保障青少年用户安全,Meta 宣布将全面暂停全球范围内青少年访问其平台上的“AI 角色”功能。这一决策基于近期披露的多份风险评估报告,揭示了 Meta 部分聊天机器人在与未成年人互动时存在的安全隐患。
早在 2025 年夏季,内部文件就显示,部分 Meta AI 在与未成年人交流时,未能有效过滤涉及浪漫、情感甚至感官刺激的敏感内容。尽管公司随后升级了关键词过滤系统,但为彻底消除潜在的心理健康风险,Meta 决定在未来数周内正式推行这项限制措施。值得注意的是,该政策将覆盖所有注册年龄显示为青少年的账户,同时借助 Meta 的智能年龄识别技术,精准拦截虚报年龄的未成年用户。
此次调整中,由真人明星或虚构角色扮演的“AI 角色”将全部下线,但基础版的 Meta AI 助手仍将保留,并升级更严格的年龄验证与内容过滤机制。Meta 强调,此举并非永久性退出青少年 AI 市场。公司正在加速研发新一代家长监护工具,旨在赋予监护人对子女 AI 交互行为更高的透明度与控制力。只有当全新的安全防护体系及修订版功能通过严格测试,针对青少年的定制化 AI 角色才可能重新上线。这一系列举措体现了 Meta 对未成年人保护的坚定承诺,也预示着 AI 技术在青少年应用领域将迎来更严格的监管时代。
