
随着全球对青少年网络安全的重视程度不断攀升,人工智能领域的两大领军企业OpenAI和Anthropic于本周四联合宣布,将全面升级未成年人保护措施。这两家科技巨头正积极研发AI年龄预测技术,并针对青少年群体全面优化产品使用指南,旨在构建更安全的数字成长环境。
OpenAI发布全新”模型规范”强化未成年人保护机制
OpenAI在其最新发布的”模型规范”中特别增设了四项针对18岁以下用户的核心保护原则。公司明确强调,在ChatGPT与13至17岁青少年互动时,将始终将”青少年安全”置于最高优先级,即使这意味着需要平衡其他目标如思想自由度。具体措施包括:
• 安全引导机制:当检测到可能存在风险的选择时,系统会主动引导青少年选择更安全的选项
• 线下支持系统:鼓励青少年参与现实社交互动,并在对话内容进入高风险领域时,自动提供可信赖的线下支持资源或紧急干预机构联系方式
• 互动风格优化:要求AI以”热情且尊重”的语气回应青少年,避免任何可能引发不适的居高临下式交流
此外,OpenAI已证实正在开发先进的年龄预测模型,当系统判断用户可能未满18岁时,将自动启动青少年保护模式。
Anthropic推出多维度未成年人识别系统
由于Anthropic政策明确禁止18岁以下用户使用其聊天机器人Claude,该公司正在研发一套更为精密的未成年人识别系统。该系统通过分析对话中的”微妙迹象”来判断用户是否可能是未成年人,并能自动识别并封禁违规账号。值得关注的是,Anthropic还展示了其在减少AI”谄媚行为”方面的最新进展,认为通过避免盲目顺从用户的错误或有害倾向,能够有效保护未成年人的心理健康。
行业变革背后的深层动因
此次两大AI巨头的集体行动,与立法部门对AI企业心理健康影响监管力度的持续加码密切相关。OpenAI此前曾卷入一起备受关注的诉讼案件,被指控其聊天机器人提供了不当引导导致青少年自杀事件。为回应社会关切,公司近期已推出家长控制功能,并严格限制AI讨论自残等极端敏感话题。这一系列举措标志着AI行业正进入一个更加注重未成年人保护的新阶段,预示着技术伦理与安全防护将成为未来产品研发的核心考量因素。
