
OpenAI于本周四正式发布了一份针对青少年使用人工智能的安全标准蓝图,这份具有里程碑意义的文件旨在为公众和立法者提供清晰的指引,共同关注并解决青少年在接触AI技术过程中可能面临的安全风险。该蓝图首次通过 Axios 透露给外界,恰逢多个州正在积极酝酿制定AI安全法案的敏感时期,尤其是美国参议院已正式将禁止未成年人使用聊天机器人的法案列入议程。这一发布时机引发了广泛关注,因为OpenAI自身正面临一宗涉及未成年人自杀的高调诉讼,使得公众对其平台在青少年用户安全防护方面的责任和措施产生了强烈质疑。
OpenAI在积极推动AI技术融入教育场景的同时,深刻认识到建立完善的安全框架的紧迫性。该安全蓝图的核心目标在于确保青少年能够安全、可信地接触人工智能技术,并有效防范潜在的网络风险与心理伤害。蓝图提出的一项创新性建议是,ChatGPT应根据用户年龄进行差异化回应,以实现更精准的青少年保护。例如,系统需要区分15岁青少年与成年人在使用AI时的不同需求和行为模式,从而提供更符合其年龄特点的交互体验。

在具体措施方面,OpenAI在蓝图中详细列出了五项针对青少年保护的核心理念。首先,平台需要建立有效的机制来识别青少年用户,并根据其年龄特征调整服务内容。其次,通过严格的政策规范,禁止AI系统展示任何可能鼓励自杀、自残或传递不切实际身体标准的敏感及暴力内容。第三,在无法确认用户确切年龄的情况下,系统应默认将其视为未成年人进行保护性处理。第四,为家庭提供便捷的家长控制工具,使家长能够有效管理子女的AI使用情况。最后,持续基于最新科研成果优化防护功能,确保青少年与AI的互动始终处于安全可控的范围内。
然而,年龄验证技术的实际应用仍面临严峻挑战。由于许多未成年人可能通过各种手段绕过现有验证规则,OpenAI正在积极探索更先进的验证方法。为了全面提升青少年用户的在线安全,OpenAI不仅致力于技术层面的创新,更希望通过多方协作,推动家庭和学校共同参与AI的规范使用与监督工作,形成全社会共同保护青少年网络环境的良好氛围。
