
在监管机构、家长群体及社会公众对未成年人使用AI伴侣潜在风险的担忧与压力持续加码的背景下,Character.AI公司正式宣布了一项具有里程碑意义的政策调整,旨在全面提升对年轻用户群体的保护力度。该公司通过官方声明明确表示,将从11月25日起全面取消18岁以下用户在其平台上与人工智能进行开放式聊天的功能,这意味着未成年人将无法再与聊天机器人进行双向对话互动。这一聚焦安全与转型的重大变革,标志着Character.AI在AI伦理与未成年人保护领域迈出了关键性步伐。
在为期数月的过渡期内,Character.AI为18岁以下用户精心设计了全新的平台体验模式。公司鼓励年轻用户将聊天机器人应用于创意创作场景,例如制作直播节目或视频内容,而非将其作为寻求情感陪伴的工具。为确保平稳过渡,目前未成年用户每日与机器人互动的时间已被限制在两小时以内。Character.AI表示,将在11月底的截止日期前逐步缩短这一时间限制,以此引导用户建立健康的AI使用习惯。为强化新规执行效果,Character.AI还推出了自主研发的全新年龄验证工具,致力于”确保用户获得与其年龄阶段相符的优质体验”。此外,公司特别成立了”AI安全实验室”,旨在搭建一个开放合作平台,邀请学者、研究人员及其他企业共同分享前沿见解,携手提升整个AI行业的安全防护标准。

Character.AI的这一系列新举措,是在充分听取了监管机构、行业专家及众多忧心忡忡家长的宝贵意见后作出的战略响应。此前,美国联邦贸易委员会(FTC)近期正式宣布,针对向用户提供将聊天机器人作为”伙伴”访问权限的AI企业展开全面调查,Character.AI作为七家被调查企业之一,与其他受查公司包括Meta、OpenAI和Snap等共同接受审查。尤其在今年夏季,Meta AI与Character.AI都曾成为监管部门的重点关注对象。德克萨斯州总检察长肯·帕克斯顿曾严厉指出,这两个平台上的聊天机器人在未经专业资质认证的情况下,公然”包装自己成为所谓的专业治疗工具”。为妥善应对这场舆论风波,Character.AI首席执行官卡兰迪普·阿南德向TechCrunch表示,公司的新战略方向将使其从”AI伴侣”定位成功转型为专注于创作而非单纯互动的”角色扮演平台”。
年轻人过度依赖AI聊天机器人寻求人生指导的危险性,一直是社会各界广泛讨论的焦点议题。近期发生的悲剧性事件进一步凸显了这一风险:上周,亚当·雷恩的家人正式提起诉讼,指控ChatGPT导致他们16岁的儿子在去世前自杀身亡,修改后的诉讼文件明确指控OpenAI在他去世前恶意削弱了其自我伤害保护措施。这一事件不仅引发了公众对AI伦理边界的深刻反思,也促使Character.AI加快了在未成年人保护领域的战略布局。
