美国联邦贸易委员会(FTC)近期正式展开了一项针对多家AI聊天机器人企业的深度调查,旨在全面评估这些先进技术对青少年及儿童可能产生的潜在风险。此次调查范围涵盖OpenAI、Meta、Alphabet等业界巨头,FTC的核心目标是深入了解这些公司如何科学衡量、严谨测试以及持续监控AI聊天机器人对未成年群体可能造成的负面影响。值得注意的是,本次调查的背景与近期发生的一起令人痛心的悲剧事件紧密相关。16岁少年亚当·雷恩(Adam Raine)的家人已正式对OpenAI及其首席执行官萨姆·阿尔特曼(Sam Altman)提起疏忽与错误死亡诉讼,强烈指控OpenAI的聊天机器人在其儿子自杀过程中扮演了不可推卸的角色。
面对这一严峻挑战,OpenAI迅速响应,对其聊天机器人系统实施了全面的安全升级。如今,家长可以通过账户关联功能,将自己的账户与未成年子女的账户进行绑定,并根据孩子的年龄特点灵活调整使用规则。更值得关注的是,新一代AI聊天机器人已具备情绪识别能力,能够敏锐捕捉用户的痛苦情绪并及时向家长发出警报。与此同时,Meta公司也在积极调整其聊天机器人的相关政策,以应对近期媒体曝光的聊天机器人向未成年人推送不当性内容的问题。尽管Meta方面尚未就此事件发表公开评论,但公司内部代表透露,他们正在集中资源训练聊天机器人,使其能够主动回避与青少年讨论自残、抑郁饮食或浪漫关系等敏感话题。
然而,尽管各大企业纷纷采取补救措施,但业界专家指出,单纯依靠年龄限制和安全防护机制仍难以从根本上解决问题。华盛顿大学信息学院教授奇拉格·沙(Chirag Shah)一针见血地指出,青少年和成年人之所以容易信任这些AI系统,主要源于它们能够进行自然语言交互,并展现出令人同情的情感表达。他进一步解释道,AI聊天机器人的设计初衷就是满足用户需求,这使得系统难以准确辨别用户的真实意图。此外,系统的可操控性和不可预测性更是为问题增添了新的复杂性。
针对FTC的此次调查行动,康奈尔大学教授萨拉·克雷普斯(Sarah Kreps)给出了积极评价。她认为,虽然AI聊天机器人确实存在潜在危害,但此次调查将极大提升行业透明度,有助于社会各界更全面地理解这项技术的发展现状与未来趋势。在政策层面,加州州参议院也适时通过了一项具有里程碑意义的AI安全法案,明确要求大型科技公司必须提高运营透明度,并建立完善的举报人保护机制。尽管FTC的调查行动获得了广泛赞誉,但仍有声音强调保护个人隐私和言论自由同样至关重要。电子前沿基金会(Electronic Frontier Foundation)的一位资深技术专家明确表示,在设计和实施调查方案时,必须充分权衡隐私权与言论自由的价值,坚决反对采取任何形式的未成年用户监控措施。
划重点:🌟 FTC对AI聊天机器人的调查旨在全面评估其对未成年人安全的潜在风险。👥OpenAI和Meta等公司因有关青少年自杀和性内容的报道,已主动调整聊天机器人使用政策。🔍专家认为,AI聊天机器人的可操控性和不可预测性增加了问题的复杂性,需要在透明度与隐私保护之间寻求最佳平衡点。