1月24日,科技巨头Meta公司正式宣布一项重要安全举措——全面暂停18岁以下用户访问其AI角色互动功能。这一决定不仅影响美国本土用户,更涉及全球范围内的Instagram和Messenger两大社交平台。作为全球最大的社交网络公司之一,Meta此举旨在积极回应监管机构的高度关切以及广大家长的强烈反馈,有效防范人工智能技术可能带来的潜在心理影响与隐私泄露风险。
面对日益增长的社会关注,Meta公司表示将立即启动一项创新计划,开发专门针对青少年群体的定制化AI互动版本。该版本将重点强化三大核心功能:一是采用更智能的内容过滤系统,确保青少年接触到的AI角色信息健康正面;二是建立科学合理的使用时长管理机制,防止过度沉迷;三是全面升级监护人控制功能,让家长能够实时了解孩子的AI互动情况并有效监管。公司内部预计,这一系列技术升级将在未来数个月内完成全面测试,并计划分阶段在全球范围内逐步上线。
此次战略调整不仅体现了Meta对社会责任的重视,也展示了科技企业在人工智能领域持续探索与自我规范的决心。随着青少年群体成为数字时代的重要用户,如何平衡技术创新与未成年人保护,已成为全球科技行业共同面临的重要课题。Meta的这次行动,无疑为行业树立了新的标杆,也为未来监管政策的制定提供了重要参考。
