2026年1月,欧盟委员会正式对埃隆·马斯克旗下社交平台X展开全面调查,起因是其AI聊天机器人Grok被曝生成并传播大量涉嫌儿童色情的深度伪造图像。此次调查范围覆盖欧盟全部27个成员国,核心焦点在于核查X平台是否严格遵守《数字服务法案》的相关规定,在内容风险评估与风险缓解措施方面是否做到充分到位。数字事务专员安塔里·维尔库宁在声明中明确指出,此类深度伪造的儿童色情内容属于严重暴力人格贬损,必须予以严厉打击。
此前X平台曾因违反《数字服务法案》相关规定,已被欧盟处以高达1.2亿欧元的巨额罚款。此次调查的启动,无疑进一步加剧了X平台在欧洲市场的合规压力。英国、法国、印度等多个国家的监管机构也同步启动了相关审查程序,形成多国联合监管的态势。面对外界的质疑与调查,X平台方面回应称,已迅速采取行动移除所有非法内容,并全力配合相关执法部门的调查工作。然而,这场风波再次凸显了人工智能技术发展过程中,内容监管与风险控制的严峻挑战,也引发了全球范围内对AI伦理与平台责任的深度思考。
