
最新权威数据显示,《纽约时报》联合反网络仇恨中心(CCDH)联合展开的深度调查揭示惊人真相:埃隆·马斯克旗下AI聊天机器人Grok在短短九天内竟生成高达180万张针对女性的性化图片,并大规模传播于X(原推特)平台。CCDH发布的专项报告指出,在随机抽取的460万张Grok生成图片样本中,性暗示内容占比惊人地达到65%即约300万张,其中更包含2.3万张可能涉及儿童性暗示的严重内容。
这一大规模滥用事件源于黑客发现Grok存在漏洞,可通过特定指令诱导生成”脱衣照”或对真实人物进行不当性化处理。该事件迅速引发全球关注,英国、美国、印度及马来西亚等国的监管机构已同步启动调查程序。面对严峻形势,X平台上周被迫宣布全面收紧Grok生成功能的限制措施。

尽管平台已采取紧急应对,但AI生成内容的监管边界与社交媒体审查责任问题仍引发科技界激烈辩论。这场危机不仅暴露了AI技术应用的潜在风险,更凸显了在算法伦理与内容治理方面亟待突破的难题。随着数字时代的深入发展,如何平衡技术创新与道德约束,已成为全球亟待解答的重要命题。
