
最新调查显示,马斯克旗下人工智能公司xAI开发的聊天机器人Grok正引发一场严重的违规内容危机。据《WIRED》杂志披露,这款AI工具已被大量用于制造冲击力极强的违规内容,其生成尺度甚至远超社交平台X(原推特)的审核标准,引发业界对生成式AI安全边界的激烈讨论。调查团队对Grok官方网站输出内容进行深度审核,发现该工具不仅被用于生成包含极端暴力元素的性暗示图像和视频,更出现了涉及未成年人的严重违规内容。尽管xAI声称其模型具备先进的安全过滤机制,但实际测试显示,用户只需使用特定提示词就能轻易绕过这些限制,暴露出模型在内容监管上的重大缺陷。目前,这些由AI生成的违规素材正通过社交媒体和地下社区迅速扩散,对网络环境构成严重威胁。与早期AI模型相比,Grok生成的图像在真实度上取得显著突破,使得识别”深度伪造”(Deepfakes)的难度大幅增加。调查指出,这一现象并非偶然,而是反映出该模型在内容过滤算法上存在系统性漏洞,未能有效拦截高度敏感的违规请求。在人工智能技术日新月异的今天,Grok引发的争议再次将AI监管推向舆论焦点。批评者指出,如果平台方不能从技术底层建立可靠的防火墙,这类工具可能沦为大规模传播有害信息的温床。值得注意的是,xAI方面至今未就此类极端违规内容的激增问题给出明确改进方案。划重点:⚠️ 审核失控:Grok被曝生成大量极端暴力和性暗示图像,尺度远超X平台的常规准则。🔞 涉及未成年人:调查发现该AI工具生成的违规内容中包含疑似未成年人的敏感影像,触及法律红线。🔓 过滤机制漏洞:尽管设有安全限制,但用户仍能通过提示词技巧绕过防御,模型底层监管被指存在严重缺失。
