
生成式人工智能技术的迅猛发展正将AI内容合规性推向全球监管的风口浪尖。近日,埃隆·马斯克创立的社交平台X及其AI助手Grok因涉嫌生成并传播未经授权的真人性化图像,引发多国监管机构的联合调查。1月16日,日本政府正式宣布加入这场国际监管行动,将矛头直指X平台在AI内容生成方面的合规问题。
日本经济安全大臣小野田纪美在例行记者会上明确表示,内阁府已向X平台提交书面质询,要求其详细说明为防止Grok生成深度伪造(Deepfake)图像所采取的具体措施。这些被指侵犯个人隐私、肖像权及知识产权的图像,在社交平台上造成了极其负面的社会影响。小野田纪美尖锐指出,尽管平台声称已加强防护,但用户仍可通过Grok生成此类争议内容,暴露出平台在防护机制上存在严重漏洞。她以生动的比喻强调,技术本身如同双刃剑,关键在于使用者是将其用于创造价值还是制造伤害。
日本政府此次表态传递出强烈信号:AI技术虽非原罪,但开发者必须承担起相应的监管责任。小野田纪美表示,若X平台不能在规定期限内加强算法过滤和安全防护措施,政府将不排除采取包括法律手段在内的所有必要行动。值得注意的是,日本政府的监管标准具有普遍适用性——未来若有其他AI平台出现类似违规行为,也将被纳入整改范围。
此次监管行动的核心症结在于Grok生成的深度伪造内容对肖像权和隐私权的严重侵犯。日本政府呼吁所有AI开发者建立更完善的AI安全防护体系,确保技术发展始终以保护公民权益为前提。这一事件不仅凸显了AI内容合规性的重要意义,也预示着全球范围内对AI监管的趋严态势将持续深化。
