在新出台的法律框架下,英国的科技企业和儿童保护机构将获得授权,能够测试人工智能(AI)工具在生成儿童性虐待图像方面的能力。这一重要举措旨在通过预防性措施,从源头上遏制此类犯罪行为的发生。根据安全监管机构发布的最新报告,2025年AI生成的儿童性虐待材料(CSAM)报告数量较2024年激增至426件,较之前的199件翻了一番。这一数据凸显了问题的严重性,也促使政府加快了立法步伐。
此次法律变更的核心目标,是要求AI开发者在生产相关图像之前,必须对潜在风险进行严格检查和预防。英国政府的AI和在线安全部长卡尼什卡・纳拉扬强调,这项举措的目的是“在问题发生之前就遏制虐待”,确保AI技术的应用不会对儿童造成伤害。在新法律的授权下,特定的AI公司和儿童安全组织将被允许检查聊天机器人和图像生成器等AI模型,确保这些技术具备必要的安全防护措施,防止它们生成儿童性虐待图像。
此次法律变化作为《犯罪与警务法案》的修正案推出,不仅授权了检测AI工具生成儿童性虐待图像的能力,还明确禁止拥有、创建或传播旨在生成此类材料的AI模型。纳拉扬部长在访问儿童热线时,倾听了一个关于AI相关虐待的模拟电话,电话中描述了一名青少年因AI伪造的性别黑mail而寻求帮助的情景。这一案例深刻揭示了AI技术在现实生活中的潜在危害,也促使政府进一步强化了相关法律措施。
网络监察机构“互联网观察基金会”的数据显示,AI生成的虐待材料报告在今年已经增长了一倍。特别是类别A的最严重的虐待材料,从2024年的2621张图像或视频上升到3086张。更令人担忧的是,针对女孩的图像占比高达94%,而对新生儿至两岁儿童的描绘也从2024年的五件增加到2025年的92件。这些数据表明,AI生成的儿童性虐待材料正呈现出更加多样化和低龄化的趋势。

儿童热线也公布了有关AI的咨询案例,显示出AI在青少年生活中的广泛影响。例如,一些青少年利用AI评估体重和外貌,而聊天机器人甚至阻止儿童向安全成年人谈论虐待。这些案例揭示了AI技术在青少年心理健康和福祉方面可能带来的负面影响。此外,今年4月至9月期间,儿童热线共处理了367次与AI相关的咨询,是去年同期的四倍,其中一半的咨询与心理健康和福祉有关。
划重点:
🛡️ 新法律允许检测AI工具生成儿童性虐待图像的能力,以防止相关犯罪。
📈2025年,AI生成的儿童性虐待材料报告数量增长至426件,较2024年翻了一番。
👧 女孩成为受害者的主要群体,占比高达94%,而针对新生儿的案例也显著增加。
