在加拿大蒙特利尔举办的国际人工智能联合会议(IJCAI)上,蚂蚁数科携手新加坡科技研究局共同主办了一场聚焦深度伪造检测、定位及可解释性的专题研讨会。此次盛会不仅汇聚了全球顶尖的AI研究力量,更标志着深度伪造技术发展进入了一个新的里程碑。蚂蚁数科与斯坦福大学在会上分别宣布开源两大具有里程碑意义的深度伪造数据集,这些数据集覆盖了从人类面部及动作伪造到声音克隆等多个关键领域,为整个行业提供了前所未有的基础数据资源,极大地推动了AI安全技术领域的进步。
该研讨会深入探讨了深度伪造识别的前沿技术与应用成果,吸引了来自中国、美国、澳大利亚、巴西、新加坡等国的知名机构学者和行业专家共同参与,共享最新的研究成果和行业洞见。蚂蚁数科正式向全球研究者开放了其用于IJCAI“深度伪造检测挑战赛”的180万训练数据集(DDL-Datasets),这一数据集不仅包含了人脸伪造、视频篡改、声音克隆三大高危场景,还涵盖了80余种不同的伪造手法,通过清晰标注AI造假的画面位置和时间节点,显著提升了算法的可解释性。研究者们可以通过Modelscope(磨搭社区)免费获取这一宝贵资源。值得一提的是,蚂蚁数科国际算法负责人李建树在会上详细分享了深度伪造定位数据集的相关成果,为全球研究者提供了宝贵的指导。
与此同时,由斯坦福大学、谷歌与加州大学伯克利分校联合推出的视频数据集DeepAction也正式开源。这一数据集包含了7款大型模型生成的2600段人类动作视频,以及与之匹配的真实镜头,涵盖了行走、奔跑、烹饪等日常生活场景。这些视频资源对于研究者来说极具价值,可在Hugging Face(抱抱脸社区)免费下载。此外,研究团队发表的论文《AI生成人体动作检测》(Human Action CLIPs: Detecting AI-Generated Human Motion)荣获该主题workshop最佳论文奖。该论文提出了一种基于多模态语义嵌入的鉴别技术,能够精准区分真实人体动作与AI生成动作,且该方法具有较强的鲁棒性,能够有效抵御数据篡改手段(如调整分辨率、压缩视频等)对检测算法的干扰。
澳大利亚莫纳什大学的Abhinav Dhall教授在研讨会上分享了其团队的一项重要发现:不同文化背景的人群对AI造假视频的感知存在显著差异。研究显示,当视频语言为参与者熟悉的英语且演员来自相似种族背景时,人们区分真实视频与深度伪造视频的能力更为出色。这一发现为全球化多元背景下的深度伪造分析领域提供了新的探索方向,也为未来相关研究奠定了坚实基础。
公开信息显示,蚂蚁数科始终致力于AI安全及风险防范领域,旗下安全科技品牌ZOLOZ自2017年起便为海外机构的数智化升级提供全方位服务,目前已成功覆盖超过25个国家和地区。其“实人认证”产品的准确率更是达到了惊人的99.9%,充分展现了蚂蚁数科在AI安全技术领域的领先地位和深厚积累。