微新创想(idea2003.com) 7月29日 消息:麻省理工学院的研究团队近日推出了一项名为PhotoGuard的创新技术,旨在为人工智能系统操纵图像的行为筑起一道坚固防线。这项技术专门针对Midjourney和Stable Diffusion等生成式AI图像生成模型,这些模型能够通过修复、添加新区域或剪切对象并重新混合到其他图像中等方式编辑现有图像,例如将人脸叠加到其他图像上。面对这些技术带来的潜在风险,麻省理工学院的科学家们创造了一种隐蔽的防护罩,能够有效阻止这些模型对图像进行未经授权的操纵。这些防护罩对人眼来说完全不可见,但在与生成人工智能图像模型交互时,会导致输出结果出现明显扭曲。研究人员在一篇论文中明确指出:”通过在对手访问原始图像之前对其进行免疫,我们成功破坏了他们执行此类编辑的能力。”PhotoGuard项目已通过GitHub平台公开发布,并遵循MIT许可协议,这意味着开发者可以将其用于商业用途,但必须保留版权和许可声明。图片来源:麻省理工学院
据了解,PhotoGuard技术的核心目标在于提升Deepfake检测的准确性和可靠性。其研发团队认为,虽然现有的水印方法确实能在一定程度上保护图像,但它们无法有效防止图像在”首次被操纵”之前就遭到破坏。PhotoGuard的独特之处在于它能够直接”破坏人工智能扩散模型的内部运作机制”,从而实现对图像的全面保护。随着DALL-E和稳定扩散等人工智能图像模型在社交媒体等领域的应用日益普及,滥用现象也随之增多。例如,罗恩·德桑蒂斯领导的选举团队曾使用人工智能技术制作了前总统特朗普与福奇博士拥抱的虚假图像,这一案例揭示了人工智能图像技术可能带来的安全隐患。
当前,检测人工智能生成作品的需求正持续增长。虽然专业人员在视觉上能够轻易识别AI生成的图像,但仍有研究团队致力于开发更便捷的检测方法。以DALL-E和ChatGPT的制造商OpenAI为例,该公司本周宣布将继续研究确定音频或视频内容是否由人工智能生成的技术方案,这一承诺是在其因性能问题关闭文本检测工具后做出的。随着人工智能图像技术的不断进步,如何有效防止图像被恶意操纵已成为亟待解决的问题。PhotoGuard技术的出现,为这一领域带来了新的希望和解决方案。