麻省理工学院的一组研究人员开发了一种名为PhotoGuard的新技术,旨在防止人工智能系统未经授权地操纵图像。Midjourney和StableDiffusion等生成式AI图像生成模型可用于编辑现有图像通过修复添加新区域,或剪切对象并将其重新混合到其他图像中,例如将人脸叠加在另一张图像上。
麻省理工学院的科学家们创造了一种本质上是防护罩的东西,能够防止这些模型操纵图像。这些遮罩对于人眼来说是不可见的,当与生成人工智能图像模型交互时,会导致输出出现扭曲。
研究人员在一篇论文中写道:“通过在对手访问原始图像之前对其进行免疫,我们破坏了他们成功执行此类编辑的能力。”
PhotoGuard可以在MIT许可下通过GitHub访问——这意味着它可以用于商业用途,但需要保留版权和许可声明。
据了解,PhotoGuard的目的是改进Deepfake检测。其背后的团队认为,虽然水印方法确实有效,但它们并不能保护图像免遭“首先被操纵”。PhotoGuard旨在补充水印保护,以“破坏人工智能扩散模型的内部运作”。
随着DALL-E和稳定扩散等人工智能图像模型的使用变得越来越普遍,滥用的情况似乎也越来越多,尤其是在社交媒体中。罗恩·德桑蒂斯的选举团队使用人工智能处理的前总统特朗普拥抱福奇博士的图像的案例显示了可能出现问题的早期迹象。
检测人工智能生成的作品的需求正在不断增加——虽然对于那些受过训练的人来说,人工智能生成的图像很容易被发现,但一些研究团队正在努力让它变得更容易。以DALL-E和ChatGPT制造商OpenAI为例,该公司本周承诺继续研究确定一段音频或视频内容是否由人工智能生成的方法,尽管该承诺是在其因性能不佳而关闭其文本检测工具后做出的。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】