人工智能

麻省理工学院开发“面具”来保护图像免遭人工智能操纵

麻省理工学院的一组研究人员开发了一种名为PhotoGuard的新技术,旨在防止人工智能系统未经授权地操纵图像。Midjourney和StableDiffusion等生成式AI图像'...

麻省理工学院的一组研究人员开发了一种名为PhotoGuard的新技术,旨在防止人工智能系统未经授权地操纵图像。Midjourney和StableDiffusion等生成式AI图像生成模型可用于编辑现有图像通过修复添加新区域,或剪切对象并将其重新混合到其他图像中,例如将人脸叠加在另一张图像上。0fg品论天涯网

麻省理工学院的科学家们创造了一种本质上是防护罩的东西,能够防止这些模型操纵图像。这些遮罩对于人眼来说是不可见的,当与生成人工智能图像模型交互时,会导致输出出现扭曲。0fg品论天涯网

研究人员在一篇论文中写道:“通过在对手访问原始图像之前对其进行免疫,我们破坏了他们成功执行此类编辑的能力。”0fg品论天涯网

PhotoGuard可以在MIT许可下通过GitHub访问——这意味着它可以用于商业用途,但需要保留版权和许可声明。0fg品论天涯网

0fg品论天涯网

图片来源:麻省理工学院0fg品论天涯网

据了解,PhotoGuard的目的是改进Deepfake检测。其背后的团队认为,虽然水印方法确实有效,但它们并不能保护图像免遭“首先被操纵”。PhotoGuard旨在补充水印保护,以“破坏人工智能扩散模型的内部运作”。0fg品论天涯网

随着DALL-E和稳定扩散等人工智能图像模型的使用变得越来越普遍,滥用的情况似乎也越来越多,尤其是在社交媒体中。罗恩·德桑蒂斯的选举团队使用人工智能处理的前总统特朗普拥抱福奇博士的图像的案例显示了可能出现问题的早期迹象。0fg品论天涯网

检测人工智能生成的作品的需求正在不断增加——虽然对于那些受过训练的人来说,人工智能生成的图像很容易被发现,但一些研究团队正在努力让它变得更容易。以DALL-E和ChatGPT制造商OpenAI为例,该公司本周承诺继续研究确定一段音频或视频内容是否由人工智能生成的方法,尽管该承诺是在其因性能不佳而关闭其文本检测工具后做出的。0fg品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]