今年7月,白宫宣布,七家大型科技公司已承诺采取人工智能安全措施,包括部署水印,以确保算法生成的内容可以与真人作品区分开来。在这些巨头中,亚马逊、谷歌和OpenAI都特别提到了水印技术——即在文本和图像中添加信息以证明内容出处的技术——作为抵御其生成式人工智能模型所产生的错误信息、欺诈和深度伪造的一种方法。
这样做的目的是,人工智能生成的材料将被巧妙地标记,以便在有人试图将其内容冒充为人类制作的内容时,能够被检测和识别出来。
但学者们警告说,图像中的数字水印——在创建内容时添加噪声,然后在图像数据集中检测该噪声模式的存在——可能并不能提供多少安全保证。
日前来自马里兰大学的研究团队取得了重大突破,他们制定了一种绕过嵌入在AI生成图像中的所有水印保护的方法。在接受Wired采访时,计算机科学教授SoheilFeizi表示,目前没有可靠的方法可以为AI生成的图像加上水印,他的团队成功地绕过了“所有方法”。
就目前而言,恶意行为者绕过水印仍然太容易。而且,还可以将水印添加到人工制作的图像中,从而触发误报。
数字水印已被各种AI公司推崇为一种功能,使用户能够知道图像是否是借助AI生成的。问题是我们仍然没有万无一失、无法被操纵的水印技术。
Feizi和他的团队在一份预印本论文中详细记录了他们的研究结果。在论文中,研究人员表示,使用微妙的图像扰动的水印方法可以轻松地通过扩散净化攻击来破解。
这种方法的工作原理是,在使用AI生成图像时,会对其应用一种人眼不可见的特定噪声模式。问题在于,这种模式可以很容易地被修改或移除,而对整体图像的更改很小。
同样,使用大量扰动的水印技术,即对图像进行重大更改的技术,可以通过易于移除水印的模型替代对抗攻击来破解。
此外,恶意行为者可以使用水印技术来针对真正的艺术家,将他们的图像标记上会导致它们被错误地识别为由AI生成的模式。这可能会损害艺术家的声誉。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】