本周X/Twitter上最火的帖子可能就是关于GrokAI生成大量露骨图片的内容,GrokAI活跃在X平台并会按照用户要求执行操作,于是不少用户要求GrokAI把某人照片中的衣服剥离。
由于X账户回复内容是公开可见的,因此用户只需要转到GrokAI主页查看回复或者是图片就可以看到人要求GrokAI生成的图片,不少用户看到图片后直呼辣眼睛。
这些图片里不乏存在埃隆马斯克裸露照片以及大量其他人的裸露照片,甚至还有未成年人的裸露照片,在大多数国家或地区,涉及未成年人的色情内容都是严重的犯罪。
负责生成图片的是GrokAI推出的GrokImagine图像生成模型,该模型本身就缺乏针对性爱和深度伪造技术的安全保障,在2025年8月推出时用户就可以使用该模型生成NSFW图像(意为不适合在工作场所查看的内容)。
然而xAI的反应速度似乎并不快,在收到大量用户反馈后该公司才发帖表示正在考虑加强安全措施:
个别情况下用户被要求提供并收到描述未成年人衣着暴露的AI图片,我们团队已经发现安全措施存在漏洞并正在紧急修复。另外我们团队正在考虑进一步加强我们的安全措施。(注:原文如此)
在xAI的可接受使用政策里明确禁止用户以色情方式描绘人物肖像,但这不一定包含仅带有性暗示的内容,当然政策本身确实禁止对儿童进行性化或剥削,只不过xAI的安全政策显然没有跟上。
目前法国政府已经开始指控GrokAI在未经用户同意的情况下生成并传播明显违法的色情内容,法国政府称xAI和X/Twitter可能违反了欧盟的数字服务法,这项法规要求平台降低非法内容传播的风险。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】