人工智能StabilityAI最新的SD3Medium模型存在严重问题,只要生成人物就会出现躯体错乱,这似乎是该公司刻意规避生成裸体图片的结果。目前猜测他们可能在训练过程中就剔除了NSFW内容,同时在训练时规避裸体内容进而导致模型也会刻意将人体结果去除。
昨天人工智能初创公司StabilityAI推出StableDiffusion3Medium版,该模型是个精简版可以在普通的笔记本电脑和台式机上使用,并且StabilityAI还强调在虽然模型规模较小但精度依然很高。
然而在生成某些特定内容时SD3Medium版存在严重的问题,例如当生成的内容是人物时渲染人体部分就会错乱,包括手、脚和躯干部分等。
在这种错乱情况下生成的照片看着令人不适,为了避免亮瞎各位这里就不直接放图片了,如果觉得这都是小意思你可以点击这里查看图片。
为什么如此先进的模型还会在手指等部分出现低级错误呢?这种错误在文本生成图像模型刚问世的时候常见,现在这种问题按理说早就应该被解决了。
在Reddit论坛的讨论中,网友倾向于这是StabilityAI在模型训练过程中产生的问题,StabilityAI可能在训练的数据中就过滤了NSFW图片,同时在模型训练时尽可能避免出现裸体内容,这导致模型在生成图像时可能会刻意将人体结构去除。
测试还发现只要使用模型生成的图片中不包含人,那就可以生成比较完美的图片,只有存在人物时才会出现各种躯体错乱的问题,这似乎也可以说明StabilityAI刻意处理了某些内容。
对StabilityAI以及所有AI公司来说,模型都需要规避生成可能存在冒犯性的内容,其中裸体内容也在审查范围内,这些问题可能都会阻碍AI技术的发展。
尤其是最近一年StabilityAI出现比较糟糕的财务问题,在3月份其创始人兼首席执行官已经离开公司,之前也有3名关键工程师离职,现在模型效果比较糟糕可能会对StabilityAI的财务问题造成更大的影响。
相关文章:
StabilityAI推出适用于普通电脑的文本生成图像模型SD3Medium
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】