人工智能

OpenAI 发布第三版 DALL-E 人工智能视觉模型

字号+作者: 来源:cnBeta.COM 2023-09-21 02:28 评论(创建话题) 收藏成功收藏本文

OpenAI发布了其生成式人工智能视觉艺术平台DALL-E的第三个版本,现在用户可以使用ChatGPT创建提示,并包含更多安全选项。DALL-E将文本提示转换成图像。但'...

OpenAI发布了其生成式人工智能视觉艺术平台DALL-E的第三个版本,现在用户可以使用ChatGPT创建提示,并包含更多安全选项。DALL-E将文本提示转换成图像。但即使是DALL-E2也会出错,经常忽略特定的措辞。OpenAI的研究人员说,最新版本能更好地理解上下文。U47品论天涯网


U47品论天涯网

DALL-E3的一个新功能是与ChatGPT集成。通过使用ChatGPT,用户不必自己编写详细的提示来引导DALL-E3;他们只需让ChatGPT想出一个提示,聊天机器人就会写出一段话(DALL-E更擅长使用长句),让DALL-E3跟着说。如果其他用户对DALL-E有特别的想法,也可以使用自己的提示。U47品论天涯网

DALL-E于2021年1月首次发布,发布时间早于StabilityAI和Midjourney的其他文本到图像生成AI艺术平台。到2022年DALL-E2发布时,OpenAI开设了一个等待名单,以控制谁能使用该平台,因为有批评称DALL-E可以生成逼真的露骨图像,并且在生成照片时表现出偏见。去年9月,公司取消了等待名单,向公众开放了DALL-E2。U47品论天涯网

新版DALL-E将于10月首先向ChatGPTPlus和ChatGPTEnterprise用户发布,随后在秋季向研究实验室及其API服务发布。OpenAI计划错开DALL-E3的发布时间,但没有承诺何时发布免费的公开版本。U47品论天涯网

OpenAI声称,它在DALL-E3上做了大量工作,重点是创建强大的安全措施,以防止创建淫秽或潜在的仇恨图像。OpenAI表示,它与外部红队(redteamers)合作--红队是一个故意试图破坏系统以测试其安全性的组织--并依靠输入分类器(inputclassifiers),这是一种教语言模型忽略某些单词以避免明确或暴力提示的方法。DALL-E3也无法再现公众人物的形象--前提是提示中明确提到了名字。U47品论天涯网

该公司的政策研究员桑迪尼-阿加瓦尔(SandhiniAgarwal)说,她对该公司的安全措施"非常有信心",但她澄清说,该模型在不断改进,并不完美。OpenAI的代表在一封电子邮件中说,DALL-E3已被训练成不会按照在世艺术家的风格生成图像。与DALL-E2不同的是,DALL-E2在受到提示时可以模仿某些艺术家的艺术风格。U47品论天涯网

可能是为了避免潜在的诉讼,OpenAI还将允许艺术家选择将他们的艺术作品排除在未来版本的文本到图像人工智能模型之外。创作者可以提交自己拥有版权的图片,并在网站上填写表格要求将其移除。这样,未来版本的DALL-E就可以屏蔽与艺术家的图像和风格相似的结果。艺术家们起诉了DALL-E的竞争对手StabilityAI公司和Midjourney公司,以及艺术网站DeviantArt,指控它们使用他们拥有版权的作品来训练文字图像模型。U47品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]