人工智能工具表现经常会很糟糕--比如微软的必应人工智能(BingAI)搞不清楚现在是哪一年。但很多时候,很难区分错误与底层人工智能模型构建不佳之间的区别,底层人工智能模型分析接收到的数据,并预测可接受的反应,比如Google的双子座图像生成器甚至会由于过滤器设置而绘制出各式各样的纳粹内容。
访问:
现在,OpenAI正在发布一个名为"模型规范"(ModelSpec)的拟议框架的初稿,该框架将决定人工智能工具(如其自身的GPT-4模型)在未来如何做出响应。OpenAI的方法提出了三项一般原则--人工智能模型应协助开发者和最终用户做出符合指令的有益响应,在考虑潜在利益和危害的情况下造福人类,并在社会规范和法律方面很好地反映OpenAI的情况。
它还包括几条规则:
遵循指挥系统
遵守适用法律
不提供信息危害
尊重创作者及其权利
保护人们的隐私
不回复NSFW(工作场所不宜)内容
OpenAI表示,他们的想法是让公司和用户"切换"人工智能模型的"辛辣"程度。该公司指出,NSFW内容就是一个例子,该公司表示正在"探索我们是否可以通过API和ChatGPT,负责任地提供在适合年龄的上下文中生成NSFW内容的能力"。
OpenAI的产品经理乔安妮-张(JoanneJang)解释说,这个想法是为了征求公众意见,帮助指导人工智能模型的行为方式,并表示这个框架将有助于在有意行为和错误之间划出一条更清晰的界线。OpenAI为模型提出的默认行为包括:假定用户或开发者的意图是最好的、问清楚问题、不越位、采取客观观点、阻止仇恨、不试图改变任何人的想法以及表达不确定性。
"我们认为,我们可以为人们就模特问题进行更细致入微的对话提供基石,并提出一些问题,比如模特是否应该遵守法律,谁的法律?我希望我们能将关于某件事是否是一个错误或回应的讨论与人们不同意的原则分离开来,因为这将使关于我们应该将什么提交给政策团队的对话变得更容易。"
ModelSpec不会立即影响OpenAI当前发布的模型,如GPT-4或DALL-E3,它们将继续按照现有的使用政策运行。
Jang称模型行为是一门"新生科学",并表示《模型规范》是一份可以经常更新的活文档。目前,OpenAI将等待公众和使用其模型的不同利益相关者(包括"政策制定者、可信赖的机构和领域专家")的反馈意见,尽管Jang没有给出发布《模型规范》第二稿的时间框架。
OpenAI并未透露公众的反馈意见有多少会被采纳,也未说明由谁来决定哪些地方需要修改。最终,该公司对其模型的行为方式拥有最终决定权,并在一篇文章中表示:"我们希望这将为我们提供早期的洞察力,因为我们正在开发一个强大的流程来收集和采纳反馈意见,以确保我们以负责任的方式实现我们的使命"。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】