人工智能

OpenAI的模型规范概述了人工智能的一些基本规则

字号+作者: 来源:cnBeta.COM 2024-05-09 06:08 评论(创建话题) 收藏成功收藏本文

人工智能工具表现经常会很糟糕--比如微软的必应人工智能(BingAI)搞不清楚现在是哪一年。但很多时候,很难区分错误与底层人工智能模型构建不佳之间的区别,底'...

人工智能工具表现经常会很糟糕--比如微软的必应人工智能(BingAI)搞不清楚现在是哪一年。但很多时候,很难区分错误与底层人工智能模型构建不佳之间的区别,底层人工智能模型分析接收到的数据,并预测可接受的反应,比如Google的双子座图像生成器甚至会由于过滤器设置而绘制出各式各样的纳粹内容。nVH品论天涯网

访问:nVH品论天涯网

Saily-使用eSIM实现手机全球数据漫游安全可靠源自NordVPNnVH品论天涯网

现在,OpenAI正在发布一个名为"模型规范"(ModelSpec)的拟议框架的初稿,该框架将决定人工智能工具(如其自身的GPT-4模型)在未来如何做出响应。OpenAI的方法提出了三项一般原则--人工智能模型应协助开发者和最终用户做出符合指令的有益响应,在考虑潜在利益和危害的情况下造福人类,并在社会规范和法律方面很好地反映OpenAI的情况。nVH品论天涯网

它还包括几条规则:nVH品论天涯网

  • 遵循指挥系统nVH品论天涯网

  • 遵守适用法律nVH品论天涯网

  • 不提供信息危害nVH品论天涯网

  • 尊重创作者及其权利nVH品论天涯网

  • 保护人们的隐私nVH品论天涯网

  • 不回复NSFW(工作场所不宜)内容nVH品论天涯网

  • OpenAI表示,他们的想法是让公司和用户"切换"人工智能模型的"辛辣"程度。该公司指出,NSFW内容就是一个例子,该公司表示正在"探索我们是否可以通过API和ChatGPT,负责任地提供在适合年龄的上下文中生成NSFW内容的能力"。nVH品论天涯网

    nVH品论天涯网

    《模型规范》中关于人工智能助手应如何处理信息危害的部分。

    OpenAI的产品经理乔安妮-张(JoanneJang)解释说,这个想法是为了征求公众意见,帮助指导人工智能模型的行为方式,并表示这个框架将有助于在有意行为和错误之间划出一条更清晰的界线。OpenAI为模型提出的默认行为包括:假定用户或开发者的意图是最好的、问清楚问题、不越位、采取客观观点、阻止仇恨、不试图改变任何人的想法以及表达不确定性。nVH品论天涯网

    "我们认为,我们可以为人们就模特问题进行更细致入微的对话提供基石,并提出一些问题,比如模特是否应该遵守法律,谁的法律?我希望我们能将关于某件事是否是一个错误或回应的讨论与人们不同意的原则分离开来,因为这将使关于我们应该将什么提交给政策团队的对话变得更容易。"nVH品论天涯网

    ModelSpec不会立即影响OpenAI当前发布的模型,如GPT-4或DALL-E3,它们将继续按照现有的使用政策运行。nVH品论天涯网

    Jang称模型行为是一门"新生科学",并表示《模型规范》是一份可以经常更新的活文档。目前,OpenAI将等待公众和使用其模型的不同利益相关者(包括"政策制定者、可信赖的机构和领域专家")的反馈意见,尽管Jang没有给出发布《模型规范》第二稿的时间框架。nVH品论天涯网

    OpenAI并未透露公众的反馈意见有多少会被采纳,也未说明由谁来决定哪些地方需要修改。最终,该公司对其模型的行为方式拥有最终决定权,并在一篇文章中表示:"我们希望这将为我们提供早期的洞察力,因为我们正在开发一个强大的流程来收集和采纳反馈意见,以确保我们以负责任的方式实现我们的使命"。nVH品论天涯网

    本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]