美东时间周二,谷歌支持的人工智能(AI)初创公司Anthropic公布了一套针对AI发展的书面道德价值观,该价值观主要适用于训练和保护人工智能。Anthropic成立于2021年,创始团队大都来自ChatGPT的开发商OpenAI,也有类似于ChatGPT的人工智能聊天机器人,其名为“Claude”,可以处理一系列较为复杂的任务。
Anthropic一直强调其旨在构建“可靠、可解释和可操纵的人工智能系统”,比如不会告诉用户如何制造武器,也不会使用带有种族偏见的语言。
这次公布的人工智能道德价值准则也被该公司称为“Claude宪法”,这些准则借鉴了几个来源,包括联合国人权宣言,甚至还有苹果公司的数据隐私规则。
上周四,谷歌、微软、OpenAI和Anthropic四家公司的首席执行官们受邀在白宫与美国副总统哈里斯会面,讨论了有关人工智能的一些关键问题,美国总统拜登也短暂出席了此次会议。
根据拜登在推特上发布的一段视频,他在会上对这些公司首席执行官们表示:“你们正在做的事情具有巨大的潜力,但同时也存大巨大的风险。”
哈里斯在一份声明中说:“科技公司需要承担道德和法律责任来确保其产品的安全。每家公司都必须遵守现行法律,保护美国公民。”
没想到在会面几天之后,Anthropic首席执行官达里奥·阿莫代便做出了实际行动。
大多数人工智能聊天机器人系统在训练过程中依赖于从真人那里获得反馈,以确定哪些反应可能是有害的或冒犯性的。但这些系统很难预测人们可能会问的某些问题,因此它们往往会避免一些可能有争议的话题,比如政治和种族。
Anthropic则采用了不同的方法,它为其人工智能聊天机器人Claude提供了一套书面的道德价值观,供其在决定如何回答问题时阅读和学习。
Anthropic在周二的一篇博文中提到,这些价值准则包括“选择劝阻和反对酷刑、奴役、残忍和不人道或有辱人格的回答”。Claude还被要求选择最不可能被视为冒犯非西方文化传统的回答。
在一次采访中,Anthropic的联合创始人杰克·克拉克表示,可以修改系统的结构,以便在提供有用的答案和无害之间取得平衡。
克拉克认为:“几个月后,我预测政界人士将非常关注不同人工智能系统的道德价值观,而像‘Claude宪法’这样的方法将有助于这种讨论,因为我们认为有必要写下这些价值准则。”
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】