人工智能

Anthropic通过在AI模型的提示中加入请求来防止歧视

字号+作者: 来源:站长之家 2023-12-08 10:12 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)12月8日 消息:Anthropic采用一种新方法来防止人工智能(AI)对受保护群体进行歧视,通过在提示中加入请求,要求AI“非常非常非常非常”友好'...

站长之家(ChinaZ.com)12月8日 消息:Anthropic采用一种新方法来防止人工智能(AI)对受保护群体进行歧视,通过在提示中加入请求,要求AI“非常非常非常非常”友好地对待,并且这一策略在降低歧视方面取得了成功。wPj品论天涯网

研究人员通过在提示中加入“干预”来告诉模型不要有偏见,例如通过表达即使由于技术问题包含了受保护特征,模型应该“想象”在做决策时去除这些特征。这种方法在许多测试案例中成功将歧视降低到几乎零。wPj品论天涯网

image.pngwPj品论天涯网

尽管这种方法在当前情况下似乎取得了成功,但研究人员认为像Claude这样的模型不适用于重要决策,强调应该由政府和社会整体来影响高风险决策的适当使用,而不仅仅由个别公司或行为者做决定。wPj品论天涯网

这项研究为降低人工智能歧视提供了一种新的策略,强调了在高风险决策中谨慎使用语言模型的重要性。wPj品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]