上个月,DeepSeek的推理模型R1在人工智能领域引起了轩然大波,然而,它却因主动审查与中国有关的话题而受到批评。虽然这对于海外用户而言似乎是一个相当小众的话题,但审查可能会影响其他与中国有关的查询,这使得它对各类用例的帮助大打折扣。
为了解决这个问题,Perplexity开发了一个新的开源R1版本,称为R11776,该版本已经过"后期训练,以提供公正、准确和真实的信息"。该模型现在可以在HuggingFace存储库https://huggingface.co/perplexity-ai/r1-1776中找到,也可以通过Perplexity的SonarAPIhttps://sonar.perplexity.ai/访问。
Perplexity的后期培训主要侧重于解决与中国有关的审查问题。它在下文中概述了所采取的方法:
我们聘请人类专家确定了约300个已知被中国政府审查的主题。利用这些话题,我们开发了一个多语言审查分类器。
然后,我们挖掘出了一系列不同的用户提示,这些提示能以较高的置信度触发分类器。我们确保只包含用户明确允许训练的查询,并过滤掉包含个人身份信息(PII)的查询。
通过这一程序,我们编制了一个包含40k多语言提示的数据集。有趣的是,R11776和R1在基准测试中似乎有些差异,但不是太大。您可以从下图中看到差异:
如果您想获得R11776,可以从HuggingFace下载。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】