一位匿名开发者创建了他们所谓的“言论自由评估”工具SpeechMap,用于支持OpenAI的ChatGPT和X的Grok等聊天机器人的AI模型。这位开发者告诉TechCrunch,其目标是比较不同模型如何处理敏感和有争议的话题,包括政治批评以及有关公民权利和抗议的问题。
一些白宫盟友指责热门聊天机器人过于“清醒”,而人工智能公司则一直专注于微调其模型处理某些话题的方式。唐纳德·特朗普总统的许多密友,例如埃隆·马斯克以及加密货币和人工智能“沙皇”大卫·萨克斯,都声称聊天机器人会审查保守派观点。
虽然这些人工智能公司尚未直接回应这些指控,但其中一些公司承诺调整其模型,减少拒绝回答有争议的问题。例如,Meta表示,其最新一批Llama模型已进行调整,不再支持“某些观点胜过其他观点”,并会回答更多“有争议”的政治问题。
SpeechMap的开发人员在X上的用户名是“ xlr8harder ”,他表示,他们希望帮助人们了解模型应该做什么、不应该做什么的争论。
xlr8harder表示:“我认为这类讨论应该公开进行,而不仅限于公司总部内部。这就是我创建这个网站的原因,让任何人都可以自己探索数据。”
SpeechMap使用AI模型来判断其他模型是否符合给定的一组测试提示。这些提示涉及一系列主题,从政治到历史叙事,再到国家象征。SpeechMap会记录模型是“完全”满足请求(即直截了当地回答)、给出“含糊其辞”的答案,还是直接拒绝回应。
Xlr8harder承认该测试存在缺陷,例如由于模型提供商的错误而产生的“噪音”。“评判”模型也可能存在偏差,从而影响结果。
但假设该项目是善意创建的并且数据是准确的,SpeechMap会揭示一些有趣的趋势。
例如,根据SpeechMap的数据,OpenAI的模型随着时间的推移,越来越拒绝回答与政治相关的问题。该公司最新的模型GPT-4.1系列虽然稍微宽松一些,但与OpenAI去年发布的某个版本相比仍有所退步。
OpenAI在2月份表示,它将调整未来的模型,使其不采取编辑立场,并对有争议的话题提供多种视角——所有这些都是为了使其模型显得更加“中立”。
根据SpeechMap的基准测试,目前为止,这些模型中最宽松的是由埃隆·马斯克的人工智能初创公司xAI开发的Grok3。Grok 3为X上的许多功能提供支持,包括聊天机器人Grok。
Grok3对SpeechMap测试提示的响应率为96.2%,而全球平均“符合率”为71.3%。
xlr8harder表示:“虽然OpenAI最近的模型随着时间的推移变得不那么宽容,特别是在政治敏感问题上,但xAI却朝着相反的方向发展。”
大约两年前,马斯克宣布Grok时,他宣称这个人工智能模型尖锐、未经过滤、反“觉醒”——总的来说,它愿意回答其他人工智能系统不愿回答的争议性问题。他确实兑现了部分承诺。比如,当被要求说粗俗的话时,Grok和Grok2会很乐意地满足,说出一些你在 ChatGPT上可能听不到的粗俗语言。
但Grok3之前的Grok模型 对政治话题有所保留 ,不会跨越 某些界限。事实上, 一项研究 发现,Grok在跨性别权利、多元化项目和不平等等话题上倾向于政治左派。
马斯克将这种行为归咎于Grok的训练数据——公共网页——并 承诺 “让Grok更接近政治中立”。除了一些引人注目的错误,比如 短暂删除对唐纳德·特朗普总统和马斯克的负面评价之外,他似乎已经实现了这个目标。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】