声明:本文来自于微信公众号 机器之心(ID:almosthuman2014),作者:杜伟,授权站长之家转载发布。
DeepMind 这篇论文一出,人类标注者的饭碗也要被砸了吗?
大模型的幻觉终于要终结了?
今日,社媒平台 reddit 上的一则帖子引起网友热议。帖子讨论的是谷歌 DeepMind 昨日提交的一篇论文《Long-form factuality in large language models》(大语言模型的长篇事实性),文中提出的方法和结果让人得出大胆的结论:对于负担得起的人来说,大语言模型幻觉不再是问题了。
我们知道,大语言模型在响应开放式主题的 fact-seeking(事实寻求)提示时,通常会生成包含事实错误的内容。DeepMind 针对这一现象进行了一些探索性研究。
首先,为了对一个模型在开放域的长篇事实性进行基准测试,研究者使用 GPT-4生成 LongFact,它是一个包含38个主题、数千个问题的提示集。然后他们提出使用搜索增强事实评估器(Search-Augmented Factuality Evaluator, SAFE)来将 LLM 智能体用作长篇事实性的自动评估器。
对于 SAFE,它利用 LLM 将长篇响应分解为一组单独的事实,并使用多步推理过程来评估每个事实的准确性。这里多步推理过程包括将搜索查询发送到 Google 搜索并确定搜索结果是否支持某个事实 。
论文地址:https://arxiv.org/pdf/2403.18802.pdf
GitHub 地址:https://github.com/google-deepmind/long-form-factuality
此外,研究者提出将 F1分数(F1@K)扩展为长篇事实性的聚合指标。他们平衡了响应中支持的事实的百分比(精度)和所提供事实相对于代表用户首选响应长度的超参数的百分比(召回率)。
实证结果表明,LLM 智能体可以实现超越人类的评级性能。在一组约16k 个单独的事实上,SAFE 在72% 的情况下与人类注释者一致,并且在100个分歧案例的随机子集上,SAFE 的赢率为76%。同时,SAFE 的成本比人类注释者便宜20倍以上。
研究者还使用 LongFact,对四个大模型系列(Gemini、GPT、Claude 和 PaLM-2)的13种流行的语言模型进行了基准测试,结果发现较大的语言模型通常可以实现更好的长篇事实性。
论文作者之一、谷歌研究科学家 Quoc V. Le 表示,这篇对长篇事实性进行评估和基准测试的新工作提出了一个新数据集、 一种新评估方法以及一种兼顾精度和召回率的聚合指标。同时所有数据和代码将开源以供未来工作使用。
方法概览
LONGFACT:使用 LLM 生成长篇事实性的多主题基准
首先来看使用 GPT-4生成的 LongFact 提示集,包含了2280个事实寻求提示,这些提示要求跨38个手动选择主题的长篇响应。研究者表示,LongFact 是第一个用于评估各个领域长篇事实性的提示集。
LongFact 包含两个任务:LongFact-Concepts 和 LongFact-Objects,根据问题是否询问概念或对象来区分。研究者为每个主题生成30个独特的提示,每个任务各有1140个提示。
SAFE:LLM 智能体作为事实性自动评分者
研究者提出了搜索增强事实评估器(SAFE),它的运行原理如下所示:
a)将长篇的响应拆分为单独的独立事实;
b)确定每个单独的事实是否与回答上下文中的提示相关;
c) 对于每个相关事实,在多步过程中迭代地发出 Google 搜索查询,并推理搜索结果是否支持该事实。
他们认为 SAFE 的关键创新在于使用语言模型作为智能体,来生成多步 Google 搜索查询,并仔细推理搜索结果是否支持事实。下图3为推理链示例。
为了将长篇响应拆分为单独的独立事实,研究者首先提示语言模型将长篇响应中的每个句子拆分为单独的事实,然后通过指示模型将模糊引用(如代词)替换为它们在响应上下文中引用的正确实体,将每个单独的事实修改为独立的。
为了对每个独立的事实进行评分,他们使用语言模型来推理该事实是否与在响应上下文中回答的提示相关,接着使用多步方法将每个剩余的相关事实评级为「支持」或「不支持」。具体如下图1所示。
在每个步骤中,模型都会根据要评分的事实和之前获得的搜索结果来生成搜索查询。经过一定数量的步骤后,模型执行推理以确定搜索结果是否支持该事实,如上图3所示。在对所有事实进行评级后,SAFE 针对给定提示 - 响应对的输出指标为 「支持」事实的数量、「不相关」事实的数量以及「不支持」事实的数量。
实验结果
LLM 智能体成为比人类更好的事实注释者
为了定量评估使用 SAFE 获得注释的质量,研究者使用了众包人类注释。这些数据包含496个提示 - 响应对,其中响应被手动拆分为单独的事实(总共16011个单独的事实),并且每个单独的事实都被手动标记为支持、不相关或不支持。
他们直接比较每个事实的 SAFE 注释和人类注释,结果发现 SAFE 在72.0% 的单独事实上与人类一致,如下图4所示。这表明 SAFE 在大多数单独事实上都达到了人类水平的表现。然后检查随机采访的100个单独事实的子集,其中 SAFE 的注释与人类评分者的注释不一致。
研究者手动重新注释每个事实(允许访问 Google 搜索,而不仅仅是维基百科,以获得更全面的注释),并使用这些标签作为基本事实。他们发现,在这些分歧案例中,SAFE 注释的正确率为76%,而人工注释的正确率仅为19%,这代表 SAFE 的胜率是4比1。具体如下图5所示。
这里,两种注释方案的价格非常值得关注。使用人工注释对单个模型响应进行评级的成本为4美元,而使用 GPT-3.5-Turbo 和 Serper API 的 SAFE 仅为0.19美元。
Gemini、GPT、Claude 和 PaLM-2系列基准测试
最后,研究者在 LongFact 上对下表1中四个模型系列(Gemini、GPT、Claude 和 PaLM-2)的13个大语言模型进行了广泛的基准测试。
具体来讲,他们利用了 LongFact-Objects 中250个提示组成的相同随机子集来评估每个模型,然后使用 SAFE 获取每个模型响应的原始评估指标,并利用 F1@K 指标进行聚合。
结果发现,一般而言,较大的语言模型可以实现更好的长篇事实性。如下图6和下表2所示,GPT-4-Turbo 优于 GPT-4,GPT-4优于 GPT-3.5-Turbo,Gemini-Ultra 优于 Gemini-Pro,PaLM-2-L-IT-RLHF 优于 PaLM-2-L-IT。
更多技术细节和实验结果请参阅原论文。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】