站长之家(ChinaZ.com)12月21日 消息:随着大型语言模型在实际业务中的广泛应用,确保其输出的真实性和可靠性成为亟待解决的问题。学术界采用“归因”方法来追踪和证实模型输出的内容。
当前研究领域主要分为两大派系,即协同归因和贡献归因。前者关注验证大模型输出的正确性,后者用于确定训练数据对模型输出的影响程度。在法律、医疗、金融等领域,对内容准确性有高要求的行业,这两种方法至关重要。
论文地址:https://arxiv.org/pdf/2311.12233.pdf
然而,现有的研究方法存在独立进行的问题,为此,斯坦福大学的研究人员提出了“统一归因”框架。这一框架整合了协同归因和贡献归因的主要功能,使开发者能够更方便地对大型语言模型进行安全性和内容验证。
协同归因通过引文生成验证、知识检索验证和事实验证等功能,验证大模型的输出是否正确,并与外部知识进行比较。贡献归因方法通过影响函数验证、数据模拟器验证和数据模型验证等功能,用于确定训练数据对大模型输出的影响程度。
这一“统一归因”框架为开发者提供了更全面、一体化的工具,以验证大模型的输出和训练来源。通过整合两种归因方法,开发者可以更全面地了解模型的行为,提高对模型输出的信任度。因此,这一框架对于保障大型语言模型在各行业应用中的安全性和可靠性具有积极的推动作用。
随着大模型在实际应用中的不断发展,保证其输出的真实性和可靠性是当前亟需解决的问题。斯坦福提出的“统一归因”框架为解决这一问题提供了新的思路和方法,有望推动大模型在各行业中的更广泛应用。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】