要点:
由IDEA研究院、微软亚洲研究院、香港科技大学等研究团队推出的Think-on-Graph技术,通过大模型与知识图谱的深度融合,实现在多个基准数据集上的性能提升,引领深度推理领域。
在解决大模型在金融、法律、医疗等领域幻觉问题的挑战中,Think-on-Graph通过紧耦合的方式将大模型(LLM)作为“跑腿”,与知识图谱(KG)相互协作,提供更条理清晰、可追溯的推理链条。
Think-on-Graph借鉴了Transformer的beam-search算法思路,通过搜索剪枝和推理决策两个任务的迭代过程,有效提升了大模型推理的可解释性,同时在多个任务上刷新性能榜单。
站长之家(ChinaZ.com)11月27日 消息:近期,由IDEA研究院、微软亚洲研究院、香港科技大学等多方研究团队合作推出的Think-on-Graph技术,在深度推理领域掀起了一场革新。这一技术通过紧耦合大模型(LLM)与知识图谱(KG),成功弥补了大模型在金融、法律、医疗等领域幻觉问题上的能力短板。Think-on-Graph被证明在多个基准数据集上实现了巨大的性能提升,刷新了相关领域的性能榜单。
为了解决大模型在幻觉问题上的挑战,Think-on-Graph采用了紧耦合的新范式,将大模型作为“跑腿”与知识图谱相互协作。这一方法不仅使推理过程更加清晰有序,还提供了可追溯的推理链条。通过一个具体的例子,对比了传统大模型在推理问题上的表现与Think-on-Graph的方式,突显了其在逻辑分析和推理透明度方面的优势。
论文地址:https://arxiv.org/pdf/2307.07697.pdf
代码链接:https://github.com/IDEA-FinAI/ToG
Think-on-Graph的紧耦合范式不仅提高了大模型推理的效率,还在可解释性上有所突破。采用了Transformer的beam-search算法思路,实现了搜索剪枝和推理决策的迭代过程,有效提升了大模型推理的可解释性。此外,通过人工反馈和大模型的推理能力,Think-on-Graph还能够发现并修正知识图谱中的错误信息,弥补了大模型训练时间长、知识更新慢的缺点。
最终,在四类知识密集型任务的共9个数据集上,Think-on-Graph不仅刷新了7个性能榜单,而且在Zeroshot-RE数据集上的表现更是显著超过了传统大模型。这一研究成果为深度推理领域的发展带来了新的思路和方法,为实现大模型在各领域应用中更可靠、可解释的推理能力提供了有力支持。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】