GraphRAG圈新秀:文档级RAKG


1 背景:传统 KGC 的三座大山

随着大模型(LLM)能力的不断增强,知识图谱(KG) 作为结构化知识的核心载体,重新成为研究热点。尤其是在 GraphRAG、Pike-RAG 等图谱增强生成框架的推动下,知识图谱在提升大模型推理能力、缓解幻觉问题方面展现出巨大潜力。

痛点
具体表现
实体消歧难
同一缩写、别名、指代在跨段落时极易混淆,人工规则维护成本爆炸。
模式僵化
先定义 schema 再抽取,无法随文档主题动态扩展,领域迁移=重写规则。
跨文档信息遗忘
长文本直接塞 LLM,中间段落被“遗忘”,导致关系缺失或张冠李戴。

2 结论:95.91 % 准确率,6.2 个点的碾压式提升

提出 RAKG(Retrieval-Augmented Knowledge Graph Construction)框架,首次将 RAG 的评估机制 引入知识图谱构建过程,实现文档级、自动化的知识图谱构建与评估。

图1 直观展示了 RAG 范式反打到 KGC(知识图谱构建) 后的整体流程,把“检索-生成”思路反过来用在建图阶段。

GraphRAG圈新秀:文档级RAKG
指标
RAKG
GraphRAG
KGGen
Accuracy 95.91 %
89.71 %
86.48 %
实体密度 ED 高 23 %
关系丰富度 RR 高 31 %
实体覆盖率 EC 0.8752
0.6438
0.6020
关系网络相似度 RNS 0.7998
0.7278
0.6321

图2 的 105 篇文章得分分布显示,RAKG 几乎“全线右移”,没有低分尾巴。
GraphRAG圈新秀:文档级RAKG

3 方案:把 RAG“倒过来”建图的三板斧

3.1 预实体(Pre-Entity):先抓“锚点”再检索

  1. 按句分块,NER 逐块抽取实体 → 生成 Pre-Entity 并缓存 chunk-id;
  2. 向量相似度初筛 + LLM 二次判别,完成 实体消歧与合并
  3. 用 Pre-Entity 当“query”,反向去召回它出现过的所有文本块与已有子图。

图6 案例:Butterfly 一生四个阶段,Pre-Entity 把“Butterfly Egg / Larva / Pupa / Adult”先锚定,再各自召回描述段落。

GraphRAG圈新秀:文档级RAKG

3.2 双层检索:语料回溯 + 图结构回溯

检索源
作用
实现
Corpus Retrospective
补全实体局部上下文,缓解 LLM 长文本遗忘
用实体向量召回 top-k 句块
Graph Structure
保持与已有 KG 的拓扑一致,避免冲突
用实体向量召回已有节点及其一跳邻居

图4 把“LLM as Judge”流程画成一条质检流水线:生成→检索→比对→打分→过滤。

GraphRAG圈新秀:文档级RAKG

3.3 渐进式融合:子图 → 全局图

  1. 每个实体独立生成 关系子图(节点+属性+边);
  2. 子图之间按实体 ID 合并,冲突边交给 LLM 做“事实性”二次判断;
  3. 输出最终 KG,并同步更新向量索引,支持持续增量构建。

图5 显示,经过“LLM Judge”后,实体通过率 91.33 %,关系通过率 94.51 %,幻觉率被压到 5 % 以内。

GraphRAG圈新秀:文档级RAKG

4 一张表看懂 RAKG 的“增量”在哪

传统 KGC
RAKG 做法
收益
先定义 schema
无 schema,先抽实体再动态长边
零成本跨领域
长文本一次性编码
用 Pre-Entity 当 query 分段检索
解决长文本遗忘
人工写消歧规则
向量初筛 + LLM 精判
规则零维护
无质检环节
引入 RAG 评估框架,LLM 当 Judge
幻觉率 ↓ 90 %

前沿技术大模型技术新闻资讯

从Shopify的AI实践看如何落地Agent

2026-2-26 18:57:45

前沿技术大模型技术新闻资讯

Google: “老于,你是第三名!”

2026-2-26 21:03:45

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
购物车
优惠劵
搜索