PIKE-RAG 正在参加 2021 年度 OSC 中国开源项目评选,请投票支持!
PIKE-RAG 在 2021 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
2021 年度 OSC 中国开源项目评选 正在火热进行中,快来投票支持你喜欢的开源项目!
2021 年度 OSC 中国开源项目评选 >>> 中场回顾
PIKE-RAG 获得 2021 年度 OSC 中国开源项目评选「最佳人气项目」 !
授权协议 MIT license
开发语言 Python
操作系统 跨平台
软件类型 开源软件
所属分类 大数据数据处理
开源组织 微软
地区 不详
投 递 者 首席测试
适用人群 未知
收录时间 2025-02-17

软件简介

PIKE-RAG(专业知识与推理增强生成)是一个专注于提取、理解和应用特定领域知识,并构建连贯推理逻辑,以逐步引导大型语言模型(LLM)向准确响应的方法。

近年来,检索增强生成(RAG)系统通过外部检索扩展了大型语言模型(LLM)的功能,但它们在满足现实世界工业应用的复杂和多样化需求方面仍面临挑战。仅依靠直接检索不足以从专业语料库中提取深度领域特定知识并进行逻辑推理。为了解决这个问题,PIKE-RAG 提出了以下方法:

  • 文档解析、知识提取、知识存储、知识检索、知识组织、知识中心推理和任务分解与协调:PIKE-RAG 框架主要由这些基本模块组成,通过调整主模块内的子模块,可以实现关注不同能力的 RAG 系统,以满足现实场景的多样化需求。

PIKE-RAG 的工作流程

  • 事实信息检索:例如,在“患者历史医疗记录搜索”案例中,PIKE-RAG 专注于“事实信息检索能力”。主要挑战包括:知识理解和提取常受到不适当的知识分割的影响,破坏语义连贯性,导致检索过程复杂且效率低下;常用的基于嵌入的知识检索受限于嵌入模型对专业术语和别名的对齐能力,降低了系统精度。通过在知识提取过程中使用上下文感知分割技术、自动术语标签对齐技术和多粒度知识提取方法,我们可以提高知识提取和检索的准确性,从而增强事实信息检索能力。
  • 基于事实的创新和生成:对于像“为患者提出合理的治疗方案和应对措施建议”这样的复杂任务,需要更高级的能力:需要强大的领域特定知识来准确理解任务,有时还需要合理分解它;还需要高级的数据检索、处理和组织技术来预测潜在的趋势;而多智能体规划也有助于考虑创造性和依赖性。

 

 

性能

在公共基准测试中,PIKE-RAG 在多个多跳问答数据集(如 HotpotQA、2WikiMultiHopQA 和 MuSiQue)上表现出色。与现有基准方法相比,PIKE-RAG 在准确性和 F1 分数等指标上表现出色。例如,在 HotpotQA 数据集上,PIKE-RAG 达到了 87.6% 的准确率,在 2WikiMultiHopQA 上达到了 82.0%,在更具挑战性的 MuSiQue 数据集上达到了 59.6%。这些结果表明,PIKE-RAG 在处理复杂推理任务方面具有显著优势,尤其是在需要整合多源信息和执行多步推理的场景中。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论

点击引领话题📣 发布并加入讨论🔥
发表了资讯
02/17 12:12

微软开源“专业领域知识-推理能力 RAG” —— PIKE-RAG

近年来,大语言模型(LLM)凭借强大的文本生成能力在各个领域引起了广泛关注。它们不仅能写文章、翻译语言,还能完成创作任务。但当遇到需要专业领域知识支持的工业级问题时,比如半导体设计、制药研发或法律条文解读,这些模型往往力不从心。这不仅因为训练数据中缺少足够的专业信息,还因为单靠“生成”能力,难以构建严谨的逻辑推理和多层次的信息整合。 为什么传统方法会遇到瓶颈? 目前,为了解决这一问题,业界提出了“检...

1
5
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
发表了博客
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
发表了问答
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
暂无内容
0 评论
1 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部