-
大模型的“照妖镜”来了,让RAG来治治AI的“胡说八道”
当AI开始“一本正经的胡说八道”相信很多人在使用类似DeepSeek等大模型时,经常会遇到一种情况即使它会一本正经的胡说八道。举个例子:某个AI面试官在面试人员提问“公司加班文化如何”时,它竟然一本正经的编造了不存在的福利政策。这种幻觉式回答,正是大语言模型(LLM)的一个致命软肋,它就像一个数学非常好的学霸,在做计算题时,来了个明显的计算翻车。这次我们要看的是RAG(检索增强生成)如何让AI变得…- 1
- 0
-
BM25:RAG中的文本相关性排序
-正文-BM25 是一个文本相关性排序算法。在 RAG 系统的检索阶段,它能快速地从海量文档中找到与查询最匹配的候选段落,为后续的生成模型提供更加聚焦的上下文。BM25 可以独立使用,也可以和 dense 检索联合构建更强的 hybrid 检索器1. BM25是做什么的?2. BM25是怎么判断相关性的?2.1 词频 (Term Frequency, TF)2.2 逆文档频率 (Inverse D…- 1
- 0
-
RAG架构综述:探寻最适配RAG方案
RAG技术通过整合外部知识源检索与模型生成能力,使语言模型能够基于真实世界的信息生成更准确、可靠的回答。如今,RAG技术不断演进,衍生出了多种各具特色的架构类型,每种都针对特定场景和需求进行了优化。深入了解这些不同类型的RAG架构,对于开发者、数据科学家以及AI爱好者而言至关重要,能够帮助他们在项目中做出更合适的技术选型,充分发挥RAG的优势。一、基础架构:标准RAG标准RAG是整个RAG技术体系…- 1
- 0
-
大模型RAG实战|生成带有引用来源的回答
在企业级应用场景,我们通常采用检索增强生成(RAG,Retrieval-Augmented Generation)技术,要求大语言模型(LLM)严格基于从知识库检索到的信息生成内容,而不得编造任何内容。此时,在LLM生成的内容中,准确地标注来源,并在其后列出所有引用来源,将极大地提升回答的可信度和透明性。本文将介绍一种“混合方案”。一、核心思路系统通过LLM在生成内容时,同步标注来源(内联引用,i…- 1
- 0
-
三路检索+多模态融合!深度解析RAG 2.0如何攻克大模型落地难题
过去一年,检索增强生成(RAG)技术以惊人的速度从实验室走向产业落地。从单一文本处理到多模态融合,从基础检索到动态决策,RAG 2.0 正在重塑人工智能落地的技术范式。这场技术革命不仅解决了传统大模型的 “幻觉” 短板,更通过混合检索、强化学习和图神经网络等创新,将生成式 AI 的实用性推向新高度。一、混合检索:破解召回率与精准度的 “不可能三角”传统 RAG 系统依赖单一检索模式的时代已经终结。…- 1
- 0
-
重磅!用 Gemini 2.5 搭载 Cohere Embed v4,视觉RAG 终于不用 Markdown 绕路了!
在多模态AI快速发展的今天,企业在数字化转型中面临着如何高效处理和理解复杂图像信息的挑战。传统的RAG(Retrieval-Augmented Generation)系统主要依赖于文本数据,对于包含图像、图表、幻灯片等视觉信息的文档处理能力有限,常常需要将图像转换为Markdown格式,导致信息丢失和处理效率低下。如今,借助Google DeepMind的Gemini 2.5视觉大模型和Coher…- 0
- 0
-
如何选择Embedding Model?关于嵌入模型的10个思考
在大模型应用中,尤其基于RAG框架的大模型应用,嵌入模型(embedding Model)是不可或缺的关键组件。这里总结了笔者在实践中关于潜入模型的10个思考,希望对大家有所帮助。1. 嵌入模型在RAG中的重要性嵌入模型能够将文本转换成数值形式的向量,这让计算机可以更高效地处理、对比和检索信息。这些向量能够捕捉单词、短语甚至是整篇文档之间的意义联系,这使得嵌入模型成为了各种自然语言处理任务中的关键…- 1
- 0
-
小米 Mi-BRAG 智能引擎:全模态文档问答与细粒度溯源的创新实践
导读 当产品功能越复杂、说明书越来越厚,AI 能否精准解析用户问题并即时给出答案?当相关领域文档越积越多,AI 能否精确定位跨文档的核心内容并进行提炼?在大模型时代,如何突破通用知识的局限,构建兼具专业性与个性化的知识库问答系统?基于这些行业痛点,小米创新研发 Mi-BRAG 知识库问答框架,该框架通过四大核心技术体系重构知识处理范式,已在公司多个场景中落地应用,包括小爱同学的个人信息问…- 1
- 0
-
深入 GraphRAG:构建更强大的知识增强问答系统的六大开源项目
前几天我分享了一篇文章知识图谱+向量数据库:打造更智能的RAG系统,介绍了如何把知识图谱和RAG系统相结合,来提升检索内容的准确性。然后有读者询问我是否有相关的开源项目推荐,我整理了下,目前有6个关注比较高的图RAG项目,大家可以关注学习一下。Microsoft GraphRAG微软官方发布的 GraphRAG 是一个构建在 LLM 与图机器学习结合基础上的检索增强生成系统。它能够从私有文档中自动…- 0
- 0
-
LLM的“记忆外挂”来了!Supermemory新API:一行代码让LLM记忆“无限+省钱90%”
大模型无限记忆外挂来了!supermemory 公司刚刚发布 Infinite Chat API,能让任何 LLM 都具有近乎无限的上下文长度用户只需一行代码即可切换到该 API核心痛点:LLMs的上下文“天花板”我们都知道,现有的大模型在处理超过2万Token(甚至更少)的长文本时,性能往往会显著下降,出现“失忆”、理解偏差等问题。这极大地限制了它们在需要持久记忆和深度上下文理解场景…- 0
- 0
-
上下文压缩:RAG信息提炼的核心步骤
-正文-RAG传统方法检索的文档块常含无关噪声,受限于LLM上下文窗口。上下文压缩技术旨在解决此问题,它处理检索到的文档,只保留与查询最相关内容。这能减少上下文长度,去除噪声,提高信息密度,使提供给LLM的上下文更短、更干净,提升回答质量和效率。1. 上下文压缩是什么2. 使用LangChain的实现2.1 代码(基于ContextualCompressionRetriever)2.2 运行日志2…- 0
- 0
-
RAG越来越不准?你可能忽略了“元数据”的力量
你是否也有这样的困扰?问大模型一个很具体的问题:“请告诉我A软件的安装方法。”结果它却信誓旦旦地告诉了你B软件的安装步骤。在这个过程中,你可能已经花了大量时间解析和清洗上千份文档,接入RAG,但结果仍然不理想。为什么会这样?其中一个很重要的原因是,我们花了很多时间构建知识库,却忽略了一个看似不起眼的部分 —— 元数据。简单来说,元数据就是“描述数据的数据”。比如:文档的元数据:作者、标题…- 1
- 0
-
一文搞懂:AI Agent 八大核心概念
一、智能体(Agent)图片来源:百度所谓智能体,指的是能独立采取行动以实现特定目标的 AI 实体。想象你有一个贴心的小跟班,你让他干啥他就干啥。比如你让他查明天的天气,他立马就给你整得明明白白。举个栗子,AI 面试官就是一个很棒的智能体。它能够根据招聘要求,自主给候选人发送试邀请,然后自主进行视频面试,再自主进行面试评价,自主发送 offer。最后把招聘的…- 1
- 0
-
告别 RAG,拥抱 CAG:知识任务的革新之路
在人工智能技术飞速发展的今天,大语言模型(LLM)已成为自然语言处理领域的核心力量。为了增强 LLM 处理知识密集型任务的能力,检索增强生成(RAG)曾一度成为主流方案。然而,RAG 在实际应用中暴露出检索延迟、文档选择错误、系统复杂度高等诸多问题。随着长上下文 LLM 的出现,一种全新的范式 —— 缓存增强生成(CAG)应运而生,为知识任务的处理带来了颠覆性的变革。CAG 的核心原理:预加载与缓…- 1
- 0
-
大模型幻觉是个啥?一文带你看透AI的“脑洞”
最近与同事探讨在生产环境使用大模型的一些经验,他说 DeepSeek 幻觉比较严重,同样的提示词每次回答都有可能不一样,糟糕的时候差别还挺大,对线上应用来说体验比较糟糕(用户来使用你的功能,带着预期是比较高的,如果稳定性不好,就是浪费用户的时间)。我说“这个跟文生图模型刚出来一样如 Stable Diffusion 抽卡,运气好能抽到一两张好图,运气不好各种畸形图”。那么到底什么是 大模…- 0
- 0
-
RAG 是个啥?一文秒懂
。大语言模型(LLM)在自然语言处理和自然语言理解方面取得了重大突破。大模型与应用场景的结合有助于可以在降低成本的同时提高效率。在具体场景的落地中,通用领域的大模型缺乏具体的领域知识,需要对其进行微调,这将消耗大量的计算资源。当前,检索增强生成(RAG)作为大语言应用的一种模式,可以将大语言模型强大的理解能力和领域知识相结合,可以提高模型准确性和效率。什么是 RAGRAG是 “Retrieval-…- 0
- 0
-
从零构建、100% 本地运行:Qwen 3 Local RAG Reasoning Agent
今天一起从零搭建一个基于本地运行的 Qwen 3 和 Gemma 3 模型的 RAG 系统,结合文档处理、向量搜索和网络搜索功能,为用户提供准确且上下文相关的回答,项目来自 Unwind AI 的教程,开源地址见阅读原文,今天咱们一起来解读项目的搭建和技术重点。项目概述· 名称:Qwen 3 Local RAG Reasoning Agent· 目标:通过本…- 1
- 0
-
RAG-MCP:突破大模型工具调用瓶颈,告别Prompt膨胀
大语言模型(LLM)的浪潮正席卷全球,其强大的自然语言理解、生成和推理能力,为各行各业带来了前所未有的机遇。然而,正如我们在之前的探讨中多次提及,LLM并非万能。它们受限于训练数据的时效性和范围,也无法直接与瞬息万变的外部世界进行实时交互或执行需要特定技能的操作。为了弥补这些不足,赋予LLM调用外部工具(如搜索引擎、数据库、计算器、各类API服务)的能力,成为了学术界和工业界共同关注的焦点。模型上…- 0
- 0
-
图检索增强生成(GraphRAG):让AI真正理解复杂知识
你是否曾经遇到过这样的情况:向ChatGPT提问专业问题时,它给出的答案看似合理,但实际上缺乏深度或存在事实错误?今天,我们将探索一项解决这一问题的前沿技术——图检索增强生成(GraphRAG),这项结合知识图谱与检索增强生成的创新方法正在彻底改变AI在专业领域的应用方式。引言大语言模型(LLM)如GPT系列在文本理解、问答和内容生成等多种任务上取得了令人瞩目的突破。然而,当面对需要专…- 0
- 0
-
RAG往后发展的三点感触及语言文化分析的两个工作
今天是2025年5月16日,星期五,北京,晴。我们说已经过许多关于知识图谱,RAG,文档智能方面的事情,这些都在2024年得到了很好的发展,也涌现出了许多细化的方案,GraphRAG,DeepResearch等层出不穷,Mineru、Mistralocr等文档解析工作也出现了不少,Qwen3也发布了。但是,目前已经进入到5月份了,仿佛都静了下来?许多github项目都不怎么更新了?模型发布也没那么…- 0
- 0
-
基于LangChain实现RAG的技术原理
前面为大家介绍过大模型相关的专业术语,比如AGI、RAG、LLM。也提到了当前阶段AI大模型存在的一些不足,比如对训练数据的数量和质量要求、对算力和电力的开支,以及大模型最大的问题:信息幻觉。目前业内对大模型信息幻觉的处理方法,一般都采用了RAG的方法,即Retrieval-Augmented Generation,检索增强生成。简单来说就是通过大模型+知识库的方式,从广泛的知识库中检索相关片段,…- 1
- 0
-
所有AI工具共享记忆!MCP协议让知识库进化成‘活’的智能中枢
在日常工作中,我们越来越习惯于组合使用多种AI工具来提升效率。但一个常见的困扰是,这些工具往往各自为战,“记忆”无法共享,导致我们的工作流被打断。设想这样一个场景:你首先在腾讯IMA知识库中查阅了大量关于某行业最新的政策文件和市场分析报告,对项目背景和关键数据有了初步掌握。接着,你想让AI写作助手(比如 Gemini 或 文心一言)帮你基于这些信息起草一份项目建议书的初稿。这时,你不得不手动复制粘…- 0
- 0
-
快速上车!RAGflow 保姆级安装指南!小白也能轻松搞定!
前面已经介绍了很多dify的内容,也有很多朋友问了我很多Dify平台的内容。但是在工作中,很多客户提出了一些内部知识库管理问题,这部分的内容,明显在Dify这里是一个短板。那这里接触了RAGflow,在文档管理方面RAGflow确实有自己的优势。RAGFlow 是一款开源检索增强生成(RAG, Retrieval-Augmented Generation)引擎,致力于通过深度文档理解技术,帮助用户…- 0
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!