-
两年了,你的RAG知识库落地了吗?一场价值数百万的AI智商税实验
我们是不是拿着公司的项目预算做了两年所谓的技术研究??这两天翻到了两年前ChatGPT刚爆发时候画的一张PPT,很有些感慨。是的,两年前,GenAI刚爆发的时候,微调 / 向量 / 知识库这些词缀就已经进入大家的视野了,然而两年过去了,AI技术确实也越来越成熟了,我想问问大家,你们的RAG知识库项目建好了吗?效果超过基于上一代全文检索技术的知识库了吗?得到客户认可了吗?在经手几个企业级…- 1
- 0
-
探讨如何构建具有可扩展长时记忆AI Agents相关的技术实现
探讨 AI Agents 长期记忆相关的技术实现,核心在于解决大型语言模型 (LLM) 固定上下文窗口的内在限制,使其能够在长时间、多轮次的对话中保持连贯性和一致性。缺乏这种持久性记忆能力导致 AI 代理遗忘用户偏好、重复信息并否定先前的事实。构建一个能够超越有限上下文窗口的鲁棒 AI 记忆系统,需要选择性地存储重要信息、整合相关概念并在需要时检索相关细节,这模仿了人类的认知过程。(底层…- 0
- 0
-
建议收藏!重温RAG的5种分块策略
在构建高效的大语言模型(LLM)应用时,数据分块是至关重要的预处理步骤。通过将大型数据文件智能分割为适当大小的片段,我们能够为LLM精准提供执行特定任务所需的信息量 - 既不会因信息过载而影响性能,也不会因信息不足而降低输出质量。 为了方便大家更好了解RAG的分块,将分块策略进行一些回顾和总结。 AgentLight" data-from="0" data-headi…- 1
- 0
-
关于人工智能应用场景中前期数据处理的业务场景和技术分析——包括结构化数据和非结构化数据
“ 文档处理是人工智能应用领域中的重要环节,其业务需求复杂,技术实现难度高;因此,怎么处理复杂文档是每个技术人员都需要考虑的问题。”文档处理在当前人工智能行业下是一个非常基础也非常重要的工作,不论是模型的训练和微调,还是以RAG检索增强,亦或者是在传统的搜索引擎(包括百度,谷歌这种搜索引擎;以及电商等内部平台的搜索需求)中都是必不可少的一个重要环节。但面对复杂的文档格式和类型,文档处理的…- 1
- 0
-
拆解智能体系统的能力和构成,我们需要的是可靠的AI系统,而不是Agents
全面讨论了检索增强生成(RAG)、其向 GraphRAG 的演进、记忆在智能 Agent 中的关键作用以及构建复杂 Agent 系统的架构模式。1. 检索增强生成 (RAG) 和 GraphRAG- RAG 的核心概念:RAG 解决了 LLM 并非无所不知的局限性,通过在生成响应之前向它们提供来自特定数据集的相关上下文来实现。- “检索增强生成(RAG)是一种有效的方法,可以让 AI 从…- 1
- 0
-
如何构建基于n8n的RAG日报工作流(手把手教程)
过去两周,又是在昏天暗地项目实施和咨询中度过,计划发的文章也略微耽搁了两篇,后续补上。接触业务场景越多,愈发觉得应该埋头苦干的同时,除了日常翻些公众号和知乎的水文外,还是应该多浏览些国内外优质信息源的不同行业最佳实践。说到这里也就要引出“AI 日报”(自动化信息/内容汇总推送)这个概念。虽然市面上有不少“AI 日报”类的信息推送,但实测了些发现,大多还是偏向于泛化内容,比如新模型发布动态、新奇产品…- 1
- 0
-
“深度搜索”远不止搜索,更像人人都能用的Agent
很多翻译限制了有关技术的想象。比如 DeepSearch,被叫做深度搜索,听起来就是“深的搜索引擎”,似乎和百度都没有多大区别,一点也不性感。但我今年最惊喜、最高频使用的AI能力,还真就是 DeepSearch。海外同类功能大多需要付费,而且次数非常受限。看到昨天夸克全量免费上线了“深度搜索”,我只觉得,这是一个被名字暂时封印的“全能Agent”。一、DeepSearch和AI搜索啥区别…- 2
- 0
-
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…- 1
- 0
-
大模型推理革命,让AI告别”幻觉”时代!
❝一句话概括:当大模型开始学会用知识图谱当"脚手架"、RAG当"外挂知识库"、伪代码当"防摸鱼进度表",从此推理不再放飞自我,妈妈再也不用担心我的幻觉啦!第一阶段:识别核心概念1. 论文主要贡献点分析从论文内容来看,它主要提出了三个创新或改进点,每个点都围绕如何让大型语言模型在复杂推理时更可信、更可控,以及如何在保持可解释性的同时,提升推…- 1
- 0
-
参数不到1B竟碾压大模型?工具调用RAG黑马问世
❝一句话概括,这篇论文就像是 "学术界的瑞士军刀:能检索会推理,多语种切换如德芙,就是参数规模小得像个玩具"1. 论文分析:贡献、难点与概念依赖 (Stage 1)1.1 主要贡献点分析提出了新的“小型推理模型”家族(Pleias-RAG系列)论文展示了两个针对检索增强生成(RAG)任务的小模型:Pleias-RAG-350M 和 Pleias-RAG-1B。它们在相对较小的参…- 1
- 0
-
RAGFlow实践:快速实现知识库的智能检索
介绍RAGFlow是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。引自:https://github.com/infiniflow/ragflow/blob/main/REA…- 2
- 0
-
关于大模型应用过程中的记忆功能管理问题,以及解决方案
“ 大模型应用的很多功能包括记忆管理,需要的不仅仅只是技术问题,还需要足够的工程化能力才能解决。”众所周知,大模型是没有记忆功能的,因此记忆管理就成为大模型应用过程中必不可少的一个环节;虽然说记忆管理说起来很简单,但在实际操作中还是存在很多问题。比如说,随着记忆的增加token成本的上升,大模型窗口的限制,记忆的存储问题等等。因此,今天就从项目的实际操作中来详细了解一下大模型的记忆功能;…- 0
- 0
-
GraphRAG 工作步骤详解:从图的创建到搜索的实战示例
也许你已经看到过论文From Local to Global: A GraphRAG Approach to Query-Focused Summarization,这是微软研究院在使用知识图谱进行检索增强生成(RAG)方面的观点。也许你感觉论文中某些部分有些模糊。也许你希望文档更详细地解释信息是如何从图中检索的。如果你有这样的感觉,就继续阅读吧!在这篇文章中,我们将详细描述GraphRAG过程的…- 2
- 0
-
Coze搭建RAG应用,解锁数据分析知识库
为什么要搭建一个RAG应用?许多同学会有这个疑问,先了解一下什么是RAG?RAG是一种结合检索和生成的技术方法,把传统基于检索的问答系统与基于自然语言生成的技术融合起来,提升AI大模型回答自然语言问题时的准确性与可靠性。使用RAG应用时,会先从大量外部知识库或企业私有文档里检索相关信息,再结合模型生成更精准、贴合上下文的答案 ,用检索 - 生成机制,提高生成模型表现,有效解决大…- 1
- 0
-
构建负责任的AI解决方案(下)
确定基线以及衡量解决方案生成的有害输出的方法后,可以采取措施缓解潜在危害,并在适当时重新测试修改后的系统,将危害层级与基线进行比较。我们这里只能用“缓解”而不是“消除”,你猜猜为什么?缓解生成式 AI 解决方案中的潜在危害涉及分层方法,其中缓解技术可在五个层级中的每一层级应用,如下所示:数据模型安全系统元提示和工程化层用户体验1:数据如果整个应用一开始喂进去的数据就是脏数据,大量存在着憎恨、色情、…- 1
- 0
-
让用户与数据库对话:使用Streamlit构建基于RAG的SQL助手
RAG(检索增强生成)系统通过利用大语言模型(LLM)并将其与特定数据源集成,使用户可以使用自然语言提出问题。我将在本文重点介绍 RAG 的一个具体应用:将用户的自然语言转化成 SQL 查询并在数据库引擎上执行,最后以自然语言的形式返回结果。最终我们将会得到一个能执行单表和联表查询的 SQL 助手:我们的主要技术栈:LangChain 用于连接 LLM 与数据库LangGraph 用于管理多步骤工…- 1
- 0
-
RAG检索系统的两大核心利器——Embedding模型和Rerank模型
“ Embedding和Rerank模型是RAG系统中的核心模型。”在RAG系统中,有两个非常重要的模型一个是Embedding模型,另一个则是Rerank模型;这两个模型在RAG中扮演着重要角色。Embedding模型的作用是把数据向量化,通过降维的方式,使得可以通过欧式距离,余弦函数等计算向量之间的相似度,以此来进行相似度检索。而Rerank的作用是在Embedding检索的基础之上…- 1
- 0
-
让大模型“记住”更多:RAG与长期记忆
OpenAI近期发布的更新增强了原本ChatGPT的记忆功能,新版本的GPT模型在回复用户问题的时候,除了记住用户过往的聊天记录,还能够跨聊天调取记忆,从而生成更加准确性的回答。在此之前,我们使用ChatGPT等类似的AI聊天软件时,对话与对话之间的信息是不共享的,这就导致了一个问题:我们每次在新开启一个对话的时候,都要重复地告诉大模型一些“背景信息”。相信大家在遇到这种情况的时候会很自然的思考一…- 1
- 0
-
知乎直答:AI 搜索产品从 0 到 1 实践探索
导读 本文将介绍#知乎 直答产品搭建过程中的实践经验。主要内容包括以下三大部分:1. 知乎直答产品介绍2. 实践经验分享3. 直答专业版介绍分享嘉宾|王界武知乎AI 算法负责人编辑整理|蔡郁婕内容校对|李瑶出品社区|DataFun01知乎直答产品介绍知乎直答是具有强社区属性的通用 #AI 搜索产品,但并非社区版 AI 搜索。知乎…- 1
- 0
-
RAG与推理的协同融合:突破大语言模型的认知边界
前言:从检索到推理的演进之路最近读了王昊奋教授团队的《Synergizing RAG and Reasoning: A Systematic Review》,这篇综述真是让我对大模型的未来发展有了新的思考。回顾RAG(Retrieval-Augmented Generation)技术的演进历程,会发现它不仅仅是AI知识时效性难题的“权宜之计”,而是逐步成长为AI认知能力跃迁的核心引擎。…- 1
- 0
-
五种RAG分块策略详解 + LlamaIndex代码演示
先前文章中提到,不断优化原始文档解析和分块策略是控制变量法下,是提高最后检索效果天花板的务实做法,前面已经介绍了 MinerU vs DeepDoc 在文档解析方面的效果对比。MinerU vs DeepDoc:集成方案+图片显示优化关于文档解析部分简单的结论是,MinerU 无疑是值得关注和尝试的一个文档解析框架,但具体效果还要结合特定项目文档做仔细横评。我目前在常规项目中,主要是对照使用 De…- 1
- 0
-
预生成上下文:重构 RAG 的关键工程,构建 AI 编程底座
在上一篇文章《AI 友好架构:平台工程赋能 AI 自动编程》,我们提及了 DevOps 平台应该大量的预先生成项目、模板、上下文等信息。在这一篇文章中, 我们将详细展开其中的一个核心实践:预生成上下文。最近的几个月里,预先生成上下文在 AI 编码领域成为了一个热门话题,或者说技术趋势。开发人员受益于这些 AI 生成的 Wiki,用于 快速理解开源项目的用途、技术架构。尽管,从理解深度来说,现在的基…- 1
- 0
-
90%的AI对话都很傻,核心原因是记忆问题
其实不论是常规的AI应用,还是现在大家都在传的Agent框架:一直有个问题是难以解决的:模型与领域知识(个人知识)如何混用的问题。因为一般公司对模型的使用多还是粗暴的直接上提示词,比如我们在《为什么AI多轮对话那么傻》这篇文章里面为文章生成观点这块。这种生成提示词,其本质是使用模型本身的知识,那么他就一定不能被称为一个合格的分身,举个例子,我的AI分身有一段发言:你这鬣狗哲学挺溜啊!但华为狼狈计划…- 1
- 0
-
从零开始:用“扣子”智能体快速解决业务难题
前言作为技术人员,日常总会遇到各种各样的业务场景。如果对业务不够了解,系统设计出来往往难以真正落地、好用。这次,我想和大家聊聊,如何借助扣子平台,快速搭建一个业务专家智能体,让我们在遇到业务难题时,随时随地都能获得专业解答。前置知识:RAGRAG 简介传统的大型语言模型(如最初的 ChatGPT)在回答问题时,主要依赖于训练期间积累的知识。一旦遇到训练数据之外的新问题(比如最新事件或企业内部文档)…- 0
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!