-
RAG 应用进阶指南:别再“一次性”加载了!教你构建可分离、可维护的动态 AI 知识库
还在用脚本一次性跑完 RAG 流程?太 Low 了!本教程带你将数据处理与 AI 应用彻底解耦。你将学会:1) 建立一个独立的“数据中心”,随时增删改查你的知识。2) 让 RAG 应用加载指定知识库。Github: https://github.com/langchain-ai/langchain嘿,各位 AI 架构师和探索者!你们是否成功用 LangChain 搭建了你的第一个 RAG 应用?很…- 0
- 0
-
学习 RAGFlow 知识库高级配置
目前为止,我们已经学习了很多关于 RAGFlow 的知识库配置,包括分块方法,PDF 解析器,嵌入模型,RAPTOR 策略,提取知识图谱等,除此之外,还剩下一些高级配置,我们今天一起来看下:页面排名当我们从多个指定的知识库中检索知识时,可能希望某些知识库的知识优先被检索到。比如我们有两个知识库:知识库 A 用于 2024 年新闻,知识库 B 用于 2025 年新闻,但希望优先显示 2025 年的新…- 0
- 0
-
Agentic Workflow——RAGFlow 0.20.0 特性预览
从 Workflow 到 Agentic Workflow经历了较长时间的等待,RAGFlow 0.20.0 版本终于发布,这是一个里程碑式的版本,因为它代表 RAGFlow 在 RAG/Agent 的拼图终于完整。在一年前的此时,RAGFlow 推出了 Agent 特性,但在当时这只包含 Workflow ,并没有提供 Agentic Workflow 的编排能力,因此不是完整体的 Agent …- 0
- 0
-
E²GraphRAG:图结构 RAG 的效率 “加速器”
“ E²GraphRAG 框架,直击图结构 RAG 方法效率瓶颈。其在索引阶段构建摘要树与实体图双结构,检索阶段采用自适应策略动态选择检索模式,实现索引速度较 GraphRAG 提升 10 倍,检索速度较 LightRAG 提升 100 倍的突破,为高效智能检索开辟新路径。” 大家好,我是肆〇柒。大型语言模型(LLM)在自然语言处理(NLP)任务中广泛应用,但存在幻觉问题和领域…- 0
- 0
-
RAG的五种分块策略
RAG 是将附加文档存储为嵌入向量,将传入的查询计算向量与这些向量进行匹配,并将最相似的信息与查询一起提供给LLM的过程。由于附加文档可能非常大,流程的步骤1还需要分块,将大文档分成较小/方便管理的文本块,RAG的分块策略主要有五种,分别是固定大小分块、语义分块、递归分块、基于文档结构的分块、基于LLM的分块。固定大小的分块固定大小的分块是最直观和直接的方法,根据预定数量的字符、单词或标记将文本分…- 0
- 0
-
关于RAG检索增强的右侧优化方案——企业级应用中怎么提升RAG的检索准确度
“ RAG最终的评判标准只有一个——召回精度,RAG所有的技术都是围绕着怎么更快更准确的召回数据。”RAG增强检索的核心指标只有一个——召回准确率;对于RAG技术来说,最重要的事情就是其召回数据的准确性;而怎么提升其召回准确率,方法只有两个,一个是左侧增强,一个是右侧增强。所谓的左侧增强就是文档处理处理,怎么更好的处理复杂文档;而右侧增强就是召回侧的召回策略。今天,我们就来讨论一下RAG…- 0
- 0
-
在RAG中文档处理质量参差不齐的情况下——提升召回精度的企业级解决方案
“ RAG做起来很简单,但想把RAG做好就需要想尽办法去提升数据的召回质量。”在RAG中文档处理可以说是一个重难点,特别是复杂文档的处理更是一言难尽;因此,面对这种现实问题,总不能直接摆烂,因此怎么在文档质量处理参差不齐的情况下,提升RAG的召回精度就是一个需要解决的问题。文档处理的质量直接影响到RAG的召回效率,但目前文档处理是一个难点;因此怎么基于现有条件,提升RAG的召回精度?既然…- 0
- 0
-
再学 RAGFlow 的文件解析逻辑
经过几天的学习,我们了解了 RAGFlow 的文件上传和解析流程,了解了解析任务是如何触发并放入 Redis Stream 消息队列中,等待任务执行器消费和处理的。今天我们将继续学习任务执行器中最重要的函数 do_handle_task() 的实现,看看 RAGFlow 是如何具体执行每个解析任务的。do_handle_task 函数实现do_handle_task&…- 0
- 0
-
AWS使用提示词与RAG来减少大模型幻觉
概览 大型语言模型(LLM)是生成内容的强大工具。这些LLM的生成能力伴随着诸多优缺点。我们经常遇到的主要问题之一是生成内容的事实准确性。这些模型具有高度的幻觉倾向,有时会生成不存在或错误的内容。生成的内容往往极具说服力,看起来像是事实正确的有效信息。作为开发者,我们有责任确保系统完美运行并生成简洁的内容。本文将深入探讨在使用AWS Bedroc…- 1
- 0
-
RAG与Agentic RAG:智能AI系统的进化之路
近年来,人工智能(AI)如同一股洪流,席卷了整个数字世界。从日常的搜索问答到视频生成,再到客户服务支持,AI的身影无处不在。而在AI的众多技术中,RAG(Retrieval-Augmented Generation,检索增强生成)和Agentic RAG(智能代理RAG)无疑是两颗耀眼的明星。它们不仅提升了信息处理的效率,还为复杂任务的解决提供了全新的可能性。但问题来了:RAG和Agentic R…- 0
- 0
-
不止于相似度:混合搜索如何重塑 RAG 的未来
1. 引言:当“最相似”不再是“最相关” 在构建检索增强生成(RAG)系统时,我们常常陷入一个困境:如何确保检索到的上下文既“语义相关”又“关键词精确”? 想象一下这个场景: 当用户搜索“苹果公司发布的 M3 芯片评测”时,一个纯粹依赖向量搜索的 RAG 系统可能会返回一篇关于“苹果公司最新财报”的文章。从语义上看,这没错,两者都与“苹果公司”高度相关。但用户最关心的核心关键词——“M3 芯片”—…- 0
- 0
-
RAG应用如何进行有效的文本切分
在RAG(检索增强生成,Retrieval-Augmented Generation)应用中,文本分块(Text Chunking)是连接“知识存储”与“检索-生成”的核心预处理步骤,其重要性体现在对检索效率、相关性、生成质量及系统灵活性的多维度影响。首先松哥和大家讨论第一个问题,就是为什么我们要重视文本切分。一 为什么文本切分很重要1.1 提升检索相关性:精准匹配用户需求RAG 的核心是“先检索…- 0
- 0
-
为什么你的RAG效果总差一点?从RankNet到Qwen,一文读懂Rerank模型的演进
为什么你的RAG效果总差一点?从RankNet到Qwen,一文读懂Rerank模型的演进概要本文主要面向对检索增强生成(RAG)和 Rerank 技术感兴趣的初学者。我们希望通过梳理 Rerank 模型从经典的概率模型到前沿的大模型驱动范式的演进历程,帮助大家理解 Rerank 在优化 RAG 系统效果时扮演的关键角色,以及不同阶段的核心技术思想。目录概要前言第一章:基础架构 - 基于概率模型的成…- 0
- 0
-
提升RAG表现的15个实战分块技巧
RAG Chunking TechniquesRetrieval-Augmented Generation(RAG)很大程度上取决于你怎么分块数据。想让LLM检索到真正有意义的上下文?你得用心设计数据的分块方式。下面是15种关键的分块策略,详细解释,每种都带一个实际的例子和实用的拆分方法。1. 按行分块(Line-by-Line Chunking)是什么:每遇到新行就拆分。什么时候用:…- 0
- 0
-
96.3%准确率!Routine框架:让企业级Agent告别“不靠谱”
想象一下,你给一个超级聪明的AI助手布置一项公司里的复杂任务,比如“查一下新员工小王的部门预算还剩多少,并和去年对比生成报告”。通用AI模型(如GPT-4)可能想法天马行空,但实际操作起来却容易“掉链子”:步骤混乱、用错内部工具、参数填不对,甚至直接“摆烂”不干活。这就是当前大模型智能体(LLM Agent)落地企业面临的核心难题——缺乏领域知识导致规划不稳、执行飘忽。论文:Routine: A …- 0
- 0
-
中小企业AI破局:RAG 部署从 “能用” 到 “能用好” 的 10 条经验
本文源自 Contextual AI 首席执行官和联合创始人 Douwe Kiela 近日发表了 RAG Agent 经验的演讲整理而来,主要介绍的当下中小型企业利用AI提效的困境以及如何破局,聚焦内部知识库RAG这一核心概念(如果不了解RAG,可以参考一文了解大模型应用基本概念),非常有参考价值,希望能给读者启发!尽管人工智能体前景广阔,但企业在试点阶段后往往难以实现真正的价值。“context…- 0
- 0
-
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…- 0
- 0
-
MiniMax M2:所有坑都踩过,才能做出所有人都能用上的Agent
最近一个月,基础模型似乎又有点多起来。但若仔细去看这些模型厂商的动作,大体还是走出了两条路。一种是在诸多难点里选择一个死磕,成为这个单点上的SOTA。这种路线可以快速在开发者群体留下一个明确的印象,但也可能限制住了一家模型公司的“基座”属性。另一种则是在各个模态上全面前进,在一个最全面的基础模型蓝图里不停交出一个个关键拼图。已经有了全球最强语音模型和视频模型的MiniMax就是第二种。而它最新的拼…- 0
- 0
-
基于Spring AI Alibaba 的 DeepResearch 架构与实践
一、引言与概述我们基于 SpringAI Alibaba Graph 构建了一套 Java 版本的 DeepResearch 系统,实现了从信息搜集、分析到结构化报告生成的全自动流程。系统主要具备以下能力:推理链路: 通过多轮信息收集,自动构建从资料到结论的分析过程。Java 技术栈:适合对长期稳定运行有要求的场景。Spring 生态集成:可直接使用 Spring Boot、Spring Clou…- 0
- 0
-
Google 搜索产品副总裁:AI 搜索的尽头是清晰
听了个播客,挺长。原稿英文,还好现在科技发达能直接翻译成中文。这期节目来自于Lenny’s Podcast,一个搞产品管理、用户增长和职业发展的节目。嘉宾是Robbie Stein,他是 Google 搜索产品副总裁。之前在 Instagram 做过产品总监,主导Stories、Reels 和 Close Friends 的诞生。如果你了解过古典国外互联网发展史,会知道,他几乎亲手定义了社交产品如…- 0
- 0
-
Claude Code接入飞书mcp,保姆级教程来啦
有了飞书MCP,一句话就能让AI帮你创建飞书文档、发送群消息、操作多维表格本文是一份保姆级教程,只需5个步骤,3分钟即可完成Claude Code接入。全程配图!步骤1:创建飞书应用,添加机器人访问飞书开放平台 https://open.feishu.cn ,使用飞书账号登录后台。点击"创建企业自建应用",填写应用信息:应用名称:Claude MCP(可自定义)应用描述:用于C…- 0
- 0
-
GLM-4.6:355B参数的AI巨兽,代码能力爆表,推理性能全面升级,国产AI的新突破!
在人工智能领域,大语言模型的发展日新月异,不断推动着技术的边界。智谱AI近期发布的GLM-4.6模型,作为其旗舰产品,凭借其卓越的性能和广泛的应用前景,引起了业界的广泛关注。一、项目概述GLM-4.6是智谱AI推出的最新旗舰级文本模型,总参数量达到355B,激活参数为32B。该模型在所有核心能力上均超越了前代GLM-4.5,特别是在代码能力、上下文长度、推理能力、搜索能力、写作能力和多语言翻译等方…- 0
- 0
-
放弃ES+Mongo,如何用Milvus一套系统搞定千万用户视频检索*关键词
本文改编自Opus Clip投稿,这是全球 AI 视频剪辑工具的头号产品,2024年,获用户量1000万+,产生视频总量1.7亿+。今年二月,获得由软银愿景基金二期领投的新一轮融资。01需求分析1.1 需求背景与问题提出2025年1月,Opus Clip推出基于Milvus的RAG系统构建的OpusSearch语义搜索产品,该产品可以帮助各种专业视频创作者从素材库中精准找到任何需要的素材内容,并根…- 0
- 0
-
AIO Sandbox:为 AI Agent 打造的一体化、可定制的沙箱环境
背景随着 LLM 的持续演进,AI 的应用形态经历了三代跃迁:Chatbot:对话式交互,回答问题Copilot:辅助协作,提升效率Agent:自主执行,完成任务Agent 能够自主感知环境、规划步骤、调用工具,能够像人类一样操作计算机:自动浏览网页收集信息、生成并运行代码分析数据、执行系统命令管理文件,甚至通过可视化界面完成复杂的多步骤操作。这种能力使 Agent 的交付成果接近甚至超越人类专业…- 0
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!























