-
基于大模型的业务流程原子化编排技术在RPA中的应用
编者荐语RPA 即机器人流程自动化(Robotic Process Automation),在其实际业务开发流程中,存在着相同业务步骤重复开发的问题,这使得 RPA 实施的成本显著增加,同时还降低了开发效率。随着大语言模型(LLM)技术发展,通过智能体编排 RPA 原子业务流程来提升 RPA 原子流程的复用度已成为可能。本文详细…- 4
- 0
-
AI助手要觉醒?揭秘RAG、Agent、MCP三大超能力如何让它无所不能!
你有没有想过,为什么现在的AI助手突然变得这么“聪明”?它能三秒内查清股市数据、自动安排你的差旅行程,甚至帮你写专业报告。这背后,其实是AI界悄悄解锁了三大超能力——超级记忆、自主思考、万物互联。今天我们就用人话拆解这些黑科技!超能力一:超级记忆(RAG)一句话解释:AI终于学会“查资料再答题”了!想象你让AI写一份《2024年新能源汽车报告》,以前的AI可能会瞎编数据,但现在——1️⃣ 翻资料:…- 3
- 0
-
为什么在大模型中需要使用向量数据库?
1. 引言在 AI 大模型(如 ChatGPT、LLaMA)的应用中,我们经常听到“向量数据库”这个概念。为什么大模型需要向量数据库?它到底解决了什么问题?本文将从向量、语义理解、向量之间的距离等方面入手,带你理解向量数据库的核心作用,并解释它在 AI 时代的重要性。2. 什么是向量?向量(Vector)是数学中的一个概念,可以简单理解为一个有方向和大小的数值列表。在 AI 领域,向量通常用于表示…- 6
- 0
-
李宏毅:一堂课搞懂 AI Agent 的原理
李宏毅刚刚发布了《一堂课搞懂 AI Agent 的原理》,非常深入浅出,强烈推荐。李宏毅认为,从 LLM 的角度来看,它做 AI Agent 任务仍然是在做文字接龙。AI Agent 并不是语言模型的新技术,它比较像语言模型的一个应用。视频如下:课程主要内容:备注:重点信息在第五部分,AI Agent 的关键能力剖析一、AI Agent 的基本运作原理核心循环:目标 (Goal) -> 观察…- 8
- 0
-
AI模型的Token是个啥?一文秒懂!
DeepSeek 的爆火让茶余饭后讨论的话题都变成了AI,如果你玩过ChatGPT 或者 DeepSeek 这样的 AI,可能听过 “token” 这个词。听起来像是啥高科技玩意儿对吧?别慌,其实它超级简单!Token 就是AI看懂你说话的“小砖块”,就像你搭乐高时一块块小零件。咱们今天就来轻松拆解它。Token 是啥?在自然语言处理(NLP)中,token 是文本被拆分后的最小片段。AI模型并不…- 3
- 0
-
一个能给大模型加上“记忆”的工具,让 AI 助手更懂你,Star 26K+!
随着 AI 技术的飞速发展,大模型在自然语言处理领域能力也是显而易见的,无论是 Kimi 的超长上下文处理能力,还是最近爆火的 DeepSeek 推理大模型,都能够处理复杂的语言任务并生成高质量的文本。然而,这些大模型在记忆方面存在明显的局限性。以 ChatGPT 和 DeepSeek 为例,尽管它们能够处理的上下文越来越长,但一旦超出上下文窗口的限制,就需要重新开启一个对话,仿佛“失忆”一般忘记…- 7
- 0
-
RAGFlow+DeepSeek搭建私人Ai助理
前言满血版DeepSeek虽然很好用,但仍然有三个主要缺陷:联网的DeepSeek无法解决数据安全问题,如果使用,数据将传输到其服务器,数据隐私性无法保证。上传的文件存在限制,无法解决有多个文件的问题。回答的内容存在幻觉,或是缺乏数据的泛泛而谈,不够精确。为解决这三点问题,可采用RAGFlow+DeepSeek本地部署的方案。1. 配置准备这套方案对设备依赖性较高,因为需要使用Docker做部署+…- 6
- 0
-
结合DeepSeek、FAISS与LangChain构建RAG系统
Retrieval-Augmented Generation(RAG)技术已经成为了一项革命性的突破。它打破了传统语言模型仅依赖预训练知识的局限,通过动态检索外部信息,生成更加相关和准确的回答。本文将详细介绍如何使用LangChain、FAISS和DeepSeek-LLM构建一个处理PDF文档、检索相关内容并生成智能响应的RAG系统。一、RAG技术概述RAG技术是一种结合了检索和生成能力的新型语言…- 8
- 0
-
大模型 RAG 终极指南:信息检索 + 文本向量化 + BGE-M3 实践全解析!
凡事预则立,不立则废,学习 AI 也不例外。过去,我已经分享了不少关于RAG(检索增强生成)的内容。最近,越来越多新朋友加入,为了让大家快速上手,我特意整理了一份RAG关键知识总结,让你系统掌握信息检索、文本向量化以及 BGE-M3 embedding 的核心要点。话不多说,干货开始!?本文整理一些文本向量化(embedding)和信息检索的知识,它们是如今大模型生成文本时常用的技术 —— “增强…- 6
- 0
-
MCP、RAG、Agent之间的概念和关系,被我和AI协作的12张图总结了
hi,我是持续探索与 AI 协作方式的周知。hi,我是持续探索与 AI 协作方式的周知。MCP、RAG、Agent 最近太火了,搞 AI 的都在聊,但发现身边很多朋友其实并不太懂这些概念花了一整天和 AI 协作,终于把这些复杂概念画成了 10 张易懂的图解从 MCP 的提示混合机制,到 RAG 的知识检索增强,再到 Agent 的自主决策框架,每张图都尽量简化到小白也能看懂的程度。建议:从文意到解…- 2
- 0
-
提升RAG性能的关键一步:一种基于混合分块器的粒度感知方法
检索增强生成 (Retrieval-Augmented Generation, RAG) 作为一种旨在应对大语言模型 (LLM) 在数据新鲜度、幻觉和领域知识不足等方面挑战的技术范式,通过检索相关知识来增强其生成答案的准确性。正如我们所知,一个优秀的RAG系统离不开两个核心组件:检索器(Retriever)和生成器(Generator)。检索器负责从海量数据中找到与用户query最相关的…- 6
- 0
-
MCP、RAG、Agent之间的概念和关系,被我和AI协作的12张图总结了
MCP、RAG、Agent 最近太火了,搞 AI 的都在聊,但发现身边很多朋友其实并不太懂这些概念花了一整天和 AI 协作,终于把这些复杂概念画成了 12 张易懂的图解从 MCP 的提示混合机制,到 RAG 的知识检索增强,再到 Agent 的自主决策框架,每张图都尽量简化到小白也能看懂的程度。建议:从文意到解意到图意去理解。其实技术没那么难懂,只是需要我们用简单方式解释而已。本意:MC…- 4
- 0
-
AI老板心中的迈巴赫:DeepSeek+Ollama+Xinference+RAGFlow+Dify部署教程,RAG落地5件套!
DeepSeek-R1火了之后,Ai老板部署需求大大提升,抛开效果不谈,五件套易用性和灵活性相比VLLM大大提升,门槛较低,但是效果不言而喻。 以下部署全部以docker方式进行,因为太方便了,但同时坑很多,请做好心理准备喜欢折腾的同学可以按照下面教程进行部署,我也是被逼无奈请杯子里面装满水,原地坐牢,不出意外的话就马上出意外了,一个BUG一支烟Xinference部署Xorbits I…- 4
- 0
-
从系统提示词看 Cline 和 MCP
背景最近在玩 Cline + MCP。一个想法是接入 Etherscan 的 MCP Server,这样可以实现一些常规的链上信息查询。实际上 Ethereum GPT[1] 就是用类似的方式实现的。然而搜索并没有发现成熟的实现,看来 Crypto 相比于 AI 还是小众太多了。幸而找到了 openapi-mcp-server[2],可以将 OpenAPI spec …- 3
- 0
-
大模型私有知识库如何提高准确率?切块是关键
在进行RAG(Retrieval-Augmented Generation)任务时,我们仿佛在进行一场精密的开卷考试。在回答问题之前,我们会通过多级检索策略查阅事先准备好的知识库(包含结构化文档、领域论文和实时更新的行业报告),这种动态增强机制不仅能够将答案准确率提升35-50%,还能通过语义关联技术自动生成知识图谱,使输出的答案具备专业深度和横向拓展性。…- 4
- 0
-
通义QwQ-32B+Milvus,消费级显卡布满血大模型与RAG的时代来了!
前言最近,通义开源的QwQ-32B模型可谓是火的一塌糊涂。作为一个中型推理模型,QwQ-32B只有320亿参数,但却在多个基准测试中展现出优秀的推理能力,几乎直逼满血版DeepSeek R1,在数学计算、写作与代码编程方面的表现更是相当不错。最重要的是,QwQ-32B不仅性能强大,还极其“亲民”,它体积小、推理快,支持消费级显卡部署,像RTX 4090这样的显卡就能轻松运行,非常适合普通个人开发者…- 7
- 0
-
RAGflow+AI:实现智能“测试需求分析师”
RAGflow介绍 RAGflow是一款功能强大的开源检索增强生成(RAG)引擎,它基于深度文档理解技术,能够从各种复杂格式的非结构化数据中精准提取关键信息。该引擎支持多种异构数据源,结合了大型语言模型和嵌入表示技术,为用户提供准确可靠的回答和有理有据的引用。RAGflow的安装与配置 RAGflow的安装相对简便,以下是具体步骤:环境准备:确保系统已安装Docker。Dock…- 6
- 0
-
RAG 调优指南:Spring AI Alibaba 模块化 RAG 原理与使用
RAG 简介Cloud Native什么是 RAG(检索增强生成)RAG(Retrieval Augmented Generation,检索增强生成)是一种结合信息检索和文本生成的技术范式。? 核心设计理念RAG 技术就像给 AI 装上了「实时百科大脑」,通过先查资料后回答的机制,让 AI 摆脱传统模型的“知识遗忘”困境。?️ 四大核心步骤1. 文档切割 → 建立智能档案库核心任务: 将海量文档转…- 4
- 0
-
一文读懂大模型RAG:检索、增强与生成的技术详解
大模型(Large Language Model,LLM)的浪潮已经席卷了几乎各行业,但当涉及到专业场景或行业细分领域时,通用大模型往往面临专业知识不足的问题。相对于成本昂贵的“Post-Training”或“Supervised Fine-Tuning”(监督微调,SFT),基于RAG的技术方案成为了一种更优选择。本文笔者将从RAG所解决的问题及模拟场景入手,详细总结相关技术细节,与大家分享~初…- 7
- 0
-
RAG检索增强之Reranker重排序模型详解!
什么是Reranker模型?ReRanker模型是对RAG检索返回的结果进行重新排序的模型。也就是下图所示中2nd Retrieval的模型。具体来说,ReRanker模型在RAG Pipeline中扮演着第二阶段的角色,即在初始检索步骤之后,对检索出的文档块chunks进行重新排序,以确保相关的文档块优先被传递给LLM进行处理。为什么需要Reranker模型?在回答这个问题之前,我们先深入了解一…- 8
- 0
-
泼冷水:CherryStudio+本地知识库,没你想的那么简单
知识库,没那么简单最近,有很多朋友在看了我的(假装是这样)一系列介绍 CherryStudio 的教程以后,都开始使用CherryStudio这个全能AI助手了。如果你还没有看过,可以翻看本账号之前的内容,相信一定会有所收获。我相信很多朋友使用CherryStudio的目的,除了AI对话以外,还想建立自己的知识库,让AI能结合自己提供的资料生成更有针对性的回答。这是一个很自然、也很美好的想法。但是…- 5
- 0
-
别太天真!RAG若只是文档灌Dify,那要工程师做什么?
在AI技术日新月异的今天,我们对智能助手的期待已经远远超出了简单的问答。你是否曾好奇,为什么有些AI回答精准流畅,而有些却显得答非所问?答案或许就在RAG(Retrieval-Augmented Generation,检索增强生成)——一种正在悄然重塑AI能力的技术。如果你以为RAG只是“把文档丢进dify”那么简单,那可能就低估了它的复杂性。今天,我们不仅要揭开RAG的核心原理,还要深入解析其中…- 4
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!


















