-
检索增强生成(RAG)的设计原理与架构解析
点击“蓝字” 关注我们在大型语言模型(LLM)蓬勃发展的今天,模型生成内容时的两大痛点日益凸显:一是"幻觉"现象,即模型凭空编造错误信息;二是知识陈旧,无法及时更新最新数据。检索增强生成(Retrieval Augmented Generation, RAG)作为应对这些挑战的创新范式,通过将外部知识检索与模型生成能力深度结合,构建了一套"检索-理解-生成"…- 6
- 0
-
智能问答大模型“小贵”上线,助力贵州政务服务升级|案例研究
贵州省人民政府办公厅为提升政务服务水平,推动数字政府建设,与拓尔思合作开发了智能问答大模型“小贵”。该模型基于拓尔思的拓天政务大模型和大模型一体化管理平台,通过多层次架构设计,实现了对政务数据的深度整合与智能化应用。“小贵”已正式上线贵州省人民政府官网,提供包括猜你想问、推荐主题、办事主题等功能在内的智能问答服务。它能够一键触达全省各级政府网站及应用的信息和服务,支持PC端和移动端,显著提升了搜索…- 5
- 0
-
🧠 大模型到底厉害在哪?看完这篇你就懂了!
你有没有想过:我们每天用的 AI 大模型,比如 ChatGPT、文生图的 Stable Diffusion,到底“脑子里”是什么?今天,我们不讲代码、不讲数学,用最通俗的语言带你看懂大模型的“思考空间”到底是什么!⸻🌟 01 | 大模型的大,到底大在哪里?我们说 GPT-3、GPT-4 是“千亿参数的大模型”,这并不只是说“它很复杂”——而是它的“思考空间”特别大。举个例子:人脑里有很多神经元,而…- 7
- 0
-
Coze、Dify、Ragflow等AI平台对比指南
dify、n8n、Coze、Fastgpt、Ragflow到底该怎么选?超详细指南~" data-itemshowtype="0" linktype="text" data-linktype="2">Dify、n8n、Coze、Fastgpt、Ragflow到底该怎么选?超详细指南~最近想选择一个平台尝试搭建智能体,以下是…- 26
- 0
-
微软上线Deep Research:OpenAI同款智能体,o3+必应双王炸
专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!今天凌晨,微软在官网宣布,Azure AI Foundry中上线Deep Research公开预览版。这是支持API和SDK的OpenAI 高级智能体研究能力产品,并且Azure 的企业级智能体平台完全集成。 Deep Res…- 8
- 0
-
基于业务知识和代码库增强的大模型生成代码实践
1.源起 李明是今年刚加入某互联网公司的研发新人,满怀期待地开始了他的职业生涯。然而,短短两周后,他的热情就被现实浇了一盆冷水。 第一周:当他第一次接手需求时,mentor只是简单交代了几句:“这个功能之前做过类似的,你参考下历史代码。”可当他打开代码仓库,却发现注释寥寥,变量名像密码一样难懂,更找不到任何需求文档。他硬着头皮修改,结果上线后引发了线上故障——原来有个隐藏的业务规则,只有老员工才知…- 8
- 0
-
在RAG应用中使用结构化数据的5种方法
大家好!今天来聊聊如何在RAG应用中更好地利用结构化数据。很多同学可能觉得RAG主要是处理文本文档,但其实结构化数据也能发挥很大作用。我总结了5种实用的方法: 1. 直接存储行数据 最简单直接的方式就是把数据表的每一行当作一个独立的chunk来处理。这种方法特别适合那些单行数据就能表达完整意思的场景,比如交易记录、产品规格表或者客服工单。每一行都有完整的上下文,检索起来效果很好。 2. 存储查询结…- 5
- 0
-
🧠 大模型到底厉害在哪?看完这篇你就懂了!
你有没有想过:我们每天用的 AI 大模型,比如 ChatGPT、文生图的 Stable Diffusion,到底“脑子里”是什么?今天,我们不讲代码、不讲数学,用最通俗的语言带你看懂大模型的“思考空间”到底是什么!⸻🌟 01 | 大模型的大,到底大在哪里?我们说 GPT-3、GPT-4 是“千亿参数的大模型”,这并不只是说“它很复杂”——而是它的“思考空间”特别大。举个例子:人脑里有很多神经元,而…- 5
- 0
-
告别人工智障!Dify+KAG:秒变「AI推理大师」。蚂蚁OpenSPG部署全解(含实测)
RAG (Retrieval-Augmented Generation,检索增强生成)——你一定不陌生吧!答不对、搜不到,是 "非结构化文档" 问答中常见的两大痛点。因为RAG存在向量相似度与知识推理相关性差距较大、对知识逻辑(如数值、时间关系、专家规则等)不敏感,严重降低了使用体验。于是,KAG(Knowledge-Aware Graph Generat…- 8
- 0
-
AI 深度研究(Deep Research)原理解析
编者按:当你在使用 ChatGPT、Claude 或 Perplexity 时,是否好奇过为什么它们不仅能够回答你的问题,还能主动挖掘相关信息、交叉验证事实性信息,甚至提出你没想到的关联问题?为什么同样是 AI,有些只能机械地重复训练数据,而有些却能进行真正的“Deep Research”? 本文详细解析了 AI 研究助手从理解用户查询到答案生成的完整工作流程。作者基于对 Perplexity、C…- 6
- 0
-
万字综述,讲一讲这两年大模型这整个领域到底发展了哪些方面
一、2023年的GPT-4开始唯参数规模论时代的终结1.1 2023年基线:GPT-4范式在2023年初,LLM领域的发展遵循着一条清晰而有力的轨迹,规模决定能力,所以当年的爆火词就是Scaling Laws,更大的参数,更大的计算量,更大的数据规模。这一理念的顶峰体现便是OpenAI的GPT-4,作为2023年当时最先进的AI,GPT-4被呈现为一个大规模的典范,基础架构依然是Transform…- 6
- 0
-
毕业季震撼演讲:当AI重塑一切,人类的价值何在?
每到毕业季,各大学府都会迎来一批著名演讲者,他们在各自领域取得成就,受邀登上讲台,为年轻人送上“最后一课”。 在充满不确定性的时代,如何保持独立思考?如何找到自己的位置?如何与AI共存并发挥人类独特的价值……演讲者们给出了自己的智慧,谈论了从抓住机会、与合适的人相处到如何看待和运用AI等方面的建议。 演讲者:Reid Hoffman(LinkedIn联合创始人、投资人) 时间地点:2023年,意大…- 5
- 0
-
AI行业需要少一点互联网思维
犹记得互联网高速发展时期,各种杀手级应用层出不穷,从Web时代的各类搜索引擎、BBS,到移动时代的微信支付宝等等。慢慢地,不知道何时开始,我们再也不会费劲去挖掘某个好用但可能很小众的应用了,因为翻垃圾堆的体验真的很糟糕。 在这背后,是极致探索的极客精神慢慢转向“互联网思维”。互联网行业成熟期,创业=融资,先做MVP,再投流,饱和式轰炸下圈定一批用户,产品后面慢慢迭代。但由于总有为数不少的阈值比较低…- 8
- 0
-
基于Claude code的“上下文工程”实践来了!
“上下文工程”最近真的挺火的,两周前发了一篇概念普及文章,怎么理解PE(提示词工程)应该改名为“上下文工程”?估计大多数人看了都没啥体感,感觉无非又是AI圈造了个新词儿。 这玩意是概念炒作还是真的趋势呢?我个人的判断:绝对是趋势。 不要纠结叫什么,那都不重要,重要的是要尝试去理解到底是什么(What),怎么做(How)。 最近有个基于Claude Code的开源项目叫context-engine…- 10
- 0
-
MCP会是下一个商业范式吗
MCP(Model Context Protocol)最近在AI领域火得一塌糊涂,一些大厂已然是将MCP作为下一个战略了。暂且不谈这么频繁更新战略是否合适,仅就MCP本身而言,它真的能带来范式变革吗? 先说结论,MCP确实很有价值,但和下一个范式无关。 全文大约1300字,阅读需要3分钟 一个考古案例:API 先说一个大家都知道的东西:API API大概在10年前在国内开始流行。技术上,简单来说,…- 7
- 0
-
我们都搞错了?从Claude Code的火爆,看懂AI交互的本质
文:白苏 图:Mew.Design 20多年前某个夏天的凌晨,空气里满是燥热。网吧里更是混浊不堪,方便面的香味、二手烟的臭味,还有青少年过剩的荷尔蒙,全都粘稠地混合在一起。 CS(半条命)的枪声和兄弟们的呐喊声从不远处传来,但我顾不上这些。我把自己缩在角落最不起眼的那个卡座里,把CRT显示器的亮度调到最低,心跳得像在打一盘赢不了的《星际争霸》。那年我还在上中学,这是我省下一个星期的早饭钱,换来的…- 5
- 0
-
2025年上半年AI行业应用回顾与前瞻:场景篇
不知不觉,2025年上半年又匆匆过去,所谓“搞AI一年,抵人间三年”,这么说来,又增加了一年半的工作经验。本来想着年底再做总结的,但是算算这半年AI的变化已经够得上写一篇系列了,还是写了再说。 全文大约2200字,阅读需要5分钟 2024年AI产业应用回顾与前瞻:场景篇 2024年总结时,我曾按照场景面向的对象不同,将AI产业应用场景分为toB的IT生产力工具,toC的娱乐满足,以及产业AI化三类…- 7
- 0
-
AI时代,更考验你的知识积累
当人工智能的浪潮以不可阻挡之势席卷全球,我们正身处一个前所未有的变革时代。从智能语音助手到自动驾驶汽车,从个性化推荐算法到复杂的数据分析模型,AI技术正以前所未有的速度渗透到我们生活的方方面面,深刻改变着我们获取信息、处理问题乃至认知世界的方式。 在许多人看来,AI的普及似乎意味着知识的获取变得前所未有的便捷,只需轻点鼠标或发出指令,海量信息便能瞬间呈现在眼前。 知识,仿佛从高高在上的殿堂走入了寻…- 6
- 0
-
纳米AI一句话成片功能实测:从文字到视频只需等待
大家好,我是歸藏(guizang),今天带来纳米 AI 超级搜索一句话成片功能的测试。 之前我测试纳米 AI 的 MCP 能力的时候看到有视频生成的 MCP 就提到过,要是可以直接自动生成完整的视频就好了。 最近他们终于开始好好搞这个流程,做了一个一句话成片的功能。 现在真的可以一句话生成完整视频了,而且成功率高的离谱,用来生成新闻介绍、科普视频、小说情节等都非常好用,发了提示词等一段时间回来收菜…- 20
- 0
-
AI 下半场:拼的不是模型,而是落地
2025 年半年过去,ToB 软件和 AI 产业的热度没有降温,反而显得更 “现实” 了。 上周,英伟达领着 CoreWeave 冲刺 AI 基础设施,微软边赚钱边裁员稳住利润,OpenAI 拉着甲骨文建 “星际之门”;一级市场上,法律、客服、采购、合规等垂类 AI 项目融资不断,Figma 冲刺 200 亿美元 IPO,云知声终登港交所。 而在产品层面,从华为盘古开源、钉钉推多维模板,到 Fil…- 4
- 0
-
超级黑马Read AI如何在美国把会议转录做成一门大生意
同样是办公软件,中国与美国市场的差异,可谓天差地别: 在中国,只要一个飞书、钉钉,或者企业微信,就能解决企业从消息沟通、会议、写文档、做表格、做PPT、做会议纪要等多重需求。 而在美国,往往不同功能对应不同软件。想要检索一个历史文档中的信息,或者会议中的细节,有时候,甚至需要来回在四五个软件之间跳转,繁琐且低效。 那么,怎么高效地找到散落不同软件中的精准信息,降低信息整合的成本?针对这个需求,20…- 5
- 0
-
大模型基础设施异构计算硬件量化误差破局之道——从技术原理到实践优化
【摘要】当前主流大模型的训练过程仍然较为依赖非国产硬件,大模型发布时其参数数据结构通常仍然保持为BF16格式或FP8格式。然而适用于推理阶段的国产计算硬件,尚不能很好地支持BF16或FP8格式,由BF16/FP8转为INT8这一过程中模型的精度不可避免地受到影响,体现为在实际任务执行中准确率下降。如何利用有限的数据和计算资源高效解决这一问题成为我们需要研究的一大难点。本文从技术原理出发,结合实际实…- 7
- 0
-
大模型落地及Agent记忆的有趣观点:兼看SVG生成用多模态大模型怎么做?
今天是2025年4月11日,星期五,北京,天气晴,预报晚上有大风。 本文来看两个问题。 第一个问题,关于大模型落地以及Agent记忆的有趣观点,是一些大道理的总结,懂得读懂,懂了还那样,不会有什么变化,清风徐来,水波不兴。 第二个问题,顺着昨天图文描述生成caption的工作,我们看SVG生成用多模态大模型怎么做?三个代表工作,看看底层技术细节,实现思路。 抓住根本问题,做根因,专题化,体系化,会…- 10
- 0
-
Anthopic:构建有效的Agent
本文译自Anthropic发布的Building effective Agents(需要魔法)。在研究Agents的过程中将之与Google、OpenAI等关于Agent的文章一起进行比较,学习业界对Agents的不同定位。 在过去一年中,我们与数十个团队合作,在各行各业构建大型语言模型(LLM)智能体。我们发现,最成功的实现方案并非依赖复杂的框架或专用库,而是采用了简单、可组合的模式。 在这…- 10
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!


















