-
【智变未来:零基础重构AI世界观】第一篇:什么是AI?什么是AIGC?
通过本文的阅读,你将了解到什么是AI,AI的发展历程,以及AIGC的三阶段的分工和协作。一、前言 本系列文章将带你从零开启AI革命之旅,系统性揭开人工智能的神秘面纱——深入解析核心技术、关键算法与大模型原理,构建全景式认知框架。二、什么是AI?Al(Artificial Intelligence)人工智能是一种使机器能够模拟人类智能的技术,通过机器学习、深度学习等算法,使得计算机具备学习、推理、自…- 6
- 0
-
文本分类重大创新:持续学习新增类别,不会灾难遗忘
本公众号主要关注NLP、CV、LLM、RAG、Agent等AI前沿技术,免费分享业界实战案例与课程,助力您全面拥抱AIGC。 在生成环境中,经常会遇要求新增业务标签进行文本分类,传统的做法是需要从头开始训练,但是容易导致以前学习到的知识灾难性遗忘。 今天介绍的是一种,自适应分类器,可实现动态类添加和持续学习,而不会发生灾难性遗忘。 一、Adaptive classifier解决的问题 通过四项创新…- 6
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 8
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
Zoho:做 AI 时代的 “非典型玩家”
AI 的价值不在于概念炒作,业务场景跑通才是前提。2025 年,AI Agent 是企业服务领域最炙手可热的话题。在这个技术变革的关键节点,Zoho以其特有的节奏,推出了 Zia Agents、Agent Studio 和 Agent Marketplace 三大 AI 产品,构建了一个完整的智能体生态系统。与其他高调转型 “AI 公司” 的软件厂商不同,Z…- 3
- 0
-
详解RAG五种分块策略,技术原理、优劣对比与场景选型之道
Agent案例库" data-id="126427">前言RAG通过结合检索与生成技术,依赖其高效检索算法、多模态融合能力及系统级优化,解决了基础大模型在企业内部应用的局限性,例如通过RAG技术对接企业内部知识库,支持知识动态更新与实时交互,显著降低了大模型的幻觉风险,无需微调训练模型,低成本适配企业垂直领域的应用场景,在数据安全与可控性方面,可加入权限控制逻辑…- 3
- 0
-
三年了,好用的AI产品在哪里?
还记得互联网冲垮旧世界,电商巨头一夜崛起;更难忘智能手机横扫全球,刷爆我们生活的每个角落。现在,轮到AI了。它被吹得神乎其神,可为啥都快两年了(从ChatGPT爆发算起),我们的生活好像并没有被颠覆?那些传说中的划时代AI产品,都藏哪去了? 90年代互联网,像决堤洪水,电商、门户、搜索瞬间淹没旧世界;千禧年后移动互联网,如超级风暴,社交、支付、滴滴打车重塑连接。它们来时,都带…- 6
- 0
-
摆脱AI焦虑:企业如何按业务场景精准匹配 AI 部署方案
兰德智库报告揭示,尽管企业领导者普遍认可AI技术,甚至在AI浪潮中倍感焦虑,但逾八成的企业AI项目仍以失败告终。报告指出,失败主因在于对AI的认知偏差与不当应用场景。 本文将基于多年服务企业的经验,结合与企业管理者的深入交流,分享如何针对业务场景精准匹配AI部署方案,助您摆脱AI焦虑。欢迎留言探讨! (一)企业业务对AI的需求 相较于个人,企业尤其是大中型企业,构成了庞大复杂的生态系统。其业务场…- 3
- 0
-
Agentic RAG:下一代智能检索与生成的革命性突破
在大语言模型(LLMs)成为 AI 变革的核心引擎之后,如何让它们更精准、更智能地响应实时、复杂的问题成为了研究热点。本文将带你深入了解“Agentic Retrieval-Augmented Generation”(Agentic RAG)——一种将自主智能体引入 RAG 流程的全新范式,揭示它如何突破传统 RAG 的瓶颈,推动 AI 系统向更高阶的自动化、个性化与上下文理解迈进。 传统 RAG…- 4
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 6
- 0
-
RAG的2025趋势重点及RAG+抽取场景的来源定位问题思考
今天是2025年6月24日,星期二,北京,晴 我们来看有趣的落地问题。 为什么在实际落地过程中,比如信息抽取、RAG 等,会有引文生成、来源定位这些需求?底层的逻辑是什么?有哪些实际的例子?在技术上如何做? 另外,看看RAG发展温故而知新,看看RAG的一个发展趋势,看下RAG的2025趋势重点 一、RAG、抽取等落地场景的定位问题思考 1、为什么需要引文生成? 目前,包括大模型在内的深度学习方案,…- 6
- 0
-
Dify MCP 保姆级教程来了!
Datawhale干货 作者:王熠明、同济子豪兄,Datawhale成员 1. MCP介绍 1.1 大语言模型 VS 智能体Agent? 大语言模型,例如 DeepSeek,如果不能联网、不能操作外部工具,只能是聊天机器人。除了聊天没什么可做的。 而一旦大语言模型能操作工具,例如:联网/地图/查天气/函数/插件/API 接口/代码解释器/机械臂/灵巧手,它就升级成为智能体 Agent,能更好…- 4
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
索引选不对,成本贵十倍!一文读懂向量索引选型
在使用 Milvus 构建向量检索系统的过程中,很多开发者常常会在“该选哪种索引”这一步卡壳。 是要精度优先的 FLAT,还是速度更快的 IVF_PQ?是适合实时检索的 HNSW,还是适合离线大规模数据的 DiskANN? 不同索引适配的场景差异很大,选错了不仅影响性能,还可能造成资源浪费。 那么该如何对其进行选择呢?本篇文章,带你十分钟读懂不同条件下的索引选型逻辑。 在思考如何挑选索引之前,我们…- 5
- 0
-
企业新基建:MCP + LLM + Agent架构,将打通AI Agent的“神经中枢”
近年来,AI大模型席卷各行各业,我们感受到它强大的语言理解和生成能力。但在实际应用中,光“能说会道”还不够,更重要的是“能说还得能做”。大模型如何跨出文本世界,触达数据库、调用接口、执行代码?答案就是:MCP(Model Context Protocol)模型上下文协议。今天这篇文章,我们将详细解读 MCP 能做什么、它的工作原理以及它是如何打破大模型“只能说不能做”的边界。后面的文章中会分享Cu…- 12
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
随笔|对AI发展的一点思考
题记:当我投身神经网络去处理那复杂的优化模型,还在纠结“搞计算机的,人和代码总得有一个人能跑”时,涂涂已经用混沌系统的偏微分方程解试图去解释神经网络的输入如何影响输出。与未来的菲尔兹奖获得者去浅谈我们对AI的理解,这确实是一次很有意思的对话。学管理的人和学数学的人如果能有很多话可聊,AI的功劳必不可少,这或许是AI对我俩共同的启发。当AI技术逐渐渗透到各个行业,我们开始习惯于看到诸多网站和产品标榜…- 10
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
-
深入解析|Cursor编程实践经验分享
写在前面本文是近两个月的实践总结,结合在实际工作中的实践聊一聊Cursor的表现。记录在该过程中遇到的问题以及一些解法。问题概览(for 服务端):不如我写的快?写的不符合预期?Cursor能完成哪些需求?这个需求可以用Cursor,那个需求不能用Cursor?历史代码分析浅显,不够深入理解?技术方案设计做的不够好,细节缺失,生成代码的可用性不够满意?Cursor项目开发流程通过近两个月的实践,在…- 4
- 0
-
刚刚,百度发布Comate AI IDE,这4个功能,让我把Cursor卸了。
人在百度 AI DAY·文心快码现场,见到了久违的小度熊,现场跳起了星奇摇。 星奇摇的节拍还没停,惊喜又被另一个重磅消息加速了。 Comate (文心快码)是老朋友了,但今天,Comate 正式升级成了 Comate AI IDE。 什么意思?之前 AI Coding 助手刚起步,做个插件插在你的 VS Code 里,是最快让大家用起来的办法。但现在不一样了,大模型和 Agent 技术都成熟了,“…- 5
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 8
- 0
-
多智能体系统:从 Anthropic 的实践看 AI 架构的范式转变
文章背景2025年6月13号,Anthropic 发布了一篇题为《How we built our multi-Agent research system》的技术博客,详细介绍了他们如何构建支撑 Claude Research 功能的多智能体系统。这篇文章之所以重要,有以下几个原因:1. 时机关键:正值 AI 行业从"大模型竞赛"转向"应用落地"的关键节点,…- 9
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!
























