AI资讯
-
Anthropic 最新博客:MCP 没死,它又来了
Anthropic 最新发了篇博客,标题叫《Building Agents that reach production systems with MCP》,翻译过来是:《构建能触达生产系统的 Agent:MCP 实践指南》。 MCP 最新博客在我去年 11 月的文章《MCP 或将成弃子》和上个月的文章《一切软件,都将为 Agent 重写》、《钉钉飞书集体抛弃 MCP,CLI 才是 Agent 的终…... -
2026 年做搜索就是做 Agent Memory
4 月 18 日,Elastic 中国 AI 搜索技术大会在北京召开。以下内容整理自 Elastic 全球副总裁肖涵,原 Jina AI 创始人兼 CEO 在会上的演讲。肖涵讲述了 AI 搜索的发展历程以及为什么说在 2026 年做 AI 搜索基本就是在做智能体记忆 (Agent Memory)。本文以第一人称呈现。欢迎大家来到 Elastic 第一次在中国办这么大的技术研讨会。我是肖涵,北京人,…... -
Ling-2.6-flash 发布:更快响应、更强执行、更高 Token Efficiency
随着智能体(Agent)能力不断走向成熟,Token 消耗快速增长正在成为大模型落地中的核心矛盾之一。与传统聊天场景相比,Agent 任务的输入长度往往提升了两个数量级;与此同时,频繁的工具调用、多轮规划与长程执行,又不断拉长模型的输出链路。这意味着,模型在真实应用中不仅要面对更高的推理算力压力,也会带来更高的用户使用成本。 另一方面,为了进一步推高能力上限,行业中的主流模型正普遍走向“长思考”路…... -
当 AI 开始接管工作流:穿透 Workspace Agents,看懂下一代组织形态
子非AI导读OpenAI 最近发布了 Workspace Agents,把 AI 从“回答问题的助手”推进到“能接住工作流的执行系统”。它开始跨工具取数、补上下文、做判断、等审批、推下一步。真正值得关注的,不是又多了一个 AI 功能,而是企业软件正在从“人操作系统”,走向“人定义目标,系统推进流程”。 子非AI观点 • 过去的企业 AI,更像“会写、会答、会总结的助手”;下一阶段的企业 AI,…... -
刚刚!OpenAI 凌晨甩出 Workspace Agents:一句话,给整个团队造一个 Agent
大家好,我是智见君! 今天凌晨 OpenAI 发布:Workspace Agents 正式进入 ChatGPT。官方的一句话定位是"能跨工具、跨团队处理复杂任务和长流程的共享 Agent"。 配的演示视频里,一个叫 Scout 的 Agent 正在被搭建。用户在 ChatGPT 里写下一句"我想要一个 Agent,能监控 Slack 里的产品反馈、回答问题、并把新…... -
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…... -
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…... -
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…... -
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…... -
Chonkie:开源、轻量、极速的 RAG 分块神器 🦛
在不断扩展的大模型上下文里,分块不仅是技术需求,更是确保模型效率的关键手段。然而,面对大部分冗杂的分块工具,不少开发者需要更直接、更有效的解决方案。这时,Chonkie — 一款专为分块任务设计的轻量工具 — 应运而生,成为了 RAG 应用开发中的绝佳帮手。为什么需要分块?随着语言模型能够处理的上下文不断增加,在提供丰富上下文的同时也带来了计算速度与内存开销的挑战。通过分块,…...

















