-
一篇文章讲清楚:到底什么是NotebookLM?除了PPT,它还能做啥?
上个月谷歌的Gemini和Nano Banana那一阵之后随之火爆全网的还有同为谷歌系产品的NotebookLM这期内容,我将为大家详细讲解:NotebookLM,到底是什么?以及,它都能干些什么~首先,什么是NotebookLM?通俗地解释,NotebookLM是每个人的一个专属AI资料助手。或者还可以用简单贴切的描述来进行解释:一个私人知识库。在这个知识库里,你能将一些你用得上的资料分类存放在…- 0
- 0
-
RAG 落地全干货深度分享:从“效果不理想”到生产级 RAG 系统的进化之路
导读 RAG(检索增强生成)作为大模型在企业内部落地的“标准答案”,在过去一年里经历了从疯狂跟风到冷静反思的过程。尽管其原理看似直观——将企业私有知识向量化并结合 LLM 进行问答,但在实际投产中,召回率低、严重幻觉、成本失控等问题层出不穷。据 DataFun 调研显示,“RAG 效果不理想”被提及的频率高达 48 次,位居 AI 落地痛点之首。本次圆桌由 DataFun 主办,邀请了网…- 0
- 0
-
GenAI的多模态数据智能平台如何构建?
摘要:在snowflake的《人工智能+数据预测2025》报告中提到,“数据平台的下一个演进不仅关注格式化、存储和访问数据,还关注将其置于上下文中”。这里的说的上下文,是指大模型在输出的时候,需要给它提供的上下文参考或知识背景。所以说未来的数据平台的发展是为了大模型的生成而构成的知识而存在。本文将介绍,为了应对AI大模型的应用,数据平台在过去传统的湖仓一体的架构上演进的方向。企业落地知识库的困境A…- 0
- 0
-
OpenViking:面向 Agent 的上下文数据库
挣脱上下文的枷锁:OpenViking,为 AI Agent 而生的开源上下文数据库“We are swimming in a sea of information, and we need to learn to navigate.” — Norbert Wiener“我们正畅游在信息的海洋中,我们需要学会航行。” — 诺伯特·维纳AI Agent 的浪潮已至,它正从简单的任务执行者,演变为能够…- 0
- 0
-
告别“伪智能”代码:用 Spec + RAG 打造真正懂你的AI程序员
一、引言:AI Coding 提升代码质量的关键——知识库的深度建设在当前 AI Coding 快速普及的背景下,业界普遍面临一个核心矛盾:模型“能写” ≠ “写得对”。尤其在高频迭代、强业务耦合的场景中,代码的正确性、可维护性和一致性远比“能生成”更重要。要突破这一瓶颈,关键在于让 AI 不仅“会写”,更要“懂上下文”——即深刻理解特定项目的技术契约、业务语义与工程惯例。为此,我们提出构建一套高…- 0
- 0
-
GLM-OCR技术细节全公开
自 2 月初开源以来,GLM-OCR 受到了全球开发者、企业的广泛喜爱与集成,目前已在 Hugging Face 上获得 360 万下载,同时也衍生出了一些 Skills 和 App。今天,我们正式发布 GLM-OCR 技术报告,将模型「SOTA 文档理解能力」背后的技术细节,一一公开分享。欢迎大家广泛测试与集成。技术报告:https://arxiv.org/pdf/2603.10910Huggi…- 0
- 0
-
Midjourney V8 正式上线:高清模式、文字无错、生成速度提升5倍
相信很多关注AI圈的朋友,都知道有一个强大的Midjourney绘画模型,Midjourney模型可以理解是AI绘画的美学代表。就在刚刚,Midjourney再次投下重磅炸弹,V8 模型正式开启公测!如果说V7是在细节上的精修,那么V8简直就是一次全新的跨越。以前只是设计师能生成好的图片,这次更新模型更好理解提示词,那么普通用户也能生成高质量图片。这次更新的功能对普通用户非常友好,无论是生成封面图…- 0
- 0
-
今天,分享Clawdbot记忆系统最佳工程实践
Clawdbot已经彻底疯狂了,github达到79.5k star,以至于火到被迫改名了moltbot分享两篇Claude Skills最新论文,有3个核心结论Clawdbot 的独特之处在于它能够自主处理现实世界的任务:管理电子邮件、安排日历事件、处理航班值机以及按计划运行后台任务。但真正引起人注意的是它的持久记忆系统,该系统保持 24/7 的上下文保留,无限期地记住对话并建立在前一…- 0
- 0
-
从 RAG 到 Agentic Search,一次关于信任 AI 判断的认知升级
三个月的设计,被一条推文推翻"早期版本的 Claude Code 采用了 RAG + 本地向量数据库的方案,但我们很快发现智能体搜索(Agentic search)的效果通常更好。" —— Boris Cherny, Claude Code 之父序:正确的努力,错误的方向2025 年底,我的知识库出了问题。2400 多份文档,涵盖产品文档、技术笔记、内部 Wiki。问题不是&q…- 0
- 0
-
我复刻了 Claude 刚发布的生成式 UI 交互!
前天 Anthropic 在 Claude 里面上线了基于生成式 UI 的新交互。可以帮你在聊天信息流里面用地吗可视化的方式介绍一些概念和信息,远比原来的纯文本要好理解。我之前就一直在看类似的方案,刚好 Claude 发了,我就感觉我也得加紧做了。同时刚好也可以逆向参考一下他的方案。疯狂 PUA 了两天 Codex 和 Claude 还真让我搞出来了!这个功能能让 AI 直接在聊天里画交互式图表,…- 0
- 0
-
Gemini Embedding 2:首个原生五模态 embedding 模型
Google DeepMind 今天发了 Gemini Embedding 2,第一个原生五模态 embedding 模型文本、图片、视频、音频、PDF,五种东西,首次编码进同一个向量空间它能处理什么五种模态,支持 100+ 语言:• 文本:最多 8192 个 input tokens• 图片:每次最多 6 张,PNG / JPEG• 视频:最长 128 秒,MP4 / MO…- 0
- 0
-
效率神器 Claude-Mem:终结 AI “金鱼记忆”!自动保存上下文、可视化记忆流,开发体验提升 10 倍!
你是否厌倦了每次重启 Claude Code 都要重新“喂”一遍项目背景?Claude-Mem 是一款专为 Claude Code 打造的持久化记忆系统,通过自动捕获、语义压缩和智能检索,让 AI 拥有跨会话的长期记忆,同时大幅节省 Token 成本。AI 虽强,却是“七秒记忆”?作为开发者,我们越来越依赖 Claude Code 这样的 CLI 工具来辅…- 0
- 0
-
谷歌首个原生多模态向量模型发布:Agent 可以用文字搜图片、用图片搜视频了…
Gemini Embedding 2上线,统一图文音视频向量空间谷歌正式推出基于Gemini架构构建的首个原生多模态嵌入模型Gemini Embedding 2。该模型目前已通过Gemini API和Vertex AI开启公开预览。与以往纯文本基础模型不同,Gemini Embedding 2的核心突破在于将文本、图像、视频、音频和文档全部映射到同一个统一的向量空间中,并能跨越100多…- 0
- 0
-
企业AI落地三重门,用友如何破局?
近期,在北京,1000多名生态伙伴涌向用友的会场,他们在寻找一个答案:在被大模型、Agent的概念相继“轰炸”之后,中国企业软件的底牌到底是什么?现场的气氛,在理性中透露着一股炙热。整场峰会已不再只是传统意义上的产品发布,更像是一场关乎软件产业生存状态演进的前瞻“预演”。王文京向软件产业、也向这个时代,递出了一个关键词:焕生。相比于“升级”,“焕生”更具生命感,也更贴合AI重塑软件的底层逻辑。这场…- 0
- 0
-
AI真人数字人语音对话性能优化实践总结
本文总结了为解决 AI 数字人导购对话中的回答延迟感而进行的性能优化实践。初始的对话链路因 ASR、LLM 和 TTS 的串行叠加,导致平均端到端延迟高达 5.64 秒。为实现数据驱动的优化,首先搭建了一套覆盖全链路的高精度性能监控体系作为基础。核心解决方案是集成 Qwen Omni 一体化模型,旨在通过流式传输音频和文本来减少中间环节,同时在客户端设计了音频窗口缓冲机制以确保嘴型同步。最终,通过…- 0
- 0
-
Embedding相似度虚高,如何用langchain+Milvus搭建CRAG解决?
最近后台经常会收到一个提问,就是我的RAG经常打捞上来一个相似性分数极高,但是完全不可用的内容,到底要怎么办?这背后,其实是个传统 RAG在设计最底层的想当然:相似度高 = 结果好。但这套逻辑在生产环境里根本站不住脚。因为高分文档可能早就过期了,或者讲的是完全不匹配的场景、甚至核心信息缺斤短两。而 CRAG 的核心价值,就是在检索和生成之间引入了一道评估环节,对检索结果做三元判决(正确 / 模糊 …- 0
- 0
-
“思考”更深,生成更准|Seedream 5.0 Lite 发布
去年 9 月,我们发布统一编辑与生成的图像创作模型 Seedream 4.0,它融合了部分常识和一定的推理能力,受到不少用户的欢迎。今天,我们推出 Seedream 5.0 Lite 智能图像创作模型。相比 4.0 版本,它在理解、推理和生成方面全面提升,是一个“更聪明”且“更专业”的视觉创意伙伴。Seedream 5.0 Lite 带来的主要提升…- 0
- 0
-
不用向量数据库的 RAG,居然跑得更准了?
最近在翻 RAG 相关项目时,看到一个挺反直觉的思路,忍不住多看了几眼!它就是——PageIndex它做了一件不一样的事:把向量数据库,从 RAG 里彻底拿掉了不是“少用”,也不是“可选”,而是从设计一开始就假设:检索这一步,不一定非要靠相似度向量 RAG 的老问题 如果你平时主要在处理财报、招股书、监管文件,或者各种技术规范、专业教材,那大概率遇到过这种情况:向量检索给你的…- 0
- 0
-
Qwen-Image-2.0发布:中文生图彻底不拧巴了
今天阿里千问发布了个新东西,叫 Qwen-Image-2.0。说实话,我本来对这类新闻已经有点麻木了。毕竟现在各家大模型都在卷生图能力,今天你发个1.0,明天我发个2.0,看着都审美疲劳。但这次,真的有点不一样。先说结论Qwen-Image-2.0 的核心卖点就三个:支持 1K 长文本指令——这是最炸的中文文字生成能力很强——这是最实用的同时支持生图和图片编辑——这是最完整的这三个点组合在一起,基…- 0
- 0
-
当RAG遇上Agent记忆:为什么相似度检索会"塌方"?
传统RAG检索在Agent记忆场景下会返回大量冗余内容,而后处理剪枝又容易破坏证据链条。 这个看似矛盾的困境,正是当前agent记忆系统面临的核心挑战。论文指出,标准的RAG(Retrieval-Augmented Generation,检索增强生成)管道是为大规模、异构语料库设计的,检索到的段落通常是多样化的。然而,agent记忆是一个有界且连贯的对话流,候选片段高度相关,经常是近似重…- 0
- 0
-
Claude Cowork 真能替换 RAG ?
近期,Anthropic放出一个大招——Claude Cowork要支持知识库级别的记忆能力了。消息一出,整个AI圈瞬间炸开了锅。有人激动地说:"RAG这下要失业了!"也有人冷静地分析:"别高兴太早,事情没那么简单。"作为一个在AI圈摸爬滚打多年的从业者,见过太多"颠覆性技术"的炒作。但这次,确实有些不一样。为什么?因为Cowork解决的…- 0
- 0
-
对话离哲:企业AI告别「对话玩具」,多模态记忆是分水岭
初见离哲(本名占超群,质变科技创始人兼CEO)时,他习惯性地用双手比划,仿佛在将空气中无形的碎片聚拢、串联。“人的记忆是碎片的,”他说,“而无数碎片化的知识,就像无数溪流汇成湖。”这形象地解释了质变科技核心产品“记忆湖(MemoryLake)”的由来,也指向了当前企业AI升级中最关键的挑战与机遇。如今,企业AI正面临一个分水岭:一边是仅能处理对话的“智能玩具”;另一边,则有望成为能持续理解、学习并…- 0
- 0
-
为什么 RAG 越用越慢?如何反向调优?
摘要:在RAG(检索增强生成)系统已经成为连接大语言模型与外部知识库的关键技术架构。然而,许多开发者和企业发现,随着使用时间的增加和数据量的增长,RAG系统的响应速度逐渐变慢,甚至影响到整个应用的可用性。本文将深入分析RAG系统性能下降的原因,并提供一套实用的“反向调优”策略。01—RAG系统为什么越用越慢?大家在使用RAG的时候会发现,刚开始10几个文档,响应速度还可以1-3s基本可以检索到合格…- 0
- 0
-
Qwen-Image-2.0: 字字清晰,张张细腻
我们推出Qwen-Image-2.0,新一代图像生成基础模型。Qwen-Image-2.0主要特色包括: 更专业的文字渲染:1k token指令支持,直出专业信息图,包括PPT/海报/漫画等。 更细腻的真实质感:2k分辨率支持,细腻刻画写实场景,包括人物/自然/建筑等。 更强的语义遵循:理解生成一体化,生图编辑二合一。 更轻量的模型架构:更小模型,更快速度。 阿里云百炼上已开通API邀测,开发者也…- 0
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!























