-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
突发!阿里巴巴发布大模型的开发训练与推理部署解决方案!2025
1. 大模型的开发训练与推理部署 随着参数规模和网络结构复杂性的不断提升,大模型开发、训练和推理部署所面临的挑战愈发严峻,其研发依赖算法、算力和数据的综合支撑。深度学习框架及配套工具为大模型的生产和应用提供了基础支撑,涉及开发、训练、压缩、推理和服务等多个环节。此外,通过深度学习框架还可以实现与硬件的适配和协同优化,进一步提升硬件的计算和推理性能,降低大模型开发和应用的成本。 1.1 大模型开发…- 7
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 8
- 0
-
大模型训练必知的Qwen3训练经验
预训练Qwen3分别针对通用知识、推理能力和长上下文能力三步预训练; 通用知识训练:4096序列长度,30T总token,119种语言和方言;该阶段主要聚焦于语言结构、语法、常识与通用世界知识的学习,为后续阶段提供强大的多语言理解与生成能力支撑。 推理能力训练:4096序列长度,5T总token,学习率衰减加快,提高STEM、编码、推理和合成数据的比例; 上下文长度增加:32,768序列长度,10…- 10
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 9
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 7
- 0
-
企业级RAG系统规模化部署十条经验
在2025年纽约AI工程师峰会上,Contextual AI创始人Douwe Kiela分享了企业级RAG(检索增强生成)系统规模化部署的实战洞见。作为RAG技术先驱和斯坦福大学客座教授,Kiela从AI研究转向企业落地的过程中,总结了以下关键经验: 1. 上下文悖论:企业AI的核心挑战 当前LLM(大语言模型)在代码生成、数学推理等结构化任务上表现惊艳,但企业价值实现的关键在于“上下文处理能力”…- 5
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 6
- 0
-
大模型应用平台架构与核心功能全景解析
在人工智能技术迅猛发展的当下,大模型应用开发平台已成为企业智能化转型的核心基础设施。这类平台通过系统化的架构设计和功能实现,将复杂的大模型技术转化为可落地的业务解决方案。本文将分析大模型应用平台的层级架构与核心功能模块,揭示其如何支撑企业构建智能化应用。一、分层架构体系解析大模型应用平台采用分层架构设计,形成从底层算力到上层应用的完整技术栈。这种分层解耦的架构模式,为不同技术背景的参与者提供了标准…- 5
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 6
- 0
-
人工智能:AI大模型构建证券Agent全景应用
1、 证券行业的大模型 1.1 证券的行业背景 证券行业作为信息密集、数据驱动且高度规范化的金融服务业态,正迎来以人工智能大模型为核心的智能化转型浪潮。在行业数字化转型进入“深水区”的背景下,大模型凭借其强大的自然语言处理、知识推理与生成能力,正成为推动券商业务模式创新和运营效率跃升的关键技术力量。截至2025年初,国内至少已有16家券商完成DeepSeek系列大模型的本地化部署,涵盖…- 5
- 0
-
RAG之父:企业级 RAG 系统落地的实战经验
RAG 之父Douwe Kiela发表了一场演讲:RAG系统在企业中的落地实践,特别是和“AI代理”结合的应用。他分享一些自己走过的坑和总结出的经验。 💡 为什么企业AI很难落地? 现在大家都说AI是个大机会,甚至麦肯锡说能给全球经济带来 4.4万亿美元的增值。但现实呢?很多企业投入了很多钱,却发现: “效果呢?我们的AI投资到底带来了什么?” 实际上,只有25%的企业能真正从AI中获得价值。这就…- 4
- 0
-
Agent成了腾讯AI最大的牌面
微信和游戏业务正在为腾讯AI应用战略的实施提供更广阔的战略纵深。 作者 | 李威(北京) 抓住DeepSeek带来的契机扭转AI领域的竞争态势之后,腾讯围绕AI应用的布局正在快速深化。 元宝、ima等原生AI应用是腾讯进行探索的最前线。腾讯元宝通过大规模市场投入获得用户增长后,继续拓展了更多能力,包括将元宝放入微信好友列表,打通与腾讯地图、腾讯文档的连接,以及上线Chrome浏览器插件。腾讯管理层…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 4
- 0
-
Agent 创业如何落地|吴恩达提出的 5 个设计原则
在 2025 年 5 月的 LangChain Interrupt 峰会上,吴恩达(Andrew Ng)抛出了一个核心问题: Agent 系统,怎么才能在现实中真正跑起来? 他没讲概念,而是带着工程视角,回到五个具体判断:Agent 要多自主?评估怎么做?工具怎么接?语音系统怎么搭?标准怎么定? 这篇文章结合他的判断逻辑与 Glean、Lamini、Cognition Labs(Devin)、Re…- 6
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 5
- 0
-
从销售陪练AI助手看大模型产品经理的工作差异
随着AI大模型技术的快速发展和落地应用,大模型产品经理已成为科技行业炙手可热的职位之一。本文以北森系统的销售陪练AI助手产品为例,分析这一典型大模型产品的设计思路与功能实现,并以此探讨大模型产品经理与传统产品经理在工作内容与能力要求上的差异。一、大模型产品经理的崛起与AI助手产品的兴起2025年,我们正处在一个AI技术重塑所有行业的关键时间节点。大模型技术已经从最初的文本生成、代码编写等通用场景,…- 7
- 0
-
Google深夜“亮剑”!Gemini 2.5全家桶发布,直指OpenAI命门
大家好,这里是#AIGC创意猎人 我是与大家一起玩转AI的何先森KevinGoogle深夜“亮剑”! AI界也赶着过 618 吗?!过去的一夜,可谓是热闹非凡。 当大多数人还在睡梦中时,Google DeepMind 悄然投下了一枚重磅炸弹。 其官方账号宣布,Gemini 2.5 Flash 与 Pro 模型正式全面开放(GA),同时,家族中最快、最便宜的新成员——Gemini 2.5 Flash…- 6
- 0
-
Anthropic:我们如何构建多智能体研究系统
我们的研究(Research)功能利用多个 Claude 智能体,来更有效地探索复杂主题。在此,我们分享构建这一系统时遇到的工程挑战以及我们学到的经验教训。 现在,Claude 具备了研究能力[1],能够横跨网络、Google Workspace 及任何集成应用进行搜索,以完成复杂的任务。 这个多智能体系统从原型到产品的演进过程,让我们在系统架构、工具设计和提示工程方面学到了至关重要的经验。一…- 5
- 0
-
深度解析 RAG(Retrieval-Augmented Generation)技术原理
引言 随着人工智能技术的飞速发展,信息处理和知识利用的效率与精度成为了科研与产业界关注的焦点。在这一背景下,RAG(Retrieval-Augmented Generation检索增强生成)技术应运而生。RAG 结合了检索(Retrieval)与生成(Generation)两大模块,为解决复杂信息处理和知识密集型任务提供了新的思路。本文将深入解析 RAG 的技术原理及关键要点,以帮助读者全面理解这…- 8
- 0
-
万字演讲:Dify 插件如何助力 AI Agent 应用开发?
大家好,我是 Allen,来自 dify 的技术文档工程师,主要负责 Dify 整体帮助文档和企业版整体文档建设,为各位开发者提供知识服务。 很荣幸今天有机会站在讲台上来和大家分享 Dify 的一些技术实践案例。我呢其实算是业务人员,也是许多新功能的第一体验用户,会更加关注于某项新功能能够给我们的用户带来何种价值,以及用户体验。 因此我今天的分享将主要集中于实际的应用,希望我这个视角能够给大家带来…- 14
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 6
- 0
-
AI提效99.5%!英国政府联手 Gemini,破解城市规划审批困局
❝手写批注 + 模糊地图 + 纸质文档 = 城市发展“卡脖子”难题?现在,AI只需40秒搞定!英国政府用 Google Gemini 多模态技术重塑城市规划系统,全国35万份积压申请即将“一键解码”!导语:AI,不止是聊天机器人,它正重构政府效率在英国,一份房屋建设或改造的申请常常需要数周才能审批通过。根源在于大量基于纸质档案的城市规划文件,图纸模糊、注释潦草、信息零散,规划人员常常要花上&nbs…- 7
- 0
-
OpenAI: 构建 AI 智能体实用指南
https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-Agents.pdf 构建 AI 智能体实用指南 第一部分:AI 智能体导论 1.1 重新定义自动化:什么是 AI 智能体? 在探讨构建智能体的具体方法之前,必须首先建立一个清晰、准确的定义。AI 智能体(Agent)代表了一种新…- 8
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!
























