-
从模型原理到代码实践,深入浅出上手Transformer,叩开大模型世界的大门
序言作为非算法同学,最近被Cursor、DeepSeek搞的有点焦虑,同时也非常好奇这里的原理,所以花了大量业余时间自学了Transformer并做了完整的工程实践。希望自己心得和理解可以帮到大家~如有错漏,欢迎指出~本文都会以用Transformer做中英翻译的具体实例进行阐述。 从宏观逻辑看Transformer让我们先从宏观角度解释一下这个架构。首先 Transformer也是一个…- 2
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
Reranker模型应用场景、技术实现与性能对比
一、主流Reranker模型分类与特点1. 商业在线模型(如Cohere Rerank、Jina Reranker)核心场景:适用于多语言搜索、快速集成且无需本地部署的场景(如电商搜索、跨语言问答)。技术架构:Cohere基于API调用,支持长上下文和混合检索(向量+关键词);Jina Reranker v2采用交叉编码器架构,推理速度比BGE-Reranker快15倍,支持函数调用和代…- 1
- 0
-
让大模型可以轻松读取代码仓库:MCP-Repo2LLM
MCP-Repo2LLM下载地址https://github.com/crisschan/mcp-repo2llm概览mcp-repo2llm 是一个 MCP 服务器,专门将代码仓库转化为适合大语言模型(LLM)处理的高效格式。它是一个强大的工具,能够无缝连接传统代码库与现代 AI 语言模型,帮助开发者更好地利用人工智能技术。这款工具是在 RepoToTextForLLMs 的…- 2
- 0
-
大模型应用开发入门分享
本文是作者给兄弟团队做的大模型入门分享,介绍了基本大模型模式,分享出来希望帮助更多的同学参与到LLM应用建设。前言大模型作为新兴领域,不断地冒出来新的专有术语和新的概念,让大家觉得很神秘,捉摸不透。但是大部分复杂性的背后都会有一个极其简单便于理解的模型,本次分享最主要就是大模型的基本范式,通过范式将这些神秘感去除。大模型虽然很厉害,很神秘,但作为使用人员,门槛是非常非常非常低的。模型基础虽然市面上…- 2
- 0
-
Altman 正在悄悄打造“AI版X”?ChatGPT社交功能曝光
ChatGPT,不满足你的 AI 工具,它还想成为你刷信息流的地方。OpenAI 内测社交信息流功能,“yeet”发布内容,或将改写我们使用 AI 的方式。一边是热度爆棚的图片生成功能,一边是持久记忆的新能力,这次的野心不小。▍发生了什么?据多位知情人士爆料,OpenAI 内部正在测试一项类似 X(原 Twitter)的社交信息流功能,原型已经上线,用户可以像发帖一样在 ChatGPT 里发布内容…- 1
- 0
-
微软AI核心战略解密:让OpenAI冲锋陷阵当炮灰,采用跟随者策略坐收技术红利
微软人工智能首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)近日在电视采访中阐述了"跟随者策略"的经济效益。这位曾共同创立DeepMind(2014年被谷歌收购)、后短暂担任Inflection AI CEO的技术领袖,现为微软制定AI发展路线。图 | 穆斯塔法·苏莱曼(Mustafa Suleyman)(来源:《麻省理工科技评论》)在CNBC上周五播出的专访中,…- 1
- 0
-
Claude 推出高级 Research 功能,并深度集成 Google Workspace
就在刚刚,Claude 的母公司 Anthropic 宣布对其 AI 助手 Claude 进行重要升级,旨在进一步增强其作为高效协作工具的实用性。本次更新引入了两项新功能,Research 和 Google Workspace 深度集成。不过,Research 功能目前处于早期 Beta 测试阶段,面向美国、日本、巴西地区的 Max、Team 和 Enterprise 付费计划用户开放,…- 1
- 0
-
智能体工作流与设计模式解析
过去两年中基础模型快速发展,从大语言模型到多模态模型、再到推理模型,大模型的能力不断提升。基于大模型的智能体也在不断发展,智能体可以更好与业务场景结合,发挥出大模型的价值。本文探讨智能体工作流并分析智能体工作流的常见设计模式。01 为什么需要智能体工作流?目前大多数人都是直接使用大模型,即大模型根据提示生成最终输出,而且不做任何修改。这好比是要求人从头到尾直接写出一篇完整的文章,难度无疑是非常大的…- 2
- 0
-
GPT-4.1一手实测,实力绝对被低估了
家人们,OpenAI 的这波操作我是真的蚌埠住了。前有听起来很厉害的 GPT-4.5,今有 GPT-4.1 闪亮登场,以 API 的形式。OpenAI 今天凌晨开直播,发布了 4.1 系列,包括三款模型,分别是——GPT-4.1 (旗舰版)GPT-4.1-mini (轻量版,主打性价比)GPT-4.1-nano (微型版,OpenAI 史上最便宜)还记得定义了大模型时代的 GPT-4 吗?前几天被…- 1
- 0
-
这些你不知道的 OpenAI 4.1 秘密
谁是性价比之王最有性质比的模型是 GPT4.1 Nano?从数值计算来看,每单位智力表现而言,GPT4.1 Nano性质比最高,只要 0.02 元。最夸张的是 GPT-4.5,每分智力是 1.55 美元,是 GPT4.1 的 77 倍。如果你追求更高智能,更低一点的价格,最优选择是:o3-min。在 OpenAI 的 API 中 o3-min 是最佳投资,比GPT-4.1 更便宜(价格…- 1
- 0
-
前沿导读 | 大模型智能体驱动的社会仿真
社会模拟(Social Simulation)通过模拟仿真真实世界的系统来模仿人类行为和特性,为社会科学研究提供了理解在现实生活难以实际观察的现象的窗口工具[1]。大语言模型(Large Language Model,以下简称为LLM)的强势兴起为社会模拟注入了新活力,大量相关研究如雨后春笋般出现。LLM究竟能否应用于社会科学研究,有哪些潜在问题,以及有哪些可能解决方案?本文将围绕这三个问题进行探…- 2
- 0
-
Gemini 2.5 Pro 暴击 OpenAI,性能猛兽不翻车,全球顶尖实至名归
大家好,这里是人工智能最前沿。今天谷歌憋出一个大招,这招让 OpenAI 直接懵圈!早上刷新闻,看到网友炸锅:“Gemini 2.5 Pro 上线,我怀疑 OpenAI 得回去重修 AI 课!”这可一点不夸张谷歌 Deep Research(深度研究)最新升级,搭载全球顶尖的 Gemini 2.5 Pro 模型,5分钟甩出46页论文。19.99美元/月的订阅价格,直接把 OpenAI DR 的20…- 2
- 0
-
OpenAI 再放大招!100 万超长上下文的GPT-4.1 横空出世
。?OpenAI 再放大招!100 万超长上下文的GPT-4.1 横空出世今天,OpenAI 宣布推出GPT-4.1 系列模型,标志着人工智能再次迈入一个崭新维度。如果说 GPT-4 是一位聪明的助手,那 GPT-4.1 就是你梦想中的超级合伙人:✅ 代码能力猛增至业内领先 ✅ 指令理解接近人类逻辑思维 ✅ 上下文处理直接拉满百万Token ✅ 小模型Mini/Nano又快又便宜,性能还反超前代?…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 0
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 3
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 1
- 0
-
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今天,我们就来深入浅出地剖析大语言模型中的一个关键概念——上下文长度(Context Length)。上下文长度是什么?想象你正在和一个朋友聊天。这个朋友有一个特殊的能力:他能记住你们之间交流的最后N个字。如果你们的对话超过了N个…- 2
- 0
-
5W字长文 Agent多智能体探秘:架构设计、交互模式与应用实践深度剖析
❝本文 5W字符 将剖析单代理与多代理架构的差异,详解多代理系统中的多种模式,如并行、顺序等,还会探讨代理间的通信机制。更过agent系列文章:1. AI 智能体,颠覆还是赋能?一文读懂!2. 1W8000字 解锁 AI 高效运作密码:工作流与智能体如何协同?3. 万字深度剖析 AI 代理:类型、应用及优势与局限全解析4. 1W5000字 深度剖析大模型Agent框架5. Agent系列 1W字用…- 1
- 0
-
刚刚,OpenAI 发布 GPT-4.1 !吊打 GPT-4.5,14 万/月的博士级 AI 曝光
昨天,OpenAI 宣布调整 API 使用规则。未来访问 OpenAI 旗下最新大模型,需要通过身份验证的 ID(即 OpenAI 支持的国家/地区之一的政府签发的身份证件,且一个身份证件每 90 天只能验证一个组织),未通过验证将影响模型使用。新规引起的争议尚未平息,OpenAI 于今天凌晨顺势推出了三款 GPT-4.1 系列模型,不过,只能通过 API 用,不会直接出现在 ChatGPT 里。…- 2
- 0
-
OpenAI发布GPT-4.1全新系列模型,性能全面超越GPT-4o
凌晨一点,OpenAI 正式通过 API 形式发布了全新的 GPT-4.1 系列模型,没错,只有 API,没有网页可以使用,包括三个不同定位的版本:GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。这次的迭代是对现有旗舰模型 GPT-4o 的一次全面超越,尤其在编码、指令遵循和长上下文处理方面实现了显著飞跃。OpenAI 官方宣称,新的 GPT-4.1 系列“几乎在各个方面”…- 0
- 0
-
不怕模型混乱,OpenAI又推“全能模”GPT-4.1,B端市场福音
OpenAI刚出官方博客,夸赞GPT-4.5是比 4 聪明10倍的模型,转眼就又推出了GPT-4.1,还是非推理模型,还更便宜。有网友评价:“GPT-4.5甚至还没来及说再见!”而且这次没说明,为何数字命名又倒退了?难道Altman也分不清 9.9 和 9.11 的大小?言归正传,OpenAI最新发布的三个新模型是:GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。 GPT-…- 2
- 0
-
AI Agent破局:MCP与A2A定义安全新边界
作者:Nicky,混元安全团队朱雀实验室 通信协议是AI Agent加速落地的核心基础设施之一。Anthropic推出的MCP已逐步确立其作为AI Agent连接外部工具的标准协议地位,而Google最新发布的A2A则聚焦于打破智能体协作壁垒,推动跨Agent协同体系的构建。作为AI Agent时代最受关注的两大通信规范,它们的安全性直接关乎AI Agent的安全边界,任何安全问题都可能引发AI …- 1
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页
联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!