-
CursorRules:AI编程助手规则调优实战
本文深入解析了如何通过 CursorRules 对 AI 编程助手进行精细化管理,使其更好地适应项目需求与团队规范。从基础概念到高级技巧,文章全面介绍了 CursorRules 的结构、配置方法及最佳实践,并探讨了其在提升代码质量、协作效率以及个性化体验方面的巨大价值。无论你是初学者还是进阶用户,都能从中找到“调教”AI 助手的实用指南和灵感。引言:我的 AI 队友,有时像"猪队友&qu…- 0
- 0
-
深度剖析 MCP SDK 最新版: Streamable HTTP 模式正式发布,为你实测揭秘
最近,MCP SDK 新版本更新发布(最新为v1.9.0),其中最大的更新莫过于终于提供了新版协议中的传输模式 — streamable HTTP。不过由于MCP SDK的文档一直以来”语焉不详“的风格,很多开发者知其然却不知其所以然,很容易在应用中踩坑。本文将对这种模式进行全面剖析与实测,帮助大家深入认识这种新的模式。快速上手:开启streamable HTTP深入两个核心参数认识 sessio…- 0
- 0
-
AI驱动的软件:为何强大的CI/CD基础至关重要
AI驱动开发提速,但别忽视CI/CD基础!想高效用好AI,需构建可扩展的CI/CD平台,解决快速迭代带来的系统压力。选择CI/CD平台需关注集成化、高级缓存、分布式执行等,避免碎片化工具链、低效缓存等问题。构建强大的CI/CD,才能驾驭AI,提升软件交付速度与质量!AI生成的代码和日益复杂的AI代理的兴起,将改变企业和初创公司以更少的资源做更多事情的局面。但这并非万能药。在软件开发生命…- 0
- 0
-
Embedding模型微调:基于已有数据快速构建训练与评估数据集
Embedding模型微调:基于已有数据快速构建训练与评估数据集 本文目标本文主要面向希望在特定领域或任务中提升Embedding模型表现的初学者。希望读完之后,能帮助大家:准确理解Embedding模型微调的核心概念及其对数据集的依赖。初步掌握基于已有数据构建高质量微调训练集与评估集的实用步骤与策略。初步认识正负样本构建、数据增强等关键技术在数据集构建中的应用与价值。? 目录? 本文目…- 0
- 0
-
RAG与微调,大语言模型的“大脑升级”,该选哪条路?(小白科普)
最近在做项目时,我发现有些甲方对RAG和模型微调分区的不太清楚,明明大语言模型(LLM)加挂RAG就可以解决的问题,却坚持要微调,但是具体沟通后发现,其实只是不太了解二者的实际用途。其实,Retrieval-Augmented Generation (RAG) 和微调 (Fine-Tuning) 是两种最常用的LLM的“大脑升级”技术,虽然它们都能提升模型的性能,但工作原理和适用场景却大相径庭。今…- 0
- 0
-
两万字记录微软Build2025主题演讲谈了什么:萨提亚展现好人缘,奥特曼、马斯克、黄仁勋轮番出镜,软件工程的本质在于好工具
不知道科技公司举办大会是不是也要看黄历,但这个星期应该是大家一起算好的:台北的Computex、谷歌的I/O、Dell World,以及在在西雅图举行的微软Build 2025开发者大会,接连上演。而如果说在同一时间开会是一种时间上的巧合,那么大家把专注点点放在AI,具体来说是Agents(AI代理)则是话题上的必然。而微软这次大会围绕"开放代理网络"(open agentic…- 0
- 0
-
百度自研Agent专用版模型上线千帆!已针对企业级大模型应用进行指令调优
模型服务升级1.文心大模型上线Qianfan-Agent-Intent-32K模型,该模型是百度自研Agent专用版模型,针对企业级大模型应用进行了专门的指令调优,在意图识别、工具调用等任务上的效果较好,同时在性能方面取得了显著提升。调用说明请查看官网文档。官网文档:https://cloud.baidu.com/doc/qianfan-api/s/3m7of64lbERNIE-iRAG-Edit…- 0
- 0
-
一文读懂微调技术Lora和SFT的异同
SFT:定制你的专属 AI 助手SFT(Supervised Fine-Tuning),也就是监督式微调。为了帮助大家理解,我们先来讲一个故事。假设你有一个特别聪明的朋友,他上知天文、下知地理,对各种知识都了如指掌。这就好比是一个经过大规模预训练的大语言模型,已经具备了非常强大的通用语言能力。但是,当你向他请教一些特别专业的问题,比如如何进行高精度的芯片制造,他…- 0
- 0
-
律所本地化部署大模型的误区
前言:近日和一些业内人士深度交流了一下各家律所部署大模型的落地情况,顿时感觉对于AI带来的变化,行业内部呈现出十分荒谬的情况,所有人都在跟风,每个人都很焦虑,而没有人真的考虑过一个最关键的问题“为什么要部署?”AI时代下,清晰分辨出哪些是噪音,哪些是真言,其实是一件颇具难度的事情,今天本小年轻斗胆一言,谈谈自己的看法。1.误区一:谁先部署大模型谁有优势就团队作业而言,普通的知识库AI产品已经完全可…- 0
- 0
-
抛弃llama.cpp!Ollama自研引擎:本地推理性能飙升
一、从 “框架依赖” 到 “独立引擎”:一次底层架构的彻底重构过去一年,大模型领域的关键词是 “多模态”——Meta 的 Llama 4 支持文本与图像的联合推理,Google 的 Gemma 3 强化了代码生成能力,阿里巴巴的 Qwen 2.5 VL 甚至能解析医学影像。但模型的复杂化暴露了传统推理框架的短板:当用户试图在本地运行一个需要同时处理图像生成、文本推理和数学计算的 AI 任务时,ll…- 0
- 0
-
基于 Function Calling 构建代码执行工具时遇到的问题
在开发 MolaGPT 的过程中,我始终认为,单纯的文本对话只是 AI 模型能力的一种表象。而真正激动人心的是模型能够主动理解意图,和人类一样制定计划,执行复杂指令来解决复杂问题,比如调用工具、生成图表、分析数据等。要实现这一点,就需要为模型构建一套完整的“工具箱”,还需要有强大的语言模型本身具有调用工具的能力,而这些能力就需要配套的后端接口和稳定的结果输出。这段时间,我终于有机会着手开发一个基于…- 0
- 0
-
向量检索能力SOTA,字节Seed1.5-Embedding模型训练细节公开
字节跳动 Seed 团队最新向量模型 Seed1.5-Embedding 公布技术细节,该模型基于 Seed1.5 (Doubao-1.5-pro) 进一步训练。在权威测评榜单 MTEB 上,Seed1.5-Embedding 达到了中英文 SOTA 效果。除了通用 Embedding 任务外,团队还额外优化了模型在推理密集的检索任务上的能力,并在对应榜单 BRIGHT 上也达到 SOTA。团队认…- 0
- 0
-
如何搭建自己的 MCP 服务器
Vibe Coding 正在成为当下一种流行的程序员之人机协作模式,当下的 Coder 或多或少都在用各种 AI 编辑器,无论是 Cursor 还是 Windsurf 抑或 Trae,如果你还没有开始下载这些客户端,那也一定试过 Vscode 的插件如 Github Copilot。当与 AI 对话的时候,我发现自己经常更换 AI 模型(比如突然发布的 Gemini)和客户端(Cursor、Win…- 0
- 0
-
我也曾一上来就想微调大模型,直到我发现自己错得离谱!
假如你在大学备战期末考试,整整一个学期,你苦读教材,核心知识早已烂熟于心,考试时根本不用翻书。但突然,有人问你一个课本没讲的新问题,你有点懵,赶紧抓起手机查百度,找到答案后自信回答。这两种场景,正好对应了我们提升大型语言模型(LLM)准确性的两大“神器”:检索增强生成(RAG)——让AI随时查询外部知识库,获取最新答案。微调(Fine-tuning)——通过额外训练让AI直接“记住”知识。无论是C…- 0
- 0
-
如何在 ONLYOFFICE 中离线使用 Ollama AI 模型
本地 AI 模型的重要性本地部署 AI 模型可确保敏感文档始终保留在您的设备上,有效保障数据机密性并满足合规要求。 离线运行不仅避免网络延迟,还能为摘要生成、翻译及内容创作等任务提供快速响应。 Ollama 提供了一个轻量且可扩展的框架,支持多种本地大语言模型(LLM),包括 Ollama 系列、DeepSeek" data-itemshowt…- 0
- 0
-
英伟达新模型居然是微调千问,阿里源神称号实至名归
最近AI圈有个事儿,不知道大家有没有关注到我看到之后甚至有点小激动就是那个做GPU做到封神的英伟达,居然也开始用咱们国内阿里搞的通义Qwen大模型了!他们拿阿里通义Qwen当底座,去开发自己最新的代码推理模型OpenCodeReasoning-Nemotron这事儿吧,要是放在前两年,估计打死我都不信。一个来自中国的开源模型,能让全球AI芯片霸主、市值高达万亿美金的英伟达"动心"…- 0
- 0
-
应用流程文档(流程图+时序图):与Cursor AI协作的最佳语言
这不是夸张。在我使用Cursor进行的最近十个项目中,那些有完善流程文档的项目平均节省了60%的开发时间。原因很简单:当Cursor理解了你的应用流程,它就能精准地生成符合预期的代码,而不是反复猜测你的意图。我曾痛苦地发现,缺乏流程文档时使用Cursor开发就像在玩"破冰船"游戏 — 每前进一步都可能碰壁,需要不断调整方向。而有了流程文档,使用Cursor就像驾驶高…- 0
- 0
-
“烧掉94亿个OpenAI Token后,这些经验帮我们省了43%的成本!”
大家好!刚刚结束了一个对我们 SaaS 产品来说强度非常大的 OpenAI API 调用月,我想顺便分享一些踩坑总结。通过下面这几条优化策略,我们成功将成本降低了 43%!希望这能帮到同样也在用 OpenAI API 的开发者朋友们。选对模型是关键中的关键我知道这听起来像废话,但这真的很重要。不同模型之间的价格差距巨大,我们通过大量测试,最终挑选了…- 0
- 0
-
玩转大模型,你的GPU显存够用吗?一文看懂估算方法
日常做项目,对大模型的私有化部署也有刚需,花点时间深入研究了下模型使用和GPU显卡配置的关系,做个记录。GPU的显存大小直接决定了我们能跑多大的模型、跑多快(影响批处理大小和序列长度),以及训练过程是否稳定。那么如何评估呢,包含以下几个考虑的因素:1. 模型参数本身最基础的显存占用来自于模型参数本身。这部分的计算相对直接:VRAM_参数 ≈ 模型参数总量 × 单个参数所需字节数。FP32: 4 字…- 0
- 0
-
AI重塑应用开发流程:谷歌Firebase Studio加速应用构建、测试和部署
谷歌Firebase Studio横空出世,照亮了应用开发的未来之路。谷歌推出了Firebase Studio,这是一个突破性的云端平台,旨在简化全栈AI应用的创建过程。这款创新工具将Gemini AI的强大功能与现有的Firebase服务相结合,为开发者提供了一个端到端的解决方案,能以前所未有的速度和效率进行应用的原型设计、构建、测试和部署。Firebase Studio不仅是对传统…- 0
- 0
-
20 分钟,基于老站点生成 Vue 的多语言官网——DemoWay MCP Server 用户实战案例
本文来自用户“核爆小悟空”,以下用第一人称指代。这是我工作中的一个真实案例: 将一个十年前开发的已经维护不动的日本官网转化为:基于 Vue 的、可用于线上部署使用的、移动版的、支持包括中文在内的多语言官网。DemoWay MCP Server 的主要使用场景还是更好的 AI 设计,但我的 Prompt 让 AI 大模型基于 DemoWay MCP Server 处理过的页面…- 0
- 0
-
你的想法+AI=完整程序!DeepSeek 让编程零门槛
DeepSeek V3 模型借鉴 DeepSeek-R1 模型训练过程中所使用的强化学习技术,大幅提高了在推理类任务上的表现水平,在数学、代码类相关评测集上取得了超过 GPT-4.5 的得分成绩。它的编程能力有显著提高,有时候几乎不需要做修改,生成的代码可以直接运行。所以说现在的AI编程已经没有门槛,任何人都可以使用AI生成自己的程序,不需要你懂代码,只要有你想法,AI都能够帮你实现。今天这篇文章…- 0
- 0
❯
购物车
优惠劵
搜索
扫码打开当前页

联系我们
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!




















