模型微调

    • DeepSeek-R1 蒸馏模型:高性能低消耗,本地部署一键搞定
    • 2025 AI Agent(多智能体系统)评估和优化指南
    • MCP 让 Eino 更强大:实战指南
    • 相同知识库,在Ds和qwq检索准确率表现差异明显
    • 请马上在Cursor中使用AI Rules和MCP
    • 使用Argo Workflows微调大语言模型
    • Cline 集成 MCP 服务使用体验
    • DeepSeek R1私有部署GPU选择指南(英伟达A100、H100、A800、H800、H20系列)
    • OpenManus+QwQ32B 本地部署
    • Cursor 与 Git 协同工作指南
    • 单卡4090部署DeepSeek-R1到底能抗多大量?性能压测来了
    • Deepseek-R1不支持Function Call?不能搭建智能体?教你一招
    • 大模型压测如何做?来试试Apifox!
    • 快速上手:开发第一个MCP Server
    • 在Ubuntu服务器4x2080ti(22G)上部署QwQ-32B + SGLang教程
    • MCP Server 开发必备:MCP Inspector 调试工具
    • AI一周写出ICLR研讨会论文!成果简洁有效获审稿人大赞
    • Prompt caching,一篇就够了。
    • 「AI开发进入USB时代!」Cherry Studio+MCP协议实测:3分钟连通本地/云端/API,效率飙升10倍!
    • Xinference+Dify本地部署全攻略:知识库搭建与模型配置详解(附一键安装包)
    • 如何感知诊断训练 hang,百度百舸万卡集群的稳定性技术方案
    • Cursor实战:高效搞定多表关联
    • 大模型微调:全量微调 VS Lora微调,一篇说清楚
    • 使用DeepSeek Function Calling构建智能测试助手
    购物车
    优惠劵
    搜索