模型微调

    • MCP 传输协议改进提案解读:从 HTTP+SSE 到"可流式 HTTP"
    • 从 0 到 1,Agentic Ops 如何打造企业级 AI 生产力?
    • 挑战4张2080Ti22G跑本地部署的DeepSeek 671b满血版大模型
    • 比DeepSeek、o1高3倍!首创无服务器强化微调,只需十几个数据点,
    • 如何去掉DeepSeek R1的思考过程
    • 5种微调大语言模型(LLMs)的技术,一图看懂!
    • 党政机关举办Deepseek讲座培训时的重要考虑
    • MCP协议或迎来重大更新:引入Streamable HTTP传输
    • 大型语言模型(LLM)推理框架的全面分析与选型指南(2025年版)
    • DeekSeek-R1大模型本地微调-构建医疗问答模型
    • MCP入门实践,Cursor+MCP
    • 阿里大模型QWQ-32B低成本部署(两分钟了解AI社区最新动态)
    • 使用 VLLM 部署 DeepSeek:基于 Ubuntu 22.04 + RTX 4090 + Docker 的完整指南
    • 终于把深度学习中的微调、提炼和迁移学习搞懂了!!
    • Trae 接入硅基流动 SiliconCloud,高效提升开发者编程体验
    • 《大模型微调的十种方法》
    • AI Code 在团队开发工作流的融合思考
    • 使用Ollama部署deepseek大模型
    • DeepSeek-R1的Qwen-32B蒸馏模型与QwQ-32B模型,谁更强?
    • deepseek-r1:32b在低性能电脑部署运行
    • 简化 Cursor, Windsurf 和 Cline 的开发流程:揭示 8 个必备的 MCP Server 插件
    • 部署DeepSeek的4条路,企业级客户到底该咋走?
    • 部署Ollama后端引擎运行LLM
    • 内网服务器离线安装部署 DeepSeek
    购物车
    优惠劵
    搜索