模型微调

    • 通用LLM插件系统——简化工具集成,提升2025年AI的灵活性
    • 演讲实录:中小企业如何快速构建AI应用?
    • Cherry Studio v1.2.9:新增多个MCP特性
    • 为什么新手比专家更想做垂直领域SFT微调?
    • 使用MCP进行AI集成的6大理由
    • 大模型微调技术全景解析:从理论到企业级实践(Python实战增强版)
    • 主流 Embedding 模型对比
    • LLM 微调的学习动力学:幻觉、挤压与优化的艺术(万字长文,实战解读)
    • 8 卡 H100 大模型训练环境部署文档
    • DeepSeek + Dify 企业级大模型私有化部署指南
    • 自主构建MCP,轻松实现云端部署!
    • 大模型微调框架LLaMA-Factory
    • Unsloth:提升 LLM 微调效率的革命性开源工具
    • 超越 DevOps?VibeOps 引领 AI 驱动的开发革命
    • 大模型想 “专精” 特定任务?这 3 种 Addition-Based 微调法别错过
    • 重参数化微调:揭秘LoRA家族让大模型训练成本暴降的方法
    • 为什么全参数微调能让大模型从“通才”变“专才”?
    • 使用 LLaMA-Factory 微调 llama3 模型
    • 费曼讲解大模型参数微调——小白也能看懂
    • 超详细使用Ollama本地部署Deepseek
    • 大模型微调:Prompt-Tuning
    • 手把手教你如何集群部署大模型
    • vLLM部署QwQ-32B(GPU版)
    • 企业私有大模型DeepSeek落地部署该用什么? Ollama还是vLLM
    购物车
    优惠劵
    搜索