模型微调

    • 微软官宣All in智能体,SWE Agent首曝光!奥特曼预警2025编程巨变
    • 我们应如何看待DeepSeek的557.6万美元训练成本?|甲子光年
    • 10分钟让WPS接入DeepSeek,实现AI赋能
    • “李飞飞团队50美元复刻DeepSeek R1”之辨
    • DeepSeek V3:AI领域的全新突破,性能与效率双重飞跃
    • 完整的671B R1塞进本地,详尽教程来了!
    • 【DeepSeek x 飞书】在飞书智能伙伴搭建平台上用 DeepSeek 模型
    • DeepSeek大模型本地部署全攻略:从工具选择到可视化操作
    • Llama3.3
    • 3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
    • 深度使用Cursor碰到的几个问题
    • DeepSeek被质疑抄袭?别怕!在本地部署DeepSeek R1,并添加私有知识库,支持联网搜索!
    • Cursor帮我节约了90%的时间
    • 3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
    • 别被Deepseek低成本冲昏头!本地化部署后续的“甜蜜陷阱”,你真能扛住吗?
    • DeepSeek-llm-7B-Chat微调教程
    • 如何用CAMEL从DeepSeek-R1蒸馏数学推理数据?手把手教你实现!
    • 完整的671B MoE DeepSeek R1怎么塞进本地化部署?详尽教程大放送!
    • 基于GiteeAI快速搭建自有DeepSeek
    • DeepSeek R1 671B 完整版本地部署教程来了!!!
    • 一文读懂DeepSeek-R1本地部署配置要求(建议收藏)
    • 本地Ollama部署DeepSeek R1模型接入Word
    • 白话科普 | 看完即可上手DeepSeek训练,构建专属大模型,LoRA技术让你轻松训练行业大模型
    • o3-mini来了,OpenAI首个可以免费用的推理模型!还是被DeepSeek卷到了!
    购物车
    优惠劵
    搜索