模型微调

    • RoostGPT:改变了自动化软件测试的游戏规则
    • 8分钟打造一个DeepSeek API智能测试引擎:当咖啡还没凉,测试报告已出炉
    • lceberg 助力 B 站商业化模型样本行级更新的实践
    • 单卡4090微调DeepSeek-R1-32B
    • QwQ总结能力测评,32b小模型真能超过deepseek吗
    • 为什么vLLM做不到?解密Ollama越级部署黑科技:以DeepSeek-R1-8B为例
    • 为什么Manus底层模型没用DeepSeek?——Manus六问六答
    • Cherry Studio 发布 v1.0.0 版本支持联网搜索
    • Claude 3.7 Sonnet 使用结论
    • Manus,为何是他们做出来了?
    • Cursor 新版本要来了!同一个窗口使用Agent+Chat!上下文增强、UI升级、界面更清爽。
    • Cursor + MCP:效率狂飙!一键克隆网站、自动调试错误,社区:每个人都在谈论MCP!
    • DeepSeek-进阶版部署(Linux+GPU)
    • QwQ-32B一键部署!真正的0代码,0脚本,0门槛
    • 一篇文章讲清楚,到底如何训练自己的专属大模型
    • 这可能是全网最保姆的DeepSeek微调教学
    • 对o1模型的技术分析(重制版)
    • 在树莓派5上运行9款流行的AI模型:哪些能用?哪些不行?
    • LLM模型层+应用层 Full-Stack RL的一种设想
    • DeepSeek到底用了多少GPU?
    • 速抢!体验TencentOS Server AI 全栈DeepSeek工具箱,获得80%提速
    • triton+vllm后端部署LLM服务
    • Ollama和vLLM我们到底应该用哪个?
    • 不建议在本地部署DeepSeek-R1:32B以下小模型,文末推荐适用主机
    购物车
    优惠劵
    搜索