Ollama v0.6.6 重磅更新:更强推理、更快下载、更稳内存
AI 开发者们注意了!Ollama v0.6.6 正式发布,带来多项重大优化,包括全新模型支持、下载速度提升、内存泄漏修复等,让本地大模型推理更高效、更稳定!
? 核心更新亮点
1. 两大全新模型上线
-
• Granite 3.3(2B & 8B):128K 超长上下文,优化指令跟随与逻辑推理能力,适合复杂任务处理。 -
• DeepCoder(14B & 1.5B):完全开源代码模型,性能对标 O3-mini,开发者可低成本部署高质量代码生成 AI!
2. 下载速度大幅提升
-
• 实验性新下载器:通过 OLLAMA_EXPERIMENT=client2 ollama serve启用,下载更快、更稳定! -
• Safetensors 导入优化: ollama create导入模型时性能显著提升。
3. 关键 BUG 修复
-
• Gemma 3 / Mistral Small 3.1 内存泄漏问题修复,运行更稳定。 -
• OOM(内存不足)问题优化,启动时预留更多内存,避免崩溃。 -
• Safetensors 导入数据损坏问题修复,确保模型完整性。
4. API 与兼容性改进
-
• 支持工具函数参数类型数组(如 string | number[]),API 更灵活。 -
• OpenAI-Beta CORS 头支持,方便前端集成。
? Ollama vs. vLLM vs. LMDeploy:谁才是本地部署王者?
| 对比维度 | Ollama v0.6.6 | vLLM | LMDeploy |
| 易用性 |
|
|
|
| 推理速度 |
|
|
|
| 内存优化 |
|
|
|
| 模型支持 |
|
|
|
| 适用场景 | 个人开发 / 轻量级应用 | 高并发生产环境 | 企业级实时对话 / 边缘计算 |


