手把手教你轻松本地部署Llama3,个人电脑也能极速运行


大家好,我是斜杠君。今天手把手教大家如何在本地部署Llama3,打造一个属于自己的本地大模型助手。

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

在教大家部署Llama3之前,先要带大家了解一个概念:Ollama

Ollama是什么?

Ollama是一个用于在本地计算机上运行大型语言模型(LLMs)的命令行工具。它允许用户下载并本地运行像Llama 3、Code Llama等模型,并支持自定义和创建自己的模型。

Ollama是免费开源的项目,支持macOS和Linux操作系统和Windows系统。它还提供了官方的Docker镜像,使用户可以通过Docker容器部署大型语言模型,确保所有与模型的交互都在本地进行,无需将私有数据发送到第三方服务。

安装

理解了Ollama是什么之后,让我们到官网下载Ollama程序吧~

官网下载页面:https://ollama.com/download

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

因为我的电脑是windows, 所以这里我下载Windows这个版本。

下载好了,程序大小一共是212M。

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

下载好后,双击点开始安装:

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

默认安装到C盘。PS:很奇怪为什么没给个自定义安装目录的选项 :(

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

安装完成后,Win+R键调出运行窗口:

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

在窗口中键入cmd调出控制台,在控制台中运行命令:ollama run llama3

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

这时就开始下载模型了。

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

等待一会儿,安装完成。

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

下载的文件在下面这个目录:

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

测试

先测试一下,回答怎么样?

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

再来测试一下中文。

手把手教你轻松本地部署Llama3,个人电脑也能极速运行

测试结果回答逻辑是没什么问题的,速度也很快。

好了,使用Ollama在本地部署llama3的教程就为大家教到这里,大家快动手试试,部署个属于自己的本地大模型助手吧!

Agent智能体新闻资讯

Dify发布了V1.8.1版本,专注于提升稳定性、性能和开发者体验,解决部分关键问题,让我们一起来看看吧!

2026-4-17 23:06:03

企业落地新闻资讯智能营销

一直爆料OpenAI「草莓」的账号,竟然是个智能体?斯坦福系创企「炒作」AgentQ

2026-4-17 23:21:39

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
购物车
优惠劵
搜索