前言
随着人工智能技术的快速发展-大型语言模型(LLM),如 OpenAI 的 GPT 系列,已成为众多企业和个人关注的焦点,而 Ollama 作为一款开源的大型语言模型服务工具,正逐渐受到开发者和研究人员的关注,本文将探讨基于 MaxKB+Ollama +Llama3 如何快速零成本构建本地私有化 AI 知识库!

安装 Ollama


下载&安装 Ollama 对应版本,根据操作系统任选其一即可。
运行 Llama3
输入命令,运行:To run and chat with Llama3.
ollama run llama3



安装 MaxKB
MaxKB 是一款基于 LLM(Large Language Model)大语言模型-知识库问答系统(Max Knowledge Base)


docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb

我们可以查看其镜像相关信息,


http://127.0.0.1:8080/ui/login#/

初始账号: admin初始密码: MaxKB@123..
登录成功之后,更新密码:

然后,在左侧导航菜单栏,打开系统设置,进入模型设置,添加我们前面下载好的 Ollama+Llama3:

模型设置,可根据实际场景需要添加:

当模型配置完成后,则构建我们的专属知识库:

这里,我们可以设置知识内容分段的类型:


接下来,我们就可以根据译点架构专属知识库,构建我们的译点 AI 智能小助手。




当然,也需要持续关注应用的运行情况,并根据用户反馈和市场需求进行迭代和更新,这包括优化用户体验、增加新功能,安全隐私等。由于时间等问题,后续会抽空专门整理一些智能 AI 助手回答效果及调优的文章(根据后台童鞋粉丝的需求呼吁度)><

