方案 | 基于本地大模型开发CAD智能助手

本文介绍一种基于Ollama[1]部署的本地大模型和AnyCAD三维图形平台[2]开发交互式CAD智能助手的方法,实现基于大模型辅助建立二维、三维几何模型的功能;主要内容包括Ollama本地大模型部署,基于WebSocket实现AnyCAD与Ollama交互,基于模型上下文协议(MCP)实现模型交互。

1 简介

1.1 Ollama本地大模型部署

Ollama是一个高性能的大规模机器学习模型框架,支持在本地环境中的部署。

为了在本地环境中部署Ollama,首先需要确保你的服务器或工作站满足Ollama运行的硬件要求。本文使用i9-13900K + 64GB内存 + 4080S16G,基于qwen2.5 14b大模型。

Ollama安装和部署qwen2.5略。

1.2 模型上下文协议MCP

模型上下文协议(Model Context Protocol, MCP)定义了如何在应用程序和机器学习模型之间传递信息的标准格式。它使得不同来源的数据能够以统一的方式被理解,从而简化了模型的应用过程。

1.3 AnyCAD图形平台

AnyCAD图形平台提供C++、.NET、Python、Java等API,可以方便的开发CAD/CAE/CAM应用程序,其简洁的API[3],非常适合AI大模型调用。在gitee上提供了丰富的示例[4],可快速上手。AnyCAD .NET SDK[5]在nuget上累计下载超过30W次。

方案 | 基于本地大模型开发CAD智能助手

2 整体架构

系统整体架构如下图所示:

方案 | 基于本地大模型开发CAD智能助手

其中:

  • • AI智能助手

基于AnyCAD图形平台API,实现智能助手的客户端插件,主要与AI Server通过WebSocket协议进行通信。

  • • AI建模服务插件

基于AnyCAD图形平台API,实现智能助手的插件,实现MCP协议。

  • • AI Server

通过Ollama提供的API与LLM交互,通过WebSocket接收AI智能助手的请求并返回AI模型响应。

3 效果展示

• AI助手二维绘图

• AI助手三维绘图

4 小结

通过简单的验证,走通了开发AI智能助手的流程。但要应用于工程应用还需要做更多的工作和深入的优化才能实现更智能的CAD智能助手。

AI知识库企业落地新闻资讯

TorchV创业一年半复盘:我们在努力定义AI企业知识库

2026-4-29 15:38:56

Agent智能体Openclaw新闻资讯

优刻得首发接入NemoClaw:面向企业的可控Agent运行体系

2026-4-29 15:41:52

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
购物车
优惠劵
搜索