vLLM部署QwQ-32B(GPU版)


        按官网要求,在部署vLLM之前首先要保证Python的版本在3.12及以上,gcc版本在12以上,并且一般需要安装Anaconda,用于做Python环境隔离,上述过程不再赘述。
一、vLLM安装部署
  • 查看GPU显存

    nvidia-smi

vLLM部署QwQ-32B(GPU版)
  • 创建一个独立的虚拟环境并激活
vLLM部署QwQ-32B(GPU版)
vLLM部署QwQ-32B(GPU版)
  • 安装vLLM
vLLM部署QwQ-32B(GPU版)
二、QwQ-32B模型下载
从魔塔社区下载模型https://modelscope.cn/models/Qwen/QwQ-32B/files
  • 安装modelscope
vLLM部署QwQ-32B(GPU版)
  • 下载完整模型库
vLLM部署QwQ-32B(GPU版)
耐心等待吧,我这边下载了两三个小时才下载完 sudo modelscope download –model Qwen/QwQ-32B  –local_dir /home/data-local/qwq-32b

三、模型运行
接下来就是见证奇迹的时刻了~~~~~
完了,报错了vLLM部署QwQ-32B(GPU版)
执行 UDA_VISIBLE_DEVICES=0 vllm serve –model /home/data-local/qwq-32b –served-model-name QWQ-32B –port 8000 报错 
vLLM部署QwQ-32B(GPU版)
改为 CUDA_VISIBLE_DEVICES=0 vllm serve /home/data-local/qwq-32b –served-model-name QWQ-32B –port 8000 
vLLM部署QwQ-32B(GPU版)
这次可以了vLLM部署QwQ-32B(GPU版)

接下来试试跑一下别的模型
CUDA_VISIBLE_DEVICES=0 vllm serve /home/data-local/DeepSeek-R1-Distill-Qwen-7B –served-model-name Qwen-7B –port 8000 
vLLM部署QwQ-32B(GPU版)
四、测试连接
  • API接口测试
curl http://localhost:8000/v1/completions -H "Content-Type: application/json" -d '{  "model": "QWQ-32B",  "prompt": "你好",  "max_tokens": 100}'
  • 通过OpenAI兼容的API调用
from openai import OpenAI# 初始化客户端(添加api_key参数)client = OpenAI(       base_url="http://172.19.66.132:8000/v1",       api_key="dummy"  # 虚拟密钥‌:ml-citation{ref="1" data="citationList"})# 调用模型生成文本response = client.completions.create(  model="Qwen-1.5B",  prompt="如何部署大语言模型?",  max_tokens=200)# 正确输出字段为response.choices.textprint(response.choices[0].text)

企业落地数字员工新闻资讯

告别996?微软说“前沿公司”来了,AI帮你打工!

2026-4-29 13:21:19

Skill前沿技术新闻资讯

从openclaw与clawhub出发,一个Skill系统真正要解决的4个工程问题

2026-4-29 13:24:33

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
购物车
优惠劵
搜索