当前位置: 首页 > news >正文

招代理的网站建设公司seo排名优化培训

招代理的网站建设公司,seo排名优化培训,网络推广公司名称,常用的网站开发在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。 准备vLLM镜像 在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像: # 官方镜像 docke…

在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。

准备vLLM镜像

在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像:

# 官方镜像
docker pull vllm/vllm-openai:latest# 如果因为墙的原因,以上命令拉取不到,可以去看看下面这些仓库
Docker仓库:https://docker.1panel.live ✅网友自建
Docker仓库:https://docker.agsv.top  ✅网友自建
Docker仓库:https://docker.agsvpt.work  ✅网友自建
Docker仓库:https://dockerpull.com ✅网友自建
Docker仓库:https://dockerproxy.cn ✅网友自建

下载Qwen2-7B-Instruct模型

我这里下载的是Qwen2-7B-Instruct-GPTQ-Int4的模型。下载地址:

https://huggingface.co/Qwen/Qwen2-7B-Instruct-GPTQ-Int4

编写Dockerfile

我们将Qwen2模型打包上传到服务器,然后编写Dockerfile:

# 基础镜像
FROM vllm/vllm-openai:latest# 暴露端口
EXPOSE 8000# 将模型上传到基础镜像
ADD Qwen2-7B-Instruct-GPTQ-Int4 /home/Qwen2-7B-Instruct-GPTQ-Int4# 容器启动要执行的命令,注意这里一定要是python3
ENTRYPOINT ["python3","-m","vllm.entrypoints.openai.api_server","--served-model-name","Qwen2-7B-Instruct-GPTQ","--model","/home/Qwen2-7B-Instruct-GPTQ-Int4"]

构建镜像

执行docker build命令,构建docker镜像:

docker build -t vllm_qwen2_7b:1.0 -f Dockerfile .

启动容器

执行以下命令,启动docker容器:

docker run -itd --runtime nvidia --gpus all --name vllm_qwen2 --env "HUGGING_FACE_HUB_TOKEN=<secret>" -p 8000:8000 vllm_qwen2_7b:1.0 --max-model-len 8129

经过启动、测试,模型运行没问题。

然后,我们就可以将镜像导出,提供给内网环境使用了:

# 镜像导出
docker save -o vllm_qwen2.tar vllm_qwen2_7b:1.0
# 镜像导入
docker load -i vllm_qwen2.tar

问题解决

问题1、No CUDA GPUs are available

解决方法:

(1)检查是否正确安装了CUDA驱动,执行nvidia-smi可查看。

(2)docker run命令中没有添加--runtime nvidia --gpus all。

问题2:unknown or invalid runtime name: nvidia

解决方法:

当Docker容器需要使用GPU时,需要配置Docker的default-runtimenvidia,然后重启Docker。

{"runtimes":{
"nvidia":{
"path":"nvidia-container-runtime",
"runtimeArgs":[]
}
},
"default-runtime":"nvidia"
}

 如果是Windows版Docker,需要在Docker Desktop中点击右上角的Setting,然后点击Docker Engine,在这里设置完上述配置后,点击restart

 

问题3、Try increasing gpu_memory_utilization or decreasing max_model_len when initializing the engine.

解决方法:

因为GPU内存限制而需要调整模型的最大序列长度。在docker run命令最后加--max-model-len限制。

--max-model-len 8129
http://www.mmbaike.com/news/62133.html

相关文章:

  • 重庆市建设工程信息网查询人员成都seo公司排名
  • 好一点的网站是怎么做的上海专业seo排名优化
  • 网站建设的用处今日最新军事新闻
  • 卖彩票的网站怎么做的百度快照投诉中心人工电话
  • 怎样在局域网做网站站内优化
  • 网站建设时间查询google搜索引擎优化
  • 安徽华强建设集团网站网络推广公司是干什么
  • 网站建设服务英文苏州优化收费
  • 网站建设主要职责建站平台在线提交功能
  • 网站测试的方法找客户的软件有哪些
  • 网站如何做友情链接sem优化师是什么意思
  • 京东不让卖网站制作么旅游景点推广软文
  • 网站建设_seo技术支持nba实力榜最新排名
  • 济南建网站公司今日重大事件
  • 成都网站建设龙兵玄幻小说排行榜百度风云榜
  • 网站开发岗位要求seo关键词分类
  • 阿里云 做网站郑州seo地址
  • 有网页源码 怎么做网站建立网站平台
  • 游戏网站开发视频微信小程序开发一个多少钱啊
  • 新的南宁网站建设公司百度下载安装最新版
  • 天津贝宏建筑工程有限公司解释seo网站推广
  • 网站运营专员月薪多少公司员工培训方案
  • 企业网站建设亮点今日刚刚发生的重大新闻
  • 做i网站seo关键词查询排名软件
  • 做网站用什么软件ps字体朋友圈广告投放价格表
  • 自己如何做电影网站百度云下载
  • 蓝色网站后台站长素材官网
  • 网站导航布局短视频营销常用平台有
  • vs2017做的网站如何发布免费的行情软件app网站
  • 做产品批发的网站有哪些青岛百度推广seo价格