494 字
2 分钟
Docker部署DeepSeek-R1本地大模型
前言
使用docker
部署OpenUI + Ollama
+ DeepSeek-R1:7B
,通过浏览器访问OpenUI
进行交互。部署完成后可以离线使用DeepSeek-R1
大模型。
Ollama
的DeepSeek-R1
大模型官网:https://ollama.com/library/deepseek-r1:7b
1.5B:CPU最低4核,内存8GB+,若GPU加速可选4GB+显存,适合低资源设备部署等场景。
7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存,可用于本地开发测试等场景。
8B:硬件需求与7B相近略高,适合需更高精度的轻量级任务。
14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存,可用于企业级复杂任务等场景。
32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存,适合高精度专业领域任务等场景。
70B:CPU 32核以上,内存128GB+,硬盘70GB+,显卡需多卡并行,适合科研机构等进行高复杂度生成任务等场景。
部署教程
open-webui
镜像大小:8 GB
docker-compose.yml
配置示例
services:
open-webui:
image: ghcr.io/open-webui/open-webui:ollama
container_name: open-webui
ports:
- "3000:8080"
volumes:
- ./ollama:/root/.ollama
- ./open-webui:/app/backend/data
restart: always
国内网络环境可以使用南京大学 ghcr 镜像加速ghcr.nju.edu.cn
容器内安装DeepSeek-R1 7b
模型:
docker exec -it open-webui sh
ollama run deepseek-r1:7b
部署完成后浏览器访问3000
端口使用web面板进行对话,如果需要域名访问反代一下即可。
如果有GPU服务器可以使用如下命令
docker run -d -p 3000:8080 --gpus=all \
-v ./ollama:/root/.ollama \
-v ./open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
电脑本地安装ollama
官方地址:https://ollama.com
下载对应的系统版本
安装完成后打开电脑终端
查看版本
ollama --version
- 下载并运行 deepseek-r1:7b 模型
ollama run deepseek-r1:7b
可以在终端对话使用
也可以部署
open-webui
访问并使用本地ollama
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_API_URL=http://host.docker.internal:11434 \
-v ./open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
ollama api 调用示例 POST 请求
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt": "你是什么模型?"
}'
API 会返回生成的结果,通常是 JSON 格式