494 字
2 分钟
Docker部署DeepSeek-R1本地大模型
2025-02-08

前言#

使用docker部署OpenUI + Ollama + DeepSeek-R1:7B,通过浏览器访问OpenUI进行交互。部署完成后可以离线使用DeepSeek-R1大模型。

OllamaDeepSeek-R1大模型官网:https://ollama.com/library/deepseek-r1:7b

  • 1.5B:CPU最低4核,内存8GB+,若GPU加速可选4GB+显存,适合低资源设备部署等场景。

  • 7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存,可用于本地开发测试等场景。

  • 8B:硬件需求与7B相近略高,适合需更高精度的轻量级任务。

  • 14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存,可用于企业级复杂任务等场景。

  • 32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存,适合高精度专业领域任务等场景。

  • 70B:CPU 32核以上,内存128GB+,硬盘70GB+,显卡需多卡并行,适合科研机构等进行高复杂度生成任务等场景。

部署教程#

open-webui镜像大小:8 GB

docker-compose.yml配置示例

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:ollama
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - ./ollama:/root/.ollama
      - ./open-webui:/app/backend/data
    restart: always

国内网络环境可以使用南京大学 ghcr 镜像加速ghcr.nju.edu.cn

容器内安装DeepSeek-R1 7b模型:

docker exec -it open-webui sh
ollama run deepseek-r1:7b

部署完成后浏览器访问3000端口使用web面板进行对话,如果需要域名访问反代一下即可。


如果有GPU服务器可以使用如下命令#

docker run -d -p 3000:8080 --gpus=all \
  -v ./ollama:/root/.ollama \
  -v ./open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

电脑本地安装ollama#

  1. 官方地址:https://ollama.com

  2. 下载对应的系统版本

  3. 安装完成后打开电脑终端

  4. 查看版本

ollama --version
  1. 下载并运行 deepseek-r1:7b 模型
ollama run deepseek-r1:7b
  1. 可以在终端对话使用

  2. 也可以部署open-webui访问并使用本地ollama

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_API_URL=http://host.docker.internal:11434 \
  -v ./open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

ollama api 调用示例 POST 请求#

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "你是什么模型?"
}'

API 会返回生成的结果,通常是 JSON 格式

Docker部署DeepSeek-R1本地大模型
https://emohe.cn/posts/20/
作者
阿涛の小破站
发布于
2025-02-08
许可协议
CC BY-NC-SA 4.0