前言#
在 linux 環境下,使用 docker 部署ollama
+deepseek-r1:1.5b
+open-webui
,實現私有化部署 DeepSeek。
部署過程#
安裝 docker#
使用腳本安裝 docker、docker-compose
bash <(curl -sSL https://linuxmirrors.cn/docker.sh)
方式一:docker 命令安裝#
#安裝ollama
docker run -d -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
#安裝deepseek-r1:1.5b
docker exec -it ollama ollama run deepseek-r1:1.5b
#安裝open-webui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v /data/openwebui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:v0.6.22
export HF_ENDPOINT=https://hf-mirror.com
open-webui 鏡像拉取較慢的情況可換源拉取並修改鏡像標籤,具體命令如下
docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:v0.6.22 docker tag swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:v0.6.22 ghcr.io/open-webui/open-webui:v0.6.22
方式二:compose 文件方式安裝#
vi ai.yml
#################################################
services:
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "11434:11434"
volumes:
- "/data/ollama:/root/.ollama"
restart: always
entrypoint: ["sh", "-c", "ollama run deepseek-r1:1.5b & /bin/ollama serve"]
networks:
ai:
ipv4_address: 172.20.110.11
open-webui:
image: ghcr.io/open-webui/open-webui:v0.6.22
container_name: open-webui
ports:
- "3000:8080"
volumes:
- "/data/openwebui:/app/backend/data"
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always
networks:
ai:
ipv4_address: 172.20.110.12
networks:
ai:
driver: bridge
ipam:
config:
- subnet: 172.20.110.0/24
########################################################
#執行部署
docker compose -f ai.yml up -d
執行完成後,如果在 open webui 中沒有本地模型 deepseek-r1:1.5b,輸入 docker logs -f ollama 命令查看,ollama 下載 deepseek-r1:1.5b 模型的進度,等待進度完成即可。
添加知識庫#
(1)在 Open WebUI 中,選擇管理員面板
-設置
-文檔
,打開繞過嵌入和檢索
選項並保存。
(2)在工作空間
-知識庫
中創建知識庫,並將文件上傳到知識庫即可。
調用本地知識庫#
在對話框內輸入#
,調用對應知識庫,大模型會引用並回答相關內容。