前言#
Linux 環境下で、ollama
+deepseek-r1:1.5b
+open-webui
を使用して、DeepSeek のプライベートデプロイを実現します。
デプロイプロセス#
Docker のインストール#
スクリプトを使用して Docker、Docker Compose をインストールします。
bash <(curl -sSL https://linuxmirrors.cn/docker.sh)
方法 1:Docker コマンドによるインストール#
#ollamaをインストール
docker run -d -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
#deepseek-r1:1.5bをインストール
docker exec -it ollama ollama run deepseek-r1:1.5b
#open-webuiをインストール
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v /data/openwebui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:v0.6.22
export HF_ENDPOINT=https://hf-mirror.com
open-webui のイメージの取得が遅い場合は、ソースを変更してイメージタグを修正することができます。具体的なコマンドは以下の通りです。
docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:v0.6.22 docker tag swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:v0.6.22 ghcr.io/open-webui/open-webui:v0.6.22
方法 2:Compose ファイルによるインストール#
vi ai.yml
#################################################
services:
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "11434:11434"
volumes:
- "/data/ollama:/root/.ollama"
restart: always
entrypoint: ["sh", "-c", "ollama run deepseek-r1:1.5b & /bin/ollama serve"]
networks:
ai:
ipv4_address: 172.20.110.11
open-webui:
image: ghcr.io/open-webui/open-webui:v0.6.22
container_name: open-webui
ports:
- "3000:8080"
volumes:
- "/data/openwebui:/app/backend/data"
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always
networks:
ai:
ipv4_address: 172.20.110.12
networks:
ai:
driver: bridge
ipam:
config:
- subnet: 172.20.110.0/24
########################################################
#デプロイを実行
docker compose -f ai.yml up -d
実行が完了した後、open webui にローカルモデル deepseek-r1:1.5b がない場合は、
docker logs -f ollama
コマンドを入力して、ollama が deepseek-r1:1.5b モデルをダウンロードする進捗を確認し、進捗が完了するのを待ちます。
知識ベースの追加#
(1)Open WebUI で、管理者パネル
-設定
-ドキュメント
を選択し、埋め込みと検索をバイパス
オプションを開いて保存します。
(2)ワークスペース
-知識ベース
で知識ベースを作成し、ファイルを知識ベースにアップロードします。
ローカル知識ベースの呼び出し#
ダイアログボックス内に#
を入力して、対応する知識ベースを呼び出します。大規模モデルは関連する内容を引用して回答します。