banner
云野阁

云野阁

闲云野鹤,八方逍遥

ELK | Dockerを使用して三ノードのElasticsearchクラスターをデプロイする

環境準備#

  1. ハードウェア環境

    オペレーティングシステム:Centos Stream 9

    CPU:4 コア

    メモリ:8GB

    ハードディスク:50GB

  2. ソフトウェア環境

    docker バージョン:26.1.0

    docker compose バージョン:v2.26.1

デプロイプロセス#

基本環境の準備、Docker のインストール#

1、yum-utils パッケージ(yum-config-manager ユーティリティを提供)をインストールし、リポジトリを設定します。コマンドは以下の通りです。

# yum-utilsパッケージをインストール
yum install -y yum-utils
# docker-ceリポジトリを設定
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

2、最新の docker とそのコンポーネントをインストールします。コマンドは以下の通りです。

yum install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

3、Docker サービスを起動し、自動起動に設定します。コマンドは以下の通りです。

# Dockerサービスを起動
systemctl start docker
# Dockerを自動起動に設定
systemctl enable docker
# Dockerサービスの状態を確認
systemctl status docker

4、Docker のデータディレクトリを「/data/dockerData」に変更し、docker サービスを再起動して設定を有効にします。

# Dockerデーモン設定ファイルを作成
# 設定ファイル/etc/docker/daemon.jsonを編集し、dockerデータディレクトリを設定
vi /etc/docker/daemon.json
**************************daemon.json**************************
{
  "data-root": "/data/dockerData"
}
**************************daemon.json**************************

# dockerサービスを再起動し、設定を有効にする
systemctl restart docker

5、メモリマッピングに関連するカーネルパラメータを 262144 に設定し、システムに適用されたカーネルパラメータを確認します。

echo "vm.max_map_count=262144" >> /etc/sysctl.conf
sysctl -p

6、ファイアウォールポリシーを設定します。

firewall-cmd --add-port=9200/tcp --permanent
firewall-cmd --add-port=80/tcp --permanent
firewall-cmd --add-port=443/tcp --permanent
firewall-cmd --add-port=5601/tcp --permanent
firewall-cmd --reload
firewall-cmd --list-all

ELK クラスターのデプロイ#

1、コンテナを構築するために必要なファイルディレクトリを作成し、適切なアクセス権を付与します。

cd /data
mkdir es-node1  es-node2  es-node3  elk-kibana
chmod g+rwx es-node1  es-node2  es-node3  elk-kibana
chgrp 0 es-node1  es-node2  es-node3  elk-kibana

2、/data/script ディレクトリに、ELK の環境変数を設定するための.env ファイルを作成して編集します。

mkdir /data/script
vi /data/script/.env
**************************.env**************************
# Elasticsearchのパスワード
ELASTIC_PASSWORD=elk#bd@123
# Kibanaのパスワード
KIBANA_PASSWORD=elk#bd@123
# Elastic Stackのバージョン番号
STACK_VERSION=8.13.3
# Elastic Stackのクラスター名
CLUSTER_NAME=ELK-docker-Cluster
# Elastic Stackのライセンスの種類を指定
LICENSE=basic
# Elasticsearchのポート番号を指定
ES_PORT=9200
# Kibanaのポート番号を指定
KIBANA_PORT=5601
# メモリ制限を指定
MEM_LIMIT=2147483648
# Docker Composeプロジェクトの名前を指定
COMPOSE_PROJECT_NAME=elk-docker-project
**************************.env**************************

3、Logstash コンテナに必要なディレクトリと設定ファイルを作成します。

mkdir -p logstash/config logstash/pipeline
echo 'http.host: "0.0.0.0"' > /data/logstash/config/logstash.yml
vi /data/logstash/pipeline/logstash.conf
**************************logstash.conf**************************
input {
  beats {
    port => 5044
  }
}

output {
  elasticsearch {
    hosts => ["https://es-node1:9200"]
    index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    user => "elastic"
    password => "elk#bd@123"
    cacert=> "/usr/share/logstash/config/certs/ca/ca.crt"
  }
}
**************************logstash.conf**************************

4、docker compose ファイルを作成し、es 初期ノード、es3 ノード、Kibana、Logstash コンテナを編成します。

vi /data/script/elk.yml
**************************elk.yml**************************
services:
  es-setup:
    image: docker.elastic.co/elasticsearch/elasticsearch:${STACK_VERSION}
    container_name: es-setup
    volumes:
      - /data/elk-certs:/usr/share/elasticsearch/config/certs
    user: "0"
    networks:
      net:
        ipv4_address: 172.20.100.10
    command: >
      bash -c '
        if [ x${ELASTIC_PASSWORD} == x ]; then
          echo "Set the ELASTIC_PASSWORD environment variable in the .env file";
          exit 1;
        elif [ x${KIBANA_PASSWORD} == x ]; then
          echo "Set the KIBANA_PASSWORD environment variable in the .env file";
          exit 1;
        fi;
        
        if [ ! -f config/certs/ca.zip ]; then
          echo "Creating CA";
          bin/elasticsearch-certutil ca --silent --pem -out config/certs/ca.zip;
          unzip config/certs/ca.zip -d config/certs;
        fi;
        if [ ! -f config/certs/certs.zip ]; then
          echo "Creating certs";
          echo -ne \
          "instances:\n"\
          "  - name: es-node1\n"\
          "    dns:\n"\
          "      - es-node1\n"\
          "      - localhost\n"\
          "    ip:\n"\
          "      - 127.0.0.1\n"\
          "  - name: es-node2\n"\
          "    dns:\n"\
          "      - es-node2\n"\
          "      - localhost\n"\
          "    ip:\n"\
          "      - 127.0.0.1\n"\
          "  - name: es-node3\n"\
          "    dns:\n"\
          "      - es-node3\n"\
          "      - localhost\n"\
          "    ip:\n"\
          "      - 127.0.0.1\n"\
          > config/certs/instances.yml;
          bin/elasticsearch-certutil cert --silent --pem -out config/certs/certs.zip --in config/certs/instances.yml --ca-cert config/certs/ca/ca.crt --ca-key config/certs/ca/ca.key;
          unzip config/certs/certs.zip -d config/certs;
        fi;

        echo "Setting file permissions";
        chown -R root:root config/certs;
        find . -type d -exec chmod 750 \{\} \;;
        find . -type f -exec chmod 640 \{\} \;;
        echo "Waiting for Elasticsearch availability";
        until curl -s --cacert config/certs/ca/ca.crt https://es-node1:9200 | grep -q "missing authentication credentials"; do sleep 30; done;
        echo "Setting kibana_system password";
        until curl -s -X POST --cacert config/certs/ca/ca.crt -u "elastic:${ELASTIC_PASSWORD}" -H "Content-Type: application/json" https://es-node1:9200/_security/user/kibana_system/_password -d "{\"password\":\"${KIBANA_PASSWORD}\"}" | grep -q "^{}"; do sleep 10; done;
        echo "All done!";
      '
    healthcheck:
      test: ["CMD-", "[ -f config/certs/es-node1/es-node1.crt ]"]
      interval: 1s
      timeout: 5s
      retries: 120

  es-node1:
    depends_on:
      es-setup:
        condition: service_healthy
    image: docker.elastic.co/elasticsearch/elasticsearch:${STACK_VERSION}
    container_name: es-node1
    restart: always
    networks:
      net:
        ipv4_address: 172.20.100.11
    volumes:
      - /data/elk-certs:/usr/share/elasticsearch/config/certs
      - /data/es-node1:/usr/share/elasticsearch/data
    ports:
      - ${ES_PORT}:9200
    environment:
      - node.name=es-node1
      - cluster.name=${CLUSTER_NAME}
      - cluster.initial_master_nodes=es-node1,es-node2,es-node3
      - discovery.seed_hosts=es-node2,es-node3
      - ELASTIC_PASSWORD=${ELASTIC_PASSWORD}
      - bootstrap.memory_lock=true
      - xpack.security.enabled=true
      - xpack.security.http.ssl.enabled=true
      - xpack.security.http.ssl.key=certs/es-node1/es-node1.key
      - xpack.security.http.ssl.certificate=certs/es-node1/es-node1.crt
      - xpack.security.http.ssl.certificate_authorities=certs/ca/ca.crt
      - xpack.security.transport.ssl.enabled=true
      - xpack.security.transport.ssl.key=certs/es-node1/es-node1.key
      - xpack.security.transport.ssl.certificate=certs/es-node1/es-node1.crt
      - xpack.security.transport.ssl.certificate_authorities=certs/ca/ca.crt
      - xpack.security.transport.ssl.verification_mode=certificate
      - xpack.license.self_generated.type=${LICENSE}
    mem_limit: ${MEM_LIMIT}
    ulimits:
      memlock:
        soft: -1
        hard: -1
    healthcheck:
      test:
        [
          "CMD-",
          "curl -s --cacert config/certs/ca/ca.crt https://localhost:9200 | grep -q 'missing authentication credentials'",
        ]
      interval: 10s
      timeout: 10s
      retries: 120
    extra_hosts:
      - "es-node1:172.20.100.11"
      - "es-node2:172.20.100.12"
      - "es-node3:172.20.100.13"

  es-node2:
    depends_on:
      - es-node1
    image: docker.elastic.co/elasticsearch/elasticsearch:${STACK_VERSION}
    container_name: es-node2
    restart: always
    networks:
      net:
        ipv4_address: 172.20.100.12
    volumes:
      - /data/elk-certs:/usr/share/elasticsearch/config/certs
      - /data/es-node2:/usr/share/elasticsearch/data
    environment:
      - node.name=es-node2
      - cluster.name=${CLUSTER_NAME}
      - cluster.initial_master_nodes=es-node1,es-node2,es-node3
      - discovery.seed_hosts=es-node1,es-node3
      - bootstrap.memory_lock=true
      - xpack.security.enabled=true
      - xpack.security.http.ssl.enabled=true
      - xpack.security.http.ssl.key=certs/es-node2/es-node2.key
      - xpack.security.http.ssl.certificate=certs/es-node2/es-node2.crt
      - xpack.security.http.ssl.certificate_authorities=certs/ca/ca.crt
      - xpack.security.transport.ssl.enabled=true
      - xpack.security.transport.ssl.key=certs/es-node2/es-node2.key
      - xpack.security.transport.ssl.certificate=certs/es-node2/es-node2.crt
      - xpack.security.transport.ssl.certificate_authorities=certs/ca/ca.crt
      - xpack.security.transport.ssl.verification_mode=certificate
      - xpack.license.self_generated.type=${LICENSE}
    mem_limit: ${MEM_LIMIT}
    ulimits:
      memlock:
        soft: -1
        hard: -1
    healthcheck:
      test:
        [
          "CMD-",
          "curl -s --cacert config/certs/ca/ca.crt https://localhost:9200 | grep -q 'missing authentication credentials'",
        ]
      interval: 10s
      timeout: 10s
      retries: 120
    extra_hosts:
      - "es-node1:172.20.100.11"
      - "es-node2:172.20.100.12"
      - "es-node3:172.20.100.13"

  es-node3:
    depends_on:
      - es-node2
    image: docker.elastic.co/elasticsearch/elasticsearch:${STACK_VERSION}
    container_name: es-node3
    restart: always
    networks:
      net:
        ipv4_address: 172.20.100.13
    volumes:
      - /data/elk-certs:/usr/share/elasticsearch/config/certs
      - /data/es-node3:/usr/share/elasticsearch/data
    environment:
      - node.name=es-node3
      - cluster.name=${CLUSTER_NAME}
      - cluster.initial_master_nodes=es-node1,es-node2,es-node3
      - discovery.seed_hosts=es-node1,es-node2
      - bootstrap.memory_lock=true
      - xpack.security.enabled=true
      - xpack.security.http.ssl.enabled=true
      - xpack.security.http.ssl.key=certs/es-node3/es-node3.key
      - xpack.security.http.ssl.certificate=certs/es-node3/es-node3.crt
      - xpack.security.http.ssl.certificate_authorities=certs/ca/ca.crt
      - xpack.security.transport.ssl.enabled=true
      - xpack.security.transport.ssl.key=certs/es-node3/es-node3.key
      - xpack.security.transport.ssl.certificate=certs/es-node3/es-node3.crt
      - xpack.security.transport.ssl.certificate_authorities=certs/ca/ca.crt
      - xpack.security.transport.ssl.verification_mode=certificate
      - xpack.license.self_generated.type=${LICENSE}
    mem_limit: ${MEM_LIMIT}
    ulimits:
      memlock:
        soft: -1
        hard: -1
    healthcheck:
      test:
        [
          "CMD-",
          "curl -s --cacert config/certs/ca/ca.crt https://localhost:9200 | grep -q 'missing authentication credentials'",
        ]
      interval: 10s
      timeout: 10s
      retries: 120
    extra_hosts:
      - "es-node1:172.20.100.11"
      - "es-node2:172.20.100.12"
      - "es-node3:172.20.100.13"

  kibana:
    depends_on:
      es-node1:
        condition: service_healthy
      es-node2:
        condition: service_healthy
      es-node3:
        condition: service_healthy
    image: docker.elastic.co/kibana/kibana:${STACK_VERSION}
    container_name: kibana
    restart: always
    networks:
      net:
        ipv4_address: 172.20.100.14
    volumes:
      - /data/elk-certs:/usr/share/kibana/config/certs
      - /data/kibana:/usr/share/kibana/data
    ports:
      - ${KIBANA_PORT}:5601
    environment:
      - SERVERNAME=kibana
      - ELASTICSEARCH_HOSTS=https://es-node1:9200
      - ELASTICSEARCH_USERNAME=kibana_system
      - ELASTICSEARCH_PASSWORD=${KIBANA_PASSWORD}
      - ELASTICSEARCH_SSL_CERTIFICATEAUTHORITIES=config/certs/ca/ca.crt
    mem_limit: ${MEM_LIMIT}
    healthcheck:
      test:
        [
          "CMD-",
          "curl -s -I http://localhost:5601 | grep -q 'HTTP/1.1 302 Found'",
        ]
      interval: 10s
      timeout: 10s
      retries: 120
  logstash:
    image: docker.elastic.co/logstash/logstash:${STACK_VERSION}
    container_name: logstash
    volumes:
      - /data/elk-certs:/usr/share/logstash/config/certs
      - /data/logstash/pipeline:/usr/share/logstash/pipeline
      - /data/logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml
    user: "0"
    restart: always
    ports:
      - 5044:5044
    networks:
      net:
        ipv4_address: 172.20.100.15
    extra_hosts:
      - "es-node1:172.20.100.11"
      - "es-node2:172.20.100.12"
      - "es-node3:172.20.100.13"
networks:
  net:
    driver: bridge
    ipam:
      config:
        - subnet: 172.20.100.0/24
**************************elk.yml**************************

コマンドを実行して、コンテナを作成します。

docker compose -f /data/script/elk.yml up -d

[+] Running 42/16
✔ es-node3 Pulled 35.6s
✔ es-setup Pulled 35.6s
✔ logstash Pulled 96.0s
✔ kibana Pulled 99.3s
✔ es-node2 Pulled 35.6s
✔ es-node1 Pulled 35.6s

[+] Running 7/7
✔ Network elk-docker-project_net Crea… 0.6s
✔ Container es-setup Healthy 21.6s
✔ Container logstash Started 12.5s
✔ Container es-node1 Healthy 72.5s
✔ Container es-node2 Healthy 72.5s
✔ Container es-node3 Healthy 73.0s
✔ Container kibana Started 73.4s

コンテナ作成後、各コンテナの状態が正常かどうかを確認します。

docker ps

CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
5b591d4ade82 docker.elastic.co/kibana/kibana:8.13.3 “/bin/tini — /usr/l…” 5 minutes ago Up 4 minutes (healthy) 0.0.0.0:5601->5601/tcp, :::5601->5601/tcp kibana
e2e75a54149e docker.elastic.co/elasticsearch/elasticsearch:8.13.3 “/bin/tini — /usr/l…” 5 minutes ago Up 5 minutes (healthy) 9200/tcp, 9300/tcp es-node3
b8c8357f3634 docker.elastic.co/elasticsearch/elasticsearch:8.13.3 “/bin/tini — /usr/l…” 5 minutes ago Up 5 minutes (healthy) 9200/tcp, 9300/tcp es-node2
c552940bd559 docker.elastic.co/elasticsearch/elasticsearch:8.13.3 “/bin/tini — /usr/l…” 5 minutes ago Up 5 minutes (healthy) 0.0.0.0:9200->9200/tcp, :::9200->9200/tcp, 9300/tcp es-node1
0366974065d8 docker.elastic.co/logstash/logstash:8.13.3 “/usr/local/bin/dock…” 5 minutes ago Up 5 minutes 0.0.0.0:5044->5044/tcp, :::5044->5044/tcp, 9600/tcp logstash

5、Kibana の設定ファイルを変更し、言語を日本語に変更します。

docker cp kibana:/usr/share/kibana/config/kibana.yml .
vi kibana.yml
**************************kibana.yml**************************
 #
# ** THIS IS AN AUTO-GENERATED FILE **
#

# Default Kibana configuration for docker target
server.host: "0.0.0.0"
server.shutdownTimeout: "5s"
elasticsearch.hosts: [ "http://elasticsearch:9200" ]
monitoring.ui.container.elasticsearch.enabled: true
i18n.locale: "ja-JP"
server.publicBaseUrl: "http://localhost:5601/"
**************************kibana.yml**************************
docker cp kibana.yml  kibana:/usr/share/kibana/config/kibana.yml
docker restart kibana

6、ブラウザでそれぞれhttps://10.10.2.103:9200/http://10.10.2.103:5601/にアクセスし、アカウントとパスワードを入力して確認します。以下の図の通りです。

1

2

3

Linux ログを送信し、デプロイを検証#

1、Filebeat ログ収集器をインストールします。

(1)rpm 方式で Filebeat ログ収集器をインストールします。

# rpmパッケージをダウンロード
curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-8.13.3-x86_64.rpm
# インストールを実行
rpm -vi filebeat-8.13.3-x86_64.rpm

(2)Filebeat を設定します。

# Filebeatを起動
systemctl start filebeat
# Filebeatの実行状態を確認
systemctl status filebeat
# Filebeatを自動起動に設定
systemctl enable filebeat

2、Filebeat を設定して Linux ログを収集します。

(1)filebeat ファイルを設定し、ログを Logstash サービスに送信します。

# filebeat設定ファイルを変更
mv /etc/filebeat/filebeat.yml /etc/filebeat/filebeat.yml.bak
# 新しいfilebeat設定ファイルを作成
vi /etc/filebeat/filebeat.yml
**************************filebeat-dns.yml**************************
# 設定ファイル入力、ログファイルを監視
filebeat.inputs:
- type: log
  enabled: true
  # DNSログファイルのパスを指定
  paths:
    - /var/log/messages* 
  # ログタイプをelk-linuxとして識別
  fields:
    type: elk-linux      
  # 追加のフィールドをルートレベルに追加    
  fields_under_root: true        

# Logstashへの出力を設定
# Logstashサービスのアドレスとポートを指定
output.logstash:
  hosts: ["10.10.2.103:5044"]   
**************************filebeat-dns.yml**************************

(2)filebeat サービスを再起動し、設定が有効かどうかを確認します。

# filebeatを再起動
systemctl restart filebeat
# ロックファイルを削除し、Filebeatサービスを再起動
rm -rf /var/lib/filebeat/filebeat.lock
# Filebeatの実行ログを実行して確認
filebeat -e -c /etc/filebeat/filebeat.yml

3、ブラウザで Kibana にログインし、左側のメニューから「Stack Management」をクリックしてデータビューを管理します。以下の図の通りです。

4

4、「Stack Management」画面で「データビュー」をクリックし、インデックスパターンを選択して「elk-linux」ビューを作成します。以下の図の通りです。

5

6

5、データビューが作成された後、左側のメニューから「Discover」を選択し、Linux ログの詳細を確認します。以下の図の通りです。これにより、ELK クラスターの構築が完了しました。

7

8

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。