このチュートリアルの以前のバージョンは、 JustinEllingwoodによって作成されました。

序章

重要なデータを保存する場合、単一障害点を持つことは非常に危険です。 多くのデータベースやその他のソフトウェアでは、単一のアプリケーションのコンテキストでデータを分散できますが、他のシステムはファイルシステムレベルで動作して、データがディスクに書き込まれるたびに別の場所に確実にコピーされるようにすることができます。

GlusterFS は、複数のマシンのストレージリソースをプールできるネットワーク接続ストレージファイルシステムです。 これにより、多くのコンピューターに分散されている複数のストレージデバイスを単一のより強力なユニットとして扱うことができます。 GlusterFSを使用すると、さまざまな種類のストレージ構成を自由に作成できます。その多くは、RAIDレベルと機能的に類似しています。 たとえば、クラスター内の異なるノード間でデータをストライプ化することも、冗長性を実装してデータの可用性を向上させることもできます。

目標

このガイドでは、分散ファイルシステム、またはGlusterFSドキュメントで参照されているように、信頼できるストレージプールとも呼ばれる冗長クラスター化ストレージアレイを作成します。 これにより、ネットワーク上でミラー化されたRAID構成と同様の機能が提供されます。独立した各サーバーにはデータの独自のコピーが含まれ、アプリケーションがいずれかのコピーにアクセスできるようにすることで、読み取り負荷の分散に役立ちます。

この冗長なGlusterFSクラスターは、2台のUbuntu18.04サーバーで構成されます。 これは、ミラー化されたRAIDを備えたNASサーバーと同様に機能します。 次に、GlusterFSクライアントとして機能するように構成された3番目のUbuntu18.04サーバーからクラスターにアクセスします。

GlusterFSを安全に実行するための注意

GlusterFSボリュームにデータを追加すると、そのデータは、ボリュームがホストされているストレージプール内のすべてのマシンに同期されます。 ノード間のこのトラフィックはデフォルトでは暗号化されていないため、悪意のある攻撃者によって傍受される可能性があります。

このため、本番環境でGlusterFSを使用する場合は、分離されたネットワークで実行することをお勧めします。 たとえば、 Virtual Private Cloud (VPC)で実行するように設定したり、各ノード間でVPNを実行するように設定したりできます。

GlusterFSをDigitalOceanにデプロイすることを計画している場合は、サーバーインフラストラクチャをDigitalOcean仮想プライベートクラウドに追加することで、分離されたネットワークにGlusterFSをセットアップできます。 これを設定する方法の詳細については、VPC製品のドキュメントを参照してください。

前提条件

このチュートリアルに従うには、Ubuntu18.04を実行している3台のサーバーが必要です。 各サーバーには、管理者権限を持つroot以外のユーザーと、UFWで構成されたファイアウォールが必要です。 これを設定するには、Ubuntu18.04初期サーバー設定ガイドに従ってください。

:目標のセクションで説明したように、このチュートリアルでは、2つのUbuntuサーバーをストレージプール内のサーバーとして機能し、残りの1つをクライアントとして機能するように構成する方法について説明します。これらのノードにアクセスします。

わかりやすくするために、このチュートリアルでは、次のホスト名を持つこれらのマシンを参照します。

ホスト名 ストレージプールでの役割
gluster0 サーバ
gluster1 サーバ
gluster2 クライアント

gluster0またはgluster1のいずれかで実行する必要があるコマンドの背景は、それぞれ青と赤になります。

クライアント( gluster2 )でのみ実行する必要があるコマンドの背景は緑色になります。

複数のマシンで実行できる、または実行する必要があるコマンドの背景は灰色になります。

ステップ1—各マシンでDNS解決を構成する

各コンピューター間で何らかのホスト名解決を設定すると、Glusterストレージプールの管理に役立ちます。 このようにして、マシンの1つを参照する必要があるときはいつでも gluster このチュートリアルの後半のコマンドでは、それぞれのIPアドレスの代わりに、覚えやすいドメイン名またはニックネームを使用してこれを行うことができます。

予備のドメイン名がない場合、または何かをすばやく設定したい場合は、代わりに編集することができます /etc/hosts 各コンピューター上のファイル。 これはLinuxマシン上の特別なファイルであり、ファイルに含まれているホスト名を静的IPアドレスに解決するようにシステムを静的に構成できます。

:所有するドメインで認証するようにサーバーを構成する場合は、最初にドメイン登録事業者からNamecheap Enom —適切なDNSレコードを構成します。

サーバーごとにAレコードを構成したら、ステップ2に進むことができます。 このガイドに従うときは、glusterN.example.comglusterNを、サンプルコマンドで参照されているそれぞれのサーバーに解決されるドメイン名に置き換えてください。

DigitalOceanからインフラストラクチャを取得した場合は、ドメイン名をDigitalOcean に追加してから、サーバーごとに一意のAレコードを設定できます

お好みのテキストエディタを使用して、各マシンでroot権限でこのファイルを開きます。 ここでは、 nano:

  1. sudo nano /etc/hosts

デフォルトでは、ファイルはコメントが削除された次のようになります。

/ etc / hosts
127.0.1.1 hostname hostname
127.0.0.1 localhost

::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
ff02::3 ip6-allhosts

Ubuntuサーバーの1つで、各サーバーのIPアドレスに続けて、ローカルホスト定義の下のコマンドでそれらを参照するために使用する名前を追加します。

次の例では、各サーバーに次のように整列する長いホスト名が与えられています。 glusterN.example.com と一致する短いもの glusterN. あなたは変更することができます glusterN.example.comglusterN 各サーバーへのアクセスに使用する名前(または単一のスペースで区切られた名前)の各行の一部。 ただし、このチュートリアルでは、次の例全体でこれらの例を使用することに注意してください。

:サーバーが仮想プライベートクラウドインフラストラクチャプールの一部である場合は、各サーバーのプライベートIPアドレスを使用する必要があります。 /etc/hosts パブリックIPではなくファイル。

/ etc / hosts
. . .
127.0.0.1       localhost
first_ip_address gluster0.example.com gluster0
second_ip_address gluster1.example.com gluster1
third_ip_address gluster2.example.com gluster2

. . .

これらの新しい行をに追加し終えたら /etc/hosts 1台のマシンのファイルをコピーして、 /etc/hosts 他のマシン上のファイル。 各 /etc/hosts ファイルには、サーバーのIPアドレスを選択した名前にリンクする同じ行が含まれている必要があります。

終了したら、各ファイルを保存して閉じます。 使用した場合 nano、を押してそうします CTRL + X, Y、 その後 ENTER.

各サーバー間でホスト名解決を構成したので、後でストレージプールとボリュームを設定するときにコマンドを実行するのが簡単になります。 次に、各サーバーで完了する必要のある別の手順を実行します。 つまり、Glusterプロジェクトの公式パーソナルパッケージアーカイブ(PPA)を3つのUbuntuサーバーのそれぞれに追加して、最新バージョンのGlusterFSをインストールできるようにします。

ステップ2—各マシンにソフトウェアソースを設定する

デフォルトのUbuntu18.04APTリポジトリにはGlusterFSパッケージが含まれていますが、かなり古くなっています。 GlusterFSの最新の安定バージョン(この記事の執筆時点ではバージョン 7 )をインストールする1つの方法は、3つのUbuntuサーバーのそれぞれにGlusterプロジェクトの公式PPAを追加することです。

まず、各サーバーのローカルパッケージインデックスを更新します。

  1. sudo apt update

次に、をインストールします software-properties-common 各マシンのパッケージ。 このパッケージを使用すると、PPAをより柔軟に管理できます。

  1. sudo apt install software-properties-common

PPAツールをインストールしたら、各サーバーで次のコマンドを実行して、GlusterFSパッケージのPPAを追加します。

  1. sudo add-apt-repository ppa:gluster/glusterfs-7

プレス ENTER 実際にPPAを追加することを確認するように求められたら。

PPAを追加した後、各サーバーのローカルパッケージインデックスを更新します。 これにより、各サーバーは利用可能な新しいパッケージを認識します。

  1. sudo apt update

Glusterプロジェクトの公式PPAを各サーバーに追加し、ローカルパッケージインデックスを更新すると、必要なGlusterFSパッケージをインストールする準備が整います。 ただし、3台のマシンのうち2台がGlusterサーバーとして機能し、もう1台がクライアントとして機能するため、2つの別個のインストールおよび構成手順があります。 まず、サーバーコンポーネントをインストールしてセットアップします。

ステップ3—サーバーコンポーネントのインストールと信頼できるストレージプールの作成

ストレージプールは、複数のストレージリソースから集約された任意の量のストレージ容量です。 このステップでは、2つのサーバー(gluster0gluster1)をクラスターコンポーネントとして構成します。

gluster0gluster1の両方に、次のように入力してGlusterFSサーバーパッケージをインストールします。

  1. sudo apt install glusterfs-server

プロンプトが表示されたら、を押します Y その後 ENTER インストールを確認します。

この時点で、gluster0gluster1の両方にGlusterFSがインストールされており、 glusterd サービスが実行されている必要があります。 これをテストするには、各サーバーで次のコマンドを実行します。

  1. sudo systemctl status glusterd.service

サービスが稼働している場合は、次のような出力が表示されます。

Output
● glusterd.service - GlusterFS, a clustered file-system server Loaded: loaded (/lib/systemd/system/glusterd.service; enabled; vendor preset: enabled) Active: active (running) since Tue 2020-06-02 21:32:21 UTC; 32s ago Docs: man:glusterd(8) Main PID: 14742 (glusterd) Tasks: 9 (limit: 2362) CGroup: /system.slice/glusterd.service └─14742 /usr/sbin/glusterd -p /var/run/glusterd.pid --log-level INFO

前提条件の初期サーバーセットアップガイドに従っていると仮定すると、各マシンにUFWを使用してファイアウォールをセットアップすることになります。 このため、ノード間の通信を確立してストレージプールを作成する前に、各ノードでファイアウォールを開く必要があります。

Glusterデーモンはポートを使用します 24007、したがって、各ノードがストレージプール内の他の各ノードのファイアウォールを介してそのポートにアクセスできるようにする必要があります。 これを行うには、gluster0で次のコマンドを実行します。 変更することを忘れないでください gluster1_ip_address gluster1 のIPアドレスへ:

  1. sudo ufw allow from gluster1_ip_address to any port 24007

そして、gluster1で次のコマンドを実行します。 繰り返しますが、必ず変更してください gluster0_ip_address gluster0 のIPアドレスへ:

  1. sudo ufw allow from gluster0_ip_address to any port 24007

また、クライアントマシン( gluster2 )がこのポートにアクセスできるようにする必要があります。 そうしないと、後でボリュームをマウントしようとしたときに問題が発生します。 gluster0とgluster1の両方で次のコマンドを実行して、このポートをクライアントマシンに開きます。

  1. sudo ufw allow from gluster2_ip_address to any port 24007

次に、他のマシンがどちらのサーバーのGlusterのポートにもアクセスできないようにするには、次のブランケットを追加します deny gluster0とgluster1の両方のルール:

  1. sudo ufw deny 24007

次に、gluster0gluster1の間の通信を確立する必要があります。

そのためには、を実行する必要があります gluster peer probe ノードの1つでコマンドを実行します。 使用するノードは関係ありませんが、次の例は、gluster0で実行されているコマンドを示しています。

  1. sudo gluster peer probe gluster1

基本的に、このコマンドはgluster0gluster1を信頼し、ストレージプールの一部として登録するように指示します。 プローブが成功すると、次の出力が返されます。

Output
peer probe: success

を実行することにより、ノードがいつでも通信していることを確認できます。 gluster peer status どちらか一方のコマンド。 この例では、gluster1で実行されます。

  1. sudo gluster peer status

gluster1 からこのコマンドを実行すると、次のような出力が表示されます。

Output
Number of Peers: 1 Hostname: gluster0.example.com Uuid: a3fae496-c4eb-4b20-9ed2-7840230407be State: Peer in Cluster (Connected)

この時点で、2台のサーバーは通信しており、相互にストレージボリュームを作成する準備ができています。

ステップ4—ストレージボリュームの作成

このチュートリアルの主な目的は、冗長ストレージプールを作成することであることを思い出してください。 この目的のために、レプリカ機能を備えたボリュームをセットアップし、データの複数のコピーを保持して、クラスターに単一障害点が発生するのを防ぎます。

ボリュームを作成するには、 gluster volume create この一般的な構文のコマンド:

sudo gluster volume create volume_name replica number_of_servers domain1.com:/path/to/data/directory domain2.com:/path/to/data/directory force

これがこれです gluster volume create コマンドの引数とオプションの意味は次のとおりです。

  • volume_name:これは、ボリュームの作成後にボリュームを参照するために使用する名前です。 次のコマンド例は、という名前のボリュームを作成します volume1.
  • replica number_of_servers:ボリューム名に続いて、作成するボリュームのタイプを定義できます。 このチュートリアルの目的は冗長ストレージプールを作成することであるため、レプリカボリュームタイプを使用することを思い出してください。 これには、ボリュームのデータが複製されるサーバーの数を示す引数が必要です(2 このチュートリアルの場合)。
  • domain1.com:/…domain2.com:/…:これらは、ブリックのマシンとディレクトリの場所を定義します。これは、ストレージの基本単位を表すGlusterFSの用語であり、より大きなボリュームの一部またはコピーとして機能するマシン上のディレクトリが含まれます。上 volume1. 次の例では、という名前のディレクトリを作成します gluster-storage 両方のサーバーのルートディレクトリにあります。
  • force:このオプションは、警告やオプションを無効にして、ボリュームの作成を停止します。

このチュートリアルの前半で確立された規則に従って、このコマンドを実行してボリュームを作成できます。 gluster0またはgluster1のいずれかから実行できることに注意してください。

  1. sudo gluster volume create volume1 replica 2 gluster0.example.com:/gluster-storage gluster1.example.com:/gluster-storage force

ボリュームが正常に作成された場合、次の出力が表示されます。

Output
volume create: volume1: success: please start the volume to access data

この時点で、ボリュームは作成されていますが、まだアクティブではありません。 いずれかのGlusterサーバーから次のコマンドを再度実行することで、ボリュームを起動して使用できるようにすることができます。

  1. sudo gluster volume start volume1

ボリュームが正しく開始された場合、この出力を受け取ります。

Output
volume start: volume1: success

次に、ボリュームがオンラインであることを確認します。 いずれかのノードから次のコマンドを実行します。

  1. sudo gluster volume status

これにより、次のような出力が返されます。

Output
Status of volume: volume1 Gluster process TCP Port RDMA Port Online Pid ------------------------------------------------------------------------------ Brick gluster0.example.com:/gluster-storage 49152 0 Y 18801 Brick gluster1.example.com:/gluster-storage 49152 0 Y 19028 Self-heal Daemon on localhost N/A N/A Y 19049 Self-heal Daemon on gluster0.example.com N/A N/A Y 18822 Task Status of Volume volume1 ------------------------------------------------------------------------------ There are no active volume tasks

この出力に基づいて、両方のサーバーのブリックはオンラインになっています。

ボリュームを構成するための最後のステップとして、クライアントマシンがボリュームに接続してマウントできるように、両方のサーバーでファイアウォールを開く必要があります。 前のコマンドのサンプル出力に基づいて、 volume1 ポートで実行されています 49152 両方のマシンで。 これは、最初のボリュームのGlusterFSのデフォルトのポートであり、次に作成するボリュームはポートを使用します 49153、 それから 49154、 等々。

gluster0gluster1の両方で次のコマンドを実行して、gluster2がそれぞれのファイアウォールを介してこのポートにアクセスできるようにします。

  1. sudo ufw allow from gluster2_ip_address to any port 49152

次に、セキュリティの層を追加するために、別のブランケットを追加します deny gluster0とgluster1の両方のボリュームのポートのルールこれにより、クライアント以外のマシンがどちらのサーバーのボリュームにもアクセスできないようになります。

  1. sudo ufw deny 49152

ボリュームが稼働しているので、クライアントマシンをセットアップして、リモートで使用を開始できます。

ステップ5—クライアントコンポーネントのインストールと構成

ボリュームが構成されたので、クライアントマシンで使用できるようになります。

ただし、始める前に、をインストールする必要があります glusterfs-client 手順1で設定したPPAのパッケージ。 このパッケージの依存関係には、GlusterFSの一般的なライブラリとトランスレータモジュールの一部、およびパッケージが機能するために必要なFUSEツールが含まれます。

gluster2で次のコマンドを実行します。

  1. sudo apt install glusterfs-client

間もなく、リモートストレージボリュームをクライアントコンピューターにマウントします。 ただし、その前に、マウントポイントを作成する必要があります。 伝統的に、これは /mnt ディレクトリですが、便利な場所ならどこでも使用できます。

簡単にするために、という名前のディレクトリを作成します /storage-pool クライアントマシン上でマウントポイントとして機能します。 このディレクトリ名はスラッシュ(/)これはルートディレクトリに配置されるため、次のコマンドで作成する必要があります。 sudo 特権:

  1. sudo mkdir /storage-pool

これで、リモートボリュームをマウントできます。 ただし、その前に、の構文を見てください。 mount そのために使用するコマンド:

sudo mount -t glusterfs domain1.com:volume_name /path/to/mount/point

mount は、多くのUnixライクなオペレーティングシステムに見られるユーティリティです。 これは、ファイルシステム(SDカードやUSBスティックなどの外部ストレージデバイスから、このチュートリアルの場合のようにネットワーク接続ストレージまで)を、マシンの既存のファイルシステム上のディレクトリにマウントするために使用されます。 The mount 使用するコマンド構文には、 -t オプション。マウントするファイルシステムのtype、マウントするファイルシステムを見つけることができる device 、およびクライアントのdirectoryの3つの引数が必要です。ボリュームをマウントする場所。

この構文例では、device引数がホスト名、コロン、ボリュームの名前を指していることに注意してください。 GlusterFSは、各ホストの実際のストレージディレクトリを抽象化します。つまり、このコマンドは、 /gluster-storage ディレクトリですが、代わりに volume1 音量。

また、ストレージクラスターのメンバーを1つだけ指定する必要があることに注意してください。 GlusterFSサービスはそれらを1台のマシンとして扱うため、これはどちらのノードでもかまいません。

クライアントマシンで次のコマンド( gluster2 )を実行して、ボリュームを /storage-pool 作成したディレクトリ:

  1. sudo mount -t glusterfs gluster0.example.com:/volume1 /storage-pool

その後、を実行します df 指図。 これにより、ファイルシステムを呼び出すユーザーがアクセスできるファイルシステムで使用可能なディスク容量が表示されます。

  1. df

このコマンドは、GlusterFSボリュームが正しい場所にマウントされていることを示します。

Output
Filesystem 1K-blocks Used Available Use% Mounted on . . . gluster0.example.com:/volume1 50633164 1747596 48885568 4% /storage-pool

これで、クライアントのボリュームに書き込んだデータが期待どおりにサーバーノードに複製されるかどうかのテストに進むことができます。

ステップ6—冗長機能のテスト

ストレージプールとボリュームを使用するようにクライアントを設定したので、その機能をテストできます。

クライアントマシン( gluster2 )で、前の手順で定義したマウントポイントに移動します。

  1. cd /storage-pool

次に、いくつかのテストファイルを作成します。 次のコマンドは、ストレージプールに10個の個別の空のファイルを作成します。

  1. sudo touch file_{0..9}.test

各ストレージホストで以前に定義したストレージディレクトリを調べると、これらのファイルがすべて各システムに存在することがわかります。

gluster0 の場合:

  1. ls /gluster-storage
Output
file_0.test file_2.test file_4.test file_6.test file_8.test file_1.test file_3.test file_5.test file_7.test file_9.test

同様に、 gluster1 では:

  1. ls /gluster-storage
Output
file_0.test file_2.test file_4.test file_6.test file_8.test file_1.test file_3.test file_5.test file_7.test file_9.test

これらの出力が示すように、クライアントに追加したテストファイルも両方のノードに書き込まれました。

ストレージクラスター内のノードの1つがダウンした時点がある場合、ファイルシステムに変更が加えられると、ストレージプールと同期しなくなる可能性があります。 ノードがオンラインに戻った後にクライアントマウントポイントで読み取り操作を実行すると、不足しているファイルを取得するようにノードに警告します。

  1. ls /storage-pool

ストレージボリュームが正しくマウントされ、クラスター内の両方のマシンにデータを複製できることを確認したので、ストレージプールへのアクセスをロックダウンできます。

ステップ7—冗長機能の制限

この時点で、どのコンピューターも制限なしにストレージボリュームに接続できます。 これを変更するには、 auth.allow オプション。これは、ボリュームにアクセスできるクライアントのIPアドレスを定義します。

を使用している場合 /etc/hosts 構成では、各サーバーに設定した名前は正しくルーティングされません。 代わりに静的IPアドレスを使用する必要があります。 一方、DNSレコードを使用している場合は、構成したドメイン名がここで機能します。

ストレージノードgluster0またはgluster1)のいずれかで、次のコマンドを実行します。

  1. sudo gluster volume set volume1 auth.allow gluster2_ip_address

コマンドが正常に完了すると、次の出力が返されます。

Output
volume set: success

いつでも制限を解除する必要がある場合は、次のように入力できます。

  1. sudo gluster volume set volume1 auth.allow *

これにより、どのマシンからでも再び接続できるようになります。 これは安全ではありませんが、問題のデバッグには役立ちます。

複数のクライアントがある場合は、それらのIPアドレスまたはドメイン名を同時に指定できます(使用しているかどうかによって異なります) /etc/hosts またはDNSホスト名解決)、コンマで区切って:

  1. sudo gluster volume set volume1 auth.allow gluster_client1_ip,gluster_client2_ip

これで、ストレージプールが構成され、保護され、使用できるようになりました。 次に、ストレージプールのステータスに関する情報を取得するのに役立ついくつかのコマンドを学習します。

ステップ8—GlusterFSコマンドを使用してストレージプールに関する情報を取得する

GlusterFSストレージの設定の一部を変更し始めると、使用可能なオプション、稼働中のボリューム、および各ボリュームに関連付けられているノードについて混乱する可能性があります。

このデータを取得してストレージプールとやり取りするためにノードで使用できるさまざまなコマンドがいくつかあります。

各ボリュームに関する情報が必要な場合は、 gluster volume info 指図:

  1. sudo gluster volume info
Output
Volume Name: volume1 Type: Replicate Volume ID: 8da67ffa-b193-4973-ad92-5b7fed8d0357 Status: Started Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: gluster0.example.com:/gluster-storage Brick2: gluster1.example.com:/gluster-storage Options Reconfigured: auth.allow: gluster2_ip_address transport.address-family: inet storage.fips-mode-rchecksum: on nfs.disable: on performance.client-io-threads: off

同様に、このノードが接続されているピアに関する情報を取得するには、次のように入力します。

  1. sudo gluster peer status
Number of Peers: 1

Hostname: gluster0.example.com
Uuid: cb00a2fc-2384-41ac-b2a8-e7a1793bb5a9
State: Peer in Cluster (Connected)

各ノードのパフォーマンスに関する詳細情報が必要な場合は、次のように入力してボリュームのプロファイルを作成できます。

  1. sudo gluster volume profile volume_name start

このコマンドが完了すると、次のように入力して収集された情報を取得できます。

  1. sudo gluster volume profile volume_name info
Output
Brick: gluster0.example.com:/gluster-storage -------------------------------------------- Cumulative Stats: %-latency Avg-latency Min-Latency Max-Latency No. of calls Fop --------- ----------- ----------- ----------- ------------ ---- 0.00 0.00 us 0.00 us 0.00 us 30 FORGET 0.00 0.00 us 0.00 us 0.00 us 36 RELEASE 0.00 0.00 us 0.00 us 0.00 us 38 RELEASEDIR Duration: 5445 seconds Data Read: 0 bytes Data Written: 0 bytes Interval 0 Stats: %-latency Avg-latency Min-Latency Max-Latency No. of calls Fop --------- ----------- ----------- ----------- ------------ ---- 0.00 0.00 us 0.00 us 0.00 us 30 FORGET 0.00 0.00 us 0.00 us 0.00 us 36 RELEASE 0.00 0.00 us 0.00 us 0.00 us 38 RELEASEDIR Duration: 5445 seconds Data Read: 0 bytes Data Written: 0 bytes . . .

前に示したように、各ノードで実行されているすべてのGlusterFS関連コンポーネントのリストについては、 gluster volume status 指図:

  1. sudo gluster volume status
Output
Status of volume: volume1 Gluster process TCP Port RDMA Port Online Pid ------------------------------------------------------------------------------ Brick gluster0.example.com:/gluster-storage 49152 0 Y 19003 Brick gluster1.example.com:/gluster-storage 49152 0 Y 19040 Self-heal Daemon on localhost N/A N/A Y 19061 Self-heal Daemon on gluster0.example.com N/A N/A Y 19836 Task Status of Volume volume1 ------------------------------------------------------------------------------ There are no active volume tasks

GlusterFSストレージボリュームを管理する場合は、GlusterFSコンソールにドロップすることをお勧めします。 これにより、入力しなくてもGlusterFS環境を操作できるようになります。 sudo gluster すべての前に:

  1. sudo gluster

これにより、コマンドを入力できるプロンプトが表示されます。 help 自分自身を方向付けるのに良いものです:

  1. help
Output
peer help - display help for peer commands volume help - display help for volume commands volume bitrot help - display help for volume bitrot commands volume quota help - display help for volume quota commands snapshot help - display help for snapshot commands global help - list global commands

終了したら、実行します exit Glusterコンソールを終了するには:

  1. exit

これで、GlusterFSを次のアプリケーションと統合する準備が整いました。

結論

このチュートリアルを完了すると、2つの別々のサーバーに同時に書き込むことができる冗長ストレージシステムができあがります。 これは多くのアプリケーションに役立ち、1台のサーバーがダウンした場合でもデータを確実に利用できるようにすることができます。