Debian10サーバーでMariaDBを使用してGaleraクラスターを構成する方法
著者は、 Write for DOnations プログラムの一環として、 Free and Open SourceFundを選択して寄付を受け取りました。
序章
クラスタリングは、変更をさまざまなサーバーに分散することにより、データベースに高可用性を追加します。 インスタンスの1つに障害が発生した場合、他のインスタンスはすぐにサービスを継続できます。
クラスタには、アクティブ-パッシブとアクティブ-アクティブの2つの一般的な構成があります。 アクティブ-パッシブクラスターでは、すべての書き込みは単一のアクティブサーバーで実行され、アクティブサーバーに障害が発生した場合にのみ引き継ぐ準備ができている1つ以上のパッシブサーバーにコピーされます。 一部のアクティブ-パッシブクラスターでは、パッシブノードでのSELECT
操作も可能です。 アクティブ-アクティブクラスターでは、すべてのノードが読み取り/書き込みであり、1つに加えられた変更がすべてに複製されます。
MariaDB は、一般的なMySQLRDBMSシステムと完全に互換性のあるオープンソースのリレーショナルデータベースシステムです。 このページでMariaDBの公式ドキュメントを読むことができます。 Galera は、同期レプリケーションを使用してマルチマスタークラスターをセットアップできるデータベースクラスタリングソリューションです。 Galeraは、クラスター内の任意のノードに読み取りおよび書き込みクエリを送信できるようにしながら、さまざまなノードのデータの同期を自動的に処理します。 ガレラの詳細については、公式のドキュメントページをご覧ください。
このガイドでは、アクティブ-アクティブMariaDBガレラクラスターを構成します。 デモンストレーションの目的で、クラスター内のノードとして機能する3台のDebian10サーバーを構成してテストします。 これは、構成可能な最小のクラスターです。
前提条件
フォローするには、以下に加えて、DigitalOceanアカウントが必要です。
- プライベートネットワークが有効になっている3台のDebian10サーバー。それぞれ、
sudo
権限を持つroot以外のユーザーがいます。3つのドロップレットでプライベートネットワークを設定するには、プライベートネットワーククイックスタートガイドに従ってください。 sudo権限を持つroot以外のユーザーのセットアップについては、Debian10を使用したサーバーの初期セットアップのチュートリアルに従ってください。
このチュートリアルの手順は、DigitalOceanドロップレット用に作成され、テストされていますが、それらの多くは、プライベートネットワークが有効になっている非DigitalOceanサーバーにも適用できるはずです。
ステップ1—すべてのサーバーにMariaDBリポジトリを追加する
このステップでは、関連するMariaDBパッケージリポジトリを3つのサーバーのそれぞれに追加して、このチュートリアルで使用されている適切なバージョンのMariaDBをインストールできるようにします。 3つのサーバーすべてでリポジトリが更新されると、MariaDBをインストールする準備が整います。
MariaDBについて注意すべき点の1つは、MySQLのドロップイン置換として作成されたため、多くの構成ファイルと起動スクリプトで、mariadb
ではなくmysql
が表示されることです。 一貫性を保つために、このガイドではmysql
を使用します。どちらでも機能します。
このチュートリアルでは、MariaDBバージョン10.4を使用します。 このバージョンはデフォルトのDebianリポジトリに含まれていないため、MariaDBプロジェクトによって維持されている外部Debianリポジトリを3つのサーバーすべてに追加することから始めます。
リポジトリを追加するには、最初にdirmngr
およびsoftware-properties-common
パッケージをインストールする必要があります。 dirmngr
は、リポジトリの証明書とキーを管理するためのサーバーです。 software-properties-common
は、ソースリポジトリの場所を簡単に追加および更新できるパッケージです。 次のコマンドを実行して、2つのパッケージをインストールします。
- sudo apt install dirmngr software-properties-common
注: MariaDBは評判の高いプロバイダーですが、すべての外部リポジトリが信頼できるわけではありません。 信頼できるソースからのみインストールしてください。
apt-key
コマンドを使用してMariaDBリポジトリキーを追加します。これは、APTパッケージマネージャーがパッケージが本物であることを確認するために使用します。
- sudo apt-key adv --recv-keys --keyserver hkp://keyserver.ubuntu.com:80 0xF1656F24C74CD1D8
データベースに信頼できるキーを取得したら、次のコマンドを使用してリポジトリを追加できます。
- sudo add-apt-repository 'deb [arch=amd64] http://nyc2.mirrors.digitalocean.com/mariadb/repo/10.4/debian buster main'
リポジトリを追加した後、apt update
を実行して、新しいリポジトリからのパッケージマニフェストを含めます。
- sudo apt update
最初のサーバーでこの手順を完了したら、2番目と3番目のサーバーについて繰り返します。
3つのサーバーすべてにパッケージリポジトリが正常に追加されたので、次のセクションでMariaDBをインストールする準備が整いました。
ステップ2—すべてのサーバーにMariaDBをインストールする
このステップでは、実際のMariaDBパッケージを3台のサーバーにインストールします。
バージョン10.1
以降、MariaDBサーバーとMariaDB Galeraサーバーパッケージが組み合わされているため、mariadb-server
をインストールすると、Galeraといくつかの依存関係が自動的にインストールされます。
- sudo apt install mariadb-server
インストールを続行するかどうかを確認するように求められます。 yes
と入力して、インストールを続行します。
MariaDBバージョン10.4
以降、 rootMariaDBユーザーはデフォルトでパスワードを持っていません。 root ユーザーのパスワードを設定するには、MariaDBにログインすることから始めます。
- sudo mysql -uroot
MariaDBシェルに入ったら、次のステートメントを実行してパスワードを変更します。
- set password = password("your_password");
パスワードが正しく設定されたことを示す次の出力が表示されます。
OutputQuery OK, 0 rows affected (0.001 sec)
次のコマンドを実行して、MariaDBシェルを終了します。
- quit;
SQLの詳細を知りたい場合、または簡単な復習が必要な場合は、MySQLチュートリアルを確認してください。
これで、クラスターの構成を開始するために必要なすべての要素が揃いましたが、後の手順でrsync
に依存するため、次のようにインストールされていることを確認してください。
- sudo apt install rsync
これにより、rsync
の最新バージョンがすでに利用可能であることが確認されるか、アップグレードまたはインストールするように求められます。
MariaDBをインストールし、最初のサーバーにルートパスワードを設定したら、他の2つのサーバーに対してこれらの手順を繰り返します。
3つのサーバーのそれぞれにMariaDBが正常にインストールされたので、次のセクションの構成手順に進むことができます。
ステップ3—最初のノードを構成する
このステップでは、最初のノードを構成します。 クラスタ内の各ノードは、ほぼ同じ構成である必要があります。 このため、最初のマシンですべての構成を行い、それを他のノードにコピーします。
デフォルトでは、MariaDBは/etc/mysql/conf.d
ディレクトリをチェックして、.cnf
で終わるファイルから追加の構成設定を取得するように構成されています。 クラスタ固有のすべてのディレクティブを使用して、このディレクトリにファイルを作成します。
- sudo nano /etc/mysql/conf.d/galera.cnf
次の構成をファイルに追加します。 構成では、さまざまなクラスターオプション、現在のサーバーとクラスター内の他のサーバーに関する詳細、およびレプリケーション関連の設定を指定します。 構成内のIPアドレスは、それぞれのサーバーのプライベートアドレスであることに注意してください。 強調表示された行を適切なIPアドレスに置き換えます。
[mysqld]
binlog_format=ROW
default-storage-engine=innodb
innodb_autoinc_lock_mode=2
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_on=ON
wsrep_provider=/usr/lib/galera/libgalera_smm.so
# Galera Cluster Configuration
wsrep_cluster_name="test_cluster"
wsrep_cluster_address="gcomm://First_Node_IP,Second_Node_IP,Third_Node_IP"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address="This_Node_IP"
wsrep_node_name="This_Node_Name"
- 最初のセクションは、クラスターが正しく機能できるようにするMariaDB/MySQL設定を変更または再アサートします。 たとえば、GaleraはMyISAMまたは同様の非トランザクションストレージエンジンでは動作しません。また、
mysqld
をlocalhost
のIPアドレスにバインドしないでください。 設定の詳細については、GaleraClusterシステム構成ページを参照してください。 - 「Galeraプロバイダーの構成」セクションは、WriteSetレプリケーションAPIを提供するMariaDBコンポーネントを構成します。 これは、Galeraが wsrep (WriteSet Replication)プロバイダーであるため、あなたの場合はGaleraを意味します。 一般的なパラメーターを指定して、初期レプリケーション環境を構成します。 これにはカスタマイズは必要ありませんが、Galera構成オプションについて詳しく知ることができます。
- 「Galeraクラスター構成」セクションはクラスターを定義し、IPアドレスまたは解決可能なドメイン名でクラスターメンバーを識別し、メンバーが正しいグループに参加できるようにクラスターの名前を作成します。
wsrep_cluster_name
をtest_cluster
よりも意味のあるものに変更するか、そのままにしておくことができますが、wsrep_cluster_address
を3台のサーバーのプライベートIPアドレスで更新する必要があります。 - 「Galera同期構成」セクションは、クラスターがメンバー間でデータを通信および同期する方法を定義します。 これは、ノードがオンラインになったときに発生する状態転送にのみ使用されます。 初期設定では、
rsync
を使用しています。これは、一般的に利用可能であり、今のところ必要なことを実行するためです。 - 「Galeraノードの構成」セクションは、現在のサーバーのIPアドレスと名前を明確にします。 これは、ログの問題を診断したり、各サーバーを複数の方法で参照したりする場合に役立ちます。
wsrep_node_address
は、使用しているマシンのアドレスと一致する必要がありますが、ログファイルでノードを識別しやすくするために、任意の名前を選択できます。
クラスタ構成ファイルに問題がなければ、内容をクリップボードにコピーし、ファイルを保存して閉じます。 nanoテキストエディタでは、CTRL+X
を押し、y
と入力し、ENTER
を押すことでこれを行うことができます。
最初のノードを正常に構成したので、次のセクションで残りのノードの構成に進むことができます。
ステップ4—残りのノードを構成する
このステップでは、残りの2つのノードを構成します。 2番目のノードで、構成ファイルを開きます。
- sudo nano /etc/mysql/conf.d/galera.cnf
最初のノードからコピーした構成を貼り付けてから、Galera Node Configuration
を更新して、設定している特定のノードのIPアドレスまたは解決可能なドメイン名を使用します。 最後に、その名前を更新します。これは、ログファイルでノードを識別するのに役立つ名前に設定できます。
. . .
# Galera Node Configuration
wsrep_node_address="This_Node_IP"
wsrep_node_name="This_Node_Name"
. . .
ファイルを保存して終了します。
これらの手順を完了したら、3番目のノードで繰り返します。
クラスタを起動する準備はほぼ整っていますが、起動する前に、ファイアウォールで適切なポートが開いていることを確認してください。
ステップ5—すべてのサーバーでファイアウォールを開く
このステップでは、ノード間通信に必要なポートが開くようにファイアウォールを構成します。 すべてのサーバーで、次のコマンドを実行してファイアウォールのステータスを確認します。
- sudo ufw status
この場合、SSHのみが許可されます。
OutputStatus: active
To Action From
-- ------ ----
OpenSSH ALLOW Anywhere
OpenSSH (v6) ALLOW Anywhere (v6)
この場合、SSHトラフィックのみが許可されるため、MySQLおよびGaleraトラフィックのルールを追加する必要があります。 クラスタを起動しようとすると、ファイアウォールルールが原因で失敗します。
Galeraは4つのポートを利用できます。
3306
mysqldump
メソッドを使用するMySQLクライアント接続および状態スナップショット転送の場合。4567
ガレラクラスターレプリケーショントラフィック用。 マルチキャストレプリケーションは、このポートでUDPトランスポートとTCPの両方を使用します。4568
インクリメンタル状態転送用。4444
他のすべての状態スナップショット転送用。
この例では、セットアップ中に4つのポートすべてを開きます。 レプリケーションが機能していることを確認したら、実際に使用していないポートをすべて閉じて、トラフィックをクラスター内のサーバーのみに制限する必要があります。
次のコマンドでポートを開きます。
- sudo ufw allow 3306,4567,4568,4444/tcp
- sudo ufw allow 4567/udp
注:サーバーで実行されている他の機能によっては、すぐにアクセスを制限したい場合があります。 UFW Essentials:Common Firewall Rules andCommandsガイドがこれに役立ちます。
最初のノードでファイアウォールを構成した後、2番目と3番目のノードで同じファイアウォール設定を作成します。
ファイアウォールを正常に構成したので、次のステップでクラスターを開始する準備が整いました。
ステップ6—クラスターを開始する
このステップでは、MariaDBクラスターを開始します。 開始するには、クラスターをオンラインにするために、実行中のMariaDBサービスを停止する必要があります。
3つのサーバーすべてでMariaDBを停止する
3つのサーバーすべてで次のコマンドを使用して、MariaDBを停止し、クラスターに戻すことができるようにします。
- sudo systemctl stop mysql
systemctl
は、すべてのサービス管理コマンドの結果を表示しないため、成功したことを確認するには、次のコマンドを使用します。
- sudo systemctl status mysql
最後の行が次のようになっている場合、コマンドは成功しています。
Output. . .
Apr 26 03:34:23 galera-node-01 systemd[1]: Stopped MariaDB 10.4.4 database server.
すべてのサーバーでmysql
をシャットダウンすると、続行する準備が整います。
最初のノードを起動します
最初のノードを起動するには、特別な起動スクリプトを使用する必要があります。 クラスタを構成した方法で、オンラインになる各ノードは、galera.cnf
ファイルで指定された少なくとも1つの他のノードに接続して、初期状態を取得しようとします。 systemdが--wsrep-new-cluster
パラメーターを渡すことを可能にするgalera_new_cluster
スクリプトを使用しないと、最初のノードが接続するために実行されているノードがないため、通常のsystemctl start mysql
は失敗します。
- sudo galera_new_cluster
このコマンドは、正常に実行されても出力を表示しません。 このスクリプトが成功すると、ノードはクラスターの一部として登録され、次のコマンドで確認できます。
- mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
クラスタにノードが1つあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 1 |
+--------------------+-------+
残りのノードでは、mysql
を通常どおり起動できます。 オンラインのクラスターリストのメンバーを検索するため、メンバーが見つかると、クラスターに参加します。
2番目のノードを起動します
これで、2番目のノードを起動できます。 mysql
を開始します:
- sudo systemctl start mysql
正常に実行されても出力は表示されません。 各ノードがオンラインになると、クラスターサイズが増加します。
- mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
次の出力は、2番目のノードがクラスターに参加し、合計で2つのノードがあることを示しています。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 2 |
+--------------------+-------+
3番目のノードを起動します
次に、3番目のノードを起動します。 mysql
を開始します:
- sudo systemctl start mysql
次のコマンドを実行して、クラスターサイズを見つけます。
- mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
次の出力が表示されます。これは、3番目のノードがクラスターに参加し、クラスター内のノードの総数が3つであることを示しています。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 3 |
+--------------------+-------+
この時点で、クラスター全体がオンラインになり、正常に通信しています。 これで、次のセクションでレプリケーションをテストすることにより、動作するセットアップを確認できます。
ステップ7—レプリケーションのテスト
これまでの手順を実行して、クラスターが任意のノードから他のノードへのレプリケーション(アクティブ-アクティブレプリケーションと呼ばれる)を実行できるようにしました。 以下の手順に従って、レプリケーションが期待どおりに機能しているかどうかをテストして確認します。
最初のノードに書き込む
最初のノードでデータベースを変更することから始めます。 次のコマンドは、playground
というデータベースと、このデータベース内にequipment
というテーブルを作成します。
- mysql -u root -p -e 'CREATE DATABASE playground;
- CREATE TABLE playground.equipment ( id INT NOT NULL AUTO_INCREMENT, type VARCHAR(50), quant INT, color VARCHAR(25), PRIMARY KEY(id));
- INSERT INTO playground.equipment (type, quant, color) VALUES ("slide", 2, "blue");'
前のコマンドで、CREATE DATABASE
ステートメントはplayground
という名前のデータベースを作成します。 CREATE
ステートメントは、playground
データベース内に、id
という自動インクリメント識別子列とその他の列を持つequipment
という名前のテーブルを作成します。 type
列、quant
列、およびcolor
列は、機器のタイプ、数量、および色をそれぞれ格納するために定義されています。 INSERT
ステートメントは、タイプslide
、数量2
、および色blue
のエントリを挿入します。
これで、テーブルに1つの値があります。
2番目のノードでの読み取りと書き込み
次に、2番目のノードを調べて、レプリケーションが機能していることを確認します。
- mysql -u root -p -e 'SELECT * FROM playground.equipment;'
レプリケーションが機能している場合、最初のノードで入力したデータが2番目のノードに表示されます。
Output+----+-------+-------+-------+
| id | type | quant | color |
+----+-------+-------+-------+
| 1 | slide | 2 | blue |
+----+-------+-------+-------+
この同じノードから、クラスターにデータを書き込むことができます。
- mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("swing", 10, "yellow");'
3番目のノードでの読み取りと書き込み
3番目のノードから、テーブルを再度クエリすることにより、このすべてのデータを読み取ることができます。
- mysql -u root -p -e 'SELECT * FROM playground.equipment;'
2つの行を示す次の出力が表示されます。
Output +----+-------+-------+--------+
| id | type | quant | color |
+----+-------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
+----+-------+-------+--------+
ここでも、このノードから別の値を追加できます。
- mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("seesaw", 3, "green");'
最初のノードで読む:
最初のノードに戻ると、データがどこでも利用できることを確認できます。
- mysql -u root -p -e 'SELECT * FROM playground.equipment;'
次の出力が表示されます。これは、行が最初のノードで使用可能であることを示しています。
Output +----+--------+-------+--------+
| id | type | quant | color |
+----+--------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
| 3 | seesaw | 3 | green |
+----+--------+-------+--------+
これで、すべてのノードに書き込むことができ、レプリケーションが適切に実行されていることを確認できました。
結論
この時点で、動作する3ノードのGaleraテストクラスターが構成されています。 実稼働環境でGaleraクラスターを使用することを計画している場合は、5つ以上のノードから開始することをお勧めします。
本番環境で使用する前に、 xtrabackup などのその他の状態スナップショット転送(sst)エージェントを確認することをお勧めします。これにより、新しいノードを非常に迅速にセットアップできます。アクティブノードへの大きな中断。 これは実際のレプリケーションには影響しませんが、ノードが初期化されるときに問題になります。