開発者ドキュメント

How To Configure a Galera Cluster with MySQL 5.6 on Ubuntu 16.04

序章

クラスタリングは、さまざまなサーバーに変更を分散することにより、データベースに高可用性を追加します。 インスタンスの1つに障害が発生した場合でも、他のインスタンスはすでにサービスを継続できます。

クラスターには、アクティブ-パッシブとアクティブ-アクティブの2つの一般的な構成があります。 アクティブ-パッシブクラスターでは、すべての書き込みは単一のアクティブサーバーで実行され、アクティブサーバーに障害が発生した場合にのみ引き継ぐ準備ができている1つ以上のパッシブサーバーにコピーされます。 一部のアクティブ-パッシブクラスターでは、パッシブノードでのSELECT操作も許可されます。 アクティブ-アクティブクラスターでは、すべてのノードが読み取り/書き込みであり、1つに加えられた変更がすべてに複製されます。

このガイドでは、アクティブ-アクティブMySQLGaleraクラスターを構成します。 デモンストレーションの目的で、構成可能な最小のクラスターである3つのノードを構成してテストします。

前提条件

フォローするには、それぞれに次の3つのUbuntu16.04サーバーが必要です。

これらの前提条件がすべて整ったら、ソフトウェアをインストールする準備が整います。

ステップ1—すべてのサーバーにGaleraリポジトリを追加する

ガレラクラスタリングを含むようにパッチが適用されたMySQLは、デフォルトのUbuntuリポジトリに含まれていないため、Galeraプロジェクトによって維持されている外部Ubuntuリポジトリを3つのサーバーすべてに追加することから始めます。

注: Galera Clusterの背後にある会社であるCodershipはこのリポジトリを維持していますが、すべての外部リポジトリが信頼できるわけではないことに注意してください。 信頼できるソースからのみインストールしてください。

各サーバーで、apt-keyコマンドを使用してリポジトリキーを追加します。このコマンドは、aptがパッケージが本物であることを確認するために使用します。

  1. sudo apt-key adv --keyserver keyserver.ubuntu.com --recv BC19DDBA

各サーバーのデータベースに信頼できるキーがあれば、リポジトリを追加できます。 これを行うには、各サーバーの/etc/apt/sources.list.d/内にgalera.listという名前の新しいファイルを作成します。

  1. sudo nano /etc/apt/sources.list.d/galera.list

テキストエディタで、次の行を追加します。これにより、適切なリポジトリがAPTパッケージマネージャーで使用できるようになります。

/etc/apt/sources.list.d/galera.list
deb http://releases.galeracluster.com/mysql-wsrep-5.6/ubuntu xenial main
deb http://releases.galeracluster.com/galera-3/ubuntu xenial main

ファイルを保存して閉じます(CTRL + XYENTERの順に押します)。

これで、Codershipリポジトリを3つのサーバーすべてで使用できるようになりました。 ただし、Galeraクラスターの作成に必要なパッチが適用されたバージョンのソフトウェアが確実にインストールされるように、aptに他のリポジトリよりもCodershipのリポジトリを優先するように指示することが重要です。 これを行うには、/etc/apt/preferences.d/ディレクトリ内にgalera.prefという別の新しいファイルを作成します。

  1. sudo nano /etc/apt/preferences.d/galera.pref

次の行をテキストエディタに追加します。

/etc/apt/preferences.d/galera.pref
# Prefer Codership repository
Package: *
Pin: origin releases.galeracluster.com
Pin-Priority: 1001

そのファイルを保存して閉じ、sudo apt-get updateを実行して、新しいリポジトリからのパッケージマニフェストを含めます。

  1. sudo apt-get update

署名uses weak digest algorithm (SHA1)という警告が表示される場合があります。 このに対処するためのGitHubの未解決の問題があります。 それまでの間、続行してもかまいません。

3つのサーバーすべてでリポジトリが更新されると、MySQLとGaleraをインストールする準備が整います。

ステップ2—すべてのサーバーにMySQLとGaleraをインストールする

3つのサーバーすべてで次のコマンドを実行して、Galera、およびGaleraといくつかの依存関係で動作するようにパッチが適用されたバージョンのMySQLをインストールします。

  1. sudo apt-get install galera-3 galera-arbitrator-3 mysql-wsrep-5.6

インストール中に、MySQL管理ユーザーのパスワードを設定するように求められます。

クラスタの構成を開始するために必要なすべての要素が揃っているはずですが、後の手順でrsyncに依存するため、3つすべてにインストールされていることを確認しましょう。

  1. sudo apt-get install rsync

これにより、rsyncの最新バージョンがすでに利用可能であることが確認され、使用しているバージョンをアップグレードするか、インストールするように求められます。

3つのサーバーのそれぞれにMySQLをインストールしたら、構成を開始できます。

ステップ3—最初のノードを構成する

クラスター内の各ノードは、ほぼ同じ構成である必要があります。 このため、最初のマシンですべての構成を行い、それを他のノードにコピーします。

デフォルトでは、MySQLは/etc/mysql/conf.dディレクトリをチェックして、.cnfで終わるファイルから追加の構成設定を取得するように構成されています。 このディレクトリに、クラスタ固有のすべてのディレクティブを使用してファイルを作成します。

  1. sudo nano /etc/mysql/conf.d/galera.cnf

次の構成をファイルに追加します。 赤で強調表示されている設定を変更する必要があります。 以下、各セクションの意味を説明します。

最初のノードの/etc/mysql/conf.d/galera.cnf
[mysqld]
binlog_format=ROW
default-storage-engine=innodb
innodb_autoinc_lock_mode=2
bind-address=0.0.0.0

# Galera Provider Configuration
wsrep_on=ON
wsrep_provider=/usr/lib/galera/libgalera_smm.so

# Galera Cluster Configuration
wsrep_cluster_name="test_cluster"
wsrep_cluster_address="gcomm://first_ip,second_ip,third_ip"

# Galera Synchronization Configuration
wsrep_sst_method=rsync

# Galera Node Configuration
wsrep_node_address="this_node_ip"
wsrep_node_name="this_node_name"

クラスタ構成ファイルに問題がなければ、内容をクリップボードにコピーしてから、ファイルを保存して閉じます。

最初のサーバーが構成されたので、次の2つのノードに進みます。

ステップ4—残りのノードを構成する

残りの各ノードで、構成ファイルを開きます。

  1. sudo nano /etc/mysql/conf.d/galera.cnf

最初のノードからコピーした構成を貼り付けてから、「ガレラノード構成」を更新して、設定している特定のノードのIPアドレスまたは解決可能なドメイン名を使用します。 最後に、その名前を更新します。これは、ログファイルでノードを識別するのに役立つ名前に設定できます。

/etc/mysql/conf.d/galera.cnf
. . .
# Galera Node Configuration
wsrep_node_address="this_node_ip"
wsrep_node_name="this_node_name"
. . .

各サーバーでファイルを保存して終了します。

クラスタを起動する準備がほぼ整いましたが、起動する前に、適切なポートが開いていることを確認する必要があります。

ステップ5—すべてのサーバーでファイアウォールを開く

すべてのサーバーで、ファイアウォールのステータスを確認しましょう。

  1. sudo ufw status

この場合、SSHのみが許可されます。

Output
Status: active To Action From -- ------ ---- OpenSSH ALLOW Anywhere OpenSSH (v6) ALLOW Anywhere (v6)

他のルールが設定されているか、ファイアウォールルールがまったくない可能性があります。 この場合、SSHトラフィックのみが許可されるため、MySQLおよびGaleraトラフィックのルールを追加する必要があります。

Galeraは4つのポートを利用できます。

この例では、セットアップ中に4つのポートすべてを開きます。 レプリケーションが機能していることを確認したら、実際に使用していないポートをすべて閉じ、トラフィックをクラスター内のサーバーのみに制限します。

次のコマンドでポートを開きます。

  1. sudo ufw allow 3306,4567,4568,4444/tcp
  2. sudo ufw allow 4567/udp

注:サーバーで実行されている他の機能によっては、アクセスをすぐに制限したい場合があります。 UFW Essentials:Common Firewall Rules andCommandsガイドがこれに役立ちます。

ステップ6—クラスターを開始する

まず、クラスターをオンラインにできるように、実行中のMySQLサービスを停止する必要があります。

3つのサーバーすべてでMySQLを停止します。

3つのサーバーすべてで以下のコマンドを使用してmysqlを停止し、クラスターに戻すことができるようにします。

  1. sudo systemctl stop mysql

systemctlは、すべてのサービス管理コマンドの結果を表示しないため、成功したことを確認するには、次のコマンドを実行します。

  1. sudo systemctl status mysql

最後の行が次のようになっている場合、コマンドは成功しています。

Output
. . . Sep 02 22:17:56 galera-02 systemd[1]: Stopped LSB: start and stop MySQL.

すべてのサーバーでmysqlをシャットダウンしたら、次に進む準備ができています。

最初のノードを表示します。

クラスターの構成方法では、オンラインになる各ノードは、galera.cnfファイルで指定された少なくとも1つの他のノードに接続して、初期状態を取得しようとします。 最初のノードが接続するために実行されているノードがないため、通常のsystemctl start mysqlは失敗します。したがって、最初に開始するノードにwsrep-new-clusterパラメーターを渡す必要があります。 ただし、systemdserviceも、現時点では-wsrep-new-cluster引数を適切に受け入れないため、を使用して最初のノードを起動する必要があります。 /etc/init.dの起動スクリプト。 これを実行したら、残りのノードをsystemctl.で開始できます。

注:すべてをsystemdで開始したい場合は、別のノードを起動したら、最初のノードを強制終了できます。 2番目のノードが使用可能であるため、sudo systemctl start mysqlを使用して最初のノードを再起動すると、実行中のクラスターに参加できるようになります。

  1. sudo /etc/init.d/mysql start --wsrep-new-cluster

このスクリプトが完了すると、ノードはクラスターの一部として登録され、次のコマンドで確認できます。

  1. mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
Output
+--------------------+-------+ | Variable_name | Value | +--------------------+-------+ | wsrep_cluster_size | 1 | +--------------------+-------+

残りのノードでは、mysqlを正常に起動できます。 オンラインのクラスターリストのメンバーを検索するため、メンバーが見つかると、クラスターに参加します。

2番目のノードを起動します。

mysqlを開始します:

  1. sudo systemctl start mysql

各ノードがオンラインになると、クラスターサイズが増加するはずです。

  1. mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
Output
+--------------------+-------+ | Variable_name | Value | +--------------------+-------+ | wsrep_cluster_size | 2 | +--------------------+-------+

3番目のノードを起動します。

mysqlを開始します:

  1. sudo systemctl start mysql

すべてが正常に機能している場合は、クラスターサイズを3に設定する必要があります。

  1. mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
Output
+--------------------+-------+ | Variable_name | Value | +--------------------+-------+ | wsrep_cluster_size | 3 | +--------------------+-------+

この時点で、クラスター全体がオンラインで通信している必要があります。 これにより、クラスターの各ノード間のレプリケーションをテストできます。

ステップ7—レプリケーションのテスト

これまでの手順を実行して、クラスターが任意のノードから他のノードへのレプリケーション(アクティブ-アクティブレプリケーションと呼ばれる)を実行できるようにしました。 レプリケーションが期待どおりに機能しているかどうかをテストしてみましょう。

最初のノードに書き込みます。

最初のノードでデータベースを変更することから始めます。 次のコマンドは、playgroundというデータベースと、その中にequipmentというテーブルを作成します。

  1. mysql -u root -p -e
  2. 'CREATE DATABASE playground;
  3. CREATE TABLE playground.equipment ( id INT NOT NULL AUTO_INCREMENT, type VARCHAR(50), quant INT, color VARCHAR(25), PRIMARY KEY(id));
  4. INSERT INTO playground.equipment (type, quant, color) VALUES ("slide", 2, "blue");'

これで、テーブルに1つの値があります。

2番目のノードでの読み取りと書き込み:

次に、2番目のノードを調べて、レプリケーションが機能していることを確認します。

  1. mysql -u root -p -e 'SELECT * FROM playground.equipment;'

レプリケーションが機能している場合、最初のノードに入力したデータが2番目のノードに表示されます。

Output
+----+-------+-------+-------+ | id | type | quant | color | +----+-------+-------+-------+ | 1 | slide | 2 | blue | +----+-------+-------+-------+

この同じノードから、クラスターにデータを書き込むことができます。

  1. mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("swing", 10, "yellow");'

3番目のノードでの読み取りと書き込み:

3番目のノードから、データベースに再度クエリを実行することで、このすべてのデータを読み取ることができます。

  1. mysql -u root -p -e 'SELECT * FROM playground.equipment;'
Output
+----+-------+-------+--------+ | id | type | quant | color | +----+-------+-------+--------+ | 1 | slide | 2 | blue | | 2 | swing | 10 | yellow | +----+-------+-------+--------+

ここでも、このノードから別の値を追加できます。

  1. mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("seesaw", 3, "green");'

最初のノードで読む:

最初のノードに戻ると、データがどこでも利用できることを確認できます。

  1. mysql -u root -p -e 'SELECT * FROM playground.equipment;'
Output
+----+--------+-------+--------+ | id | type | quant | color | +----+--------+-------+--------+ | 1 | slide | 2 | blue | | 2 | swing | 10 | yellow | | 3 | seesaw | 3 | green | +----+--------+-------+--------+

すべてのノードに書き込むことができ、レプリケーションが適切に実行されていることをテストしました。

結論

この時点で、動作する3ノードのGaleraテストクラスターが構成されているはずです。 実稼働環境でGaleraクラスターを使用することを計画している場合は、5つ以上のノードから始めることをお勧めします。

本番環境で使用する前に、「xtrabackup」などのその他の状態スナップショット転送(sst)エージェントを確認することをお勧めします。これにより、アクティブに大きな中断を与えることなく、新しいノードを非常に迅速にセットアップできます。ノード。 これは実際のレプリケーションには影響しませんが、ノードが初期化されるときに問題になります。 最後に、サーバー間を移動するときにデータを保護するために、SSL暗号化も設定する必要があります。

モバイルバージョンを終了