開発者ドキュメント

Ubuntu18.04にApacheKafkaをインストールする方法

著者は、 Write for DOnations プログラムの一環として、 Free and Open SourceFundを選択して寄付を受け取りました。

序章

Apache Kafka は、大量のリアルタイムデータを効率的に処理するように設計された人気の分散メッセージブローカーです。 Kafkaクラスターは、拡張性とフォールトトレラント性が高いだけでなく、ActiveMQRabbitMQなどの他のメッセージブローカーと比較してスループットがはるかに高くなっています。 一般的にパブリッシュ/サブスクライブメッセージングシステムとして使用されますが、パブリッシュされたメッセージの永続ストレージを提供するため、多くの組織でもログ集約に使用されます。

パブリッシュ/サブスクライブメッセージングシステムを使用すると、1つ以上のプロデューサーが、コンシューマーの数やメッセージの処理方法を考慮せずにメッセージをパブリッシュできます。 購読しているクライアントには、更新と新しいメッセージの作成について自動的に通知されます。 このシステムは、クライアントが定期的にポーリングして新しいメッセージが利用可能かどうかを判断するシステムよりも効率的でスケーラブルです。

このチュートリアルでは、Ubuntu18.04にApacheKafka2.1.1をインストールして使用します。

前提条件

フォローするには、次のものが必要です。

ステップ1—Kafkaのユーザーを作成する

Kafkaはネットワーク経由でリクエストを処理できるため、専用のユーザーを作成する必要があります。 これにより、Kafkaサーバーが危険にさらされた場合のUbuntuマシンへの損傷が最小限に抑えられます。 このステップでは専用のkafkaユーザーを作成しますが、Kafkaのセットアップが完了したら、このサーバーで他のタスクを実行するために別の非rootユーザーを作成する必要があります。

root以外のsudoユーザーとしてログインし、useraddコマンドを使用してkafkaというユーザーを作成します。

  1. sudo useradd kafka -m

-mフラグは、ユーザーのホームディレクトリが作成されることを保証します。 このホームディレクトリ/home/kafkaは、以下のセクションのコマンドを実行するためのワークスペースディレクトリとして機能します。

passwdを使用してパスワードを設定します。

  1. sudo passwd kafka

kafkaユーザーをadduserコマンドを使用してsudoグループに追加し、Kafkaの依存関係をインストールするために必要な権限を付与します。

  1. sudo adduser kafka sudo

これで、kafkaユーザーの準備が整いました。 suを使用してこのアカウントにログインします。

  1. su -l kafka

Kafka固有のユーザーを作成したので、Kafkaバイナリのダウンロードと抽出に進むことができます。

ステップ2—Kafkaバイナリのダウンロードと抽出

Kafkaバイナリをダウンロードして、kafkaユーザーのホームディレクトリの専用フォルダに抽出してみましょう。

まず、/home/kafkaDownloadsというディレクトリを作成してダウンロードを保存します。

  1. mkdir ~/Downloads

curlを使用して、Kafkaバイナリをダウンロードします。

  1. curl "https://www.apache.org/dist/kafka/2.1.1/kafka_2.11-2.1.1.tgz" -o ~/Downloads/kafka.tgz

kafkaというディレクトリを作成し、このディレクトリに移動します。 これは、Kafkaインストールのベースディレクトリになります。

  1. mkdir ~/kafka && cd ~/kafka

tarコマンドを使用してダウンロードしたアーカイブを抽出します。

  1. tar -xvzf ~/Downloads/kafka.tgz --strip 1

--strip 1フラグを指定して、アーカイブの内容が~/kafka/自体に抽出され、アーカイブ内の別のディレクトリ(~/kafka/kafka_2.11-2.1.1/など)には抽出されないようにします。

バイナリのダウンロードと抽出が正常に行われたので、トピックの削除を可能にするためにKafkaへの構成に進むことができます。

ステップ3—Kafkaサーバーの構成

Kafkaのデフォルトの動作では、トピック、メッセージを公開できるカテゴリ、グループ、またはフィード名を削除できません。 これを変更するには、構成ファイルを編集しましょう。

Kafkaの構成オプションは、server.propertiesで指定されています。 nanoまたはお気に入りのエディターでこのファイルを開きます。

  1. nano ~/kafka/config/server.properties

Kafkaトピックを削除できるようにする設定を追加しましょう。 ファイルの最後に以下を追加します。

〜/ kafka / config / server.properties
delete.topic.enable = true

ファイルを保存し、nanoを終了します。 Kafkaを構成したので、実行用のsystemdユニットファイルの作成と起動時の有効化に進むことができます。

ステップ4—Systemdユニットファイルの作成とKafkaサーバーの起動

このセクションでは、Kafkaサービス用のsystemdユニットファイルを作成します。 これは、他のLinuxサービスと一貫した方法で、Kafkaの開始、停止、再起動などの一般的なサービスアクションを実行するのに役立ちます。

Zookeeperは、Kafkaがクラスターの状態と構成を管理するために使用するサービスです。 これは、多くの分散システムで不可欠なコンポーネントとして一般的に使用されています。 詳細については、公式のZookeeperドキュメントにアクセスしてください。

zookeeperのユニットファイルを作成します。

  1. sudo nano /etc/systemd/system/zookeeper.service

次の単位定義をファイルに入力します。

/etc/systemd/system/zookeeper.service
[Unit]
Requires=network.target remote-fs.target
After=network.target remote-fs.target

[Service]
Type=simple
User=kafka
ExecStart=/home/kafka/kafka/bin/zookeeper-server-start.sh /home/kafka/kafka/config/zookeeper.properties
ExecStop=/home/kafka/kafka/bin/zookeeper-server-stop.sh
Restart=on-abnormal

[Install]
WantedBy=multi-user.target

[Unit]セクションでは、Zookeeperを起動する前に、ネットワークとファイルシステムの準備ができている必要があることを指定しています。

[Service]セクションでは、systemdがサービスの開始と停止にzookeeper-server-start.shおよびzookeeper-server-stop.shシェルファイルを使用する必要があることを指定しています。 また、Zookeeperが異常終了した場合に自動的に再起動する必要があることも指定しています。

次に、kafkaのsystemdサービスファイルを作成します。

  1. sudo nano /etc/systemd/system/kafka.service

次の単位定義をファイルに入力します。

/etc/systemd/system/kafka.service
[Unit]
Requires=zookeeper.service
After=zookeeper.service

[Service]
Type=simple
User=kafka
ExecStart=/bin/sh -c '/home/kafka/kafka/bin/kafka-server-start.sh /home/kafka/kafka/config/server.properties > /home/kafka/kafka/kafka.log 2>&1'
ExecStop=/home/kafka/kafka/bin/kafka-server-stop.sh
Restart=on-abnormal

[Install]
WantedBy=multi-user.target

[Unit]セクションは、このユニットファイルがzookeeper.serviceに依存することを指定します。 これにより、kafkaサービスの開始時にzookeeperが自動的に開始されます。

[Service]セクションでは、systemdがサービスの開始と停止にkafka-server-start.shおよびkafka-server-stop.shシェルファイルを使用する必要があることを指定しています。 また、Kafkaが異常終了した場合に自動的に再起動する必要があることも指定しています。

単位が定義されたので、次のコマンドでKafkaを起動します。

  1. sudo systemctl start kafka

サーバーが正常に起動したことを確認するには、kafkaユニットのジャーナルログを確認します。

  1. sudo journalctl -u kafka

次のような出力が表示されます。

Output
Jul 17 18:38:59 kafka-ubuntu systemd[1]: Started kafka.service.

これで、ポート9092でリッスンしているKafkaサーバーができました。

kafkaサービスを開始しているときに、サーバーを再起動しても、サーバーは自動的に開始されません。 サーバーの起動時にkafkaを有効にするには、次のコマンドを実行します。

  1. sudo systemctl enable kafka

サービスを開始して有効にしたので、インストールを確認しましょう。

ステップ5—インストールのテスト

「HelloWorld」メッセージを公開して消費し、Kafkaサーバーが正しく動作していることを確認しましょう。 Kafkaでメッセージを公開するには、次のものが必要です。

まず、次のように入力して、TutorialTopicという名前のトピックを作成します。

  1. ~/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic TutorialTopic

kafka-console-producer.shスクリプトを使用して、コマンドラインからプロデューサーを作成できます。 Kafkaサーバーのホスト名、ポート、およびトピック名を引数として想定しています。

次のように入力して、文字列"Hello, World"TutorialTopicトピックに公開します。

  1. echo "Hello, World" | ~/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic TutorialTopic > /dev/null

次に、kafka-console-consumer.shスクリプトを使用してKafkaコンシューマーを作成できます。 ZooKeeperサーバーのホスト名とポート、および引数としてのトピック名が必要です。

次のコマンドは、TutorialTopicからのメッセージを消費します。 --from-beginningフラグの使用に注意してください。これにより、コンシューマーが開始される前に公開されたメッセージを使用できます。

  1. ~/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic TutorialTopic --from-beginning

構成の問題がない場合は、端末にHello, Worldが表示されます。

Output
Hello, World

スクリプトは引き続き実行され、トピックにさらにメッセージが公開されるのを待ちます。 新しいターミナルを開いてプロデューサーを開始し、さらにいくつかのメッセージを公開してください。 コンシューマーの出力でそれらすべてを確認できるはずです。

テストが終了したら、CTRL+Cを押してコンシューマスクリプトを停止します。 インストールをテストしたので、KafkaTのインストールに移りましょう。

ステップ6— KafkaTをインストールします(オプション)

KafkaT はAirbnbのツールで、Kafkaクラスターの詳細を表示したり、コマンドラインから特定の管理タスクを実行したりするのが簡単になります。 これはRubygemであるため、使用するにはRubyが必要になります。 また、依存する他のgemをビルドできるようにするには、build-essentialパッケージが必要になります。 aptを使用してそれらをインストールします。

  1. sudo apt install ruby ruby-dev build-essential

これで、gemコマンドを使用してKafkaTをインストールできます。

  1. sudo gem install kafkat

KafkaTは、構成ファイルとして.kafkatcfgを使用して、Kafkaサーバーのインストールディレクトリとログディレクトリを決定します。 また、KafkaTをZooKeeperインスタンスにポイントするエントリが必要です。

.kafkatcfgという名前の新しいファイルを作成します。

  1. nano ~/.kafkatcfg

次の行を追加して、KafkaサーバーとZookeeperインスタンスに関する必要な情報を指定します。

〜/ .kafkatcfg
{
  "kafka_path": "~/kafka",
  "log_path": "/tmp/kafka-logs",
  "zk_path": "localhost:2181"
}

これで、KafkaTを使用する準備が整いました。 まず、これを使用してすべてのKafkaパーティションの詳細を表示する方法を次に示します。

  1. kafkat partitions

次の出力が表示されます。

Output
Topic Partition Leader Replicas ISRs TutorialTopic 0 0 [0] [0] __consumer_offsets 0 0 [0] [0] ... ...

TutorialTopicと、Kafkaがクライアント関連情報を保存するために使用する内部トピックである__consumer_offsetsが表示されます。 __consumer_offsetsで始まる行は無視してかまいません。

KafkaTの詳細については、KafkaTのGitHubリポジトリを参照してください。

ステップ7—マルチノードクラスターのセットアップ(オプション)

より多くのUbuntu18.04マシンを使用してマルチブローカークラスターを作成する場合は、新しいマシンごとにステップ1、ステップ4、およびステップ5を繰り返す必要があります。 さらに、それぞれのserver.propertiesファイルに次の変更を加える必要があります。

クラスタに複数のZooKeeperインスタンスが必要な場合は、各ノードのzookeeper.connectプロパティの値は、すべてのZooKeeperインスタンスのIPアドレスとポート番号をリストする同一のコンマ区切りの文字列である必要があります。

ステップ8—Kafkaユーザーを制限する

すべてのインストールが完了したので、kafkaユーザーの管理者権限を削除できます。 その前に、root以外のsudoユーザーとしてログアウトして再度ログインしてください。 このチュートリアルを開始したのと同じシェルセッションをまだ実行している場合は、exitと入力するだけです。

kafkaユーザーをsudoグループから削除します。

  1. sudo deluser kafka sudo

Kafkaサーバーのセキュリティをさらに向上させるには、passwdコマンドを使用してkafkaユーザーのパスワードをロックします。 これにより、誰もこのアカウントを使用してサーバーに直接ログインできないようになります。

  1. sudo passwd kafka -l

この時点で、rootまたはsudoユーザーのみが次のコマンドを入力してkafkaとしてログインできます。

  1. sudo su - kafka

将来、ロックを解除する場合は、passwd-uオプションとともに使用します。

  1. sudo passwd kafka -u

これで、kafkaユーザーの管理者権限が正常に制限されました。

結論

これで、UbuntuサーバーでApacheKafkaが安全に実行されます。 ほとんどのプログラミング言語で利用可能なKafkaクライアントを使用してKafkaプロデューサーとコンシューマーを作成することにより、プロジェクトでそれを利用できます。 Kafkaの詳細については、Kafkaのドキュメントを参照することもできます。

モバイルバージョンを終了