スマートスタイル TECH BLOG|データベース&クラウドの最新技術情報を配信

Vitess(ヴィテス)をさわってみよう!(Part 2)

前回に引き続き、Vitessの各機能について検証を行いたいと思います。

前回はminikube上で検証を行いましたが、今回はEKSを使用してVitessを構築してみました。
EKSの構築手順は一般的なものですのでここで詳しくは触れません。
もし試される場合は、以下のようなガイドを参照の上ご準備ください。

https://aws.amazon.com/jp/getting-started/projects/deploy-kubernetes-app-amazon-eks/

検証項目

前回の記事の最後にいくつかの機能をご紹介しました。

今回は、その中から以下の項目について動作を確認してみます。

  • Horizontal sharding(水平シャーディング)

Vitessコンポーネントについてのおさらい

ここでVitessがどのようなパーツから構成されているか、簡単な説明を記載します。
正確にはConceptsを確認してください。

コンポーネント名 説明
Tablet
(vttablet)
mysqldを含むいくつかのPod。1:2でレプリケーションされたmysqld、バックアップ、リストア、予約用Pod等を含む
VTGate 接続をTabletへルーティングするためのプロキシ。シャーディング、HA、パフォーマンス等を考慮してルーティングを行う。
vtworker 長時間実行されるプロセス(リシャーディング操作等)をホストするPod。
vtctld Cliツールの処理を受け付けるHTTPサーバ
Topology 1つのVitessを構成するすべてのコンポーネントをまとめる論理的な単位
Cell 1つの完全に動作するVitess環境をまとめる論理的な単位。データセンターごとにCellを配置する事ができます。
VSchema 複数のKeyspaceを含む論理的なスキーマ
Keyspace シャーディングされたデータを格納するデータベース。Tabletは異なるKeyspaceを持つ事ができます。

Conponents
引用: https://jp.techcrunch.com/2019/05/24/2019-05-23-planetscale-vitess/

Vitessのデータ分散方式について

Vitessは、データ分散方式に2つの戦略を使用する事ができます。

一つはVirtical Split(垂直分割)、もう一つはHorizontal sharding(水平シャーディング)です。

Virtical Split(垂直分割)

https://vitess.io/docs/user-guides/vertical-split/

テーブルを異なるTabletが保持するKeyspaceに分散させることで、書き込みや読み込みの負荷を平均化する方法です。

テーブル単位で担当を分けるというシンプルな考え方で、R/Wを分散させることができます。

一方で、単一のテーブルに対する負荷が高いようなケースでは、1つのTabletに負荷が集中してしまうため、有効な方法では無い場合があります。

前回の記事で検証をしていますので、よろしければご確認ください。

Horizontal sharding(水平シャーディング)

https://vitess.io/docs/user-guides/horizontal-sharding/

テーブルのキー値を基準にして、同じKeyspace内で異なるTabletにレコードを分散させる方式です。

水平シャーディングを行うためには、以下の操作が必要になります。

  • VSchema内のKeyspace定義にsharding設定を追加
  • Vitess Sequenceの追加
  • Vindexの追加

Vitess Sequenceとは

Sequence(シーケンス)とは、ある数値から開始し、一定数増分する数値を連続して生成するためのオブジェクトです。
例えば nextval のような操作を用いて次の数値を取得することができ、その値を使ってあるカラムのデフォルト値に使う事があります。

MySQLにはシーケンスはありませんが、ユニークキーが定義されている列にauto_increment属性を付与することで、その列にシーケンスを使った場合と同じようなデータを自動的に更新する事が可能です。

しかし、Vitessで水平シャーディングを行った場合、論理的な1つのテーブル内のレコードは、物理的には異なるテーブル(シャード)に格納されています。
ですので、auto_incrementを使用する事ができません。

そのため、VitessではKeyspaceごとにグローバルな独自のシーケンスを使用することで同様の処理をサポートしています。
このシーケンスの実態は、シャードされていない単一のテーブルです。
VSchema定義のauto_incrementに、このシーケンスと関連付ける列を指定することで、MySQLのauto_incrementと同様の動作を実現することができます。

水平シャーディングにこのSequenceが必須というわけではありませんが、平均的にレコードの分散を行うためのキーとしてauto_increment列を指定することは一般的に効率が良いため、合わせて良く使用されます。

VIndexとは

前項の説明の通り、シャーディングされたテーブルは物理的には個別のテーブルです。
当然ですが、MySQLのIndexは個別のテーブルに存在します。

しかし、水平シャーディングを行うにあたっては、KeyspaceをまたがるIndexが必要となります。
このグローバルなIndexをVIndexと呼びます。
ここでは簡単にVIndexについてご説明します。

詳しくは、Vindexesをご確認ください。

プライマリVIndex

入力値(列値)に対して、一意の Keyspace ID を生成するためのIndexです。
一般的にシャードキーと呼ばれ、Vitessの水平シャーティングに必要なオブジェクトです。
Keyspace IDの生成方法には、事前に用意された方式(hash等)を使用することも、ユーザ定義の関数やルックアップテーブルを使用して実装することも可能です。

セカンダリVIndex

プライマリVIndexを使用しないクエリの実行時にVTgateがシャードを判断するためのVIndexです。
VIndexを使用できないクエリはすべてのシャードに実行されることになります。

Vitessの初期化

では前提の説明も終わりましたので早速始めましょう。

ドキュメントに従い、vitessのリポジトリクローン, kubectl, Helm2, etcd-operatorのインストールを完了します。
水平シャーディングのチュートリアルに沿って検証を行います。

水平シャーディングについてのマニフェストは、301_customer_sharded.yaml以降の項番ですが、前提として以下の記載がありますので、駆け足で設定を進めます。

This guide follows on from Vertical Split and Get Started with a Local deployment. It assumes that several scripts have been executed, and you have a running Vitess cluster.

まずはVittesを基本的な構成で起動します。

EKS上のポートをlocalhostに転送するために接続用に3306ポートのport-forwardを有効化しました。

以下のコマンドを実行すると、準備は完了です。
なお、各upgradeは操作をkubernatesに伝えた時点で制御が返りますが、実際に行われる更新についてはkubenates上である程度時間を要します。
前の処理完了前に次の処理を実行してしまわないようにご注意ください。

準備が正常に完了した場合、以下の状態となります。

シーケンス、VIndexの作成とシャーディングの有効化

シーケンス、VIndexの作成とキースペース(customer)のシャーディングの有効化のために example/helm/301_customer_sharded.yaml を新たに適用します。

schema > seqの箇所に指定されているDDLは実際にcommerceスキーマにシーケンスを作成するために使用されます。
vschema > seqの箇所に指定されているJSONは、vtgateにシーケンスの存在を知らせるために定義されています。
シーケンスを作成するキースペースはシャーディングされていない必要があります。

customerスキーマでは実際に前述のシーケンスを使用するための関連付けが行われています。
customerスキーマに"sharded": true をつけることで水平シャーディングを有効化しています。
また、同時にcustomer/0.customer.costomer_id、customer/0.corder.customer_idに"type": "hash"のVIndexを付与しています。

VSchemaによりシーケンス、及びtype: hashのVIndexを使用したシャーディングの準備ができました。

シャードの追加

実際にcustomerキースペースをシャード分割します。

以下では、
1. shard 0, -80, 80- を追加
2. 各シャードに対応するtabletを追加
という事をしています。

各シャードのnameは値の範囲を意味します。
前述のtype: hashのVIndexは、入力値に対して16進数で表される8byteの数値を返します。
値の範囲は0x0000000000000000-0xFFFFFFFFFFFFFFFFです。
nameには、0xをのぞいて-で区切った範囲を指定します。
0x8000000000000000(-80, 80-)は中央値となりますので、2つ目のシャードと3つ目のシャードに半々にデータが格納されます。
copySchemaは、シャーディングするデータをコピーする際の定義です。
sourceにcustomer/0を指定しています。

適用後にtabletが作成されているはずです。

まだ定義をしたのみですので、データはシャーディングされたキースペースに格納されていません。

データのクローン

データを各シャードにコピーするために以下のマニフェストを適用します。

適用すると、SplitCloneが実行され、シャード内データが生成されます。

具体的には、
1. commerce/0のrdonly podからシャードされたデータをコピー
2. rdonly podのレプリケーションを停止し、最終同期
3. commerce/0の更新トラフィックを各シャードにレプリケートするプロセスを起動し、同期開始
という手順を踏みます。

ここまででシャーディング自体は行う事ができましたが、まだvtgateはシャード用tabletにトラフィックをルーティングしませんので、データを確認することはできません。

トラフィックのカットオーバ

vtgateからシャードを担当するTabletへのトラフィックルーティングを有効化するために、カットオーバを行います。

カットオーバは、以下のJOBで行われます。

rdonlyの部分は、replica, masterなど対象のタブレット名を指定します。
早速実行します。

カットオーバが完了すると、rdonly, replicaタブレットへの接続が可能となります。

特にデータに問題がなく、継続して更新されているようであればmasterをカットオーバします。

無事シャーディングされたデータが確認できました。

クリーンアップ

最後にソーススキーマとなったcustomer/0を削除します。
以下のマニフェストは、今までのKeyspace定義からcustomer/0を削除した内容です。
これを実行すると、customer/0に関連したTabletは削除されます。
show vitess_tablets コマンド等で確認してみてください。

Tabletは削除されましたが、関連メタデータが残っているため以下で削除します。

具体的なJOBは以下です。

まとめ

いくつものPodが連携しあってシャーディングを実現しているため、パーティショニングのような機能よりも手間はかかるという印象ですが、
KubernatesとHelmを使って準備された手順で宣言的に変更を適用していく方式は作業者にとっては安心材料になり得るかもしれませんね。

Kubernates力の低い私でも最後までやりきる事ができましたので、意外と敷居は低いのではないかと感じました。

RDBMSはWrite Scaleしないという状況に一石を投じるようなソリューションで、今後に大いに期待できます!

オンプレミスのKubernatesとなると若干敷居が高いですが、最近ではパブリッククラウドでもマネージドなKubernatesが簡単に使用できる時代になりましたので、お気軽にお試し頂ければ嬉しいです。

Enjoy the Vitess!


SmartStyle

 

Return Top