Tanzu Kubernetes Grid サービス v1alpha2 API を使用して Tanzu Kubernetes クラスタをプロビジョニングするには、要件のリスト全体に従います。

TKGS v1alpha2 API を使用するための要件

Tanzu Kubernetes Grid サービス v1alpha2 API では、Tanzu Kubernetes クラスタをプロビジョニングするための堅牢な機能強化セットが提供されています。詳細については、『Tanzu Kubernetes クラスタをプロビジョニングするための TKGS v1alpha2 API』を参照してください。

Tanzu Kubernetes Grid サービス v1alpha2 API によって提供される新機能を利用するには、使用環境が次の各要件を満たしている必要があります。

要件 リファレンス
NSX-T Data Center またはネイティブ vSphere Distributed Switch のいずれかのサポート対象ネットワークで、 [ワークロード管理] が有効になっています。
注: 機能によっては、特定のタイプのネットワークが必要になる場合があります。その場合は、この機能のトピックを参照してください。

vSphere クラスタで vSphere with Tanzu を構成するための前提条件を参照してください。

NSX-T Data Center ネットワークを使用したワークロード管理の有効化を参照してください。

vSphere ネットワークを使用したワークロード管理の有効化を参照してください。

[ワークロード管理] をホストする vCenter Server は、バージョン 7 Update 3 以降にアップデートされています。

[vCenter Server のアップデート リリースとパッチ リリース]に関するリリース ノートを参照してください。

更新手順については、vCenter Server Appliance のアップグレードを参照してください。

[ワークロード管理]が有効になっている vCenter Server クラスタをサポートするすべての ESXi ホストが、バージョン 7 Update 3 以降にアップデートされています。

[ESXi のアップデート リリースとパッチ リリースに関するリリース ノート]を参照してください。

更新手順については、ESXi ホストのアップグレードを参照してください。

vSphere 名前空間 は、v0.0.11 以降に更新されています。

リリースの詳細については、vSphere with Tanzu リリース ノートを参照してください。

更新手順については、vSphere with Tanzu 環境の更新を参照してください。

スーパーバイザー クラスタ は、v1.21.0+vmware.wcp.2 以降に更新されています。

リリースの詳細については、vSphere with Tanzu リリース ノートを参照してください。

更新手順については、vSphere 名前空間の更新の実行による スーパーバイザー クラスタ の更新を参照してください。

Tanzu Kubernetes リリース v1.21.2---vmware.1-tkg.1.ee25d55 以降を使用する必要があります。

リリースの詳細については、更新のための Tanzu Kubernetes クラスタ互換性の確認を参照してください。

新しいクラスタをプロビジョニングする手順については、TKGS v1alpha2 API を使用して Tanzu Kubernetes クラスタをプロビジョニングする YAML の例を参照してください。

既存のクラスタを更新する手順については、クラスタ仕様を TKGS v1alpha2 API に変換した後の Tanzu Kubernetes リリースの更新を参照してください。

ノード制限に関する CNI の考慮事項

クラスタ仕様の設定 spec.settings.network.pods.cidrBlocks のデフォルトは 192.168.0.0/16 です。Tanzu Kubernetes クラスタをプロビジョニングするための TKGS v1alpha2 APIを参照してください。

カスタマイズする場合、ポッドの CIDR ブロックの最小サイズは /24 です。ただし、/16 を超える pods.cidrBlocks サブネット マスクを制限する場合は注意が必要です。

TKGS は、pods.cidrBlocks から取得された /24 サブネットを各クラスタ ノードに割り当てます。この割り当てを指定するには、Kubernetes Controller Manager を選択し、NodeCIDRMaskSize という名前の NodeIPAMController パラメータを指定して、クラスタ内のノード CIDR のサブネット マスク サイズを設定します。IPv4 のデフォルトのノード サブネット マスクは /24 です。

クラスタ内の各ノードは pods.cidrBlocks から /24 サブネットを取得するため、プロビジョニングするクラスタに対して制限が厳しすぎるサブネット マスク サイズを使用すると、ノードの IP アドレスが不足する可能性があります。

Antrea または Calico CNI でプロビジョニングされた Tanzu Kubernetes クラスタには、次のノード制限が適用されます。

/16 == 最大 150 ノード(ConfigMax あたり)

/17 == 最大 128 ノード

/18 == 最大 64 ノード

/19 == 最大 32 ノード

/20 == 最大 16 ノード

/21 == 最大 8 ノード

/22 == 最大 4 ノード

/23 == 最大 2 ノード

/24 == 最大 1 ノード