VMware Cloud Foundation は、仮想ネットワークに vSphere Distributed Switch を使用します。

VMware Cloud Foundation の論理 vSphere ネットワーク設計

vSphere ネットワークを設計する場合は、VMware Cloud Foundation 環境内の vSphere Distributed Switch、分散ポート グループ、および VMkernel アダプタの構成を考慮します。

vSphere Distributed Switch の設計

ワークロード ドメイン内のデフォルトクラスタは、単一のvSphere Distributed Switchを使用し、システム トラフィック タイプ、NIC チーミング、および MTU サイズの構成を行います。

VMware Cloud Foundation は、クラスタごとに単一の vSphere Distributed Switch を介した NSX オーバーレイ トラフィックをサポートします。他のトラフィック タイプでは、追加の Distributed Switch がサポートされます。

vSAN ReadyNode を使用する場合は、ワークロード ドメインのデプロイ時に distributed Switch の数vSphere定義する必要があります。デプロイ後に Distributed Switch vSphereを追加することはできません。

表 1. VMware Cloud Foundation の vSphere Distributed Switch の構成オプション

vSphere Distributed Switch 構成

管理ドメイン オプション

VI ワークロード ドメイン オプション

メリット

デメリット

2 つの物理 NIC を持つホストの単一の vSphere Distributed Switch

  • すべてのトラフィックが 2 つのアップリンクを使用するクラスタごとに 1 つの vSphere Distributed Switch。

  • すべてのトラフィックが 2 つのアップリンクを使用するクラスタごとに 1 つの vSphere Distributed Switch。

必要な物理 NIC とスイッチ ポートの数が最小です。

すべてのトラフィックが同じ 2 つのアップリンクを共有します。

4 つまたは 6 つの物理 NIC を持つホストの単一の vSphere Distributed Switch

  • 4 つのアップリンクを持つクラスタごとに 1 つの vSphere Distributed Switch。VMware Cloud Builder の展開パラメータ ワークブックの事前定義プロファイルを使用してデフォルトの管理クラスタを展開します。

  • 4 つまたは 6 つのアップリンクを持つクラスタごとに 1 つの vSphere Distributed Switch。VMware Cloud Builder API を使用してデフォルトの管理クラスタを展開します。

  • 4 つまたは 6 つのアップリンクを持つクラスタごとに 1 つの vSphere Distributed Switch。

  • 異なるアップリンク間のトラフィックの分離をサポートします。

  • 追加の物理 NIC とスイッチ ポートを指定する必要があります。

複数の vSphere Distributed Switch

  • 最大 2 つの vSphere Distributed Switch。VMware Cloud Builder の展開パラメータ ワークブックの事前定義プロファイルを使用してデフォルトの管理クラスタを展開します。

  • クラスタごとに最大 16 の vSphere Distributed Switch。VMware Cloud Builder API を使用して、vSphere Distributed Switch と物理 NIC 構成の組み合わせを使用してデフォルトの管理クラスタを展開します。これらは、展開パラメータ ワークブックの事前定義プロファイルとして使用できません。

  • NSX オーバーレイ トラフィックには、vSphere Distributed Switch の 1 つのみを使用できます。

  • クラスタごとに最大 16 の vSphere Distributed Switch。

  • NSX オーバーレイ トラフィックには、vSphere Distributed Switch の 1 つのみを使用できます。

  • 異なるアップリンクまたは vSphere Distributed Switch 間のトラフィック分離をサポートします。

  • 異なる物理ネットワーク ファブリックへのトラフィックの分離をサポートします。

  • 追加の物理 NIC とスイッチ ポートを指定する必要があります。

  • 追加の構成と管理オーバーヘッドにより複雑さが増します。

分散ポート グループの設計

VMware Cloud Foundation には、ワークロード ドメインの vSphere Distributed Switch に複数のポート グループが必要です。NSX ホスト TEP の VMkernel アダプタはホスト オーバーレイ ネットワークに接続されていますが、Distributed Switch の専用ポート グループは必要ありません。 VMware Cloud Foundation が ESXi ホストを NSX トランスポート ノードとして構成すると、NSX ホスト TEP の VMkernel ネットワーク アダプタが自動的に作成されます。
表 2. VMware Cloud Foundation の分散ポート グループ構成

機能

チーミング ポリシー

構成

  • 仮想マシン管理

  • ホストの管理

  • vSphere vMotion
  • vSAN

  • NFS(管理ドメインのデフォルト クラスタには適用されません)

物理 NIC ロードに基づいたルート。

推奨。

  • フェイルオーバー検出: リンク ステータスのみ

  • フェイルバック:はい

    アクティブ アップリンクの飽和状態でのみ発生します。

  • スイッチへの通知:はい

推奨。

  • ホスト オーバーレイ

該当なし

該当なし

  • Edge アップリンクとオーバーレイ

明示的なフェイルオーバー順序を使用します。

必須。

  • Edge RTEP(NSX フェデレーションのみ)

該当なし

該当なし

VMkernel ネットワーク アダプタの設計

VMkernel ネットワーク レイヤーは、ホストへの接続を提供し、管理、vSphere vMotion、vSphere HA、vSAN、NFS などのシステム トラフィックを処理します。

表 3. ワークロード ドメイン ホストの VMkernel アダプタ

VMkernel アダプタ サービス

接続されたポート グループ

有効化されたサービス

推奨される MTU サイズ(バイト)

管理

管理ポート グループ

管理トラフィック

1,500(デフォルト)

vMotion

vMotion ポート グループ

vMotion のトラフィック

9000

vSAN

vSAN ポート グループ

vSAN

9000

NFS

NFS ポート グループ

NFS

9000

ホスト TEP

該当なし

該当なし

9000

vSphere Distributed Switch のデータ パス モード

vSphere Distributed Switch は、標準データパス、拡張データパス割り込み、拡張データパスの 3 つのデータ パス モードをサポートします。データ パスは、ESXi クラスタへの NSX のインストール中に NSX トランスポート ノード プロファイルが適用されたときに、vSphere Distributed Switch で構成されるネットワーク スタック モードです。各データ パス モードには、クラスタで実行されている特定のワークロードに適したパフォーマンス特性があります。次の表に、VMware Cloud Foundation で使用可能なさまざまなモードと、各モードで推奨されるクラスタ ワークロード タイプの詳細を示します。

表 4. VMware Cloud Foundation のデータ パス モード

データ パス モード名

説明

ユースケース

要件

標準

  • デフォルトでは、標準データパスがインストールされます。これは、大きなフローを含むアプリケーションに対処するように設計されています。

  • 標準データパスの CPU 使用率はオンデマンドです。NSX Edge などの高いパケット処理要件を持つアプリケーションの場合、標準データパスでは大幅な調整が必要です。

コンピューティング ワークロード ドメインまたはクラスタ

ドライバとファームウェアの組み合わせは、I/O デバイスの VMware 互換性ガイドに記載されていて、次の機能をサポートしている必要があります。

  • Geneve オフロード

  • Geneve Rx/Tx フィルタまたは RSS

拡張データパス割り込み

(NSX Manager ユーザー インターフェイスでは [拡張データパス - 標準] と呼ばれます)

  • 拡張データパス割り込みは、既存の標準データパスのオンデマンド CPU 使用率の柔軟性と、パフォーマンスのためのデータ プレーン開発キット (DPDK) のような機能を組み合わせたパフォーマンス指向のデータ パスです。

  • このモードでは、必要に応じて、パケット処理のコア使用率が自動的にスケールアップおよびスケールダウンされます。

  • 拡張データパス割り込みは、特に、NSX Edge などのパケット処理に重点を置く小規模なフローに対してパフォーマンス特性が実証されており、追加の調整は必要ありません。

NSX Edge ノードを実行している vSphere クラスタ

ドライバとファームウェアの組み合わせは、拡張データパス - 割り込みモードのサポートを備えた I/O デバイスの VMware 互換性ガイドに記載されている必要があります。

拡張データパス

(NSX Manager ユーザー インターフェイスでは [拡張データパス - パフォーマンス] と呼ばれます)

  • 拡張データパス モードは、ネットワーク データ パス処理用の専用 CPU コアを含む、DPDK のようなパフォーマンス機能を利用するパフォーマンス指向のデータ パスです。

  • このモードは、トラフィック パターンとパフォーマンス要件が適切に定義されているワークロードに最適です。

  • このモードは、コア割り当ての観点から修正され、必要に応じて自動スケールアップまたはスケールダウンを行うことはしません。ネットワーク トラフィックがない場合でも、データ パスに割り当てられたコアはワークロードで使用できません。

  • コアにワークロードの正確なサイジングが事前に割り当てられていない限り、パケット処理に十分なコアがない可能性があります。

Telco または NFV ワークロード

ドライバとファームウェアの組み合わせは、拡張データパス - ポーリング モードのサポートを備えた I/O デバイスの VMware 互換性ガイドに記載されている必要があります。

VMware Cloud Foundation の vSphere ネットワーク設計の要件と推奨事項

分散ポート グループ構成、MTU サイズ、ポートのバインド、チーミング ポリシー、トラフィック固有のネットワーク共有など、VMware Cloud Foundation の vSphere ネットワークに関する要件と推奨事項を考慮します。

VMware Cloud Foundation の vSphere ネットワーク設計の要件

VMware Cloud Foundation の vSphere ネットワーク設計では、次の設計要件を満たす必要があります。

表 5. VMware Cloud Foundation に対するマルチラック コンピューティング VI ワークロード ドメイン クラスタの vSphere ネットワーク設計の要件

要件 ID

設計の要件

理由

影響

VCF-VDS-L3MR-REQD-CFG-001

ラックごとに、次のトラフィック タイプのクラスタの vSphere Distributed Switch にポート グループを作成します。

  • ホストの管理

  • vSAN

  • vSphere vMotion

ラックごとに個別の VLAN を使用する場合に必要です。

なし。

VMware Cloud Foundation の vSphere ネットワーク設計の推奨事項

VMware Cloud Foundation の vSphere ネットワーク設計では、vSphere Distributed Switch および分散ポート グループに特定のベスト プラクティスを適用できます。

表 6. VMware Cloud Foundation の vSphere ネットワーク設計の推奨事項

推奨 ID

設計の推奨事項

理由

影響

VCF-VDS-RCMD-CFG-001

1 つのクラスタに 1 つの vSphere Distributed Switch を使用します。

  • ネットワーク設計の複雑さを減らします。

クラスタごとに管理する必要がある vSphere Distributed Switch の数を減らします。

VCF-VDS-RCMD-CFG-002

クラスタ間で vSphere Distributed Switch を共有しないでください。

  • クラスタごとに vSphere Distributed Switch の独立したライフサイクル管理を有効にします。

  • フォルト ドメインのサイズを減らします。

複数のクラスタの場合は、より多くの vSphere Distributed Switch を管理します。

VCF-VDS-RCMD-CFG-003

ジャンボ フレーム用に、vSphere Distributed Switch の MTU サイズを 9,000 に設定します。

  • システム トラフィック タイプに必要な MTU サイズをサポートします。

  • トラフィックのスループットを向上します。

MTU パケット サイズを調整する場合は、ネットワーク パス全体(VMkernel ポート、仮想スイッチ、物理スイッチ、ルーター)も同じ MTU パケット サイズをサポートするように構成する必要があります。

VCF-VDS-RCMD-DPG-001

仮想マシン管理ポート グループに短期ポート バインドを使用します。

短期ポート バインドを使用すると、分散スイッチを管理している vCenter Server インスタンスをリカバリできます。

仮想マシン管理ネットワークは、VI ワークロード ドメイン内のマルチラック コンピューティング専用クラスタには必要ありません。

ポート レベルの権限およびコントロールはパワーオフすると失われます。そのため、履歴コンテキストが保存されません。

VCF-VDS-RCMD-DPG-002

すべての非管理ポート グループに静的ポートのバインドを使用します。

静的バインドにより、仮想マシンが vSphere Distributed Switch 上の同じポートに確実に接続されます。この構成では、履歴データとポートレベルの監視がサポートされます。

なし。

VCF-VDS-RCMD-DPG-003

  • 仮想マシン管理ポート グループに Route based on physical NIC load チーミング アルゴリズムを使用します。

  • コンピューティング専用の L3 マルチラック展開では、仮想マシン管理ネットワークは必要ありません。

ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。

なし。

VCF-VDS-RCMD-DPG-004

ESXi 管理ポート グループに Route based on physical NIC load チーミング アルゴリズムを使用します。

ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。

なし。

VCF-VDS-RCMD-DPG-005

vSphere vMotion ポート グループに Route based on physical NIC load チーミング アルゴリズムを使用します。

ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。

なし。

VCF-VDS-RCMD-DPG-006

vSAN ポート グループに Route based on physical NIC load チーミング アルゴリズムを使用します。

ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。

なし。

VCF-VDS-RCMD-NIO-001

管理ドメイン クラスタの vSphere Distributed Switch で Network I/O Control を有効にします。

NSX Edge ノードの専用 vSphere クラスタで Network I/O Control を有効にしないでください。

ネットワークの回復性とパフォーマンスを向上します。

正しく構成されていない場合、Network I/O Control は重要なトラフィック タイプのネットワーク パフォーマンスに影響を与える可能性があります。

VCF-VDS-RCMD-NIO-002

管理トラフィックのシェア値を [標準] に設定します。

デフォルト設定の [標準] を維持することで、管理トラフィックの優先順位は vSphere vMotion よりも高くなりますが、vSAN トラフィックよりも低くなります。管理トラフィックは、ネットワークの競合時にホストを引き続き管理できるようにするため重要です。

なし。

VCF-VDS-RCMD-NIO-003

vSphere vMotion トラフィックのシェア値を [低] に設定します。

ネットワーク競合が発生している間、vSphere vMotion トラフィックは仮想マシンまたはストレージ トラフィックほど重要ではありません。

ネットワーク競合が発生している間、vMotion は、完了するまでに通常よりも長い時間がかかります。

VCF-VDS-RCMD-NIO-004

仮想マシンのシェア値を [高] に設定します。

仮想マシンは、SDDC で最も重要な資産です。デフォルト設定の [高] のままにしておくと、必要なときにいつでもネットワーク リソースにアクセスできます。

なし。

VCF-VDS-RCMD-NIO-005

vSAN トラフィックのシェア値を [高] に設定します。

ネットワーク競合が発生している間、vSAN トラフィックは、仮想マシンのパフォーマンスをサポートするため、保証された帯域幅を必要とします。

なし。

VCF-VDS-RCMD-NIO-006

他のトラフィック タイプのシェア値を [低] に設定します。

デフォルトでは、VMware Cloud Foundation は、vSphere FT トラフィックなどの他のトラフィック タイプを使用しません。したがって、これらのトラフィック タイプには最も低い優先順位を設定できます。

なし。