VMware Cloud Foundation は、仮想ネットワークに vSphere Distributed Switch を使用します。

VMware Cloud Foundation の論理 vSphere ネットワーク設計

vSphere ネットワークを設計する場合は、VMware Cloud Foundation 環境内の vSphere Distributed Switch、分散ポート グループ、および VMkernel アダプタの構成を考慮します。

vSphere Distributed Switch の設計

ワークロード ドメイン内のデフォルトクラスタは、単一のvSphere Distributed Switchを使用し、システム トラフィック タイプ、NIC チーミング、および MTU サイズの構成を行います。

VMware Cloud Foundation は、クラスタごとに単一の vSphere Distributed Switch を介した NSX トラフィックをサポートします。他のトラフィック タイプでは、追加の Distributed Switch がサポートされます。

vSAN ReadyNode を使用する場合は、ワークロード ドメインのデプロイ時に distributed Switch の数vSphere定義する必要があります。デプロイ後に Distributed Switch vSphereを追加することはできません。

表 1. VMware Cloud Foundation の vSphere Distributed Switch の構成オプション

vSphere Distributed Switch 構成

管理ドメイン

VI ワークロード ドメイン

メリット

デメリット

単一の vSphere Distributed Switch

  • すべてのトラフィックに対して 1 つのvSphere Distributed Switch

  • すべてのトラフィックの vSphere Distributed Switch (VDS)

必要な物理 NIC とスイッチ ポートの数が最小です。

すべてのトラフィックが同じアップリンクを共有します。

複数の vSphere Distributed Switch

  • Cloud Builder の展開パラメータ ワークブックを使用して、NSX トラフィックに最大 1 つの vSphere Distributed Switch、NSX 以外のトラフィックに 1 つの vSphere Distributed Switch。

  • Cloud Builder の JSON ファイルを使用して、NSX トラフィックに最大 1 つの vSphere Distributed Switch、NSX 以外のトラフィックに最大 2 つの vSphere Distributed Switch を使用します。

  • SDDC Manager ユーザー インターフェイスを使用して、NSX トラフィックに対して最大 1 つの vSphere Distributed Switch。

  • SDDC Manager API を使用して、NSX以外のトラフィック用の最大 15 個の追加のvSphere Distributed Switch。

異なるアップリンクまたは vSphere Distributed Switch 間のトラフィック分離をサポートします。

追加の物理 NIC とスイッチ ポートを指定する必要があります。

注:

最初のvSphere Distributed Switchのアップリンクとして vminc0 および vmnic1 以外の物理 NIC を使用するには、Cloud Builder での管理ドメインの展開に JSON ファイルを使用するか、VI ワークロード ドメインの展開に SDDC Manager API を使用する必要があります。

複数のアベイラビリティ ゾーンを持つ展開では、新しいネットワークを指定するか、既存のネットワークを拡張する必要があります。

分散ポート グループの設計

VMware Cloud Foundation には、ワークロード ドメインの vSphere Distributed Switch に複数のポート グループが必要です。ホスト TEP の VMkernel アダプタはホスト オーバーレイ VLAN に接続されていますが、Distributed Switch の専用ポート グループは必要ありません。ESXi ホストをトランスポート ノードとして構成すると、ホスト TEP の VMkernel ネットワーク アダプタが自動的に作成されます。

表 2. VMware Cloud Foundation の分散ポート グループ構成

機能

チーミング ポリシー

物理 NIC ポートの数

MTU サイズ(バイト)

  • 管理

  • vSphere vMotion

  • vSAN

物理 NIC ロードに基づいたルート

  • フェイルオーバー検出: リンク ステータスのみ

  • フェイルバック:はい

    アクティブ アップリンクの飽和状態でのみ発生します。

  • スイッチへの通知:はい

  • Cloud Builder で展開パラメータ ワークブックを使用して、管理ドメインに最大 4 つのポート。

  • SDDC Manager ユーザー インターフェイスを使用して、VI ワークロード ドメインに最大 2 つのポート。

  • すべてのドメイン タイプで、API を使用して最大 6 つのポート。

  • 1,700 以上

  • 9,000 推奨

  • ホスト オーバーレイ

該当なし

  • Edge アップリンクとオーバーレイ

明示的なフェイルオーバー順序を使用します。

  • Edge RTEP(NSX フェデレーションのみ)

該当なし

VMkernel ネットワーク アダプタの設計

VMkernel ネットワーク レイヤーは、ホストへの接続を提供し、管理、vSphere vMotion、vSphere HA、vSANなどのシステム トラフィックを処理します。

表 3. アベイラビリティ ゾーンごとのワークロード ドメインのデフォルトの VMkernel アダプタ

VMkernel アダプタ サービス

接続されたポート グループ

有効化されたサービス

推奨される MTU サイズ(バイト)

管理

管理ポート グループ

管理トラフィック

1,500(デフォルト)

vMotion

vMotion ポート グループ

vMotion のトラフィック

9000

vSAN

vSAN ポート グループ

vSAN

9000

ホスト TEP

該当なし

該当なし

9000

VMware Cloud Foundation の vSphere ネットワーク設計の推奨事項

MTU サイズ、ポートのバインド、チーミング ポリシー、トラフィック固有のネットワーク共有など、VMware Cloud Foundation の vSphere ネットワークに関する推奨事項を考慮します。

表 4. VMware Cloud Foundation の vSphere ネットワーク設計の推奨事項

推奨 ID

設計の推奨事項

理由

影響

VCF-VDS-RCMD-CFG-001

1 つのクラスタに 1 つの vSphere Distributed Switch を使用します。

  • ネットワーク設計の複雑さを減らします。

  • フォルト ドメインのサイズを減らします。

管理する必要がある vSphere Distributed Switch の数を増やします。

VCF-VDS-RCMD-CFG-002

ジャンボ フレーム用に、vSphere Distributed Switch の MTU サイズを 9,000 に設定します。

  • システム トラフィック タイプに必要な MTU サイズをサポートします。

  • トラフィックのスループットを向上します。

MTU パケット サイズを調整する場合は、ネットワーク パス全体(VMkernel ポート、仮想スイッチ、物理スイッチ、ルーター)も同じ MTU パケット サイズをサポートするように構成する必要があります。

VCF-VDS-RCMD-DPG-001

管理ポート グループに短期ポート バインドを使用します。

短期ポート バインドを使用すると、分散スイッチを管理している vCenter Server インスタンスをリカバリできます。

ポート レベルの権限およびコントロールはパワーオフすると失われます。そのため、履歴コンテキストが保存されません。

VCF-VDS-RCMD-DPG-002

すべての非管理ポート グループに静的ポートのバインドを使用します。

静的バインドにより、仮想マシンが vSphere Distributed Switch 上の同じポートに確実に接続されます。これにより、履歴データとポート レベルの監視が可能になります。

なし。

VCF-VDS-RCMD-DPG-003

管理ポート グループに Route based on physical NIC load チーミング アルゴリズムを使用します。

ネットワーク設計の複雑さを軽減し、回復性とパフォーマンスを向上します。

なし。

VCF-VDS-RCMD-DPG-004

vSphere vMotion ポート グループに Route based on physical NIC load チーミング アルゴリズムを使用します。

ネットワーク設計の複雑さを軽減し、回復性とパフォーマンスを向上します。

なし。

VCF-VDS-RCMD-NIO-001

管理ドメイン クラスタの vSphere Distributed Switch で Network I/O Control を有効にします

ネットワークの回復性とパフォーマンスを向上します。

正しく構成されていない場合、Network I/O Control は重要なトラフィック タイプのネットワーク パフォーマンスに影響を与える可能性があります。

VCF-VDS-RCMD-NIO-002

管理トラフィックのシェア値を [標準] に設定します。

デフォルト設定の [標準] を維持することで、管理トラフィックの優先順位は vSphere vMotion よりも高くなりますが、vSAN トラフィックよりも低くなります。管理トラフィックは、ネットワークの競合時にホストを引き続き管理できるようにするため重要です。

なし。

VCF-VDS-RCMD-NIO-003

vSphere vMotion トラフィックのシェア値を [低] に設定します。

ネットワーク競合が発生している間、vSphere vMotion トラフィックは仮想マシンまたはストレージ トラフィックほど重要ではありません。

ネットワーク競合が発生している間、vMotion は、完了するまでに通常よりも長い時間がかかります。

VCF-VDS-RCMD-NIO-004

仮想マシンのシェア値を [高] に設定します。

仮想マシンは、SDDC で最も重要な資産です。デフォルト設定の [高] のままにしておくと、必要なときにいつでもネットワーク リソースにアクセスできます。

なし。

VCF-VDS-RCMD-NIO-005

vSAN トラフィックのシェア値を [高] に設定します。

ネットワーク競合が発生している間、vSAN トラフィックは、仮想マシンのパフォーマンスをサポートするため、保証された帯域幅を必要とします。

なし。

VCF-VDS-RCMD-NIO-006

他のトラフィック タイプのシェア値を [低] に設定します。

デフォルトでは、VMware Cloud Foundation は、vSphere FT トラフィックなどの他のトラフィック タイプを使用しません。したがって、これらのトラフィック タイプには最も低い優先順位を設定できます。

なし。