VMware Cloud Foundation は、仮想ネットワークに vSphere Distributed Switch を使用します。
VMware Cloud Foundation の論理 vSphere ネットワーク設計
vSphere ネットワークを設計する場合は、VMware Cloud Foundation 環境内の vSphere Distributed Switch、分散ポート グループ、および VMkernel アダプタの構成を考慮します。
vSphere Distributed Switch の設計
ワークロード ドメイン内のデフォルトクラスタは、単一のvSphere Distributed Switchを使用し、システム トラフィック タイプ、NIC チーミング、および MTU サイズの構成を行います。
VMware Cloud Foundation は、クラスタごとに単一の vSphere Distributed Switch を介した NSX トラフィックをサポートします。他のトラフィック タイプでは、追加の Distributed Switch がサポートされます。
vSAN ReadyNode を使用する場合は、ワークロード ドメインのデプロイ時に distributed Switch の数vSphere定義する必要があります。デプロイ後に Distributed Switch vSphereを追加することはできません。
vSphere Distributed Switch 構成 |
管理ドメイン |
VI ワークロード ドメイン |
メリット |
デメリット |
---|---|---|---|---|
単一の vSphere Distributed Switch |
|
|
必要な物理 NIC とスイッチ ポートの数が最小です。 |
すべてのトラフィックが同じアップリンクを共有します。 |
複数の vSphere Distributed Switch |
|
|
異なるアップリンクまたは vSphere Distributed Switch 間のトラフィック分離をサポートします。 |
追加の物理 NIC とスイッチ ポートを指定する必要があります。 |
最初のvSphere Distributed Switchのアップリンクとして vminc0 および vmnic1 以外の物理 NIC を使用するには、Cloud Builder での管理ドメインの展開に JSON ファイルを使用するか、VI ワークロード ドメインの展開に SDDC Manager API を使用する必要があります。
複数のアベイラビリティ ゾーンを持つ展開では、新しいネットワークを指定するか、既存のネットワークを拡張する必要があります。
分散ポート グループの設計
VMware Cloud Foundation には、ワークロード ドメインの vSphere Distributed Switch に複数のポート グループが必要です。ホスト TEP の VMkernel アダプタはホスト オーバーレイ VLAN に接続されていますが、Distributed Switch の専用ポート グループは必要ありません。ESXi ホストをトランスポート ノードとして構成すると、ホスト TEP の VMkernel ネットワーク アダプタが自動的に作成されます。
機能 |
チーミング ポリシー |
物理 NIC ポートの数 |
MTU サイズ(バイト) |
---|---|---|---|
|
物理 NIC ロードに基づいたルート
|
|
|
|
該当なし |
||
|
明示的なフェイルオーバー順序を使用します。 |
||
|
該当なし |
VMkernel ネットワーク アダプタの設計
VMkernel ネットワーク レイヤーは、ホストへの接続を提供し、管理、vSphere vMotion、vSphere HA、vSANなどのシステム トラフィックを処理します。
VMkernel アダプタ サービス |
接続されたポート グループ |
有効化されたサービス |
推奨される MTU サイズ(バイト) |
---|---|---|---|
管理 |
管理ポート グループ |
管理トラフィック |
1,500(デフォルト) |
vMotion |
vMotion ポート グループ |
vMotion のトラフィック |
9000 |
vSAN |
vSAN ポート グループ |
vSAN |
9000 |
ホスト TEP |
該当なし |
該当なし |
9000 |
VMware Cloud Foundation の vSphere ネットワーク設計の推奨事項
MTU サイズ、ポートのバインド、チーミング ポリシー、トラフィック固有のネットワーク共有など、VMware Cloud Foundation の vSphere ネットワークに関する推奨事項を考慮します。
推奨 ID |
設計の推奨事項 |
理由 |
影響 |
---|---|---|---|
VCF-VDS-RCMD-CFG-001 |
1 つのクラスタに 1 つの vSphere Distributed Switch を使用します。 |
|
管理する必要がある vSphere Distributed Switch の数を増やします。 |
VCF-VDS-RCMD-CFG-002 |
ジャンボ フレーム用に、vSphere Distributed Switch の MTU サイズを 9,000 に設定します。 |
|
MTU パケット サイズを調整する場合は、ネットワーク パス全体(VMkernel ポート、仮想スイッチ、物理スイッチ、ルーター)も同じ MTU パケット サイズをサポートするように構成する必要があります。 |
VCF-VDS-RCMD-DPG-001 |
管理ポート グループに短期ポート バインドを使用します。 |
短期ポート バインドを使用すると、分散スイッチを管理している vCenter Server インスタンスをリカバリできます。 |
ポート レベルの権限およびコントロールはパワーオフすると失われます。そのため、履歴コンテキストが保存されません。 |
VCF-VDS-RCMD-DPG-002 |
すべての非管理ポート グループに静的ポートのバインドを使用します。 |
静的バインドにより、仮想マシンが vSphere Distributed Switch 上の同じポートに確実に接続されます。これにより、履歴データとポート レベルの監視が可能になります。 |
なし。 |
VCF-VDS-RCMD-DPG-003 |
管理ポート グループに |
ネットワーク設計の複雑さを軽減し、回復性とパフォーマンスを向上します。 |
なし。 |
VCF-VDS-RCMD-DPG-004 |
vSphere vMotion ポート グループに |
ネットワーク設計の複雑さを軽減し、回復性とパフォーマンスを向上します。 |
なし。 |
VCF-VDS-RCMD-NIO-001 |
管理ドメイン クラスタの vSphere Distributed Switch で Network I/O Control を有効にします |
ネットワークの回復性とパフォーマンスを向上します。 |
正しく構成されていない場合、Network I/O Control は重要なトラフィック タイプのネットワーク パフォーマンスに影響を与える可能性があります。 |
VCF-VDS-RCMD-NIO-002 |
管理トラフィックのシェア値を [標準] に設定します。 |
デフォルト設定の [標準] を維持することで、管理トラフィックの優先順位は vSphere vMotion よりも高くなりますが、vSAN トラフィックよりも低くなります。管理トラフィックは、ネットワークの競合時にホストを引き続き管理できるようにするため重要です。 |
なし。 |
VCF-VDS-RCMD-NIO-003 |
vSphere vMotion トラフィックのシェア値を [低] に設定します。 |
ネットワーク競合が発生している間、vSphere vMotion トラフィックは仮想マシンまたはストレージ トラフィックほど重要ではありません。 |
ネットワーク競合が発生している間、vMotion は、完了するまでに通常よりも長い時間がかかります。 |
VCF-VDS-RCMD-NIO-004 |
仮想マシンのシェア値を [高] に設定します。 |
仮想マシンは、SDDC で最も重要な資産です。デフォルト設定の [高] のままにしておくと、必要なときにいつでもネットワーク リソースにアクセスできます。 |
なし。 |
VCF-VDS-RCMD-NIO-005 |
vSAN トラフィックのシェア値を [高] に設定します。 |
ネットワーク競合が発生している間、vSAN トラフィックは、仮想マシンのパフォーマンスをサポートするため、保証された帯域幅を必要とします。 |
なし。 |
VCF-VDS-RCMD-NIO-006 |
他のトラフィック タイプのシェア値を [低] に設定します。 |
デフォルトでは、VMware Cloud Foundation は、vSphere FT トラフィックなどの他のトラフィック タイプを使用しません。したがって、これらのトラフィック タイプには最も低い優先順位を設定できます。 |
なし。 |