ロード バランサーは、ユーザーに対してロードの分散が透過的に行われるように、受信サービス リクエストを複数のサーバに均等に分散します。ロード バランシングは、リソース使用の最適化、スループットの最大化、応答時間の最小化、過負荷の回避に役立ちます。

NSX ロード バランサは、2 つのロード バランシング エンジンをサポートします。レイヤー 4 ロード バランサーはパケット ベースであり、高速パス処理を提供します。レイヤー 7 ロード バランサーはソケット ベースであり、バックエンド サービスの高度なトラフィック管理戦略と DDOS 緩和をサポートします。

NSX Data Center for vSphere Edge Gateway は外部ネットワークからの受信トラフィックのロード バランシングを行うため、Edge Gateway のロード バランシングを外部インターフェイスで設定します。ロード バランシング用の仮想サーバを構成する場合、組織仮想データセンターにある使用可能な IP アドレスのいずれかを指定します。

ロード バランシングの戦略と概念

パケット ベースのロード バランシング戦略は TCP および UDP レイヤーに実装されます。パケット ベースのロード バランシングでは、接続の停止または要求全体のバッファリングを行いません。代わりに、パケットの操作後に、選択したサーバに直接パケットを送信します。1 つのセッションのパケットが同じサーバに送信されるように TCP および UDP セッションはロード バランサー内で維持されます。グローバル構成および関連する仮想サーバ構成の両方で [アクセラレーションが有効] を選択し、パケット ベースのロード バランシングを有効にできます。

ソケット ベースのロード バランシング戦略はソケット インターフェイス上に実装されます。1 つの要求に対してクライアント側の接続とサーバ側の接続の 2 つの接続が確立されます。サーバ側の接続は、サーバの選択後に確立されます。HTTP ソケット ベースの実装の場合、要求全体を受信した後、オプションの L7 操作によって選択されたサーバに要求を送信します。HTTPS ソケット ベースの実装の場合、クライアント側の接続またはサーバ側の接続のいずれかで認証情報を交換します。ソケット ベースのロード バランシングは、TCP、HTTP、および HTTPS 仮想サーバのデフォルト モードです。

NSX ロード バランサーの主な概念は、仮想サーバ、サーバ プール、サーバ プール メンバー、およびサービス監視です。

仮想サーバ
アプリケーション サービスの抽象概念。IP アドレス、ポート、プロトコル、およびアプリケーション プロファイル(TCP、UDP など)の一意の組み合わせで表されます。
サーバ プール
バックエンド サーバのグループ。
サーバ プール メンバー
バックエンド サーバをプール内のメンバーとして表します。
サービス モニター
バックエンド サーバの健全性ステータスを調べる方法を定義します。
アプリケーション プロファイル
特定のアプリケーションの TCP、UDP、永続性、および証明書設定を表します。

設定の概要

最初に、ロード バランサーのグローバル オプションを設定します。バックエンド サーバ メンバーで構成されるサーバ プールを作成し、サービス モニターをプールに関連付けて、バックエンド サーバを効率的に管理および共有します。

次に、アプリケーション プロファイルを作成し、クライアント SSL、サーバ SSL、X-Forwarded-For、永続性など、ロード バランサーでアプリケーションの共通の動作を定義します。永続性では、同様の特性(送信元の IP アドレスまたは Cookie を同じプール メンバーに送信する必要があるなど)を持つ後続の要求が、ロード バランシング アルゴリズムを実行せずに送信されます。アプリケーション プロファイルは、仮想サーバ全体で再利用できます。

オプションのアプリケーション ルールを作成し、トラフィックの操作に関するアプリケーション固有の設定を行います。たとえば、特定の URL またはホスト名と照合し、異なる要求を異なるプールで処理できるようにします。次に、アプリケーションに固有のサービス モニターを作成します。既存のサービス モニターがニーズを満たしている場合はそのサービス モニターを使用することもできます。

必要に応じて、L7 仮想サーバの高度な機能をサポートするアプリケーション ルールを作成できます。アプリケーション ルールの使用事例として、コンテンツの切り替え、ヘッダーの操作、セキュリティ ルール、DOS 保護があります。

最後に、サーバ プール、アプリケーション プロファイル、およびあらゆるアプリケーション ルールをまとめて接続する仮想サーバを作成します。

仮想サーバが要求を受信すると、ロード バランシング アルゴリズムはプール メンバーの設定とランタイム ステータスを考慮します。次に、アルゴリズムは、1 つ以上のメンバーで構成される、トラフィックを分散するための適切なプールを計算します。プール メンバーの設定には、ウェイト、最大接続、および状態ステータスなどの設定が含まれます。ランタイム ステータスには、現在の接続、応答時間、および健全性チェックのステータス情報が含まれます。計算方法として、ラウンドロビン、重み付きラウンドロビン、最小接続、送信元 IP アドレス ハッシュ、重み付き最小接続、URL、URI、または HTTP ヘッダーを使用できます。

各プールは、関連付けられたサービス モニターで監視されます。ロード バランサーがプール メンバーの問題を検出すると、メンバーは DOWN としてマークされます。サーバ プールからサーバを選択するときは、UP のサーバのみが選択されます。サーバ プールがサービス モニターと共に構成されていない場合、すべてのプール メンバーが UP とみなされます。

VMware Cloud Director Service Provider Admin Portalを使用した NSX Data Center for vSphere Edge Gateway でのロード バランシングの構成

ロード バランサーのグローバル構成パラメータには、全体の有効化、レイヤー 4 エンジンまたはレイヤー 7 エンジンの選択、およびログに記録するイベント タイプの仕様などがあります。

手順

  1. Edge Gateway サービスを開きます。
    1. プライマリの左側ナビゲーション パネルで [リソース] を選択し、画面上部のナビゲーション バーで [クラウド リソース] タブを選択します。
    2. セカンダリの左側パネルで、[Edge Gateway] を選択します。
    3. ターゲット Edge Gateway の名前の横にあるラジオ ボタンをクリックして、[サービス] をクリックします。
  2. [ロード バランサー] > [グローバル構成] の順に移動します。
  3. 有効にするオプションを選択します。
    オプション アクション
    ステータス 切り替えアイコンをクリックして、ロード バランサーを有効にします。

    [アクセラレーションが有効] を有効にして、L7 エンジンではなく、より高速な L4 エンジンを使用するようにロード バランサーを構成します。L4 TCP VIP は Edge ゲートウェイのファイアウォールの前に処理されるため、[許可] ファイアウォール ルールは必要ありません。

    注:

    HTTP および HTTPS 用の L7 VIP はファイアウォールの後に処理されるため、アクセラレーションが有効でない場合は、これらのプロトコルについて、L7 VIP へのアクセスを許可するための Edge ゲートウェイファイアウォール ルールが必要です。アクセラレーションが有効であり、サーバ プールが非透過モードの場合は、SNAT ルールが追加されるため、Edge ゲートウェイでファイアウォールを有効であることを確認する必要があります。

    ログの有効化 Edge ゲートウェイのロード バランサーでトラフィック ログを収集するように、ログを有効にします。
    ログ レベル ログに収集するイベントの重要度を選択します。
  4. [変更を保存] をクリックします。

次のタスク

ロード バランサーのアプリケーション プロファイルを構成します。VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway のアプリケーション プロファイルの作成を参照してください。

VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway のアプリケーション プロファイルの作成

アプリケーション プロファイルは、特定のタイプのネットワーク トラフィックに関するロード バランサーの動作を定義します。プロファイルを設定したら、仮想サーバに関連付けます。関連付けられた仮想サーバは、プロファイルに指定した値に基づいてトラフィックを処理します。プロファイルを使用すると、ネットワーク トラフィックの管理機能を強化し、トラフィック管理タスクをより簡単に、効率的に行うことができます。

HTTPS トラフィックのプロファイルを作成するときは、次の HTTPS トラフィック パターンを使用できます。
  • クライアント -> HTTPS -> LB(SSL を終了) -> HTTP -> サーバ
  • クライアント -> HTTPS -> LB(SSL を終了) -> HTTPS -> サーバ
  • クライアント -> HTTPS -> LB(SSL パススルー) -> HTTPS -> サーバ
  • クライアント -> HTTP -> LB-> HTTP -> サーバ

手順

  1. Edge Gateway サービスを開きます。
    1. プライマリの左側ナビゲーション パネルで [リソース] を選択し、画面上部のナビゲーション バーで [クラウド リソース] タブを選択します。
    2. セカンダリの左側パネルで、[Edge Gateway] を選択します。
    3. ターゲット Edge Gateway の名前の横にあるラジオ ボタンをクリックして、[サービス] をクリックします。
  2. [ロード バランサー] > [アプリケーション プロファイル] の順に移動します。
  3. [作成]作成ボタン)ボタンをクリックします。
  4. プロファイルの名前を入力します。
  5. アプリケーション プロファイルを設定します。
    オプション 説明
    タイプ サーバに要求を送信するためのプロトコルの種類を選択します。必須パラメータのリストは、選択したプロトコルによって変わります。選択したプロトコルに当てはまらないパラメータは入力できません。その他のパラメータはすべて必須です。
    SSL パススルーの有効化 クリックすると、仮想サーバに対し、SSL 認証のパススルーが有効になります。

    それ以外の場合は、ターゲット アドレスで SSL 認証が実行されます。

    HTTP リダイレクト URL (HTTP および HTTPS)ターゲット アドレスに届いたトラフィックのリダイレクト先 URL を入力します。
    永続性 プロファイルの永続性メカニズムを指定します。

    永続性により、セッション データ(クライアント要求を処理した特定のプール メンバーなど)が追跡および格納されます。その結果、セッション中または後続のセッション中、クライアント要求は同じプール メンバーに転送されます。次のオプションがあります。

    • [ソース IP]

      ソース IP パーシステンスは、ソース IP アドレスに基づいてセッションを追跡します。ソース アドレスのアフィニティの永続性をサポートする仮想サーバへの接続をクライアントが要求すると、ロード バランサーはそのクライアントの過去の接続を確認し、過去の接続が見つかるとそのクライアントを同じプール メンバーに返します。

    • [MSRDP]

      (TCP のみ)Microsoft Remote Desktop Protocol (MSRDP) パーシステンスは、Microsoft Remote Desktop Protocol (RDP) サービスを実行する Windows クライアントと Windows サーバ間の永続性セッションを維持します。MSRDP による永続性を有効にする推奨シナリオは、Windows Server ゲスト OS を実行中のメンバーで構成するロード バランシング プールを作成し、すべてのメンバーが Windows クラスタに属し、Windows セッション ディレクトリに参加するようにすることです。

    • [SSL セッション ID]

      SSL パススルーを有効にすると、SSL セッション ID の永続性が使用可能になります。SSL セッション ID の永続性を使用すると、同じクライアントからの繰り返し接続が同じサーバに送信されます。セッション ID の永続性により、SSL セッションのレジュームを使用できるため、クライアントとサーバの両方の処理時間を節約できます。

    Cookie 名 (HTTP および HTTPS)永続性メカニズムとして [Cookie] を指定した場合は、Cookie 名を入力します。[Cookie] は、Cookie を使用して、クライアントが最初にサイトにアクセスするときのセッションを一意に識別します。ロード バランサーは、セッションで後続の要求を接続するときに、この Cookie を参照してすべての要求を同じ仮想サーバに送ります。
    モード Cookie の挿入に使用するモードを選択します。次のモードがサポートされています。
    • [挿入]

      Edge ゲートウェイが Cookie を送信します。サーバが 1 つ以上の Cookie を送信すると、クライアントはもう 1 つ Cookie を受信します(サーバの Cookie と Edge ゲートウェイの Cookie)。サーバが Cookie を送信しない場合、クライアントは Edge ゲートウェイの Cookie のみを受信します。

    • [プレフィックス]
      クライアントが複数の Cookie をサポートしていない場合は、このオプションを選択します。
      注: すべてのブラウザは、複数の Cookie を受け付けます。ただし、1 つの Cookie のみをサポートする専用クライアントを使用した専用アプリケーションを使用している場合があります。その場合、Web サーバは Cookie を通常通り送信します。Edge ゲートウェイは、その Cookie 情報を(プレフィックスとして)サーバの Cookie 値に挿入します。この Cookie が追加された情報は、Edge ゲートウェイがサーバに送信したときに削除されます。
    • [アプリケーション セッション] このオプションでは、サーバは Cookie を送信しません。代わりに、ユーザー セッション情報を URL として送信します。たとえば、http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD の場合、jsessionid がユーザー セッション情報で、永続性のために使用されています。トラブルシューティングのためにアプリケーション セッションの永続性テーブルを見ることはできません。
    有効期限 (秒) 永続性の有効期間を秒単位で入力します。1 ~ 86,400 の正の整数を指定します。
    注: TCP でソース IP アドレスによる永続性を使用する L7 ロード バランシングでは、一定期間に新規の TCP 接続がない場合、接続が継続中であっても永続性エントリがタイムアウトになります。
    X-Forwarded-For HTTP ヘッダーの挿入 (HTTP および HTTPS)ロード バランサーを介して Web サーバに接続するクライアントの送信元 IP アドレスを識別するには、[X-Forwarded-For HTTP ヘッダーの挿入] を選択します。
    注: SSL パススルーを有効にした場合、このヘッダーの使用はサポートされません。
    プール側の SSL の有効化 (HTTPS のみ)サーバ側からのロード バランサーの認証に使用する証明書、CA、または CRL を定義するには、[プール証明書] タブの [プール側の SSL の有効化] を選択します。
  6. (HTTPS のみ)アプリケーション プロファイルで使用する証明書を構成します。必要な証明書がない場合は、[証明書] タブから作成できます。
    オプション 説明
    仮想サーバ証明書 HTTPS トラフィックの復号化に使用する証明書、CA、または CRL を選択します。
    プール証明書 サーバ側からのロード バランサーの認証に使用する証明書、CA、または CRL を定義します。
    注: このタブを有効にするには、 [プール側の SSL の有効化] を選択します。
    暗号 SSL/TLS ハンドシェイク時にネゴシエートされる暗号アルゴリズム(または暗号スイート)を選択します。
    クライアント認証 クライアント認証を無視するか、必須にするかどうかを指定します。
    注: [必須] に設定すると、クライアントは、要求またはハンドシェイクがキャンセルされた後、証明書を提供する必要があります。
  7. 変更内容を保持するには、[保持] をクリックします。

次のタスク

さまざまなタイプのネットワーク トラフィックの健全性チェックを定義するには、ロード バランサーのサービス監視を追加します。VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway に対するサービス モニターの作成を参照してください。

VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway に対するサービス モニターの作成

特定のタイプのネットワーク トラフィックの健全性チェック パラメータを定義するには、サービス監視を作成します。サービス監視をプールに関連付けると、サービス監視パラメータに基づいてプール メンバーが監視されます。

手順

  1. Edge Gateway サービスを開きます。
    1. プライマリの左側ナビゲーション パネルで [リソース] を選択し、画面上部のナビゲーション バーで [クラウド リソース] タブを選択します。
    2. セカンダリの左側パネルで、[Edge Gateway] を選択します。
    3. ターゲット Edge Gateway の名前の横にあるラジオ ボタンをクリックして、[サービス] をクリックします。
  2. [ロード バランサー] > [サービス監視] の順に移動します。
  3. [作成]作成ボタン)ボタンをクリックします。
  4. サービス監視の名前を入力します。
  5. (オプション) サービス監視に関する次のオプションを構成します。
    オプション 説明
    間隔 指定した [メソッド] を使用してサーバが監視する間隔を入力します。
    タイムアウト サーバからの応答を受信する必要のある期間の最大値(秒)を入力します。
    最大試行回数 指定した監視の [メソッド] が連続して失敗できる回数を入力します。この回数を超えるとサーバは停止状態と判断されます。
    タイプ 健全性チェック要求をサーバに送信する方法(HTTP、HTTPS、TCP、ICMP、または UDP)を選択します。

    選択したタイプに応じて、[新規サービス監視] ダイアログの他のオプションが有効または無効になります。

    予測 (HTTP および HTTPS)監視が HTTP または HTTPS 応答のステータス行で照合する文字列を入力します(HTTP/1.1 など)。
    メソッド (HTTP および HTTPS)サーバ ステータスの検出に使用するメソッドを選択します。
    URL (HTTP および HTTPS)サーバ ステータス要求で使用する URL を入力します。
    注: メソッドとして POST を選択した場合は、 [送信] の値を指定する必要があります。
    送信 (HTTP、HTTPS、UDP)送信するデータを入力します。
    受信 (HTTP、HTTPS、および UDP)応答コンテンツで照合する文字列を入力します。
    注: [予測] が一致しない場合、監視は [受信] のコンテンツを照合しません。
    拡張 (すべて)サービス監視の詳細パラメータをキーと値のペアで入力します。たとえば、「warning=10」は、10 秒以内にサーバが応答しない場合に、そのステータスを警告に設定することを示します。拡張項目はすべて、キャリッジ リターン文字で区切る必要があります。以下にその例を挙げます。
    <extension>delay=2
    critical=3
    escape</extension>
  6. 変更内容を保持するには、[保持] をクリックします。

例: 各プロトコルでサポートされる拡張機能

表 1. HTTP/HTTPS プロトコルの拡張機能
監視の拡張機能 説明
no-body ドキュメントの本文を待たずに、HTTP/HTTPS ヘッダーの後で読み取りを停止します。
注: HTTP GET または HTTP POST は送信されますが、HEAD メソッドは送信されません。
max-age=SECONDS ドキュメントが SECONDS より古い場合は警告します。数値は、分の場合は 10m、時間の場合は 10h、日の場合は 10d の形式で指定します。
content-type=STRING POST 呼び出しでの Content-Type ヘッダーのメディア タイプを指定します。
linespan 正規表現で改行記号を許可します(-r または R より前に指定する必要があります)。
regex=STRING または ereg=STRING 正規表現の STRING をページで検索します。
eregi=STRING 大文字小文字を区別して正規表現の STRING をページで検索します。
invert-regex 見つかった場合は CRITICAL、見つからなかった場合は OK を返します。
proxy-authorization=AUTH_PAIR 基本認証を使用するプロキシ サーバのユーザー名とパスワード (username:password) を指定します。
useragent=STRING HTTP ヘッダーの文字列を User Agent として送信します。
header=STRING HTTP ヘッダー内のその他のタグを送信します。追加のヘッダーで複数回使用できます。
onredirect=ok|warning|critical|follow|sticky|stickyport リダイレクト ページの処理方法を示します。

stickyfollow に似ていますが、指定した IP アドレスと連携します。stickyport は、ポートが同じであることを確認します。

pagesize=INTEGER:INTEGER 必要なページ サイズの最小値と最大値をバイト単位で指定します。
warning=DOUBLE 警告ステータスになる応答時間を秒単位で指定します。
critical=DOUBLE 重大ステータスになる応答時間を秒単位で指定します。
表 2. HTTPS プロトコルのみを対象とした拡張機能
監視の拡張機能 説明
sni SSL/TLS のホスト名拡張機能のサポート (SNI) を有効にします。
certificate=[INTEGER] 証明書の最低有効日数を指定します。ポートのデフォルト値は 443 です。このオプションを使用すると、URL はチェックされません。
authorization=AUTH_PAIR 基本認証を使用するサイトのユーザー名とパスワード (username:password) を指定します。
表 3. TCP プロトコルの拡張機能
監視の拡張機能 説明
escape send または quit 文字列で、\n\r\t、または \ の使用を許可します。send または quit オプションの前に指定する必要があります。デフォルトでは、send には何も追加されず、quit の最後には \r\n が追加されます。
all すべての expect 文字列がサーバ応答に含まれている必要があることを指定します。デフォルトでは、any が使用されます。
quit=STRING 接続を正常に終了するため、サーバに文字列を送信します。
refuse=ok|warn|crit okwarn、または criti の状態で TCP 拒否を受け入れます。デフォルトでは、crit の状態を使用します。
mismatch=ok|warn|crit okwarn、または crit の状態で、想定される文字列の不一致を受け入れます。デフォルトでは、warn の状態を使用します。
jail TCP ソケットからの出力を非表示にします。
maxbytes=INTEGER 指定数より多いバイト数を受信すると、接続を閉じます。
delay=INTEGER 文字列の送信から応答のポーリングまで、指定秒数を待機します。
certificate=INTEGER[,INTEGER] 証明書の最低有効日数を指定します。最初の値は警告まで、2 番目の値は重大までの #days です(指定されない場合は 0)。
ssl 接続に SSL を使用します。
warning=DOUBLE 警告ステータスになる応答時間を秒単位で指定します。
critical=DOUBLE 重大ステータスになる応答時間を秒単位で指定します。

次のタスク

ロード バランサーのサーバ プールを追加します。VMware Cloud Director Service Provider Admin Portal を使用して NSX Data Center for vSphere Edge Gateway にロード バランシング用のサーバ プールを追加を参照してください。

VMware Cloud Director Service Provider Admin Portal を使用して NSX Data Center for vSphere Edge Gateway にロード バランシング用のサーバ プールを追加

バックエンド サーバを柔軟かつ効率的に管理および共有するために、サーバ プールを追加できます。プールはロード バランサーの分散メソッドを管理し、健全性チェック パラメータのためにサービス モニターが接続されています。

手順

  1. Edge Gateway サービスを開きます。
    1. プライマリの左側ナビゲーション パネルで [リソース] を選択し、画面上部のナビゲーション バーで [クラウド リソース] タブを選択します。
    2. セカンダリの左側パネルで、[Edge Gateway] を選択します。
    3. ターゲット Edge Gateway の名前の横にあるラジオ ボタンをクリックして、[サービス] をクリックします。
  2. [ロード バランサー] > [プール] の順に移動します。
  3. [作成]作成ボタン)ボタンをクリックします。
  4. ロード バランサー プールの名前と、必要に応じて説明を入力します。
  5. [アルゴリズム] ドロップダウン メニューから、サービスのバランシング メソッドを選択します。
    オプション 説明
    ROUND_ROBIN 各サーバーは、割り当てられたウェイトに従って、順に使用されます。これは、サーバの処理時間が等しく分散されたままである場合に、最もスムーズで公平なアルゴリズムです。
    IP_HASH 各パケットのソースおよびターゲット IP アドレスのハッシュに基づいてサーバーを選択します。
    LEASTCONN クライアントの要求を、サーバ上の既存の接続数に基づいて複数のサーバに分散させます。新しい接続は、オープン接続数が最も少ないサーバに送信されます。
    URI URI の左側の部分(クエスチョン マークの前)は、ハッシュされ、実行中のサーバの全体のウェイトで割られます。その結果により、要求を受け取るサーバが指定されます。このオプションにより、サーバが停止しない限り、URI は必ず同じサーバに転送されます。
    HTTPHEADER

    HTTP ヘッダー名が各 HTTP 要求で検索されます。カッコで囲まれているヘッダー名は大文字小文字が区別されません。これは ACL 'hdr()' 関数と同様です。ヘッダーが存在しないか、どの値も含まれていない場合には、ラウンド ロビン アルゴリズムが適用されます。HTTP HEADER アルゴリズム パラメータには、1 つのオプション headerName=<name> があります。たとえば、HTTP HEADER アルゴリズム パラメータとして host を使用できます。

    URL

    引数で指定した URL パラメータが、各 HTTP GET 要求のクエリ文字列内で検索されます。パラメータに等号 (=) と値が続く場合、値はハッシュされ、実行中のサーバの重みの合計で除算されます。結果により、要求を受信するサーバが指定されます。このプロセスを使用して要求内のユーザー ID を追跡し、サーバが起動したり停止したりしない限り、同じユーザー ID が常に同じサーバに確実に送信されるようにします。値またはパラメータが見つからない場合、ラウンド ロビン アルゴリズムが適用されます。URL アルゴリズム パラメータには、1 つのオプション urlParam=<url> があります。

  6. メンバーをプールに追加します。
    1. [追加]作成ボタン)ボタンをクリックします。
    2. プール メンバーの名前を入力します。
    3. プール メンバーの IP アドレスを入力します。
    4. メンバーがロード バランサーからトラフィックを受信するポートを入力します。
    5. メンバーが健全性モニターの要求を受信する監視ポートを入力します。
    6. [ウェイト] テキスト ボックスに、このメンバーが処理するトラフィックの割合を入力します。1 ~ 256 の範囲の整数にする必要があります。
    7. (オプション) [最大接続数] テキスト ボックスに、メンバーが処理できる同時接続の最大数を入力します。
      受信要求の数が最大を超えた場合、要求はキューに入れられ、ロード バランサーは接続が解放されるのを待機します。
    8. (オプション) [最小接続数] テキスト ボックスに、メンバーが必ず受け入れなければならない同時接続数の最小数を入力します。
    9. [保持] をクリックして、新しいメンバーをプールに追加します。
      この操作は完了するまでに 1 分かかることがあります。
  7. (オプション) クライアント IP アドレスをバックエンド サーバに表示するには、[透過的] を選択します。
    [透過的] が選択されていない場合(デフォルト値)、バックエンド サーバは、ロード バランサーの内部 IP アドレスとして、トラフィック ソースの IP アドレスを参照します。

    [透過的] が選択されている場合、ソース IP アドレスは、クライアントの実際の IP アドレスであり、Edge ゲートウェイをデフォルト ゲートウェイとして設定し、戻りパケットが Edge ゲートウェイを確実に経由するようにします。

  8. 変更内容を保持するには、[保持] をクリックします。

次のタスク

ロード バランサーの仮想サーバを追加します。仮想サーバには公開 IP アドレスがあり、すべての受信クライアント要求を処理します。VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway への仮想サーバの追加を参照してください。

VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway へのアプリケーション ルールの追加

アプリケーション ルールを作成して、IP アプリケーション トラフィックの操作と管理を直接行うことができます。

手順

  1. Edge Gateway サービスを開きます。
    1. プライマリの左側ナビゲーション パネルで [リソース] を選択し、画面上部のナビゲーション バーで [クラウド リソース] タブを選択します。
    2. セカンダリの左側パネルで、[Edge Gateway] を選択します。
    3. ターゲット Edge Gateway の名前の横にあるラジオ ボタンをクリックして、[サービス] をクリックします。
  2. [ロード バランサー] > [アプリケーション ルール] の順に移動します。
  3. [追加]作成ボタン)ボタンをクリックします。
  4. アプリケーション ルールの名前を入力します。
  5. アプリケーション ルールのスクリプトを入力します。
    アプリケーション ルールの構文については、 http://cbonte.github.io/haproxy-dconv/2.2/configuration.htmlを参照してください。
  6. 変更内容を保持するには、[保持] をクリックします。

次のタスク

ロード バランサーに追加する仮想サーバに新しいアプリケーション ルールを関連付けます。VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway への仮想サーバの追加を参照してください。

VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway への仮想サーバの追加

VMware Cloud Director で仮想サーバとして NSX Data Center for vSphere Edge Gateway 内部インターフェイスまたはアップリンク インターフェイスを追加します。仮想サーバには公開 IP アドレスがあり、すべての受信クライアント要求を処理します。

デフォルトでは、ロード バランサーは、各クライアント要求の後にサーバ TCP 接続を閉じます。

手順

  1. Edge Gateway サービスを開きます。
    1. プライマリの左側ナビゲーション パネルで [リソース] を選択し、画面上部のナビゲーション バーで [クラウド リソース] タブを選択します。
    2. セカンダリの左側パネルで、[Edge Gateway] を選択します。
    3. ターゲット Edge Gateway の名前の横にあるラジオ ボタンをクリックして、[サービス] をクリックします。
  2. [ロード バランサー] > [仮想サーバ] の順に移動します。
  3. [追加]作成ボタン)ボタンをクリックします。
  4. [全般] タブで、仮想サーバの次のオプションを構成します。
    オプション 説明
    仮想サーバの有効化 クリックして、仮想サーバを有効にします。
    アクセラレーションの有効化 クリックしてアクセラレーションを有効にします。
    アプリケーション プロファイル 仮想サーバに関連付けるアプリケーション プロファイルを選択します。
    名前 仮想サーバーの名前を入力します。
    説明 必要に応じて仮想サーバの説明を入力します。
    IP アドレス ロード バランサーがリスンする IP アドレスを入力するか、参照して選択します。
    プロトコル 仮想サーバが受け入れるプロトコルを選択します。選択した [アプリケーション プロファイル] により使用されるものと同じプロトコルを選択する必要があります。
    ポート ロード バランサーが待機するポート番号を入力します。
    デフォルトのプール ロード バランサーが使用するサーバ プールを選択します。
    接続制限 (オプション)仮想サーバが処理できる最大同時接続数を入力します。
    接続速度の制限 (CPS) (オプション)1 秒あたり最大の受信新規接続要求を入力します。
  5. (オプション) アプリケーション ルールを仮想サーバに関連付けるために、[詳細] タブをクリックし、次の手順を実行します。
    1. [追加]作成ボタン)ボタンをクリックします。
      ロード バランサー用に作成されたアプリケーション ルールが表示されます。必要に応じて、ロード バランサーのアプリケーション ルールを追加します。 VMware Cloud Director Service Provider Admin Portal を使用した NSX Data Center for vSphere Edge Gateway へのアプリケーション ルールの追加を参照してください。
  6. 変更内容を保持するには、[保持] をクリックします。

次のタスク

新しい仮想サーバ(ターゲット IP アドレス)へのトラフィックを許可する、Edge ゲートウェイ ファイアウォール ルールを作成します。VMware Cloud Director Service Provider Admin Portal での NSX Data Center for vSphere Edge Gateway ファイアウォール ルールの追加を参照してください。