DevOps エンジニアとデータ サイエンティストに、AI コンテナ ワークロードを含むディープ ラーニング仮想マシンまたは TKG クラスタを展開する機能を提供するには、VI ワークロード ドメインの GPU 対応クラスタにスーパーバイザーを展開し、vGPU 対応仮想マシン クラスを作成する必要があります。

注: このドキュメントは、 VMware Cloud Foundation 5.2.1 に基づいています。 VMware Cloud Foundation 5.2 の VMware Private AI Foundation with NVIDIA 機能の詳細については、 VMware Cloud Foundation 5.2 向け VMware Private AI Foundation with NVIDIA ガイドを参照してください。

前提条件

手順

  1. VMware Cloud Foundation 5.2.1 インスタンスの場合は、管理ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) に [email protected] としてログインします。
  2. [vSphere Client] サイド パネルで、[Private AI Foundation] をクリックします。
  3. [Private AI Foundation] ワークフローで、[ワークロード ドメインの設定] セクションをクリックします。
  4. VI ワークロード ドメインに NSX Edge クラスタを展開します。
    NSX Edge クラスタの展開を参照してください。ガイド付き展開ワークフローのウィザードには、SDDC Manager ユーザー インターフェイスにある同様のウィザードと同じオプションがあります。
    SDDC Manager は、スーパーバイザーの展開時に指定した Tier-0 ゲートウェイも展開します。Tier-0 ゲートウェイは、アクティブ/アクティブの高可用性モードです。
  5. [Private AI Foundation] ワークフローで、[ワークロード管理の設定] セクションをクリックします。
  6. スーパーバイザーのストレージ ポリシーを構成します。
    vSphere with Tanzu のストレージ ポリシーを作成するを参照してください。ガイド付き展開ワークフローで仮想マシン ストレージ ポリシーを作成するためのウィザードは、vSphere Client の [ポリシーとプロファイル] 領域にある同様のウィザードと同じです。
  7. ワークロード管理を有効にして、VI ワークロード ドメイン内の GPU 対応 ESXi ホストのデフォルトのクラスタにスーパーバイザーを展開します。
    管理ネットワークには、静的 IP アドレス割り当てを使用します。クラスタの vSphere Distributed Switch にスーパーバイザー仮想マシン管理ネットワークを割り当てます。

    ワークロード ネットワークを次のように構成します。

    • クラスタの vSphere Distributed Switch を使用するか、AI ワークロード専用のものを作成します。
    • SDDC Manager を使用して展開した NSX Edge クラスタと Tier-0 ゲートウェイを使用してスーパーバイザーを構成します。
    • 残りの値は、設計に従って設定します。

    作成したストレージ ポリシーを使用します。

    単一クラスタへのスーパーバイザーの展開の詳細については、ワークロード管理の有効化およびNSX ネットワークを使用した 1 ゾーン スーパーバイザーの展開を参照してください。ガイド付き展開ワークフローのウィザードは、vSphere Client の [ワークロード管理] 領域にある同様のウィザードと同じです。