VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン テンプレートをすばやくテストするには、vSphere Client を使用してディープ ラーニング仮想マシンを vSphere クラスタに直接展開できます。

前提条件

AI 対応インフラストラクチャのための次の前提条件が満たされていることを確認します。

手順

  1. VI ワークロード ドメインの vCenter Server インスタンスにログインします。
  2. vSphere Client のホーム メニューから、[コンテンツ ライブラリ] を選択します。
  3. コンテンツ ライブラリからディープ ラーニング仮想マシンを展開します。
    1. コンテンツ ライブラリのディープ ラーニング仮想マシン イメージに移動します。
    2. OVF テンプレートを右クリックして、[このテンプレートから仮想マシンを新規作成] を選択します。
    3. ウィザードに従って名前を入力し、仮想マシン フォルダを選択して、VI ワークロード ドメインの GPU 対応クラスタを選択します。
    4. クラスタのデータストアと Distributed Switch 上のネットワークを選択します。
    5. [テンプレートのカスタマイズ] ページで、AI 機能の設定に必要なカスタムの仮想マシン プロパティを入力します。
    6. [終了] をクリックします。
  4. ディープ ラーニング仮想マシンが作成されたら、仮想マシン設定で NVIDIA vGPU デバイスを割り当てます。
    仮想マシンへの NVIDIA GRID vGPU の追加」を参照してください。

    NVIDIA RAG を実行しているディープ ラーニング仮想マシンの場合は、タイム スライス モードのフルサイズ vGPU プロファイルまたは MIG プロファイルを選択します。たとえば、vGPU タイム スライス モードの NVIDIA A100 40GB の場合は、[nvidia_a100-40c] を選択します。

  5. NVIDIA RAG を実行しているディープ ラーニング仮想マシンの場合は、仮想マシン設定の [詳細パラメータ] タブで、pciPassthru<vgpu-id>.cfg.enable_uvm パラメータを 1 に設定します。

    ここで、<vgpu-id> は仮想マシンに割り当てられた vGPU を識別します。たとえば、2 つの vGPU が仮想マシンに割り当てられている場合は、pciPassthru0.cfg.parameter=1pciPassthru1.cfg.parameter = 1 を設定します。

  6. ディープ ラーニング仮想マシンをパワーオンします。

結果

ディープ ラーニング仮想マシンを初めて起動すると、vGPU ゲスト ドライバと指定されたディープ ラーニング ワークロードがインストールされます。

ログを調べたり、一部のイメージに付属している JupyterLab インスタンスを開いたりできます。アクセスの詳細を組織内のデータ サイエンティストと共有できます。VMware Private AI Foundation with NVIDIA のディープ ラーニング ワークロードを参照してください。

次のタスク

  • SSH 経由でディープ ラーニング仮想マシンに接続し、すべてのコンポーネントがインストールされ、期待どおりに実行されていることを確認します。
  • アクセスの詳細をデータ サイエンティストに送信します。