VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン イメージは、VMware によって公開された共有コンテンツ ライブラリで配布されます。クラウド管理者は、コンテンツ ライブラリを使用して、仮想マシンの展開中に VI ワークロード ドメイン内の特定の仮想マシン イメージをプルします。

前提条件

クラウド管理者として、VMware Private AI Foundation with NVIDIA が展開され、構成されていることを確認します。VMware Private AI Foundation with NVIDIA の展開を参照してください。

手順

クラウド管理者は、ディープ ラーニング仮想マシン イメージを含むコンテンツ ライブラリを作成します。YAML ファイルと kubectl コマンドを使用してディープ ラーニング仮想マシンを展開する場合は、AI ワークロード用に作成した名前空間にコンテンツ ライブラリを追加します。

  1. VI ワークロード ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) にログインします。
  2. [メニュー] > [コンテンツ ライブラリ] の順に選択し、[作成] をクリックします。
  3. ディープ ラーニング仮想マシン イメージ用のコンテンツ ライブラリを作成します。
    • 接続された環境の場合は、https://packages.vmware.com/dl-vm/lib.json に接続されているサブスクライブ済みコンテンツ ライブラリを作成します。認証は必要ありません。
    • 切断された環境の場合は、https://packages.vmware.com/dl-vm/ からディープ ラーニング仮想マシン イメージをダウンロードし、ローカル コンテンツ ライブラリにインポートします。

      各イメージについて、関連する .ovf.vmdk.mf、および .cert ファイルをダウンロードします。

    コンテンツ ライブラリの作成と編集」および「ライブラリにコンテンツを入力する方法」を参照してください。

  4. kubectl を直接呼び出してスーパーバイザー上でディープ ラーニング仮想マシンの展開を有効にする場合は、AI ワークロードの vSphere 名前空間にコンテンツ ライブラリを追加します。

    VMware Aria Automation は、ディープ ラーニング仮想マシンがプロビジョニングされるたびに名前空間を作成し、コンテンツ ライブラリを自動的に追加します。

    1. [メニュー] > [ワークロード管理] の順に選択します。
    2. AI ワークロードの名前空間に移動します。
    3. [仮想マシン サービス] カードで [コンテンツ ライブラリの管理] をクリックします。
    4. ディープ ラーニング仮想マシン イメージを含むコンテンツ ライブラリを選択し、[OK] をクリックします。