VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン イメージは、VMware によって公開された共有コンテンツ ライブラリで配布されます。クラウド管理者は、コンテンツ ライブラリを使用して、仮想マシンの展開中に VI ワークロード ドメイン内の特定の仮想マシン イメージをプルします。

vSphere クラスタに直接ディープ ラーニング仮想マシンを展開する場合は、[vSphere Client] サイド パネルの [コンテンツ ライブラリ] ページからコンテンツ ライブラリを作成することもできます。

注: このドキュメントは、 VMware Cloud Foundation 5.2.1 に基づいています。 VMware Cloud Foundation 5.2 の VMware Private AI Foundation with NVIDIA 機能の詳細については、 VMware Cloud Foundation 5.2 向け VMware Private AI Foundation with NVIDIA ガイドを参照してください。

前提条件

手順

  1. 管理ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) に [email protected] としてログインします。
  2. [vSphere Client] サイド パネルで、[Private AI Foundation] を選択します。
  3. [Private AI Foundation] ワークフローで、[ワークロード管理の設定] セクションをクリックします。
  4. GPU アクセラレーション VI ワークロード ドメインの vCenter Server インスタンスに、ディープ ラーニング仮想マシン イメージ用のコンテンツ ライブラリを作成します。
    • 接続された環境の場合は、https://packages.vmware.com/dl-vm/lib.json に接続されているサブスクライブ済みコンテンツ ライブラリを作成します。認証は必要ありません。
    • 切断された環境の場合は、https://packages.vmware.com/dl-vm/ からディープ ラーニング仮想マシン イメージをダウンロードし、ローカル コンテンツ ライブラリにインポートします。

      各イメージについて、関連する .ovf.vmdk.mf、および .cert ファイルをダウンロードします。