VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン イメージは、VMware によって公開された共有コンテンツ ライブラリで配布されます。クラウド管理者は、コンテンツ ライブラリを使用して、仮想マシンの展開中に VI ワークロード ドメイン内の特定の仮想マシン イメージをプルします。
vSphere クラスタに直接ディープ ラーニング仮想マシンを展開する場合は、[vSphere Client] サイド パネルの [コンテンツ ライブラリ] ページからコンテンツ ライブラリを作成することもできます。
注: このドキュメントは、
VMware Cloud Foundation 5.2.1 に基づいています。
VMware Cloud Foundation 5.2 の
VMware Private AI Foundation with NVIDIA 機能の詳細については、
VMware Cloud Foundation 5.2 向け VMware Private AI Foundation with NVIDIA ガイドを参照してください。
前提条件
- 展開ワークフローのこの手順まで VMware Private AI Foundation with NVIDIA が構成されていることを確認します。プライベート AI ワークロード展開のための VMware Cloud Foundation の準備を参照してください。
手順
- 管理ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) に [email protected] としてログインします。
- [vSphere Client] サイド パネルで、[Private AI Foundation] を選択します。
- [Private AI Foundation] ワークフローで、[ワークロード管理の設定] セクションをクリックします。
- GPU アクセラレーション VI ワークロード ドメインの vCenter Server インスタンスに、ディープ ラーニング仮想マシン イメージ用のコンテンツ ライブラリを作成します。
- 接続された環境の場合は、https://packages.vmware.com/dl-vm/lib.json に接続されているサブスクライブ済みコンテンツ ライブラリを作成します。認証は必要ありません。
- 切断された環境の場合は、https://packages.vmware.com/dl-vm/ からディープ ラーニング仮想マシン イメージをダウンロードし、ローカル コンテンツ ライブラリにインポートします。
各イメージについて、関連する .ovf、.vmdk、.mf、および .cert ファイルをダウンロードします。