DevOps エンジニアが kubectl コマンド ライン ツールを使用してスーパーバイザーにディープ ラーニング仮想マシンまたは GPU アクセラレーション TKG クラスタを展開するのをサポートする場合は、vSphere 名前空間を作成して構成します。

VMware Aria Automation は、ディープ ラーニング仮想マシンがプロビジョニングされるたびに名前空間を作成し、コンテンツ ライブラリを自動的に追加します。

注: このドキュメントは、 VMware Cloud Foundation 5.2.1 に基づいています。 VMware Cloud Foundation 5.2 の VMware Private AI Foundation with NVIDIA 機能の詳細については、 VMware Cloud Foundation 5.2 向け VMware Private AI Foundation with NVIDIA ガイドを参照してください。

前提条件

手順

  1. VMware Cloud Foundation 5.2.1 インスタンスの場合は、VI ワークロード ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) に [email protected] としてログインします。
  2. [vSphere Client] サイド パネルで、[ワークロード管理] をクリックします。
  3. [ワークロード管理] ページで、vSphere 名前空間を作成し、DevOps エンジニアのリソース制限、ストレージ ポリシー、権限を追加し、vGPU ベースの仮想マシン クラスを関連付けます。
  4. AI ワークロードの vSphere 名前空間に、ディープ ラーニング仮想マシン イメージを含むディープ ラーニング用のコンテンツ ライブラリを追加します。
    1. AI ワークロードの名前空間で、名前空間の [仮想マシン サービス] カードの [コンテンツ ライブラリの管理] をクリックします。
    2. ディープ ラーニング仮想マシン イメージを含むコンテンツ ライブラリを選択し、[OK] をクリックします。