データ サイエンティスト、DevOps エンジニア、開発者は、VMware Aria Automation を使用して、VI ワークロード ドメインのスーパーバイザー インスタンスにディープ ラーニング仮想マシンをプロビジョニングできます。

ディープ ラーニング仮想マシンを展開するワークフローは、次の 2 つの部分で構成されます。

  • クラウド管理者は、プライベート AI 用のセルフサービス カタログ アイテムを Automation Service Broker に追加します。
  • データ サイエンティストまたは DevOps エンジニアは、AI ワークステーション カタログ アイテムを使用してスーパーバイザーの新しい名前空間にディープ ラーニング仮想マシンを展開します。

VMware Aria Automation で AI セルフサービス カタログ アイテムを作成する

クラウド管理者は、VMware Aria Automation のプライベート AI のカタログ セットアップ ウィザードを使用して、VI ワークロード ドメインにディープ ラーニング仮想マシンまたは GPU アクセラレーション TKG クラスタを展開するためのカタログ アイテムをすばやく追加できます。

データ サイエンティストは、ディープ ラーニング仮想マシンを展開するためにディープ ラーニング カタログ アイテムを使用できます。DevOps エンジニアは、AI 対応 TKG クラスタをプロビジョニングするためにカタログ アイテムを使用できます。実行するたびに、プライベート AI のカタログ セットアップ ウィザードによって、Service Broker カタログに 2 つのカタログ アイテム(ディープ ラーニング仮想マシン用と TKG クラスタ用)が追加されます。

実行するたびに、プライベート AI のカタログ セットアップ ウィザードによって、Service Broker カタログに 2 つのカタログ アイテム(ディープ ラーニング仮想マシン用と TKG クラスタ用)が追加されます。ウィザードは、以下の場合にいつでも実行できます。

  • 別のスーパーバイザーで AI ワークロードのプロビジョニングを有効にする。
  • クライアント構成 .tok ファイルとライセンス サーバ、または切断された環境の vGPU ゲスト ドライバのダウンロード URL を含む、NVIDIA AI Enterprise ライセンスの変更に対応する。
  • ディープ ラーニング仮想マシン イメージの変更に対応する。
  • 他の vGPU または非 GPU 仮想マシン クラス、ストレージ ポリシー、またはコンテナ レジストリを使用する。
  • 新しいプロジェクトにカタログ アイテムを作成する。

前提条件

手順

  1. VMware Aria Automation ホーム ページに移動し、[クイックスタート] をクリックします。
  2. プライベート AI オートメーションのプライベート AI オートメーション サービス カタログ セットアップ ウィザードを実行します。

    VMware Aria Automation 製品ドキュメントの「Automation Service Broker カタログにプライベート AI アイテムを追加する」を参照してください。

VMware Aria Automation でセルフサービス カタログを使用してディープ ラーニング仮想マシンを展開する

VMware Private AI Foundation with NVIDIA では、データ サイエンティストまたは DevOps エンジニアは、Automation Service Broker の AI ワークステーション セルフサービス カタログ アイテムを使用して、VMware Aria Automation からディープ ラーニング仮想マシンを展開できます。

注: VMware Aria Automation は、ディープ ラーニング仮想マシンをプロビジョニングするたびに名前空間を作成します。

手順

  • Automation Service Broker で、VI ワークロード ドメインのスーパーバイザー インスタンスに AI ワークステーション カタログ アイテムを展開します。
    VI ワークロード ドメインへのディープ ラーニング仮想マシンの展開」を参照してください。
    GPU キャパシティを使用する DL ワークロードで DCGM Exporter を使用する場合は、仮想マシンの起動時に cloud-init プロセスの一部として、または仮想マシンの起動後にコマンド ラインから、DL ワークロードをインストールできます。DL ワークロードを cloud-init プロセスに含めるには、AI ワークステーション カタログ アイテムのリクエスト フォームで、ディープ ラーニング仮想マシンをプロビジョニングするためのその他の詳細に加えて、次の構成を追加します。
    1. [ソフトウェア バンドル] ドロップダウン メニューから、[DCGM Exporter] を選択します。
    2. [カスタム cloud-init] チェック ボックスをオンにして、DL ワークロードを実行するための手順を入力します。

結果

ディープ ラーニング仮想マシンを初めて起動すると、vGPU ゲスト ドライバと指定されたディープ ラーニング ワークロードがインストールされます。

ログを調べたり、一部のイメージに付属している JupyterLab インスタンスを開いたりできます。VMware Private AI Foundation with NVIDIA のディープ ラーニング ワークロードを参照してください。

次のタスク

仮想マシンと仮想マシン上の JupyterLab インスタンスにアクセスする方法の詳細については、Automation Service Broker で、[使用] > [展開] > [展開] に移動します。