クラウド管理者は、データ サイエンティストと DevOps エンジニアが AI ワークロードを VMware Private AI Foundation with NVIDIA 上に展開できるように、固有のソフトウェアを展開し、ターゲット VI ワークロード ドメインを構成する必要があります。

VMware Private AI Foundation with NVIDIA の VMware コンポーネント

VMware Private AI Foundation with NVIDIA ソリューションの機能は、複数のソフトウェア コンポーネントで使用できます。

  • VMware Cloud Foundation 5.2
  • VMware Aria Automation 8.18 および VMware Aria Automation 8.18
  • VMware Aria Operations 8.18 および VMware Aria Operations 8.18
  • VMware Data Services Manager 2.1

VMware Private AI Foundation with NVIDIA アーキテクチャとコンポーネントの詳細については、「VMware Private AI Foundation with NVIDIA のシステム アーキテクチャ」を参照してください。

VMware Private AI Foundation with NVIDIA の展開ワークフロー

VMware Private AI Foundation with NVIDIA の機能は、次のいずれかの AI ワークロード タイプの展開を可能にするために必要な追加コンポーネントを含むコンポーネントの基本セットに基づいています。

  • 一般的なディープ ラーニング仮想マシン
  • GPU アクセラレーション TKG クラスタ上の一般的な AI ワークロード
  • GPU アクセラレーション TKG クラスタ上のディープ ラーニング仮想マシンまたはアプリケーションとしての RAG ワークロード

    RAG ワークロードの展開は、pgvector PostgreSQL データベースの展開と pgvector データベースを使用したアプリケーションの構成により、TKG クラスタ上のディープ ラーニング仮想マシンと AI ワークロードの一般的なアプローチを拡張します。

切断された環境では、アプライアンスをセットアップして展開し、ローカルでリソースを提供して、ワークロードがアクセスできるようにするための追加の手順を実行する必要があります。

接続された環境
タスク AI ワークロード展開のユースケース 手順
VMware Private AI Foundation with NVIDIA を展開するためのアーキテクチャと要件を確認します。 すべて
NVIDIA ライセンス ポータルでライセンス サービス インスタンスを構成し、クライアント構成トークンを生成します。 NVIDIA ライセンス システム ユーザー ガイド
NVIDIA NGC カタログにアクセスするための API キーを生成します。 NVIDIA AI Enterprise コンテナのプルと実行
ディープ ラーニング仮想マシン イメージ用のコンテンツ ライブラリを作成します。 ディープ ラーニング仮想マシンを展開する VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン イメージを含むコンテンツ ライブラリを作成する
vSphere IaaS control plane(以前の vSphere with Tanzu)を有効にします。 すべて VMware Private AI Foundation with NVIDIA の vSphere IaaS Control Plane の構成
展開

VMware Aria Automation

VMware Aria Suite Lifecycle in VMware Cloud Foundation mode を使用して展開します。
すべて

データ サイエンティストおよび DevOps エンジニアが、VMware Aria Automation のセルフサービス カタログ アイテムを使用してワークロードを展開する場合に必要です。

  1. VMware Cloud Foundation のためのプライベート クラウド自動化
  2. VMware Private AI Foundation with NVIDIA 用の VMware Aria Automation の設定
VMware Aria Suite Lifecycle in VMware Cloud Foundation mode を使用して VMware Aria Operations を展開します。 すべて VMware Cloud Foundation のためのインテリジェントな運用管理
VMware Data Services Manager の展開 RAG ワークロードを展開する
  1. VMware Data Services Manager のインストールと構成

    VMware Data Services Manager インスタンスを管理ドメインに展開します。

  2. VMware Aria Automation でベクター データベース カタログ アイテムを作成する
スーパーバイザー インスタンスにアクセスでき、Docker、Helm、および Kubernetes CLI Tools for vSphere を備えたマシンをセットアップします。 すべて

kubectl コマンドを使用して AI ワークロードを直接展開する場合に必要です。

Kubernetes CLI Tools for vSphere のインストール
切断された環境
タスク 関連する AI ワークロードの展開オプション 手順
VMware Private AI Foundation with NVIDIA の展開の要件を参照してください。 すべて
NVIDIA 委任ライセンス サービス インスタンスを展開します。 DLS 仮想アプライアンスのインストールと構成

仮想アプライアンスは、AI ワークロードと同じワークロード ドメインに展開するか、または管理ドメインに展開できます。

  1. NVIDIA ライセンス ポータルに NVIDIA DLS インスタンスを登録し、ライセンス サーバをバインドしてインストールします。
  2. クライアント構成トークンを生成します。
ディープ ラーニング仮想マシン イメージ用のコンテンツ ライブラリを作成します。 ディープ ラーニング仮想マシンを展開する VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン イメージを含むコンテンツ ライブラリを作成する
vSphere IaaS control plane(以前の vSphere with Tanzu)を有効にします。 すべて VMware Private AI Foundation with NVIDIA の vSphere IaaS Control Plane の構成
  • インターネットにアクセスでき、Docker と Helm がインストールされているマシンをセットアップします。
  • VI ワークロード ドメインの vCenter Server、スーパーバイザー インスタンス、およびローカル コンテナ レジストリにアクセスできるマシンをセットアップします。

    マシンには、Docker、Helm、および Kubernetes CLI Tools for vSphere がインストールされている必要があります。

Ubuntu の Tanzu Kubernetes リリース (TKr) のコンテンツ ライブラリを構成します。
  • GPU アクセラレーション TKG クラスタに RAG ワークロードを展開する
  • GPU アクセラレーション TKG クラスタに AI ワークロードを展開する
切断された VMware Private AI Foundation with NVIDIA 環境用に Ubuntu TKr でコンテンツ ライブラリを構成する
スーパーバイザーで Harbor レジストリ サービスをセットアップします。 すべて

AI ワークロードが vSphere IaaS control plane のスーパーバイザーに展開される場合に必要です。

vSphere IaaS control plane のない環境で、vSphere クラスタで直接実行されているディープ ラーニング仮想マシンでコンテナ イメージをプルするには、別のベンダーのレジストリを構成する必要があります。

VMware Private AI Foundation with NVIDIA でのプライベート Harbor レジストリの設定
NVIDIA Operator のコンポーネントを環境にアップロードします。
  • GPU アクセラレーション TKG クラスタに RAG ワークロードを展開する
  • GPU アクセラレーション TKG クラスタに AI ワークロードを展開する
切断された環境への NVIDIA GPU Operator コンポーネントのアップロード
vGPU ゲスト ドライバをダウンロードする場所を指定します。 ディープ ラーニング仮想マシンを展開する NVIDIA ライセンス ポータルからダウンロードされた必要な vGPU ゲスト ドライバ バージョンと、次のいずれかの形式のインデックスをローカル Web サーバにアップロードします。
  • vGPU ゲスト ドライバの .run または .zip ファイルのリストを含むインデックス .txt ファイル。
    host-driver-version-1 guest-driver-download-URL-1
    host-driver-version-2 guest-driver-download-URL-2
    host-driver-version-3 guest-driver-download-URL-3
  • NGINX や Apache HTTP Server などの Web サーバによって生成された形式のディレクトリ インデックス。バージョン固有の vGPU ドライバ ファイルは、.zip ファイルとして指定する必要があります。
NVIDIA NGC コンテナ イメージを、スーパーバイザーの Harbor レジストリ サービスなどのプライベート コンテナ レジストリにアップロードします。 すべて

vSphere IaaS control plane のない環境で、vSphere クラスタで直接実行されているディープ ラーニング仮想マシンでコンテナ イメージをプルするには、別のベンダーのレジストリを構成する必要があります。

VMware Private AI Foundation with NVIDIA のプライベート Harbor レジストリに AI コンテナ イメージをアップロードする
VMware Aria Suite Lifecycle in VMware Cloud Foundation mode を使用して VMware Aria Automation を展開します。 すべて

データ サイエンティストおよび DevOps エンジニアが、VMware Aria Automation のセルフサービス カタログ アイテムを使用してワークロードを展開する場合に必要です。

  1. VMware Cloud Foundation のためのプライベート クラウド自動化
  2. VMware Private AI Foundation with NVIDIA 用の VMware Aria Automation の設定
VMware Aria Suite Lifecycle in VMware Cloud Foundation mode を使用して VMware Aria Operations を展開します。 すべて VMware Cloud Foundation のためのインテリジェントな運用管理
VMware Data Services Manager の展開 RAG ワークロードを展開する
  1. VMware Data Services Manager のインストールと構成

    VMware Data Services Manager インスタンスを管理ドメインに展開します。

  2. VMware Aria Automation でベクター データベース カタログ アイテムを作成する