VMware Private AI Foundation with NVIDIA では、DevOps エンジニアが Kubernetes API を使用して、NVIDIA GPU を使用する TKG クラスタをプロビジョニングします。次に、NVIDIA NGC カタログからコンテナ AI ワークロードを展開できます。

kubectl を使用して、クラウド管理者が構成した名前空間に TKG クラスタを展開します。

前提条件

クラウド管理者に、AI 対応インフラストラクチャのための次の前提条件が満たされていることを確認します。

手順

  1. スーパーバイザー制御プレーンにログインします。
    kubectl vsphere login --server=SUPERVISOR-CONTROL-PLANE-IP-ADDRESS-or-FQDN --vsphere-username USERNAME
  2. TKG クラスタをプロビジョニングし、NVIDIA GPU Operator と NVIDIA Network Operator をインストールします。

次のタスク

NVIDIA NGC カタログから AI コンテナ イメージを展開します。