DevOps エンジニアである場合は、セルフサービス Automation Service Broker カタログの AI Kubernetes クラスタ カタログ アイテムを使用して、NVIDIA GPU でアクセラレーションされた Tanzu Kubernetes Grid クラスタをプロビジョニングできます。次に、NVIDIA NGC から AI コンテナ イメージをクラスタに展開できます。
TKG クラスタには、NVIDIA GPU オペレータが含まれています。これは、TKG クラスタ ノードで NVIDIA GPU ハードウェアに適切な NVIDIA ドライバを設定する Kubernetes オペレータです。展開されたクラスタは、GPU 関連の追加セットアップを必要とせずに、AI/ML ワークロードに使用する準備ができています。
この展開には、スーパーバイザー名前空間、3 台のワーク ノードを持つ TKG クラスタ、TKG クラスタ内の複数のリソース、GPU Operator アプリケーションを展開する Carvel アプリケーションが含まれています。
RAG ベースの Tanzu Kubernetes Grid クラスタの場合は、[AI Kubernetes RAG クラスタ] カタログ アイテムを使用します。VMware Aria Automation でセルフサービス カタログ アイテムを使用して TKG クラスタへ RAG ワークロードを展開するを参照してください。
前提条件
- クラウド管理者がプロジェクトで Private AI Automation Services を構成していることを確認します。
- AI カタログ アイテムを要求する権限があることを確認します。
手順
- Automation Service Broker の [カタログ] ページで、[AI Kubernetes クラスタ] カードを見つけて、[要求] をクリックします。
- プロジェクトを選択します。
- 展開の名前と説明を入力します。
- 制御ペイン ノードの数を選択します。
設定 サンプル値 ノード数 1 仮想マシン クラス best-effort-4xlarge - 16 個の CPU と 128 GB のメモリ クラスの選択により、仮想マシン内で使用可能なリソースが定義されます。
- ワーク ノードの数を選択します。
設定 説明 ノード数 3 仮想マシン クラス best-effort-4xlarge-a100-40c - 1 個の vGPU (40 GB)、16 個の CPU、120 GB のメモリ タイム スライス レプリカ 1 タイム スライスは、ワークロード間で共有される GPU のレプリカのセットを定義します。
- NVIDIA AI エンタープライズ API キーを指定します。
- [送信] をクリックします。
次のタスク
AI コンテナ イメージを実行します。接続された環境では、NVIDIA NGC カタログを使用します。切断された環境では、スーパーバイザーの Harbor レジストリを使用します。