VMware Private AI Foundation with NVIDIA では、DevOps エンジニアが Kubernetes API を使用して、NVIDIA GPU を使用する TKG クラスタをプロビジョニングします。次に、NVIDIA NGC カタログからコンテナ AI ワークロードを展開できます。
kubectl を使用して、クラウド管理者が構成した名前空間に TKG クラスタを展開します。
前提条件
クラウド管理者に、AI 対応インフラストラクチャのための次の前提条件が満たされていることを確認します。
- VMware Private AI Foundation with NVIDIA が構成されていること。プライベート AI ワークロード展開のための VMware Cloud Foundation の準備を参照してください。
- 切断された環境では、Ubuntu TKr イメージを含むコンテンツ ライブラリが AI ワークロードの vSphere 名前空間に追加されます。切断された VMware Private AI Foundation with NVIDIA 環境用に Ubuntu TKr でコンテンツ ライブラリを構成するを参照してください。