VMware Private AI Foundation with NVIDIA では、DevOps エンジニアが Kubernetes API を使用して、NVIDIA GPU を使用する TKG クラスタをプロビジョニングします。切断された環境では、ローカルの Ubuntu パッケージ リポジトリを追加でセットアップし、スーパーバイザーの Harbor レジストリを使用する必要があります。
前提条件
クラウド管理者に、AI 対応インフラストラクチャのための次の前提条件が満たされていることを確認します。
- VMware Private AI Foundation with NVIDIA が展開および構成されている。VMware Private AI Foundation with NVIDIA の展開を参照してください。
- Ubuntu TKr イメージを含むコンテンツ ライブラリが AI ワークロードの名前空間に追加されている。切断された VMware Private AI Foundation with NVIDIA 環境用に Ubuntu TKr でコンテンツ ライブラリを構成するを参照してください。
- スーパーバイザー エンドポイントにアクセスできるマシン。
手順
- クラウド管理者が構成した vSphere 名前空間に TKG クラスタをプロビジョニングします。
「NVIDIA vGPU 用の TKGS クラスタのプロビジョニング」を参照してください。
- TKG クラスタのセットアップを完了します。
「VMware vSphere with VMware Tanzu(エアギャップ)のインストール」を参照してください。
- ローカルの Ubuntu パッケージ リポジトリを指定し、NVIDIA GPU Operator パッケージ内のコンテナ イメージをスーパーバイザーの Harbor レジストリにアップロードします。
- NVIDIA GPU Operator の Helm チャート定義を更新して、ローカルの Ubuntu パッケージ リポジトリとプライベート Harbor レジストリを使用します。
- NVIDIA ライセンス情報を指定します。
- NVIDIA GPU Operator をインストールします。
次に行うこと
スーパーバイザーの Harbor レジストリから AI コンテナ イメージを展開します。