環境にインターネット接続がない場合、クラウド管理者はローカル コンテンツ ライブラリを提供し、Tanzu Kubernetes リリース (TKr) を手動でアップロードしてスーパーバイザーに関連付けます。
TKG クラスタに NVIDIA 対応 AI ワークロードを展開するには、Ubuntu エディションの Tanzu Kubernetes リリースを使用する必要があります。
注意: TKr コンテンツ ライブラリは、新しい TKG クラスタをプロビジョニングするときに、スーパーバイザー内のすべての vSphere 名前空間で使用されます。
注: このドキュメントは、
VMware Cloud Foundation 5.2.1 に基づいています。
VMware Cloud Foundation 5.2 の
VMware Private AI Foundation with NVIDIA 機能の詳細については、
VMware Cloud Foundation 5.2 向け VMware Private AI Foundation with NVIDIA ガイドを参照してください。
前提条件
- 展開ワークフローのこの手順まで VMware Private AI Foundation with NVIDIA が構成されていることを確認します。プライベート AI ワークロード展開のための VMware Cloud Foundation の準備を参照してください。
手順
- 必要な Kubernetes バージョンの Ubuntu ベースの TKr イメージを https://wp-content.vmware.com/v2/latest/ からダウンロードします。
- VMware Cloud Foundation 5.2.1 インスタンスの場合は、管理ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) に [email protected] としてログインします。
- [vSphere Client] サイド パネルで、[Private AI Foundation] をクリックします。
- [Private AI Foundation] ワークフローで、上部にある [クラウドが切断されました] を選択し、[ワークロード管理の設定] セクションをクリックします。
- Tkr のローカル コンテンツ ライブラリを作成し、TKr イメージをインポートします。
ローカル コンテンツ ライブラリの作成(エアギャップ クラスタのプロビジョニング用)を参照してください。ガイド付き展開ワークフローのウィザードは、vSphere Client の [コンテンツ ライブラリ] 領域にある同様のウィザードと同じです。
- コンテンツ ライブラリをスーパーバイザーに追加します。
- [vSphere Client] サイド パネルで、[ワークロード管理] をクリックします。
- AI ワークロードのスーパーバイザーに移動します。
- [構成] タブで [全般] を選択します。
- [Tanzu Kubernetes Grid Service] プロパティの横にある [編集] をクリックします。
- 表示される [全般] ページで [Tanzu Kubernetes Grid Service] を展開し、[コンテンツ ライブラリ] の横にある [編集] をクリックします。
- TKr イメージを含むコンテンツ ライブラリを選択し、[OK] をクリックします。