環境にインターネット接続がない場合、クラウド管理者はローカル コンテンツ ライブラリを提供し、Tanzu Kubernetes リリース (TKr) を手動でアップロードしてスーパーバイザーに関連付けます。

TKG クラスタに NVIDIA 対応 AI ワークロードを展開するには、Ubuntu エディションの Tanzu Kubernetes リリースを使用する必要があります。

注意: TKr コンテンツ ライブラリは、新しい TKG クラスタをプロビジョニングするときに、スーパーバイザー内のすべての vSphere 名前空間で使用されます。
注: このドキュメントは、 VMware Cloud Foundation 5.2.1 に基づいています。 VMware Cloud Foundation 5.2 の VMware Private AI Foundation with NVIDIA 機能の詳細については、 VMware Cloud Foundation 5.2 向け VMware Private AI Foundation with NVIDIA ガイドを参照してください。

前提条件

手順

  1. 必要な Kubernetes バージョンの Ubuntu ベースの TKr イメージを https://wp-content.vmware.com/v2/latest/ からダウンロードします。
  2. VMware Cloud Foundation 5.2.1 インスタンスの場合は、管理ドメインの vCenter Server インスタンス (https://<vcenter_server_fqdn>/ui) に [email protected] としてログインします。
  3. [vSphere Client] サイド パネルで、[Private AI Foundation] をクリックします。
  4. [Private AI Foundation] ワークフローで、上部にある [クラウドが切断されました] を選択し、[ワークロード管理の設定] セクションをクリックします。
  5. Tkr のローカル コンテンツ ライブラリを作成し、TKr イメージをインポートします。

    ローカル コンテンツ ライブラリの作成(エアギャップ クラスタのプロビジョニング用)を参照してください。ガイド付き展開ワークフローのウィザードは、vSphere Client の [コンテンツ ライブラリ] 領域にある同様のウィザードと同じです。

  6. コンテンツ ライブラリをスーパーバイザーに追加します。
    1. [vSphere Client] サイド パネルで、[ワークロード管理] をクリックします。
    2. AI ワークロードのスーパーバイザーに移動します。
    3. [構成] タブで [全般] を選択します。
    4. [Tanzu Kubernetes Grid Service] プロパティの横にある [編集] をクリックします。
    5. 表示される [全般] ページで [Tanzu Kubernetes Grid Service] を展開し、[コンテンツ ライブラリ] の横にある [編集] をクリックします。
    6. TKr イメージを含むコンテンツ ライブラリを選択し、[OK] をクリックします。