クラスタ ノードに Ubuntu オペレーティング システムを使用する TanzuKubernetesCluster クラスタをプロビジョニングするには、こちらのサンプル YAML を参照してください。このようなクラスタを、vGPU ワークロードに使用できます。

v1alpha3 の例:TKC と Ubuntu TKR を使用する TKC

デフォルトでは、TKG クラスタ ノードには、指定した TKR の PhotonOS エディションが使用されます。参照されている TKR で OSImage 形式がサポートされ、Ubuntu OS エディションが使用可能な場合は、run.tanzu.vmware.com/resolve-os-image: os-name=ubuntu 注釈を使用して TKR の Ubuntu OS エディションを指定します。OSImage 形式の詳細については、TKR OSImage 形式を参照してください。

AI/ML ワークロードには Ubuntu TKR が必要です。各ワーカー ノードのプールには、コンテナ化されたランタイムと kubelet の専用ボリュームがあり、それぞれ 70 GiB の容量があります。コンテナベースの AI/ML ワークロードには、このサイズの別のボリュームを使用することを推奨します。
apiVersion: run.tanzu.vmware.com/v1alpha3
kind: TanzuKubernetesCluster
metadata:
  name: tkc-ubuntu-gpu
  namespace: tkg-cluster-ns
  annotations:
    run.tanzu.vmware.com/resolve-os-image: os-name=ubuntu
spec:
   topology:
     controlPlane:
       replicas: 3
       storageClass: tkg-storage-policy
       vmClass: guaranteed-large
       tkr:
         reference:
           name: v1.25.7---vmware.3-fips.1-tkg.1
     nodePools:
     - name: nodepool-a100-primary
       replicas: 3
       storageClass: tkg-storage-policy
       vmClass: vgpu-a100
       tkr:
         reference:
           name: v1.25.7---vmware.3-fips.1-tkg.1
       volumes:
       - name: containerd
         mountPath: /var/lib/containerd
         capacity:
           storage: 70Gi
       - name: kubelet
         mountPath: /var/lib/kubelet
         capacity:
           storage: 70Gi
     - name: nodepool-a100-secondary
       replicas: 3
       storageClass: tkg-storage-policy
       vmClass: vgpu-a100
       tkr:
         reference:
           name: v1.25.7---vmware.3-fips.1-tkg.1
       volumes:
       - name: containerd
         mountPath: /var/lib/containerd
         capacity:
           storage: 70Gi
       - name: kubelet
         mountPath: /var/lib/kubelet
         capacity:
           storage: 70Gi
   settings:
     storage:
       defaultClass: tkg-storage-policy
     network:
       cni:
        name: antrea
       services:
        cidrBlocks: ["198.51.100.0/12"]
       pods:
        cidrBlocks: ["192.0.2.0/16"]
       serviceDomain: cluster.local