클러스터 노드에 Ubuntu OS를 사용하는 TanzuKubernetesCluster 클러스터를 프로비저닝하려면 여기에 제공된 예시 YAML을 참조하십시오. 이러한 클러스터는 vGPU 워크로드에 사용할 수 있습니다.

v1alpha3 예시: Ubuntu TKR이 있는 TKC

기본적으로 명명된 TKR의 PhotonOS 버전은 TKG 클러스터 노드에 사용됩니다. 참조된 TKR이 OSImage 형식을 지원하고 Ubuntu OS 버전을 사용할 수 있는 경우 run.tanzu.vmware.com/resolve-os-image: os-name=ubuntu 주석을 사용하여 TKR의 Ubuntu OS 버전을 지정합니다. OSImage 형식에 대한 자세한 내용은 TKr 운영 체제 이미지 형식 항목을 참조하십시오.

AI/ML 워크로드에는 Ubuntu TKR이 필요합니다. 각 작업자 노드 풀에는 각각 70GiB 용량의 containerd 런타임 및 kubelet에 대한 별도의 볼륨이 있습니다. 컨테이너 기반 AI/ML 워크로드에는 이 크기의 별도 볼륨을 제공하는 것이 좋습니다.
apiVersion: run.tanzu.vmware.com/v1alpha3
kind: TanzuKubernetesCluster
metadata:
  name: tkc-ubuntu-gpu
  namespace: tkg-cluster-ns
  annotations:
    run.tanzu.vmware.com/resolve-os-image: os-name=ubuntu
spec:
   topology:
     controlPlane:
       replicas: 3
       storageClass: tkg-storage-policy
       vmClass: guaranteed-large
       tkr:
         reference:
           name: v1.25.7---vmware.3-fips.1-tkg.1
     nodePools:
     - name: nodepool-a100-primary
       replicas: 3
       storageClass: tkg-storage-policy
       vmClass: vgpu-a100
       tkr:
         reference:
           name: v1.25.7---vmware.3-fips.1-tkg.1
       volumes:
       - name: containerd
         mountPath: /var/lib/containerd
         capacity:
           storage: 70Gi
       - name: kubelet
         mountPath: /var/lib/kubelet
         capacity:
           storage: 70Gi
     - name: nodepool-a100-secondary
       replicas: 3
       storageClass: tkg-storage-policy
       vmClass: vgpu-a100
       tkr:
         reference:
           name: v1.25.7---vmware.3-fips.1-tkg.1
       volumes:
       - name: containerd
         mountPath: /var/lib/containerd
         capacity:
           storage: 70Gi
       - name: kubelet
         mountPath: /var/lib/kubelet
         capacity:
           storage: 70Gi
   settings:
     storage:
       defaultClass: tkg-storage-policy
     network:
       cni:
        name: antrea
       services:
        cidrBlocks: ["198.51.100.0/12"]
       pods:
        cidrBlocks: ["192.0.2.0/16"]
       serviceDomain: cluster.local