In der Beispiel-YAML finden Sie Informationen zur Bereitstellung eines TanzuKubernetesCluster-Clusters, der das Ubuntu-Betriebssystem für Clusterknoten verwendet. Ein solcher Cluster kann für vGPU-Arbeitslasten verwendet werden.
v1alpha3-Beispiel: TKC mit Ubuntu-TKR
Standardmäßig wird die Photon OS-Edition der benannten TKR für TKG-Clusterknoten verwendet. Wenn die referenzierte TKR das OSImage-Format unterstützt und eine Ubuntu-Betriebssystemedition verfügbar ist, geben Sie mithilfe der Anmerkung run.tanzu.vmware.com/resolve-os-image: os-name=ubuntu
die Ubuntu-Betriebssystemedition der TKR an. Weitere Informationen zum OSImage-Format finden Sie unter TKr-Betriebssystem-Image-Format.
Für KI-/ML-Arbeitslasten ist die Ubuntu-TKR erforderlich. Jeder Worker-Knotenpool verfügt über ein separates Volume für die containerd-Laufzeit und kubelet mit jeweils 70 GiB Kapazität. Es wird empfohlen, ein separates Volume mit dieser Größe für containerbasierte KI-/ML-Arbeitslasten bereitzustellen.
apiVersion: run.tanzu.vmware.com/v1alpha3 kind: TanzuKubernetesCluster metadata: name: tkc-ubuntu-gpu namespace: tkg-cluster-ns annotations: run.tanzu.vmware.com/resolve-os-image: os-name=ubuntu spec: topology: controlPlane: replicas: 3 storageClass: tkg-storage-policy vmClass: guaranteed-large tkr: reference: name: v1.25.7---vmware.3-fips.1-tkg.1 nodePools: - name: nodepool-a100-primary replicas: 3 storageClass: tkg-storage-policy vmClass: vgpu-a100 tkr: reference: name: v1.25.7---vmware.3-fips.1-tkg.1 volumes: - name: containerd mountPath: /var/lib/containerd capacity: storage: 70Gi - name: kubelet mountPath: /var/lib/kubelet capacity: storage: 70Gi - name: nodepool-a100-secondary replicas: 3 storageClass: tkg-storage-policy vmClass: vgpu-a100 tkr: reference: name: v1.25.7---vmware.3-fips.1-tkg.1 volumes: - name: containerd mountPath: /var/lib/containerd capacity: storage: 70Gi - name: kubelet mountPath: /var/lib/kubelet capacity: storage: 70Gi settings: storage: defaultClass: tkg-storage-policy network: cni: name: antrea services: cidrBlocks: ["198.51.100.0/12"] pods: cidrBlocks: ["192.0.2.0/16"] serviceDomain: cluster.local