이 항목에서는 클래스 기반 워크로드 클러스터를 TKG(Tanzu Kubernetes Grid) 독립 실행형 관리 클러스터와 함께 생성하기 위한 토대로 사용할 수 있는 고유한 사용자 지정 ClusterClass 리소스 정의를 생성하는 방법을 설명합니다. ClusterClass에서 클러스터를 기반으로 하려면 해당 spec.topology.class
를 ClusterClass 이름으로 설정합니다.
이 절차는 vSphere with Tanzu Supervisor가 있는 TKG에는 적용되지 않습니다.
중요사용자 지정
ClusterClass
리소스 정의를 생성하는 것은 고급 사용자를 위한 것입니다. VMware는ClusterClass
개체를 기준으로 하는 워크로드 클러스터의 기능을 보장하지는 않습니다. 기본ClusterClass
리소스를 사용하여 워크로드 클러스터를 생성하려면 클러스터 배포 단계의 절차를 따르십시오.
ClusterClass 정의를 생성하려면 다음 도구가 로컬에 설치되어 있어야 합니다.
도구 | 버전 |
clusterctl | v1.2.0 |
ytt | 0.42.0 |
jq | 1.5-1 |
yq | v4.30.5 |
새 ClusterClass를 생성하려면 ClusterClass 개체 소스 아래에 연결된 기존의 기본 ClusterClass 개체로 시작한 다음 이를 ytt
오버레이로 수정하는 것이 좋습니다. 기본 ClusterClass 개체의 새 버전이 게시되면 동일한 사용자 지정을 구현하기 위해 오버레이를 새 버전에 적용할 수 있습니다. 아래 절차에서는 사용자 지정 ClusterClass 개체를 생성하는 이 방법을 설명합니다.
아무것도 없는 새 ClusterClass 개체를 작성하려면 클러스터 API 설명서의 ClusterClass 쓰기를 따르십시오.
Tanzu Framework 저장소에 정의된 기존 ClusterClass를 기반으로 사용자 지정 ClusterClass 개체 정의를 생성하려면 다음을 수행합니다.
Github의 Tanzu Framework 코드 저장소에서 v0.28.1 zip 번들을 다운로드하여 압축을 풉니다.
대상 인프라를 기준으로 저장소의 package
하위 디렉토리로 cd
.
packages/tkg-clusterclass-aws
packages/tkg-clusterclass-azure
packages/tkg-clusterclass-vsphere
bundle
폴더를 작업 공간에 복사합니다. 구조는 다음과 같습니다.
$ tree bundle
bundle
|-- config
|-- upstream
│ |-- base.yaml
│ |-- overlay-kube-apiserver-admission.yaml
│ |-- overlay.yaml
|-- values.yaml
독립형 관리 클러스터를 이미 배포했는지 여부에 따라 다음과 같이 값 파일에 인프라 설정을 캡처합니다.
관리 클러스터가 배포되었습니다 다음을 실행하여 default-values.yaml
을 생성합니다.
cat <<EOF > default_values.yaml
#@data/values
#@overlay/match-child-defaults missing_ok=True
---
EOF
kubectl get secret tkg-clusterclass-infra-values -o jsonpath='{.data.values\.yaml}' -n tkg-system | base64 -d >> default_values.yaml
독립형 관리 클러스터:
bundle
디렉토리에서 values.yaml
을 새 파일 default_values.yaml
로 복사합니다.cp bundle/config/values.yaml default_values.yaml
default_values.yaml
을 편집하고 인프라에 따라 변수 설정을 입력합니다. 예:VSPHERE_DATACENTER: /dc0
VSPHERE_DATASTORE: /dc0/datastore/sharedVmfs-0
VSPHERE_FOLDER: /dc0/vm
인프라별 변수는 구성 파일 변수 참조를 참조하십시오.
값 파일에서 기본 ClusterClass 매니페스트를 생성합니다.
ytt -f bundle -f default_values.yaml > default_cc.yaml
ClusterClass 매니페스트를 사용자 지정하려면 매니페스트와 함께 ytt
오버레이 파일을 생성합니다. 다음 예에서는 ClusterClass 정의에서 Linux 커널 매개 변수를 수정하는 방법을 보여 줍니다.
다음과 같은 구조의 custom
폴더를 생성합니다.
$ tree custom
custom
|-- overlays
| -- kernels.yaml
-- values.yaml
예를 들어, custom/overlays/kernels.yaml
을 편집하여 nfConntrackMax
를 변수로 추가하고, 제어부 노드의 커널 매개 변수 net.netfilter.nf_conntrack_max
의 값을 추가하는 패치를 정의합니다.
이 오버레이는 preKubeadmCommands
필드에 명령을 추가하여 구성을 sysctl.conf
에 기록합니다. 설정을 적용하려면 sysctl -p
명령을 추가하여 이 변경 내용을 적용할 수 있습니다.
#@ load("@ytt:overlay", "overlay")
#@ load("@ytt:data", "data")
#@overlay/match by=overlay.subset({"kind":"ClusterClass"})
---
apiVersion: cluster.x-k8s.io/v1beta1
kind: ClusterClass
spec:
variables:
- name: nfConntrackMax
required: false
schema:
openAPIV3Schema:
type: string
patches:
- name: nfConntrackMax
enabledIf: '{{ not (empty .nfConntrackMax) }}'
definitions:
- selector:
apiVersion: controlplane.cluster.x-k8s.io/v1beta1
kind: KubeadmControlPlaneTemplate
matchResources:
controlPlane: true
jsonPatches:
- op: add
path: /spec/template/spec/kubeadmConfigSpec/preKubeadmCommands/-
valueFrom:
template: echo "net.netfilter.nf_conntrack_max={{ .nfConntrackMax }}" >> /etc/sysctl.conf
기본 ClusterClass 정의는 변경할 수 없으므로 custom/values.yaml
오버레이를 생성하거나 편집하여 -extended
및 버전을 추가하여 사용자 지정 ClusterClass 및 모든 템플릿의 이름을 변경합니다. 예를 들면 다음과 같습니다.
#@data/values
#@overlay/match-child-defaults missing_ok=True
---
#! Change the suffix so we know from which default ClusterClass it is extended
CC-VERSION: extended-v1.0.0
#! Add other variables below if necessary
여기서 CC-VERSION
은 클러스터 클래스 버전의 이름입니다(예: VSPHERE_CLUSTER_CLASS_VERSION
).
사용자 지정 ClusterClass 생성:
ytt -f bundle -f default_values.yaml -f custom > custom_cc.yaml
(선택 사항) 기본 ClusterClass와 사용자 지정 항목 간의 차이점을 확인하여 모든 이름에 접미사가 -extended
이고 새 변수와 JSON 패치가 추가되었는지 확인합니다.
$ diff default_cc.yaml custom_cc.yaml
4c4
< name: tkg-vsphere-default-v1.0.0-cluster
---
> name: tkg-vsphere-default-extended-v1.0.0-cluster
15c15
< name: tkg-vsphere-default-v1.0.0-control-plane
---
> name: tkg-vsphere-default-extended-v1.0.0-control-plane
39c39
< name: tkg-vsphere-default-v1.0.0-worker
---
> name: tkg-vsphere-default-extended-v1.0.0-worker
63c63
< name: tkg-vsphere-default-v1.0.0-kcp
---
> name: tkg-vsphere-default-extended-v1.0.0-kcp
129c129
< name: tkg-vsphere-default-v1.0.0-md-config
---
> name: tkg-vsphere-default-extended-v1.0.0-md-config
165c165
< name: tkg-vsphere-default-v1.0.0
---
> name: tkg-vsphere-default-extended-v1.0.0
174c174
< name: tkg-vsphere-default-v1.0.0-kcp
---
> name: tkg-vsphere-default-extended-v1.0.0-kcp
180c180
< name: tkg-vsphere-default-v1.0.0-control-plane
---
> name: tkg-vsphere-default-extended-v1.0.0-control-plane
195c195
< name: tkg-vsphere-default-v1.0.0-cluster
---
> name: tkg-vsphere-default-extended-v1.0.0-cluster
205c205
< name: tkg-vsphere-default-v1.0.0-md-config
---
> name: tkg-vsphere-default-extended-v1.0.0-md-config
211c211
< name: tkg-vsphere-default-v1.0.0-worker
---
> name: tkg-vsphere-default-extended-v1.0.0-worker
228c228
< name: tkg-vsphere-default-v1.0.0-md-config
---
> name: tkg-vsphere-default-extended-v1.0.0-md-config
234c234
< name: tkg-vsphere-default-v1.0.0-worker
---
> name: tkg-vsphere-default-extended-v1.0.0-worker
537a538,542
> - name: nfConntrackMax
> required: false
> schema:
> openAPIV3Schema:
> type: string
1807a1813,1825
> - name: nfConntrackMax
> enabledIf: '{{ not (empty .nfConntrackMax) }}'
> definitions:
> - selector:
> apiVersion: controlplane.cluster.x-k8s.io/v1beta1
> kind: KubeadmControlPlaneTemplate
> matchResources:
> controlPlane: true
> jsonPatches:
> - op: add
> path: /spec/template/spec/kubeadmConfigSpec/preKubeadmCommands/-
> valueFrom:
> template: echo "net.netfilter.nf_conntrack_max={{ .nfConntrackMax }}" >> /etc/sysctl.conf
관리 클러스터에서 사용자 지정 ClusterClass를 사용하도록 설정하려면 다음과 같이 설치합니다.
ClusterClass 매니페스트를 적용합니다. 예를 들면 다음과 같습니다.
$ kubectl apply -f custom_cc.yaml
vsphereclustertemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-cluster created
vspheremachinetemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-control-plane created
vspheremachinetemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-worker created
kubeadmcontrolplanetemplate.controlplane.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-kcp created
kubeadmconfigtemplate.bootstrap.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-md-config created
clusterclass.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0 created
사용자 지정 ClusterClass가 기본 네임스페이스로 전파되었는지 확인합니다. 예:
$ kubectl get clusterclass,kubeadmconfigtemplate,kubeadmcontrolplanetemplate,vspheremachinetemplate,vsphereclustertemplate
NAME AGE
clusterclass.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0 3m16s
clusterclass.cluster.x-k8s.io/tkg-vsphere-default-v1.0.0 2d18h
NAME AGE
kubeadmconfigtemplate.bootstrap.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-md-config 3m29s
kubeadmconfigtemplate.bootstrap.cluster.x-k8s.io/tkg-vsphere-default-v1.0.0-md-config 2d18h
NAME AGE
kubeadmcontrolplanetemplate.controlplane.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-kcp 3m27s
kubeadmcontrolplanetemplate.controlplane.cluster.x-k8s.io/tkg-vsphere-default-v1.0.0-kcp 2d18h
NAME AGE
vspheremachinetemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-control-plane 3m31s
vspheremachinetemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-worker 3m28s
vspheremachinetemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-v1.0.0-control-plane 2d18h
vspheremachinetemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-v1.0.0-worker 2d18h
NAME AGE
vsphereclustertemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-extended-v1.0.0-cluster 3m31s
vsphereclustertemplate.infrastructure.cluster.x-k8s.io/tkg-vsphere-default-v1.0.0-cluster 2d18h
다음과 같이 사용자 지정 ClusterClass를 기반으로 새 워크로드 클러스터를 생성합니다.
--dry-run
옵션과 함께 tanzu cluster create
를 실행하여 클러스터 매니페스트를 생성합니다.
tanzu cluster create --file workload-1.yaml --dry-run > default_cluster.yaml
ytt
오버레이를 생성하거나 클러스터 매니페스트를 직접 편집하여 다음을 수행합니다.
topology.class
값을 사용자 지정 ClusterClass의 이름으로 바꿉니다.variables
블록에 추가합니다.ClusterClass 개체 규격 수정과 마찬가지로 다음과 같이 오버레이를 사용하면 새 업스트림 클러스터 릴리스가 있을 때마다 새 개체에 변경 내용을 자동으로 적용할 수 있습니다.
#@ load("@ytt:overlay", "overlay")
#@overlay/match by=overlay.subset({"kind":"Cluster"})
---
apiVersion: cluster.x-k8s.io/v1beta1
kind: Cluster
spec:
topology:
class: tkg-vsphere-default-extended-v1.0.0
variables:
- name: nfConntrackMax
value: "1048576"
매니페스트를 생성합니다.
ytt -f default_cluster.yaml -f cluster_overlay.yaml > custom_cluster.yaml
(선택 사항) 위의 ClusterClass와 마찬가지로 diff
를 실행하여 사용자 지정 클래스 클러스터 매니페스트를 기본 클래스 기반 클러스터와 비교할 수 있습니다. 예를 들면 다음과 같습니다.
$ diff custom_cluster.yaml default_cluster.yaml
142c142
< class: tkg-vsphere-default-extended-v1.0.0
---
> class: tkg-vsphere-default-v1.0.0
185,186d184
< - name: nfConntrackMax
< value: "1048576"
이 선택적 절차에서는 사용자 지정 ClusterClass가 생성하고 관리할 리소스를 보여 줍니다.
custom_cluster.yaml
의 복사본을 만듭니다.
cp custom_cluster.yaml dryrun_cluster.yaml
관리 클러스터에서 변수 TKR_DATA
를 복사합니다.
kubectl get cluster mgmt -n tkg-system -o jsonpath='{.spec.topology.variables}' | jq -r '.[] | select(.name == "TKR_DATA")' | yq -p json '.'
출력 위에 수동으로 .spec.topology.variables
의 dryrun_cluster.yaml
에 추가합니다(예: 이 diff
의 출력).
$ diff custom_cluster.yaml dryrun_cluster.yaml
186a187,214
> - name: TKR_DATA
> value:
> v1.24.10+vmware.1:
> kubernetesSpec:
> coredns:
> imageTag: v1.8.6_vmware.12
> etcd:
> imageTag: v3.5.4_vmware.10
> imageRepository: projects.registry.vmware.com/tkg
> kube-vip:
> imageRepository: projects-stg.registry.vmware.com/tkg
> imageTag: v0.5.5_vmware.1
> pause:
> imageTag: "3.7"
> version: v1.24.10+vmware.1
> labels:
> image-type: ova
> os-arch: amd64
> os-name: photon
> os-type: linux
> os-version: "3"
> ova-version: v1.24.10+vmware.1-tkg.1-efe12079f22627aa1246398eba077476
> run.tanzu.vmware.com/os-image: v1.24.10---vmware.1-tkg.1-efe12079f22627aa1246398eba077476
> run.tanzu.vmware.com/tkr: v1.24.10---vmware.1-tkg.1-zshippable
> osImageRef:
> moid: vm-156
> template: /dc0/vm/photon-3-kube-v1.24.10+vmware.1-tkg.1-efe12079f22627aa1246398eba077476
> version: v1.24.10+vmware.1-tkg.1-efe12079f22627aa1246398eba077476
plan
디렉토리를 생성합니다.
mkdir plan
클러스터 생성을 시험 실행합니다. 예:
$ clusterctl alpha topology plan -f dryrun_cluster.yaml -o plan
Detected a cluster with Cluster API installed. Will use it to fetch missing objects.
No ClusterClasses will be affected by the changes.
The following Clusters will be affected by the changes:
* default/workload-1
Changes for Cluster "default/workload-1":
NAMESPACE KIND NAME ACTION
default KubeadmConfigTemplate workload-1-md-0-bootstrap-lvchb created
default KubeadmControlPlane workload-1-2zmql created
default MachineDeployment workload-1-md-0-hlr7c created
default MachineHealthCheck workload-1-2zmql created
default MachineHealthCheck workload-1-md-0-hlr7c created
default Secret workload-1-shim created
default VSphereCluster workload-1-fmt2j created
default VSphereMachineTemplate workload-1-control-plane-mf6k6 created
default VSphereMachineTemplate workload-1-md-0-infra-k88bk created
default Cluster workload-1 modified
Created objects are written to directory "plan/created"
Modified objects are written to directory "plan/modified"
생성된 다음 파일을 확인하고 KubeadmControlPlane_default_workload-1-2zmql.yaml
에서 커널 구성을 찾습니다.
$ tree plan
plan
|-- created
| |-- KubeadmConfigTemplate_default_workload-1-md-0-bootstrap-lvchb.yaml
| |-- KubeadmControlPlane_default_workload-1-2zmql.yaml
| |-- MachineDeployment_default_workload-1-md-0-hlr7c.yaml
| |-- MachineHealthCheck_default_workload-1-2zmql.yaml
| |-- MachineHealthCheck_default_workload-1-md-0-hlr7c.yaml
| |-- Secret_default_workload-1-shim.yaml
| |-- VSphereCluster_default_workload-1-fmt2j.yaml
| |-- VSphereMachineTemplate_default_workload-1-control-plane-mf6k6.yaml
| `-- VSphereMachineTemplate_default_workload-1-md-0-infra-k88bk.yaml
`-- modified
|-- Cluster_default_workload-1.diff
|-- Cluster_default_workload-1.jsonpatch
|-- Cluster_default_workload-1.modified.yaml
`-- Cluster_default_workload-1.original.yaml
2 directories, 13 files
사용자 지정 ClusterClass를 변경할 때마다 위의 리소스를 비교해야 합니다.
다음과 같이 위에서 생성된 사용자 지정 매니페스트를 기반으로 사용자 지정 워크로드 클러스터를 생성합니다.
위에서 생성된 사용자 지정 클래스 클러스터 매니페스트를 적용합니다. 예:
$ kubectl apply -f custom_cluster.yaml
secret/workload-1-vsphere-credential created
secret/workload-1-nsxt-credential created
vspherecpiconfig.cpi.tanzu.vmware.com/workload-1 created
vspherecsiconfig.csi.tanzu.vmware.com/workload-1 created
clusterbootstrap.run.tanzu.vmware.com/workload-1 created
secret/workload-1 created
cluster.cluster.x-k8s.io/workload-1 created
주의변수
TKR_DATA
가 TKG Webhook에 의해 주입되기 때문에 매니페스트를 생성하는 데 사용된dryrun_cluster.yaml
을 사용하지 마십시오.
생성된 개체 속성을 확인합니다. 예를 들어 위의 커널 수정을 사용하는 경우 KubeadmControlPlane
개체를 검색하고 커널 구성이 설정되었는지 확인합니다.
$ kubectl get kcp workload-1-jgwd9 -o yaml
apiVersion: controlplane.cluster.x-k8s.io/v1beta1
kind: KubeadmControlPlane
...
preKubeadmCommands:
- hostname "{{ ds.meta_data.hostname }}"
- echo "::1 ipv6-localhost ipv6-loopback" >/etc/hosts
- echo "127.0.0.1 localhost" >>/etc/hosts
- echo "127.0.0.1 {{ ds.meta_data.hostname }}" >>/etc/hosts
- echo "{{ ds.meta_data.hostname }}" >/etc/hostname
- echo "net.netfilter.nf_conntrack_max=1048576" >> /etc/sysctl.conf
useExperimentalRetryJoin: true
...
제어부 노드에 로그인하고 해당 sysctl.conf
가 수정되었는지 확인합니다.
$ capv@workload-1-cn779-pthp5
[ ~ ]$ sudo cat /etc/sysctl.conf
...
net.ipv4.ip_forward=1
net.ipv4.tcp_timestamps=1
net.netfilter.nf_conntrack_max=1048576