vSphere용 관리 클러스터 구성

클러스터 구성 파일을 생성하려면 이전 배포에 대한 기존 구성 파일을 vSphere에 복사하여 업데이트할 수 있습니다. 또는 빈 템플릿을 사용하여 파일을 처음부터 생성할 수 있습니다.

관리 클러스터 구성 템플릿

아래 템플릿에는 vSphere에서 관리 클러스터를 배포하는 것과 관련된 모든 옵션이 포함되어 있습니다. 이 템플릿을 복사하여 관리 클러스터를 vSphere에 배포하도록 사용할 수 있습니다.

  • 모든 대상 플랫에 공통되는 설정을 업데이트하는 방법에 대한 자세한 내용은 관리 클러스터 구성 파일 생성을 참조하십시오.
  • 모든 구성 파일 변수에 대한 자세한 내용은 구성 파일 변수 참조를 참조하십시오.
  • vSphere 설정을 구성하는 방법에 대한 예는 템플릿 아래의 섹션을 참조하십시오.

필수 옵션의 주석 처리를 제거했습니다. 선택 사항 설정을 주석 처리했습니다. 기본값은 해당되는 경우 포함됩니다.

#! ---------------------------------------------------------------------
#! Basic cluster creation configuration
#! ---------------------------------------------------------------------

CLUSTER_NAME:
CLUSTER_PLAN: dev
INFRASTRUCTURE_PROVIDER: vsphere
# CLUSTER_API_SERVER_PORT: # For deployments without NSX Advanced Load Balancer
ENABLE_CEIP_PARTICIPATION: true
ENABLE_AUDIT_LOGGING: true
CLUSTER_CIDR: 100.96.0.0/11
SERVICE_CIDR: 100.64.0.0/13
# CAPBK_BOOTSTRAP_TOKEN_TTL: 30m

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER:
VSPHERE_USERNAME:
VSPHERE_PASSWORD:
VSPHERE_DATACENTER:
VSPHERE_RESOURCE_POOL:
VSPHERE_DATASTORE:
VSPHERE_FOLDER:
VSPHERE_NETWORK: VM Network
# VSPHERE_CONTROL_PLANE_ENDPOINT: # Required for Kube-Vip
# VSPHERE_CONTROL_PLANE_ENDPOINT_PORT: 6443
VIP_NETWORK_INTERFACE: "eth0"
# VSPHERE_TEMPLATE:
VSPHERE_SSH_AUTHORIZED_KEY:
# VSPHERE_STORAGE_POLICY_ID: ""
VSPHERE_TLS_THUMBPRINT:
VSPHERE_INSECURE: false
DEPLOY_TKG_ON_VSPHERE7: false
ENABLE_TKGS_ON_VSPHERE7: false

#! ---------------------------------------------------------------------
#! Node configuration
#! ---------------------------------------------------------------------

# SIZE:
# CONTROLPLANE_SIZE:
# WORKER_SIZE:
# OS_NAME: ""
# OS_VERSION: ""
# OS_ARCH: ""
# VSPHERE_NUM_CPUS: 2
# VSPHERE_DISK_GIB: 40
# VSPHERE_MEM_MIB: 4096
# VSPHERE_MTU:
# VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
# VSPHERE_CONTROL_PLANE_DISK_GIB: 40
# VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
# VSPHERE_WORKER_NUM_CPUS: 2
# VSPHERE_WORKER_DISK_GIB: 40
# VSPHERE_WORKER_MEM_MIB: 4096

#! ---------------------------------------------------------------------
#! VMware NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

#! ---------------------------------------------------------------------
#! NSX Advanced Load Balancer configuration
#! ---------------------------------------------------------------------

AVI_ENABLE: false
AVI_CONTROL_PLANE_HA_PROVIDER: false
# AVI_NAMESPACE: "tkg-system-networking"
# AVI_DISABLE_INGRESS_CLASS: true
# AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
# AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
# AVI_CA_NAME: avi-controller-ca
# AVI_CONTROLLER:
# AVI_USERNAME: ""
# AVI_PASSWORD: ""
# AVI_CLOUD_NAME:
# AVI_SERVICE_ENGINE_GROUP:
# AVI_NSXT_T1LR: # Required for NSX ALB deployments on NSX Cloud.
# AVI_MANAGEMENT_CLUSTER_SERVICE_ENGINE_GROUP:
# AVI_DATA_NETWORK:
# AVI_DATA_NETWORK_CIDR:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR:
# AVI_CA_DATA_B64: ""
# AVI_LABELS: ""
# AVI_DISABLE_STATIC_ROUTE_SYNC: true
# AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
# AVI_INGRESS_SHARD_VS_SIZE: ""
# AVI_INGRESS_SERVICE_TYPE: ""
# AVI_INGRESS_NODE_NETWORK_LIST: ""

#! ---------------------------------------------------------------------
#! Image repository configuration
#! ---------------------------------------------------------------------

# TKG_CUSTOM_IMAGE_REPOSITORY: ""
# TKG_CUSTOM_IMAGE_REPOSITORY_CA_CERTIFICATE: ""

#! ---------------------------------------------------------------------
#! Proxy configuration
#! ---------------------------------------------------------------------

# TKG_HTTP_PROXY: ""
# TKG_HTTPS_PROXY: ""
# TKG_NO_PROXY: ""

#! ---------------------------------------------------------------------
#! Machine Health Check configuration
#! ---------------------------------------------------------------------

ENABLE_MHC:
ENABLE_MHC_CONTROL_PLANE: true
ENABLE_MHC_WORKER_NODE: true
MHC_UNKNOWN_STATUS_TIMEOUT: 5m
MHC_FALSE_STATUS_TIMEOUT: 12m

#! ---------------------------------------------------------------------
#! Identity management configuration
#! ---------------------------------------------------------------------

IDENTITY_MANAGEMENT_TYPE: "none"

#! Settings for IDENTITY_MANAGEMENT_TYPE: "oidc"
# CERT_DURATION: 2160h
# CERT_RENEW_BEFORE: 360h
# OIDC_IDENTITY_PROVIDER_CLIENT_ID:
# OIDC_IDENTITY_PROVIDER_CLIENT_SECRET:
# OIDC_IDENTITY_PROVIDER_GROUPS_CLAIM: groups
# OIDC_IDENTITY_PROVIDER_ISSUER_URL:
# OIDC_IDENTITY_PROVIDER_SCOPES: "email,profile,groups,offline_access"
# OIDC_IDENTITY_PROVIDER_USERNAME_CLAIM: email

#! The following two variables are used to configure Pinniped JWTAuthenticator for workload clusters
# SUPERVISOR_ISSUER_URL:
# SUPERVISOR_ISSUER_CA_BUNDLE_DATA:

#! Settings for IDENTITY_MANAGEMENT_TYPE: "ldap"
# LDAP_BIND_DN:
# LDAP_BIND_PASSWORD:
# LDAP_HOST:
# LDAP_USER_SEARCH_BASE_DN:
# LDAP_USER_SEARCH_FILTER:
# LDAP_USER_SEARCH_ID_ATTRIBUTE: dn
# LDAP_USER_SEARCH_NAME_ATTRIBUTE:
# LDAP_GROUP_SEARCH_BASE_DN:
# LDAP_GROUP_SEARCH_FILTER:
# LDAP_GROUP_SEARCH_NAME_ATTRIBUTE: dn
# LDAP_GROUP_SEARCH_USER_ATTRIBUTE: dn
# LDAP_ROOT_CA_DATA_B64:

#! ---------------------------------------------------------------------
#! Antrea CNI configuration
#! ---------------------------------------------------------------------

# ANTREA_NO_SNAT: true
# ANTREA_NODEPORTLOCAL: true
# ANTREA_NODEPORTLOCAL_ENABLED: true
# ANTREA_NODEPORTLOCAL_PORTRANGE: 61000-62000
# ANTREA_TRAFFIC_ENCAP_MODE: "encap"
# ANTREA_PROXY: true
# ANTREA_PROXY_ALL: true
# ANTREA_PROXY_LOAD_BALANCER_IPS: false
# ANTREA_PROXY_NODEPORT_ADDRS:
# ANTREA_PROXY_SKIP_SERVICES: ""
# ANTREA_POLICY: true
# ANTREA_TRACEFLOW: true
# ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD: false
# ANTREA_ENABLE_USAGE_REPORTING: false
# ANTREA_EGRESS: true
# ANTREA_EGRESS_EXCEPT_CIDRS: ""
# ANTREA_FLOWEXPORTER: false
# ANTREA_FLOWEXPORTER_COLLECTOR_ADDRESS: "flow-aggregator.flow-aggregator.svc:4739:tls"
# ANTREA_FLOWEXPORTER_POLL_INTERVAL: "5s"
# ANTREA_FLOWEXPORTER_ACTIVE_TIMEOUT: "5s"
# ANTREA_FLOWEXPORTER_IDLE_TIMEOUT: "15s"
# ANTREA_IPAM: false
# ANTREA_KUBE_APISERVER_OVERRIDE: ""
# ANTREA_MULTICAST: false
# ANTREA_MULTICAST_INTERFACES: ""
# ANTREA_NETWORKPOLICY_STATS: true
# ANTREA_SERVICE_EXTERNALIP: true
# ANTREA_TRANSPORT_INTERFACE: ""
# ANTREA_TRANSPORT_INTERFACE_CIDRS: ""

일반 vSphere 구성

Tanzu Kubernetes Grid가 vSphere에 로그인하고 Tanzu Kubernetes Grid가 사용할 수 있는 리소스를 지정하도록 허용하려면 정보를 입력합니다.

  • VSPHERE_SERVER, VSPHERE_USERNAME, VSPHERE_PASSWORD 설정을 vCenter Server 인스턴스의 IP 주소 또는 FQDN과 로그인에 사용할 자격 증명으로 업데이트합니다.
  • 관리 클러스터를 배포할 vSphere 데이터 센터, 리소스 풀, 데이터스토어, 폴더의 전체 경로를 입력합니다.

    • VSPHERE_DATACENTER: /<MY-DATACENTER>
    • VSPHERE_RESOURCE_POOL: /<MY-DATACENTER>/host/<CLUSTER>/Resources
    • VSPHERE_DATASTORE: /<MY-DATACENTER>/datastore/<MY-DATASTORE>
    • VSPHERE_FOLDER: /<MY-DATACENTER>/vm/<FOLDER>.
  • 클러스터의 제어부 API에 대한 HA 제공자에 따라 VSPHERE_CONTROL_PLANE_ENDPOINT를 설정하거나 비워 둡니다.
    • Kube-VIP: 고정 가상 IP 주소 또는 VIP 주소에 매핑된 FQDN(정규화된 도메인 이름)으로 설정합니다.
    • NSX Advanced Load Balancer: 끝점을 지정해야 하는 경우가 아니면 비워 둡니다. 이 경우 고정 IP 풀에 수동으로 추가한 IPAM 프로필의 VIP 네트워크 범위 내에서 고정 주소를 사용하거나 고정 주소에 매핑된 FQDN을 사용합니다.
  • VSPHERE_NETWORKVIP_NETWORK_INTERFACE에 네트워크와 네트워크 인터페이스를 지정합니다.
  • 필요한 경우 동일한 Kubernetes 버전에 여러 사용자 지정 OVA 이미지를 사용하는 경우, VSPHERE_TEMPLATE의 주석 처리를 제거하고 업데이트하여 OVA 파일의 경로를 지정합니다. /MY-DC/vm/MY-FOLDER-PATH/MY-IMAGE 형식을 사용합니다. 자세한 내용은 Tanzu CLI를 사용하여 TKG 2.3 워크로드 클러스터 생성 및 관리사용자 지정 OVA 이미지를 사용하여 클러스터 배포를 참조하십시오.
  • VSPHERE_SSH_AUTHORIZED_KEY 옵션에 SSH 키를 입력합니다. SSH 키를 가져오는 방법에 대한 자세한 내용은 vSphere에 관리 클러스터 배포 준비를 참조하십시오.
  • VSPHERE_TLS_THUMBPRINT 변수에 TLS 지문을 입력하거나 지문 확인을 건너뛰려면 VSPHERE_INSECURE: true를 설정합니다.
  • 필요한 경우 VSPHERE_STORAGE_POLICY_ID의 주석 처리를 제거하고 관리 클러스터에 사용할 VM에 대해 vCenter Server에서 구성한 VM의 스토리지 정책 이름을 지정합니다.

예:

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER: 10.185.12.154
VSPHERE_USERNAME: [email protected]
VSPHERE_PASSWORD: <encoded:QWRtaW4hMjM=>
VSPHERE_DATACENTER: /dc0
VSPHERE_RESOURCE_POOL: /dc0/host/cluster0/Resources/tanzu
VSPHERE_DATASTORE: /dc0/datastore/sharedVmfs-1
VSPHERE_FOLDER: /dc0/vm/tanzu
VSPHERE_NETWORK: "VM Network"
VSPHERE_CONTROL_PLANE_ENDPOINT: 10.185.11.134
VIP_NETWORK_INTERFACE: "eth0"
VSPHERE_TEMPLATE: /dc0/vm/tanzu/my-image.ova
VSPHERE_SSH_AUTHORIZED_KEY: ssh-rsa AAAAB3[...]tyaw== [email protected]
VSPHERE_TLS_THUMBPRINT: 47:F5:83:8E:5D:36:[...]:72:5A:89:7D:29:E5:DA
VSPHERE_INSECURE: false
VSPHERE_STORAGE_POLICY_ID: "My storage policy"

노드 크기 구성

Tanzu CLI는 구성 파일에 입력하는 설정에 따라 관리 클러스터 및 워크로드 클러스터의 개별 노드를 생성합니다. vSphere에서 모든 노드 VM이 미리 정의된 동일한 구성을 가지도록 구성하고 제어부와 Worker 노드에 미리 정의된 다른 구성을 설정하거나 노드의 구성을 사용자에 맞게 수정할 수 있습니다. 이러한 설정을 사용하여 관리 클러스터 노드에 구성이 서로 다른 노드가 있는 클러스터를 생성할 수 있습니다. 제어부 노드와 Worker 노드의 구성이 다른 클러스터를 생성할 수도 있습니다.

미리 정의된 노드 크기

Tanzu CLI는 클러스터 노드에 대해 다음과 같은 미리 정의된 구성을 제공합니다.

  • small: CPU 2개, 4GB 메모리, 20GB 디스크
  • medium: CPU 2개, 8 GB 메모리, 40 GB 디스크
  • large: CPU 4개, 16 GB 메모리, 40 GB 디스크
  • extra-large: CPU 8개, 32 GB 메모리, 80 GB 디스크

모든 제어부 및 Worker 노드 VM의 크기가 동일한 클러스터를 생성하려면 SIZE 변수를 지정합니다. SIZE 변수를 설정하면 모든 노드가 사용자가 설정한 구성으로 생성됩니다.

SIZE: "large"

제어부 및 Worker 노드 VM의 크기가 다른 클러스터를 생성하려면 CONTROLPLANE_SIZEWORKER_SIZE 옵션을 지정합니다.

CONTROLPLANE_SIZE: "medium"
WORKER_SIZE: "extra-large"

CONTROLPLANE_SIZEWORKER_SIZE 옵션을 SIZE 옵션과 결합할 수 있습니다. 예를 들어 SIZE: "large"WORKER_SIZE: "extra-large"와 함께 지정하면 제어부 노드는 large로 설정되고 Worker 노드는 extra-large로 설정됩니다.

SIZE: "large"
WORKER_SIZE: "extra-large"

사용자 지정 노드 크기

미리 정의된 구성을 사용하는 대신 노드의 구성을 사용자 지정할 수 있습니다.

모든 노드에 동일한 사용자 지정 구성을 사용하려면 VSPHERE_NUM_CPUS, VSPHERE_DISK_GIB, VSPHERE_MEM_MIB 옵션을 지정합니다.

VSPHERE_NUM_CPUS: 2
VSPHERE_DISK_GIB: 40
VSPHERE_MEM_MIB: 4096

제어부 노드와 Worker 노드에 서로 다른 사용자 지정 구성을 정의하려면 VSPHERE_CONTROL_PLANE_*VSPHERE_WORKER_* 옵션을 지정합니다.

VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
VSPHERE_CONTROL_PLANE_DISK_GIB: 20
VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
VSPHERE_WORKER_NUM_CPUS: 4
VSPHERE_WORKER_DISK_GIB: 40
VSPHERE_WORKER_MEM_MIB: 4096

SIZE, CONTROLPLANE_SIZE, WORKER_SIZE 옵션을 사용하여 이러한 설정을 재정의할 수 있습니다.

NSX Advanced Load Balancer 구성

중요

구성 변수 AVI_DISABLE_INGRESS_CLASS, AVI_DISABLE_STATIC_ROUTE_SYNC, AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER은 TKG v2.3에서 작동하지 않습니다. 이러한 값을 기본값이 아닌 true로 설정하려면 릴리스 정보의 알려진 문제 일부 NSX ALB 구성 변수가 작동하지 않음에 설명된 해결 방법을 참조하십시오.

NSX Advanced Load Balancer를 사용하려면 먼저 vSphere 환경에 배포해야 합니다. NSX Advanced Load Balancer 설치를 참조하십시오. NSX Advanced Load Balancer를 배포한 후 로드 밸런서를 사용하도록 vSphere 관리 클러스터를 구성합니다.

예:

AVI_ENABLE: true
AVI_CONTROL_PLANE_HA_PROVIDER: true
AVI_NAMESPACE: "tkg-system-networking"
AVI_DISABLE_INGRESS_CLASS: true
AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
AVI_CA_NAME: avi-controller-ca
AVI_CONTROLLER: 10.185.10.217
AVI_USERNAME: "admin"
AVI_PASSWORD: "<password>"
AVI_CLOUD_NAME: "Default-Cloud"
AVI_SERVICE_ENGINE_GROUP: "Default-Group"
AVI_NSXT_T1LR:""
AVI_DATA_NETWORK: nsx-alb-dvswitch
AVI_DATA_NETWORK_CIDR: 10.185.0.0/20
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME: ""
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR: ""
AVI_CA_DATA_B64: LS0tLS1CRU[...]UtLS0tLQo=
AVI_LABELS: ""
AVI_DISABLE_STATIC_ROUTE_SYNC: true
AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
AVI_INGRESS_SHARD_VS_SIZE: ""
AVI_INGRESS_SERVICE_TYPE: ""
AVI_INGRESS_NODE_NETWORK_LIST: ""

기본적으로 관리 클러스터와 관리 클러스터가 관리하는 모든 워크로드 클러스터는 로드 밸런서를 사용합니다. NSX Advanced Load Balancer 변수를 구성하는 방법에 대한 자세한 내용은 구성 파일 변수 참조의 NSX Advanced Load Balancer를 참조하십시오.

제어부 끝점 제공자로 NSX Advanced Load Balancer

NSX ALB를 Tanzu Kubernetes Grid 제어부 끝점 제공자로 사용할 수 있습니다. 다음 표에서는 Tanzu Kubernetes Grid에서 기본 제어부 끝점 제공자인 NSX ALB와 Kube-Vip의 차이점에 대해 설명합니다.

Kube-Vip NSX ALB
다음으로 트래픽 전송 단일 제어부 노드
여러 제어부 노드
끝점 VIP를 구성해야 함
아니요
NSX ALB 고정 IP 풀에서 VIP 할당

NSX 라우팅 가능한 포드 구성

vSphere 환경에서 NSX를 사용하는 경우 라우팅 가능한 포드 또는 NO_NAT 포드로 구현하도록 구성할 수 있습니다.

참고

NSX 라우팅 가능 포드는 이 릴리스의 실험적인 기능입니다. NSX 라우팅 가능 포드를 구현하는 방법에 대한 정보가 이 설명서에 곧 추가될 예정입니다.

#! ---------------------------------------------------------------------
#! NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

IPv6 구성

IPv6을 지원하는 관리 클러스터를 IPv6 네트워킹 환경에 구성하려면 다음을 수행합니다.

  1. (선택 사항) IPv6용 변수 및 규칙 설정에 설명된 대로 환경을 준비합니다.

  2. 관리 클러스터에 다음의 구성 파일의 변수를 설정합니다.

    • TKG_IP_FAMILYipv6로 설정합니다.
    • VSPHERE_CONTROL_PLANE_ENDPOINT를 고정 IPv6 주소로 설정합니다.
    • (선택 사항) CLUSTER_CIDR and SERVICE_CIDR을 설정합니다. 기본값은 각각 fd00:100:64::/48fd00:100:96::/108입니다.

여러 가용성 영역 구성

여러 가용 영역에서 클러스터 실행에 설명된 대로 여러 가용 영역(AZ)에서 노드를 실행하는 관리 또는 워크로드 클러스터를 구성할 수 있습니다.

사전 요구 사항

여러 AZ에 노드가 배포된 클러스터를 구성하려면 다음을 수행합니다.

  • VSPHERE_REGIONVSPHERE_ZONE을 영역 및 영역 태그 범주(k8s-regionk8s-zone)로 설정합니다.
  • 시스템을 배포해야 하는 VsphereDeploymentZone 개체의 이름으로 VSPHERE_AZ_0, VSPHERE_AZ_1, VSPHERE_AZ_2를 설정합니다.
    • VSPHERE_AZ_0에 연결된 VsphereDeploymentZonemd-0으로 끝나는 시스템 배포가 배포되는 VSphereFailureDomain입니다. 마찬가지로 VSPHERE_AZ_1md-1로 끝나는 시스템 배포가 배포되는 VSphereFailureDomain이고, VSPHERE_AZ_2md-2로 끝나는 시스템 배포가 배포되는 VSphereFailureDomain입니다.
    • AZ 구성이 정의되지 않은 경우 VSphereFailureDomain 없이 해당 시스템 배포가 배포됩니다.
  • WORKER_MACHINE_COUNT는 클러스터의 총 작업자 수를 설정합니다. 총 작업자 수는 지정된 AZ 수에 걸쳐 라운드 로빈 방식으로 분산됩니다.
  • VSPHERE_AZ_CONTROL_PLANE_MATCHING_LABELS은 클러스터 제어부 노드가 배포할 수 있는 AZ의 키/값 선택기 레이블을 설정합니다.
    • VSPHERE_REGIONVSPHERE_ZONE이 설정된 경우 이 변수를 설정합니다.
    • 생성하는 VSphereDeploymentZone 리소스에 레이블이 있어야 합니다.
    • 이러한 레이블을 사용하면 지역 및 환경의 모든 AZ를 개별적으로 나열하지 않고도 지정할 수 있습니다. 예를 들면 다음과 같습니다. "region=us-west-1,environment=staging".

클러스터를 vSphere에 배포할 때 지정해야 하는 전체 옵션 목록은 구성 파일 변수 참조를 참조하십시오.

노드 IPAM 구성

TKG는 vSphere 독립형 관리 클러스터 및 해당 클러스터가 관리하는 클래스 기반 워크로드 클러스터에 대해 클러스터 내 노드 IPAM을 지원합니다. 자세한 내용 및 현재 제한 사항은 Tanzu CLI를 사용하여 TKG 2.3 워크로드 클러스터 생성 및 관리의 노드IPAM을 참조하십시오.

설치 관리자 인터페이스에서 직접 노드 IPAM을 사용하여 관리 클러스터를 배포할 수 없습니다. 구성 파일에서 배포해야 합니다. 하지만 설치 관리자 인터페이스를 실행하고 구성 검토(Review Configuration) > 구성 내보내기(Export Configuration)를 클릭한 다음, 아래 설명된 대로 생성된 구성 파일을 편집하여 구성 파일을 생성할 수 있습니다.

해당 노드에 대해 클러스터 내 IPAM을 사용하는 관리 클러스터를 배포하려면 다음을 수행합니다.

  1. 사전 요구 사항으로 클러스터의 제어부 및 Worker 노드에 사용할 네임서버의 IP 주소를 수집합니다. 클러스터 노드가 더 이상 DHCP를 통해 네임서버를 수신하여 vCenter에서 이름을 확인하지 않으므로 필요합니다.

  2. 관리 클러스터 구성 파일을 편집하여 구성 파일 변수 참조의 노드 IPAM 테이블에 설명된 대로 다음과 같은 설정을 포함합니다.

    MANAGEMENT_NODE_IPAM_IP_POOL_GATEWAY: "10.10.10.1"
    MANAGEMENT_NODE_IPAM_IP_POOL_ADDRESSES: "10.10.10.2-10.10.10.100,10.10.10.105"
    MANAGEMENT_NODE_IPAM_IP_POOL_SUBNET_PREFIX: "24"
    CONTROL_PLANE_NODE_NAMESERVERS: "10.10.10.10,10.10.10.11"
    WORKER_NODE_NAMESERVERS: "10.10.10.10,10.10.10.11"
    

    여기서 CONTROL_PLANE_NODE_NAMESERVERSWORKER_NODE_NAMESERVERS는 사용할 네임서버의 주소입니다. 단일 이름 서버 또는 쉼표로 구분된 두 개의 네임서버를 지정할 수 있습니다. 이중화가 필요한 환경에서는 둘 이상의 네임서버가 필요할 수 있습니다. 이 경우 노드 VM은 한 번에 하나의 네임서버만 사용하고 첫 번째 네임서버가 확인되지 않을 경우 보조 네임서버가 사용됩니다. 또한 서로 다른 유형의 노드에서 서비스 해상도를 제어하기 위해 제어부 및 Worker 노드의 네임서버를 각각 독립적으로 변경하기 위해 둘 이상의 네임서버를 지정할 수도 있습니다.

클러스터 노드 MTU 구성

관리 및 워크로드 클러스터 노드에 대한 최대 전송 단위(MTU)를 구성하려면 VSPHERE_MTU 변수를 설정합니다. VSPHERE_MTU 설정은 관리 클러스터 및 워크로드 클러스터 모두에 적용됩니다.

지정하지 않으면 기본 vSphere 노드 MTU는 1500입니다. 최대값은 9000입니다. MPU에 대한 자세한 내용은 vSphere 8 설명서의 vSphere 네트워킹 사용 안 함을 참조하십시오.

vSphere with Tanzu의 관리 클러스터

vSphere 7 및 vSphere 9에서 vSphere with Tanzu는 관리 클러스터로 작동하고 독립형 관리 클러스터보다 더 뛰어난 환경을 제공하는 기본 제공 Supervisor를 제공합니다. Supervisor가 없는 경우 Tanzu Kubernetes Grid 관리 클러스터를 vSphere 7 또는 vSphere 8로 배포하는 것은 지원되지만 기본 옵션은 vSphere with Tanzu를 사용하도록 설정하고 가능하면 Supervisor를 사용하는 것입니다. VMware Solution은 Supervisor 클러스터를 지원하지 않기 때문에 관리 클러스터를 배포해야 합니다. 자세한 내용은 vSphere with Tanzu Supervisor는 관리 클러스터입니다를 참조하십시오.

vSphere with Tanzu 사용하도록 설정된 경우 설치 관리자 인터페이스는 TKG 서비스를 Kubernetes 워크로드를 실행하는 기본 방법으로 사용할 수 있다고 명시하고 있으며, 이 경우 독립형 관리 클러스터가 필요하지 않습니다. 선택을 제공합니다.

  • 구성 vSphere with Tanzu은 vSphere 8 설명서의 Supervisor 구성 및 관리에 설명된 대로 Supervisor를 구성할 수 있도록 vSphere Client를 엽니다.

  • TKG 관리 클러스터 배포를 사용하면 vSphere 7 또는 vSphere 8에 독립형 관리 클러스터를, Azure VMware Solution에 필요한 독립형 관리 클러스터를 계속 배포할 수 있습니다.

후속 작업

관리 클러스터 구성 파일 업데이트를 완료한 후 구성 파일에서 관리 클러스터 배포 지침에 따라 관리 클러스터를 생성합니다.

check-circle-line exclamation-circle-line close-line
Scroll to top icon