Configuración del clúster de administración para vSphere

Para crear un archivo de configuración de clúster, puede copiar un archivo de configuración existente de una implementación anterior en vSphere y actualizarlo. Si lo prefiere, puede crear un archivo desde cero mediante una plantilla vacía.

Plantilla de configuración del clúster de administración

La siguiente plantilla incluye todas las opciones pertinentes para implementar clústeres de administración en vSphere. Puede copiar esta plantilla y utilizarla para implementar clústeres de administración en vSphere.

Las opciones obligatorias no están comentadas. Los ajustes opcionales están comentados. Los valores predeterminados se incluyen donde corresponda.

#! ---------------------------------------------------------------------
#! Basic cluster creation configuration
#! ---------------------------------------------------------------------

CLUSTER_NAME:
CLUSTER_PLAN: dev
INFRASTRUCTURE_PROVIDER: vsphere
# CLUSTER_API_SERVER_PORT: # For deployments without NSX Advanced Load Balancer
ENABLE_CEIP_PARTICIPATION: true
ENABLE_AUDIT_LOGGING: true
CLUSTER_CIDR: 100.96.0.0/11
SERVICE_CIDR: 100.64.0.0/13
# CAPBK_BOOTSTRAP_TOKEN_TTL: 30m

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER:
VSPHERE_USERNAME:
VSPHERE_PASSWORD:
VSPHERE_DATACENTER:
VSPHERE_RESOURCE_POOL:
VSPHERE_DATASTORE:
VSPHERE_FOLDER:
VSPHERE_NETWORK: VM Network
# VSPHERE_CONTROL_PLANE_ENDPOINT: # Required for Kube-Vip
# VSPHERE_CONTROL_PLANE_ENDPOINT_PORT: 6443
VIP_NETWORK_INTERFACE: "eth0"
# VSPHERE_TEMPLATE:
VSPHERE_SSH_AUTHORIZED_KEY:
# VSPHERE_STORAGE_POLICY_ID: ""
VSPHERE_TLS_THUMBPRINT:
VSPHERE_INSECURE: false
DEPLOY_TKG_ON_VSPHERE7: false
ENABLE_TKGS_ON_VSPHERE7: false

#! ---------------------------------------------------------------------
#! Node configuration
#! ---------------------------------------------------------------------

# SIZE:
# CONTROLPLANE_SIZE:
# WORKER_SIZE:
# OS_NAME: ""
# OS_VERSION: ""
# OS_ARCH: ""
# VSPHERE_NUM_CPUS: 2
# VSPHERE_DISK_GIB: 40
# VSPHERE_MEM_MIB: 4096
# VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
# VSPHERE_CONTROL_PLANE_DISK_GIB: 40
# VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
# VSPHERE_WORKER_NUM_CPUS: 2
# VSPHERE_WORKER_DISK_GIB: 40
# VSPHERE_WORKER_MEM_MIB: 4096

#! ---------------------------------------------------------------------
#! VMware NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

#! ---------------------------------------------------------------------
#! NSX Advanced Load Balancer configuration
#! ---------------------------------------------------------------------

AVI_ENABLE: false
AVI_CONTROL_PLANE_HA_PROVIDER: false
# AVI_NAMESPACE: "tkg-system-networking"
# AVI_DISABLE_INGRESS_CLASS: true
# AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
# AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
# AVI_CA_NAME: avi-controller-ca
# AVI_CONTROLLER:
# AVI_USERNAME: ""
# AVI_PASSWORD: ""
# AVI_CLOUD_NAME:
# AVI_SERVICE_ENGINE_GROUP:
# AVI_NSXT_T1LR: # Required for NSX ALB deployments on NSX Cloud.
# AVI_MANAGEMENT_CLUSTER_SERVICE_ENGINE_GROUP:
# AVI_DATA_NETWORK:
# AVI_DATA_NETWORK_CIDR:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME:
# AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR:
# AVI_CA_DATA_B64: ""
# AVI_LABELS: ""
# AVI_DISABLE_STATIC_ROUTE_SYNC: true
# AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
# AVI_INGRESS_SHARD_VS_SIZE: ""
# AVI_INGRESS_SERVICE_TYPE: ""
# AVI_INGRESS_NODE_NETWORK_LIST: ""

#! ---------------------------------------------------------------------
#! Image repository configuration
#! ---------------------------------------------------------------------

# TKG_CUSTOM_IMAGE_REPOSITORY: ""
# TKG_CUSTOM_IMAGE_REPOSITORY_CA_CERTIFICATE: ""

#! ---------------------------------------------------------------------
#! Proxy configuration
#! ---------------------------------------------------------------------

# TKG_HTTP_PROXY: ""
# TKG_HTTPS_PROXY: ""
# TKG_NO_PROXY: ""

#! ---------------------------------------------------------------------
#! Machine Health Check configuration
#! ---------------------------------------------------------------------

ENABLE_MHC:
ENABLE_MHC_CONTROL_PLANE: true
ENABLE_MHC_WORKER_NODE: true
MHC_UNKNOWN_STATUS_TIMEOUT: 5m
MHC_FALSE_STATUS_TIMEOUT: 12m

#! ---------------------------------------------------------------------
#! Identity management configuration
#! ---------------------------------------------------------------------

IDENTITY_MANAGEMENT_TYPE: "none"

#! Settings for IDENTITY_MANAGEMENT_TYPE: "oidc"
# CERT_DURATION: 2160h
# CERT_RENEW_BEFORE: 360h
# OIDC_IDENTITY_PROVIDER_CLIENT_ID:
# OIDC_IDENTITY_PROVIDER_CLIENT_SECRET:
# OIDC_IDENTITY_PROVIDER_GROUPS_CLAIM: groups
# OIDC_IDENTITY_PROVIDER_ISSUER_URL:
# OIDC_IDENTITY_PROVIDER_SCOPES: "email,profile,groups"
# OIDC_IDENTITY_PROVIDER_USERNAME_CLAIM: email

#! The following two variables are used to configure Pinniped JWTAuthenticator for workload clusters
# SUPERVISOR_ISSUER_URL:
# SUPERVISOR_ISSUER_CA_BUNDLE_DATA:

#! Settings for IDENTITY_MANAGEMENT_TYPE: "ldap"
# LDAP_BIND_DN:
# LDAP_BIND_PASSWORD:
# LDAP_HOST:
# LDAP_USER_SEARCH_BASE_DN:
# LDAP_USER_SEARCH_FILTER:
# LDAP_USER_SEARCH_USERNAME: userPrincipalName
# LDAP_USER_SEARCH_ID_ATTRIBUTE: DN
# LDAP_USER_SEARCH_EMAIL_ATTRIBUTE: DN
# LDAP_USER_SEARCH_NAME_ATTRIBUTE:
# LDAP_GROUP_SEARCH_BASE_DN:
# LDAP_GROUP_SEARCH_FILTER:
# LDAP_GROUP_SEARCH_USER_ATTRIBUTE: DN
# LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE:
# LDAP_GROUP_SEARCH_NAME_ATTRIBUTE: cn
# LDAP_ROOT_CA_DATA_B64:

#! ---------------------------------------------------------------------
#! Antrea CNI configuration
#! ---------------------------------------------------------------------

# ANTREA_NO_SNAT: true
# ANTREA_NODEPORTLOCAL: true
# ANTREA_NODEPORTLOCAL_ENABLED: true
# ANTREA_NODEPORTLOCAL_PORTRANGE: 61000-62000
# ANTREA_TRAFFIC_ENCAP_MODE: "encap"
# ANTREA_PROXY: true
# ANTREA_PROXY_ALL: true
# ANTREA_PROXY_LOAD_BALANCER_IPS: false
# ANTREA_PROXY_NODEPORT_ADDRS:
# ANTREA_PROXY_SKIP_SERVICES: ""
# ANTREA_POLICY: true
# ANTREA_TRACEFLOW: true
# ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD: false
# ANTREA_ENABLE_USAGE_REPORTING: false
# ANTREA_EGRESS: true
# ANTREA_EGRESS_EXCEPT_CIDRS: ""
# ANTREA_FLOWEXPORTER: false
# ANTREA_FLOWEXPORTER_COLLECTOR_ADDRESS: "flow-aggregator.flow-aggregator.svc:4739:tls"
# ANTREA_FLOWEXPORTER_POLL_INTERVAL: "5s"
# ANTREA_FLOWEXPORTER_ACTIVE_TIMEOUT: "5s"
# ANTREA_FLOWEXPORTER_IDLE_TIMEOUT: "15s"
# ANTREA_IPAM: false
# ANTREA_KUBE_APISERVER_OVERRIDE: ""
# ANTREA_MULTICAST: false
# ANTREA_MULTICAST_INTERFACES: ""
# ANTREA_NETWORKPOLICY_STATS: true
# ANTREA_SERVICE_EXTERNALIP: true
# ANTREA_TRANSPORT_INTERFACE: ""
# ANTREA_TRANSPORT_INTERFACE_CIDRS: ""

Configuración general de vSphere

Proporcione información para permitir que Tanzu Kubernetes Grid inicie sesión en vSphere y para designar los recursos que Tanzu Kubernetes Grid puede utilizar.

  • Actualice la configuración de VSPHERE_SERVER, VSPHERE_USERNAME y VSPHERE_PASSWORD con la dirección IP o el FQDN de la instancia de vCenter Server y las credenciales que se utilizarán para iniciar sesión.
  • Proporcione las rutas de acceso completas al centro de datos vSphere, el grupo de recursos, los almacenes de datos y la carpeta en la que se implementará el clúster de administración:

    • VSPHERE_DATACENTER: /<MY-DATACENTER>
    • VSPHERE_RESOURCE_POOL: /<MY-DATACENTER>/host/<CLUSTER>/Resources
    • VSPHERE_DATASTORE: /<MY-DATACENTER>/datastore/<MY-DATASTORE>
    • VSPHERE_FOLDER: /<MY-DATACENTER>/vm/<FOLDER>.
  • Según el proveedor de HA para la API del plano de control del clúster, establezca VSPHERE_CONTROL_PLANE_ENDPOINT o déjelo en blanco:
    • Kube-VIP: Se establece en una dirección IP virtual estática o en un nombre de dominio completo (FQDN) asignado a la dirección VIP.
    • NSX Advanced Load Balancer: Déjelo en blanco, a menos que necesite especificar un endpoint. Si es así, utilice una dirección estática dentro del rango de redes VIP del perfil de IPAM que agregó manualmente al grupo de direcciones IP estáticas o un FQDN asignado a la dirección estática.
  • Especifique una red y una interfaz de red en VSPHERE_NETWORK y VIP_NETWORK_INTERFACE.
  • Opcionalmente, quite la marca de comentario y actualice VSPHERE_TEMPLATE para especificar la ruta de acceso a un archivo OVA si utiliza varias imágenes OVA personalizadas para la misma versión de Kubernetes. Utilice el formato /MY-DC/vm/MY-FOLDER-PATH/MY-IMAGE. Para obtener más información, consulte Implementar un clúster con una imagen OVA personalizada en Crear y administrar clústeres de carga de trabajo de TKG 2.1 con la CLI de Tanzu.
  • Proporcione la clave SSH en la opción VSPHERE_SSH_AUTHORIZED_KEY. Para obtener información sobre cómo obtener una clave SSH, consulte Preparar para implementar clústeres de administración en vSphere.
  • Proporcione la huella digital TLS en la variable VSPHERE_TLS_THUMBPRINT o establezca VSPHERE_INSECURE: true para omitir la verificación por huella digital.
  • Opcionalmente, quite la marca de comentario de VSPHERE_STORAGE_POLICY_ID y especifique el nombre de una directiva de almacenamiento para las máquinas virtuales que configuró en vCenter Server, para que la utilice el clúster de administración.

Por ejemplo:

#! ---------------------------------------------------------------------
#! vSphere configuration
#! ---------------------------------------------------------------------

VSPHERE_SERVER: 10.185.12.154
VSPHERE_USERNAME: [email protected]
VSPHERE_PASSWORD: <encoded:QWRtaW4hMjM=>
VSPHERE_DATACENTER: /dc0
VSPHERE_RESOURCE_POOL: /dc0/host/cluster0/Resources/tanzu
VSPHERE_DATASTORE: /dc0/datastore/sharedVmfs-1
VSPHERE_FOLDER: /dc0/vm/tanzu
VSPHERE_NETWORK: "VM Network"
VSPHERE_CONTROL_PLANE_ENDPOINT: 10.185.11.134
VIP_NETWORK_INTERFACE: "eth0"
VSPHERE_TEMPLATE: /dc0/vm/tanzu/my-image.ova
VSPHERE_SSH_AUTHORIZED_KEY: ssh-rsa AAAAB3[...]tyaw== [email protected]
VSPHERE_TLS_THUMBPRINT: 47:F5:83:8E:5D:36:[...]:72:5A:89:7D:29:E5:DA
VSPHERE_INSECURE: false
VSPHERE_STORAGE_POLICY_ID: "My storage policy"

Configurar tamaños de nodo

La CLI de Tanzu crea los nodos individuales de los clústeres de administración y los clústeres de carga de trabajo de acuerdo con la configuración que se proporciona en el archivo de configuración. En vSphere, puede configurar todas las máquinas virtuales de los nodos para que tengan las mismas configuraciones predefinidas, establecer diferentes configuraciones predefinidas para los nodos de trabajo y el plano de control, o personalizar las configuraciones de los nodos. Con esta configuración, puede crear clústeres que tengan nodos con diferentes configuraciones en los nodos del clúster de administración. También puede crear clústeres en los que los nodos del plano de control y los nodos de trabajo tengan configuraciones diferentes.

Tamaños de nodo predefinidos

La CLI de Tanzu proporciona las siguientes configuraciones predefinidas para los nodos del clúster:

  • small: 2 CPU, 4 GB de memoria, disco de 20 GB
  • medium: 2 CPU, 8 GB de memoria, disco de 40 GB
  • large: 4 CPU, 16 GB de memoria, disco de 40 GB
  • extra-large: 8 CPU, 32 GB de memoria, disco de 80 GB

Para crear un clúster en el que todas las máquinas virtuales del plano de control y del nodo de trabajo tengan el mismo tamaño, especifique la variable SIZE. Si establece la variable SIZE, todos los nodos se crearán con la configuración establecida.

SIZE: "large"

Para crear un clúster en el que las máquinas virtuales del nodo de trabajo y el plano de control sean de diferentes tamaños, especifique las opciones CONTROLPLANE_SIZE y WORKER_SIZE.

CONTROLPLANE_SIZE: "medium"
WORKER_SIZE: "extra-large"

Puede combinar las opciones de CONTROLPLANE_SIZE y WORKER_SIZE con la opción SIZE. Por ejemplo, si especifica SIZE: "large" con WORKER_SIZE: "extra-large", los nodos del plano de control se establecerán en large y los nodos de trabajo se establecerán en extra-large.

SIZE: "large"
WORKER_SIZE: "extra-large"

Personalizar tamaños de nodo

Puede personalizar la configuración de los nodos en lugar de usar las configuraciones predefinidas.

Para utilizar la misma configuración personalizada para todos los nodos, especifique las opciones de VSPHERE_NUM_CPUS, VSPHERE_DISK_GIB y VSPHERE_MEM_MIB.

VSPHERE_NUM_CPUS: 2
VSPHERE_DISK_GIB: 40
VSPHERE_MEM_MIB: 4096

Para definir diferentes configuraciones personalizadas para los nodos de plano de control y los nodos de trabajo, especifique las opciones VSPHERE_CONTROL_PLANE_* y VSPHERE_WORKER_*.

VSPHERE_CONTROL_PLANE_NUM_CPUS: 2
VSPHERE_CONTROL_PLANE_DISK_GIB: 20
VSPHERE_CONTROL_PLANE_MEM_MIB: 8192
VSPHERE_WORKER_NUM_CPUS: 4
VSPHERE_WORKER_DISK_GIB: 40
VSPHERE_WORKER_MEM_MIB: 4096

Puede anular esta configuración mediante las opciones SIZE, CONTROLPLANE_SIZE y WORKER_SIZE.

Configurar NSX Advanced Load Balancer

Para utilizar NSX Advanced Load Balancer, primero debe implementarlo en el entorno de vSphere. Consulte Instalar NSX Advanced Load Balancer. Después de implementar NSX Advanced Load Balancer, configure un clúster de administración de vSphere para utilizar el equilibrador de carga.

Por ejemplo:

AVI_ENABLE: true
AVI_CONTROL_PLANE_HA_PROVIDER: true
AVI_NAMESPACE: "tkg-system-networking"
AVI_DISABLE_INGRESS_CLASS: true
AVI_AKO_IMAGE_PULL_POLICY: IfNotPresent
AVI_ADMIN_CREDENTIAL_NAME: avi-controller-credentials
AVI_CA_NAME: avi-controller-ca
AVI_CONTROLLER: 10.185.10.217
AVI_USERNAME: "admin"
AVI_PASSWORD: "<password>"
AVI_CLOUD_NAME: "Default-Cloud"
AVI_SERVICE_ENGINE_GROUP: "Default-Group"
AVI_NSXT_T1LR:""
AVI_DATA_NETWORK: nsx-alb-dvswitch
AVI_DATA_NETWORK_CIDR: 10.185.0.0/20
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_NAME: ""
AVI_MANAGEMENT_CLUSTER_VIP_NETWORK_CIDR: ""
AVI_CA_DATA_B64: LS0tLS1CRU[...]UtLS0tLQo=
AVI_LABELS: ""
AVI_DISABLE_STATIC_ROUTE_SYNC: true
AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER: false
AVI_INGRESS_SHARD_VS_SIZE: ""
AVI_INGRESS_SERVICE_TYPE: ""
AVI_INGRESS_NODE_NETWORK_LIST: ""

De forma predeterminada, el clúster de administración y todos los clústeres de carga de trabajo que administra utilizarán el equilibrador de carga. Para obtener información sobre cómo configurar las variables de NSX Advanced Load Balancer, consulte NSX Advanced Load Balancer en la Referencia de variables de archivo de configuración de la .

NSX Advanced Load Balancer como proveedor de endpoint de plano de control

Puede utilizar NSX ALB como proveedor de endpoint del plano de control en Tanzu Kubernetes Grid. En la siguiente tabla se describen las diferencias entre NSX ALB y Kube-Vip, que es el proveedor de endpoint del plano de control predeterminado en Tanzu Kubernetes Grid.

Kube-Vip NSX ALB
Envía tráfico a Nodo de plano de control único
Varios nodos del plano de control
Requiere configurar VIP de endpoint
No
Asigna VIP desde el grupo de direcciones IP estáticas de NSX ALB

Configurar pods enrutables de NSX

Si el entorno de vSphere utiliza NSX, puede configurarlo para implementar pods enrutables o NO_NAT.

Nota

Pods enrutables de NSX es una función experimental de esta versión. Pronto se agregará información sobre cómo implementar pods enrutables de NSX a esta documentación.

#! ---------------------------------------------------------------------
#! NSX specific configuration for enabling NSX routable pods
#! ---------------------------------------------------------------------

# NSXT_POD_ROUTING_ENABLED: false
# NSXT_ROUTER_PATH: ""
# NSXT_USERNAME: ""
# NSXT_PASSWORD: ""
# NSXT_MANAGER_HOST: ""
# NSXT_ALLOW_UNVERIFIED_SSL: false
# NSXT_REMOTE_AUTH: false
# NSXT_VMC_ACCESS_TOKEN: ""
# NSXT_VMC_AUTH_HOST: ""
# NSXT_CLIENT_CERT_KEY_DATA: ""
# NSXT_CLIENT_CERT_DATA: ""
# NSXT_ROOT_CA_DATA: ""
# NSXT_SECRET_NAME: "cloud-provider-vsphere-nsxt-credentials"
# NSXT_SECRET_NAMESPACE: "kube-system"

Configurar para IPv6

Para implementar un clúster de administración que admita IPv6 en un entorno de redes IPv6:

  1. Prepare el entorno como se describe en (opcional) Establecer variables y reglas para IPv6.

  2. Establezca las siguientes variables en el archivo de configuración para el clúster de administración.

    • Establezca TKG_IP_FAMILY en ipv6.
    • Establezca VSPHERE_CONTROL_PLANE_ENDPOINT en una dirección IPv6 estática.
    • (Opcional) Establezca el CLUSTER_CIDR and SERVICE_CIDR. El valor predeterminado es fd00:100:64::/48 y fd00:100:96::/108, respectivamente.

Clústeres de administración en vSphere with Tanzu

En vSphere 7 y vSphere 8, vSphere with Tanzu ofrece un supervisor integrado que funciona como clúster de administración y proporciona una mejor experiencia que un clúster de administración independiente. Se admite la implementación de un clúster de administración de Tanzu Kubernetes Grid en vSphere 7 o vSphere 8 cuando el supervisor no está presente, pero la opción preferida es habilitar vSphere with Tanzu y utilizar el supervisor si es posible. Azure VMware Solution no admite un clúster supervisor, por lo que debe implementar un clúster de administración. Para obtener más información, consulte El supervisor de vSphere with Tanzu es un clúster de administración.

Importante

Las versiones de CLI de Tanzu que son compatibles con TKG 2.x y con el supervisor vSphere with Tanzu en vSphere 8 no son compatibles con el clúster supervisor en vSphere 7. Para utilizar la CLI de Tanzu con un clúster supervisor vSphere with Tanzu en vSphere 7, utilice la versión CLI de Tanzu de TKG v1.6. Para utilizar las versiones de la CLI de Tanzu que son compatibles con TKG 2.x con Supervisor, actualice a vSphere 8. Puede implementar un clúster de administración de TKG 2.x independiente en vSphere 7 si no hay un clúster supervisor vSphere with Tanzu. Para obtener información sobre la compatibilidad entre los productos de CLI de Tanzu y VMware, consulte la documentación de CLI de Tanzu.

Para reflejar la recomendación de uso del supervisor de vSphere with Tanzu como clúster de administración, la CLI de Tanzu se comporta de la siguiente manera, controlada por los parámetros de configuración DEPLOY_TKG_ON_VSPHERE7 y ENABLE_TKGS_ON_VSPHERE7.

  • vSphere with Tanzu habilitado:
    • ENABLE_TKGS_ON_VSPHERE7: false le informa de que no es posible implementar un clúster de administración y se cierra.
    • ENABLE_TKGS_ON_VSPHERE7: true abre vSphere Client en la dirección establecida por VSPHERE_SERVER en el entorno config.yml o local, por lo que puede configurar el clúster supervisor como se describe en Habilitar un supervisor de una zona con redes de vSphere en la documentación de vSphere.
  • vSphere with Tanzu no habilitado:
    • DEPLOY_TKG_ON_VSPHERE7: false le informa de que es posible implementar un clúster de administración Tanzu Kubernetes Grid, pero no se recomienda, y le solicita que salga de la instalación o que continúe con la implementación del clúster de administración.
    • DEPLOY_TKG_ON_VSPHERE7: true implementa un clúster de administración de TKG en vSphere 8, en oposición a la recomendación para vSphere 8, pero según sea necesario para Azure VMware Solution.

Qué hacer a continuación

Después de que haya terminado de actualizar el archivo de configuración del clúster de administración, cree el clúster de administración siguiendo las instrucciones de Implementar clúster de administración desde un archivo de configuración.

check-circle-line exclamation-circle-line close-line
Scroll to top icon