En este tema se describe cómo utilizar la interfaz del instalador de Tanzu Kubernetes Grid para implementar un clúster de administración en vSphere cuando el supervisor de vSphere with Tanzu no está habilitado, en Amazon Web Services (AWS) y en Microsoft Azure. La interfaz del instalador de Tanzu Kubernetes Grid le guiará por la implementación del clúster de administración y le proporcionará diferentes configuraciones para seleccionarlas o volver a configurarlas. Si es la primera vez que implementa un clúster de administración en una plataforma de destino determinada, se recomienda utilizar la interfaz del instalador, excepto en los casos en los que se indique que debe implementar desde un archivo de configuración.
Antes de poder implementar un clúster de administración, debe asegurarse de que el entorno cumpla con los requisitos de la plataforma de destino.
Para las implementaciones de producción, se recomienda enfáticamente habilitar la administración de identidades para sus clústeres. Para obtener información sobre los pasos de preparación que se deben realizar antes de implementar un clúster de administración, consulte Obtener los detalles del proveedor de identidades en Configurar la administración de identidades.
Si va a implementar clústeres en un entorno restringido por Internet para vSphere o AWS, también debe realizar los pasos descritos en Preparar un entorno rentorno con acceso a Internet restringido. Estos pasos incluyen configurar TKG_CUSTOM_IMAGE_REPOSITORY
como una variable de entorno.
Cada plataforma de destino tiene requisitos previos adicionales para la implementación del clúster de administración.
NotaEn vSphere with Tanzu en vSphere 8, no es necesario implementar un clúster de administración. Consulte El supervisor de vSphere with Tanzu es un clúster de administración.
t3.large
o t3.xlarge
, consulte Tipos de instancia de Amazon EC2.Standard_D2s_v3
o Standard_D4s_v3
, consulte Tamaños de las máquinas virtuales en Azure.De forma predeterminada, Tanzu Kubernetes Grid guarda kubeconfig
para todos los clústeres de administración en el archivo ~/.kube-tkg/config
. Si desea guardar el archivo kubeconfig
del clúster de administración en una ubicación diferente, establezca la variable de entorno KUBECONFIG
antes de ejecutar tanzu mc create
.
En el equipo en el que descargó e instaló la CLI de Tanzu, ejecute el comando tanzu mc create
con la opción --ui
:
tanzu management-cluster create --ui
Si se cumplen los requisitos previos, la interfaz del instalador se iniciará en un navegador y le guiará por los pasos necesarios para configurar el clúster de administración.
PrecauciónEl comando
tanzu mc create
tarda en completarse. Mientras se ejecutatanzu mc create
, no ejecute invocaciones adicionales detanzu mc create
en la misma máquina de arranque para implementar varios clústeres de administración, cambiar el contexto o editar~/.kube-tkg/config
.
En la siguiente sección Opciones de la interfaz del instalador se explica cómo se puede cambiar la ubicación en la que se ejecuta la interfaz del instalador, incluida la ejecución en un equipo diferente de la CLI de Tanzu.
Haga clic en el botón Implementar para VMware vSphere, Amazon EC2 o Microsoft Azure.
De forma predeterminada, tanzu mc create --ui
abre la interfaz del instalador de forma local en http://127.0.0.1:8080 del navegador predeterminado. Puede usar las opciones --browser
y --bind
para controlar dónde se ejecuta la interfaz del instalador:
--browser
especifica el explorador local en el que se abrirá la interfaz.
chrome
, firefox
, safari
, ie
, edge
o none
.none
con --bind
para ejecutar la interfaz en una máquina diferente, como se describe a continuación.--bind
especifica la dirección IP y el puerto desde los que se atenderá la interfaz.
PrecauciónEl servicio a la interfaz del instalador desde una dirección IP y un puerto no predeterminados podría exponer la CLI de Tanzu a un riesgo potencial de seguridad mientras se ejecuta la interfaz. VMware recomienda transferir a la opción
–bind
una dirección IP y un puerto en una red segura.
Los casos prácticos de --browser
y --bind
incluyen:
http://127.0.0.1:8080
, utilice --bind
para prestar servicio a la interfaz desde un puerto local diferente.--browser none
.Para ejecutar la CLI de Tanzu y crear clústeres de administración en un equipo remoto, y ejecutar la interfaz del instalador de forma local o en otro lugar:
En la máquina de arranque remota, ejecute tanzu mc create --ui
con las siguientes opciones y valores:
--bind
: una dirección IP y un puerto para la máquina remota--browser
: none
tanzu mc create --ui --bind 192.168.1.87:5555 --browser none
En el equipo de la interfaz de usuario local, desplácese hasta la dirección IP del equipo remoto para acceder a la interfaz del instalador.
Las opciones para configurar la plataforma de destino dependen del proveedor que utilice.
En la sección proveedor de IaaS, introduzca la dirección IP o el nombre de dominio completo (FQDN) de la instancia de vCenter Server en la que se implementará el clúster de administración.
La compatibilidad con direcciones IPv6 en Tanzu Kubernetes Grid es limitada; consulte Implementar clústeres en IPv6 (solo vSphere). Si no va a implementar en un entorno de redes solo IPv6, debe proporcionar direcciones IPv4 en los siguientes pasos.
Introduzca el nombre de usuario y la contraseña del vCenter Single Sign-On para una cuenta de usuario que tenga los privilegios necesarios para la operación de Tanzu Kubernetes Grid.
El nombre de la cuenta debe incluir el dominio, por ejemplo, [email protected]
.
(Opcional) En Verificación por huella digital de SSL, seleccione Deshabilitar verificación. Si selecciona esta casilla de verificación, el instalador omite la verificación por huella digital de certificado al conectarse al vCenter Server.
Haga clic en Conectar (Connect).
Compruebe la huella digital SSL del certificado de vCenter Server y haga clic en Continuar si es válida. Esta pantalla aparece solo si la casilla Deshabilitar verificación disponible arriba está desmarcada.
Para obtener información sobre cómo obtener la huella digital del certificado de vCenter Server, consulte Obtener huellas digitales de certificado vSphere.
Si va a implementar un clúster de administración en una instancia de vSphere 7 o vSphere 8, confirme si desea continuar con la implementación.
En vSphere 7 y vSphere 8, vSphere with Tanzu ofrece un supervisor integrado que funciona como clúster de administración y proporciona una mejor experiencia que un clúster de administración independiente. Se admite la implementación de un clúster de administración de Tanzu Kubernetes Grid en vSphere 7 o vSphere 8 cuando el supervisor no está presente, pero la opción preferida es habilitar vSphere with Tanzu y utilizar el supervisor si es posible. Azure VMware Solution no admite un clúster supervisor, por lo que debe implementar un clúster de administración.
Para obtener más información, consulte El supervisor de vSphere with Tanzu es un clúster de administración.
Para reflejar la recomendación de usar vSphere with Tanzu al implementar en vSphere 7 y vSphere 8, el instalador de Tanzu Kubernetes Grid se comporta de la siguiente manera:
Seleccione el centro de datos en el que desea implementar el clúster de administración en el menú desplegable Centro de datos.
Agregue la clave pública SSH. Para agregar la clave pública SSH, utilice la opción Buscar archivo o pegue manualmente el contenido de la clave en el cuadro de texto. Haga clic en Siguiente.
En la sección Proveedor de IaaS, seleccione cómo proporcionar las credenciales de la cuenta de AWS. Tiene dos opciones:
Perfil de credenciales (recomendado): Seleccione un perfil de credenciales de AWS ya existente. Si selecciona un perfil, la clave de acceso y la información del token de sesión configurados para el perfil se transfieren al instalador sin mostrar los valores reales en la interfaz de usuario. Para obtener información sobre cómo configurar perfiles de credenciales, consulte Archivos y perfiles específicos.
Credenciales de un solo uso: Introduzca las credenciales de la cuenta de AWS directamente en los campos identificador de clave de acceso y Clave de acceso secreta de su cuenta de AWS. De forma opcional, especifique un token de sesión de AWS en Token de sesión si la cuenta de AWS está configurada para requerir credenciales temporales. Para obtener más información sobre la adquisición de tokens de sesión, consulte Usar credenciales temporales con recursos de AWS.
En Region, seleccione la región de AWS en la que desea implementar el clúster de administración.
Si pretende implementar un clúster de administración de producción, esta región debe tener al menos tres zonas de disponibilidad.
En la sección VPC para AWS (VPC for AWS), seleccione el VPC ID (ID de VPC) en el menú desplegable. El bloque VPC CIDR se rellena automáticamente cuando se selecciona la VPC. Si va a implementar el clúster de administración en un entorno con acceso a Internet restringido, como un entorno con proxy o aislado, seleccione la casilla de verificación Esta no es una VPC con conexión a Internet.
ImportanteSi es la primera vez que implementa un clúster de administración en Azure con una nueva versión de Tanzu Kubernetes Grid, por ejemplo, v2.2, asegúrese de haber aceptado la licencia de imagen base para esa versión. Para obtener información, consulte Aceptar la licencia de imagen base en Preparar para implementar clústeres de administración en Microsoft Azure.
En la sección Proveedor de IaaS, introduzca los valores identificador de tenant, identificador de cliente e identificador de suscripción para su cuenta de Azure. Registró estos valores cuando registró una aplicación de Azure y creó un secreto para ella mediante el portal de Azure.
AZURE_ENVIRONMENT
.Pegue el contenido de la clave pública SSH, como .ssh/id_rsa.pub
, en el cuadro de texto.
En Grupo de recursos, seleccione el botón de opción Seleccionar un grupo de recursos existente o el botón de opción Crear un nuevo grupo de recursos.
Si selecciona Seleccionar un grupo de recursos existente, utilice el menú desplegable para seleccionar el grupo y, a continuación, haga clic en Siguiente.
Si selecciona Crear un nuevo grupo de recursos, introduzca un nombre para el nuevo grupo de recursos y, a continuación, haga clic en Siguiente.
En la sección VNet para Azure, seleccione el botón de opción Crear una nueva VNet en Azure o el botón de opción Seleccionar una VNet existente.
Si selecciona Crear una nueva VNet en Azure, utilice el menú desplegable para seleccionar el grupo de recursos en el que se creará la VNet y proporcione lo siguiente:
10.0.0.0/16
.10.0.0.0/24
.10.0.1.0/24
.Después de configurar estos campos, haga clic en Siguiente.
Si selecciona Seleccionar una VNet existente, utilice los menús desplegables para seleccionar el grupo de recursos en el que se encuentra la VNet, el nombre de la VNet, el plano de control y las subredes del nodo de trabajo y, a continuación, haga clic en Siguiente.
Para que el clúster de administración sea privado, como se describe en Clústeres privados de Azure, habilite la casilla de verificación Clúster privado de Azure.
Algunas de las opciones para configurar el clúster de administración dependen del proveedor que utilice.
En la sección Configuración del clúster de administración, seleccione la ficha Desarrollo o Producción.
En cualquiera de las fichas Desarrollo o Producción, utilice el menú desplegable Tipo de instancia para seleccionar entre diferentes combinaciones de CPU, RAM y almacenamiento para las máquinas virtuales o las máquinas virtuales del nodo de plano de control.
Elija la configuración de las máquinas virtuales del nodo de plano de control en función de las cargas de trabajo esperadas que se ejecutarán. Por ejemplo, algunas cargas de trabajo pueden requerir una gran capacidad informática, pero relativamente poco almacenamiento, mientras que otras pueden requerir una gran cantidad de almacenamiento y menos capacidad informática. Si selecciona un tipo de instancia en la ficha Producción, el tipo de instancia que seleccionó se selecciona automáticamente para el Tipo de instancia del nodo de trabajo. Si es necesario, puede cambiar esta opción.
Si tiene pensado registrar el clúster de administración con Tanzu Mission Control, asegúrese de que los clústeres de carga de trabajo cumplan los requisitos enumerados en Requisitos para registrar un clúster de Tanzu Kubernetes con Tanzu Mission Control en la documentación de Tanzu Mission Control.
Opcionalmente, introduzca un nombre para el clúster de administración.
Si no especifica un nombre, Tanzu Kubernetes Grid genera automáticamente un nombre único. Si especifica un nombre, ese nombre debe terminar con una letra, no un carácter numérico, y debe cumplir con los requisitos de nombre de host de DNS, como se describe en RFC 952 y se modificó en RFC 1123.
(Opcional) Seleccione la casilla de verificación Comprobaciones de estado de la máquina (Machine Health Checks) si desea activar MachineHealthCheck
. Puede activar o desactivar MachineHealthCheck
en clústeres después de la implementación mediante la CLI. Para obtener instrucciones, consulte Configurar comprobaciones de estado de máquinas para clústeres de carga de trabajo.
(Opcional) Seleccione la casilla de Habilitar el registro de auditoría para registrar las solicitudes realizadas al servidor de API de Kubernetes. Para obtener más información, consulte Registros de auditoría.
Configure ajustes adicionales específicos de su plataforma de destino.
En Proveedor de endpoints del plano de control, seleccione Kube-Vip o NSX Advanced Load Balancer para elegir el componente que se utilizará para el servidor de API del plano de control.
Para utilizar NSX Advanced Load Balancer, primero debe implementarlo en el entorno de vSphere. Para obtener información, consulte Instalar NSX Advanced Load Balancer. Para obtener más información sobre las ventajas de usar NSX Advanced Load Balancer como proveedor del endpoint del plano de control, consulte Configurar NSX Advanced Load Balancer.
En Endpoint del plano de control, introduzca una dirección IP virtual estática o un FQDN para las solicitudes de API al clúster de administración. Esta opción es obligatoria si utiliza Kube-Vip.
Asegúrese de que esta dirección IP no esté en el rango de DHCP, sino en la misma subred que el rango de DHCP. Si asignó un FQDN a la dirección VIP, puede especificar el FQDN en lugar de la dirección VIP. Para obtener más información, consulte VIP y equilibradores de carga estáticos para vSphere.
Si utiliza NSX Advanced Load Balancer como proveedor de endpoint del plano de control, la VIP se asigna automáticamente desde el grupo de direcciones IP estáticas de NSX Advanced Load Balancer.
En Par de claves de EC2, especifique el nombre de un par de claves de AWS que ya esté registrado en su cuenta de AWS y en la región en la que va a implementar el clúster de administración. Es posible que lo haya configurado en Configurar credenciales de cuenta de AWS y clave SSH.
(Opcional) Desactive la casilla Host bastión si ya existe un host bastión en las zonas de disponibilidad en las que va a implementar el clúster de administración.
Si deja esta opción habilitada, Tanzu Kubernetes Grid crea un host bastión por usted.
Si es la primera vez que implementa un clúster de administración en esta cuenta de AWS, seleccione la casilla de verificación Creación automática de la pila de AWS CloudFormation.
Esta pila de CloudFormation crea los recursos de administración de identidades y acceso (IAM) que Tanzu Kubernetes Grid necesita para implementar y ejecutar clústeres en AWS. Para obtener más información, consulte Permisos establecidos por Tanzu Kubernetes Grid en Preparar para implementar clústeres de administración en AWS.
Configurar zonas de disponibilidad:
En el menú desplegable Zona de disponibilidad 1, seleccione una zona de disponibilidad para el clúster de administración. Solo puede seleccionar una zona de disponibilidad si seleccionó la ficha Desarrollo. Vea la imagen siguiente.
En el menú desplegable Tipo de instancia del nodo de trabajo de AZ1, seleccione la configuración de la máquina virtual del nodo de trabajo en la lista de instancias de que están disponibles en esta zona de disponibilidad.
Si seleccionó la ficha Producción anteriormente, utilice los menús desplegables Zona de disponibilidad 2, Zona de disponibilidad 3 y Tipo de instancia del nodo de trabajo para seleccionar tres zonas de disponibilidad únicas para el clúster de administración.
Cuando Tanzu Kubernetes Grid implementa el clúster de administración, que incluye tres nodos de plano de control y tres nodos de trabajo, distribuye los nodos de plano de control y los nodos de trabajo entre estas zonas de disponibilidad.
Utilice los menús desplegables (Subred pública de la VPC) VPC public subnet y Subred privada de la VPC (VPC private subnet) para seleccionar subredes en la VPC.
Si va a implementar un clúster de administración de producción, seleccione subredes para las tres zonas de disponibilidad. Las subredes públicas no están disponibles si seleccionó Esta no es una VPC con conexión a Internet en la sección anterior. La imagen siguiente muestra la ficha Desarrollo (Development).
Haga clic en Siguiente.
La configuración de NSX Advanced Load Balancer solo se aplica a las implementaciones de vSphere.
ImportanteEn vSphere 8, para utilizar NSX Advanced Load Balancer con un clúster de administración independiente de TKG y sus clústeres de carga de trabajo, necesita NSX ALB v22.1.2 o una versión posterior y TKG v2.2 o una versión posterior.
En la sección de VMware NSX Advanced Load Balancer opcional, puede configurar Tanzu Kubernetes Grid para que usen NSX Advanced Load Balancer. De forma predeterminada, todos los clústeres de carga de trabajo utilizarán el equilibrador de carga.
Pegue el contenido de la entidad de certificación que se utiliza para generar el certificado del controlador en el cuadro de texto Autoridad de controlador y haga clic en Verificar credenciales.
El contenido del certificado comienza con -----BEGIN CERTIFICATE-----
.
Si tiene un certificado de controlador autofirmado, debe usar un certificado SSL/TLS que esté configurado en la pestaña Interfaz de usuario del controlador AVI > Administración > Configuración > Configuración de acceso, en Configuración de acceso del sistema > Certificado SSL. Puede recuperar el contenido del certificado como se describe en Configuración del controlador Avi: Certificado personalizado.
Utilice el menú desplegable Nombre de nube para seleccionar la nube que creó en la implementación de NSX Advanced Load Balancer.
Por ejemplo, Default-Cloud
.
En la sección Clúster de carga de trabajo (Workload Cluster) y Clúster de administración (Management Cluster), utilice el menú desplegable Nombre del grupo de motores de servicio (Service Engine Group Name) para seleccionar un grupo de motores de servicio.
Por ejemplo, Default-Group
.
En el menú desplegable Cluster - Data Plane VIP Network Name (Clúster de carga de trabajo: nombre de red VIP del plano de datos), seleccione el nombre de la red en la que reside el grupo de direcciones IP flotantes del equilibrador de carga.
La misma red se selecciona automáticamente para que la utilicen los planos de datos y control de los clústeres de carga de trabajo y los clústeres de administración. Puede cambiarlos si es necesario.
La red VIP para NSX ALB debe estar presente en la misma instancia de vCenter Server que la red de Kubernetes que utiliza Tanzu Kubernetes Grid. Esto permite a NSX Advanced Load Balancer detectar la red de Kubernetes en vCenter Server, así como implementar y configurar motores de servicio.
Puede ver red en la vista Infraestructura > Redes de la interfaz de NSX Advanced Load Balancer.
En los menús desplegables Clúster de carga de trabajo: CIDR de red VIP del plano de datos (Workload Cluster - Data Plane VIP Network CIDR) y Clúster de carga de trabajo: CIDR de red VIP del plano de control (Workload Cluster - Control Plane VIP Network CIDR), seleccione o introduzca el CIDR de la subred que se utilizará para la VIP del equilibrador de carga, para que lo utilicen los planos de datos y control de los clústeres de carga de trabajo y los clústeres de administración.
Esto proviene de una de las subredes configuradas de la red VIP. Puede ver el CIDR de subred de una red en particular en la vista Infraestructura > Redes de la interfaz de NSX Advanced Load Balancer. Los mismos CIDR se aplican automáticamente en la configuración del clúster de administración correspondiente. Puede cambiarlos si es necesario.
(Opcional) Introduzca una o varias etiquetas de clúster para identificar los clústeres en los que se habilitarán selectivamente NSX ALB o para personalizar la configuración de NSX ALB para diferentes grupos de clústeres.
De forma predeterminada, NSX Advanced Load Balancer está habilitado en todos los clústeres de carga de trabajo implementados con este clúster de administración, y los clústeres comparten el mismo controlador de VMware NSX Advanced Load Balancer, la nube, el grupo de motores de servicio y la misma red VIP. Esto no se puede cambiar posteriormente.
De forma opcional, puede habilitar NSX ALB solo en un subconjunto de clústeres o conservar la capacidad de personalizar más adelante la configuración de NSX ALB para diferentes grupos de clústeres. Esto resulta útil en los siguientes escenarios:
Para habilitar NSX ALB de forma selectiva en lugar de globalmente, agregue etiquetas con el formato key: value
. Las etiquetas que defina aquí se utilizarán para crear un selector de etiquetas. Solo los objetos Cluster
del clúster de carga de trabajo que tienen las etiquetas coincidentes tendrán habilitado el equilibrador de carga. Como consecuencia, es responsable de asegurarse de que el objeto Cluster
del clúster de carga de trabajo tenga las etiquetas correspondientes.
Por ejemplo, si utiliza team: tkg
, para habilitar el equilibrador de carga de trabajo en un clúster de carga de trabajo:
Establezca kubectl
en el contexto del clúster de administración.
kubectl config use-context management-cluster@admin
Etiquete el objeto Cluster
del clúster de carga de trabajo correspondiente con las etiquetas definidas. Si define varios valores de clave, debe aplicarlos todos.
kubectl label cluster <cluster-name> team=tkg
Haga clic en Siguiente para configurar los metadatos.
Esta sección es la misma para todas las plataformas de destino.
En la sección opcional Metadatos, proporcione de forma opcional información descriptiva sobre este clúster de administración.
Los metadatos que especifique aquí se aplican al clúster de administración y a los clústeres de carga de trabajo que administra, y se puede acceder a ellos mediante la herramienta de administración de clústeres de su elección.
release : beta
, environment : staging
o environment : production
. Para obtener más información, consulte Etiquetas y selectores en la documentación de Kubernetes.Si va a realizar la implementación en vSphere, haga clic en Siguiente para ir a Configurar recursos. Si va a realizar la implementación en AWS o Azure, haga clic en Siguiente para ir a Configurar proxies y red de Kubernetes.
Esta sección solo se aplica a las implementaciones de vSphere.
Seleccione el clúster, el host o el grupo de recursos en el que desea colocar el clúster de administración.
"Nota" Si los recursos adecuados aún no existen en vSphere, sin salir del instalador de Tanzu Kubernetes Grid, vaya a vSphere para crearlos. A continuación, haga clic en el botón de actualización para que se puedan seleccionar los nuevos recursos.
Haga clic en Siguiente para configurar la red y los proxies de Hubernetes.
Esta sección es la misma para todas las plataformas de destino, aunque parte de la información que proporcione depende del proveedor que esté utilizando.
En la sección Red de Kubernetes, configure las redes para los servicios de Kubernetes y haga clic en Siguiente.
100.64.0.0/13
y 100.96.0.0/11
no están disponibles, actualice los valores en CIDR del servicio del clúster y CIDR del pod del clúster.(Opcional) Para enviar tráfico HTTP(S) saliente desde el clúster de administración a un proxy (por ejemplo, en un entorno restringido por Internet), active Aplicar configuración del proxy y siga las instrucciones que aparecen a continuación para introducir la información del proxy. Tanzu Kubernetes Grid aplica esta configuración a kubelet, containerd y el plano de control.
Puede utilizar un proxy para el tráfico HTTP y otro proxy para el tráfico HTTPS, o bien utilizar el mismo proxy para el tráfico HTTP y HTTPS.
Importante No puede cambiar el proxy después de implementar el clúster.
Para agregar la información del proxy de HTTP:
http://
. Por ejemplo, http://myproxy.com:1234
.Si el proxy requiere autenticación, en Nombre de usuario del proxy de HTTP y Contraseña del proxy de HTTP, introduzca el nombre de usuario y la contraseña que se utilizarán para conectarse al proxy de HTTP.
NotaNo se pueden utilizar caracteres no alfanuméricos en las contraseñas al implementar clústeres de administración con la interfaz del instalador.
Para agregar la información del proxy de HTTPS:
Si desea utilizar una URL diferente para el tráfico HTTPS, haga lo siguiente:
http://
. Por ejemplo, http://myproxy.com:1234
.Si el proxy requiere autenticación, en Nombre de usuario del proxy de HTTPS y Contraseña del proxy de HTTPS, introduzca el nombre de usuario y la contraseña que se utilizarán para conectarse al proxy de HTTPS.
NotaNo se pueden utilizar caracteres no alfanuméricos en las contraseñas al implementar clústeres de administración con la interfaz del instalador.
En No hay proxy, introduzca una lista separada por comas de CIDR de red o nombres de host que deben omitir el proxy de HTTP(S). Si el clúster de administración se ejecuta en la misma red que la infraestructura, detrás del mismo proxy, establézcalo en los CIDR o los FQDN de la infraestructura para que el clúster de administración se comunique directamente con la infraestructura.
Por ejemplo, noproxy.yourdomain.com,192.168.0.0/24
.
localhost
, 127.0.0.1
, los valores de CIDR del pod de clúster y CIDR del servicio del clúster, .svc
y .svc.cluster.local
a la lista que introduzca en este campo.localhost
,
127.0.0.1
, sus VPC CIDR,
CIDR del pod de clúster y
CIDR del servicio del clúster,
.svc
,
.svc.cluster.local
y
169.254.0.0/16
a la lista que introduzca en este campo.
localhost
,
127.0.0.1
, el CIDR de la VNet, el
CIDR del pod de clúster y el
CIDR del servicio del clúster,
.svc
,
.svc.cluster.local
,
169.254.0.0/16
y
168.63.129.16
a la lista que introduzca en este campo.
ImportanteSi las máquinas virtuales del clúster de administración necesitan comunicarse con servicios externos y endpoints de infraestructura en el entorno de Tanzu Kubernetes Grid, asegúrese de que los servidores proxy que configuró anteriormente puedan acceder a esos endpoints o agréguelos a No hay ningún proxy. Según la configuración del entorno, esto puede incluir, entre otros, el servidor LDAP o OIDC, Harbor y, en el caso de vSphere, VMware NSX y NSX Advanced Load Balancer.
Esta sección es la misma para todas las plataformas de destino. Para obtener información sobre cómo Tanzu Kubernetes Grid implementa la administración de identidades, consulte Acerca de la administración de identidades y acceso.
En la sección Administración de identidades (Identity Management), de forma opcional seleccione Activar configuración de administración de identidades (Activate Identity Management Settings).
Puede desactivar la administración de identidades para implementaciones de prueba de concepto, pero se recomienda encarecidamente implementar la administración de identidades en implementaciones de producción. Si desactiva la administración de identidades, puede volver a activarla más tarde. Para obtener instrucciones sobre cómo volver a habilitar la administración de identidades, consulte Habilitar y configurar la administración de identidades en una implementación existente en Configurar la administración de identidades.
Si habilita la administración de identidades, seleccione OIDC o LDAPS.
Seleccione la pestaña OIDC o LDAPS a continuación para ver la información de configuración.
client_id
que obtiene del proveedor de OIDC. Por ejemplo, si su proveedor es Okta, inicie sesión en Okta, cree una aplicación Web y seleccione las opciones de Credenciales del cliente para obtener una client_id
y secret
.secret
que obtiene del proveedor de OIDC.openid,groups,email
.user_name
, email
o code
.groups
.host:port
.Proporcione los atributos de búsqueda de usuarios.
OU=Users,OU=domain,DC=io
.uid, sAMAccountName
.Proporcione los atributos de búsqueda de grupos.
OU=Groups,OU=domain,DC=io
.cn
.distinguishedName, dn
.member
.Pegue el contenido del certificado de CA del servidor LDAPS en el cuadro de texto CA raíz.
(Opcional) Compruebe la configuración de LDAP.
Introduzca un nombre de usuario y un nombre de grupo.
NotaEn Tanzu Kubernetes Grid v1.4.x y versiones posteriores, estos campos se ignoran y revierten a
cn
para el nombre de usuario y aou
para el nombre de grupo. Para obtener actualizaciones sobre este problema conocido, consulte las Notas de la versión de VMware Tanzu Kubernetes Grid 1.5.
Haga clic en Iniciar.
Después de completar la verificación, si ve algún error, debe examinarlo detenidamente en los pasos siguientes.
NotaEl host LDAP realiza esta comprobación y no los nodos del clúster de administración. Por lo tanto, es posible que la configuración LDAP funcione incluso si se produce un error en esta verificación.
En la sección Imagen del sistema operativo, utilice el menú desplegable para seleccionar la plantilla de imagen de la versión del sistema operativo y Kubernetes que se utilizará para implementar máquinas virtuales de Tanzu Kubernetes Grid y haga clic en Siguiente.
El menú desplegable Imagen del sistema operativo incluye imágenes del sistema operativo que cumplen todos los criterios siguientes:
ova
, ami
y azure
, respectivamente.version
, id
y sku
, respectivamente.Esta sección es la misma para todas las plataformas de destino.
En la sección Participación de CEIP (CEIP Participation), anule la selección de la casilla de verificación para no participar en el programa de mejora de la experiencia de cliente de VMware, y haga clic en Siguiente (Next).
También puede participar o no en el programa después de la implementación del clúster de administración. Para obtener información sobre el CEIP, consulte Administrar participación en el CEIP y https://www.vmware.com/solutions/trustvmware/ceip.html.
Haga clic en Revisar configuración para ver los detalles del clúster de administración que configuró. Si desea volver al asistente del instalador para modificar la configuración, haga clic en Editar configuración.
Al hacer clic en Revisar configuración, el instalador rellena el archivo de configuración del clúster, que se encuentra en el subdirectorio ~/.config/tanzu/tkg/clusterconfigs
, con la configuración que especificó en la interfaz. Opcionalmente, puede exportar una copia de este archivo de configuración haciendo clic en Exportar configuración.
Haga clic en Implementar clúster de administración.
La implementación del clúster de administración puede tardar varios minutos. La primera ejecución de tanzu mc create
tarda más que las ejecuciones posteriores porque debe extraer las imágenes de Docker necesarias en el almacén de imágenes de la máquina de arranque. Las ejecuciones posteriores no requieren este paso, por lo que son más rápidas. Puede seguir el progreso de la implementación del clúster de administración en la interfaz del instalador o en el terminal en el que ejecutó tanzu mc create --ui
. Si la máquina en la que ejecuta tanzu mc create
se apaga o se reinicia antes de que finalicen las operaciones locales, se producirá un error en la implementación. Si cierra accidentalmente el navegador o la pestaña del navegador en el que se ejecuta la implementación antes de que finalice, la implementación continuará en el terminal.
(Opcional) En Equivalente de comando de CLI, haga clic en el botón Copiar para copiar el comando de CLI de la configuración que especificó. Este comando de la CLI incluye la ruta de acceso al archivo de configuración rellenado por el instalador.
(solo vSphere) Después de implementar un clúster de administración en vSphere, debe configurar las direcciones IP de sus nodos de plano de control para que sean estáticas, como se describe en Configurar reservas de DHCP para el plano de control (solo vSphere) .
~/.config/tanzu/tkg/clusterconfigs
con un nombre de archivo generado con el formato UNIQUE-ID.yaml
. Este archivo de configuración tiene una estructura plana que establece variables de guion bajo en mayúscula como CLUSTER_NAME
. Después de que se haya completado la implementación, opcionalmente puede cambiar el nombre del archivo de configuración a un nombre que pueda recordar y guardarlo en una ubicación diferente para usarlo en el futuro. El instalador también genera una especificación de objeto basada en clases del tipo Kubernetes para el objeto Cluster
del clúster de administración, que se guarda en un archivo con el mismo nombre que el clúster de administración. Esta especificación de objeto basada en clases se proporciona solo para información. Aún no se admite la implementación de clústeres de administración desde una especificación de objeto basada en clases. Para obtener más información sobre los tipos de clúster en TKG 2.2, consulte Clústeres de carga de trabajo en Acerca de Tanzu Kubernetes Grid.Para obtener información sobre lo que ocurrió durante la implementación del clúster de administración y cómo conectar kubectl
al clúster de administración, consulte Examinar y registrar un clúster de administración independiente recién implementado.