Excepto donde se indique, estas notas de la versión se aplican a todas las versiones de revisión v2.3.x de Tanzu Kubernetes Grid (TKG).
TKG v2.3 se distribuye como un paquete de CLI de Tanzu descargable que implementa un clúster de administración independiente de TKG con versión. TKG v2.3 admite la creación y la administración de clústeres de carga de trabajo basados en clases con un clúster de administración independiente que se puede ejecutar en varias infraestructuras, incluidas vSphere, AWS y Azure.
ImportanteEl supervisor de vSphere with Tanzu en vSphere 8.0.1c y versiones posteriores ejecuta TKG v2.2. Las versiones anteriores de vSphere 8 ejecutan TKG v2.0, que no se publicó independientemente del supervisor. Los clústeres de administración independientes que ejecutan TKG 2.x están disponibles a partir de TKG 2.1. Debido a la versión anterior de TKG que está integrada en supervisor, algunas de las funciones que están disponibles si se utiliza un clúster de administración TKG 2.3 independiente no están disponibles si se utiliza un supervisor vSphere with Tanzu para crear clústeres de carga de trabajo. Las versiones posteriores de TKG se integrarán en Supervisor en futuras versiones de actualización de vSphere. En consecuencia, es posible que la versión de TKG integrada en la versión de vSphere with Tanzu más reciente en un momento determinado no sea tan reciente como la versión independiente más reciente de TKG. Sin embargo, las versiones de la CLI de Tanzu que son compatibles con todas las versiones de TKG v2.x son totalmente compatibles con Supervisor en todas las versiones de vSphere 8. Por ejemplo, Tanzu CLI v1.0.0 es totalmente compatible con versiones anteriores de los complementos de TKG 2.2 que proporciona Supervisor.
Las versiones de CLI de Tanzu que son compatibles con TKG 2.x y con el supervisor vSphere with Tanzu en vSphere 8 no son compatibles con el clúster supervisor en vSphere 7. Para utilizar la CLI de Tanzu con un clúster supervisor vSphere with Tanzu en vSphere 7, utilice la versión CLI de Tanzu de TKG v1.6. Para utilizar las versiones de la CLI de Tanzu que son compatibles con TKG 2.x con Supervisor, actualice a vSphere 8. Puede implementar un clúster de administración de TKG 2.x independiente en vSphere 7 si no hay un clúster supervisor vSphere with Tanzu. Para obtener información sobre la compatibilidad entre los productos de CLI de Tanzu y VMware, consulte la documentación de CLI de Tanzu.
Tanzu Kubernetes Grid v2.3 incluye las siguientes funciones nuevas.
Nuevas funciones de Tanzu Kubernetes Grid v2.3.1:
--vsphere-vm-template-name
, como se describe en Seleccionar una plantilla de OVA a la que actualizar.Nuevas funciones de Tanzu Kubernetes Grid v2.3.0:
tiny
al clúster de administración.POD_SECURITY_STANDARD_*
y los ajustes podSecurityStandard
de las especificaciones del Cluster
como se describe en Controlador de admisión de seguridad de pod.
kubectl get inclusterippool
da como resultado los recuentos de direcciones FREE
y USED
.InClusterIPPool
difiere de las versiones anteriores de TKG; la actualización del clúster a la versión 2.3 convierte los grupos de direcciones IP en una nueva estructura.VSPHERE_MTU
establece el tamaño de la unidad de transmisión máxima (Maximum Transmission Unit, MTU) para los nodos del clúster de carga de trabajo y de administración en vSphere; consulte Configurar MTU de nodo de clúster.CONTROL_PLANE_NODE_NAMESERVERS
y WORKER_NODE_NAMESERVERS
ahora se encuentran en el Estado estable. Puede establecer estas variables para nodos que se ejecutan en Ubuntu o Photon; no se admite Windows. Para ver un ejemplo de caso práctico, consulte Node IPAM.--max-unhealthy
y --machine-deployment
; consulte Administrar comprobaciones de estado de máquinas para clústeres de carga de trabajo.tanzu mc credentials update
--vsphere-thumbprint
permite utilizar la CLI de Tanzu para actualizar la huella digital TLS de vCenter Server en los clústeres de administración y los clústeres de carga de trabajo en vSphere. Consulte Actualizar credenciales de los clústeres.El componente Pinniped ya no utiliza Dex para los proveedores de identidad de LDAP, lo que provoca los siguientes cambios de configuración:
LDAP_GROUP_SEARCH_SKIP_ON_REFRESH
LDAP_BIND_DN
y LDAP_BIND_PASSWORD
.LDAP_GROUP_SEARCH_NAME_ATTRIBUTE
es dn
.LDAP_USER_SEARCH_FILTER
y LDAP_GROUP_SEARCH_FILTER
deben establecerse en el formato utilizado por Pinniped.LDAP_USER_SEARCH_USERNAME
, LDAP_USER_SEARCH_EMAIL_ATTRIBUTE
y LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE
.La eliminación de Dex significa que debe cambiar la configuración LDAP de un clúster de administración antes de actualizarlo a TKG v2.3; consulte (Solo LDAP) Actualizar configuración de LDAP.
Para obtener más información sobre las variables de configuración nuevas y actualizadas, consulte Proveedores de identidad: LDAP en Referencia de variables de archivo de configuración.
grafana
. Otros componentes Tanzu Standard están planificados para su eliminación de la lista de materiales en una versión futura.
Con TKG v2.3, el repositorio de paquetes Tanzu Standard se versiona y se distribuye de forma independiente desde TKG, y su control de versiones se basa en una marca de fecha. Consulte Repositorio Tanzu Standard v2023.7.13 a continuación para obtener más información.
Para cada versión de revisión de TKG v2.3, las notas de la versión de su última versión de repositorio Tanzu Standard compatible son las siguientes:
A partir de TKG v2.2, la directiva de compatibilidad de VMware cambió en versiones de revisión anteriores de TKG y TKr, que empaquetan versiones de Kubernetes para TKG. Las directivas de compatibilidad para TKG v2.1 y versiones secundarias anteriores de TKG no cambian.
En las primeras dos secciones siguientes, se resume la compatibilidad con todas las versiones compatibles actualmente de TKG y TKr en las directivas de compatibilidad que se aplican a cada una.
En la tercera sección a continuación se enumeran las versiones de los paquetes del repositorio Tanzu Standard compatibles con Kubernetes v1.26, v1.25 y tkr 1.24.
Cada versión de Tanzu Kubernetes Grid agrega compatibilidad con la versión de Kubernetes de su clúster de administración, además de versiones adicionales de Kubernetes, distribuidas como versiones Tanzu Kubernetes (TKr), excepto donde se indique como un Problema conocido.
Versiones secundarias: VMware admite TKG v2.3 con Kubernetes v1.26, v1.25 y v1.24 en el momento del lanzamiento. Una vez que TKG v2.1 alcance su hito de fin de soporte general, VMware dejará de admitir Kubernetes v1.24 con TKG. Una vez que TKG v2.2 alcance su hito de fin de soporte general, VMware dejará de admitir Kubernetes v1.25 con TKG.
Versiones de revisión: Después de que VMware publique una nueva versión de revisión de TKr para una línea secundaria, conserva la compatibilidad con versiones de revisión anteriores durante dos meses. Esto proporciona a los clientes un plazo de 2 meses para actualizar a nuevas versiones de revisión de TKr. A partir de TKG v2.2, VMware no admite todas las versiones de revisión de TKr de líneas secundarias anteriores de Kubernetes.
Las versiones de revisiones de Tanzu Kubernetes Grid son compatibles o eran compatibles con las versiones de revisiones TKr, como se indica a continuación.
Versión de Tanzu Kubernetes Grid | Versión de Kubernetes del clúster de administración | Versiones de Kubernetes (TKr) proporcionadas |
---|---|---|
2.3.1 | 1.26.8 | 1.26.8, 1.25.13, 1.24.17 |
2.3.0 | 1.26.5 | 1.26.5, 1.25.10, 1.24.14 |
2.2.0 | 1.25.7 | 1.25.7, 1.24.11, 1.23.17 |
2.1.1 | 1.24.10 | 1.24.10, 1.23.16, 1.22.17 |
2.1.0 | 1.24.9 | 1.24.9, 1.23.15, 1.22.17 |
VMware admite las versiones de TKG de la siguiente manera:
Versiones secundarias: VMware admite TKG siguiendo la directiva del ciclo de vida de N-2, que se aplica a las dos versiones secundarias más recientes y anteriores de TKG. Consulte la Matriz del ciclo de vida del producto de VMware para obtener más información.
Versiones de revisión: VMware no admite todas las versiones anteriores de revisiones de TKG. Después de que VMware publique una nueva versión de revisión de TKG, conserva la compatibilidad con la versión de revisión anterior durante dos meses. Esto proporciona a los clientes un período de 2 meses para actualizar a nuevas versiones de revisión de TKG.
Para TKG v2.3, las versiones del paquete en el repositorio Tanzu Standard son compatibles con TKr para las versiones secundarias 1.26, 1.25 y 1.24 de Kubernetes, como se indica a continuación:
Paquete | Versión de paquete | Kubernetes v1.26 TKrs | Kubernetes v1.25 TKrs | Kubernetes v1.24 TKrs |
---|---|---|---|---|
Administrador de certificados cert-manager.tanzu.vmware.com |
1.11.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
Contour contour.tanzu.vmware.com |
1.24.4+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
DNS externo external-dns.tanzu.vmware.com |
0.13.4+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.12.2+vmware.5-tkg.2-20230629 | ✔ | ✔ | ✔ | |
0.11.1+vmware.5-tkg.2-20230629 | ✖ | ✖ | ✔ | |
Fluent Bit fluent-bit.tanzu.vmware.com |
2.1.2+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ |
1.9.5+vmware.1-tkg.3-zshippable | ✔ | ✔ | ✔ | |
1.8.15+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
Controlador de ayuda FluxCD fluxcd-helm-controller.tanzu.vmware.com |
0.32.0+vmware.1-tkg.2-20230629 | ✔ | ✔ | ✔ |
0.21.0+vmware.1-tkg.1-zshippable | ✖ | ✖ | ✔ | |
Controlador de fuente FluxCD fluxcd-origen-controller.tanzu.vmware.com |
0.33.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Grafana grafana.tanzu.vmware.com |
9.5.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
7.5.17+vmware.1-tkg.3-zshippable | ✖ | ✖ | ✔ | |
Harbor harbor.tanzu.vmware.com |
2.8.2+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
Multus CNI multus-cni.tanzu.vmware.com |
3.8.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ |
4.0.1+vmware.1-tkg.1-20230629 | ✔ | ✔ | ✔ | |
Prometheus prometheus.tanzu.vmware.com |
2.43.0+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
2.37.0+vmware.3-tkg.1 | ✔ | ✔ | ✔ | |
2.36.2+vmware.1-tkg.1 | ✖ | ✖ | ✔ | |
Whereabouts whereabouts.tanzu.vmware.com |
0.6.1+vmware.2-tkg.1-20230629 | ✔ | ✔ | ✔ |
0.5.4+vmware.2-tkg.1 | ✔ | ✔ | ✔ |
Tanzu Kubernetes Grid v2.3 admite las siguientes plataformas de infraestructura y sistemas operativos (SO), así como con los componentes de creación y administración de clústeres, redes, almacenamiento, autenticación, copia de seguridad y migración y observación.
Consulte las Notas de la versión del repositorio Tanzu Standard v2023.10.16 en la documentación de paquetes de Tanzu para obtener versiones de paquetes adicionales compatibles con TKG v2.3.
Consulte Versiones de componentes para obtener una lista completa de versiones de componentes incluidas en TKG v2.3.
vSphere | AWS | Azure | |
Plataforma de la infraestructura |
|
AWS nativo | Azure nativo |
CLI de Tanzu | Tanzu CLI Core v1.0.0** | ||
Infraestructura de TKG API y de paquetes | Tanzu Framework v0.30.2 | ||
Creación y administración de clústeres | API de clúster principal (v1.4.5), proveedor de API del clúster vSphere (v1.7.1) | API de clúster principal (v1.4.5), PROVEEDOR de API del clúster AWS (v2.1.3) | API de clúster principal (v1.4.5), Proveedor de API del clúster Azure (v1.9.2) |
Sistema operativo del nodo de Kubernetes distribuido con TKG | Photon OS 3, Ubuntu 20.04 | Amazon Linux 2, Ubuntu 20.04 | Ubuntu 18.04, Ubuntu 20.04 |
Cree su propia imagen | Photon OS 3, Red Hat Enterprise Linux 7*** y 8, Ubuntu 18.04, Ubuntu 20.04, Windows 2019 | Amazon Linux 2, Ubuntu 18.04 y Ubuntu 20.04 | Ubuntu 18.04, Ubuntu 20.04 |
Tiempo de ejecución del contenedor | Containerd (v1.6.18) | ||
Redes de contenedores | Antrea (v1.11.2), Calico (v3.25.1), Multus CNI (v4.0.1, v3.8.0) | ||
Registro de contenedores | Harbor (v2.8.4) | ||
Entrada | NSX Advanced Load Balancer Essentials and Avi Controller **** (v21.1.4-v21.1.6, v22.1.2-v22.1.3), NSX v4.1.0 (vSphere 8.0.u1), v3.2.2 (vSphere 7), Contour (v1.25.2) | Contour (v1.25.2) | Contour (v1.25.2) |
Almacenamiento | Interfaz de almacenamiento de contenedores de vSphere (v3.0.1*****) y almacenamiento nativo en la nube vSphere | Controlador CSI de Amazon EBS (v1.18.0) y proveedores de nube en el árbol | Controlador CSI de discos de Azure (v1.27.1), controlador CSI de archivos de Azure (v1.27.0) y proveedores de nube en el árbol |
Autenticación | OIDC y LDAP a través de Pinniped (v0.24.0) | ||
Observabilidad | Fluent Bit (v2.1.6), Prometheus (v2.45.0, v2.37.0)******, Grafana (v10.0.1) | ||
Detección de servicios | DNS externo (v0.13.4) | ||
Copia de seguridad y migración | Velero (v1.10.3) |
* Para obtener una lista de las versiones de SDDC de VMware Cloud on AWS compatibles con esta versión, consulte la matriz de interoperabilidad de productos de VMware.
** Para obtener una lista completa de las versiones de la CLI de Tanzu compatibles con esta versión, consulte la matriz de interoperabilidad de productos.
Tanzu Kubernetes Grid v1.6 es la última versión que admite la creación de imágenes de Red Hat Enterprise Linux 7.
En vSphere 8, para utilizar NSX Advanced Load Balancer con un clúster de administración independiente de TKG y sus clústeres de carga de trabajo, necesita NSX ALB v22.1.2 o una versión posterior y TKG v2.1.1 o una versión posterior.
***** Versión de vsphere_csi_driver. Para obtener una lista completa de los componentes de la interfaz de almacenamiento del contenedor de vSphere incluidos en esta versión, consulte Versiones de los componentes.
****** Si actualiza un clúster a Kubernetes v1.25, debe actualizar Prometheus a la versión 2.37.0+vmware.3-tkg.1
como mínimo. Las versiones anteriores del paquete de Prometheus, por ejemplo, la versión 2.37.0+vmware.1-tkg.1
, no son compatibles con Kubernetes 1.25.
Para obtener una lista completa de las versiones de Kubernetes que se incluyen en Tanzu Kubernetes Grid v2.3, consulte la sección anterior Versiones de Kubernetes compatibles.
La versión de TKG v2.3.x incluye las siguientes versiones de componentes de software:
NotaLas versiones anteriores de TKG incluían componentes que ahora se distribuyen a través del repositorio Tanzu Standard. Para obtener una lista de estos componentes, consulte Repositorio Tanzu Standard a continuación.
Componente | TKG v2.3.1 | TKG v2.3.0 |
---|---|---|
aad-pod-identity | v1.8.15+vmware.2 | v1.8.15+vmware.2* |
addons-manager | v2.2+vmware.1 | v2.2+vmware.1* |
ako-operator | v1.9.0_vmware.1 | v1.9.0_vmware.1* |
alertmanager | v0.25.0_vmware.4* | v0.25.0_vmware.3* |
antrea | v1.11.2_vmware.1* | v1.11.1_vmware.4* |
antrea-interworking | v0.11.1* | v0.11.0* |
aws-ebs-csi-driver | v1.18.0+vmware.2 | v1.18.0+vmware.2* |
azuredisk-csi-driver | v1.27.1+vmware.3* | v1.27.1+vmware.2* |
azurefile-csi-driver | v1.27.0+vmware.3* | v1.27.0+vmware.2* |
calico | v3.25.1+vmware.2 | v3.25.1+vmware.2* |
capabilities-package | v0.30.2-capabilities* | v0.30.2-capabilities* |
carvel-secretgen-controller | v0.14.2+vmware.2 | v0.14.2+vmware.2* |
cloud-provider-azure | v1.1.26+vmware.1, v1.23.23+vmware.1, v1.24.10+vmware.1 |
v1.1.26+vmware.1, v1.23.23+vmware.1, v1.24.10+vmware.1 |
cloud_provider_vsphere | v1.24.6+vmware.1, |
v1.24.6+vmware.1*, |
clúster-api-provider-azure | v1.9.2+vmware.1 | v1.9.2+vmware.1* |
cluster_api | v1.4.5+vmware.1* | v1.4.2+vmware.3* |
cluster_api_aws | v2.1.3+vmware.0 | v2.1.3+vmware.0* |
cluster_api_vsphere | v1.7.1+vmware.0* | v1.7.0+vmware.0* |
cni_plugins | v1.1.1+vmware.28* | v1.1.1+vmware.23* |
configmap-reload | v0.8.0+vmware.3* | v0.8.0+vmware.2* |
containerd | v1.6.18+vmware.1 | v1.6.18+vmware.1 |
coredns | v1.9.3+vmware.16* | v1.9.3+vmware.11* |
crash-diagnostics | v0.3.7+vmware.7 | v0.3.7+vmware.7* |
cri_tools | v1.25.0+vmware.10* | v1.25.0+vmware.6* |
csi_attacher | v4.2.0+vmware.4*, v4.0.0+vmware.1, v3.5.0+vmware.1, v3.4.0+vmware.1, v3.3.0+vmware.1 |
v4.2.0+vmware.2*, v4.0.0+vmware.1*, v3.5.0+vmware.1, v3.4.0+vmware.1, v3.3.0+vmware.1 |
csi_livenessprobe | v2.9.0+vmware.4*, v2.8.0+vmware.1, v2.7.0+vmware.1, v2.6.0+vmware.1, v2.5.0+vmware.1, v2.4.0+vmware.1 |
v2.9.0+vmware.2*, v2.8.0+vmware.1*, v2.7.0+vmware.1, v2.6.0+vmware.1, v2.5.0+vmware.1, v2.4.0+vmware.1 |
csi_node_driver_registrar | v2.7.0+vmware.4*, v2.7.0+vmware.2, v2.6.3+vmware.1, v2.6.2+vmware.1, v2.5.1+vmware.1, v2.5.0+vmware.1, v2.3.0+vmware.1 |
v2.7.0+vmware.1*, v2.7.0+vmware.2*, v2.6.3+vmware.1*, v2.6.2+vmware.1*, v2.5.1+vmware.1, v2.5.0+vmware.1, v2.3.0+vmware.1 |
csi_provisioner | v3.4.1+vmware.3*, v3.4.0+vmware.4*, v3.3.0+vmware.1, v3.2.1+vmware.1, v3.1.0+vmware.2 |
v3.4.1+vmware.2*, v3.4.0+vmware.2*, v3.3.0+vmware.1*, v3.2.1+vmware.1, v3.1.0+vmware.2 |
dex | N/C | Se quitó |
envoy | v1.25.9+vmware.1* | v1.25.6+vmware.1* |
external-snapshotter | v6.2.1+vmware.4*, v6.1.0+vmware.1, v6.0.1+vmware.1, v5.0.1+vmware.1 |
v6.2.1+vmware.2*, v6.1.0+vmware.1*, v6.0.1+vmware.1, v5.0.1+vmware.1 |
etcd | v3.5.6+vmware.20* | v3.5.6+vmware.14* |
guest-cluster-auth-service | v1.3.0_tkg.2 | v1.3.0_tkg.2 |
image-builder | v0.1.14+vmware.1 | v0.1.14+vmware.1* |
image-builder-resource-bundle | v1.26.8+vmware.1-tkg.2* | v1.26.5+vmware.2-tkg.1* |
imgpkg | v0.36.0+vmware.2 | v0.36.0+vmware.2* |
jetstack_cert-manager (cert-manager) | v1.11.1+vmware.1 | v1.11.1+vmware.1* |
k8s-sidecar | v1.22.4+vmware.2* | v1.22.0+vmware.2*, v1.15.6+vmware.5, v1.12.1+vmware.6 |
k14s_kapp (kapp) | v0.55.0+vmware.2 | v0.55.0+vmware.2* |
k14s_ytt (ytt) | v0.45.0+vmware.2 | v0.45.0+vmware.2* |
kapp-controller | v0.45.2+vmware.1 | v0.45.2+vmware.1* |
kbld | v0.37.0+vmware.2 | v0.37.0+vmware.2* |
kube-state-metrics | v2.8.2+vmware.1 | v2.8.2+vmware.1* |
kube-vip | v0.5.12+vmware.1 | v0.5.12+vmware.1 |
kube-vip-cloud-provider | v0.0.5+vmware.1, v0.0.4+vmware.4 |
v0.0.5+vmware.1*, v0.0.4+vmware.4 |
kubernetes | v1.26.8+vmware.1*, v1.25.13+vmware.1*, v1.24.17+vmware.1* |
v1.26.5+vmware.2*, v1.25.10+vmware.2*, v1.24.14+vmware.2 |
kubernetes-csi_external-resizer | v1.7.0+vmware.4*, v1.6.0+vmware.1, v1.5.0+vmware.1, v1.4.0+vmware.1 |
v1.7.0+vmware.2*, v1.6.0+vmware.1*, v1.5.0+vmware.1*, v1.4.0+vmware.1 |
kubernetes-sigs_kind | v1.26.8+vmware.1-tkg.2_v0.17.0*, v1.25.13+vmware.2-tkg.1_v0.17.0*, v1.24.17+vmware.2-tkg.1_v0.17.0* |
v1.26.5+vmware.2-tkg.1_v0.17.0*, v1.25.10+vmware.2-tkg.1_v0.17.0*, v1.24.14+vmware.2-tkg.1_v0.17.0* |
kubernetes_autoscaler | v1.26.2+vmware.1 | v1.26.2+vmware.1* |
load-balancer-and-ingress-service (AKO) | v1.9.3+vmware.2-tkg.1 | v1.9.3+vmware.2-tkg.1* |
metrics-server | v0.6.2+vmware.1 | v0.6.2+vmware.1 |
pinniped | v0.24.0+vmware.1-tkg.1 | v0.24.0+vmware.1-tkg.1* |
pinniped-post-deploy | v0.24.0+vmware.1 | v0.24.0+vmware.1* |
prometheus_node_exporter | v1.5.0+vmware.3* | v1.5.0+vmware.2* |
pushgateway | v1.5.1+vmware.3* | v1.5.1+vmware.2* |
sonobuoy | v0.56.16+vmware.2 | v0.56.16+vmware.2* |
tanzu-framework | v0.30.2* | v0.30.2* |
tanzu-framework-addons | v0.30.2* | v0.30.2* |
tanzu-framework-management-packages | v0.30.2* | v0.30.2* |
tkg-bom | v2.3.1* | v2.3.0* |
tkg-core-packages | v1.26.8+vmware.1-tkg.2* | v1.26.8+vmware.2-tkg.1* |
tkg-standard-packages | v2023.10.16* | v2023.7.13* |
tkg-storageclass-package | v0.30.2* | v0.30.2* |
tkg_telemetry | v2.3.1+vmware.3* | v2.3.0+vmware.2* |
velero | v1.10.3+vmware.1 | v1.10.3+vmware.1* |
velero-mgmt-cluster-plugin* | v0.2.0+vmware.1 | v0.2.0+vmware.1* |
velero-plugin-for-aws | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-csi | v0.4.3+vmware.1 | v0.4.3+vmware.1* |
velero-plugin-for-microsoft-azure | v1.6.2+vmware.1 | v1.6.2+vmware.1* |
velero-plugin-for-vsphere | v1.5.1+vmware.1 | v1.5.1+vmware.1* |
vendir | v0.33.1+vmware.2 | v0.33.1+vmware.2* |
vsphere_csi_driver | v3.0.1+vmware.4* | v3.0.1+vmware.2* |
* Indica un nuevo componente o un nuevo bump de versiones desde la versión anterior. TKG v2.3.0 es anterior a v2.3.1 y TKG v2.2.0 es anterior a v2.3.0.
Para obtener una lista de versiones de componentes de software que se incluyen en TKG v2.3 utilice imgpkg
para extraer los paquetes de repositorios y, a continuación, enumerar su contenido. Por ejemplo, para enumerar las versiones de componentes que se incluyen en el repositorio Tanzu Standard para TKG v2.3.1, ejecute el siguiente comando:
imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2023.10.16 -o standard-2023.10.16
Los archivos de lista de materiales locales, como los siguientes, también muestran las versiones del paquete, pero pueden no estar actualizados:
~/.config/tanzu/tkg/bom/tkg-bom-v2.3.1.yaml
~/.config/tanzu/tkg/bom/tkr-bom-v1.26.8+vmware.2-tkg.1.yaml
En la ruta de acceso de actualización de TKG, v2.3 sigue inmediatamente a v2.2.0.
Solo puede actualizar a Tanzu Kubernetes Grid v2.3.x desde v2.2.x. Si desea actualizar a Tanzu Kubernetes Grid v2.3.x desde una versión anterior a v2.2.x, primero debe actualizar a v2.2.x.
Al actualizar versiones de Kubernetes en clústeres de carga de trabajo, no se pueden omitir versiones secundarias. Por ejemplo, no puede actualizar un clúster de Tanzu Kubernetes directamente de v1.24.x a v1.26.x. Debe actualizar un clúster de la v1.24.x a la v1.25.x antes de actualizar el clúster a la v1.26.x.
Las fechas de versión de Tanzu Kubernetes Grid v2.3 son:
Tanzu Kubernetes Grid v2.3 introduce los siguientes comportamientos nuevos en comparación con la versión 2.2.0, que es la versión anterior más reciente.
Cuando se utiliza un proveedor de identidad (IDP) de OIDC para la administración de identidades y acceso a través de Pinniped, el IDP de OIDC debe configurarse para emitir un token de actualización.
OIDC_IDENTITY_PROVIDER_SCOPES
y OIDC_IDENTITY_PROVIDER_ADDITIONAL_AUTHORIZE_PARAMS
con los ámbitos o los parámetros necesarios.LDAPIdentityProvider
de Pinniped. Antes de actualizar un clúster de administración configurado para utilizar un proveedor de identidades LDAP a Tanzu Kubernetes Grid v2.3, actualice la configuración de LDAP como se describe en (solo LDAP) Actualizar configuración de LDAP. Toda la configuración de LDAP existente se migrará automáticamente al nuevo formato Pinniped durante la actualización del clúster de administración a la versión 2.3.tanzu mc permissions aws set
después de actualizar la CLI de Tanzu, pero antes de actualizar el clúster de administración. Para obtener más información, consulte la pestaña AWS en Preparar para actualizar clústeres.ConfigMap
para su TKr antes de implementar el clúster. Consulte Implementar el clúster de Kubernetes en la página Varias versiones de Kubernetes.En esta sección se proporciona un aviso previo de los cambios de comportamiento que se aplicarán en futuras versiones, después de la versión 2.3 de TKG.
El comando tanzu login
se eliminará en las futuras versiones de TKG. El comando se reemplazará por el comando tanzu context
. Para obtener más información, consulte contexto tanzu en la documentación de la CLI de VMware Tanzu.
Implementar y administrar clústeres de administración independientes de TKG 2.3 incluye temas específicos de los clústeres de administración independientes que no son pertinentes para usar TKG con un supervisor de vSphere with Tanzu.
Para obtener más información, consulte Buscar los documentos de TKG adecuados para la implementación en la página Documentación de VMware Tanzu Kubernetes Grid.
Tanzu Kubernetes Grid v2.3.1 resuelve problemas y errores de clientes no documentados.
Los siguientes problemas documentados como Problemas conocidos en versiones de Tanzu Kubernetes Grid anteriores se han resuelto en Tanzu Kubernetes Grid v2.3.
No se admiten redes IPv6 en vSphere 8
TKG v2.3 no admite redes IPv6 en vSphere 8, aunque sí admite redes IPv6 de pila única mediante Kube-Vip en vSphere 7, como se describe en Redes IPv6.
El escalador automático de clústeres no agrega las claves esperadas a MachineDeployment
Si crea un clúster con el escalador automático de clústeres habilitado, las claves esperadas cluster.x-k8s.io/cluster-api-autoscaler-node-group-max-size
y cluster.x-k8s.io/cluster-api-autoscaler-node-group-min-size
no se agregan a metadata.annotations
en MachineDeployment
.
Falta la variable de implementación del nodo de trabajo en las configuraciones ClusterClass
WORKER_ROLLOUT_STRATEGY
MachineDeployments
Ahora puede establecer la variable de WORKER_ROLLOUT_STRATEGY
en clústeres basados en clases, así como en clústeres basados en planes heredados. Para obtener más información, consulte Clústeres habilitados para GPU en Referencia de variables de archivo de configuración.
Los grupos de nodos del clúster de carga de trabajo en AWS deben estar en la misma zona de disponibilidad que el clúster de administración independiente.
Al crear un grupo de nodos configurado con un az
que sea diferente al lugar donde se encuentra el clúster de administración, es posible que el nuevo grupo de nodos permanezca bloqueado con el estado ScalingUp
, tal y como se indica en tanzu cluster node-pool list
, y nunca llegue al estado Ready
.
Volver a crear un clúster de administración independiente no restaura la autenticación de Pinniped
Después de volver a crear un clúster de administración independiente como se describe en Copia de seguridad y restauración de la infraestructura del clúster de carga de trabajo y administración (vista previa técnica), los usuarios no pueden iniciar sesión en los clústeres de carga de trabajo a través de la autenticación Pinniped.
Se puede producir un error en la exportación de CVE de Harbor cuando el identificador de ejecución supera los 1 000 000.
Harbor v2.7.1, que era la versión empaquetada para TKG v2.2, tiene un problema desconocido que CVE informa de la exportación con el error "404 page not found" cuando el identificador de incremento automático de clave principal de ejecución crece hasta 1 000 000 o superior.
La opción --default-values-file-output
de los resultados tanzu package available get
genera un archivo de plantilla de configuración incompleto para el paquete de Harbor
Al ejecutar tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH
, se crea un archivo de plantilla de configuración incompleto para el paquete de Harbor.
El escalador automático para clústeres basados en clases requiere anotaciones manuales
Debido a un problema de propagación de etiquetas en la API del clúster, los ajustes AUTOSCALER_MIN_SIZE_*
y AUTOSCALER_MAX_SIZE_*
en el archivo de configuración del clúster para los clústeres de carga de trabajo basados en clases no se establecen en los objetos MachineDeployment
del clúster y tienen que añadirse manualmente.
Los nombres de clúster basados en clases tienen un límite de 25 caracteres con NSX ALB como servicio de equilibrador de carga o controlador de entrada
Cuando se utiliza NSX Advanced Load Balancer (ALB) como controlador de entrada o servicio de equilibrador de carga de un clúster basado en clases con un clúster de administración independiente, sus nombres de aplicaciones incluyen el nombre del clúster y load-balancer-and-ingress-service
, el nombre interno del paquete AKO. Cuando el nombre combinado supera el límite de 64 caracteres para las aplicaciones del controlador AVI, el comando tanzu cluster create
puede generar un error que indica que no se encontró el espacio de nombres avi-system
.
Solución alternativa: Limite la longitud del nombre de clúster basado en clases a 25 caracteres o menos cuando utilice NSX ALB como equilibrador de carga o controlador de entrada.
A continuación se muestran los problemas conocidos de Tanzu Kubernetes Grid v2.3.x. Todos los problemas conocidos presentes en la versión 2.3.0 que se hayan resuelto en una versión de revisión posterior a v2.3.x se enumeran en Problemas resueltos para la versión de revisión en la que se resolvieron.
Puede encontrar soluciones adicionales para problemas frecuentes en Solución de problemas del clúster de administración y Solución de problemas del clúster de carga de trabajo, o en los artículos de la base de conocimientos de VMware.
Se produce un error al agregar un repositorio estándar para clústeres de nodo único
Puede que se produzca un error al ejecutar tanzu package repository add
para agregar el repositorio tanzu-standard
a un clúster de nodo único del tipo descrito en Clústeres de nodo único en vSphere.
Esto sucede porque los clústeres de nodo único arrancan con cert-manager
como complemento principal, lo que entra en conflicto con el paquete cert-manager
diferente en el repositorio tanzu-standard
.
Solución alternativa: Antes de agregar el repositorio tanzu-standard
, aplique las anotaciones del paquete cert-manager
como se describe en Instalar cert-manager.
En AWS y Azure, se produce un error de zona/región al crear un clúster de carga de trabajo con la especificación de objeto
De forma predeterminada, en AWS o Azure, la ejecución de tanzu cluster create
con una especificación de objeto de clúster basada en clases que se envía a --file
hace que la CLI de Tanzu realice la verificación de regiones y zonas que solo son pertinentes para las zonas de disponibilidad de vSphere.
Solución alternativa Al crear un clúster basado en clases en AWS o Azure, realice una de las siguientes acciones, en función de si utiliza el proceso de un paso o de dos pasos descrito en Crear un clúster basado en clases:
Un paso: Siga el proceso de un paso que se describe estableciendo features.cluster.auto-apply-generated-clusterclass-based-configuration
en true
sin pasar --dry-run
al comando tanzu cluster create
.
Dos pasos: Antes de ejecutar tanzu cluster create
con la especificación de objeto como segundo paso, establezca SKIP_MULTI_AZ_VERIFY
en true
en el entorno local:
export SKIP_MULTI_AZ_VERIFY=true
Los componentes no se programan cuando se utilizan clústeres con capacidad limitada
Para los clústeres de administración y los clústeres de carga de trabajo, si implementa clústeres con un solo nodo de plano de control, un solo nodo de trabajo o clústeres pequeños o medianos, es posible que se produzca una contención de programación de recursos.
Solución alternativa: Utilice clústeres de nodo único o clústeres con un total de tres o más nodos.
No se pueden crear nuevos clústeres de carga de trabajo basados en versiones de TKr no actuales con CNI de Antrea
No se puede crear un nuevo clúster de carga de trabajo que utilice CNI de Antrea y ejecute versiones de Kubernetes enviadas con versiones anteriores de TKG, como Kubernetes v1.23.10, que fue la versión predeterminada de Kubernetes en TKG v1.6.1, como se indica en Versiones de Kubernetes compatibles en Tanzu Kubernetes Grid v2.2.
Solución alternativa: Cree un clúster de carga de trabajo que ejecute Kubernetes 1.26.8, 1.25.13 o 1.24.17. El proyecto de Kubernetes recomienda que se ejecuten componentes en la versión de revisión más reciente de cualquier versión secundaria actual.
No se pueden escalar los nodos del plano de control del clúster de administración a un número par
Si ejecuta tanzu cluster scale
en un clúster de administración y envía un número par a la opción --controlplane-machine-count
, TKG no escala los nodos del plano de control y la CLI no genera un error. Para mantener el cuórum, los recuentos de nodos del plano de control siempre deben ser impares.
Solución alternativa No escalar los recuentos de nodos del plano de control a un número par.
NotaPara v4.0+, se cambia el nombre de VMware NSX-T Data Center a "VMware NSX".
Algunas variables de configuración de NSX ALB no funcionan
En TKG v2.3, las variables de configuración del clúster de administración AVI_DISABLE_INGRESS_CLASS
, AVI_DISABLE_STATIC_ROUTE_SYNC
y AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
no funcionan.
Después de crear el clúster de administración, para establecer cualquiera de sus propiedades subyacentes en el valor no predeterminado true
, debe editar manualmente los dos objetos de configuración AKODeploymentConfig
del clúster de administración como se describe a continuación.
Solución alternativa: Edite los objetos install-ako-for-all
y install-ako-for-management-cluster
en el clúster de administración:
Establezca el contexto kubectl
en el clúster de administración:
kubectl config use-context MGMT-CLUSTER-CONTEXT
Edite las configuraciones de install-ako-for-all
y install-ako-for-management-cluster
:
kubectl edit adc install-ako-for-all
kubectl edit adc install-ako-for-management-cluster
En las configuraciones, establezca las siguientes propiedades según desee:
extraConfigs.ingress.disableIngressClass
: para la variable de configuración AVI_DISABLE_INGRESS_CLASS
extraConfigs.disableStaticRouteSync
: para la variable de configuración AVI_DISABLE_STATIC_ROUTE_SYNC
extraConfigs.ingress.defaultIngressController
: para la variable de configuración AVI_INGRESS_DEFAULT_INGRESS_CONTROLLER
Guarde y salga.
Esta configuración se aplicará a los clústeres de carga de trabajo que el clúster de administración cree posteriormente.
El modo de entrada NodePortLocal
de NSX ALB no es compatible con el clúster de administración
En TKG v2.3, no se puede ejecutar NSX Advanced Load Balancer (ALB) como un tipo de servicio con modo de entrada NodePortLocal
para el tráfico hacia el clúster de administración.
Este problema no afecta a la compatibilidad con la entrada NodePortLocal
a los clústeres de carga de trabajo, como se describe en Entrada L7 en el modo NodePortLocal.
Solución alternativa: Configure los clústeres de administración con AVI_INGRESS_SERVICE_TYPE
establecido en NodePort
o ClusterIP
. El valor predeterminado es NodePort
.
Se produce un error en la creación del clúster de administración o el rendimiento es lento con versiones anteriores de NSX-T y máquinas virtuales con Photon 3 o Ubuntu y kernel de Linux 5.8
La implementación de un clúster de administración con la siguiente infraestructura y configuración puede fallar o resultar en un tráfico restringido entre los pods:
Esta combinación expone un problema de suma de comprobación entre versiones anteriores de NSX-T y CNI de Antrea.
TMC: Si el clúster de administración está registrado en Tanzu Mission Control (TMC), no hay ninguna solución alternativa para este problema. De lo contrario, consulte las soluciones alternativas que aparecen a continuación.
Soluciones alternativas:
ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD
establecido en "true"
. Este ajuste desactiva la descarga de la suma de comprobación UDP de Antrea, lo que evita los problemas conocidos con algunos controladores de red de NIC físicas y de red subyacentes.El clúster de carga de trabajo no puede distribuir el almacenamiento entre varios almacenes de datos
No puede habilitar un clúster de carga de trabajo para distribuir el almacenamiento entre varios almacenes de datos como se describe en Implementar un clúster que usa un clúster de almacén de datos. Si etiqueta varios almacenes de datos en un clúster de almacenes de datos como base para la directiva de almacenamiento de un clúster de carga de trabajo el clúster de carga de trabajo utiliza solo uno de los almacenes de datos.
Solución alternativa: Ninguna
No se pueden utilizar caracteres no alfanuméricos en las contraseñas de proxy HTTP/HTTPS
Al implementar clústeres de administración con la CLI, los caracteres no alfanuméricos # ` ^ | / ? % ^ { [ ] } \ " < >
no se pueden utilizar en las contraseñas. Además, no se puede utilizar ningún carácter no alfanumérico en las contraseñas de proxy HTTP/HTTPS al implementar el clúster de administración con la interfaz de usuario.
Solución alternativa: Puede utilizar caracteres no alfanuméricos que no sean # ` ^ | / ? % ^ { [ ] } \ " < >
en las contraseñas al implementar el clúster de administración con la CLI.
La CLI de Tanzu no funciona en máquinas macOS con procesadores ARM
La CLI de Tanzu v0.11.6 no funciona en máquinas macOS con chips ARM (Apple M1), como se identifica en Buscador (Finder) > Acerca de este Mac (About This Mac) > Descripción general (Overview).
Solución alternativa: Utilice una máquina de arranque con un sistema operativo Linux o Windows, o bien una máquina macOS con un procesador Intel.
La CLI de Tanzu enumera tanzu management-cluster osimage
El grupo de comandos management-cluster
enumera tanzu management-cluster osimage
. Esta función está actualmente en desarrollo y está reservada para su uso en el futuro.
Solución alternativa: No use tanzu management-cluster osimage
Se produce un error al implementar el clúster de administración en vSphere 7 mientras se espera a que el plano de control del clúster esté disponible
Si especifica la red de máquina virtual al implementar un clúster de administración para vSphere 7, se produce el error unable to set up management cluster: unable to wait for cluster control plane available: control plane is not available yet
.
Solución alternativa: A continuación, la red "Red de máquina virtual" tiene varias subredes configuradas con direcciones IP estáticas para VsVip
y ServiceEngine
. Establezca exclude_discovered_subnets
en True en la red de máquina virtual para omitir las subredes detectadas y permitir que los servicios virtuales se coloquen en los motores de servicio.
Las zonas de disponibilidad se pueden eliminar mientras se asignan máquinas virtuales
Si elimina una zona de disponibilidad que contiene máquinas virtuales, las máquinas virtuales no se pueden eliminar posteriormente.
Solución alternativa: Elimine todas las máquinas virtuales de una zona de disponibilidad antes de eliminarla.
Se produce un error al crear clústeres de carga de trabajo debido a que se agota la sesión de VPXD
Al crear clústeres de carga de trabajo en vSphere, se produce el siguiente error en la creación:
vSphere config validation failed: failed to get VC client: failed to create vc client: Post "https://address/sdk": EOF ". VCenter vpxd.log report error: Out of HTTP sessions: Limited to 2000
Esto ocurre debido a que la sesión de vCenter Server se agota.
Solución alternativa: Consulte el artículo de la base de conocimientos de VMware 50114010.
Los grupos de nodos creados con nodos small
pueden detenerse en Provisioning
Los grupos de nodos creados con el nodo SIZE
configurado como small
pueden bloquearse en el estado Provisioning
y nunca continuar con Running
.
Solución alternativa: Configure el grupo de nodos con al menos nodos de tamaño medium
.
No se admiten trabajos Windows en entornos restringidos por Internet
VMware no admite clústeres de carga de trabajo de TKG con nodos de trabajo Windows en entornos con proxy o aislados.
Solución alternativa: Póngase en contacto con su representante de VMware. Algunos usuarios de TKG crearon imágenes personalizadas de Windows y ejecutaron clústeres de carga de trabajo con trabajos Windows en entornos sin conexión, por ejemplo, como se describe en este repositorio no oficial.
La prueba goss
que se puede ignorar falla durante el proceso de creación de imagen
Cuando se ejecuta Kubernetes Image Builder para crear una imagen de máquina personalizada de Linux, las pruebas goss
python-netifaces
, python-requests
y ebtables
producen errores. Los resultados del comando informan de los errores. Los errores se pueden ignorar; no impiden que se cree correctamente la imagen.
La eliminación del volumen de vSphere CSI podría fallar en AVS
En Azure vSphere Solution (AVS), la eliminación de volúmenes persistentes (PV) de vSphere CSI puede producir un error. Para eliminar un PV, se requiere el permiso cns.searchable. La cuenta de administrador predeterminada para AVS, [email protected], no se crea con este permiso. Para obtener más información, consulte Funciones y privilegios de vSphere.
Solución alternativa: Para eliminar un PV de vSphere CSI en AVS, póngase en contacto con el soporte de Azure.
Con TKG v2.3, el repositorio de paquetes Tanzu Standard se versiona y se distribuye de forma independiente desde TKG, y su control de versiones se basa en una marca de fecha.
Para TKG v2.3.0 y v2.3.1, la versión de revisión de TKG y su última versión de repositorio Tanzu Standard compatible se publican alrededor de la misma fecha.
Es posible que las futuras versiones del repositorio Tanzu Standard se publiquen con más frecuencia que las versiones de TKG, pero todas las versiones de revisión mantendrán compatibilidades existentes entre las versiones secundarias de TKG y Tanzu Standard.
Para cada versión de revisión de TKG v2.3, su última versión de repositorio Tanzu Standard compatible es:
VMware proporciona la siguiente compatibilidad con los paquetes opcionales que se proporcionan en el repositorio de VMware Tanzu Standard:
vmware_cert-manager
incluye el componente acmesolver
de jetstack_cert-manager
ascendente.Versión de TKG | Versión de jetstack_cert-manager | Versión del paquete vmware cert-manager | Compatibilidad de versión de Kubernetes |
2.3 | v1.11.1 | v1.11.1+vmware.1 | 1.21-1.27 |
El administrador de certificados v1.11.1 contiene las siguientes versiones de imagen de componente:
Las siguientes versiones del administrador de certificados han quedado obsoletas en TKG v2.3:
envoy:
workload:
type: Deployment
replicas: 3
Puede especificar solicitudes de recursos o límites para cada contenedor dentro de las cargas de trabajo de Contour y Envoy mediante valores de datos como los siguientes:
contour:
resources:
contour:
requests:
cpu: 250m
memory: 128Mi
limits:
cpu: 1
memory: 512Mi
envoy:
resources:
envoy:
# include requests and limits as desired
shutdown-manager:
# include requests and limits as desired
data-values
se verifican. Se produce un error al especificar un valor no compatible en los valores de datos.Contour v1.24.4 es compatible con Kubernetes v1.24-v1.26. Consulte la Matriz de compatibilidad de Contour.
data-values
ya no aceptan valores null
. Para cualquier campo de configuración con un valor establecido en null
, debe omitir el valor por completo.external-csi-snapshot-webhook
v6.1.0 mediante la CLI de Tanzu.Versión de TKG | Versión external-csi-snapshot-webhook |
Compatibilidad de versión de Kubernetes esperada | Probado en la versión de Kubernetes |
2.3.0 | 6.1.0 | 1.18 - más reciente | 1.24 |
external-csi-snapshot-webhook contiene la siguiente versión de imagen del componente:
createNamespace
. Establézcalo en true
para crear el espacio de nombres en el que se instalan los componentes external-dns
. Si se establece en false, los componentes del paquete se instalan en un espacio de nombres existente.Consulte las siguientes notas de la versión del paquete de controladores Fluxcd:
Grafana v9.5.1 contiene las siguientes versiones de imagen de componente:
Harbor v2.8.2 contiene las siguientes versiones de imagen de componente:
Cambia los valores predeterminados de la siguiente manera:
namespace: kube-system
#! DaemonSet related configuration
daemonset:
resources:
limits:
cpu: 100m
memory: 50Mi
requests:
cpu: 100m
memory: 50Mi
configmap:
cniVersion: 0.3.1
multusConfigFile: auto
Prometheus v2.43.0 contiene las siguientes versiones de imagen de componente:
restic daemonset
ha cambiado de nombre a node-agent
ResticRepository
CR ha cambiado de nombre a BackupRepository
velero restic repo
se ha cambiado a velero repo
velero-restic-credentials
ha cambiado a velero-repo-credentials
default-volumes-to-restic
ha cambiado a default-volumes-to-fs-backup
restic-timeout
ha cambiado a fs-backup-timeout
default-restic-prune-frequency
ha cambiado a default-repo-maintain-frequency
uploader-type
.
BackupItemAction
, RestoreItemAction
y VolumeSnapshotterAction
a la versión v1 para permitir cambios futuros en los complementos que pueden no ser compatibles con versiones anteriores, como tareas complejas de movimiento de datos, por ejemplo, tareas de movimiento de datos. Consulte Control de versiones de complementos.-paused
para velero schedule create
para crear una programación en pausa.velero schedule pause
y velero schedule unpause
pausa y anula la pausa de una programación existente.Versión de TKG | Versión de Velero | Compatibilidad de versión de Kubernetes esperada | Probado en la versión de Kubernetes |
2.3 (Halifax) | 1.10 | 1.18-más reciente | 1.22.5, 1.23.8, 1.24.6 y 1.25.1 |
Velero v1.10.3 contiene las siguientes versiones de imagen de componente:
Para solucionar las CVE, las versiones de dependencia y tiempo de ejecución de Velero se actualizan de la siguiente manera:
Los procedimientos de actualización anteriores no funcionan debido a cambios en la copia de seguridad del sistema de archivos. Para conocer los pasos de actualización nuevos, consulte Actualización a Velero 1.10.
ipRanges
para configurar la asignación de IP de pila dual; consulte Ejemplo de configuración de IPv6 en el repositorio LÉAME de Whereabouts.