Sofern nicht anders angegeben, gelten diese Versionshinweise für alle v2.2.x-Patchversionen von Tanzu Kubernetes Grid (TKG).
TKG v2.2 wird als herunterladbares Tanzu CLI-Paket verteilt, das einen versionierten eigenständigen TKG-Verwaltungscluster bereitstellt. TKG v2.2 unterstützt das Erstellen und Verwalten von Arbeitslastclustern mit einem eigenständigen Verwaltungscluster, der in mehreren Infrastrukturen ausgeführt werden kann, einschließlich vSphere 6.7, 7 und 8, AWS und Azure.
WichtigDer vSphere with Tanzu-Supervisor in vSphere 8.0.1c oder höher führt TKG v2.2 aus. Frühere Versionen von vSphere 8 führen TKG v2.0 aus, das nicht unabhängig von Supervisor veröffentlicht wurde. Eigenständige Verwaltungscluster unter TKG 2.x sind ab TKG 2.1 verfügbar. Spätere TKG-Versionen werden in künftigen vSphere-Update-Versionen in Supervisor eingebettet sein. Folglich stimmt die in die aktuelle Version von vSphere with Tanzu eingebettete Version von TKG zu einem bestimmten Zeitpunkt möglicherweise nicht mit der von Ihnen verwendeten eigenständigen TKG-Version überein. Die Versionen von Tanzu CLI, die mit allen TKG v2.x-Versionen kompatibel sind, werden jedoch für die Verwendung mit Supervisor in allen Versionen von vSphere 8 vollständig unterstützt.
VorsichtDie Versionen der Tanzu CLI, die mit TKG 2.x und mit dem vSphere with Tanzu Supervisor in vSphere 8 kompatibel sind, sind nicht mit dem Supervisor-Cluster in vSphere 7 kompatibel. Um die Tanzu CLI mit einem vSphere with Tanzu Supervisor-Cluster auf vSphere 7 zu verwenden, verwenden Sie die Tanzu CLI-Version von TKG v1.6. Um die Versionen von Tanzu CLI zu verwenden, die mit TKG 2.x mit Supervisor kompatibel sind, führen Sie ein Upgrade auf vSphere 8 durch. Sie können einen eigenständigen TKG 2.x-Verwaltungscluster auf vSphere 7 bereitstellen, wenn der vSphere with Tanzu Supervisor-Cluster nicht vorhanden ist. Informationen zur Kompatibilität zwischen der Tanzu CLI und VMware-Produkten finden Sie in der Tanzu CLI-Dokumentation.
Tanzu Kubernetes Grid v2.2.x umfasst die folgenden neuen Funktionen:
ADDITIONAL_IMAGE_REGISTRY*
-Variablen in einer Clusterkonfigurationsdatei oder additionalImageRegistries
-Einstellungen in einer Cluster
-Objektspezifikation verwenden. Weitere Informationen finden Sie unter Vertrauenswürdige Registrierungen für einen klassenbasierten Cluster.jobservice.scandataExports
-Volumes aus Harbor v2.7.1. Wenn Sie zuvor das Harbor Scandata Volume EmptyDir Overlay auf das Harbor-Paket angewendet haben, informieren Sie sich unter Aktualisieren einer ausgeführten Harbor-Bereitstellung, bevor Sie das Harbor-Paket auf v2.7.1 aktualisieren.vsphereCSI.netpermissions
-Konfiguration.Mit TKG v2.2 wurden die Supportrichtlinien von VMware für ältere Patchversionen von TKG und TKrs geändert, die Kubernetes-Versionen für TKG paketieren. Die Supportrichtlinien für TKG v2.1 und ältere Nebenversionen von TKG werden nicht geändert.
In den folgenden Abschnitten wird die Unterstützung für alle aktuell unterstützten Versionen von TKG und TKrs unter den jeweils geltenden Supportrichtlinien zusammengefasst.
Jede Version von Tanzu Kubernetes Grid bietet Unterstützung für die Kubernetes-Version des zugehörigen Verwaltungsclusters sowie zusätzliche Kubernetes-Versionen, die als Tanzu Kubernetes-Releases (TKrs) verteilt werden, mit Ausnahme derjenigen, die unter Bekanntes Problem erfasst sind.
Nebenversionen: VMware unterstützt TKG v2.2 mit Kubernetes v1.25, v1.24 und v1.23 zum Zeitpunkt der Veröffentlichung und für die Dauer der TKG v2.1-Unterstützung. Sobald TKG v2.1 das Ende des allgemeinen Supports erreicht hat, bietet VMware keine weitere Unterstützung mehr für Kubernetes v1.23 und v1.24 mit TKG.
Patchversionen: Nachdem VMware eine neue TKr-Patchversion für eine Nebenversion veröffentlicht hat, wird die Unterstützung für ältere Patchversionen zwei Monate beibehalten. Kunden sollten das Upgrade auf neue TKr-Patchversionen somit innerhalb der nächsten zwei Monate durchführen. Ab TKG v2.2 unterstützt VMware nicht alle TKr-Patchversionen aus früheren Nebenversionen von Kubernetes.
Unterstützte TKG- und TKr-Versionen
Die derzeit unterstützten TKG-Patchversionen bieten Unterstützung für die unten aufgeführten TKr-Patchversionen.
Version von Tanzu Kubernetes Grid | Kubernetes-Version des Verwaltungsclusters | Bereitgestellte Kubernetes-Versionen (TKr) |
---|---|---|
2.2.0 | 1.25.7 | 1.25.7, 1.24.11, 1.23.17 |
2.1.1 | 1.24.10 | 1.24.10, 1.23.16, 1.22.17 |
2.1.0 | 1.24.9 | 1.24.9, 1.23.15, 1.22.17 |
1.6.1 | 1.23.10 | 1.23.10, 1.22.13, 1.21.14 |
1.6.0 | 1.23.8 | 1.23.8, 1.22.11, 1.21.14 |
Mit TKG v2.2.0 unterstützte TKr-Versionen
TKG v2.2.0 unterstützt die in der folgenden Tabelle aufgeführten TKr-Patchversionen basierend auf den folgenden Veröffentlichungsdaten:
Kubernetes-Nebenversion | Kubernetes-Patch | Freigegeben mit TKG | Enddatum des Supports (falls nicht aktuell) |
---|---|---|---|
v1.25 | v1.25.7 | v2.2.0 | Zuletzt unterstützt |
v1.24 | v1.24.11 | v2.2.0 | Zuletzt unterstützt |
v1.24.10 | v2.1.1 | 11. Juli 2023 | |
v1.24.9 | v2.1.0 | 21. Mai 2023 | |
v1.23 | v1.23.17 | v2.2.0 | Zuletzt unterstützt |
v1.23.16 | v2.1.1 | 11. Juli 2023 | |
v1.23.15 | v2.1.0 | 21. Mai 2023 |
VMware unterstützt TKG-Versionen wie folgt:
Nebenversionen: VMware unterstützt TKG gemäß der N-2-Lebenszyklusrichtlinie, die für die aktuellen und vorherigen Nebenversionen von TKG gilt. Mit der Veröffentlichung von TKG v2.2.0 wird TKG v1.5 nicht mehr unterstützt. Weitere Informationen finden Sie in der VMware-Produkt-Lebenzyklusmatrix.
Patchversionen: VMware unterstützt nicht alle vorherigen TKG-Patchversionen. Nachdem VMware eine neue Patchversion von TKG veröffentlicht hat, wird die Unterstützung für die ältere Patchversion zwei Monate beibehalten. Kunden sollten das Upgrade auf neue TKG-Patchversionen somit innerhalb der nächsten zwei Monate durchführen.
VMware bietet folgende Unterstützung für die optionalen Pakete, die im VMware Tanzu Standard-Repository bereitgestellt werden:
Weitere Informationen zum VMware Support für Tanzu Standard-Pakete finden Sie unter Neue Funktionen oben und Hinweise zu künftigen Verhaltensänderungen unten.
Tanzu Kubernetes Grid v2.2 unterstützt die folgenden Infrastrukturplattformen und Betriebssysteme sowie Clustererstellung und -verwaltung, Netzwerk, Speicher, Authentifizierung, Sicherung und Migration und Beobachtbarkeitskomponenten. Die in Klammern aufgeführten Komponentenversionen sind in Tanzu Kubernetes Grid v2.2.0 enthalten. Weitere Informationen finden Sie unter Komponentenversionen.
vSphere | AWS | Azure | |
Infrastrukturplattform |
|
Natives AWS | Natives Azure |
CLI, API und Paketinfrastruktur | Tanzu Framework v0.29.0 | ||
Clustererstellung und -verwaltung | Kerncluster-API (v1.2.8), Cluster-API-Anbieter vSphere (v1.5.3) | Kerncluster-API (v1.2.8), Cluster-API-Anbieter AWS (v2.0.2) | Kerncluster-API (v1.2.8), Cluster-API-Anbieter Azure (v1.6.3) |
Mit TKG verteiltes Kubernetes-Knotenbetriebssystem | Photon OS 3, Ubuntu 20.04 | Amazon Linux 2, Ubuntu 20.04 | Ubuntu 18.04, Ubuntu 20.04 |
Eigenes Image erstellen | Photon OS 3, Red Hat Enterprise Linux 7*** und 8, Ubuntu 18.04, Ubuntu 20.04, Windows 2019 | Amazon Linux 2, Ubuntu 18.04, Ubuntu 20.04 | Ubuntu 18.04, Ubuntu 20.04 |
Container-Laufzeit | Containerd (v1.6.18) | ||
Containernetzwerk | Antrea (v1.9.0), Calico (v3.24.1) | ||
Containerregistrierung | Harbor (v2.7.1) | ||
Ingress | NSX Advanced Load Balancer Essentials und Avi-Controller **** (v21.1.5-v21.1.6, v22.1.2-v22.1.3), Contour (v1.23.5) | Contour (v1.23.5) | Contour (v1.23.5) |
Speicher | vSphere Container Storage Interface (v2.7.1*) und vSphere Cloud Native Storage | Amazon EBS CSI-Treiber (v1.16.0) und Cloud-Anbieter in der Struktur | Azure Disk CSI-Treiber (v1.27.0), Azure File CSI-Treiber (v1.26.1) und Cloud-Anbieter in der Struktur |
Authentifizierung | OIDC über Pinniped (v0.12.1), LDAP über Pinniped (v0.12.1) und Dex | ||
Beobachtbarkeit | Fluent Bit (v1.9.5), Prometheus (v2.37.0)*****, Grafana (v7.5.17) | ||
Sicherung und Migration | Velero (v1.9.7) |
* Version von vsphere_csi_driver. Eine vollständige Liste der vSphere Container Storage Interface-Komponenten, die in der Version Tanzu Kubernetes Grid v2.2 enthalten sind, finden Sie unter Komponentenversionen.
** Eine Liste der VMware Cloud on AWS SDDC-Versionen, die mit dieser Version kompatibel sind, finden Sie in der VMware-Produkt-Interoperabilitätsmatrix.
*** Tanzu Kubernetes Grid v1.6 ist die letzte Version, die die Erstellung von Red Hat Enterprise Linux 7-Images unterstützt.
**** Um unter vSphere 8 NSX Advanced Load Balancer mit einem eigenständigen TKG-Verwaltungscluster und dessen Arbeitslastclustern zu verwenden, benötigen Sie NSX ALB v22.1.2 oder höher und TKG v2.1.1 oder höher.
***** Wenn Sie einen Cluster auf Kubernetes v1.25 upgraden, müssen Sie ein Upgrade von Prometheus auf Version 2.37.0+vmware.3-tkg.1
durchführen. Frühere Versionen des Prometheus-Pakets, wie z. B. Version 2.37.0+vmware.1-tkg.1
, sind nicht mit Kubernetes 1.25 kompatibel.
Eine vollständige Liste der Kubernetes-Versionen, die im Lieferumfang von Tanzu Kubernetes Grid v2.2 enthalten sind, finden Sie unter Unterstützte Kubernetes-Versionen in Tanzu Kubernetes Grid v2.2 weiter oben.
Die Tanzu Kubernetes Grid v2.2.x-Versionen enthalten die folgenden Softwarekomponentenversionen:
Komponente | TKG v2.2 |
---|---|
aad-pod-identity | v1.8.15+vmware.1* |
addons-manager | v2.2+vmware.1* |
ako-operator | v1.8.0_vmware.1* |
alertmanager | v0.25.0_vmware.1* |
antrea | v1.9.0_vmware.2-tkg.1-advanced* |
aws-ebs-csi-driver | v1.16.0_vmware.1-tkg.1* |
azuredisk-csi-driver | v1.27.0_vmware.2-tkg.1* |
azurefile-csi-driver | v1.26.1_vmware.2-tkg.1* |
calico | v3.24.1_vmware.1-tkg.2* |
capabilities-package | v0.29.0-dev-capabilities* |
carvel-secretgen-controller | v0.11.2+vmware.1 |
cloud-provider-azure | v1.1.26+vmware.1, v1.23.23+vmware.1, v1.24.10+vmware.1 |
cloud_provider_vsphere | v1.25.1+vmware.2* |
cluster-api-provider-azure | v1.6.3_vmware.2* |
cluster_api | v1.2.8+vmware.2* |
cluster_api_aws | v2.0.2+vmware.2* |
cluster_api_vsphere | v1.5.3+vmware.2* |
cni_plugins | v1.1.1+vmware.20* |
configmap-reload | v0.7.1+vmware.2 |
containerd | v1.6.18+vmware.1* |
contour | v1.23.5+vmware.1-tkg.1* |
coredns | v1.9.3_vmware.8* |
crash-diagnostics | v0.3.7+vmware.6 |
cri_tools | v1.24.2+vmware.8* |
csi_attacher | v3.5.0+vmware.1, v3.4.0+vmware.1, v3.3.0+vmware.1 |
csi_livenessprobe | v2.7.0+vmware.1, v2.6.0+vmware.1, v2.5.0+vmware.1, v2.4.0+vmware.1 |
csi_node_driver_registrar | v2.5.1+vmware.1, v2.5.0+vmware.1, v2.3.0+vmware.1 |
csi_provisioner | v3.2.1+vmware.1, v3.1.0+vmware.2, v3.0.0+vmware.1 |
dex | v2.35.3_vmware.3* |
Envoy | v1.24.5_vmware.1* |
external-dns | v0.12.2+vmware.5* |
external-snapshotter | v6.0.1+vmware.1, v5.0.1+vmware.1 |
etcd | v3.5.6+vmware.9* |
fluent-bit | v1.9.5+vmware.1 |
gangway | v3.2.0+vmware.2 |
grafana | v7.5.17+vmware.2 |
guest-cluster-auth-service | v1.3.0* |
harbor | v2.7.1+vmware.1* |
image-builder | v0.1.13+vmware.3* |
image-builder-resource-bundle | v1.25.7+vmware.2-tkg.1* |
imgpkg | v0.31.1+vmware.1 |
jetstack_cert-manager | v1.10.2+vmware.1* |
k8s-sidecar | v1.15.6+vmware.5*, v1.12.1+vmware.6* |
k14s_kapp | v0.53.2+vmware.1 |
k14s_ytt | v0.43.1+vmware.1 |
kapp-controller | v0.41.7_vmware.1-tkg.1* |
kbld | v0.35.1+vmware.1 |
kube-state-metrics | v2.7.0+vmware.2* |
kube-vip | v0.5.7+vmware.2* |
kube-vip-cloud-provider* | v0.0.4+vmware.4* |
kube_rbac_proxy | v0.11.0+vmware.2 |
kubernetes | v1.25.7+vmware.2* |
kubernetes-csi_external-resizer | v1.4.0+vmware.1, v1.3.0+vmware.1 |
kubernetes-sigs_kind | v1.25.7+vmware.2-tkg.2_v0.17.0* |
kubernetes_autoscaler | v1.25.0+vmware.1* |
load-balancer-and-ingress-service (AKO) | v1.9.3_vmware.1-tkg.1* |
metrics-server | v0.6.2+vmware.1 |
multus-cni | v3.8.0+vmware.3* |
pinniped | v0.12.1_vmware.3-tkg.4* |
pinniped-post-deploy | v0.12.1+vmware.2-tkg.3 |
prometheus | v2.37.0+vmware.3* |
prometheus_node_exporter | v1.4.0+vmware.3* |
pushgateway | v1.4.3+vmware.3* |
sonobuoy | v0.56.16+vmware.1* |
standalone-plugins-paket | v0.29.0-dev-standalone-plugins* |
tanzu-framework | v0.29.0* |
tanzu-framework-addons | v0.29.0* |
tanzu-framework-management-packages | v0.29.0-tf* |
tkg-bom | v2.2.0* |
tkg-core-packages | v1.25.7+vmware.2-tkg.1* |
tkg-standard-packages | v2.2.0* |
tkg-storageclass-package | v0.29.0-tkg-storageclass* |
tkg_telemetry | v2.2.0+vmware.1* |
velero | v1.9.7+vmware.1* |
velero-mgmt-cluster-plugin* | v0.1.0+vmware.1 |
velero-plugin-for-aws | v1.5.5+vmware.1* |
velero-plugin-for-csi | v0.3.5+vmware.1* |
velero-plugin-for-microsoft-azure | v1.5.5+vmware.1* |
velero-plugin-for-vsphere | v1.4.3+vmware.1* |
vendir | v0.30.1+vmware.1 |
vsphere_csi_driver | v2.7.1+vmware.2* |
whereabouts | v0.5.4+vmware.2* |
* Weist auf einen neuen Komponenten- oder Versions-Bump seit der vorherigen Version hin. TKG v2.1.1 ist älter als v2.2.0.
Um eine vollständige Liste der Versionen der Softwarekomponenten zu erhalten, die im Lieferumfang von TKG v2.2 enthalten sind, rufen Sie mithilfe von imgpkg
das Repository-Paket ab und listen Sie dann dessen Inhalt auf. Für TKG v2.2.0 beispielsweise:
imgpkg pull -b projects.registry.vmware.com/tkg/packages/standard/repo:v2.2.0 -o standard-2.2.0
cd standard-2.2.0/packages
tree
In lokalen Stücklistendateien (BOM-Dateien) wie der folgenden sind auch Paketversionen aufgelistet, die aber möglicherweise nicht aktuell sind:
~/.config/tanzu/tkg/bom/tkg-bom-v2.2.0.yaml
~/.config/tanzu/tkg/bom/tkr-bom-v1.25.7+vmware.1-tkg.1.yaml
Im TKG-Upgrade-Pfad folgt v2.2 unmittelbar auf v2.1.1.
Sie können von Tanzu Kubernetes Grid v2.1.x nur ein Upgrade auf v2.2.x durchführen. Wenn Sie ein Upgrade auf Tanzu Kubernetes Grid v2.2.x von einer älteren Version als v2.1.x durchführen möchten, müssen Sie zuerst ein Upgrade auf v2.1.x durchführen.
Beim Upgrade von Kubernetes-Versionen auf Arbeitslastclustern können Sie Nebenversionen nicht überspringen. Beispielsweise können Sie für einen Tanzu Kubernetes-Cluster kein direktes Upgrade von v1.23.x auf v1.25.x durchführen. Sie müssen einen v1.23.x-Cluster auf v1.24.x aktualisieren, bevor Sie das Upgrade des Clusters auf v1.25.x durchführen.
Tanzu Kubernetes Grid v2.2-Veröffentlichungsdaten sind:
Tanzu Kubernetes Grid v2.2 führt keine neuen Verhaltensweisen im Vergleich zu v2.1.1 ein, der letzten vorherigen Version.
In diesem Abschnitt wird vorab auf Verhaltensänderungen hingewiesen, die in zukünftigen Versionen nach der TKG v2.2-Version wirksam werden.
WichtigBei Tanzu Kubernetes Grid v2.2.x handelt es sich um die letzte Nebenversion von TKG, in deren Lieferumfang das VMware Tanzu Standard-Repository als Teil der Version enthalten ist. TKG v2.2.x und frühere Versionen enthalten einen Satz optionaler Pakete im Tanzu Standard-Repository, die Sie auf Clustern bereitstellen können, um Funktionen wie Protokollweiterleitung, Ingress-Steuerung, Containerregistrierung usw. hinzuzufügen. In einer zukünftigen TKG v2.x-Nebenversion wird das Tanzu Standard-Repository nicht automatisch heruntergeladen, wenn Sie die Tanzu CLI installieren und einen Verwaltungscluster bereitstellen. Zur Verwendung dieses Satzes optionaler Pakete laden Sie sie mithilfe der Tanzu CLI herunter und fügen Sie sie manuell hinzu. Durch die Trennung der optionalen Pakete von TKG-Versionen kann VMware inkrementelle Paketaktualisierungen außerhalb von TKG-Versionen bereitstellen und besser auf CVEs reagieren.
LDAP_BIND_DN
und LDAP_BIND_PASSWORD
. Weitere Informationen finden Sie unter Identitätsanbieter – LDAP in der Variablenreferenz für Konfigurationsdatei.Unter Bereitstellen und Verwalten eigenständiger TKG 2.2-Verwaltungscluster finden Sie spezifische Themen für eigenständige Verwaltungscluster, die für die Verwendung von TKG mit einem vSphere with Tanzu-Supervisor nicht relevant sind.
Weitere Informationen finden Sie unter Die richtige TKG-Dokumentation für Ihre Bereitstellung finden auf der Seite VMware Tanzu Kubernetes Grid-Dokumentation.
Die folgenden Probleme, die als bekannte Probleme in früheren Tanzu Kubernetes Grid-Versionen dokumentiert wurden, wurden in Tanzu Kubernetes Grid v2.2.0 behoben.
Das Erstellen einer ClusterClass
-Konfigurationsdatei aus einer Legacy-Konfigurationsdatei und --dry-run
enthält eine leere Antrea-Konfiguration
Das Erstellen einer ClusterClass
-Konfigurationsdatei unter Verwendung von tanzu cluster create --dry-run -f
mit einer Legacy-Konfigurationsdatei, die einen ANTREA_NODEPORTLOCAL
-Eintrag enthält, hat eine automatisch erzeugte Antrea-Konfiguration ohne Bezeichnungen zur Folge, wodurch Antrea nicht erfolgreich abgeglichen werden kann.
Pakete entsprechen nicht dem standardmäßigen Baseline-PSA-Profil
Bei PSA-Controllern in TKG im nicht unterstützten Tech-Preview-Zustand entsprechen einige TKG-Pakete nicht dem Standardprofil baseline
.
Validierungsfehler bei der Ausführung von tanzu cluster create
Wenn Sie eine flache Schlüssel-Wert-Konfigurationsdatei an die Option --file
von tanzu cluster create
übergeben, konvertiert der Befehl standardmäßig die Konfigurationsdatei in eine Objektspezifikationsdatei im Kubernetes-Stil und wird dann beendet. Dieses Verhalten wird durch die Funktion auto-apply-generated-clusterclass-based-configuration
gesteuert, die standardmäßig auf false
festgelegt ist. Wenn Sie die von der Option --file
generierte Objektspezifikationsdatei im Kubernetes-Stil an tanzu cluster create
übergeben, schlägt der Befehl in einigen Fällen mit einer Fehlermeldung ähnlich der folgenden fehl:
Error: workload cluster configuration validation failed...
Dieser Fehler kann auch auftreten, wenn Sie eine Objektspezifikationsdatei im Kubernetes-Stil, die von der Option --dry-run
generiert wird, an tanzu cluster create
übergeben.
tanzu cluster create
validiert erzeugte Clusterspezifikationen mit nicht standardmäßigen Kubernetes-Versionen nicht ordnungsgemäß
Wenn Sie einen klassenbasierten Arbeitslastcluster anhand einer Konfigurationsdatei mithilfe eines unter Erstellen eines klassenbasierten Clusters beschriebenen zweistufigen Prozesses erstellen und im ersten Schritt einen --tkr
-Wert angeben, um als Basis für den Cluster eine nicht standardmäßige Version von Kubernetes zu verwenden, schlägt der zweite Schritt möglicherweise mit Validierungsfehlern fehl.
Im Folgenden sind bekannte Probleme in Tanzu Kubernetes Grid v2.2.x aufgeführt. Alle bekannten Probleme, die in v2.2.0 vorhanden waren und in einer nachfolgenden Patchversion von v2.2.x behoben wurden, sind unter Behobene Probleme für die Patchversion aufgeführt, in der sie behoben wurden.
Weitere Lösungen für häufig auftretende Probleme finden Sie in Fehlerbehebung bei Problemen mit dem Verwaltungscluster und Fehlerbehebung bei Problemen mit dem Arbeitslastcluster oder in VMware KnowledgeBase-Artikeln.
Die Grafana-Installation schlägt auf vSphere 6.7 mit NSX ALB v21.1.4 oder früher fehl
Sie können das Grafana v7.5.17-Paket nicht auf TKG v2.2-Arbeitslastclustern in vSphere v6.7U3 installieren, die NSX ALB v21.1.4 oder früher als Lastausgleichsdienst verwenden.
Problemumgehung: Wenn in Ihren Arbeitslastclustern Grafana und NSX ALB verwendet werden, führen Sie ein Upgrade von vSphere auf v7.0+ und NSX ALB auf v21.1.5+ durch, bevor Sie ein Upgrade von TKG auf v2.2 durchführen.
Der Harbor-CVE-Export schlägt möglicherweise fehl, wenn die Ausführungs-ID 1.000.000 überschreitet
Harbor v2.7.1, die für TKG v2.2 gepackte Version, weist ein bekanntes Problem auf, bei dem CVE-Berichte mit dem Fehler „404 Seite nicht gefunden (404 page not found)“ exportiert werden, wenn die automatisch inkrementierte ID des primären Ausführungsschlüssels auf über 1.000.000 steigt.
Dieses Harbor-Problem wird in späteren Versionen von Harbor behoben, die in spätere Versionen von TKG aufgenommen werden sollen.
Golang-Schwachstelle in der Notary-Komponente von Harbor
CVE-2021-33194 ist in Notary vorhanden. Die Notary-Komponente ist in Harbor v2.6+ veraltet und wird in einer zukünftigen Version entfernt (siehe Versionshinweise zu Harbor v2.6.0). VMware empfiehlt die Verwendung von Sigstore Cosign anstelle von Notary für die Container-Signierung und -Überprüfung.
Das Hinzufügen eines Standardrepositorys schlägt für Einzelknotencluster fehl
Die Ausführung von tanzu package repository add
, um das Repository tanzu-standard
einem Einzelknotencluster des in Einzelknotencluster auf vSphere (Tech Preview) beschriebenen Typs hinzuzufügen, schlägt möglicherweise fehl.
Dies geschieht, weil Einzelknotencluster mit cert-manager
als Kern-Add-On gestartet werden, was zu einem Konflikt mit dem anderen cert-manager
-Paket im Repository tanzu-standard
führt.
Problemumgehung: Bevor Sie das Repository tanzu-standard
hinzufügen, patchen Sie die Anmerkungen des cert-manager
-Pakets, wie unter Installieren von cert-manager beschrieben.
Es können keine neuen Arbeitslastcluster basierend auf nicht aktuellen TKr-Versionen mit Antrea CNI erstellt werden
Sie können keinen neuen Arbeitslastcluster erstellen, der Antrea CNI verwendet und Kubernetes-Versionen ausführt, die mit früheren Versionen von TKG ausgeliefert wurden, wie z. B. Kubernetes v1.23.10. Dies war die Kubernetes-Standardversion in TKG v1.6.1, wie in Unterstützte Kubernetes-Versionen in Tanzu Kubernetes Grid v2.2 aufgeführt.
Problemumgehung: Erstellen Sie einen Arbeitslastcluster, in dem Kubernetes 1.25.7, 1.24.11 oder 1.23.17 ausgeführt wird. Das Kubernetes-Projekt empfiehlt, dass Sie Komponenten auf der neuesten Patchversion einer aktuellen Nebenversion ausführen.
Autoscaler für klassenbasierte Cluster erfordert manuelle Anmerkungen
Aufgrund eines Problems bei der Bezeichnungsweitergabe in der Cluster-API sind die Einstellungen AUTOSCALER_MIN_SIZE_*
und AUTOSCALER_MAX_SIZE_*
in der Clusterkonfigurationsdatei für klassenbasierte Arbeitslastcluster in den MachineDeployment
-Objekten des Clusters nicht festgelegt.
Problemumgehung: Nachdem Sie einen klassenbasierten Arbeitslastcluster mit aktiviertem Cluster-Autoscaler erstellt haben, fügen Sie die Einstellung für die minimale und die maximale Anzahl von Maschinen für jeden AZ manuell hinzu, wie unter Manuelles Hinzufügen von Anmerkungen für die minimale und maximale Größe beschrieben.
Die Eigenschaft labels
von Knotenpools und andere Konfigurationseigenschaften können nicht geändert werden
Sie können die Eigenschaften labels
, az
, nodeMachineType
oder die vSphere-Eigenschaften eines vorhandenen Knotenpools nicht hinzufügen oder anderweitig ändern, wie unter Konfigurationseigenschaften aufgeführt.
Problemumgehung: Erstellen Sie einen neuen Knotenpool im Cluster mit den gewünschten Eigenschaften, migrieren Sie Arbeitslasten in den neuen Knotenpool und löschen Sie den ursprünglichen.
Sie können die Knoten der Steuerungsebene des Verwaltungsclusters nicht auf eine gerade Anzahl skalieren
Wenn Sie tanzu cluster scale
auf einem Verwaltungscluster ausführen und eine gerade Zahl an die Option --controlplane-machine-count
übergeben, skaliert TKG die Knoten der Steuerungsebene nicht, und die CLI gibt keinen Fehler aus. Um das Quorum beizubehalten, sollte die Anzahl der Knoten der Steuerungsebene immer ungerade sein.
Problemumgehung: Skalieren Sie die Anzahl der Knoten der Steuerungsebene nicht auf eine gerade Zahl.
Klassenbasierte Clusternamen haben ein Limit von 25 Zeichen mit NSX ALB als Lastausgleichsdienst oder Ingress-Controller
Wenn NSX Advanced Load Balancer (ALB) als klassenbasierten Cluster-Lastausgleichsdienst oder Ingress-Controller mit einem eigenständigen Verwaltungscluster verwendet wird, enthalten die Anwendungsnamen sowohl den Clusternamen als auch load-balancer-and-ingress-service
, den internen Namen für das AKO-Paket. Wenn der kombinierte Name den Grenzwert von 64 Zeichen für Avi-Controller-Apps überschreitet, schlägt der Befehl tanzu cluster create
möglicherweise mit einer Fehlermeldung fehl, die besagt, dass der avi-system
-Namespace nicht gefunden wurde.
Problemumgehung: Begrenzen Sie die Länge des klassenbasierten Clusternamens auf maximal 25 Zeichen, wenn Sie NSX ALB als Lastausgleichsdienst oder Ingress-Controller verwenden.
HinweisFür v4.0 und höher wird VMware NSX-T Data Center in „VMware NSX“ umbenannt.
IPv6-Netzwerke werden auf vSphere 8 nicht unterstützt
TKG v2.2 unterstützt kein IPv6-Netzwerk auf vSphere 8, obwohl es Single-Stack-IPv6-Netzwerke mit Kube-Vip auf vSphere 7 unterstützt, wie unter IPv6-Netzwerk beschrieben.
Problemumgehung: Wenn Sie TKG in einer IPv6-Umgebung auf vSphere benötigen oder aktuell verwenden, installieren Sie vSphere 8 nicht bzw. führen Sie kein Upgrade auf vSphere 8 durch.
NSX ALB-Ingress-Modus NodePortLocal
wird für Verwaltungscluster nicht unterstützt
In TKG v2.2 können Sie NSX Advanced Load Balancer (ALB) nicht als Diensttyp mit dem Ingress-Modus NodePortLocal
für Datenverkehr zum Verwaltungscluster ausführen.
Dieses Problem wirkt sich nicht auf die Unterstützung für den NodePortLocal
Ingress zu Arbeitslastclustern aus, wie in L7 Ingress im NodePortLocal-Modus beschrieben.
Problemumgehung: Konfigurieren Sie Verwaltungscluster, indem Sie für AVI_INGRESS_SERVICE_TYPE
entweder NodePort
oder ClusterIP
festlegen. Der Standardwert lautet NodePort
.
Die Erstellung des Verwaltungsclusters schlägt bei älteren NSX-T-Versionen und Photon 3- oder Ubuntu-VMs mit Linux-Kernel 5.8 fehl oder verlangsamt die Leistung
Die Bereitstellung eines Verwaltungsclusters mit der folgenden Infrastruktur und Konfiguration schlägt möglicherweise fehl oder führt zu eingeschränktem Datenverkehr zwischen Pods:
Durch diese Kombination tritt ein Prüfsummenproblem zwischen älteren Versionen von NSX-T und Antrea-CNI auf.
TMC: Wenn der Verwaltungscluster bei Tanzu Mission Control (TMC) registriert ist, gibt es keine Problemumgehung für dieses Problem. Andernfalls können Sie eine der folgenden Problemumgehungen nutzen.
Umgehungen:
ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD
auf "true"
festgelegt ist. Diese Einstellung deaktiviert das Auslagern der UDP-Prüfsumme von Antrea, wodurch bekannte Probleme mit einigen Underlay-Netzwerk- und physischen Netzwerkkartentreibern vermieden werden.Beim erneuten Erstellen eines eigenständigen Verwaltungsclusters wird die Pinniped-Authentifizierung nicht wiederhergestellt
Nachdem Sie einen eigenständigen Verwaltungscluster wie unter Sichern und Wiederherstellen der Verwaltungs- und Arbeitslastcluster-Infrastruktur (Tech Preview) beschrieben neu erstellt haben, können sich Benutzer nicht über die Pinniped-Authentifizierung bei Arbeitslastclustern anmelden.
Problemumgehung: Konfigurieren Sie nach dem erneuten Erstellen des Verwaltungsclusters die Identitätsverwaltung neu, wie unter Aktivieren und Konfigurieren der Identitätsverwaltung in einer vorhandenen Bereitstellung beschrieben.
Golang-Schwachstelle in der Pinniped-Komponente
CVE-2022-41723 ist in Pinniped v0.12.1 vorhanden. Die Ausnutzung dieser Schwachstelle kann zu einem DDoS-Angriff des Pinniped-Diensts führen. Damit es nur selten zu einem solchen Vorfall kommt, können Sie Ingress-Filterung verwenden, um nur Datenverkehr von bekannten IP-Adressen wie einem Unternehmens-VPN-CIDR zuzulassen. Diese Schwachstelle wird in einer zukünftigen Version von Tanzu Kubernetes Grid behoben.
Das Generieren und Verwenden von kubeconfig für den vom Supervisor bereitgestellten Arbeitslastcluster verursacht den Fehler „unbekanntes Flag (unknown flag)“
In Tanzu CLI v0.25.0 und früher generiert das Plug-In cluster
Dateien vom Typ kubeconfig
, die das Argument --concierge-is-cluster-scoped
enthalten können. Das Tanzu CLI v0.29.0-Plug-In pinniped-auth
erkennt dieses Argument nicht. Diese temporäre Regression wurde in nachfolgenden Versionen behoben.
Da vSphere 8.0 das v0.25.0-Plug-In cluster
einbettet, kann beim Herstellen einer Verbindung mit einem von Supervisor bereitgestellten Cluster über die CLI v0.29.0 (Version in TKG v2.2) folgender Fehler erzeugt werden:
Error: unknown flag: --concierge-is-cluster-scoped
Unable to connect to the server: getting credentials: exec: executable tanzu failed with exit code 1
Problemumgehung: Entfernen Sie in der Datei kubeconfig
die Zeile unter args
, die --concierge-is-cluster-scoped
festlegt.
Arbeitslastcluster kann Speicher nicht über mehrere Datenspeicher verteilen
Sie können einen Arbeitslastcluster nicht aktivieren, um Speicher auf mehrere Datenspeicher zu verteilen (siehe Beschreibung unter Bereitstellen eines Clusters, der einen Datenspeicher-Cluster verwendet). Wenn Sie mehrere Datenspeicher in einem Datenspeicher-Cluster als Basis für die Speicherrichtlinie eines Arbeitslastclusters kennzeichnen, verwendet der Arbeitslastcluster nur einen der Datenspeicher.
Problemumgehung: Keine
Nicht alphanumerische Zeichen können in HTTP/HTTPS-Proxy-Kennwörtern nicht verwendet werden
Bei der Bereitstellung von Verwaltungsclustern mit der CLI können die folgenden nicht alphanumerischen Zeichen in Kennwörtern nicht verwendet werden: # ` ^ | / ? % ^ { [ ] } \ " < >
Darüber hinaus können bei der Bereitstellung des Verwaltungsclusters mit der Benutzeroberfläche keine nicht alphanumerischen Zeichen in HTTP-/HTTPS-Proxy-Kennwörtern verwendet werden.
Problemumgehung: Sie können andere nicht alphanumerische Zeichen als # ` ^ | / ? % ^ { [ ] } \ " < >
in Kennwörtern verwenden, wenn Sie ein Verwaltungscluster mit der CLI bereitstellen.
Tanzu CLI funktioniert nicht auf macOS-Maschinen mit ARM-Prozessoren
Tanzu CLI v0.11.6 funktioniert nicht auf macOS-Maschinen mit ARM-Chips (Apple M1), wie unter Finder > Über diesen Mac > Übersicht identifiziert.
Problemumgehung: Verwenden Sie eine Bootstrap-Maschine mit einem Linux- oder Windows-Betriebssystem oder eine macOS-Maschine mit einem Intel-Prozessor.
Tanzu CLI listet tanzu management-cluster osimage auf
Die Befehlsgruppe management-cluster
listet tanzu management-cluster osimage
auf. Diese Funktion befindet sich derzeit in der Entwicklung und ist für die zukünftige Verwendung reserviert.
Problemumgehung: Verwenden Sie tanzu management-cluster osimage
nicht.
Die Option --default-values-file-output
von tanzu package available get
gibt eine unvollständige Konfigurationsvorlagendatei für das Harbor-Paket aus
Durch die Ausführung von tanzu package available get harbor.tanzu.vmware.com/PACKAGE-VERSION --default-values-file-output FILE-PATH
wird eine unvollständige Konfigurationsvorlagendatei für das Harbor-Paket erstellt. Um eine vollständige Datei zu erhalten, verwenden Sie den Befehl imgpkg pull
wie unter Installieren von Harbor für die Dienstregistrierung beschrieben.
Knotenpools mit Knoten der Größe small
bleiben möglicherweise beim Provisioning
hängen
Knotenpools, die Knoten mit SIZE
als small
enthalten, bleiben möglicherweise im Zustand Provisioning
hängen und erreichen nie den Zustand Running
.
Problemumgehung: Konfigurieren Sie den Knotenpool mit Knoten, die mindestens die Größe medium
aufweisen.
Problem beim CAPA-Ressourcen-Tagging führt zu Abgleichsfehler bei der Bereitstellung und dem Upgrade des AWS-Verwaltungsclusters
Aufgrund eines Ressourcen-Tagging-Problems im Upstream-Cluster-API-Anbieter AWS (Cluster API Provider AWS, CAPA) können Offline-Bereitstellungen nicht auf die API ResourceTagging
zugreifen. Dies führt zu Abstimmungsfehlern bei der Erstellung oder dem Upgrade eines Verwaltungsclusters.
Problemumgehung: Legen Sie in einer Offline-AWS-Umgebung EXP_EXTERNAL_RESOURCE_GC=false
in Ihrer lokalen Umgebung oder in der Verwaltungscluster-Konfigurationsdatei fest, bevor Sie tanzu mc create
oder tanzu mc upgrade
ausführen.
Arbeitslastclusterknoten-Pools unter AWS müssen sich in demselben Verfügbarkeitsbereich wie der eigenständige Verwaltungscluster befinden.
Wenn Sie einen Knotenpool erstellen, der mit einem az
konfiguriert ist und sich nicht im Verwaltungscluster befindet, bleibt der neue Knotenpool möglicherweise mit dem Status ScalingUp
, wie in tanzu cluster node-pool list
aufgeführt, hängen und erreicht nie den Zustand Ready
.
Problemumgehung: Erstellen Sie Knotenpools nur in demselben AZ wie der eigenständige Verwaltungscluster.
Das Löschen des Clusters auf AWS schlägt fehl, wenn der Cluster Netzwerkressourcen verwendet, die nicht mit Tanzu Kubernetes Grid bereitgestellt wurden.
Die Befehle tanzu cluster delete
und tanzu management-cluster delete
hängen möglicherweise bei Clustern, die unabhängig vom Tanzu Kubernetes Grid-Bereitstellungsvorgang vom AWS Cloud Controller Manager erstellte Netzwerkressourcen verwenden. Zu diesen Ressourcen können Lastausgleichsdienste und andere Netzwerkdienste gehören, wie unter The Service Controller in der Dokumentation zum Kubernetes AWS Cloud-Anbieter aufgeführt.
Weitere Informationen finden Sie unter Cluster-API-Problem Drain workload clusters of service Type=Loadbalancer on teardown.
Problemumgehung: Verwenden Sie kubectl delete
, um Dienste vom Typ LoadBalancer
aus dem Cluster zu löschen. Wenn dies fehlschlägt, verwenden Sie die AWS-Konsole, um alle LoadBalancer
- und SecurityGroup
-Objekte, die vom Cloud Controller Manager für diesen Dienst erstellt wurden, manuell zu löschen.
VorsichtLöschen Sie keine Lastausgleichsdienste oder Sicherheitsgruppen, die von Tanzu verwaltet werden und die die Tags
key: sigs.k8s.io/cluster-api-provider-aws/cluster/CLUSTER-NAME
,value: owned
aufweisen.
Das Löschen des Clusters schlägt fehl, wenn das Speicher-Volume ein Konto mit privatem Endpoint verwendet
Wenn der Azure CSI-Treiber bei einem Azure-Arbeitslastcluster in einer nicht verwalteten Ressourcengruppe ein persistentes Volume (PV) erstellt, das ein Speicherkonto mit privatem Endpoint verwendet, erstellt er einen privateEndpoint
und vNet
-Ressourcen, die nicht zusammen mit dem PV gelöscht werden. Dies führt dazu, dass das Löschen des Clusters mit einer Fehlermeldung wie subnets failed to delete. err: failed to delete resource ... Subnet management-cluster-node-subnet is in use
fehlschlägt.
Problemumgehung: Bevor Sie den Azure-Cluster löschen, löschen Sie die Netzwerkschnittstelle für den privaten Endpoint des Speicherkontos manuell:
networkinterfaces
die Netzwerkkartenressource aus, die nicht gelöscht werden kann.Windows-Worker werden in Umgebungen mit Internetzugangsbeschränkungen nicht unterstützt.
VMware unterstützt keine TKG-Arbeitslastcluster mit Windows-Worker-Knoten in Proxied- oder Air-Gapped-Umgebungen.
Problemumgehung: Wenden Sie sich an Ihren VMware-Vertreter. Einige TKG-Benutzer haben benutzerdefinierte Windows-Images erstellt und Arbeitslastcluster mit Windows-Workern in Offline-Umgebungen ausgeführt, z. B. wie in diesem inoffiziellen Repository beschrieben.
Ignorierbarer goss
-Testfehler während des Image-Erstellungsvorgangs
Wenn Sie Kubernetes Image Builder ausführen, um ein benutzerdefiniertes Linux-Systemimage zu erstellen, schlagen die goss
-Tests python-netifaces
, python-requests
und ebtables
fehl. Die Befehlsausgabe meldet die Fehler. Die Fehler können ignoriert werden; sie verhindern eine erfolgreiche Image-Erstellung nicht.
In Azure vSphere Solution (AVS) kann das Löschen von persistenten vSphere CSI-Volumes (PVs) fehlschlagen. Zum Löschen eines PV ist die Berechtigung cns.searchable erforderlich. Das standardmäßige Administratorkonto für AVS, [email protected], wird nicht mit dieser Berechtigung erstellt. Weitere Informationen finden Sie unter vSphere-Rollen und -Berechtigungen.
Problemumgehung: Um ein vSphere CSI-PV auf AVS zu löschen, wenden Sie sich an den Azure-Support.