Sie können die Tanzu CLI verwenden, um einen Verwaltungscluster für vSphere, Amazon Web Services (AWS) und Microsoft Azure mit einer Konfiguration bereitzustellen, die Sie in einer YAML-Konfigurationsdatei angeben.
Bevor Sie einen Verwaltungscluster bereitstellen können, müssen Sie sicherstellen, dass Ihre Umgebung die Anforderungen der Zielplattform erfüllt.
TKG_CUSTOM_IMAGE_REPOSITORY
als Umgebungsvariable.WichtigEs wird ausdrücklich empfohlen, die Schnittstelle des Tanzu Kubernetes Grid-Installationsprogramms anstelle der CLI zu verwenden, um Ihren ersten Verwaltungscluster für eine bestimmte Zielplattform bereitzustellen. Wenn Sie einen Verwaltungscluster mithilfe der Schnittstelle des Installationsprogramms bereitstellen, wird eine Clusterkonfigurationsdatei für den Verwaltungscluster mit den erforderlichen Parametern hinzugefügt. Sie können die erstellte Konfigurationsdatei als Modell für zukünftige Bereitstellungen von der CLI auf dieser Zielplattform verwenden.
WichtigIn vSphere with Tanzu müssen Sie keinen Verwaltungscluster bereitstellen. Weitere Informationen finden Sie unter vSphere with Tanzu Supervisor ist ein Verwaltungscluster.
t3.large
oder t3.xlarge
finden Sie unter Amazon EC2-Instanztypen.Bevor Sie einen Verwaltungscluster für AWS zum ersten Mal bereitstellen, müssen Sie in Ihrem AWS-Konto einen CloudFormation-Stack für Tanzu Kubernetes Grid, tkg-cloud-vmware-com
, erstellen. Dieser CloudFormation-Stack enthält die IAM-Ressourcen (Identity and Access Management), die Tanzu Kubernetes Grid zum Erstellen und Ausführen von Clustern auf AWS benötigt. Weitere Informationen finden Sie unter Von Tanzu Kubernetes Grid festgelegte Berechtigungen in Vorbereitung zum Bereitstellen von Verwaltungsclustern auf AWS.
Wenn Sie den CloudFormation-Stack für Tanzu Kubernetes Grid bereits in Ihrem AWS-Konto erstellt haben, überspringen Sie den Rest dieses Verfahrens.
Wenn Sie den CloudFormation-Stack für Tanzu Kubernetes Grid noch nicht in Ihrem AWS-Konto erstellt haben, stellen Sie sicher, dass AWS-Authentifizierungsvariablen entweder in der lokalen Umgebung oder in der Struktur Ihrer Standard-Anmeldedatenanbieter für AWS festgelegt sind. Weitere Anweisungen finden Sie unter Konfiguration der AWS-Kontoanmeldedaten und des SSH-Schlüssels.
Wenn Sie AWS-Anmeldedaten an mehreren Stellen konfiguriert haben, werden die Anmeldedateneinstellungen zum Erstellen des CloudFormation-Stacks in der folgenden Rangfolge angewendet:
AWS_ACCESS_KEY_ID
, AWS_SECRET_ACCESS_KEY
, AWS_SESSION_TOKEN
und AWS_REGION
festgelegte Anmeldedaten werden zuerst angewendet.Anmeldedaten, die in einer gemeinsam genutzten Anmeldedatendatei als Teil der Struktur der Standard-Anmeldedatenanbieter gespeichert sind. Sie können den Speicherort der Anmeldedatendatei angeben, die in der lokalen Umgebungsvariable AWS_SHARED_CREDENTIAL_FILE
verwendet werden soll. Wenn diese Umgebungsvariable nicht definiert ist, wird der Standardspeicherort $HOME/.aws/credentials
verwendet. Wenn Sie Anmeldedatenprofile verwenden, verwendet der Befehl den Profilnamen, der in der Konfigurationsvariable AWS_PROFILE
der lokalen Umgebung angegeben ist. Wenn Sie keinen Wert für diese Variable angeben, wird das Profil mit dem Namen default
verwendet.
Ein Beispiel dafür, wie die Struktur der Standard-Anmeldedatenanbieter für AWS für Java-Apps interpretiert wird, finden Sie unter Arbeiten mit AWS-Anmeldedaten in der AWS-Dokumentation.
Führen Sie den folgenden Befehl aus:
tanzu mc permissions aws set
Führen Sie für weitere Informationen folgenden Befehl aus: tanzu mc permissions aws set --help
.
WichtigDer Befehl
tanzu mc permissions aws set
ersetzt das Befehlszeilendienstprogrammclusterawsadm
aus Tanzu Kubernetes Grid v1.1.x und früheren Versionen. Verwenden Sie für vorhandene Verwaltungs- und Arbeitslastcluster, die ursprünglich mit v1.1.x oder früher bereitgestellt wurden, weiterhin den CloudFormation-Stack, der mithilfe des Befehlsclusterawsadm alpha bootstrap create-stack
erstellt wurde. Verwenden Sie für Tanzu Kubernetes Grid Cluster Version 1.2 und höher den Stacktkg-cloud-vmware-com
.
Informationen zu den Konfigurationen der verschiedenen Größen von Knoteninstanzen für Azure, z. B. Standard_D2s_v3
oder Standard_D4s_v3
finden Sie unter Größen virtueller Maschinen in Azure.
Bevor Sie einen Verwaltungscluster mithilfe der Tanzu CLI erstellen, müssen Sie dessen Konfiguration in einer YAML-Konfigurationsdatei definieren, die die Basiskonfiguration für den Cluster bereitstellt. Wenn Sie den Verwaltungscluster über die CLI bereitstellen, geben Sie diese Datei mithilfe der Option --file
des Befehls tanzu mc create
an.
Wenn Sie den Befehl tanzu config init
erstmalig ausführen, wird das Unterverzeichnis ~/.config/tanzu/tkg
erstellt, das die Tanzu Kubernetes Grid-Konfigurationsdateien enthält.
Wenn Sie zuvor einen Verwaltungscluster mithilfe des Befehls tanzu mc create --ui
bereitgestellt haben, enthält das Verzeichnis ~/.config/tanzu/tkg/clusterconfigs
Konfigurationsdateien für den Verwaltungscluster mit Einstellungen, die bei jedem Aufruf der Schnittstelle des Installationsprogramms gespeichert werden. Je nach Infrastruktur, in der Sie den Verwaltungscluster bereitgestellt haben, können Sie diese Dateien als Vorlagen für Clusterkonfigurationsdateien für neue Bereitstellungen in derselben Infrastruktur verwenden. Alternativ können Sie Konfigurationsdateien des Verwaltungsclusters anhand der Vorlagen in dieser Dokumentation erstellen.
VMware empfiehlt die Verwendung einer dedizierten Konfigurationsdatei für jeden Verwaltungscluster mit konfigurationsspezifischen Einstellungen für einzelne Infrastrukturen.
Erstellen Sie anhand der folgenden Anweisungen und Vorlagen eine eigenständige Verwaltungscluster-Konfigurationsdatei.
Details zu den einzelnen Variablen finden Sie in der Variablenreferenz für Konfigurationsdatei.
Wichtig- Wie unter Konfigurieren des Verwaltungsclusters beschrieben, überschreiben Umgebungsvariablen Werte aus einer Clusterkonfigurationsdatei. Um alle Einstellungen aus einer Clusterkonfigurationsdatei zu verwenden, heben Sie die Auswahl aller in Konflikt stehenden Umgebungsvariablen auf, bevor Sie den Verwaltungscluster über die CLI bereitstellen. - Die Unterstützung für IPv6-Adressen in Tanzu Kubernetes Grid ist begrenzt. Weitere Informationen finden Sie unter Bereitstellen von Clustern auf IPv6 (nur vSphere). Wenn die Bereitstellung nicht in einer auf IPv6 beschränkten Netzwerkumgebung erfolgt, müssen alle IP-Adresseinstellungen in Ihren Konfigurationsdateien IPv4 sein. - Einige Parameter konfigurieren identische Eigenschaften. Beispielsweise werden mit der Eigenschaft
SIZE
dieselben Infrastruktureinstellungen wie alle Größen- und Typeneigenschaften der Steuerungsebenen- und Worker-Knoten für die verschiedenen Zielplattformen konfiguriert, allerdings auf einer allgemeineren Ebene. Vermeiden Sie es in solchen Fällen, in Konflikt stehende oder redundante Eigenschaften festzulegen.
So erstellen Sie eine Konfigurationsdatei für die Bereitstellung eines eigenständigen Verwaltungsclusters:
Kopieren Sie den Inhalt der Vorlage für Ihre Zielplattform und fügen Sie ihn in einen Texteditor ein.
Kopieren Sie eine Vorlage aus einem der folgenden Speicherorte:
Wenn Sie beispielsweise bereits einen Verwaltungscluster über die Schnittstelle des Installationsprogramms bereitgestellt haben, können Sie die Datei am Standardspeicherort für Clusterkonfigurationen speichern: ~/.config/tanzu/tkg/clusterconfigs
.
Speichern Sie die Datei mit der Dateiendung .yaml
und einem geeigneten Namen, z. B. aws-mgmt-cluster-config.yaml
.
In den folgenden Abschnitten wird neben der Aktualisierung der Einstellungen, die für alle Zielplattformen gleich sind, auch die Aktualisierung der Einstellungen beschrieben, die für vSphere, AWS und Azure spezifisch sind.
Die grundlegenden Einstellungen für die Erstellung eines Verwaltungsclusters definieren die Infrastruktur, in der der Verwaltungscluster bereitgestellt werden soll, sowie andere grundlegende Einstellungen. Diese Einstellungen gelten für alle Zielplattformen.
CLUSTER_PLAN
an, ob Sie einen Entwicklungscluster bereitstellen möchten, der einen einzelnen Steuerungsebenenknoten bereitstellt, oder einen Produktionscluster, der einen hochverfügbaren Verwaltungscluster mit drei Steuerungsebenenknoten bereitstellt. Geben Sie dev
oder prod
an.Geben Sie für INFRASTRUCTURE_PROVIDER
aws
, azure
oder vsphere
an.
INFRASTRUCTURE_PROVIDER: aws
INFRASTRUCTURE_PROVIDER: azure
INFRASTRUCTURE_PROVIDER: vsphere
Deaktivieren Sie optional die Teilnahme am Programm zur Verbesserung der Benutzerfreundlichkeit (Customer Experience Improvement Program, CEIP) von VMware, indem Sie ENABLE_CEIP_PARTICIPATION
auf false
festlegen. Informationen zu CEIP finden Sie unter Teilnahme an CEIP verwalten und https://www.vmware.com/solutions/trustvmware/ceip.html.
ENABLE_AUDIT_LOGGING
auf false
festlegen. Informationen zur Überwachungsprotokollierung finden Sie unter Überwachungsprotokollierung.CLUSTER_CIDR
für das Cluster-Pod-Netzwerk und SERVICE_CIDR
für das Clusterdienstnetzwerk.Beispiel:
#! ---------------------------------------------------------------------
#! Basic cluster creation configuration
#! ---------------------------------------------------------------------
CLUSTER_NAME: aws-mgmt-cluster
CLUSTER_PLAN: dev
INFRASTRUCTURE_PROVIDER: aws
ENABLE_CEIP_PARTICIPATION: true
ENABLE_AUDIT_LOGGING: true
CLUSTER_CIDR: 100.96.0.0/11
SERVICE_CIDR: 100.64.0.0/13
Legen Sie IDENTITY_MANAGEMENT_TYPE
auf ldap
oder oidc
fest. Legen Sie diese Option auf none
fest oder lassen Sie sie unausgefüllt, um die Identitätsverwaltung zu deaktivieren. Es wird dringend empfohlen, die Identitätsverwaltung für Produktionsbereitstellungen zu aktivieren.
IDENTITY_MANAGEMENT_TYPE: oidc
IDENTITY_MANAGEMENT_TYPE: ldap
Um OIDC zu konfigurieren, aktualisieren Sie die folgenden Variablen. Informationen zum Konfigurieren der Variablen finden Sie unter Identitätsanbieter – OIDC in der Variablenreferenz für Konfigurationsdatei.
Beispiel:
OIDC_IDENTITY_PROVIDER_CLIENT_ID: 0oa2i[...]NKst4x7
OIDC_IDENTITY_PROVIDER_CLIENT_SECRET: 331!b70[...]60c_a10-72b4
OIDC_IDENTITY_PROVIDER_GROUPS_CLAIM: groups
OIDC_IDENTITY_PROVIDER_ISSUER_URL: https://dev-[...].okta.com
OIDC_IDENTITY_PROVIDER_SCOPES: openid,groups,email
OIDC_IDENTITY_PROVIDER_USERNAME_CLAIM: email
Um LDAP zu konfigurieren, heben Sie die Kommentierung der LDAP_*
Variablen auf und aktualisieren Sie sie mit Informationen zu Ihrem LDAPS-Server. Informationen zum Konfigurieren der Variablen finden Sie unter Identitätsanbieter – LDAP in der Variablenreferenz für Konfigurationsdatei.
Beispiel:
LDAP_BIND_DN: ""
LDAP_BIND_PASSWORD: ""
LDAP_GROUP_SEARCH_BASE_DN: dc=example,dc=com
LDAP_GROUP_SEARCH_FILTER: (objectClass=posixGroup)
LDAP_GROUP_SEARCH_GROUP_ATTRIBUTE: memberUid
LDAP_GROUP_SEARCH_NAME_ATTRIBUTE: cn
LDAP_GROUP_SEARCH_USER_ATTRIBUTE: uid
LDAP_HOST: ldaps.example.com:636
LDAP_ROOT_CA_DATA_B64: ""
LDAP_USER_SEARCH_BASE_DN: ou=people,dc=example,dc=com
LDAP_USER_SEARCH_FILTER: (objectClass=posixAccount)
LDAP_USER_SEARCH_NAME_ATTRIBUTE: uid
LDAP_USER_SEARCH_USERNAME: uid
Um optional ausgehenden HTTP(S)-Datenverkehr vom Verwaltungscluster an einen Proxy zu senden, z. B. in einer Umgebung mit Internetbeschränkungen, heben Sie die Kommentierung der *_PROXY
-Einstellungen auf und legen Sie sie fest. Die Proxy-Einstellungen gelten für alle Zielplattformen. Sie können einen Proxy für HTTP-Anforderungen und einen anderen Proxy für HTTPS-Anforderungen oder denselben Proxy für HTTP- und HTTPS-Anforderungen verwenden. Sie können Proxys nach der Bereitstellung des Clusters nicht mehr ändern.
HinweisIn vSphere kann der Datenverkehr von Cluster-VMs zu vCenter nicht per Proxy ausgeführt werden. In einer Proxy-vSphere-Umgebung müssen Sie entweder
VSPHERE_INSECURE
auftrue
festlegen oder die vCenter IP-Adresse bzw. den Hostnamen zur ListeTKG_NO_PROXY
hinzufügen.
TKG_HTTP_PROXY_ENABLED
: Legen Sie dies auf true
fest, um einen Proxy zu konfigurieren.
TKG_PROXY_CA_CERT
: Legen Sie dies auf die Zertifizierungsstelle des Proxyservers fest, wenn das Zertifikat selbstsigniert ist.
TKG_HTTP_PROXY
: Dies ist die URL des Proxys, der HTTP-Anforderungen verarbeitet. Um die URL festzulegen, verwenden Sie das folgende Format:
PROTOCOL://USERNAME:PASSWORD@FQDN-OR-IP:PORT
Dabei gilt:
PROTOCOL
: Dies muss http
sein.USERNAME
und PASSWORD
: Dies sind HTTP-Proxy-Benutzername und -Kennwort. Sie müssen USERNAME
und PASSWORD
festlegen, wenn für den Proxy eine Authentifizierung erforderlich ist.Hinweis: Bei der Bereitstellung von Verwaltungsclustern über CLI können die folgenden nicht alphanumerischen Zeichen in Kennwörtern nicht verwendet werden: # ` ^ | / \ ? % ^ { [ ] }" < >
.
FQDN-OR-IP
: Dies ist der FQDN oder die IP-Adresse Ihres HTTP-Proxys.PORT
: Dies ist die Portnummer, die Ihr HTTP-Proxy verwendet.Beispiel: http://user:[email protected]:1234
.
TKG_HTTPS_PROXY
: Dies ist die URL des Proxys, der HTTPS-Anforderungen verarbeitet. Sie können TKG_HTTPS_PROXY
auf denselben Wert wie TKG_HTTP_PROXY
festlegen oder einen anderen Wert angeben. Um den Wert festzulegen, verwenden Sie das gleiche URL-Format wie im vorherigen Schritt, wobei:
PROTOCOL
: Dies muss http
sein.USERNAME
und PASSWORD
: Dies sind HTTPS-Proxy-Benutzername und -Kennwort. Sie müssen USERNAME
und PASSWORD
festlegen, wenn für den Proxy eine Authentifizierung erforderlich ist.Hinweis: Bei der Bereitstellung von Verwaltungsclustern über CLI können die folgenden nicht alphanumerischen Zeichen in Kennwörtern nicht verwendet werden: # ` ^ | / \ ? % ^ { [ ] }" < >
.
FQDN-OR-IP
: Dies ist der FQDN oder die IP-Adresse Ihres HTTPS-Proxys.PORT
: Dies ist die Portnummer, die Ihr HTTPS-Proxy verwendet.Beispiel: http://user:[email protected]:1234
.
TKG_NO_PROXY
: Hiermit werden ein oder mehrere kommagetrennte Netzwerk-CIDRs oder Hostnamen festgelegt, die den HTTP(S)-Proxy umgehen müssen, um beispielsweise dem Verwaltungscluster die direkte Kommunikation mit der Infrastruktur zu ermöglichen, die im selben Netzwerk hinter demselben Proxy ausgeführt wird. Verwenden Sie in der Einstellung für kommagetrennte Listen keine Leerzeichen. Beispiel: noproxy.yourdomain.com,192.168.0.0/24
.
In vSphere muss diese Liste Folgendes enthalten:
VSPHERE_NETWORK
, das die IP-Adresse Ihres Steuerungsebenen-Endpoints enthält. Wenn Sie VSPHERE_CONTROL_PLANE_ENDPOINT
auf einen FQDN festlegen, fügen Sie diesen FQDN auch zur TKG_NO_PROXY
-Liste hinzu.Intern hängt Tanzu Kubernetes Grid localhost
, 127.0.0.1
, die Werte von CLUSTER_CIDR
und SERVICE_CIDR
, .svc
und .svc.cluster.local
an den Wert an, der in TKG_NO_PROXY
festgelegt wurde. Außerdem werden Ihr AWS VPC-CIDR und 169.254.0.0/16
für Bereitstellungen unter AWS und Ihr Azure VNET-CIDR, 169.254.0.0/16
, und 168.63.129.16
für Bereitstellungen unter Azure angehängt. Für vSphere müssen Sie das CIDR von VSPHERE_NETWORK
, das die IP-Adresse Ihres Steuerungsebenen-Endpoints enthält, manuell zu TKG_NO_PROXY
hinzufügen. Wenn Sie VSPHERE_CONTROL_PLANE_ENDPOINT
auf einen FQDN festlegen, fügen Sie sowohl den FQDN als auch VSPHERE_NETWORK
zu TKG_NO_PROXY
hinzu.
WichtigWenn die Cluster-VMs mit externen Diensten und Infrastruktur-Endpoints in Ihrer Tanzu Kubernetes Grid-Umgebung kommunizieren müssen, stellen Sie sicher, dass diese Endpoints über die oben festgelegten Proxys erreichbar sind, oder fügen Sie sie
TKG_NO_PROXY
hinzu. Je nach Konfiguration Ihrer Umgebung kann dafür unter anderem Folgendes erforderlich sein:
Beispiel:
#! ---------------------------------------------------------------------
#! Proxy configuration
#! ---------------------------------------------------------------------
TKG_HTTP_PROXY_ENABLED: true
TKG_PROXY_CA_CERT: "LS0t[...]tLS0tLQ==""
TKG_HTTP_PROXY: "http://myproxy.com:1234"
TKG_HTTPS_PROXY: "http://myproxy.com:1234"
TKG_NO_PROXY: "noproxy.yourdomain.com,192.168.0.0/24"
Standardmäßig wird Ubuntu v20.04 auf allen Clusterknoten für sämtliche Zielplattformen ausgeführt. In vSphere können Sie optional Cluster bereitstellen, auf deren Knoten Photon OS ausgeführt wird. In AWS können Knoten optional Amazon Linux 2 ausführen. Für die Architektur lautet die standardmäßige und aktuelle Option amd64
. Informationen zu den Betriebssystems- und Versionseinstellungen finden Sie unter Knotenkonfiguration in der Variablenreferenz für Konfigurationsdatei.
Beispiel:
#! ---------------------------------------------------------------------
#! Node configuration
#! ---------------------------------------------------------------------
OS_NAME: "photon"
OS_VERSION: "3"
OS_ARCH: "amd64"
Wie Sie Konfiguration und Größen der Knotenberechnungen festlegen, hängt von der Zielplattform ab. Weitere Informationen finden Sie unter Konfiguration des Verwaltungsclusters für vSphere, Konfiguration des Verwaltungsclusters für AWS oder Konfiguration des Verwaltungsclusters für Microsoft Azure.
Aktualisieren Sie optional Variablen entsprechend Ihrer Bereitstellungseinstellungen und unter Beachtung der Richtlinien im Abschnitt Maschinenintegritätsprüfungen der Variablenreferenz für Konfigurationsdatei.
Beispiel:
ENABLE_MHC:
ENABLE_MHC_CONTROL_PLANE: true
ENABLE_MHC_WORKER_NODE: true
MHC_MAX_UNHEALTHY_CONTROL_PLANE: 60%
MHC_MAX_UNHEALTHY_WORKER_NODE: 60%
MHC_UNKNOWN_STATUS_TIMEOUT: 10m
MHC_FALSE_STATUS_TIMEOUT: 20m
Wenn Sie den Verwaltungscluster in einer Umgebung mit Internetbeschränkungen bereitstellen, heben Sie die Kommentierung der TKG_CUSTOM_IMAGE_REPOSITORY_*
-Einstellungen auf und aktualisieren Sie sie. Diese Einstellungen gelten für alle Zielplattformen. Sie müssen die Einstellungen für die private Image-Registrierung nicht konfigurieren, wenn:
TKG_CUSTOM_IMAGE_REPOSITORY_*
-Variablen mit dem Befehl tanzu config set
festgelegt wurden, wie unter Vorbereitung einer Umgebung mit Internetbeschränkungen beschrieben. Umgebungsvariablen, die mithilfe von tanzu config set
festgelegt wurden, setzen Werte aus einer Clusterkonfigurationsdatei außer Kraft.Beispiel:
#! ---------------------------------------------------------------------
#! Image repository configuration
#! ---------------------------------------------------------------------
TKG_CUSTOM_IMAGE_REPOSITORY: "custom-image-repository.io/yourproject"
TKG_CUSTOM_IMAGE_REPOSITORY_CA_CERTIFICATE: "LS0t[...]tLS0tLQ=="
Standardmäßig stellen Cluster, die über die Tanzu CLI bereitgestellt werden, clusterinterne Containernetzwerke über die Antrea Container-Netzwerkschnittstelle (Container Network Interface, CNI) bereit.
Sie können optional die Quellnetzwerkadressübersetzung (Source Network Address Translation, SNAT) für Pod-Datenverkehr deaktivieren, hybrid
-, noEncap
-, NetworkPolicyOnly
-Datenverkehrskapselungsmodi implementieren, Proxys und Netzwerkrichtlinien verwenden und Traceflow implementieren.
Weitere Informationen zu Antrea finden Sie in den folgenden Ressourcen:
Um optional diese Funktionen auf Antrea zu konfigurieren, heben Sie die Kommentierung der Variable ANTREA_*
auf und aktualisieren Sie sie. Beispiel:
#! ---------------------------------------------------------------------
#! Antrea CNI configuration
#! ---------------------------------------------------------------------
ANTREA_NO_SNAT: true
ANTREA_NODEPORTLOCAL: true
ANTREA_NODEPORTLOCAL_ENABLED: true
ANTREA_NODEPORTLOCAL_PORTRANGE: 61000-62000
ANTREA_TRAFFIC_ENCAP_MODE: "encap"
ANTREA_PROXY: true
ANTREA_PROXY_ALL: true
ANTREA_PROXY_LOAD_BALANCER_IPS: false
ANTREA_PROXY_NODEPORT_ADDRS:
ANTREA_PROXY_SKIP_SERVICES: ""
ANTREA_POLICY: true
ANTREA_TRACEFLOW: true
ANTREA_DISABLE_UDP_TUNNEL_OFFLOAD: false
ANTREA_ENABLE_USAGE_REPORTING: false
ANTREA_EGRESS: true
ANTREA_EGRESS_EXCEPT_CIDRS: ""
ANTREA_FLOWEXPORTER: false
ANTREA_FLOWEXPORTER_COLLECTOR_ADDRESS: "flow-aggregator.flow-aggregator.svc:4739:tls"
ANTREA_FLOWEXPORTER_POLL_INTERVAL: "5s"
ANTREA_FLOWEXPORTER_ACTIVE_TIMEOUT: "5s"
ANTREA_FLOWEXPORTER_IDLE_TIMEOUT: "15s"
ANTREA_IPAM: false
ANTREA_KUBE_APISERVER_OVERRIDE: ""
ANTREA_MULTICAST: false
ANTREA_MULTICAST_INTERFACES: ""
ANTREA_NETWORKPOLICY_STATS: true
ANTREA_SERVICE_EXTERNALIP: true
ANTREA_TRAFFIC_ENCRYPTION_MODE: none
ANTREA_TRANSPORT_INTERFACE: ""
ANTREA_TRANSPORT_INTERFACE_CIDRS: ""
Aktualisieren Sie die Konfigurationsdateieinstellungen für vSphere, AWS oder Azure. Informationen zu den für jede Zielplattform spezifischen Konfigurationsdateieinstellungen finden Sie in den entsprechenden Themen:
tanzu mc create
aus.Nachdem Sie die Clusterkonfigurationsdatei erstellt oder aktualisiert und die neueste BoM heruntergeladen haben, können Sie einen Verwaltungscluster bereitstellen, indem Sie den Befehl tanzu mc create --file CONFIG-FILE
ausführen, wobei CONFIG-FILE
der Name der Konfigurationsdatei ist. Wenn Ihre Konfigurationsdatei die Standarddatei ~/.config/tanzu/tkg/cluster-config.yaml
ist, können Sie die Option --file
auslassen. Wenn Sie das Kubernetes-Manifest überprüfen möchten, das vom Befehl tanzu mc create
verwendet wird, können Sie optional das Flag --dry-run
verwenden, um das Manifest auszugeben, ohne Änderungen vorzunehmen. Dieser Aufruf führt weiterhin die unten beschriebenen Validierungsprüfungen aus, bevor das Kubernetes-Manifest generiert wird.
VorsichtDer Befehl
tanzu mc create
nimmt einige Zeit in Anspruch. Führen Sie während der Ausführung vontanzu mc create
keine zusätzlichen Aufrufe vontanzu mc create
auf derselben Bootstrap-Maschine aus, um mehrere Verwaltungscluster bereitzustellen, den Kontext zu ändern oder~/.kube-tkg/config
zu bearbeiten.
Um einen Verwaltungscluster bereitzustellen, verwenden Sie den Befehl tanzu mc create
. Beispiel:
tanzu mc create --file path/to/cluster-config-file.yaml
Wenn Sie tanzu mc create
ausführen, führt der Befehl mehrere Validierungsprüfungen durch, bevor der Verwaltungscluster bereitgestellt wird. Die Prüfungen unterscheiden sich entsprechend der Infrastruktur, in der Sie den Verwaltungscluster bereitstellen.
Ist eine dieser Bedingungen nicht erfüllt, schlägt der Befehl tanzu mc create
fehl.
Wenn Sie tanzu mc create
ausführen, können Sie den Fortschritt der Bereitstellung des Verwaltungsclusters im Terminal verfolgen. Die erste Ausführung von tanzu mc create
dauert länger als nachfolgende Ausführungen, da die erforderlichen Docker-Images in den Image-Speicher auf Ihrer Bootstrap-Maschine eingefügt werden müssen. Für nachfolgende Ausführungen ist dieser Schritt nicht erforderlich, daher erfolgen sie schneller.
Wenn tanzu mc create
vor der Bereitstellung des Verwaltungsclusters fehlschlägt, sollten Sie die Artefakte auf Ihrer Bootstrap-Maschine bereinigen, bevor Sie tanzu mc create
erneut ausführen. Weitere Informationen finden Sie im Thema Fehlerbehebung bei Problemen mit dem Verwaltungscluster. Wenn die Maschine, auf der Sie tanzu mc create
ausführen, vor Abschluss der lokalen Vorgänge heruntergefahren oder neu gestartet wird, schlägt die Bereitstellung fehl.
Wenn die Bereitstellung erfolgreich ist, wird eine Bestätigungsmeldung im Terminal angezeigt:
Management cluster created! You can now create your first workload cluster by running tanzu cluster create [name] -f [file]
Informationen dazu, was während der Bereitstellung des Verwaltungsclusters passiert ist, wie Sie kubectl
mit dem Verwaltungscluster verbinden, wie Sie Namespaces erstellen und wie Sie den Verwaltungscluster bei Tanzu Mission Control registrieren, finden Sie unter Untersuchen und Registrieren eines neu bereitgestellten eigenständigen Verwaltungsclusters.