Als DevOps-Ingenieur können Sie Self-Service-Namespaces mit dem Befehl kubectl edit
aktualisieren.
Voraussetzungen
Prozedur
- Melden Sie sich beim Supervisor-Cluster an.
kubectl vsphere login --server IP-ADDRESS-SUPERVISOR-CLUSTER --vsphere-username VCENTER-SSO-USERNAME
- Beschreiben Sie den Namespace, den Sie aktualisieren möchten.
kubectl describe ns testns-1 Name: testns Labels: vSphereClusterID=domain-c50 Annotations: my-ann: test-ann-2 vmware-system-namespace-owner-count: 2 vmware-system-resource-pool: resgroup-153 vmware-system-resource-pool-cpu-limit: 0.4770 vmware-system-resource-pool-memory-limit: 2000Mi vmware-system-self-service-namespace: true vmware-system-vm-folder: group-v154 Status: Active Resource Quotas Name: testns-1 Resource Used Hard -------- --- --- requests.storage 0 5000Mi Name: testns-1-storagequota Resource Used Hard -------- --- --- namespace-service-storage-profile.storageclass.storage.k8s.io/requests.storage 0 9223372036854775807
- Bearbeiten Sie den Namespace mit dem Befehl kubectl edit.
Beispielsweise kubectl edit ns testns-1Der Befehl kubectl edit öffnet das Namespace-Manifest in dem durch Ihre KUBE_EDITOR- oder EDITOR-Umgebungsvariable definierten Texteditor geöffnet.
- Aktualisieren Sie die Beschriftungen.
Beispielsweise
my-label=test-label
- Aktualisieren Sie die Anmerkungen.
Beispielsweise
my-ann: test-ann
- Beschreiben Sie den Namespace, um die Updates anzuzeigen.
root@localhost [ /tmp ]# kubectl describe ns testns-1 Name: testns-1 Labels: my-label=test-label vSphereClusterID=domain-c50 Annotations: my-ann: test-ann vmware-system-namespace-owner-count: 1 vmware-system-resource-pool: resgroup-173 vmware-system-resource-pool-cpu-limit: 0.4770 vmware-system-resource-pool-memory-limit: 2000Mi vmware-system-self-service-namespace: true vmware-system-vm-folder: group-v174 Status: Active Resource Quotas Name: testns-1 Resource Used Hard -------- --- --- requests.storage 0 5000Mi Name: testns-1-storagequota Resource Used Hard -------- --- --- namespace-service-storage-profile.storageclass.storage.k8s.io/requests.storage 0 9223372036854775807 No LimitRange resource.