Sie müssen zuerst Ihren ESXi-Host oder KVM-Host zur NSX-T Data Center-Fabric hinzufügen und dann den Transportknoten konfigurieren.

Damit ein Host Teil des NSX-T Data Center-Overlays werden kann, muss er zunächst der NSX-T Data Center-Fabric hinzugefügt werden.

Ein Transportknoten ist ein Knoten, der an einem NSX-T Data Center-Overlay oder NSX-T Data Center-VLAN-Networking teilnimmt.

Bei einem KVM-Host können Sie den N-VDS im Voraus konfigurieren oder die Konfiguration von NSX Manager durchführen lassen. Bei einem ESXi-Host wird der N-VDS immer von NSX Manager konfiguriert.

Hinweis: Wenn Sie Transportknoten aus einer Vorlagen-VM erstellen möchten, achten Sie darauf, dass keine Zertifikate für den Host in /etc/vmware/nsx/ vorhanden sind. nsx-proxy erstellt kein Zertifikat, wenn ein Zertifikat vorhanden ist.
Sie können für jede Konfiguration maximal vier N-VDS-Switches hinzufügen:
  • Für die VLAN-Transportzone erstellter Standard-N-VDS
  • Für die VLAN-Transportzone erstellter erweiterter N-VDS
  • Für die Overlay-Transportzone erstellter Standard-N-VDS
  • Für die Overlay-Transportzone erstellter erweiterter N-VDS

In einer einzelnen Host-Cluster-Topologie, in der mehrere Standard-Overlay-N-VDS-Switches und Edge-VM auf demselben Host ausgeführt werden, bietet NSX-T Data Center Datenverkehrsisolierung, sodass Datenverkehr, der über den ersten N-VDS läuft, vom Datenverkehr, der über den zweiten N-VDS läuft, isoliert wird. Die physischen Netzwerkkarten auf jedem N-VDS müssen der Edge-VM auf dem Host zugeordnet werden, sodass die Nord-Süd-Datenverkehrs-Konnektivität mit der Außenwelt ermöglicht wird. Pakete, die aus einer VM auf der ersten Transportzone verschoben werden, müssen über einen externen Router oder eine externe VM zur VM auf der zweiten Transportzone weitergeleitet werden.

Voraussetzungen

  • Der Host muss mit der Management Plane verbunden sein, und die Konnektivität muss auf Aktiv stehen.
  • Der Reverse-Proxy-Dienst auf allen Knoten des NSX Manager-Clusters muss auf Aktiv stehen und ausgeführt werden.

    Führen Sie zum Überprüfen get service http aus. Wenn der Dienst nicht verfügbar ist, starten Sie den Dienst neu, indem Sie restart service http auf jedem NSX Manager-Knoten ausführen. Wenn der Dienst weiterhin nicht verfügbar ist, wenden Sie sich an VMware Support.

  • Eine Transportzone muss konfiguriert sein.
  • Es muss entweder ein Uplink-Profil konfiguriert werden, oder Sie können das standardmäßige Uplink-Profil verwenden.
  • Ein IP-Pool muss konfiguriert sein, oder DHCP muss in der Netzwerkbereitstellung verfügbar sein.
  • Mindestens eine nicht verwendete physische Netzwerkkarte (NIC) muss auf dem Hostknoten verfügbar sein.
  • Hostname
  • Verwaltungs-IP-Adresse
  • Benutzername
  • Kennwort
  • Optional: (KVM) SHA-256-SSL-Fingerabdruck
  • Optional: (ESXi) SHA-256-SSL-Fingerabdruck
  • Stellen Sie sicher, dass die erforderlichen Drittanbieterpakete installiert sind.

Prozedur

  1. (Optional) Rufen Sie den Hypervisor-Fingerabdruck ab, damit Sie diesen beim Hinzufügen des Hosts zur Fabric angeben können.
    1. Sammeln Sie die Informationen zum Hypervisor-Fingerabdruck.
      Verwenden Sie eine Linux-Shell.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Verwenden Sie die ESXi-CLI auf dem Host.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Um den SHA-256-Fingerabdruck von einem KVM-Hypervisor abzurufen, führen Sie den Befehl auf dem KVM-Host aus.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. Wählen Sie System > Fabric > Knoten > Host-Transportknoten aus.
  3. Wählen über das Feld „Verwaltet von“ Eigenständige Hosts aus und klicken Sie auf + Hostknoten hinzufügen.
  4. Füllen Sie auf der Seite Hostdetails die folgenden Felder aus.
    Option Beschreibung
    Name und Beschreibung Geben Sie den Namen zur Identifizierung des eigenständigen Servers ein.

    Sie können optional die Beschreibung des Betriebssystems hinzufügen, das für den Host verwendet wird.

    IP-Adressen Geben Sie die IP-Adresse des Hosts ein.
    Betriebssystem Wählen Sie im Dropdown-Menü das Betriebssystem aus.

    In Abhängigkeit von Ihrem Host können Sie ein beliebiges unterstütztes Betriebssystem auswählen. Siehe Systemvoraussetzungen.

    Benutzername und Kennwort Geben Sie den Benutzernamen und das Kennwort für den Hostbenutzer ein.
    SHA-256-Fingerabdruck Geben Sie den Host-Fingerabdruck-Wert für die Authentifizierung ein.

    Wenn Sie den Fingerabdruckwert leer lassen, werden Sie aufgefordert, den vom Server bereitgestellten Wert zu akzeptieren. Es dauert einige Sekunden, bis NSX-T Data Center den Host erkennt und authentifiziert.

  5. (Erforderlich) Wählen Sie bei einem KVM-Host den N-VDS-Typ aus.
    Option Beschreibung
    NSX erstellt NSX Manager erstellt den N-VDS.

    Diese Option ist standardmäßig ausgewählt.

    Vorkonfiguriert Der N-VDS ist bereits konfiguriert.
    Bei einem ESXi-Host ist der N-VDS-Typ immer auf NSX erstellt festgelegt.
  6. Füllen Sie auf der Seite „NSX konfigurieren“ die folgenden Felder aus. Sie können mehrere N-VDS-Switches auf einem einzelnen Host konfigurieren.
    Option Beschreibung
    Name Geben Sie einen Namen für den N-VDS-Host-Switch ein.
    Transportzone Wählen Sie im Dropdown-Menü eine Transportzone aus, die für diesen Transportknoten steht.
    Uplink-Profil Wählen Sie im Dropdown-Menü ein vorhandenes Profil aus, oder erstellen Sie ein benutzerdefiniertes Uplink-Profil. Sie können auch das standardmäßige Uplink-Profil verwenden.

    Mehrere N-VDS-Host-Switches auf einem Transportknoten können zum gleichen VLAN-Segment oder VTEP-Pool oder zu verschiedenen VLAN-Segmenten oder VTEP-IP-Pools gehören.

    Das Konfigurieren verschiedener Transport-VLAN-Segmente für verschiedene N-VDS-Host-Switches ermöglicht auch eine zusätzliche Datenverkehrsisolierung im Underlay.

    LLDP-Profil Standardmäßig empfängt NSX-T nur LLDP-Pakete von einem LLDP-Nachbarn.

    NSX-T kann jedoch so konfiguriert werden, dass LLDP-Pakete an einen LLDP-Nachbarn gesendet und LLDP-Pakete von einem LLDP-Nachbarn empfangen werden.

    Uplink-Zuordnung zu physischen Netzwerkkarten

    Ordnen Sie physischen Netzwerkkarten Uplinks zu.

  7. Geben Sie bei einem vorkonfigurierten N-VDS die folgenden Details an:
    Option Beschreibung
    Externe N-VDS-ID Muss mit dem N-VDS-Namen der Transportzone identisch sein, zu der dieser Knoten gehört.
    VTEP Name des virtuellen Tunnel-Endpoints.
  8. Überprüfen Sie den Verbindungsstatus auf der Seite Host-Transportknoten. Während des Konfigurationsvorgangs zeigt jeder Transportknoten den Fortschritt des Installationsvorgangs als Prozentsatz an. Wenn die Installation in einer beliebigen Phase fehlschlägt, können Sie den Vorgang neu starten, indem Sie auf den Link Beheben klicken, der für die fehlgeschlagene Phase des Prozesses verfügbar ist.
    Nach dem Hinzufügen des Hosts als Transportknoten wird für den Zustand der Verbindung mit NSX Manager lediglich AKTIV angezeigt, nachdem der Host erfolgreich als Transportknoten erstellt wurde.
  9. Alternativ können Sie den Verbindungsstatus mit CLI-Befehlen anzeigen.
    • Geben Sie für ESXi den Befehl esxcli network ip connection list | grep 1234 ein.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • Geben Sie für KVM den Befehl netstat -anp --tcp | grep 1234 ein.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Geben Sie für Windows an einer Eingabeaufforderung netstat | find "1234" ein
    • Geben Sie für Windows an einer Eingabeaufforderung netstat | find "1235" ein
  10. Stellen Sie sicher, dass die NSX-T Data Center-Module auf Ihrem Host installiert sind.
    Wenn Sie einen Host zur NSX-T Data Center-Fabric hinzufügen, wird eine Sammlung von NSX-T Data Center-Modulen auf dem Host installiert.

    Die Module auf unterschiedlichen Hosts werden wie folgt zu Paketen zusammengestellt:

    • KVM unter RHEL, CentOS, Oracle Linux, oder SUSE – RPM-Dateien.
    • KVM unter Ubuntu – DEB-Dateien
    • Geben Sie unter ESXi den Befehl esxcli software vib list | grep nsx ein.

      Das Datum ist der Tag, an dem die Installation durchgeführt wurde.

    • Geben Sie unter RHEL, CentOS oder Oracle Linux den Befehl yum list installed oder rpm -qa ein.
    • Geben Sie unter Ubuntu den Befehl dpkg --get-selections ein.
    • Geben Sie unter SUSE den Befehl rpm -qa | grep nsx ein.
    • Öffnen Sie unter Windows den Task-Manager. Oder geben Sie in der Befehlszeile tasklist /V | grep nsx findstr “nsx ovs ein
  11. (Optional) Ändern Sie die Abrufintervalle bestimmter Prozesse, wenn Sie über mindestens 500 Hypervisoren verfügen.
    Im NSX Manager treten möglicherweise eine hohe CPU-Nutzung und Performance-Probleme auf, wenn mehr als 500 Hypervisoren vorhanden sind.
    1. Kopieren Sie mit dem NSX-T Data Center-CLI-Befehl copy file oder de API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file das Skript aggsvc_change_intervals.py auf einen Host.
    2. Führen Sie das Skript aus, das sich im Dateispeicher von NSX-T Data Center befindet.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (Optional) Setzen Sie die Abrufintervalle auf ihre Standardwerte zurück.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Ergebnisse

Hinweis: Wenn Sie für einen durch NSX-T Data Center erstellten N-VDS nach dem Erstellen des Transportknotens die Konfiguration (z. B. die IP-Zuweisung zum Tunnel-Endpoint) ändern möchten, müssen Sie diese Änderung über die NSX Manager-GUI vornehmen, und nicht über die Befehlszeilenschnittstelle (CLI) auf dem Host.

Nächste Maßnahme

Migrieren Sie Netzwerkschnittstellen von einem vSphere-Standard-Switch zu einem N-VDS-Switch. Siehe VMkernel-Migration auf einen N-VDS-Switch.