Sie müssen zuerst Ihren ESXi-Host, KVM-Host oder Bare-Metal-Server zur NSX-T Data Center-Fabric hinzufügen und dann den Transportknoten konfigurieren.

Damit ein Host oder Bare-Metal-Server Teil des NSX-T Data Center-Overlays werden kann, muss er zunächst zur NSX-T Data Center-Fabric hinzugefügt werden.

Ein Transportknoten ist ein Knoten, der an einem NSX-T Data Center-Overlay oder NSX-T Data Center-VLAN-Networking teilnimmt.

Bei einem KVM-Host oder Bare-Metal-Server können Sie den N-VDS im Voraus konfigurieren oder die Konfiguration von NSX Manager durchführen lassen. Bei einem ESXi-Host wird der N-VDS immer von NSX Manager konfiguriert.

Hinweis: Wenn Sie Transportknoten aus einer Vorlagen-VM erstellen möchten, achten Sie darauf, dass keine Zertifikate für den Host in /etc/vmware/nsx/ vorhanden sind. nsx-proxy erstellt kein Zertifikat, wenn ein Zertifikat vorhanden ist.

Der Bare-Metal-Server unterstützt ein Overlay- und VLAN-Transportzone. Sie können die Management-Schnittstelle verwenden, um den Bare-Metal-Server zu verwalten. Mit der Anwendungsschnittstelle können Sie auf die Anwendungen auf dem Bare-Metal-Server zugreifen.

Einzelne physische Netzwerkkarten bieten eine IP-Adresse für die Verwaltungs- und Anwendungs-IP-Schnittstellen.

Zwei physische Netzwerkkarten bieten eine physische Netzwerkkarte und eine eindeutige IP-Adresse für die Verwaltungsschnittstelle. Zwei physische Netzwerkkarten bieten auch eine physische Netzwerkkarte und eine eindeutige IP-Adresse für die Anwendungsschnittstelle.

Mehrere physische Netzwerkkarten in einer verbundenen Konfiguration bieten zwei physische Netzwerkkarten und eine eindeutige IP-Adresse für die Verwaltungs- und die Anwendungsschnittstelle.

Sie können für jede Konfiguration maximal vier N-VDS-Switches hinzufügen:
  • Für die VLAN-Transportzone erstellter Standard-N-VDS
  • Für die VLAN-Transportzone erstellter erweiterter N-VDS
  • Für die Overlay-Transportzone erstellter Standard-N-VDS
  • Für die Overlay-Transportzone erstellter erweiterter N-VDS

In einer einzelnen Host-Cluster-Topologie, in der mehrere Standard-Overlay-N-VDS-Switches und Edge-VM auf demselben Host ausgeführt werden, bietet NSX-T Data Center Datenverkehrsisolierung, sodass Datenverkehr, der über den ersten N-VDS läuft, vom Datenverkehr, der über den zweiten N-VDS läuft, isoliert wird. Die physischen Netzwerkkarten auf jedem N-VDS müssen der Edge-VM auf dem Host zugeordnet werden, sodass die Nord-Süd-Datenverkehrs-Konnektivität mit der Außenwelt ermöglicht wird. Pakete, die aus einer VM auf der ersten Transportzone verschoben werden, müssen über einen externen Router oder eine externe VM zur VM auf der zweiten Transportzone weitergeleitet werden.

Voraussetzungen

  • Der Host muss mit der Management Plane verbunden sein, und die Konnektivität muss auf Aktiv stehen.
  • Der Reverse-Proxy-Dienst auf allen Knoten des NSX Manager-Clusters muss auf Aktiv stehen und ausgeführt werden.

    Führen Sie zum Überprüfen get service http aus. Wenn der Dienst nicht verfügbar ist, starten Sie ihn neu, indem Sie restart service http auf jedem NSX Manager-Knoten ausführen. Wenn der Dienst noch nicht verfügbar ist, wenden Sie sich an den VMware-Support.

  • Eine Transportzone muss konfiguriert sein.
  • Es muss entweder ein Uplink-Profil konfiguriert werden, oder Sie können das standardmäßige Uplink-Profil verwenden.
  • Ein IP-Pool muss konfiguriert sein, oder DHCP muss in der Netzwerkbereitstellung verfügbar sein.
  • Mindestens eine nicht verwendete physische Netzwerkkarte (NIC) muss auf dem Hostknoten verfügbar sein.
  • Hostname
  • Verwaltungs-IP-Adresse
  • Benutzername
  • Kennwort
  • Optional: (KVM) SHA-256-SSL-Fingerabdruck
  • Optional: (ESXi) SHA-256-SSL-Fingerabdruck
  • Stellen Sie sicher, dass die erforderlichen Drittanbieterpakete installiert sind.

Prozedur

  1. (Optional) Rufen Sie den Hypervisor-Fingerabdruck ab, damit Sie diesen beim Hinzufügen des Hosts zur Fabric angeben können.
    1. Sammeln Sie die Informationen zum Hypervisor-Fingerabdruck.
      Verwenden Sie eine Linux-Shell.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Verwenden Sie die ESXi-CLI auf dem Host.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Um den SHA-256-Fingerabdruck von einem KVM-Hypervisor abzurufen, führen Sie den Befehl auf dem KVM-Host aus.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. Wählen Sie System > Fabric > Knoten > Host-Transportknoten aus.
  3. Wählen über das Feld „Verwaltet von“ Eigenständige Hosts aus und klicken Sie auf + Hinzufügen.
  4. Geben Sie Details für den eigenständigen Host oder den Bare-Metal-Server ein, die zur Fabric hinzugefügt werden sollen.
    Option Beschreibung
    Name und Beschreibung Geben Sie den Namen ein, um den eigenständigen Host oder Bare-Metal-Server zu identifizieren.

    Sie können optional die Beschreibung des Betriebssystems hinzufügen, die für den Host oder den Bare-Metal-Server verwendet werden.

    IP-Adressen Geben Sie die IP-Adresse des Hosts oder Bare-Metal-Servers ein.
    Betriebssystem Wählen Sie im Dropdown-Menü das Betriebssystem aus.

    In Abhängigkeit von Ihrem Host oder Bare-Metal-Server können Sie ein beliebiges unterstütztes Betriebssystem auswählen. Siehe Systemvoraussetzungen.

    Wichtig: Bei all den verschiedenen unterstützten Linux-Typen müssen Sie den Unterschied zwischen einem Bare Metal-Server, der eine Linux-Distribution ausführt, und der Verwendung einer Linux-Distribution als Hypervisor-Host kennen. Wenn Sie z. B. Ubuntu Server als Betriebssystem auswählen, richten Sie einen Bare Metal-Server ein, auf dem ein Linux-Server ausgeführt wird. Wenn Sie jedoch Ubuntu KVM auswählen, lautet der bereitgestellte Linux-Hypervisor Ubuntu.
    Benutzername und Kennwort Geben Sie den Benutzernamen und das Kennwort für den Hostbenutzer ein.
    SHA-256-Fingerabdruck Geben Sie den Host-Fingerabdruck-Wert für die Authentifizierung ein.

    Wenn Sie den Fingerabdruckwert leer lassen, werden Sie aufgefordert, den vom Server bereitgestellten Wert zu akzeptieren. Es dauert einige Sekunden, bis NSX-T Data Center den Host erkennt und authentifiziert.

  5. (Erforderlich) Wählen Sie für einen KVM-Host oder Bare-Metal-Server den N-VDS-Typ aus.
    Option Beschreibung
    NSX erstellt NSX Manager erstellt den N-VDS.

    Diese Option ist standardmäßig ausgewählt.

    Vorkonfiguriert Der N-VDS ist bereits konfiguriert.
    Bei einem ESXi-Host ist der N-VDS-Typ immer auf NSX erstellt festgelegt.
  6. Wenn Sie für den N-VDS Switch den Betrieb im Modus Standard (alle Hosts) auswählen, geben Sie einen Wert für die folgenden Felder ein. Sie können mehrere N-VDS-Switches auf einem einzelnen Host konfigurieren.
    Option Beschreibung
    Name Geben Sie einen Namen für den N-VDS-Host-Switch ein.
    Transportzone Wählen Sie im Dropdown-Menü eine Transportzone aus, die für diesen Transportknoten steht.
    NIOC-Profil Wählen Sie im Dropdown-Menü ein NIOC-Profil für den ESXi-Host aus oder erstellen Sie ein benutzerdefiniertes NIOC-Profil.

    Sie können auch das NIOC-Standardprofil verwenden.

    Uplink-Profil Wählen Sie im Dropdown-Menü ein vorhandenes Profil aus, oder erstellen Sie ein benutzerdefiniertes Uplink-Profil.

    Sie können auch das standardmäßige Uplink-Profil verwenden.

    LLDP-Profil Standardmäßig empfängt NSX-T nur LLDP-Pakete von einem LLDP-Nachbarn.

    NSX-T kann jedoch so konfiguriert werden, dass LLDP-Pakete an einen LLDP-Nachbarn gesendet und LLDP-Pakete von einem LLDP-Nachbarn empfangen werden.

    IP-Zuweisung Wählen Sie DHCP verwenden, IP-Pool verwenden oder Liste statischer IPs verwenden.

    Wenn Sie Liste statischer IPs verwenden auswählen, müssen Sie eine Liste mit durch Komma getrennten IP-Adressen, ein Gateway und eine Subnetzmaske angeben.

    IP-Pool Wenn Sie IP-Pool verwenden für die IP-Zuweisung ausgewählt haben, geben Sie den Namen des IP-Pools an.
    Switch-Zuordnung für Teaming-Richtlinie

    Fügen Sie physische Netzwerkkarten zum Transportknoten hinzu. Sie können den standardmäßigen Uplink verwenden oder einen vorhandenen Uplink aus dem Dropdown-Menü zuweisen.

    Migration nur von PNIC

    Vor dem Festlegen dieses Felds berücksichtigen Sie die folgenden Punkte:

    • Bringen Sie in Erfahrung, ob die definierte physische Netzwerkkarte eine verwendete oder eine freie Netzwerkkarte ist.
    • Bestimmen Sie, ob VMkernel-Schnittstellen eines Hosts zusammen mit physischen Netzwerkkarten migriert werden müssen.

    Legen Sie das Feld fest:

    • Aktivieren Sie Migration nur von PNIC, wenn Sie nur physische Netzwerkkarten von einem VSS- oder DVS-Switch zu einem N-VDS-Switch migrieren möchten.

    • Deaktivieren Sie Migration nur von PNIC, wenn Sie eine verwendete physische Netzwerkkarte und dessen zugeordnete VMkernel-Schnittstellenzuordnung migrieren möchten. Eine freie oder physische Netzwerkkarte ist an den N-VDS-Switch angehängt, wenn eine Migrationszuordnung für die VMkernel-Schnittstelle angegeben ist.

    Auf einem Host mit mehreren Host-Switches:
    • Wenn alle Host-Switches nur PNICs migrieren sollen, können Sie PNICs in einem einzigen Vorgang migrieren.
    • Wenn einige Hosts-Switches VMkernel-Schnittstellen migrieren sollen und die verbleibenden Host-Switches nur PNICs migrieren sollen:
      1. Migrieren Sie im ersten-Vorgang nur PNICs.
      2. Migrieren Sie im zweiten Vorgang VMkernel-Schnittstellen. Stellen Sie sicher, dass Migration nur von PNIC deaktiviert ist.

    Sowohl die Migration nur von PNIC als auch die VMkernel-Schnittstellenmigration werden nicht gleichzeitig über mehrere Hosts hinweg unterstützt.

    Hinweis: Um die Netzwerkkarte eines Verwaltungsnetzwerks zu migrieren, konfigurieren Sie dessen zugeordnete VMkernel-Netzwerk-Zuordnung und lassen Sie Migration nur von PNIC deaktiviert. Wenn Sie nur die Management-Netzwerkkarte migrieren, verliert der Host die Verbindung.

    Weitere Informationen finden Sie unter VMkernel-Migration auf einen N-VDS-Switch.

    Netzwerkzuordnungen für die Installation

    Um VMkernels während der Installation zum N-VDS-Switch zu migrieren, ordnen Sie VMkernels einem vorhandenen logischen Switch zu. Der NSX Manager migriert den VMkernel zum zugeordneten logischen Switch auf N-VDS.

    Vorsicht: Stellen Sie sicher, dass die Management-Netzwerkkarte und die Verwaltungs-VMkernel-Schnittstelle auf einen logischen Switch migriert werden, der mit demselben VLAN verbunden ist, mit dem die Management-Netzwerkkarte vor der Migration verbunden war. Wenn vmnic <n> und VMkernel <n> auf ein anderes VLAN migriert werden, dann wird die Verbindung zum Host unterbrochen.
    Vorsicht: Stellen Sie bei angehefteten physischen Netzwerkkarten sicher, dass die Host-Switch-Zuordnung einer physischen Netzwerkkarte zu einer VMkernel-Schnittstelle mit der Konfiguration aus dem Transportknotenprofil übereinstimmt. Im Rahmen des Validierungsverfahrens überprüft NSX-T Data Center die Zuordnung, und wenn die Validierung bestanden wird, ist die Migration von VMkernel-Schnittstellen zu einem N-VDS-Switch erfolgreich. Gleichzeitig ist es erforderlich, die Netzwerkzuordnung für Deinstallation zu konfigurieren, da NSX-T Data Center die Zuordnungskonfiguration des Host-Switch nicht speichert, nachdem die VMkernel-Schnittstellen zum N-VDS-Switch migriert wurden. Wenn die Zuordnung nicht konfiguriert ist, kann die Verbindung zu Diensten wie vSAN verloren gehen, nachdem die Migration wieder zurück zum VSS- oder VDS-Switch durchgeführt wurde.

    Weitere Informationen finden Sie unter VMkernel-Migration auf einen N-VDS-Switch.

    Netzwerkzuordnungen für die Deinstallation

    Um die Migration des VMkernels während der Deinstallation wiederherzustellen, ordnen Sie VMkernels zu Portgruppen auf VSS oder DVS zu, sodass NSX Manager weiß, zu welcher Portgruppe der VMkernel auf dem VSS oder DVS wieder zurückmigriert werden muss. Stellen Sie bei einem DVS-Switch sicher, dass die Portgruppe den Typ Flüchtig aufweist.

    Wenn Sie die Migration von VMkernels während der Deinstallation wiederherstellen möchten, die an eine auf einem vSphere Distributed Virtual Switch der Version 7.0 erstellte NSX-T-Portgruppe angehängt sind, ordnen Sie VMkernels Portgruppen auf VSS oder DVS zu, sodass NSX Manager weiß, zu welcher Portgruppe der VMkernel auf dem VSS oder DVS wieder zurückmigriert werden muss. Stellen Sie bei einem DVS-Switch sicher, dass die Portgruppe den Typ Flüchtig aufweist.

    Vorsicht: Stellen Sie bei angehefteten physischen Netzwerkkarten sicher, dass die Transportknotenprofil-Zuordnung einer physischen Netzwerkkarte zu einer VMkernel-Schnittstelle mit der Konfiguration aus dem Host-Switch übereinstimmt. Es ist erforderlich, die Netzwerkzuordnung für Deinstallation zu konfigurieren, da NSX-T Data Center die Zuordnungskonfiguration des Host-Switch nicht speichert, nachdem die VMkernel-Schnittstellen zum N-VDS-Switch migriert wurden. Wenn die Zuordnung nicht konfiguriert ist, kann die Verbindung zu Diensten wie vSAN verloren gehen, nachdem die Migration wieder zurück zum VSS- oder VDS-Switch durchgeführt wurde.

    Weitere Informationen finden Sie unter VMkernel-Migration auf einen N-VDS-Switch.

  7. Wenn Sie für den N-VDS Switch den Betrieb im Modus Leistung auswählen, geben Sie Werte für die folgenden zusätzlichen Felder ein. Sie können mehrere N-VDS-Switches auf einem einzelnen Host konfigurieren.
    Option Beschreibung
    (CPU-Konfiguration)

    NUMA-Knoten-Index

    Wählen Sie im Dropdown-Menü „NUMA-Knotenindex“ denjenigen NUMA-Knoten, den Sie einem N-VDS-Switch zuweisen möchten. Der erste auf dem Knoten vorhandene NUMA-Knoten wird mit dem Wert 0 dargestellt.

    Sie können die Anzahl der NUMA-Knoten auf Ihrem Host herausfinden, indem Sie den Befehl esxcli hardware memory get ausführen.

    Hinweis: Wenn Sie die Anzahl der NUMA-Knoten ändern möchten, die eine Affinität zu einem N-VDS-Switch haben, können Sie den NUMA-Knotenindexwert aktualisieren.
    (CPU-Konfiguration)

    LCores pro NUMA-Knoten

    Wählen Sie im Dropdown-Menü „Lcore pro NUMA-Knoten“ die Anzahl der logischen Kerne aus, die vom erweiterten Datenpfad verwendet werden müssen.

    Die maximale Anzahl der logischen Kerne, die auf dem NUMA-Knoten angelegt werden können, können Sie durch Ausführen des Befehls esxcli network ens maxLcores get ermitteln.

    Hinweis: Wenn Sie die vorhandenen NUMA-Knoten und logischen Kerne vollständig ausschöpfen, kann ein neuer Switch, der dem Transportknoten hinzugefügt wurde, nicht für den ENS-Verkehr aktiviert werden.
  8. Geben Sie bei einem vorkonfigurierten N-VDS die folgenden Details an:
    Option Beschreibung
    Externe N-VDS-ID Muss mit dem N-VDS-Namen der Transportzone identisch sein, zu der dieser Knoten gehört.
    VTEP Name des virtuellen Tunnel-Endpoints.
  9. Überprüfen Sie den Verbindungsstatus auf der Seite Host-Transportknoten. Während des Konfigurationsvorgangs zeigt jeder Transportknoten den Fortschritt des Installationsvorgangs als Prozentsatz an. Wenn die Installation in einer beliebigen Phase fehlschlägt, können Sie den Vorgang neu starten, indem Sie auf den Link Beheben klicken, der für die fehlgeschlagene Phase des Prozesses verfügbar ist.
    Nach dem Hinzufügen des Hosts oder des Bare Metal-Servers als Transportknoten wird für den Zustand der Verbindung mit NSX Manager lediglich AKTIV angezeigt, nachdem der Host erfolgreich als Transportknoten erstellt wurde.
  10. Alternativ können Sie den Verbindungsstatus mit CLI-Befehlen anzeigen.
    • Geben Sie für ESXi den Befehl esxcli network ip connection list | grep 1234 ein.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • Geben Sie für KVM den Befehl netstat -anp --tcp | grep 1234 ein.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Geben Sie für Windows an einer Eingabeaufforderung netstat | find "1234" ein
    • Geben Sie für Windows an einer Eingabeaufforderung netstat | find "1235" ein
  11. Stellen Sie sicher, dass die NSX-T Data Center-Module auf Ihrem Host oder dem Bare-Metal-Server installiert sind.
    Nachdem ein Host oder Bare-Metal-Server zur NSX-T Data Center-Fabric hinzugefügt wurde, wird eine Sammlung von NSX-T Data Center-Modulen auf dem Host oder Bare-Metal-Server installiert.

    Die Module auf unterschiedlichen Hosts werden wie folgt zu Paketen zusammengestellt:

    • KVM unter RHEL, CentOS, Oracle Linux, oder SUSE – RPM-Dateien.
    • KVM unter Ubuntu – DEB-Dateien
    • Geben Sie unter ESXi den Befehl esxcli software vib list | grep nsx ein.

      Das Datum ist der Tag, an dem die Installation durchgeführt wurde.

    • Geben Sie unter RHEL, CentOS oder Oracle Linux den Befehl yum list installed oder rpm -qa ein.
    • Geben Sie unter Ubuntu den Befehl dpkg --get-selections ein.
    • Geben Sie unter SUSE den Befehl rpm -qa | grep nsx ein.
    • Öffnen Sie unter Windows den Task-Manager. Oder geben Sie in der Befehlszeile tasklist /V | grep nsx findstr “nsx ovs ein
  12. (Optional) Ändern Sie die Abrufintervalle bestimmter Prozesse, wenn Sie über mindestens 500 Hypervisoren verfügen.
    Im NSX Manager treten möglicherweise eine hohe CPU-Nutzung und Performance-Probleme auf, wenn mehr als 500 Hypervisoren vorhanden sind.
    1. Kopieren Sie mit dem NSX-T Data Center-CLI-Befehl copy file oder de API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file das Skript aggsvc_change_intervals.py auf einen Host.
    2. Führen Sie das Skript aus, das sich im Dateispeicher von NSX-T Data Center befindet.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (Optional) Setzen Sie die Abrufintervalle auf ihre Standardwerte zurück.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Ergebnisse

Hinweis: Wenn Sie für einen durch NSX-T Data Center erstellten N-VDS nach dem Erstellen des Transportknotens die Konfiguration (z. B. die IP-Zuweisung zum Tunnel-Endpoint) ändern möchten, müssen Sie diese Änderung über die NSX Manager-GUI vornehmen, und nicht über die Befehlszeilenschnittstelle (CLI) auf dem Host.

Nächste Maßnahme

Migrieren Sie Netzwerkschnittstellen von einem vSphere-Standard-Switch zu einem N-VDS-Switch. Siehe VMkernel-Migration auf einen N-VDS-Switch.