Un nodo de tejido es un nodo que se registró con el plano de administración de NSX-T y que tiene módulos de NSX-T instalados. Para que un host de hipervisor forme parte de la superposición de NSX-T, debe agregarse primero al tejido de NSX-T.

Por qué y cuándo se efectúa esta tarea

Nota:

Puede omitir este procedimiento si instaló manualmente los módulos en los hosts y unió los hosts al plano de administración mediante la CLI.

Requisitos

  • Por cada host que planee agregar al tejido de NSX-T, recopile primero la siguiente información del host:

    • Nombre de host

    • Dirección IP de administración

    • Nombre de usuario

    • Contraseña

    • (KVM) Huella digital SHA-256 SSL

    • (ESXi) Huella digital SHA-256 SSL

  • De forma opcional, recupere la huella digital del hipervisor para que pueda proporcionarlo al agregar el host al tejido.

    • Un método para recopilar la información por sí mismo consiste en ejecutar el siguiente comando en un shell de Linux:

      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
    • Otro método utiliza la CLI de ESXi:

      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      

    • Para recuperar la huella digital SHA-256 de un hipervisor KVM, ejecute los siguientes comandos:

      # ssh-keyscan -t rsa hostname > hostname.pub
      # awk '{print $3}' hostname.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
      
      where hostname is the hypervisor’s hostname or IP address.
      

  • Para Ubuntu, compruebe que estén instalados los paquetes de terceros requeridos. Consulte Instalar paquetes de terceros en un host de KVM.

Procedimiento

  1. En la CLI de NSX Manager, compruebe que se esté ejecutando el servicio de instalación-actualización.
    nsx-manager-1> get service install-upgrade
    
    Service name: install-upgrade
    Service state: running
    Enabled: True
  2. Desde un explorador, inicie sesión en un NSX Manager en https://<nsx-mgr>.
  3. Seleccione Tejido (Fabric) > Nodos (Nodes) > Hosts (Hosts) y haga clic en Agregar (Add).
  4. Introduzca el nombre de host, la dirección IP, el nombre de usuario, la contraseña y la huella digital opcional.

    Por ejemplo:

    Si no introduce la huella digital del host, la interfaz de usuario (IU) de NSX-T le pide que utilice la huella digital predeterminada recuperada del host.

    Por ejemplo:

Resultados

Cuando se agrega correctamente un host al tejido de NSX-T, la IU NSX Manager Tejido (Fabric) > Nodos (Nodes) > Hosts (Hosts) muestra Estado de implementación: Instalación correcta (Deployment Status: Installation Successful) y Conectividad de MPA: Activa (MPA Connectivity: Up). La Conectividad de LCP (LCP Connectivity) permanece no disponible hasta que el nodo de tejido se convierta en un nodo de transporte.

Como resultado de agregar un host al tejido de NSX-T, se instalan en el host una colección de módulos de NSX-T. En ESXi, los módulos se empaquetan como VIB. Para KVM en RHEL, se empaquetan como RPM. Para KVM en Ubuntu, se empaquetan como DEB.

Para verificar en ESXi, puede ejecutar el comando esxcli software vib list | grep nsx, donde la fecha es el día que realizó la instalación.

Para realizar la verificación en RHEL, ejecute el comando yum list installed o rpm -qa.

Para realizar la verificación en Ubuntu, ejecute el comando dpkg --get-selections.

Puede ver los nodos del tejido mediante la llamada API GET https://<nsx-mgr>/api/v1/fabric/nodes/<node-id>:

{
  "resource_type" : "HostNode",
  "id" : "f36d5a79-233c-47c9-9c17-9adc9f8ec466",
  "display_name" : "10.143.1.177",
  "fqdn" : "w1-mvpcloud-177.eng.vmware.com",
  "ip_addresses" : [ "10.143.1.177" ],
  "external_id" : "f36d5a79-233c-47c9-9c17-9adc9f8ec466",
  "discovered_ip_addresses" : [ "192.168.150.104", "10.143.1.177" ],
  "os_type" : "ESXI",
  "os_version" : "6.5.0",
  "managed_by_server" : "",
  "_create_time" : 1480369243245,
  "_last_modified_user" : "admin",
  "_last_modified_time" : 1480369243245,
  "_create_user" : "admin",
  "_revision" : 0
}

Puede supervisar el estado en la API con la llamada API GET https://<nsx-mgr>/api/v1/fabric/nodes/<node-id>/status.

{
  "lcp_connectivity_status" : "UP",
  "mpa_connectivity_status" : "UP",
  "last_sync_time" : 1480370899198,
  "mpa_connectivity_status_details" : "Client is responding to heartbeats",
  "lcp_connectivity_status_details" : [ {
    "control_node_ip" : "10.143.1.47",
    "status" : "UP"
  } ],
  "inventory_sync_paused" : false,
  "last_heartbeat_timestamp" : 1480369333415,
  "system_status" : {
    "mem_used" : 2577732,
    "system_time" : 1480370897000,
    "file_systems" : [ {
      "file_system" : "root",
      "total" : 32768,
      "used" : 5440,
      "type" : "ramdisk",
      "mount" : "/"
    }, {
      "file_system" : "etc",
      "total" : 28672,
      "used" : 264,
      "type" : "ramdisk",
      "mount" : "/etc"
    }, {
      "file_system" : "opt",
      "total" : 32768,
      "used" : 20,
      "type" : "ramdisk",
      "mount" : "/opt"
    }, {
      "file_system" : "var",
      "total" : 49152,
      "used" : 2812,
      "type" : "ramdisk",
      "mount" : "/var"
    }, {
      "file_system" : "tmp",
      "total" : 262144,
      "used" : 21728,
      "type" : "ramdisk",
      "mount" : "/tmp"
    }, {
      "file_system" : "iofilters",
      "total" : 32768,
      "used" : 0,
      "type" : "ramdisk",
      "mount" : "/var/run/iofilters"
    }, {
      "file_system" : "hostdstats",
      "total" : 116736,
      "used" : 2024,
      "type" : "ramdisk",
      "mount" : "/var/lib/vmware/hostd/stats"
    } ],
    "load_average" : [ 0.03999999910593033, 0.03999999910593033, 0.05000000074505806 ],
    "swap_total" : 0,
    "mem_cache" : 0,
    "cpu_cores" : 2,
    "source" : "cached",
    "mem_total" : 8386740,
    "swap_used" : 0,
    "uptime" : 3983605000
  },
  "software_version" : "1.1.0.0.0.4649755",
  "host_node_deployment_status" : "INSTALL_SUCCESSFUL"
}

Qué hacer a continuación

Si tiene un gran número de hipervisores (por ejemplo, 500 o más), NSX Manager podría experimentar problemas de rendimiento y uso elevado de CPU. Puede evitar el problema ejecutando el script aggsvc_change_intervals.py, que se encuentra en el almacén de archivos de NSX. (Puede utilizar el comando copy file de la CLI de NSX o la API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file para copiar el script en un host). Este script cambia los intervalos de sondeo de determinados procesos. Ejecute el script de la siguiente manera:

python aggsvc_change_intervals.py -m '<NSX Manager IP address>' -u 'admin' -p '<password>' -i 900

Para restablecer los valores predeterminados de los intervalos de sondeo:

python aggsvc_change_intervals.py -m '<NSX Manager IP address>' -u 'admin' -p '<password>' -r

Cree una zona de transporte. Consulte Acerca de las zonas de transporte.