Cette procédure garantit que NSX Manager et les hôtes peuvent communiquer les uns avec les autres.

Conditions préalables

L'installation des modules NSX-T Data Center doit être terminée.

Procédure

  1. Ouvrez une session SSH vers le dispositif NSX Manager.
  2. Connectez-vous avec les informations d'identification d'administrateur.
  3. Ouvrez une session SSH vers l'hôte d'hyperviseur.
  4. Sur le dispositif NSX Manager, exécutez la commande d'interface de ligne de commande get certificate api thumbprint.

    La sortie de la commande est une chaîne numérique propre à ce dispositif NSX Manager.

    Par exemple :

    NSX-Manager1> get certificate api thumbprint
    ...
    
  5. Sur l'hôte d'hyperviseur, exécutez la commande nsxcli pour ouvrir l'interface de ligne de commande NSX-T Data Center.
    Note:

    Pour KVM, exécutez la commande en tant que superutilisateur (sudo).

    [user@host:~] nsxcli
    host> 
    

    L'invite change.

  6. Sur l'hôte d'hyperviseur, exécutez la commande join management-plane.

    Fournissez les informations suivantes :

    • Nom d'hôte ou adresse IP du dispositif NSX Manager avec numéro de port facultatif

    • Nom du dispositif NSX Manager

    • Empreinte numérique de certificat du dispositif NSX Manager

    • Mot de passe du dispositif NSX Manager

    host> join management-plane NSX-Manager1 username admin thumbprint <NSX-Manager1's-thumbprint>
    Password for API user: <NSX-Manager1's-password>
    Node successfully joined

Résultats

Vérifiez le résultat en exécutant la commande get managers sur vos hôtes.

host> get managers
- 192.168.110.47   Connected

Dans l'interface utilisateur de NSX Manager, dans Infrastructure > Nœud > Hôtes, vérifiez que la connectivité de l'agent MPA de l'hôte est Active.

Pour visualiser également l'état de l'hôte d'infrastructure, vous pouvez exécuter l'appel d'API GET https://<nsx-mgr>/api/v1/fabric/nodes/<id-noeud-infrastructure>/state :

{
  "details": [],
  "state": "success"
}

Le plan de gestion envoie les certificats d'hôte au plan de contrôle et le plan de contrôle transfère les informations du plan de contrôle aux hôtes.

Vous devez voir les adresses NSX Controller dans /etc/vmware/nsx/controller-info.xml sur chaque hôte ESXi ou accéder à l'interface CLI à l'aide de get controllers.

[root@host:~] cat /etc/vmware/nsx/controller-info.xml 
<?xml version="1.0" encoding="utf-8"?>
<config>
  <connectionList>
    <connection id="0">
        <server>10.143.1.47</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
    <connection id="1">
        <server>10.143.1.45</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
    <connection id="2">
        <server>10.143.1.46</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
  </connectionList>
</config>

La connexion de l'hôte aux dispositifs NSX-T Data Center est établie mais elle conserve l'état « CLOSE_WAIT » jusqu'à ce que l'hôte devienne un nœud de transport. Pour le vérifier, exécutez la commande esxcli network ip connection list | grep 1234.

# esxcli network ip connection list | grep 1234
tcp         0       0  192.168.210.53:45823        192.168.110.34:1234  CLOSE_WAIT    37256  newreno  netcpa
 

Pour KVM, la commande est netstat -anp --tcp | grep 1234.

user@host:~$ netstat -anp --tcp | grep 1234
tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   CLOSE_WAIT -

Que faire ensuite

Créez une zone de transport. Reportez-vous à la section À propos des zones de transport.