NSX Manager 또는 글로벌 관리자 클러스터를 형성하면 고가용성 및 안정성이 보장됩니다. join 명령을 사용하여 클러스터를 생성할 수 있습니다.

사전 요구 사항

  • NSX Manager 클러스터를 생성하려면 노드 3개를 배포하여 클러스터를 생성합니다.

  • 글로벌 관리자 클러스터를 생성하려면 노드 3개를 배포하여 클러스터를 생성합니다. 그러나 글로벌 관리자NSX-T Data Center 3.0.0이 설치되어 있는 경우에는 하나의 노드만 배포하고 클러스터를 구성하지 마십시오. 활성 및 대기 글로벌 관리자 설치 항목을 참조하십시오.

프로시저

  1. 첫 번째로 배포된 NSX Manager 또는 글로벌 관리자 노드에 대한 SSH 또는 콘솔 세션을 열고 관리자 자격 증명을 사용하여 로그인합니다.
  2. 배포된 첫 번째 노드에서 다음 명령을 실행합니다.
    1. get certificate api thumbprint 명령을 실행합니다.
      명령 출력은 이 노드에 고유한 숫자열입니다.
    2. get cluster config 명령을 실행하여 첫 번째 배포된 노드의 클러스터 ID를 가져옵니다.
      mgr-first> get cluster config
      Cluster Id: 7b50abb9-0402-4ed5-afec-363587c3c705
      Cluster Configuration Version: 0
      Number of nodes in the cluster: 1
      
      ...
  3. 새 노드에 대한 SSH 또는 콘솔 세션을 열고 관리자 자격 증명을 사용하여 로그인합니다.
  4. 클러스터에 가입하는 새 노드에서 join 명령을 실행합니다.

    join 명령에서 첫 번째로 배포된 노드에 대한 다음 정보를 제공합니다.

    • IP 주소
    • 클러스터 ID
    • 사용자 이름
    • 암호
    • 인증서 지문
    mgr-new> join <Manager-IP> cluster-id <cluster-id> username <Manager-username> password <Manager-password> thumbprint <Manager-thumbprint>
    연결 및 클러스터 안정화 프로세스에는 10~15분이 걸릴 수 있습니다. get cluster status를 실행하여 상태를 확인합니다. 다른 클러스터 변경 작업을 수행하기 전에 모든 클러스터 서비스 그룹의 상태가 실행 중인지 확인합니다.
  5. 세 번째 노드를 클러스터에 추가합니다.
    세 번째 노드에서 4단계를 반복합니다.
  6. 웹 인터페이스에서 클러스터 상태를 확인합니다.
    • NSX Manager에서 NSX Manager 웹 인터페이스에 로그인하고 시스템 > 장치을 선택합니다.
    • 글로벌 관리자에서 글로벌 관리자 웹 인터페이스에 로그인하고 시스템 > 글로벌 관리자 장치을 선택합니다.

결과

호스트에서 get managers 명령을 실행하여 결과를 확인합니다.

host> get managers
- 192.168.110.47   Connected

NSX Manager UI의 패브릭 > 노드 > 호스트에서 호스트의 MPA 연결이 실행 중인지 확인합니다.

또한 GET https://<nsx-mgr>/api/v1/fabric/nodes/<패브릭 노드 ID>/state API 호출을 사용하여 패브릭 호스트의 상태를 확인할 수 있습니다.

{
  "details": [],
  "state": "success"
}

관리부는 제어부로 호스트 인증서를 전송하고, 제어부는 호스트로 제어부 정보를 푸시합니다.

각 ESXi 호스트에서 /etc/vmware/nsx/controller-info.xmlNSX Controller 주소를 확인하거나 get controllers를 사용하여 CLI에 액세스해야 합니다.
[root@host:~] cat /etc/vmware/nsx/controller-info.xml 
<?xml version="1.0" encoding="utf-8"?>
<config>
  <connectionList>
    <connection id="0">
        <server>10.143.1.47</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
    <connection id="1">
        <server>10.143.1.45</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
    <connection id="2">
        <server>10.143.1.46</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
  </connectionList>
</config>
NSX-T Data Center에 대한 호스트 연결이 시작되고 호스트가 전송 노드로 승격될 때까지 "CLOSE_WAIT" 상태가 유지됩니다. 이 사항은 esxcli network ip connection list | grep 1234 명령을 실행하여 확인할 수 있습니다.
# esxcli network ip connection list | grep 1234
tcp  0 0  192.168.210.53:45823  192.168.110.34:1234  CLOSE_WAIT  37256  newreno  netcpa 
KVM의 경우 해당 명령은 netstat -anp --tcp | grep 1234입니다.
user@host:~$ netstat -anp --tcp | grep 1234
tcp  0  0  192.168.210.54:57794  192.168.110.34:1234   CLOSE_WAIT -

다음에 수행할 작업

전송 영역을 생성합니다. 독립 실행형 호스트를 전송 노드로 준비 항목을 참조하십시오.