우선 ESXi 호스트, KVM 호스트를 NSX-T Data Center 패브릭에 추가한 다음 전송 노드를 구성해야 합니다.

호스트가 NSX-T Data Center 오버레이에 속하려면 먼저 이를 NSX-T Data Center 패브릭에 추가해야 합니다.

전송 노드는 NSX-T Data Center 오버레이 또는 NSX-T Data Center VLAN 네트워킹에 참여하는 노드입니다.

KVM 호스트의 경우 N-VDS를 미리 구성하거나 NSX Manager에서 구성이 수행되도록 할 수 있습니다. ESXi 호스트의 경우 NSX Manager에서 항상 N-VDS를 구성합니다.

참고: 템플릿 VM에서 전송 노드를 생성하려는 경우 /etc/vmware/nsx/에서 호스트에 인증서가 없는지 확인합니다. nsx-proxy는 인증서가 있으면 인증서를 생성하지 않습니다.
각 구성에 대해 다음과 같은 최대 4개의 N-VDS 스위치를 추가할 수 있습니다.
  • VLAN 전송 영역에 대해 생성된 표준 N-VDS
  • VLAN 전송 영역에 대해 생성된 고급 N-VDS
  • 오버레이 전송 영역에 대해 생성된 표준 N-VDS
  • 오버레이 전송 영역에 대해 생성된 고급 N-VDS

동일한 호스트에서 여러 개의 표준 오버레이 N-VDS 스위치 및 Edge VM을 실행하는 단일 호스트 클러스터 토폴로지에서, NSX-T Data Center는 예를 들어 첫 번째 N-VDS를 통과하는 트래픽이 두 번째 N-VDS를 통과하는 트래픽과 격리되도록 하는 방식으로 트래픽 격리를 제공합니다. 각 N-VDS의 물리적 NIC는 호스트의 Edge VM에 매핑하여 외부 환경에 대한 North-South 트래픽 연결을 허용해야 합니다. 첫 번째 전송 영역의 VM 외부로 이동하는 패킷은 외부 라우터 또는 외부 VM을 통해 두 번째 전송 영역의 VM으로 라우팅되어야 합니다.

사전 요구 사항

  • 호스트는 관리부에 연결되어야 하고 연결이 [실행 중]이어야 합니다.
  • NSX Manager 클러스터의 모든 노드에 대한 역방향 프록시 서비스가 실행 중이어야 합니다.

    확인하려면 get service http를 실행합니다. 서비스가 종료된 경우 각 NSX Manager 노드에서 restart service http를 실행하여 서비스를 다시 시작합니다. 서비스가 여전히 종료된 경우 VMware 기술 지원 서비스에 문의하십시오.

  • 전송 영역을 구성해야 합니다.
  • 업링크 프로파일을 구성해야 하며, 기본 업링크 프로파일을 사용할 수도 있습니다.
  • IP 풀을 구성해야 하며, 그렇지 않은 경우 네트워크 배포에서 DHCP를 사용할 수 있어야 합니다.
  • 하나 이상의 미사용 물리적 NIC를 호스트 노드에서 사용할 수 있어야 합니다.
  • 호스트 이름
  • 관리 IP 주소
  • 사용자 이름
  • 암호
  • (선택 사항) (KVM) SHA-256 SSL 지문
  • (선택 사항) (ESXi) SHA-256 SSL 지문
  • 필요한 타사 패키지가 설치되어 있는지 확인합니다.

프로시저

  1. (선택 사항) 패브릭에 호스트를 추가할 때 제공할 수 있도록 하이퍼바이저 지문을 검색합니다.
    1. 하이퍼바이저 지문 정보를 수집합니다.
      Linux 셸을 사용합니다.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      호스트에서 ESXi CLI를 사용합니다.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. KVM 하이퍼바이저에서 SHA-256 지문을 검색하고, KVM 호스트에서 명령을 실행합니다.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. (NSX-T Data Center 3.2.1 및 이전 버전) 시스템 → 패브릭 → 노드 > 호스트 전송 노드를 선택합니다.
  3. (NSX-T Data Center 3.2.1 및 이전 버전) 관리자 드롭다운 필드에서 독립형 호스트를 선택하고 + 호스트 노드 추가를 클릭합니다.
  4. (NSX-T Data Center 3.2.2) 시스템 → 패브릭 → 호스트를 선택합니다.
  5. (NSX-T Data Center 3.2.2) 독립형 탭을 선택하고 + 호스트 노드 추가를 클릭합니다.
  6. 호스트 세부 정보 페이지에서 다음 필드에 대한 세부 정보를 입력합니다.
    옵션 설명
    이름 독립형 호스트를 식별할 이름을 입력합니다.
    IP 주소 호스트 IP 주소를 입력합니다.
    운영 체제 드롭다운 메뉴에서 운영 체제를 선택합니다.

    호스트에 따라, 지원되는 운영 체제 중에서 선택할 수 있습니다. 시스템 요구 사항의 내용을 참조하십시오.

    사용자 이름 및 암호 호스트 사용자 이름 및 암호를 입력합니다.
    SHA-256 지문 인증을 위한 호스트 지문 값을 입력합니다.

    지문 값을 비워 두면 서버에서 제공한 값을 수락할지 묻는 메시지가 나타납니다. NSX-T Data Center에서 호스트를 검색하고 인증하는 데에는 몇 초가 걸립니다.

    설명 (선택 사항) 호스트에 대한 설명을 추가합니다.
    태그 태그를 추가하고 태그 범위를 정의합니다.
  7. (필수 사항) KVM 호스트의 경우 N-VDS 유형을 선택합니다.
    옵션 설명
    생성된 NSX NSX Manager가 N-VDS를 생성합니다.

    이 옵션은 기본적으로 선택되어 있습니다.

    사전 구성 N-VDS가 이미 구성되어 있습니다.
    ESXi 호스트의 경우, N-VDS 유형은 항상 생성된 NSX로 설정됩니다.
  8. 호스트 준비 탭에서 독립형 호스트를 준비하는 데 사용되는 호스트 스위치를 구성합니다. 단일 호스트에서 여러 N-VDS 스위치를 구성할 수 있습니다.
  9. 호스트 스위치 추가를 클릭하고 NVDS를 선택합니다.
    옵션 설명
    이름 NVDS 호스트 스위치의 이름을 입력합니다.
    모드 NVDS 스위치를 사용할 모드를 선택합니다.
    • 표준
    • 고급 데이터 경로
    • ENS 중단
    전송 영역 드롭다운 메뉴에서 이 전송 노드에 걸쳐 있는 전송 영역을 선택합니다.
    업링크 프로파일 드롭다운 메뉴에서 기존 업링크 프로파일을 선택하거나 사용자 지정 업링크 프로파일을 생성합니다. 기본 업링크 프로파일을 사용할 수도 있습니다.

    전송 노드의 여러 N-VDS 호스트 스위치는 동일한 VLAN 세그먼트 또는 VTEP 풀에 속하거나 다른 VLAN 세그먼트 또는 VTEP IP 풀에 속할 수 있습니다.

    N-VDS 호스트 스위치마다 다른 전송 VLAN 세그먼트를 구성하면 언더레이의 추가 트래픽 분리도 가능합니다.

    NIOC 프로파일 호스트 스위치에 적용할 NIOC 프로파일을 선택합니다.
    LLDP 프로파일 기본적으로 NSX-T는 LLDP 인접 네트워크에서 LLDP 패킷만 수신합니다.

    하지만 LLDP 인접 네트워크로 LLDP 패킷을 전송하고 인접 네트워크에서 LLDP 패킷을 수신하도록 NSX-T를 설정할 수 있습니다.

    팀 구성 정책 업링크 매핑

    업링크를 물리적 NIC에 매핑합니다. NSX Manager가 호스트의 물리적 NIC를 가져올 수 없는 경우 NIC를 수동으로 입력하여 매핑을 완료합니다.

    물리적 NIC 전용 마이그레이션

    이 필드를 설정하기 전에 다음과 같은 사항을 고려합니다.

    • 정의된 물리적 NIC가 사용된 NIC인지 아니면 사용 가능한 NIC인지 파악합니다.
    • 호스트의 VMkernel 인터페이스를 물리적 NIC와 함께 마이그레이션해야 할지 결정합니다.

    필드 설정:

    • VSS 또는 DVS 스위치에서 N-VDS 스위치로 물리적 NIC만 마이그레이션하려면 물리적 NIC 전용 마이그레이션을 사용하도록 설정합니다.

    • 사용된 물리적 NIC 및 연결된 해당 VMkernel 인터페이스 매핑을 마이그레이션하려면 물리적 NIC 전용 마이그레이션을 사용하지 않도록 설정합니다. VMkernel 인터페이스 마이그레이션 매핑이 지정되면 사용 가능한 물리적 NIC가 N-VDS 스위치에 연결됩니다.

    여러 개의 호스트 스위치가 있는 호스트에서:
    • 모든 호스트 스위치가 물리적 NIC만 마이그레이션한다면 한 번으로 작업으로 물리적 NIC를 마이그레이션할 수 있습니다.
    • 일부 호스트 스위치가 VMkernel 인터페이스를 마이그레이션하고 나머지 호스트 스위치가 물리적 NIC만 마이그레이션하는 경우:
      1. 첫 번째 작업에서 물리적 NIC만 마이그레이션합니다.
      2. 두 번째 작업에서 VMkernel 인터페이스를 마이그레이션합니다. 물리적 NIC 전용 마이그레이션을 사용하지 않도록 설정했는지 확인합니다.

    물리적 NIC 전용 마이그레이션과 VMkernel 인터페이스 마이그레이션은 여러 호스트에서 동시에 지원되지 않습니다.

    참고: 관리 네트워크 NIC를 마이그레이션하려면 연결된 해당 VMkernel 네트워크 매핑을 구성하고 물리적 NIC 전용 마이그레이션을 사용하지 않도록 설정한 상태로 둡니다. 관리 NIC만 마이그레이션하면 호스트 연결이 끊어집니다.

    자세한 내용은 N-VDS 스위치로 VMkernel 마이그레이션 항목을 참조하십시오.

    설치를 위한 네트워크 매핑

    설정을 클릭하고 추가를 클릭합니다.

    VMkernel 어댑터 또는 물리적 어댑터를 VLAN 세그먼트에 매핑하고 적용을 클릭합니다.
    • VMkernel 어댑터 드롭다운 메뉴에서 VMkernel 어댑터를 선택합니다.
    • VLAN 세그먼트 드롭다운 메뉴에서 VLAN 세그먼트를 선택합니다.

    NSX Manager가 VMkernel 어댑터를 N-VDS의 매핑된 VLAN 세그먼트로 마이그레이션합니다.

    경고: 관리 NIC 및 관리 VMkernel 인터페이스가 마이그레이션 전 관리 NIC가 연결되어 있던 동일한 VLAN과 연결된 세그먼트로 마이그레이션되었는지 확인하십시오. vmnic <n> 및 VMkernel <n>이 서로 다른 VLAN으로 마이그레이션되면 호스트에 대한 연결이 끊어집니다.
    경고: 고정된 물리적 NIC의 경우 VMkernel 인터페이스에 대한 물리적 NIC의 호스트 스위치 매핑이 전송 노드 프로파일에 지정된 구성과 일치하는지 확인하십시오. NSX-T Data Center는 검증 절차의 일부로 매핑을 확인합니다. 검증이 통과되면 N-VDS 스위치로의 VMkernel 인터페이스의 마이그레이션이 성공합니다. NSX-T Data Center는 VMkernel 인터페이스를 N-VDS 스위치로 마이그레이션한 후 호스트의 매핑 구성을 저장하지 않으므로 제거를 위한 네트워크 매핑도 구성해야 합니다. 매핑이 구성되지 않으면 VSS 또는 VDS 스위치로 다시 마이그레이션한 후 서비스(예: vSAN)에 대한 연결이 손실될 수 있습니다.
    제거를 위한 네트워크 매핑

    설정을 클릭합니다.

    제거 중에 N-VDS 스위치에 연결된 VMkernel의 마이그레이션을 되돌리려면 다음을 수행합니다. VMkernel을 VSS 또는 DVS의 포트 그룹에 매핑하여 VMkernel이 다시 마이그레이션되어야 하는 VSS 또는 DVS의 포트 그룹을 NSX Manager가 알 수 있도록 합니다. DVS 스위치의 경우 포트 그룹의 유형이 사용 후 삭제인지 확인합니다.

    제거 중에 VDS(vSphere Distributed Switch)에 생성된 NSX-T 포트 그룹에 연결된 VMkernel의 마이그레이션을 되돌리려면 VMkernel을 VSS 또는 DVS의 포트 그룹에 매핑하여 VMkernel이 다시 마이그레이션되어야 하는 VSS 또는 DVS의 포트 그룹을 NSX Manager가 알 수 있도록 합니다. DVS 스위치의 경우 포트 그룹의 유형이 사용 후 삭제인지 확인합니다.

    VMKNIC-포트 그룹 매핑을 추가하고 적용을 클릭합니다.
    • VMkernel 어댑터 필드에 VMkernel 어댑터 이름을 입력합니다.
    • PortGroup 필드에 사용 후 삭제 유형의 포트 그룹 이름을 입력합니다.
    업링크 프로파일에 대한 물리적 NIC 매핑에 추가하고 적용을 클릭합니다.
    • 물리적 NIC 필드에 물리적 NIC 이름을 입력합니다.
    • 업링크 필드에 업링크 이름을 입력합니다.
    경고: 고정된 물리적 NIC의 경우 VMkernel 인터페이스에 대한 물리적 NIC의 전송 노드 프로파일 매핑이 호스트 스위치에 지정된 구성과 일치하는지 확인하십시오. NSX-T Data Center는 VMkernel 인터페이스를 N-VDS 스위치로 마이그레이션한 후 호스트의 매핑 구성을 저장하지 않으므로 필수적으로 제거를 위한 네트워크 매핑을 구성해야 합니다. 매핑이 구성되지 않으면 VSS 또는 VDS 스위치로 다시 마이그레이션한 후 서비스(예: vSAN)에 대한 연결이 손실될 수 있습니다.
  10. 미리 구성된 N-VDS의 경우 다음 세부 정보를 제공합니다.
    옵션 설명
    N-VDS 외부 ID 이 노드가 속하는 전송 영역의 N-VDS 이름과 반드시 동일해야 합니다.
    전송 영역 드롭다운 메뉴에서 이 전송 노드에 걸쳐 있는 전송 영역을 선택합니다.
    VTEP 오버레이 네트워크에서 통신할 전송 노드의 가상 터널 끝점 이름입니다.
  11. 독립형 페이지에서 연결 상태를 확인합니다. 구성 프로세스 동안 각 전송 노드에는 설치 프로세스의 진행률 백분율이 표시됩니다. 설치가 임의 단계에서 실패하는 경우 프로세스의 실패한 단계에서 사용할 수 있는 해결 링크를 클릭하여 프로세스를 다시 시작할 수 있습니다.
    호스트를 전송 노드로 추가하면 호스트가 전송 노드로 성공적으로 생성된 후에만 NSX Manager 상태에 대한 연결이 실행 중을 표시됩니다.
    참고: 전송 노드를 생성한 후 IP 할당과 같은 N-VDS 구성을 터널 끝점으로 변경하려면 호스트의 CLI가 아닌 NSX Manager GUI를 통해 변경해야 합니다.
  12. (선택 사항) KVM 호스트에서 dpkg 명령에 액세스하는 여러 프로세스로 인해 전송 노드 생성이 실패하면 호스트를 선택하고 재시도를 클릭하여 전송 노드 생성을 다시 시작합니다.
  13. 또는 CLI 명령을 사용하여 연결 상태를 확인합니다.
    • ESXi의 경우 esxcli network ip connection list | grep 1234 명령을 입력합니다.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • KVM의 경우 netstat -anp --tcp | grep 1234 명령을 입력합니다.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Windows의 경우 명령 프롬프트에서 netstat | find "1234"를 입력합니다.
    • Windows의 경우 명령 프롬프트에서 netstat | find "1235"를 입력합니다.
  14. 호스트에 NSX-T Data Center 모듈이 설치되어 있는지 확인합니다.
    호스트를 NSX-T Data Center 패브릭에 추가하면 호스트에 NSX-T Data Center 모듈의 모음이 설치됩니다.

    모듈은 호스트별로 다음과 같이 패키지되어 있습니다.

    • RHEL, CentOS, Oracle Linux 또는 SUSE의 KVM - RPM
    • Ubuntu의 KVM - DEB.
    • ESXi에서 esxcli software vib list | grep nsx 명령을 입력합니다.

      날짜는 설치를 수행한 날짜입니다.

    • RHEL, CentOS 또는 Oracle Linux에서 yum list installed 또는 rpm -qa 명령을 입력합니다.
    • Ubuntu에서 dpkg --get-selections 명령을 입력합니다.
    • SUSE에서 rpm -qa | grep nsx 명령을 입력합니다.
    • Windows에서 작업 관리자를 엽니다. 또는 명령줄에서 tasklist /V | grep nsx findstr “nsx ovs를 입력합니다.
  15. (선택 사항) 하이퍼바이저가 500개 이상인 경우 특정 프로세스의 폴링 간격을 변경합니다.
    하이퍼바이저가 500개를 초과하면 NSX Manager에서 높은 CPU 사용량 및 성능 문제가 발생할 수 있습니다.
    1. NSX-T Data Center CLI 명령 copy file 또는 API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file을 사용하여 aggsvc_change_intervals.py 스크립트를 호스트로 복사합니다.
    2. NSX-T Data Center 파일 저장소에 있는 스크립트를 실행합니다.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (선택 사항) 폴링 간격을 다시 기본값으로 변경합니다.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

결과

독립형 호스트가 전송 노드로 구성됩니다.
중요: 독립형 전송 노드를 전송 노드 프로파일이 적용된 클러스터로 이동하는 경우 NSX-T Data Center에서 클러스터에 적용된 전송 노드 프로파일이 우선시되고 독립형 전송 노드의 구성이 재정의됩니다. 클러스터의 vmnic와 독립형 호스트가 다른 경우 독립형 전송에 대한 연결이 잠재적으로 손실될 수 있습니다.

다음에 수행할 작업

네트워크 인터페이스를 vSphere 표준 스위치에서 N-VDS 스위치로 마이그레이션합니다. N-VDS 스위치로 VMkernel 마이그레이션의 내용을 참조하십시오.