우선 ESXi 호스트, KVM 호스트 또는 베어메탈 서버를 NSX-T Data Center 패브릭에 추가한 다음 전송 노드를 구성해야 합니다.

호스트 또는 베어메탈 서버가 NSX-T Data Center 오버레이에 속하려면 먼저 이를 NSX-T Data Center 패브릭에 추가해야 합니다.

전송 노드는 NSX-T Data Center 오버레이 또는 NSX-T Data Center VLAN 네트워킹에 참여하는 노드입니다.

KVM 호스트 또는 베어메탈 서버의 경우 N-VDS를 미리 구성하거나 NSX Manager에서 구성이 수행되도록 할 수 있습니다. ESXi 호스트의 경우 NSX Manager에서 항상 N-VDS를 구성합니다.

참고: 템플릿 VM에서 전송 노드를 생성하려는 경우 /etc/vmware/nsx/에서 호스트에 인증서가 없는지 확인합니다. nsx-proxy는 인증서가 있으면 인증서를 생성하지 않습니다.

베어메탈 서버는 오버레이 및 VLAN 전송 영역을 지원합니다. 관리 인터페이스를 사용하여 베어메탈 서버를 관리할 수 있습니다. 애플리케이션 인터페이스를 사용하면 베어메탈 서버의 애플리케이션에 액세스할 수 있습니다.

단일 물리적 NIC는 관리 및 애플리케이션 IP 인터페이스 모두에 대해 IP 주소를 제공합니다.

이중 물리적 NIC는 관리 인터페이스에 대해 물리적 NIC와 고유한 IP 주소를 제공합니다. 이중 물리적 NIC는 애플리케이션 인터페이스에 대해서도 물리적 NIC와 고유한 IP 주소를 제공합니다.

결합된 구성의 다중 물리적 NIC는 관리 인터페이스 및 애플리케이션 인터페이스 둘 다에 대해 이중 물리적 NIC와 고유한 IP 주소를 제공합니다.

각 구성에 대해 다음과 같은 최대 4개의 N-VDS 스위치를 추가할 수 있습니다.
  • VLAN 전송 영역에 대해 생성된 표준 N-VDS
  • VLAN 전송 영역에 대해 생성된 고급 N-VDS
  • 오버레이 전송 영역에 대해 생성된 표준 N-VDS
  • 오버레이 전송 영역에 대해 생성된 고급 N-VDS

동일한 호스트에서 여러 개의 표준 오버레이 N-VDS 스위치 및 Edge VM을 실행하는 단일 호스트 클러스터 토폴로지에서, NSX-T Data Center는 예를 들어 첫 번째 N-VDS를 통과하는 트래픽이 두 번째 N-VDS를 통과하는 트래픽과 격리되도록 하는 방식으로 트래픽 격리를 제공합니다. 각 N-VDS의 물리적 NIC는 호스트의 Edge VM에 매핑하여 외부 환경에 대한 North-South 트래픽 연결을 허용해야 합니다. 첫 번째 전송 영역의 VM 외부로 이동하는 패킷은 외부 라우터 또는 외부 VM을 통해 두 번째 전송 영역의 VM으로 라우팅되어야 합니다.

사전 요구 사항

  • 호스트는 관리부에 연결되어야 하고 연결이 [실행 중]이어야 합니다.
  • NSX Manager 클러스터의 모든 노드에 대한 역방향 프록시 서비스가 실행 중이어야 합니다.

    확인하려면 get service http를 실행합니다. 서비스가 종료된 경우 각 NSX Manager 노드에서 restart service http를 실행하여 서비스를 다시 시작합니다. 서비스가 여전히 종료 상태이면 VMware 지원 서비스에 문의하십시오.

  • 전송 영역을 구성해야 합니다.
  • 업링크 프로파일을 구성해야 하며, 기본 업링크 프로파일을 사용할 수도 있습니다.
  • IP 풀을 구성해야 하며, 그렇지 않은 경우 네트워크 배포에서 DHCP를 사용할 수 있어야 합니다.
  • 하나 이상의 미사용 물리적 NIC를 호스트 노드에서 사용할 수 있어야 합니다.
  • 호스트 이름
  • 관리 IP 주소
  • 사용자 이름
  • 암호
  • (선택 사항) (KVM) SHA-256 SSL 지문
  • (선택 사항) (ESXi) SHA-256 SSL 지문
  • 필요한 타사 패키지가 설치되어 있는지 확인합니다.

프로시저

  1. (선택 사항) 패브릭에 호스트를 추가할 때 제공할 수 있도록 하이퍼바이저 지문을 검색합니다.
    1. 하이퍼바이저 지문 정보를 수집합니다.
      Linux 셸을 사용합니다.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      호스트에서 ESXi CLI를 사용합니다.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. KVM 하이퍼바이저에서 SHA-256 지문을 검색하고, KVM 호스트에서 명령을 실행합니다.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. 시스템 > 패브릭 > 노드 > 호스트 전송 노드를 선택합니다.
  3. [관리자] 필드에서 독립형 호스트를 선택하고 + 추가를 클릭합니다.
  4. 패브릭에 추가할 독립형 호스트 또는 베어메탈 서버 세부 정보를 입력합니다.
    옵션 설명
    이름 및 설명 독립형 호스트 또는 베어메탈 서버를 식별하는 이름을 입력합니다.

    필요한 경우 호스트 또는 베어메탈 서버에 사용된 운영 체제에 대한 설명을 추가할 수도 있습니다.

    IP 주소 호스트 또는 베어메탈 서버 IP 주소를 입력합니다.
    운영 체제 드롭다운 메뉴에서 운영 체제를 선택합니다.

    호스트 또는 베어메탈 서버에 따라 지원되는 운영 체제 중에서 선택할 수 있습니다. 시스템 요구 사항의 내용을 참조하십시오.

    중요: 지원되는 다양한 유형의 Linux에서 Linux 배포를 실행하는 베어메탈 서버와 Linux 배포를 하이퍼바이저 호스트로 사용하는 방식 간의 차이를 알고 있어야 합니다. 예를 들어, Ubuntu Server를 운영 체제로 선택하면 Linux 서버를 실행하는 베어메탈 서버가 설정되지만, Ubuntu KVM을 선택하면 배포된 Linux 하이퍼바이저가 Ubuntu가 됩니다.
    사용자 이름 및 암호 호스트 사용자 이름 및 암호를 입력합니다.
    SHA-256 지문 인증을 위한 호스트 지문 값을 입력합니다.

    지문 값을 비워 두면 서버에서 제공한 값을 수락할지 묻는 메시지가 나타납니다. NSX-T Data Center에서 호스트를 검색하고 인증하는 데에는 몇 초가 걸립니다.

  5. (필수 사항) KVM 호스트 또는 베어메탈 서버의 경우 N-VDS 유형을 선택합니다.
    옵션 설명
    생성된 NSX NSX Manager가 N-VDS를 생성합니다.

    이 옵션은 기본적으로 선택되어 있습니다.

    사전 구성 N-VDS가 이미 구성되어 있습니다.
    ESXi 호스트의 경우, N-VDS 유형은 항상 생성된 NSX로 설정됩니다.
  6. N-VDS 스위치가 표준(모든 호스트) 모드에서 작동하도록 선택하는 경우 다음 필드에 값을 입력합니다. 단일 호스트에서 여러 N-VDS 스위치를 구성할 수 있습니다.
    옵션 설명
    이름 N-VDS 호스트 스위치의 이름을 입력합니다.
    전송 영역 드롭다운 메뉴에서 이 전송 노드가 있는 전송 영역을 선택합니다.
    NIOC 프로파일 드롭다운 메뉴에서 ESXi 호스트에 대한 NIOC 프로파일을 선택하거나 사용자 지정 NIOC 프로파일을 생성합니다.

    기본 NIOC 프로파일을 선택할 수도 있습니다.

    업링크 프로파일 드롭다운 메뉴에서 기존 업링크 프로파일을 선택하거나 사용자 지정 업링크 프로파일을 생성합니다.

    기본 업링크 프로파일을 사용할 수도 있습니다.

    LLDP 프로파일 기본적으로 NSX-T는 LLDP 인접 네트워크에서 LLDP 패킷만 수신합니다.

    하지만 LLDP 인접 네트워크로 LLDP 패킷을 전송하고 인접 네트워크에서 LLDP 패킷을 수신하도록 NSX-T를 설정할 수 있습니다.

    IP 할당 DHCP 사용, IP 풀 사용 또는 정적 IP 목록 사용을 선택합니다.

    정적 IP 목록 사용을 선택하면 쉼표로 구분된 IP 주소 목록, 게이트웨이 및 서브넷 마스크를 지정해야 합니다.

    IP 풀 IP 할당에 대해 IP 풀 사용을 선택한 경우 IP 풀 이름을 지정합니다.
    팀 구성 정책 스위치 매핑

    물리적 NIC를 전송 노드에 추가합니다. 기본 업링크를 사용하거나 드롭다운 메뉴에서 기존 업링크를 할당할 수 있습니다.

    물리적 NIC 전용 마이그레이션

    이 필드를 설정하기 전에 다음과 같은 사항을 고려합니다.

    • 정의된 물리적 NIC가 사용된 NIC인지 아니면 사용 가능한 NIC인지 파악합니다.
    • 호스트의 VMkernel 인터페이스를 물리적 NIC와 함께 마이그레이션해야 할지 결정합니다.

    필드 설정:

    • VSS 또는 DVS 스위치에서 N-VDS 스위치로 물리적 NIC만 마이그레이션하려면 물리적 NIC 전용 마이그레이션을 사용하도록 설정합니다.

    • 사용된 물리적 NIC 및 연결된 해당 VMkernel 인터페이스 매핑을 마이그레이션하려면 물리적 NIC 전용 마이그레이션을 사용하지 않도록 설정합니다. VMkernel 인터페이스 마이그레이션 매핑이 지정되면 사용 가능한 물리적 NIC가 N-VDS 스위치에 연결됩니다.

    여러 개의 호스트 스위치가 있는 호스트에서:
    • 모든 호스트 스위치가 물리적 NIC만 마이그레이션한다면 한 번으로 작업으로 물리적 NIC를 마이그레이션할 수 있습니다.
    • 일부 호스트 스위치가 VMkernel 인터페이스를 마이그레이션하고 나머지 호스트 스위치가 물리적 NIC만 마이그레이션하는 경우:
      1. 첫 번째 작업에서 물리적 NIC만 마이그레이션합니다.
      2. 두 번째 작업에서 VMkernel 인터페이스를 마이그레이션합니다. 물리적 NIC 전용 마이그레이션을 사용하지 않도록 설정했는지 확인합니다.

    물리적 NIC 전용 마이그레이션과 VMkernel 인터페이스 마이그레이션은 여러 호스트에서 동시에 지원되지 않습니다.

    참고: 관리 네트워크 NIC를 마이그레이션하려면 연결된 해당 VMkernel 네트워크 매핑을 구성하고 물리적 NIC 전용 마이그레이션을 사용하지 않도록 설정한 상태로 둡니다. 관리 NIC만 마이그레이션하면 호스트 연결이 끊어집니다.

    자세한 내용은 N-VDS 스위치로 VMkernel 마이그레이션 항목을 참조하십시오.

    설치를 위한 네트워크 매핑

    설치 중에 VMkernel을 N-VDS 스위치에 마이그레이션하려면 VMkernel을 기존의 논리적 스위치에 매핑합니다. NSX Manager가 N-VDS의 매핑된 논리적 스위치에 VMkernel을 마이그레이션합니다.

    경고: 관리 NIC 및 관리 VMkernel 인터페이스가 마이그레이션 전 관리 NIC가 연결되어 있던 동일한 VLAN과 연결된 논리적 스위치로 마이그레이션되었는지 확인하십시오. vmnic <n> 및 VMkernel <n>이 서로 다른 VLAN으로 마이그레이션되면 호스트에 대한 연결이 끊어집니다.
    경고: 고정된 물리적 NIC의 경우 VMkernel 인터페이스에 대한 물리적 NIC의 호스트 스위치 매핑이 전송 노드 프로파일에 지정된 구성과 일치하는지 확인하십시오. NSX-T Data Center는 검증 절차의 일부로 매핑을 검사합니다. 검증이 통과되면 VMkernel 인터페이스가 N-VDS 스위치로 성공적으로 마이그레이션됩니다. 동시에, NSX-T Data Center는 VMkernel 인터페이스를 N-VDS 스위치로 마이그레이션한 후 호스트의 매핑 구성을 저장하지 않으므로 필수적으로 제거를 위한 네트워크 매핑을 구성해야 합니다. 매핑이 구성되지 않으면 VSS 또는 VDS 스위치로 다시 마이그레이션한 후 서비스(예: vSAN)에 대한 연결이 손실될 수 있습니다.

    자세한 내용은 N-VDS 스위치로 VMkernel 마이그레이션 항목을 참조하십시오.

    제거를 위한 네트워크 매핑

    제거 중에 VMkernel의 마이그레이션을 되돌리려면 VMkernel을 VSS 또는 DVS의 포트 그룹에 매핑하여 VMkernel이 다시 마이그레이션되어야 하는 VSS 또는 DVS의 포트 그룹을 NSX Manager가 알 수 있도록 합니다. DVS 스위치의 경우 포트 그룹의 유형이 사용 후 삭제인지 확인합니다.

    제거 중에 vSphere Distributed Virtual Switch 7.0에 생성된 NSX-T 포트 그룹에 연결된 VMkernel의 마이그레이션을 되돌리려면 VMkernel을 VSS 또는 DVS의 포트 그룹에 매핑하여 VMkernel이 다시 마이그레이션되어야 하는 VSS 또는 DVS의 포트 그룹을 NSX Manager가 알 수 있도록 합니다. DVS 스위치의 경우 포트 그룹의 유형이 사용 후 삭제인지 확인합니다.

    경고: 고정된 물리적 NIC의 경우 VMkernel 인터페이스에 대한 물리적 NIC의 전송 노드 프로파일 매핑이 호스트 스위치에 지정된 구성과 일치하는지 확인하십시오. NSX-T Data Center는 VMkernel 인터페이스를 N-VDS 스위치로 마이그레이션한 후 호스트의 매핑 구성을 저장하지 않으므로 필수적으로 제거를 위한 네트워크 매핑을 구성해야 합니다. 매핑이 구성되지 않으면 VSS 또는 VDS 스위치로 다시 마이그레이션한 후 서비스(예: vSAN)에 대한 연결이 손실될 수 있습니다.

    자세한 내용은 N-VDS 스위치로 VMkernel 마이그레이션 항목을 참조하십시오.

  7. 성능 모드에서 작동하도록 N-VDS 스위치를 선택하는 경우 다음 추가 필드에 값을 입력합니다. 단일 호스트에서 여러 N-VDS 스위치를 구성할 수 있습니다.
    옵션 설명
    (CPU 구성)

    NUMA 노드 인덱스

    [NUMA 노드 인덱스] 드롭다운 메뉴에서 N-VDS 스위치에 할당하려는 NUMA 노드를 선택합니다. 노드에 있는 첫 번째 NUMA 노드는 값 0으로 표시됩니다.

    esxcli hardware memory get 명령을 실행하여 호스트에서 NUMA 노드의 수를 확인할 수 있습니다.

    참고: N-VDS 스위치에 대해 선호도를 갖는 NUMA 노드의 수를 변경하려는 경우 NUMA 노드 인덱스 값을 업데이트할 수 있습니다.
    (CPU 구성)

    NUMA 노드별 LCore 수

    [NUMA 노드별 LCore 수] 드롭다운 메뉴에서 고급 데이터 경로에서 사용되어야 하는 논리적 코어 수를 선택합니다.

    esxcli network ens maxLcores get 명령을 실행하여 NUMA 노드에서 생성할 수 있는 최대 논리적 코어 수를 확인할 수 있습니다.

    참고: 사용 가능한 NUMA 노드와 논리적 코어를 모두 사용한 경우 전송 노드에 추가된 새 스위치를 ENS 트래픽에 사용하도록 설정할 수 없습니다.
  8. 미리 구성된 N-VDS의 경우 다음 세부 정보를 제공합니다.
    옵션 설명
    N-VDS 외부 ID 이 노드가 속하는 전송 영역의 N-VDS 이름과 반드시 동일해야 합니다.
    VTEP 가상 터널 끝점 이름입니다.
  9. 호스트 전송 노드 페이지에서 연결 상태를 확인합니다. 구성 프로세스 동안 각 전송 노드에는 설치 프로세스의 진행률 백분율이 표시됩니다. 설치가 임의 단계에서 실패하는 경우 프로세스의 실패한 단계에서 사용할 수 있는 해결 링크를 클릭하여 프로세스를 다시 시작할 수 있습니다.
    호스트 또는 베어메탈 서버를 전송 노드로 추가하면 호스트가 전송 노드로 성공적으로 생성된 후에만 NSX Manager 상태에 대한 연결이 실행 중을 표시됩니다.
  10. 또는 CLI 명령을 사용하여 연결 상태를 확인합니다.
    • ESXi의 경우 esxcli network ip connection list | grep 1234 명령을 입력합니다.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • KVM의 경우 netstat -anp --tcp | grep 1234 명령을 입력합니다.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Windows의 경우 명령 프롬프트에서 netstat | find "1234"를 입력합니다.
    • Windows의 경우 명령 프롬프트에서 netstat | find "1235"를 입력합니다.
  11. NSX-T Data Center 모듈이 호스트 또는 베어메탈 서버에 설치되어 있는지 확인합니다.
    호스트 또는 베어메탈 서버를 NSX-T Data Center 패브릭에 추가하면 NSX-T Data Center 모듈 모음이 호스트 또는 베어메탈 서버에 설치됩니다.

    모듈은 호스트별로 다음과 같이 패키지되어 있습니다.

    • RHEL, CentOS, Oracle Linux 또는 SUSE의 KVM - RPM
    • Ubuntu의 KVM - DEB.
    • ESXi에서 esxcli software vib list | grep nsx 명령을 입력합니다.

      날짜는 설치를 수행한 날짜입니다.

    • RHEL, CentOS 또는 Oracle Linux에서 yum list installed 또는 rpm -qa 명령을 입력합니다.
    • Ubuntu에서 dpkg --get-selections 명령을 입력합니다.
    • SUSE에서 rpm -qa | grep nsx 명령을 입력합니다.
    • Windows에서 작업 관리자를 엽니다. 또는 명령줄에서 tasklist /V | grep nsx findstr “nsx ovs를 입력합니다.
  12. (선택 사항) 하이퍼바이저가 500개 이상인 경우 특정 프로세스의 폴링 간격을 변경합니다.
    하이퍼바이저가 500개를 초과하면 NSX Manager에서 높은 CPU 사용량 및 성능 문제가 발생할 수 있습니다.
    1. NSX-T Data Center CLI 명령 copy file 또는 API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file을 사용하여 aggsvc_change_intervals.py 스크립트를 호스트로 복사합니다.
    2. NSX-T Data Center 파일 저장소에 있는 스크립트를 실행합니다.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (선택 사항) 폴링 간격을 다시 기본값으로 변경합니다.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

결과

참고: NSX-T Data Center에서 생성한 N-VDS의 경우 전송 노드를 생성한 후 터널 끝점에 대한 IP 할당과 같은 구성을 변경하려면 호스트의 CLI가 아닌 NSX Manager GUI를 통해 변경해야 합니다.

다음에 수행할 작업

네트워크 인터페이스를 vSphere 표준 스위치에서 N-VDS 스위치로 마이그레이션합니다. N-VDS 스위치로 VMkernel 마이그레이션의 내용을 참조하십시오.