개별 ESXi 호스트에서 NSX를 구성할 수 있습니다.

사전 요구 사항

  • 준비하려는 개별 호스트의 전원이 켜져 있는지 확인합니다.
  • 시스템 요구 사항이 충족되었는지 확인합니다. 시스템 요구 사항 항목을 참조하십시오.
  • NSX Manager 클러스터의 모든 노드에 대한 역방향 프록시 서비스가 실행 중이어야 합니다.

    확인하려면 get service http를 실행합니다. 서비스가 종료된 경우 각 NSX Manager 노드에서 restart service http를 실행하여 서비스를 다시 시작합니다. 서비스가 여전히 종료된 경우 VMware 기술 지원 서비스에 문의하십시오.

  • 사용자 지정 포트 또는 기본값이 아닌 포트에 VMware vCenter를 배포한 경우 다음 규칙을 NSX Manager에 적용합니다.
    • 호스트 준비를 시작하기 전에 NSX Manager에서 IPv4 규칙을 수동으로 적용해야 합니다.
      • iptables -A INPUT -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
      • iptables -A OUTPUT -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
    • 호스트 준비를 시작하기 전에 NSX Manager에서 IPv6 테이블 규칙을 수동으로 적용해야 합니다.
      • ip6tables -A OUTPUT -o eth0 -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
      • ip6tables -A INPUT -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
  • (잠금 모드의 호스트) vSphere 잠금 모드의 예외 목록에 만료된 사용자 계정(예: lldpvim-user)이 포함되어 있는 경우 vSphere에서 NSX 설치가 실패합니다. 이 사용자는 ESXi에 자동으로 생성되어 hostd에 LLDP 인접 항목 정보를 가져오도록 지시한 다음, 삭제됩니다. 설치를 시작하기 전에 만료된 모든 사용자 계정을 삭제했는지 확인합니다. 잠금 모드에서 액세스 권한이 있는 계정에 대한 자세한 내용은 "vSphere 보안 가이드" 의 "잠금 모드에서 액세스 권한이 있는 계정 지정" 을 참조하십시오.

프로시저

  1. 패브릭에 호스트를 추가할 때 제공할 수 있도록 하이퍼바이저 지문을 검색합니다.
    1. 하이퍼바이저 지문 정보를 수집합니다.
      Linux 셸을 사용합니다.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      호스트에서 ESXi CLI를 사용합니다.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
  2. 브라우저에서 관리자 권한으로 NSX Manager(https://<nsx-manager-ip-address> 또는 https://<nsx-manager-fqdn>)에 로그인합니다.
  3. 시스템 > 패브릭 > 호스트를 선택합니다.
  4. 기타 노드를 선택하고 호스트를 선택합니다.
  5. 호스트 세부 정보 페이지에서 다음 필드에 대한 세부 정보를 입력합니다.
    옵션 설명
    이름 및 독립형 호스트를 식별할 이름을 입력합니다.
    IP 주소 호스트 IP 주소를 입력합니다.
    설명 필요한 경우 호스트에 사용된 운영 체제에 대한 설명을 추가할 수도 있습니다.
    태그 호스트에 연결할 태그를 입력합니다. 특정 OS 버전, ESXi 버전 등을 보유한 모든 호스트를 그룹화하려는 경우 태그를 사용할 수 있습니다.
  6. 다음을 클릭합니다.
  7. 호스트 준비 탭에서 호스트 스위치 추가를 클릭합니다.
  8. VDS 선택 드롭다운 메뉴에서 VDS 스위치를 선택합니다.
  9. 다음 필드 구성:
    옵션 설명
    이름

    (vSphere 클러스터에서 관리하는 호스트) 호스트 스위치를 관리하는 VMware vCenter를 선택합니다.

    VMware vCenter에 생성되고 ESXi 호스트에 연결된 VDS를 선택합니다.

    전송 영역

    [표시] 섹션에서 오버레이, VLAN 또는 모두를 선택하여 호스트 스위치에 대해 원하는 전송 영역 유형을 보고 선택합니다.

    이러한 전송 영역은 연결된 호스트 스위치에 의해 인식됩니다.

    지원되는 전송 영역 구성:
    • 호스트 스위치당 여러 VLAN 전송 영역을 추가할 수 있습니다.
    • 호스트 스위치당 오버레이 전송 영역을 하나만 추가해야 합니다. NSX Manager UI에서는 여러 오버레이 전송 영역을 추가할 수 없습니다.
    업링크 프로파일 드롭다운 메뉴에서 기존 업링크 프로파일을 선택하거나 사용자 지정 업링크 프로파일을 생성합니다. 기본 업링크 프로파일을 사용할 수도 있습니다.

    MTU 값을 비워 두면 NSX는 글로벌 기본 MTU 값 1700을 사용합니다. NSX 업링크 프로파일에 MTU 값을 입력하면 해당 MTU 값에 따라 글로벌 기본 MTU 값이 재정의됩니다.

    참고: 업링크 프로파일에 정의된 링크 집계 그룹은 VDS 업링크에 매핑될 수 없습니다.
    IP 주소 유형(TEP) IPv4IPv6 중에서 선택하여 전송 노드의 TEP(터널 끝점)에 대한 IP 버전을 지정합니다.
    IPv4 할당

    IPv4 주소가 TEP에 할당되는 방법을 선택합니다. 옵션은 다음과 같습니다.

    • DHCP 사용: IPv4 주소가 DHCP 서버에서 할당됩니다.
    • IPv4 풀 사용: IPv4 주소가 IP 풀에서 할당됩니다. TEP에 사용할 IPv4 풀 이름을 지정합니다.
    IPv6 할당

    IPv6 주소가 TEP에 할당되는 방법을 선택합니다. 옵션은 다음과 같습니다.

    • DHCPv6 사용: IPv6 주소가 DHCP 서버에서 할당됩니다.
    • IPv6 풀 사용: IPv6 주소가 IP 풀에서 할당됩니다. TEP에 사용할 IPv6 풀 이름을 지정합니다.
    • AutoConf 사용: IPv6 주소가 RA(라우터 알림)에서 할당됩니다.
    고급 구성

    모드(NSX 4.0.0.1만 해당)

    다음 모드 옵션 중에서 선택:
    • 표준: NSX에서 지원하는 모든 하이퍼바이저에서 사용할 수 있는 표준 모드입니다.
    • ENS 중단: 고급 데이터 경로 모드의 변형입니다.
    • 고급 데이터 경로: 가속화된 네트워킹 성능을 제공하는 모드입니다. 이 모드에서는 노드에 VMXNET3 vNIC 지원 네트워크 카드를 사용해야 합니다. NSX Edge 노드 및 공용 게이트웨이에서는 지원되지 않습니다. 지원되는 하이퍼바이저는 ESXi입니다. ESXi v6.7 U2 이상 버전을 실행하는 것이 좋습니다.

    모드(NSX 4.0.1.1부터)

    다음 모드 옵션 중에서 선택:
    • 표준: 이 모드는 모든 전송 노드에 적용됩니다. 전송 노드의 데이터부는 업링크 기능에 따라 호스트 스위치 모드를 자동으로 선택합니다.
    • 고급 데이터 경로 - 표준: 이 모드는 고급 데이터 경로 모드의 변형입니다. ESXi 하이퍼바이저 7.0 이상 버전에서만 사용할 수 있습니다. 해당되는 경우 계정 담당자에게 문의하십시오.
    • 고급 데이터 경로 - 성능: ESXi 호스트 전송 노드에 대한 고급 데이터 경로 스위치 모드입니다. 이 모드는 가속화된 네트워킹 성능을 제공합니다. 이 모드에서는 노드에 VMXNET3 vNIC 지원 네트워크 카드를 사용해야 합니다. NSX Edge 노드 및 공용 게이트웨이에서는 지원되지 않습니다. 지원되는 하이퍼바이저는 ESXi입니다. ESXi v6.7 U2 이상 버전을 실행하는 것이 좋습니다.
    • 레거시: 이 모드를 이전에는 표준 모드라고 했습니다. [레거시] 필드는 NSX Manager UI에서 읽기 전용이므로 API를 통해서만 이 모드를 선택할 수 있습니다. 모든 전송 노드에 적용됩니다. 호스트 스위치 모드가 [레거시]로 설정되면 패킷 처리기 스택이 사용하도록 설정됩니다. NSX Manager UI에서 이 모드가 [표준]으로 설정되고 [레거시] 필드가 '예'로 표시됩니다.
      다음 호스트 전송 노드 또는 전송 노드 프로파일 정책 API를 실행하여 호스트 스위치 모드를 [레거시]로 설정할 수 있습니다.
      • 호스트 전송 노드 생성 또는 업데이트:
        PUT https://<NSX-Manager-IP-ADDRESS>/POST/policy/api/v1/infra/sites/<site-id>/enforcement-points/<enforcementpoint-id>/host-transport-nodes/<host-transport-node-id>
      • 정책 호스트 전송 노드 프로파일 생성 또는 업데이트:
        PUT https://<NSX-Manager-IP-ADDRESS>/POST/policy/api/v1/infra/host-transport-node-profiles/<transport-node-profile-id>
    CPU 구성
    CPU 구성 필드는 모드가 고급 데이터 경로로 설정된 경우에만 구성할 수 있습니다.
    1. 설정을 클릭합니다.
    2. [CPU 구성] 창에서 추가를 클릭합니다.
    3. NUMA 노드 인덱스NUMA 노드별 Lcore 수 필드에 값을 입력합니다.
    4. 값을 저장하려면 추가저장을 클릭합니다.
    팀 구성 정책 업링크 매핑

    NSX의 업링크 프로파일을 VDS의 업링크와 매핑하기 전에 업링크가 VDS 스위치에 구성되어 있는지 확인합니다. VDS 스위치 업링크를 구성하거나 보려면 VMware vCentervSphere Distributed Switch로 이동합니다. 작업 → 설정 → 설정 편집을 클릭합니다.

    선택한 NSX 업링크 프로파일에 정의된 업링크를 VDS 업링크에 매핑합니다. 매핑에 제공되는 NSX 업링크 수는 업링크 프로파일 구성에 따라 다릅니다.

    예를 들어, upink-1(활성) 행에서 물리적 NIC 열로 이동하고 편집 아이콘을 클릭한 후 VDS 업링크의 이름을 입력하여 uplink-1(활성)으로의 매핑을 완료합니다. 마찬가지로 다른 업링크에 대한 매핑을 완료합니다.

    참고: 업링크/LAG, NIOC 프로파일, LLDP 프로파일은 VMware vCenter에 정의되어 있습니다. 이러한 구성은 NSX Manager에서 사용할 수 없습니다. VDS 스위치에서 VMkernel 어댑터를 관리하려면 VMware vCenter로 이동하여 VMkernel 어댑터를 분산 가상 포트 그룹 또는 NSX 포트 그룹에 연결합니다.
  10. 여러 전송 영역을 선택한 경우 동일한 스위치에 추가할 수 있습니다. 새 스위치를 추가하려면 스위치 추가를 다시 클릭하여 다른 전송 영역에 대한 새 스위치를 구성합니다.
    NSX 스위치는 단일 오버레이 전송 영역과 다중 PE VLAN 전송 영역에 동시에 연결할 수 있습니다.

  11. 추가를 클릭하여 구성을 완료합니다.
  12. (선택 사항) ESXi 연결 상태를 확인합니다.
    # esxcli network ip connection list | grep 1235
    tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-proxy
    
  13. 기타 노드 탭에서 클러스터에 있는 호스트의 NSX Manager 연결 상태가 [실행 중]이고 NSX 구성 상태가 [성공]인지 확인합니다. 구성 프로세스 동안 각 전송 노드에는 설치 프로세스의 진행률 백분율이 표시됩니다. 설치가 임의 단계에서 실패하는 경우 프로세스의 실패한 단계에서 사용할 수 있는 해결 링크를 클릭하여 프로세스를 다시 시작할 수 있습니다.
    전송 영역이 클러스터의 호스트에 적용되어 있는 것을 볼 수도 있습니다.
    참고: 전송 노드 프로파일에서 이미 준비한 클러스터의 일부인 호스트를 다시 구성하는 경우 노드의 구성 상태는 구성 불일치 상태가 됩니다.
    참고: 기타 노드 탭에는 IP 주소 외에도 호스트의 TEP 주소가 표시됩니다. TEP 주소는 호스트의 VMkernel NIC에 할당된 주소이지만 IP 주소는 관리 IP 주소입니다.
  14. (선택 사항) 호스트에서 NSX VIB를 제거합니다.
    1. 하나 이상의 호스트를 선택하고 작업 > NSX 제거를 클릭합니다.
    제거에는 최대 3분이 소요됩니다. NSX를 제거하면 호스트의 전송 노드 구성이 제거되고 호스트가 전송 영역 및 스위치에서 분리됩니다. 설치 프로세스와 유사하게 각 전송 노드에서 완료된 제거 프로세스의 백분율을 따를 수 있습니다. 제거가 임의 단계에서 실패하는 경우 프로세스의 실패한 단계에서 사용할 수 있는 해결 링크를 클릭하여 프로세스를 다시 시작할 수 있습니다.
  15. (선택 사항) 전송 영역에서 전송 노드를 제거합니다.
    1. 단일 전송 노드를 선택하고 작업 > 전송 영역에서 제거를 클릭합니다.

다음에 수행할 작업

호스트가 전송 노드인 경우 언제든지 NSX Manager UI 또는 API를 통해 전송 영역, 논리적 스위치, 논리적 라우터 및 기타 네트워크 구성 요소를 생성할 수 있습니다. NSX Edge 노드 및 호스트가 관리부에 연결되면 NSX 논리적 엔티티 및 구성 상태가 NSX Edge 노드 및 호스트로 자동으로 푸시됩니다. 언제든지 NSX Manager UI 또는 API를 통해 전송 영역, 논리적 스위치, 논리적 라우터 및 기타 네트워크 구성 요소를 생성할 수 있습니다. 호스트가 전송 노드인 경우 이러한 엔티티가 호스트에서 실현됩니다.

논리적 스위치를 생성하고 논리적 포트를 할당합니다. "NSX 관리 가이드" 에서 고급 스위칭 섹션을 참조하십시오.