다음 절차에서는 NSX Manager UI를 사용하여 VM NSX Edge 및 베어메탈 NSX Edge 전송 노드가 모두 있는 NSX Edge 클러스터에서 NSX Edge 전송 노드를 교체하는 방법을 설명합니다. VM NSX Edge를 베어메탈 NSX Edge로 교체하거나 그 밖의 방법으로 교체할 수 있습니다. Edge 전송 노드는 실행 중인지 여부에 관계없이 교체할 수 있습니다.

사전 요구 사항

  • NSX Edge 노드를 설치하고, Edge 노드를 관리부에 가입시키고, NSX Edge 전송 노드를 생성하는 절차를 숙지하십시오. 자세한 내용은 "NSX 설치 가이드" 항목를 참조하십시오.
  • VM NSX Edge 및 베어메탈 NSX Edge 전송 노드 둘 다 물리적 TOR(Top of Rack) 스위치와 동일한 VLAN 연결이 있어야 합니다.

프로시저

  1. NSX Edge 전송 노드에 교체할 NSX Edge 전송 노드와 동일한 구성이 포함되도록 하려면 다음 API 호출을 수행하여 구성을 찾습니다.

    GET https://<nsx-manager-IP>/api/v1/transport-nodes/<tn-id>

    An example output of a Bare Metal NSX Edge transport node.
    {
      "node_id": "cd15d368-569b-11ed-8143-b07b25e93f64",
      "host_switch_spec": {
      "host_switches": [
       {
       "host_switch_name": "nsxHostSwitch",
       "host_switch_id": "809299a2-c090-4543-8747-d200e12cd2ea",
       "host_switch_type": "NVDS",
       "host_switch_mode": "STANDARD",
       "host_switch_profile_ids": [
       {
       "key": "UplinkHostSwitchProfile",
       "value": "57da58fa-bce6-448b-8db3-874ceff59656"
       },
       {
       "key": "LldpHostSwitchProfile",
       "value": "9e0b4d2d-d155-4b4b-8947-fbfe5b79f7cb"
       }
       ],
      "pnics": [
       {
       "device_name": "fp-eth1",
       "uplink_name": "lag-0"
       },
       {
       "device_name": "fp-eth3",
       "uplink_name": "lag-1"
       },
       {
       "device_name": "fp-eth5",
       "uplink_name": "lag-2"
       },
       {
       "device_name": "fp-eth7",
       "uplink_name": "lag-3"
       },
       {
       "device_name": "fp-eth0",
       "uplink_name": "Uplink3"
       },
       {
       "device_name": "fp-eth2",
       "uplink_name": "Uplink4"
       },
       {
       "device_name": "fp-eth4",
       "uplink_name": "Uplink5"
       },
       {
       "device_name": "fp-eth6",
       "uplink_name": "Uplink6"
        }
        ],
        "is_migrate_pnics": false,
        "ip_assignment_spec": {
        "ip_pool_id": "82f8ae96-992b-45c6-8376-777b82bfeb1d",
        "resource_type": "StaticIpPoolSpec"
        },
        "cpu_config": [],
        "transport_zone_endpoints": [
         {
        "transport_zone_id": "15897bda-802f-4481-b9fd-4e5cc1ef084b",
         "transport_zone_profile_ids": [
        {
        "resource_type": "BfdHealthMonitoringProfile",
        "profile_id": "52035bb3-ab02-4a08-9884-18631312e50a"
         }
         ]
         },
         {
         "transport_zone_id": "4a237a28-050e-4499-a241-0eb0c9dad97f",
         "transport_zone_profile_ids": [
         {
         "resource_type": "BfdHealthMonitoringProfile",
        "profile_id": "52035bb3-ab02-4a08-9884-18631312e50a"
         }
          ]
          }
        ],
        "pnics_uninstall_migration": [],
        "vmk_uninstall_migration": [],
        "not_ready": false
        }
        ],
        "resource_type": "StandardHostSwitchSpec"
        },
        "maintenance_mode": "DISABLED",
        "node_deployment_info": {
        "deployment_type": "PHYSICAL_MACHINE",
        "node_settings": {
        "hostname": "w1-hs2-m2716.eng.vmware.com",
        "enable_ssh": true,
        "allow_ssh_root_login": false,
        "enable_upt_mode": false
            },
            "resource_type": "EdgeNode",
            "external_id": "cd15d368-569b-11ed-8143-b07b25e93f64",
            "ip_addresses": [
                "10.196.145.177"
            ],
            "id": "cd15d368-569b-11ed-8143-b07b25e93f64",
            "display_name": "w1-hs2-m2716.eng.vmware.com",
            "tags": [],
            "_revision": 1
        },
        "is_overridden": false,
        "failure_domain_id": "4fc1e3b0-1cd4-4339-86c8-f76baddbaafb",
        "resource_type": "TransportNode",
        "id": "cd15d368-569b-11ed-8143-b07b25e93f64",
        "display_name": "w1-hs2-m2716.eng.vmware.com",
        "tags": [],
        "_create_time": 1666946274614,
        "_create_user": "admin",
        "_last_modified_time": 1666946708328,
        "_last_modified_user": "admin",
        "_system_owned": false,
        "_protection": "NOT_PROTECTED",
        "_revision": 1
    }
  2. "NSX 설치 가이드" 에서 "NSX Edge 전송 노드 생성" 항목의 절차를 따르십시오.

    NSX Edge 전송 노드에 교체할 NSX Edge 전송 노드와 동일한 구성이 포함되도록 하려면 1단계에서 가져온 구성을 사용합니다. 예를 들어 1단계의 API 출력에서 호스트 스위치 규격, 노드 배포 세부 정보를 기록하고 동일한 구성을 사용하여 새 NSX Edge 전송 노드를 구성할 수 있습니다.

  3. NSX Manager에서 시스템 > 패브릭 > 노드 > Edge 클러스터를 선택합니다.
  4. 첫 번째 열의 확인란을 클릭하여 NSX Edge 클러스터를 선택합니다.
  5. Tier-0이 호스팅되는 NSX Edge 노드에 대해 SSH를 수행합니다.
  6. get logical router를 실행합니다. NSX Edge 클러스터의 모든 NSX Edge 노드에서 Tier-0 SR(서비스 라우터)에 대한 VRF ID를 확인합니다.
  7. Tier-0 SR의 VRF ID가 1인 경우 vrf 1을 실행합니다.
  8. 서비스 라우터의 출력을 확인하려면 get high-availability status를 실행합니다.
  9. 대기 모드에서 Tier-0 SR이 있는 NSX Edge 노드 중 하나에서 유지 보수 모드를 사용하도록 설정합니다. Edge CLI 콘솔에서 set maintenance-mode enabled를 실행합니다.
    NSX Edge 노드의 Tier-1 SR이 활성 상태일 수 있습니다. NSX Edge 노드를 유지 보수 모드로 전환할 경우 HA 페일오버가 트리거되고 이 NSX Edge 노드의 모든 Tier-1 또는 Tier-0 SR이 이 NSX Edge 노드에서 대기 상태로 전환됩니다. 이로 인해 Tier-1 또는 Tier-0 SR의 페일오버로 인해 이 NSX Edge 노드의 활성 SR에 대한 트래픽 중단이 발생할 수 있습니다.
  10. 베어메탈 NSX Edge 전송 노드가 다른 클러스터의 일부가 아닌지 확인합니다.
  11. 작업 > Edge 클러스터 멤버 교체를 클릭합니다.
    교체할 전송 노드를 유지 보수 모드로 전환하는 것이 좋습니다. 전송 노드가 실행되고 있지 않은 경우 이 권장 사항을 무시해도 됩니다.
  12. 드롭다운 목록에서 교체할 VM NSX Edge 전송 노드를 선택합니다.
  13. 드롭다운 목록에서 베어메탈 NSX Edge 전송 노드 교체 노드를 선택합니다.
  14. 저장을 클릭합니다.
  15. 베어메탈 NSX Edge 전송 노드가 기존 Edge VM 클러스터로 이동되었는지 확인합니다.
  16. Tier-0 및 Tier-1 게이트웨이가 NSX Edge VM(유지 보수 모드)에서 베어메탈 NSX Edge 전송 노드로 이동했는지 확인하려면 get logical router를 실행합니다.
  17. 이전 단계를 반복하여 베어메탈 NSX Edge 전송 노드가 있는 다른 VM NSX Edge를 이동합니다.
  18. Tier-1 또는 Tier-0 LR에 연결된 워크로드에서 E-W 및 N-S 연결을 확인합니다.

결과

3.1.3 이전 버전의 NSX 버전을 실행 중인 경우 NSX Edge 전송 노드를 교체하면 모든 BGP/BFD 세션이 종료됨이라는 경보가 표시될 수 있습니다. 이 문제를 해결하려면 KB 문서 https://kb.vmware.com/s/article/83983의 해결 방법 지침을 따르십시오.

다음에 수행할 작업

NSX Edge VM을 베어메탈 NSX Edge 노드로 교체하면 NSX Edge 노드 간에 Tier-1 게이트웨이가 자동으로 재조정되지 않습니다. 각 Tier-1 게이트웨이를 수동으로 재구성해야 합니다.