This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

VMware NSX Container Plugin 4.0.1 | 2022년 11월 8일 | 빌드 20665035

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

새로운 기능

  • 이제 TKGI 클러스터에 대해 관리자-정책 마이그레이션이 지원됩니다. NCP 4.0.1을 번들로 제공하는 첫 번째 TKGI 릴리스에서 사용할 수 있습니다. 이 기능을 사용하려면 NSX 4.0.1 이상이 필요합니다.

중단 알림

"ncp/ingress_controller" 주석을 사용하여 NAT를 통해 수신 컨트롤러 포드에 대한 액세스를 허용하는 기능은 더 이상 사용할 수 없으며 2023년에 제거됩니다. 수신 컨트롤러 포드를 노출하는 권장 방법은 로드 밸런서 유형의 서비스를 사용하는 것입니다.

호환성 요구 사항

제품

버전

TAS(Tanzu Application Service)에 대한 NCP/NSX-T 타일

4.0.1

NSX-T/NSX

NSX-T 3.2.1, 3.2.2, 3.2.3. NSX 4.0.0.1, 4.0.1.1. (아래의 참고를 참조하십시오.)

vSphere

6.7, 7.0

8.0.0.1(NSX 4.0.1만 해당)

Kubernetes

1.23, 1.24, 1.25

OpenShift 4

4.8, 4.9, 4.10

Kubernetes 호스트 VM OS

Ubuntu 18.04, 20.04

RHEL: 8.4, 8.5, 8.6

아래의 참고를 참조하십시오.

Tanzu Application Service

Ops Manager 2.10 + TAS 2.11(LTS)

Ops Manager 2.10 + TAS 2.13

Ops Manager 2.10 + TAS 3.0

TKGI(Tanzu Kubernetes Grid Integrated)

1.15

참고:

NSX-T 3.2.3은 기본 온전성 테스트 적용 범위에서 지원됩니다. 제품 상호 운용성 매트릭스를 참조하십시오.

RHEL에 nsx-ovs 커널 모듈을 설치하려면 특정 커널 버전이 필요합니다. 지원되는 RHEL 커널 버전은 RHEL 버전에 관계없이 193, 305, 348 및 372입니다. 기본 커널 버전은 RHEL 8.2의 경우 193, RHEL 8.4의 경우 305, RHEL 8.5의 경우 348, RHEL, RHEL 8.6의 경우 372입니다. 다른 커널 버전을 실행 중인 경우 (1) 커널 버전을 지원되는 커널 버전으로 수정할 수 있습니다. 커널 버전을 수정한 다음, VM을 다시 시작할 때는 Kubernetes API 서버에 대한 연결이 끊어지지 않도록 IP 및 고정 경로가 업링크 인터페이스(ovs_uplink_port로 지정)에 유지되어야 합니다. 또는 (2) nsx-node-agent 구성 맵의 "nsx_node_agent" 섹션에서 “use_nsx_ovs_kernel_module”을 "False"로 설정하여 nsx-ovs 커널 모듈의 설치를 건너뜁니다. NSX-OVS와 업스트림 OVS 커널 모듈 간 전환에 대한 자세한 내용은 https://docs.vmware.com/ko/VMware-NSX-Container-Plugin/4.0/ncp-kubernetes/GUID-7225DDCB-88CB-4A2D-83A3-74BB9ED7DCFF.html을 참조하십시오.

RHEL에서 nsx-ovs 커널 모듈을 실행하려면 vCenter Server의 VM 설정에 있는 "부팅 옵션"에서 "UEFI 보안 부팅" 옵션을 사용하지 않도록 설정해야 합니다.

지원되는 모든 통합에 대해 Red Hat UBI(범용 기본 이미지)를 사용할 수 있습니다. 자세한 내용은 https://www.redhat.com/ko/blog/introducing-red-hat-universal-base-image를 참조하십시오.

이 릴리스로의 업그레이드 지원:

  • 모든 이전 3.2.x 릴리스

제한 사항

  • NCP의 "기준선 정책" 기능은 클러스터의 모든 멤버를 선택하는 동적 그룹을 생성합니다. NSX-T에는 동적 그룹의 유효 멤버가 8,000개로 제한됩니다(자세한 내용은 구성 최대값 참조). 따라서 포드가 8,000개 이상으로 증가할 것으로 예상되는 클러스터에 대해서는 이 기능을 사용하도록 설정하지 않아야 합니다. 이 제한을 초과하면 포드에 대한 리소스 생성이 지연될 수 있습니다.

  • 투명 모드 로드 밸런서

    • Kubernetes 클러스터에 대한 북-남 트래픽만 지원됩니다. 클러스터 내 트래픽은 지원되지 않습니다.

    • LoadBalancer CRD에 연결된 서비스 또는 자동 크기 조정을 사용하도록 설정된 경우 지원되지 않습니다. 이 기능이 작동하려면 자동 크기 조정을 사용하지 않도록 설정해야 합니다.

    • 이 기능은 새로 배포된 클러스터에서만 사용하는 것이 좋습니다.

  • 관리자에서 정책으로 마이그레이션

    • 이전 마이그레이션이 실패하고 클러스터가 롤백된 경우 Kubernetes 클러스터를 마이그레이션할 수 없습니다. 이것은 NSX 4.0.0.1 이하 릴리스에만 적용되는 제한 사항입니다.

알려진 문제

  • 문제 3239352: TAS 환경에서 작업을 할당할 수 없는 경우 재시도가 작동하지 않을 수 있음

    NCP TAS 환경에서 작업을 할당할 수 없는 경우 경매인은 작업을 거부하고 BBS는 설정 task.max_retries에서 지정된 횟수까지 작업의 배치를 재시도합니다. task.max_retries에 도달하면 BBS는 작업을 [보류 중] 상태에서 [완료됨] 상태로 업데이트하여 [실패]로 표시하고 클러스터에 작업에 대한 용량이 없음을 설명하는 FailureReason을 포함합니다.

    재시도하는 동안 task_changed 이벤트와 함께 NCP에 알리는 새 셀로 작업을 스케줄링할 수 있습니다. NCP는 task_changed 이벤트를 처리하지 않으므로 작업에서 새 셀에 있는 새 포트를 할당할 수 없습니다. 작업이 제대로 실행될 수 없습니다.

    해결 방법: 재시도를 사용하지 않도록 설정하고 task.max_retries 값을 0으로 설정합니다.

  • 문제 3049209: 관리자-정책 마이그레이션 후 클러스터를 삭제해도 mp_default_LR_xxx_user_rules 리소스가 삭제되지 않음

    관리자-정책 마이그레이션을 수행한 후 클러스터를 삭제하면 이름이 mp_default_LR_xxxx_user_rules인 일부 "GatewayPolicy" 리소스가 삭제되지 않을 수 있습니다.

    해결 방법: 리소스를 수동으로 삭제합니다.

  • 문제 3043496: 관리자-정책 마이그레이션이 실패하면 NCP가 실행을 중지함

    NCP는 NCP 및 TKGI에서 사용하는 NSX 리소스를 마이그레이션하기 위한 migrate-mp2p 작업을 제공합니다. 마이그레이션이 실패하면 마이그레이션된 모든 리소스가 롤백되지만 관리자 모드에서 NCP가 다시 시작되지 않습니다.

    해결 방법:

    1. 모든 리소스가 롤백되었는지 확인합니다. 이 작업은 migrate-mp2p 작업의 로그를 확인하여 수행할 수 있습니다. 로그는 "정책으로 가져온 모든 MP 리소스가 완전히 롤백되었습니다." 줄로 끝나야 합니다.

    2. 모든 리소스가 롤백된 경우 각 마스터 노드에 대해 ssh를 실행하고 "sudo /var/vcap/bosh/bin/monit start ncp" 명령을 실행합니다.

  • 문제 3055618: 노드에서 여러 Windows 포드를 동시에 생성할 때 일부 포드에 네트워크 어댑터가 없음

    yaml 파일을 적용하여 동일한 노드에 여러 Windows 포드를 생성할 때 일부 포드에 네트워크 어댑터가 없습니다.

    해결 방법: 포드를 다시 시작합니다.

  • 문제 2131494: 수신 클래스를 nginx에서 nsx로 변경한 후에도 NGINX Kubernetes 수신이 계속 작동함

    NGINX Kubernetes 수신을 생성할 때 NGINX에서 트래픽 전달 규칙이 생성됩니다. 수신 클래스를 다른 값으로 변경하면 클래스를 변경한 후에 Kubernetes 수신을 삭제하더라도 NGINX에서 규칙이 삭제되지 않고 계속 적용됩니다. 이 문제는 NGINX의 제한 사항입니다.

    해결 방법: NGINX에서 생성된 규칙을 삭제하려면 클래스 값이 nginx일 때 Kubernetes 수신을 삭제합니다. 그런 다음 Kubernetes 수신을 다시 생성합니다.

  • 문제 2999131: 포드에서 ClusterIP 서비스에 연결할 수 없음

    대규모 TKGi 환경에서는 포드에서 ClusterIP 서비스에 연결할 수 없습니다. 기타 관련 문제는 다음과 같습니다. (1) nsx-kube-proxy가 nsx-kube-proxy의 로그 출력을 중지합니다. (2) OVS 흐름이 노드에 생성되지 않습니다.

    해결 방법: nsx-kube-proxy를 다시 시작합니다.

  • 문제 2984240: matchExpressions의 "NotIn" 연산자가 네트워크 정책 규칙의 namespaceSelector에서 작동하지 않음

    네트워크 정책에 대한 규칙을 지정할 때 namespaceSelector, matchExpressions 및 "NotIn" 연산자를 지정하면 규칙이 작동하지 않습니다. NCP 로그에 "NS 선택기에서 NotIn 연산자가 지원되지 않습니다."라는 오류 메시지가 표시됩니다.

    해결 방법: matchExpressions를 다시 작성하여 "NotIn" 연산자를 사용하지 않도록 합니다.

  • 문제 2997828: 수신에 255개가 넘는 규칙이 있는 경우 관리자 모드에서 정책 모드로의 클러스터 마이그레이션이 실패함

    정책 모드에서 NSX 로드 밸런서는 최대 255개 규칙을 지원할 수 있습니다. 클러스터에 255개가 넘는 규칙이 있는 수신 리소스가 있는 경우 클러스터를 관리자 모드에서 정책 모드로 마이그레이션하지 못합니다.

    해결 방법: LoadBalancer CRD를 생성하여 여러 NSX 로드 밸런서에 규칙을 분산합니다.

  • 문제 3033821: 관리자-정책 마이그레이션 후 분산 방화벽 규칙이 올바르게 적용되지 않음

    관리자-정책 마이그레이션 후 새로 생성된 네트워크 정책 관련 DFW(분산 방화벽) 규칙이 마이그레이션된 DFW 규칙보다 우선 순위가 높습니다.

    해결 방법: 정책 API를 사용하여 필요에 따라 DFW 규칙의 순서를 변경합니다.

  • ClusterIP 유형의 Kubernetes 서비스에 대해 hairpin-mode 플래그가 지원되지 않음

    NCP는 ClusterIP 유형의 Kubernetes 서비스에 대해 hairpin-mode 플래그를 지원하지 않습니다.

    해결 방법: 없음

  • 문제 2224218: 서비스 또는 애플리케이션을 삭제했을 때 SNAT IP가 다시 IP 풀로 릴리스되는 데 2분이 걸림

    서비스 또는 애플리케이션을 삭제하고 2분 내에 다시 생성하면 IP 풀에서 새로운 SNAT IP를 받게 됩니다.

    해결 방법: 동일한 IP를 다시 사용하려면 서비스 또는 애플리케이션을 삭제하고 다시 생성하기 전에 2분을 기다립니다.

  • 문제 2404302: NSX-T에 동일한 리소스 유형(예: HTTP)의 로드 밸런서 애플리케이션 프로파일이 여러 개 있는 경우 NCP가 이 중 하나를 선택해서 가상 서버에 연결함

    NSX-T에 여러 HTTP 로드 밸런서 애플리케이션 프로파일이 있는 경우 NCP는 적절한 x_forwarded_for 구성의 프로파일을 하나 선택해서 HTTP 및 HTTPS 가상 서버에 연결합니다. NSX-T에 여러 FastTCP 및 UDP 애플리케이션 프로파일이 있는 경우 NCP는 이 중 하나를 선택해서 TCP 및 UDP 가상 서버에 각각 연결합니다. 로드 밸런서 애플리케이션 프로파일이 다른 설정이 적용된 다른 애플리케이션에서 생성되었을 수 있습니다. NCP가 로드 밸런서 애플리케이션 프로파일 중 하나를 NCP 생성 가상 서버에 연결하도록 선택하면 다른 애플리케이션 워크플로가 손상될 수 있습니다.

    해결 방법: 없음

  • 문제 2518111: NCP가 NSX-T에서 업데이트된 NSX-T 리소스를 삭제하지 못함

    NCP는 지정한 구성에 따라 NSX-T 리소스를 생성합니다. NSX Manager 또는 NSX-T API를 통해 해당 NSX-T 리소스를 업데이트하는 경우 NCP가 해당 리소스를 삭제했다가 필요할 때 다시 생성하지 못할 수 있습니다.

    해결 방법: NCP가 NSX Manager 또는 NSX-T API를 통해 생성한 NSX-T 리소스를 업데이트하지 마십시오.

  • 문제 2416376: NCP에서 128개가 넘는 공백에 바인딩되는 TAS ASG(애플리케이션 보안 그룹)를 처리하지 못함

    NSX-T 분산 방화벽 제한 때문에 NCP는 128개가 넘는 공백에 바인딩되는 TAS ASG를 처리할 수 없습니다.

    해결 방법: 여러 개의 ASG를 생성하고 각각에 128개 이상의 공백이 포함되지 않도록 바인딩합니다.

  • 문제 2537221: NSX-T를 3.0으로 업그레이드한 후 NSX Manager UI의 컨테이너 관련 개체에 대한 네트워킹 상태가 알 수 없음으로 표시됨

    NSX Manager UI에서 탭 [인벤토리] > [컨테이너]에는 컨테이너 관련 개체와 해당 상태가 표시됩니다. TKGI 환경에서 NSX-T를 3.0으로 업그레이드한 후 컨테이너 관련 개체의 네트워킹 상태가 [알 수 없음]으로 표시됩니다. 이 문제는 TKGI가 NSX-T의 버전 변경을 감지하지 못하기 때문에 발생합니다. NCP가 포드로 실행 중이고 작동 여부 프로브가 활성 상태인 경우에는 이 문제가 발생하지 않습니다.

    해결 방법: NSX-T 업그레이드한 후에는 NSX Manager를 오버로드하지 않도록 NCP 인스턴스를 점진적으로(동시에 10개 이하) 다시 시작합니다.

  • 문제 2552564: OpenShift 4.3 환경에서 겹치는 주소를 찾았으면 DNS 전달자가 작동을 중지할 수 있음

    OpenShift 4.3 환경에서 클러스터를 설치하려면 DNS 서버를 구성해야 합니다. NSX-T를 사용하여 DNS 전달자를 구성하고 IP 주소가 DNS 서비스와 겹치면 DNS 전달자의 작동이 중지되고 클러스터 설치가 실패합니다.

    해결 방법: 외부 DNS 서비스를 구성하고, 설치하지 못한 클러스터를 삭제한 후 클러스터를 다시 생성합니다.

  • 문제 2597423: 관리자 개체를 정책으로 가져올 때 롤백으로 인해 일부 리소스의 태그가 손실되었습니다.

    관리자 개체를 정책으로 가져올 때 롤백이 필요한 경우 다음 개체의 태그가 복원되지 않습니다.

    • Spoofguard 프로필(공유 및 클러스터 리소스의 일부)

    • BgpneighbourConfig(공유 리소스의 일부)

    • BgpRoutingConfig(공유 리소스의 일부)

    • StaticRoute BfdPeer(공유 리소스의 일부)

    해결 방법: 공유 리소스의 일부인 리소스에서는 태그를 수동으로 복원합니다. 백업 및 복원 기능을 사용하여 클러스터 리소스의 일부인 리소스를 복원합니다.

  • 문제 2579968: LoadBalancer 유형의 Kubernetes 서비스를 자주 변경하면 일부 가상 서버와 서버 풀이 예상대로 삭제되지 않습니다.

    LoadBalancer 유형의 Kubernetes 서비스를 자주 변경하면 일부 가상 서버와 서버 풀이 삭제되어야 하는데도 NSX-T 환경에 남아 있을 수 있습니다.

    해결 방법: NCP를 다시 시작합니다. 또는 오래된 가상 서버와 관련 리소스를 수동으로 제거합니다. LoadBalancer 유형의 Kubernetes 서비스에 있는 external_id 태그에 가상 서버의 식별자가 없는 경우 가상 서버가 오래된 것입니다.

  • Kubernetes 설치 중에 "파일에 로깅"을 사용하도록 설정하면 NCP가 시작되지 않습니다.

    이 문제는 컨테이너 호스트의 uid:gid=1000:1000에 로그 폴더에 대한 사용 권한이 없는 경우에 발생합니다.

    해결 방법: 다음 중 하나를 수행합니다.

    • 컨테이너 호스트에서 로그 폴더의 모드를 777로 변경합니다.

    • 컨테이너 호스트에서 로그 폴더의 "rwx" 사용 권한을 uid:gid=1000:1000에 부여합니다.

    • "파일에 로깅" 기능을 사용하지 않도록 설정합니다.

  • 문제 2653214: 노드의 IP 주소가 변경된 후에 노드에서 세그먼트 포트를 검색하는 동안 오류가 발생했습니다.

    노드의 IP 주소를 변경한 후 NCP를 업그레이드하거나 NCP Operator 포드를 다시 시작하는 경우 "oc describe co nsx-ncp" 명령을 사용하여 NCP Operator 상태를 확인하면 "노드에서 세그먼트 포트를 검색하는 동안 오류가 발생했습니다."라는 오류 메시지가 표시됩니다.

    해결 방법: 없음. DHCP 구성도 있는 노드 인터페이스에 고정 IP 주소를 추가하는 것은 지원되지 않습니다.

  • 문제 2672677: 고도로 과부하된 OpenShift 4 환경에서 노드가 응답하지 않을 수 있음

    노드당 포드 밀도가 높으며 포드 삭제 및 생성 빈도가 높은 OpenShift 4 환경에서 RHCOS 노드가 "준비되지 않음" 상태로 전환될 수 있습니다. daemonset 멤버를 제외하고 영향을 받는 노드에서 실행되는 포드는 해당 환경의 다른 노드에서 제거된 후 다시 생성됩니다.

    해결 방법: 영향을 받는 노드를 재부팅합니다.

  • 문제 2707174: 삭제한 후 동일한 네임스페이스 및 이름으로 다시 생성한 포트에 네트워크 연결이 없음

    NCP가 실행되고 있지 않고 nsx-ncp-agent가 실행 중일 때 포드를 삭제한 후 동일한 네임스페이스 및 이름으로 다시 생성하면 포드에는 잘못된 네트워크 구성이 지정될 수 있으며 네트워크에 액세스할 수 없습니다.

    해결 방법: NCP가 실행 중일 때 포드를 삭제한 후 다시 생성하십시오.

  • 문제 2745904: "기본 실행 ASG에 IPSet 사용" 기능은 기존 컨테이너 IP 블록의 제거 또는 교체를 지원하지 않습니다.

    NCP 타일에서 "기본 실행 ASG에 IPSet 사용"을 사용하도록 설정하면 NCP는 동일한 NCP 타일에서 "컨테이너 네트워크의 IP 블록"으로 구성된 모든 컨테이너 IP 블록에 대해 전용 NSGroup을 생성합니다. 이 NSGroup은 모든 컨테이너에 대한 트래픽을 허용하기 위해 글로벌 실행 ASG에 대해 생성된 방화벽 규칙에 사용됩니다. 나중에 기존 컨테이너 IP 블록을 제거하거나 교체하면 NSGroup에서 제거되거나 교체됩니다. 원래 IP 블록의 모든 기존 컨테이너가 실행 중인 글로벌 ASG와 더 이상 연결되지 않습니다. 해당 트래픽이 더 이상 작동하지 않을 수 있습니다.

    해결 방법: 새 IP 블록만 "컨테이너 네트워크의 IP 블록"에 추가합니다.

  • 문제 2745907: "monit" 명령이 nsx-node-agent에 대한 잘못된 상태 정보를 반환합니다.

    diego_cell VM에서 monit가 nsx-node-agent를 다시 시작할 때 nsx-node-agent가 완전히 시작되는 데 30초가 넘게 걸리는 경우 monit는 nsx-node-agent의 상태를 "실행 실패"로 표시하고 nsx-node-agent가 나중에 완전히 작동할 때도 해당 상태를 "실행 중"으로 업데이트하지 않습니다.

    해결 방법: 없음.

  • 문제 2735244: 작동 여부 프로브 오류로 인한 nsx-node-agent 및 nsx-kube-proxy 충돌

    nsx-node-agent 및 nsx-kube-proxy는 sudo를 사용하여 일부 명령을 실행합니다. /etc/resolv.conf에 DNS 서버 및 검색 도메인에 대한 항목이 많은 경우 sudo가 호스트 이름을 확인하는 데 시간이 오래 걸릴 수 있습니다. 이로 인해 nsx-node-agent 및 nsx-kube-proxy가 sudo 명령에 의해 장시간 차단되어 작동 프로브가 실패합니다.

    해결 방법: 다음 두 작업 중 하나를 수행합니다.

    • /etc/hosts에 호스트 이름 항목을 추가합니다. 예를 들어 호스트 이름이 'host1'이면 '127.0.0.1 host1' 항목을 추가합니다.

    • nsx-node-agent 작동 프로브 시간제한에 대해 더 큰 값을 설정합니다. 'kubectl edit ds nsx-node-agent -nsx-system’ 명령을 실행하여 nsx-node-agent 및 nsx-kube-proxy 컨테이너 둘 다에 대한 시간제한 값을 업데이트합니다.

  • 문제 2736412: max_allowed_virtual_servers 매개 변수가 설정되어 있으면 members_per_small_lbs는 무시됩니다.

    max_allowed_virtual_servers 및 members_per_small_lbs가 둘 다 설정된 경우 max_allowed_virtual_servers만 고려되므로 가상 서버는 사용 가능한 로드 밸런서에 연결하지 못할 수 있습니다.

    해결 방법: 자동 크기 조정을 사용하도록 설정하는 대신 확장 제약 조건을 완화합니다.

  • 문제 2740552: api-server를 사용하여 고정 포드를 삭제하는 경우 nsx-node-agent가 포드의 OVS 브리지 포트를 제거하지 않으며 Kubernetes에서 자동으로 다시 생성된 고정 포드의 네트워크를 사용할 수 없습니다.

    Kubernetes는 api-server에서 고정 포드를 제거할 수 없습니다. 고정 포드의 미러 포드가 Kubernetes에서 생성되면 api-server에서 고정 포드를 검색할 수 있습니다. api-server에서 포드를 삭제하는 동안 미러 포드만 삭제되고 NCP가 포드에 할당된 모든 NSX 리소스 제거 요청을 수신하고 처리합니다. 그러나 고정 포드는 여전히 존재하게 되며 nsx-node-agent는 고정 포드의 OVS 브리지 포트를 제거하기 위한 CNI의 삭제 요청을 받지 못합니다.

    해결 방법: api-server에서 고정 포드를 제거하는 대신 매니페스트 파일을 삭제하여 고정 포드를 제거합니다.

  • 문제 2795482: 노드/하이퍼바이저 재부팅 또는 다른 작업 후 실행 중인 포드가 컨테이너 생성 상태에서 중단됩니다.

    wait_for_security_policy_sync 플래그가 true인 경우 포드는 작업자 노드 하드 재부팅, 하이퍼바이저 재부팅 또는 기타 다른 이유로 인해 1시간 이상 실행 상태 유지 후 컨테이너 생성 상태가 될 수 있습니다. 포드가 계속해서 생성 상태에 있게 됩니다.

    해결 방법: 포드를 삭제하고 다시 생성합니다.

  • 문제 2841030: Kubernetes 1.22에서 nsx-node-agent의 상태는 항상 'AppArmor'임

    Kubernetes 1.22에서 nsx-node-agent 포드가 "준비" 상태이면 해당 상태가 "AppArmor"에서 "실행 중"으로 업데이트되지 않습니다. 이 문제는 NCP 또는 nsx-node-agent의 기능에 영향을 주지 않습니다.

    해결 방법: nsx-node-agent 포드를 다시 시작하십시오.

  • 문제 2824129: 노드가 다시 시작되고 3분 넘게 network-unavailable true 상태를 유지함

    NCP Operator를 사용하여 NCP의 수명 주기를 관리하는 경우 nsx-node-agent daemonset이 비실행 중 상태에서 복구되면 해당 노드는 3분 동안 실행될 때까지 network-unavailable 상태가 true로 유지됩니다. 이는 예상된 동작입니다.

    해결 방법: nsx-node-agent가 다시 시작되면 최소 3분 동안 기다리십시오.

  • 문제 2868572: NCP를 실행하기 전에 호스트 VM에서 OVS(Open vSwitch)를 사용하지 않도록 설정해야 함

    호스트 VM에 NCP를 배포하려면 먼저 OVS 관련 프로세스를 중지하고 다음 명령을 사용하여 호스트에서 일부 파일을 삭제해야 합니다.

    1. sudo systemctl disable openvswitch-switch.service

    2. sudo systemctl stop openvswitch-switch.service

    3. rm -rf /var/run/openvswitch

    호스트 VM에 NCP를 이미 배포했으며 OVS가 올바르게 실행되지 않는 경우 다음 단계를 수행하여 복구합니다.

    1. 위의 3단계를 수행합니다.

    2. "kubectl delete pod $agent-pod -nsx-system" 명령을 사용하여 문제가 있는 노드의 nsx-node-agent 포드를 삭제하고 노드 에이전트 포드를 다시 시작합니다.

    해결 방법: 위의 내용을 참조하십시오.

  • 문제 2832480: ClusterIP 유형의 Kubernetes 서비스에 대해 sessionAffinityConfig.clientIP.timeoutSeconds는 65535를 초과할 수 없음

    ClusterIP 유형의 Kubernetes 서비스의 경우 sessionAffinityConfig.clientIP.timeoutSeconds를 65535보다 큰 값으로 설정하면 실제 값은 65535가 됩니다.

    해결 방법: 없음

  • 문제: 2940772: NSX-T 3.2.0을 사용할 경우 NCP 리소스를 관리자에서 정책으로 마이그레이션하면 실패함

    NCP 리소스를 관리자에서 정책으로 마이그레이션하는 것은 NSX-T 3.1.3 및 NSX-T 3.2.1에서는 지원되지만 NSX-T 3.2.0에서는 지원되지 않습니다.

    해결 방법: 없음

  • 문제 2934195: 일부 유형의 NSX 그룹은 분산 방화벽 규칙에 대해 지원되지 않습니다.

    "IP 주소만" 유형의 NSX 그룹은 DFW(분산 방화벽) 규칙에 대해 지원되지 않습니다. 수동으로 IP 주소를 멤버로 추가한 "일반" 유형의 NSX 그룹도 지원되지 않습니다.

    해결 방법: 없음

  • 문제 2936436: NSX Manager UI의 컨테이너 클러스터 페이지에 NCP 버전이 표시되지 않음

    NSX Manager UI의 [인벤토리] 탭에 컨테이너 클러스터가 표시될 때 NCP 버전이 표시되지 않습니다.

    해결 방법: NCP 버전은 API /policy/api/v1/fabric/container-clusters를 호출하여 사용할 수 있습니다.

  • 문제 2939886: 관리자 모드에서 정책 모드로의 개체 마이그레이션이 실패함

    네트워크 정책 규격에서 송신 및 수신에 동일한 선택기가 사용되는 경우 관리자 모드에서 정책 모드로의 개체 마이그레이션이 실패합니다.

    해결 방법: 없음

  • 문제: 2961789: 관리자 개체를 정책으로 마이그레이션한 후 일부 상태 점검 포드 관련 리소스를 삭제할 수 없음

    관리자 개체를 정책으로 마이그레이션한 후 상태 점검 포드를 삭제하면 포드의 관련 세그먼트 포트 및 분산 방화벽 규칙의 대상 그룹이 삭제되지 않습니다.

    해결 방법: 해당 리소스를 수동으로 삭제합니다.

  • 문제: 2966586: 관리자 개체를 정책으로 마이그레이션한 후 네임스페이스 생성이 실패함

    관리자 모드에서 IP 블록이 생성된 경우 관리자 개체가 정책으로 마이그레이션된 후 NCP가 이 IP 블록에서 서브넷을 할당할 수 없기 때문에 네임스페이스 생성이 실패합니다.

    해결 방법: 정책 모드에서 새 IP 블록을 생성하고 이러한 새 IP 블록을 사용하도록 NCP를 구성합니다.

  • 문제 2972811: 대규모 환경에서 일부 작업자 노드에 대한 Hyperbus 연결이 중단됨

    대규모 환경에서는 rpc 채널 시간 초과로 인해 포드 생성이 10-15분 동안 중단될 수 있습니다. 다음과 같은 문제가 발생할 수 있습니다.

    • Kubernetes 클러스터에서 일부 포드는 10-15분 동안 컨테이너 생성 상태가 됩니다.

    • cfgAgent에서 터널은 10-15분 동안 COMMUNICATION_ERROR 상태가 됩니다.

    • NSX UI에서 Hyperbus 연결이 종료되었음을 나타내는 경보가 생성될 수 있습니다.

    해결 방법: 별도의 조치는 필요 없습니다. 이 문제는 10-15분 후에 자동으로 복구될 수 있습니다.

  • 문제 2960121: 올바르게 구성되지 않은 경우 Windows 작업자 노드의 포드에 대한 LoadBalancer 유형의 서비스 연결이 실패함

    NCP가 기본 LB 세그먼트 서브넷을 사용하도록 구성된 경우 Windows 작업자 노드의 포드에 대한 LoadBalancer 유형의 서비스 연결이 실패합니다. 기본 서브넷 169.254.128.0/22는 IPv4 링크-로컬 공간에 속하며 Windows 노드에서 전달되지 않습니다.

    해결 방법: 기본값이 아닌 LB 세그먼트 서브넷을 사용하도록 NCP를 구성합니다. 이렇게 하려면 nsx_v3 섹션에서 lb_segment_subnet 매개 변수를 설정합니다. 이는 새로 생성된 NSX 로드 밸런서에만 영향을 줍니다.

check-circle-line exclamation-circle-line close-line
Scroll to top icon