업데이트 날짜: 2020년 8월 5일

ESXi 7.0 | 2020년 4월 2일 | ISO 빌드 15843807

vCenter Server 7.0 | 2020년 4월 2일 | ISO 빌드 15952498

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware vSphere 7.0 릴리스에는 VMware ESXi 7.0과 VMware vCenter Server 7.0이 포함됩니다. 이번 릴리스에 포함된 새로운 기능과 향상된 기능은 vSphere 7.0의 새로운 기능에 설명되어 있습니다.

국제화

vSphere 7.0은 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 스페인어
  • 일본어
  • 한국어
  • 중국어 간체
  • 중국어 번체

vCenter Server, ESXi, vSphere Client, vSphere Host Client를 포함하여 vSphere 7.0의 구성 요소에서는 ASCII가 아닌 입력을 사용할 수 없습니다.

호환성

ESXi 및 vCenter Server 버전 호환성

VMware 제품 상호 운용성 매트릭스 페이지에는 ESXi, VMware vCenter Server 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

vSphere Lifecycle Manager 및 vSphere Client는 vCenter Server에 함께 패키지로 포함되어 있습니다.

ESXi의 하드웨어 호환성

vSphere 7.0과 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 7.0 정보를 참조하십시오.

ESXi의 디바이스 호환성

ESXi 7.0과 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 7.0 정보를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

vSphere 7.0과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에 나와 있는 ESXi 7.0 정보를 참조하십시오.

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 7.0에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 7.0에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. ESXi 업그레이드 설명서를 참조하십시오.

시작하기 전에

vSphere 7.0에는 최대 32개의 물리적 코어에 대해 하나의 CPU 라이센스가 필요합니다. CPU의 코어가 32개를 초과하는 경우 "VMware의 CPU당 가격 책정 모델 업데이트"에 나와 있는 대로 추가 CPU 라이센스가 필요합니다. ESXi 호스트를 업그레이드하기 전에 "VMware의 새 라이센싱 정책에 따라 필요한 CPU 라이센스 수 계산"에 설명된 라이센스 수 계산 도구를 사용하여 필요한 라이센스의 수를 확인할 수 있습니다.

이 릴리스의 설치 및 업그레이드

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server 설치 및 구성에 대한 지침은 ESXi 설치 및 설정vCenter Server 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

VMware의 구성 최대값 도구를 사용하여 vSphere 배포를 계획할 수 있습니다. 이 도구를 사용하면 가상 시스템, ESXi, vCenter Server, vSAN, 네트워킹 등에 대한 제한을 볼 수 있습니다. 또한 둘 이상의 제품 릴리스에 대해 제한을 비교할 수 있습니다. VMware 구성 최대값 도구는 데스크톱 및 랩톱과 같은 대형 디바이스에서 보는 것이 좋습니다.

ESXi 7.0의 VMware Tools 번들 변경 사항

ESXi 7.0에서는 VMware Tools 11.0.5 및 VMware Tools 10.3.21 ISO 이미지의 일부가 ESXi 7.0 호스트와 함께 번들로 제공됩니다.

ESXi와 함께 번들로 제공되는 VMware Tools 11.0.5 ISO 이미지는 다음과 같습니다.

  • windows.iso: Windows Vista 이상용 VMware Tools 이미지

ESXi와 함께 번들로 제공되는 VMware Tools 10.3.21 ISO 이미지는 다음과 같습니다.

  • linux.iso: glibc 2.5 이상을 포함하는 Linux 운영 체제용 VMware Tools 이미지

다운로드로 제공되는 VMware Tools 11.0.5 ISO 이미지는 다음과 같습니다.

  • darwin.iso: OSX용 VMware Tools 이미지

ESXi와 함께 번들로 제공되지 않는 플랫폼을 위한 VMware Tools를 다운로드하려면 다음 문서에 나열된 절차를 따르십시오.

타사 솔루션 마이그레이션

타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 ESXi 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 ESXi 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 6.7에서 지원하는 프로세서와 비교해, vSphere 7.0에서는 더 이상 다음 프로세서를 지원하지 않습니다.

  • Intel Family 6, 모델 = 2C(Westmere-EP)
  • Intel Family 6, 모델 = 2F(Westmere-EX)

설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 7.0과 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면이 나타나면서 비호환성 정보 메시지가 표시되며 vSphere 7.0 설치 프로세스가 중지됩니다.

다음 CPU는 vSphere 7.0 릴리스에서 지원되지만 향후 vSphere 릴리스에서 지원되지 않을 수 있습니다. 그러므로 이를 고려하여 적절히 계획하십시오.

  • Intel Family 6, 모델 = 2A(Sandy Bridge DT/EN, GA 2011)
  • Intel Family 6, 모델 = 2D(Sandy Bridge EP, GA 2012)
  • Intel Family 6, 모델 = 3A(Ivy Bridge DT/EN, GA 2012)
  • AMD Family 0x15, 모델 = 01(Bulldozer, GA 2012)

이 릴리스에 대한 업그레이드 정보

ESXi 호스트 및 vCenter Server 업그레이드에 대한 지침은 ESXi 업그레이드vCenter Server 업그레이드 설명서를 참조하십시오.

vSphere 7.0의 오픈 소스 구성 요소

vSphere 7.0에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com에서 확인할 수 있습니다. My VMware 계정으로 로그인해야 합니다. 그런 다음 다운로드 메뉴에서 vSphere를 선택합니다. 오픈 소스 탭에서는 최신 vSphere 릴리스에 대한 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • VMware vSphere Client

    vSphere 7.0에서는 vSphere Client(HTML5)에서 사용할 수 있는 기능을 활용할 수 있습니다. Flash 기반 vSphere Web Client는 폐기되었으며 더 이상 사용할 수 없습니다. 자세한 내용은 vSphere Web Client 단종을 참조하십시오.

    VMware Host Client는 vCenter Server 시스템에 연결되지 않은 개별 ESXi 호스트를 관리할 때 사용할 수 있는 웹 기반 애플리케이션입니다.

  • VMware vSphere 7.0 및 TLS 프로토콜

    vSphere 7.0에서는 기본적으로 TLS 1.2가 사용되도록 설정됩니다. TLS 1.0과 TLS 1.1은 기본적으로 사용되지 않도록 설정됩니다. vCenter Server를 7.0으로 업그레이드한 후 해당 vCenter Server 인스턴스를 ESXi 호스트, 다른 vCenter Server 인스턴스 또는 다른 서비스에 연결하면 통신 문제가 발생할 수 있습니다.

    이 문제를 해결하려면 TLS 구성 유틸리티를 사용하여 7.0 시스템에서 이전 버전의 프로토콜을 일시적으로 사용하도록 설정할 수 있습니다. 모든 연결에 TLS 1.2가 사용된 후에 보안이 더 낮은 이전 버전을 사용하지 않도록 설정할 수 있습니다. 자세한 내용은 TLS 구성 유틸리티를 사용하여 TLS 프로토콜 구성 관리를 참조하십시오.

  • 외부 Platform Services Controller 제거

    vSphere 7.0에서 vCenter Server를 배포하거나 업그레이드하려면 vCenter Server 실행에 최적화된 미리 구성된 Linux 가상 시스템인 vCenter Server Appliance를 사용해야 합니다. 새 vCenter Server에는 인증, 인증서 관리 및 라이센싱을 포함하여 기능 및 워크플로를 보존하는 모든 PSC(Platform Services Controller) 서비스가 포함되어 있습니다. 더 이상 외부 Platform Services Controller를 배포 또는 사용할 필요가 없으며 가능하지도 않습니다. 모든 PSC 서비스가 vCenter Server에 통합되고 배포 및 관리가 간소화되었습니다.

  • Windows용 vCenter Server 지원 제거

    vSphere 7.0에서는 Windows용 vCenter Server가 제거되었으며 지원을 사용할 수 없습니다. 자세한 내용은 Windows용 vCenter Server 단종을 참조하십시오.

  • ESXi에서 VNC 서버 제거

    vSphere 7.0에서는 ESXi 기본 제공 VNC 서버가 제거되었습니다. 사용자는 VNC 클라이언트에서 RemoteDisplay.vnc.enable 구성을 true로 설정하여 가상 시스템에 더 이상 연결할 수 없습니다. 가상 시스템에 연결하려면 vSphere Client, ESXi Host Client 또는 VMware Remote Console을 통해 VM 콘솔을 사용해야 합니다. VM에 대한 VNC 액세스를 원하는 고객은 WebSocket을 통한 VNC 연결을 제공하는 VirtualMachine.AcquireTicket("webmks") API를 사용해야 합니다. webmks 티켓은 가상 시스템 콘솔에 대한 인증된 액세스를 제공합니다. 자세한 내용은 VMware HTML 콘솔 SDK 설명서를 참조하십시오.

  • VMKLinux의 중단

    vSphere 7.0에서는 VMKLinux 드라이버 호환성이 폐기되었으며 제거되었습니다. vSphere 7.0에는 VMKLinux API 및 연결된 VMKLinux 드라이버에 대한 지원이 포함되어 있지 않습니다. 사용자 지정 ISO는 VMKLinux 비동기 드라이버를 가질 수 없습니다. ISO에 포함된 모든 드라이버는 네이티브 드라이버여야 합니다. 현재 지원되는 모든 디바이스 중 네이티브 드라이버에서 지원하지 않는 디바이스는 작동하지 않으며 설치 또는 업그레이드 중에 인식되지 않습니다. VCG는 네이티브 드라이버에서 지원하지 않는 모든 디바이스를 vSphere 7.0에서 지원됨으로 표시하지 않습니다.

  • 32비트 userworld 지원 중단

    vSphere 7.0에서는 32비트 userworld 지원이 중단되었습니다. userworld는 파트너에서 드라이버, 플러그인 및 기타 시스템 확장을 제공하기 위해 사용하는 ESXi의 구성 요소입니다(VIB로 배포됨). userworld는 고객이 액세스할 수 없습니다.

    vSphere 7.0은 파트너 개발키트를 통해 64비트 userworld 지원을 제공하며 이 주요 릴리스를 통해 32비트 userworld 지원을 유지합니다. 32비트 userworld에 대한 지원은 다음 주요 ESXi 릴리스에서 영구적으로 제거될 것입니다. 기능 손실을 방지하기 위해, 고객은 vSphere 7.0 릴리스 이상으로 업그레이드하기 전에 사용 중인 벤더 제공 VIB가 64비트로 마이그레이션되었는지 확인해야 합니다.

  • Update Manager 플러그인 중단

    vSphere 7.0에서는 vSphere Update Manager 관리에 사용되는 Update Manager 플러그인이 Lifecycle Manager 플러그인으로 바뀌었습니다. vSphere Update Manager에 대한 관리 작업은 vSphere Lifecycle Manager에 대한 새로운 기능과 함께 Lifecycle Manager 플러그인에서 계속 사용할 수 있습니다.

  • Windows 통합 인증 중단

    IWA(Windows 통합 인증)는 vSphere 7.0에서 폐기되었으며 향후 릴리스에서 제거될 예정입니다. 자세한 내용은 VMware 기술 자료 문서 78506을 참조하십시오.

  • DCUI 스마트 카드 인증 중단

    향후 vSphere 릴리스에서는 DCUI의 스마트 카드 인증 지원이 중단될 예정입니다. 사용자는 PIV(Personal Identity Verification), CAC(Common Access Card) 또는 SC650 스마트 카드를 사용하여 DCUI에 액세스하는 대신 vCenter, PowerCLI, API 호출을 통해 작업을 수행하거나 사용자 이름과 암호를 사용하여 로그인하는 것이 좋습니다.

  • 호스트 프로파일에서 코어 파티션 프로파일 중단

    vSphere 7.0에서는 호스트 프로파일의 코어 덤프 파티션에 대한 지원이 중단되었습니다. 사용자는 코어 덤프 파티션 대신 코어 덤프 파일로 전환해야 합니다.

  • MyVMware의 벤더 추가 기능을 vSphere Lifecycle Manager에서 사용

    vSphere 7.0에서 vCenter Server 인스턴스가 프록시 또는 Update Manager Download Service를 사용하도록 구성된 경우 vCenter Server의 vSphere Lifecycle Manager를 통해 벤더 추가 기능에 액세스할 수 있습니다. MyVMware에서 추가 기능에 액세스하려면 사용자 지정 ISO 및 추가 기능 탭으로 이동합니다. OEM 사용자 지정 설치 관리자 CD 및 추가 기능에서 각 벤더의 사용자 지정 추가 기능을 찾을 수 있습니다. vSphere Lifecycle Manager 및 벤더 추가 기능에 대한 자세한 내용은 호스트 및 클러스터 수명 주기 관리 설명서를 참조하십시오.

알려진 문제

알려진 문제는 다음과 같이 그룹화되어 있습니다.

설치, 업그레이드 및 마이그레이션 문제
  • 새로운 항목: ESXi 7.0으로 업그레이드한 후 vmnic 및 vmhba 디바이스 이름이 변경됨

    특정 하드웨어 플랫폼의 경우, 이전 ESXi 버전에서 ESXi 7.0으로 업그레이드한 후 vmnic 및 vmhba 디바이스 이름(별칭)이 변경될 수 있습니다 . 이 문제는 펌웨어가 플러그형 슬롯에 있지 않는 디바이스에 대해 물리적 슬롯 번호 0을 반환하는 ACPI _SUN 메서드를 제공하는 시스템에서 발생합니다. 

    해결 방법: VMware 기술 자료 문서 2091560의 지침에 따라 디바이스 이름을 변경할 수 있습니다.

  • vCenter 업그레이드/마이그레이션 사전 확인이 "예기치 않은 오류 87"과 함께 실패함

    STS(Security Token Service) 인증서에 SAN(주체 대체 이름) 필드가 포함되어 있지 않으면 vCenter Server 업그레이드/마이그레이션 사전 확인이 실패합니다. 이 상황은 vCenter 5.5 Single Sign-on 인증서를 SAN 필드가 없는 사용자 지정 인증서로 교체하고 vCenter Server 7.0으로 업그레이드하려고 할 때 발생합니다. 업그레이드 시 STS 인증서가 유효하지 않은 것으로 간주되고 사전 확인은 업그레이드 프로세스 진행을 차단합니다.

    해결 방법: STS 인증서를 SAN 필드가 포함된 유효한 인증서로 바꾼 다음 vCenter Server 7.0 업그레이드/마이그레이션을 진행합니다.

  • 기존 CIM 제공자를 사용하여 vSphere 7.0으로 업그레이드할 때 문제가 발생함

    업그레이드 후에는 ESXi에 64비트 CIM 제공자가 필요하기 때문에 이전에 설치된 32비트 CIM 제공자의 작동이 중지됩니다. 고객은 CIMPDK, NDDK(네이티브 DDK), HEXDK, VAIODK(IO 필터)와 관련된 관리 API 기능을 사용하지 못할 수 있으며 uwglibc 종속성과 관련된 오류를 볼 수 있습니다.
    Syslog에서 모듈 누락을 보고합니다. "32비트 공유 라이브러리가 로드되지 않았습니다."

    해결 방법: 해결 방법이 없습니다. 이 문제의 수정 방법은 벤더로부터 새로운 64비트 CIM 제공자를 다운로드하는 것입니다.

  • vCenter Server 7.0으로 업그레이드한 후 스마트 카드 및 RSA SecurID 인증이 작동하지 않을 수 있음

    vCenter Server를 스마트 카드 또는 RSA SecurID 인증에 대해 구성한 경우 vSphere 7.0 업그레이드 프로세스를 시작하기 전에 https://kb.vmware.com/s/article/78057에서 VMware 기술 자료 문서를 참조하십시오. KB에 설명된 대로 해결 방법을 수행하지 않으면 다음과 같은 오류 메시지가 표시될 수 있으며 스마트 카드 또는 RSA SecurID 인증이 작동하지 않을 수 있습니다.

    "스마트 카드 인증의 작동이 중지될 수 있습니다. 스마트 카드 설정이 유지되지 않을 수 있으며 스마트 카드 인증의 작동이 중지될 수 있습니다."

    또는

    "RSA SecurID 인증의 작동이 중지될 수 있습니다. RSA SecurID 설정이 유지되지 않을 수 있으며 RSA SecurID 인증의 작동이 중지될 수 있습니다."

    해결 방법: vSphere 7.0으로 업그레이드하기 전에 https://kb.vmware.com/s/article/78057에서 VMware 기술 자료 문서를 참조하십시오.

  • 외부 Platform Services Controller가 있는 vCenter Server를 6.7u3에서 7.0으로 업그레이드하면 VMAFD 오류와 함께 실패함

    외부 Platform Services Controller를 사용하는 vCenter Server 배포를 업그레이드하는 경우 Platform Services Controller를 vCenter Server Appliance로 컨버전스합니다. 업그레이드가 실패하고 install.vmafd.vmdir_vdcpromo_error_21 오류가 표시되면 VMAFD firstboot 프로세스가 실패한 것입니다. VMAFD firstboot 프로세스는 VMware Directory Service 데이터베이스(data.mdb)를 소스 Platform Services Controller 및 복제 파트너 vCenter Server Appliance에서 복사합니다.

    해결 방법: 외부 Platform Services Controller가 있는 vCenter Server를 업그레이드하기 전에 소스 Platform Services Controller 또는 복제 파트너 vCenter Server Appliance의 이더넷 어댑터에서 TSO(TCP 세분화 오프로드) 및 GSO(일반 세분화 오프로드)를 사용하지 않도록 설정합니다. 기술 자료 문서 https://kb.vmware.com/s/article/74678을 참조하십시오.

  • CLI를 사용하여 vCenter Server를 업그레이드할 때 vSphere Authentication Proxy 서비스에 대한 TLS(전송 보안 계층) 구성이 잘못 유지됨

    vSphere Authentication Proxy 서비스(vmcam)가 기본 TLS 1.2 프로토콜 이외의 특정 TLS 프로토콜을 사용하도록 구성된 경우 이 구성은 CLI 업그레이드 프로세스 동안 유지됩니다. 기본적으로 vSphere는 TLS 1.2 암호화 프로토콜을 지원합니다. TLS 1.2를 지원하지 않는 제품 또는 서비스를 지원하기 위해 TLS 1.0 및 TLS 1.1 프로토콜을 사용해야 하는 경우, TLS 구성 유틸리티를 사용하여 다른 TLS 프로토콜 버전을 사용하거나 사용하지 않도록 설정합니다.

    해결 방법: TLS 구성 유틸리티를 사용하여 vmcam 포트를 구성합니다. TLS 프로토콜 구성을 관리하고 TLS 구성 유틸리티를 사용하는 방법은 VMware 보안 설명서를 참조하십시오.

  • vCenter Server 업그레이드 중에 스마트 카드 및 RSA SecurID 설정이 유지되지 않을 수 있음

    vCenter Server 7.0으로 업그레이드한 후 RSA SecurID를 사용한 인증이 작동하지 않습니다. RSA SecurID 로그인을 사용하여 로그인하려고 하면 오류 메시지가 표시됩니다.

    해결 방법: 스마트 카드 또는 RSA SecureID를 재구성합니다.

  • Windows용 vCenter Server를 vCenter Server Appliance 7.0으로 마이그레이션하는 작업이 네트워크 오류 메시지와 함께 실패함

    Windows용 vCenter Server를 vCenter Server Appliance 7.0으로 마이그레이션하는 작업이 실패하고 네트워크에 IP가 이미 있습니다.라는 오류 메시지가 표시됩니다. 이로 인해 마이그레이션 프로세스가 새 vCenter Server Appliance에서 네트워크 매개 변수를 구성하지 못합니다. 자세한 내용은 로그 파일을 확인하십시오. /var/log/vmware/upgrade/UpgradeRunner.log

    해결 방법:

    1. Windows용 vCenter Server 인스턴스에서 모든 Windows 업데이트가 완료되었는지 확인하거나 마이그레이션이 완료될 때까지 Windows 자동 업데이트를 사용하지 않도록 설정합니다.
    2. Windows용 vCenter Server를 vCenter Server Appliance 7.0으로 마이그레이션하는 작업을 다시 시도합니다.

     

  • max_vfs 모듈 매개 변수를 사용하여 SR-IOV 디바이스의 가상 기능 수를 구성하는 경우 변경 내용이 적용되지 않을 수 있음

    vSphere 7.0에서는 예를 들어 vSphere Client를 통해 VIM(가상 인프라 관리) API를 사용하여 SR-IOV 디바이스의 가상 기능 수를 구성할 수 있습니다. 이 작업은 ESXi 호스트를 재부팅할 필요가 없습니다. VIM API 구성을 사용한 후 max_vfs 모듈 매개 변수를 사용하여 SR-IOV 가상 기능 수를 구성하려고 하면 VIM API 구성에서 변경 내용을 재정의하기 때문에 변경 내용이 적용되지 않을 수 있습니다.

    해결 방법: 없음. SR-IOV 디바이스의 가상 기능 수를 구성하려면 매번 동일한 방법을 사용합니다. VIM API를 사용하거나 max_vfs 모듈 매개 변수를 사용하고 ESXi 호스트를 재부팅합니다.

  • 업그레이드된 vCenter Server Appliance 인스턴스가 소스 인스턴스의 일부 보조 네트워크(NIC)를 유지하지 않음

    주요 업그레이드 중 vCenter Server Appliance의 소스 인스턴스가 VCHA NIC가 아닌 여러 개의 보조 네트워크로 구성된 경우 대상 vCenter Server 인스턴스는 VCHA NIC 이외의 보조 네트워크를 유지하지 않습니다. 소스 인스턴스가 DVS 포트 그룹의 일부인 여러 NIC로 구성된 경우에는 업그레이드 중에 NIC 구성이 유지되지 않습니다. 표준 포트 그룹의 일부인 vCenter Server Appliance 인스턴스에 대한 구성이 유지됩니다.

    해결 방법: 없음. 대상 vCenter Server Appliance 인스턴스에서 보조 네트워크를 수동으로 구성합니다.

  • 외부 Platform Services Controller가 있는 vCenter Server를 업그레이드하거나 마이그레이션한 후 Active Directory를 사용하여 인증하는 사용자가 새로 업그레이드된 vCenter Server 인스턴스에 액세스할 수 없음

    외부 Platform Services Controller가 있는 vCenter Server를 업그레이드하거나 마이그레이션한 경우 새로 업그레이드된 vCenter Server가 Active Directory 도메인에 가입되지 않았다면 Active Directory를 사용하여 인증하는 사용자는 vCenter Server 인스턴스에 액세스할 수 없게 됩니다.

    해결 방법: 새 vCenter Server 인스턴스가 Active Directory 도메인에 가입되어 있는지 확인합니다. 기술 자료 문서 https://kb.vmware.com/s/article/2118543을 참조하십시오.

  • Oracle 데이터베이스를 사용하여 외부 Platform Services Controller가 있는 Windows용 vCenter Server를 마이그레이션할 수 없음

    Oracle 이벤트 및 작업 테이블에 ASCII가 아닌 문자열이 있는 경우 이벤트 및 작업 데이터를 내보낼 때 마이그레이션이 실패할 수 있습니다. 다음 오류 메시지가 표시됩니다. UnicodeDecodeError

    해결 방법: 없음.

  • ESXi 호스트를 업그레이드한 후, 호스트 프로파일 규정 준수 검사에서 비준수 상태가 표시되고 호스트 업데이트 적용 작업이 실패함

    비준수 상태는 프로파일과 호스트 간의 불일치를 나타냅니다.

    ESXi 7.0은 중복된 클레임 규칙을 허용하지 않지만 사용하는 프로파일에 중복된 규칙이 포함되어 있기 때문에 이러한 불일치가 발생할 수 있습니다. 예를 들어, ESXi 6.5 또는 ESXi 6.7을 버전 7.0으로 업그레이드하기 전에 호스트에서 추출한 호스트 프로파일을 사용하려고 할 때 호스트 프로파일에 시스템 기본 규칙의 중복된 클레임 규칙이 포함되어 있으면 문제가 발생할 수 있습니다.

    해결 방법:

    1. 호스트 프로파일 문서에서 시스템 기본 규칙의 중복된 클레임 규칙을 모두 제거합니다.
    2. 규정 준수 상태를 확인합니다.
    3. 호스트에 업데이트를 적용합니다.
    4. 이전 단계가 도움이 되지 않으면 호스트를 재부팅합니다.

     

  • vCenter Server 관리 인터페이스에 오류 메시지가 표시됨

    vCenter Server 7.0을 설치하거나 이 버전으로 업그레이드한 후 vCenter Server 관리 인터페이스 내에서 [업데이트] 패널로 이동하면 "URL 확인 후 다시 시도"라는 오류 메시지가 표시됩니다. 오류 메시지는 [업데이트] 패널 내에서 기능을 사용하는 것을 방지하지 않으며 사용 가능한 업데이트를 보고, 스테이징하고, 설치할 수 있습니다.

    해결 방법: 없음.

보안 기능 문제
  • HA가 사용되도록 설정된 신뢰할 수 있는 클러스터에 증명되지 않은 호스트가 포함된 경우 암호화된 가상 시스템의 전원을 켜지 못함

    VMware® vSphere Trust Authority™에서, HA가 사용되도록 신뢰할 수 있는 클러스터를 설정했고 클러스터에 있는 하나 이상의 호스트가 증명에 실패하면 암호화된 가상 시스템의 전원을 켤 수 없습니다.

    해결 방법: 신뢰할 수 있는 클러스터에서 증명에 실패한 모든 호스트를 제거하거나 모든 호스트에 업데이트를 적용합니다.

  • DRS가 사용되도록 설정된 신뢰할 수 있는 클러스터에 증명되지 않은 호스트가 포함된 경우 암호화된 가상 시스템의 전원을 켜지 못함

    VMware® vSphere Trust Authority™에서, 신뢰할 수 있는 클러스터에 DRS를 사용하도록 설정했고 클러스터에 있는 하나 이상의 호스트가 증명에 실패하면 DRS가 클러스터의 증명되지 않은 호스트에서 암호화된 가상 시스템의 전원을 켜려고 시도할 수 있습니다. 이 작업을 수행하면 가상 시스템이 잠긴 상태로 전환됩니다.

    해결 방법: 신뢰할 수 있는 클러스터에서 증명에 실패한 모든 호스트를 제거하거나 모든 호스트에 업데이트를 적용합니다.

  • vCenter Server 인스턴스 간에 vSphere Client를 사용하여 암호화된 가상 시스템을 마이그레이션하거나 복제하려고 하면 작업이 실패함

    vCenter Server 인스턴스 간에 vSphere Client를 사용하여 암호화된 가상 시스템을 마이그레이션하거나 복제하려고 하면 다음 오류 메시지와 함께 작업이 실패합니다. "현재 상태에서 허용되지 않는 작업입니다."

    해결 방법: vSphere API를 사용하여 vCenter Server 인스턴스 간에 암호화된 가상 시스템을 마이그레이션하거나 복제해야 합니다.

네트워킹 문제
  • Intel 82599/X540/X550 NIC에서 네트워킹 성능의 처리량이 감소함

    Intel 82599EB/X540/X550 시리즈 NIC에서 네트워킹 성능을 향상시키기 위해 ixgben 드라이버에 추가된 새 대기열-쌍 기능으로 vSphere 6.7에 비해 vSphere 7.0의 일부 워크로드에서 처리량이 감소할 수 있습니다.

    해결 방법: vSphere 6.7과 동일한 네트워킹 성능을 얻으려는 경우 모듈 매개 변수를 사용하여 대기열-쌍을 사용하지 않도록 설정할 수 있습니다. 대기열-쌍을 사용하지 않도록 설정하려면 다음 명령을 실행합니다.

    # esxcli system module parameters set -p "QPair=0,0,0,0..." -m ixgben

    명령을 실행한 후 재부팅합니다.

  • NetIOC(Network I/O Control)를 사용하도록 설정하면 처리량이 높은 가상 시스템에서 네트워크 성능 저하가 발생할 수 있음

    NetIOC를 사용하도록 설정하고 vSphere 6.7에서 vSphere 7.0으로 업그레이드하는 경우 높은 네트워크 처리량이 필요한 가상 시스템에서 처리량 저하가 발생할 수 있습니다.

    해결 방법: 여러 환경을 사용하도록 설정하려면 ethernetx.ctxPerDev 설정을 조정합니다.

  • IPv6 트래픽이 IPsec을 사용하여 VMkernel 포트를 통과하지 못함

    VMkernel 포트를 한 포트 그룹에서 다른 포트 그룹으로 마이그레이션할 때 IPv6 트래픽이 IPsec을 사용하여 VMkernel 포트를 통과하지 않습니다.

    해결 방법: 영향받는 서버에서 IPsec SA(보안 연결)를 제거한 다음 SA를 다시 적용합니다. IPsec SA를 설정 및 제거하는 방법을 알아보려면 vSphere 보안 설명서를 참조하십시오.

  • CPU 사용량 증가에 따라 ESX 네트워크 성능이 향상될 수 있음

    CPU 사용량에 따라 ESX 네트워크 성능이 향상될 수 있습니다.

    해결 방법: 1개의 rx 디스패치 대기열만 있는 네트워크 인터페이스를 제거하고 추가합니다. 예:

    esxcli network ip interface remove --interface-name=vmk1

    esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1

  • 무중단 추가, 무중단 제거 또는 Storage vMotion 후 VM에서 이더넷 트래픽이 손실될 수 있음

    무중단 추가, 무중단 제거 또는 Storage vMotion 후 VM의 이더넷 트래픽 수신이 중단될 수 있습니다. 이 문제는 VNIC의 업링크에서 SR-IOV를 사용하도록 설정한 VM에 영향을 줍니다. 가상 네트워크의 업링크가 Mellanox RDMA 지원 NIC이고 RDMA 네임스페이스가 구성된 경우 PVRDMA 가상 NIC에서 이 문제가 발생합니다.

    해결 방법: VM의 영향을 받는 이더넷 NIC를 무중단 제거하고 무중단 추가하여 트래픽을 복원할 수 있습니다. Linux 게스트 운영 체제에서 네트워크를 다시 시작하는 경우 문제가 해결될 수도 있습니다. 이러한 해결 방법이 효과가 없다면 VM을 재부팅하여 네트워크 연결을 복원할 수 있습니다.

  • 정적 IP 주소로 배포된 VCSA의 IP 주소를 변경하려면 DNS 레코드를 미리 생성해야 함

    DDNS의 도입으로 DNS 레코드 업데이트는 DHCP 구성 네트워킹으로 배포된 VCSA에 대해서만 작동합니다. VAMI를 통해 vCenter Server의 IP 주소를 변경하는 동안 다음 오류가 표시됩니다.

    지정된 IP 주소를 지정된 호스트 이름으로 확인할 수 없습니다.

    해결 방법: 가능한 해결 방법에는 두 가지가 있습니다.

    1. 동일한 FQDN과 원하는 IP 주소로 추가 DNS 항목을 생성합니다. VAMI에 로그인하고 단계에 따라 IP 주소를 변경합니다.
    2. SSH를 사용하여 VCSA에 로그인합니다. 다음 스크립트를 실행합니다.

      ./opt/vmware/share/vami/vami_config_net

      옵션 6을 사용하여 eth0의 IP 주소를 변경합니다. 변경 후 다음 스크립트를 실행합니다.

      ./opt/likewise/bin/lw-update-dns

      VCSA의 모든 서비스를 다시 시작하여 DNS 서버의 IP 정보를 업데이트합니다.

  • NSX Manager에서 해당 논리적 스위치를 삭제한 후 NSX DVPG(NSX 분산 가상 포트 그룹)를 제거하는 데 몇 초 정도 걸릴 수 있습니다.

    논리적 스위치의 수가 증가할수록 NSX Manager에서 해당 논리적 스위치를 삭제한 후 vCenter Server의 NSX DVPG를 제거하는 데 더 많은 시간이 걸릴 수 있습니다. 12000개의 논리적 스위치가 있는 환경에서는 vCenter Server에서 NSX DVPG를 삭제하는 데 약 10초 정도가 소요됩니다.

    해결 방법: 없음.

  • 다수의 NSX 분산 가상 포트 그룹이 생성되면 Hostd가 메모리 부족으로 인해 실패합니다.

    vSphere 7.0에서 NSX 분산 가상 포트 그룹은 불투명 네트워크보다 훨씬 많은 양의 메모리를 소비합니다. 이러한 이유 때문에 NSX 분산 가상 포트 그룹은 동일한 양의 메모리가 지정된 불투명 네트워크와 동일한 규모를 지원할 수 없습니다.

    해결 방법: NSX 분산 가상 포트 그룹 사용을 지원하려면 ESXi 호스트의 메모리 양을 늘리십시오. 시스템에 VM을 지원하기에 충분한 메모리가 있는지 확인하는 경우, 다음 명령을 사용하여 hostd의 메모리를 직접 늘일 수 있습니다.

    localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048

    이렇게 하면 환경의 VM에 대해 일반적으로 예약된 메모리를 hostd가 사용할 수 있습니다. 그러면 ESXi 호스트가 지원할 수 있는 VM 수를 줄이는 데 영향을 줄 수 있습니다.

  • 네트워크 예약이 VM에 구성된 경우 DRS가 vMotion를 잘못 시작할 수 있음

    네트워크 예약이 VM에 구성된 경우, DRS는 지정된 요구 사항을 충족하는 호스트로만 VM을 마이그레이션할 것으로 예상됩니다. NSX 전송 노드가 있는 클러스터에서, 일부 전송 노드는 N-VDS(NSX-T 가상 Distributed Switch)를 사용하여 전송 영역에 가입하고 다른 노드는 VDS(vSphere Distributed Switch) 7.0을 사용하여 가입하면, DRS가 vMotion을 잘못 시작할 수 있습니다. 이런 문제는 다음과 같은 경우에 발생할 수 있습니다.

    • VM이 네트워크 예약으로 구성된 NSX 논리적 스위치에 연결됩니다.
    • 일부 전송 노드는 N-VDS를 사용하여 전송 영역에 가입하고 다른 노드는 VDS 7.0을 사용하여 가입하거나, 전송 노드가 다른 VDS 7.0 인스턴스를 통해 전송 영역에 가입합니다.

    해결 방법: 모든 전송 노드가 N-VDS 또는 동일한 VDS 7.0 인스턴스를 통해 전송 영역에 가입되도록 합니다.

  • NSX 포트 그룹에 vmknic(VMkernel NIC)를 추가하면 vCenter Server는 "상태 비저장 호스트의 NSX 포트 그룹에 VMkernel 어댑터를 연결하는 작업은 지원되지 않습니다. 대신 분산 포트 그룹을 사용하십시오."라는 오류를 보고합니다.
    • DVS(분산 가상 스위치)의 상태 비저장 ESXi에 대해서는 NSX 포트 그룹의 vmknic가 차단됩니다. 분산 포트 그룹을 대신 사용해야 합니다.
    • DVS의 상태 저장 ESXi에 대해서는 NSX 포트 그룹의 vmknic가 지원되지만, NSX 포트 그룹에서 vmknic를 사용하는 경우 vSAN에 문제가 발생할 수 있습니다.

    해결 방법: 동일한 DVS의 분산 포트 그룹을 사용합니다.

  • QLogic 4x10GE QL41164HFCU CNA에 대해 vCenter에서 SRIOV를 사용하도록 설정하지 못할 수 있음

    QLogic 4x10GE QL41164HFCU CNA를 사용하는 경우, 물리적 네트워크 어댑터에 대한 설정 편집 대화 상자로 이동하여 SR-IOV를 사용하도록 설정하려고 하면 작업이 실패할 수 있습니다. SR-IOV를 사용하도록 설정하려고 하면 ESXi 호스트의 네트워크가 중단될 수 있습니다.

    해결 방법: ESXi 호스트에서 다음 명령을 사용하여 SRIOV를 사용하도록 설정합니다.

    esxcfg-module

  • 새로운 항목 DRS(Distributed Resource Scheduler)를 사용하는 클러스터의 호스트가 다른 VDS(가상 Distributed Switch) 또는 NVDS(NSX-T 가상 Distributed Switch) 및 VDS의 조함을 사용하는 NSX-T 네트워킹에 가입하는 경우 vCenter Server가 실패함

    vSphere 7.0에서, DRS 클러스터를 사용하는 vSphere VDS에서 NSX-T 네트워킹을 사용하는 경우 호스트가 동일한 VDS 또는 NVDS를 사용하는 NSX 전송 영역에 가입하지 않으면 vCenter Server가 실패할 수 있습니다.

    해결 방법: DRS 클러스터의 호스트를 동일한 VDS 또는 NVDS를 사용하는 NSX 전송 영역에 가입합니다. 

스토리지 문제
  • SmartPQI 컨트롤러를 사용하는 HPE Gen10 서버에서 무중단 제거 및 무중단 삽입 후 VMFS 데이터스토어가 자동으로 마운트되지 않음

    확장기 없이 SmartPQI 컨트롤러를 사용하는 HPE Gen10 서버에서 SATA 디스크를 무중단 제거하고 동일한 시스템의 다른 디스크 베이로 다시 무중단 삽입하는 경우 또는 여러 디스크를 무중단 제거하고 다른 순서로 다시 무중단 삽입한 경우에는 종종 새 로컬 이름이 디스크에 할당됩니다. 디바이스 이름이 변경되었기 때문에 해당 디스크의 VMFS 데이터스토어가 스냅샷으로 나타나고 자동으로 다시 마운트되지 않습니다.

    해결 방법: 없음. SmartPQI 컨트롤러는 순서가 지정되지 않은 무중단 제거 및 무중단 삽입 작업을 지원하지 않습니다.

  • nvme_pcie 드라이버에 대해 loglevel을 설정하면 작업이 실패하고 오류가 표시됨

    esxcli nvme driver loglevel set -l <log level> 명령을 사용하여 nvme_pcie 드라이버에 대해 loglevel을 설정하는 경우 다음 오류 메시지와 함께 작업이 실패합니다.

    로그 수준 0x2를 설정하지 못했습니다.

    이 명령은 NVMe 드라이버 호환성을 고려하여 유지되었지만 nvme_pcie 드라이버에는 지원되지 않습니다.

    해결 방법: 없음. 이러한 상황은 nvme_pcie 기능을 사용하도록 설정한 경우에 발생합니다.

  • 모든 활성 경로의 오류로 인해 ESXi가 디바이스에 대한 I/O를 종료할 수 있음

    경우에 따라 NVMeOF 디바이스에 대한 모든 활성 경로는 링크 문제 또는 컨트롤러 상태에 따른 I/O 오류를 등록합니다. 경로 중 하나의 상태가 [비활성]으로 변경될 때 많은 오류가 표시되면 HPP(High Performance Plug-in)가 다른 경로를 선택하지 않을 수 있습니다. 결과적으로 I/O가 실패합니다.

    해결 방법: /Misc/HppManageDegradedPaths 구성 옵션을 사용하지 않도록 설정하여 I/O를 차단 해제합니다.

  • NVMe 기반 VMFS 데이터스토어에 대한 VOMA 검사가 오류와 함께 실패함

    VOMA 검사는 NVMe 기반 VMFS 데이터스토어에 대해 지원되지 않으며 다음 오류와 함께 실패합니다.

    ERROR: 디바이스를 예약하지 못했습니다. 기능이 구현되지 않음 

    예:

    # voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
    검사 모드에서 VMFS Checker 버전 2.1 실행 중
    LVM 메타데이터 초기화 중, 기본 검사가 수행됩니다.
    
    파일 시스템 활동을 확인하는 중
    파일 시스템 작동 여부 검사 수행 중...|VMFS-6 호스트 활동 검색 중(4096바이트/HB, 1024HB).
    ERROR: 디바이스를 예약하지 못했습니다. 기능이 구현되지 않음
    VMFS 볼륨 검사 중단 중
    VOMA가 디바이스를 검사하지 못함: 일반 오류

    해결 방법: 없음. VMFS 메타데이터를 분석하려면 -l 옵션을 사용하여 수집한 후 VMware 고객 지원에 전달합니다. 덤프를 수집하는 명령은 다음과 같습니다.

    voma -l -f dump -d /vmfs/devices/disks/:<partition#> 
  • VM 재구성 API를 사용하여 암호화된 가상 시스템에 암호화된 First Class Disk를 연결하면 오류와 함께 실패할 수 있음

    FCD와 VM이 서로 다른 암호화 키로 암호화된 경우 VM 재구성 API를 사용하여 암호화된 FCD를 암호화된 VM에 연결하려고 하면 다음 오류 메시지와 함께 작업이 실패합니다.

    키 또는 암호가 잘못되었기 때문에 디스크의 암호를 해독할 수 없습니다.

    해결 방법: 암호화된 FCD를 암호화된 VM에 연결하려면 VM 재구성 API가 아닌 attachDisk API를 사용합니다.

  • ESXi 호스트의 확장된 VMFS 데이터스토어 비헤드 익스텐트가 PDL(영구적 디바이스 손실) 상태로 전환되면 ESXi 호스트가 응답하지 않는 상태가 될 수 있음

    이 문제는 확장된 VMFS 데이터스토어의 비헤드 익스텐트가 헤드 익스텐트와 함께 실패할 경우에는 발생하지 않습니다. 이 경우 전체 데이터스토어에 액세스할 수 없게 되고 더 이상 I/O를 허용하지 않습니다.

    반면 비헤드 익스텐트만 실패하고 헤드 익스텐트는 액세스 가능한 상태로 유지되면 데이터스토어 하트비트가 정상 상태로 표시됩니다. 호스트와 데이터스토어 간의 I/O는 계속됩니다. 그러나 실패한 비헤드 익스텐트에 의존하는 I/O는 마찬가지로 모두 실패합니다. 다른 I/O 트랜잭션은 실패한 I/O가 해결될 때까지 기다리는 동안 누적될 수 있으며 이로 인해 호스트가 응답하지 않는 상태가 될 수 있습니다.

    해결 방법: 이 문제를 해결하려면 비헤드 익스텐트의 PDL 상태를 수정합니다.

  • APD 또는 PDL 상태에서 복구된 후 클러스터된 가상 디스크를 지원하는 VMFS 데이터스토어가 액세스할 수 없는 상태로 유지될 수 있음

    이 문제는 클러스터된 가상 디스크 지원이 사용되도록 설정된 데이터스토어에서만 발생할 수 있습니다. 데이터스토어가 APD(모든 경로 다운) 또는 PDL(영구적 디바이스 손실) 상태에서 복구되면 액세스할 수 없는 상태로 유지됩니다. VMkernel 로그에 다음과 유사한 여러 SCSI3 예약 충돌 메시지가 표시될 수 있습니다.

    2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"

    이 문제는 클러스터에 참여하는 ESXi 호스트가 데이터스토어에 대한 SCSI 예약을 잃고 데이터스토어가 복구된 후 항상 자동으로 예약을 다시 획득할 수 없기 때문에 발생할 수 있습니다.

    해결 방법: 다음 명령을 사용하여 수동으로 예약을 등록합니다.

    vmkfstools -L registerkey /vmfs/devices/disks/<device name>

    여기서 <device name>은 데이터스토어가 생성된 디바이스의 이름입니다.

  • 가상 NVMe 컨트롤러는 Windows 10 게스트 운영 체제의 기본 디스크 컨트롤러입니다.

    가상 NVMe 컨트롤러는 하드웨어 버전 15 이상을 사용할 때 다음 게스트 운영 체제의 기본 디스크 컨트롤러입니다.

    Windows 10
    Windows Server 2016
    Windows Server 2019

    가상 NVMe 컨트롤러를 사용하는 경우 일부 기능을 사용하지 못할 수 있습니다. 자세한 내용은 https://kb.vmware.com/s/article/2147714를 참조하십시오.

    참고: 일부 클라이언트는 이전 기본값인 LSI Logic SAS를 사용합니다. 여기에는 ESXi Host Client 및 PowerCLI가 포함됩니다.

    해결 방법: 가상 NVMe에서 사용할 수 없는 기능이 필요한 경우 VMware PVSCSI(VMware 반가상화 SCSI) 또는 LSI Logic SAS로 전환합니다. VMware PVSCSI(VMware 반가상화 SCSI) 사용에 대한 자세한 내용은 https://kb.vmware.com/s/article/1010398을 참조하십시오.

  • ESXi 호스트를 vSphere 7.0으로 업그레이드한 후 중복된 코어 클레임 규칙이 있으면 예기치 않은 동작이 발생할 수 있음

    클레임 규칙은 특정 스토리지 디바이스 경로를 소유하는 다중 경로 지정 플러그인(예: NMP, HPP 등)을 결정합니다. ESXi 7.0은 중복된 클레임 규칙을 지원하지 않습니다. 하지만 레거시 릴리스에서 업그레이드를 통해 상속된 기존 클레임 규칙에 중복 규칙을 추가하는 경우 ESXi 7.0 호스트에서 경고하지 않습니다. 중복 규칙을 사용하면 의도하지 않은 플러그인이 스토리지 디바이스를 클레임할 수 있으며 이로 인해 예기치 않은 결과가 발생할 수 있습니다.

    해결 방법: 중복된 코어 클레임 규칙을 사용하지 마십시오. 새 클레임 규칙을 추가하기 전에 일치하는 기존 클레임 규칙이 있으면 삭제하십시오.

  • 규정 준수 상태 필터가 설정된 CNS 쿼리를 완료하는 데 비정상적으로 오랜 시간이 걸릴 수 있음

    CNS QueryVolume API를 사용하면 볼륨 상태 및 규정 준수 상태와 같은 CNS 볼륨에 대한 정보를 가져올 수 있습니다. 개별 볼륨의 규정 준수 상태를 확인하면 결과를 빠르게 얻을 수 있습니다. 그러나 CNS QueryVolume API를 호출하여 여러 볼륨(수십 또는 수백 개)의 규정 준수 상태를 확인할 때에는 쿼리가 느리게 실행될 수 있습니다.

    해결 방법: 대량의 쿼리를 사용하지 않습니다. 규정 준수 상태를 얻어야 하는 경우 한 번에 하나의 볼륨을 쿼리하거나 쿼리 API의 볼륨 수를 20개 이하로 제한합니다. 쿼리를 사용하는 동안에는 최상의 성능을 얻기 위해 다른 CNS 작업을 실행하지 않습니다.

  • 새로운 항목 삭제된 CNS 볼륨이 일시적으로 CNS UI에 있는 것처럼 나타날 수 있음

    CNS 볼륨을 지원하는 FCD 디스크를 삭제한 후에도 볼륨이 여전히 CNS UI에 있는 것처럼 나타날 수 있습니다. 하지만 볼륨 삭제 시도는 실패합니다. 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    참조된 개체 또는 항목을 찾을 수 없습니다.

    해결 방법: 다음에 전체 동기화를 수행하면 불일치 문제가 해결되고 CNS UI가 올바로 업데이트됩니다.

  • 새로운 항목 여러 CNS 볼륨을 동일한 포드에 연결하려고 시도하면 종종 오류와 함께 작업이 실패할 수 있음

    여러 볼륨을 동일한 포드에 동시에 연결하는 경우 연결 작업에서 종종 동일한 컨트롤러 슬롯을 선택합니다. 그 결과 하나의 작업만 성공하고 다른 볼륨 마운트는 실패합니다.

    해결 방법: 노드 VM에 사용 가능한 컨트롤러 슬롯이 있는 경우 Kubernetes가 실패한 작업을 재시도하면 작업이 성공합니다.

  • 새로운 항목 특정 상황에서, CNS 작업이 실패했는데도 vSphere Client에서 작업 상태가 성공으로 나타남

    이러한 문제는 예를 들어 호환되지 않는 스토리지 정책을 사용하여 CNS 볼륨을 생성하는 경우에 발생할 수 있습니다. 작업이 실패했지만 vSphere Client는 작업 상태를 성공으로 표시합니다.

    해결 방법: vSphere Client에서 작업 상태가 성공으로 나타난다고 해서 CNS 작업이 성공했다고 단정할 수 없습니다. 작업의 성공 여부를 확인하려면 그 결과를 검토해야 합니다.

  • 새로운 항목 CNS 영구 볼륨에 대한 삭제 작업에 실패하면 vSphere 데이터스토어에서 볼륨이 삭제되지 않은 상태로 남을 수 있음

    이 문제는 CNS Delete API가 포드에 아직 연결되어 있는 영구 볼륨을 삭제하려고 할 때 발생할 수 있습니다. 예를 들어, 포드가 실행되는 Kubernetes 네임스페이스를 삭제하면, 결과적으로, CNS에서 볼륨이 지워지고 CNS 쿼리 작업이 볼륨을 반환하지 않습니다. 하지만 볼륨은 데이터스토어에 계속 상주하며, CNS Delete API 작업을 반복해도 삭제할 수 없습니다.

    해결 방법: 없음.

vCenter Server 및 vSphere Client 문제
  • PNID 변경 후 벤더 제공자가 오프라인으로 전환됨

    vCenter IP 주소를 변경하면(PNID 변경) 등록된 벤더 제공자가 오프라인으로 전환됩니다.

    해결 방법: 벤더 제공자를 다시 등록합니다.

  • 가상 시스템의 크로스 vCenter 마이그레이션이 오류와 함께 실패함

    크로스 vCenter vMotion을 사용하여 VM의 스토리지 및 호스트를 다른 vCenter Server 인스턴스로 이동하는 경우 현재 상태에서 허용되지 않는 작업입니다. 오류가 표시될 수 있습니다. 

    이 오류는 VM에 암호화 또는 기타 IO 필터 규칙과 같은 호스트 기반 규칙이 포함된 스토리지 정책이 할당되어 있는 경우 호스트 선택 단계 후 그리고 데이터스토어 선택 단계 전에 UI 마법사에 표시됩니다.

    해결 방법: 호스트 기반 규칙 없이 VM 및 해당 디스크를 스토리지 정책에 할당합니다. 소스 VM이 암호화된 경우 VM의 암호를 해독해야 할 수 있습니다. 그런 다음 크로스 vCenter vMotion 작업을 다시 시도합니다.

  • vCenter UI, 호스트 UI 및 MOB의 [하드웨어 상태] 탭에서 스토리지 센서 정보에 잘못된 값이 표시됨

    vCenter UI에서 호스트 > 모니터 > 하드웨어 상태 > 스토리지 센서로 이동했을 때 스토리지 정보에 잘못된 값 또는 알 수 없는 값이 표시됩니다. 호스트 UI 및 MOB 경로 "runtime.hardwareStatusInfo.storageStatusInfo"에서도 같은 문제가 발생합니다.

    해결 방법: 없음.

  • vSphere UI 호스트 고급 설정에 현재 제품 잠금 관리자 위치와 기본값이 빈 상태로 표시됨

    vSphere UI 호스트 고급 설정에 현재 제품 잠금 관리자 위치와 기본값이 빈 상태로 표시됩니다. 실제로는 제품 위치 symlink가 생성되고 유효하므로 서로 일치하지 않습니다. 이는 사용자에게 혼란을 줍니다. 기본값은 UI에서 수정할 수 없습니다.

    해결 방법: 사용자는 호스트에서 esxcli 명령을 사용하여 아래와 같이 현재 제품 잠금 관리자 위치 기본값을 수정할 수 있습니다.

    1. 다음을 사용하여 기존 제품 잠금 관리자 위치 설정을 제거합니다. "esxcli system settings advanced remove -o ProductLockerLocation"

    2. 적절한 기본값으로 제품 잠금 관리자 위치 설정을 다시 추가합니다.

          2. a.  ESXi가 전체 설치인 경우 기본값은 "/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"입니다.

          2. b. ESXi가 autodeploy와 같은 PXEboot 구성인 경우 기본값은: "/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"입니다.

          다음 명령을 실행하여 위치를 자동으로 파악합니다. export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`

          다음 설정을 추가합니다. esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT

    단일 명령을 실행하여 2단계에서 위의 모든 단계를 결합할 수 있습니다.

    esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`

  • vCenter Cloud Gateway가 SDDC에 연결된 경우, 온-프레미스 vSphere Client에 연결된 SDDC(소프트웨어 정의 데이터 센터) vCenter Server 인스턴스가 표시됨

    vCenter Cloud Gateway가 온-프레미스 vCenter Server와 동일한 환경에 배포되고 SDDC에 연결되면 온-프레미스 vSphere Client에 SDDC vCenter Server가 나타납니다. 이것은 예기치 않은 동작이며 연결된 SDDC vCenter Server는 무시해야 합니다. 연결된 SDDC vCenter Server와 관련된 모든 작업은 vCenter Cloud Gateway 내에서 실행 중인 vSphere Client에서 수행해야 합니다.

    해결 방법: 없음.

가상 시스템 관리 문제
  • 사용자 지정 스크립트의 postcustomization 섹션이 게스트 사용자 지정 전에 실행됨

    Linux 게스트 운영 체제에 대해 게스트 사용자 지정 스크립트를 실행할 때 사용자 지정 규격에 정의된 사용자 지정 스크립트의 precustomization 섹션은 게스트 사용자 지정 전에 실행되고 postcustomization 섹션은 그 후에 실행됩니다. 가상 시스템의 게스트 운영 체제에서 Cloud-Init를 사용하도록 설정하면 Cloud-Init의 알려진 문제로 인해 postcustomization 섹션이 게스트 사용자 지정 전에 실행됩니다.

    해결 방법: Cloud-Init를 사용하지 않도록 설정하고 표준 게스트 사용자 지정을 사용합니다. 

  • 공유 스토리지가 없는 vSphere vMotion, Storage vMotion 및 vMotion의 그룹 마이그레이션 작업이 오류로 인해 실패함

    여러 디스크와 다중 수준 스냅샷이 포함된 VM에서 그룹 마이그레이션 작업을 수행하면 다음 오류 메시지와 함께 작업이 실패합니다. com.vmware.vc.GenericVmConfigFault 데이터를 기다리는 동안 실패했습니다. 오류 195887167. 원격 호스트에서 연결이 닫혔습니다. 시간 초과 때문일 수 있습니다.

    해결 방법: 실패한 VM에서 한 번에 하나씩 마이그레이션 작업을 다시 시도합니다.

  • URL에서의 OVF 또는 OVA 템플릿 배포가 403 금지 오류와 함께 실패함

    HTTP 쿼리 매개 변수가 포함된 URL은 지원되지 않습니다. 예를 들어 http://webaddress.com?file=abc.ovf 또는 미리 서명된 Amazon S3 URL 등입니다.

    해결 방법: 파일을 다운로드하고 로컬 파일 시스템에서 해당 파일을 배포합니다.

  • 이름에 ASCII가 아닌 문자가 포함된 로컬 OVF 파일을 가져오거나 배포하면 작업이 실패하고 오류가 표시될 수 있음

    이름에 ASCII가 아닌 문자가 포함된 로컬 .ovf 파일을 가져오는 경우 400 잘못된 요청 오류가 표시될 수 있습니다. vSphere Client에서 가상 시스템을 배포하기 위해 이러한 .ovf 파일을 사용하면 배포 프로세스가 0%에서 중지됩니다. 그에 따라 400 잘못된 요청 오류 또는 500 내부 서버 오류가 표시될 수 있습니다.

    해결 방법:

    1. .ovf.vmdk 파일 이름에서 ASCII가 아닌 문자를 제거합니다.
      • .ovf 파일을 편집하려면 텍스트 편집기로 파일을 엽니다.
      • ASCII가 아닌 .vmdk 파일 이름을 검색하고 ASCII로 변경합니다.
    2. 저장된 파일을 다시 가져오거나 배포합니다. 
  • 새로운 항목 가상 시스템 폴더에서 세 번째 수준의 중첩 개체를 볼 수 없음

    다음 단계를 수행합니다.

    1. 데이터 센터로 이동하여 가상 시스템 폴더를 생성합니다.
    2. 가상 시스템 폴더에서 중첩된 가상 시스템 폴더를 생성합니다.
    3. 두 번째 폴더에서 중첩된 다른 가상 시스템, 가상 시스템 폴더, vApp 또는 VM 템플릿을 생성합니다.

    그 결과, VM 및 템플릿 인벤토리 트리에서 세 번째 중첩된 폴더의 개체를 볼 수 없습니다.

    해결 방법: 세 번째 중첩된 폴더의 개체를 보려면 두 번째 중첩된 폴더로 이동하고 [VM] 탭을 선택 합니다.

vSphere HA 및 Fault Tolerance 문제
  • 수정된 항목 클러스터 전체 APD와 같은 스토리지 액세스 불가능에서 복구된 후 클러스터 VM의 링크가 끊어질 수 있음

    클러스터에서 HA 및 VMCP가 사용되도록 설정된 경우에도 일부 VM은 클러스터 전체 APD 복구 후 연결이 끊어진 상태에 있을 수 있습니다.

    이 문제는 다음과 같은 조건이 동시에 발생할 때 일어날 수 있습니다.

    • 클러스터의 모든 호스트에서 APD가 발생하고 VMCP 시간 초과에 도달할 때까지 복구하지 않습니다.
    • 호스트의 APD로 인해 HA 기본 노드가 페일오버를 시작합니다.
    • 다음 중 하나로 인해 HA 페일오버 중 전원 켜기 API가 실패합니다.
      • 동일한 호스트에서 APD
      • 전체 클러스터의 연속 접속 APD
      • 스토리지 문제
      • 리소스 비가용성
    • FDM이 실패한 VM을 등록 취소하지 않고 VC의 호스트 동기화에서 여러 호스트가 동일한 VM을 보고한다고 응답하는 기간 동안 FDM 등록 취소 및 VC 탈취 VM 논리가 시작될 수 있습니다. FDM와 VC 모두 서로 다른 호스트에서 동일한 VM의 서로 다른 등록 사본을 등록 취소하여 VM의 분리를 유발합니다.

    해결 방법: APD 복구 후 클러스터 내에서 분리된 VM을 수동으로 등록 취소하고 다시 등록해야 합니다.

    분리된 VM을 수동으로 다시 등록하지 않는 경우 HA는 분리된 VM의 페일오버를 시도하지만 이 작업은 APD 복구 시점에 따라 5~10시간 정도의 시간이 걸릴 수 있습니다.

    클러스터의 전체 기능은 이러한 경우에 영향을 받지 않으며 HA는 계속 VM을 보호합니다. 이것은 문제가 지속되는 동안 VC에 표시되는 이상 징후입니다.

vSphere Lifecycle Manager 문제
  • 모든 호스트의 이미지 설정 및 업데이트를 집합적으로 관리하도록 이미 설정된 클러스터에서 NSX-T를 사용하도록 설정할 수 없음

    NSX-T는 이미지 관리를 위한 vSphere Lifecycle Manager 기능과 호환되지 않습니다. 클러스터에 있는 모든 호스트의 이미지 설정 및 업데이트를 집합적으로 관리하도록 클러스터를 설정하면 해당 클러스터에서 NSX-T를 사용하도록 설정할 수 없습니다. 그러나 이 클러스터에 NSX Edge를 배포할 수 있습니다.

    해결 방법: 기준선을 사용하여 관리할 수 있는 새 클러스터로 호스트를 이동하고 이 새 클러스터에서 NSX-T를 사용하도록 설정합니다.

  • vSphere Lifecycle Manager 및 vSAN 파일 서비스를 vSphere 7.0 릴리스의 vSAN 클러스터에서 동시에 사용하도록 설정할 수 없음

    클러스터에서 vSphere Lifecycle Manager를 사용하도록 설정한 경우에는 동일한 클러스터에서 vSAN 파일 서비스를 사용하도록 설정할 수 없으며 그 반대의 경우도 마찬가지입니다. VSAN 파일 서비스를 사용하도록 설정된 클러스터에서 vSphere Lifecycle Manager를 사용하도록 설정하려면 먼저 vSAN 파일 서비스를 사용하지 않도록 설정하고 작업을 다시 시도하십시오. 단일 이미지로 관리되는 클러스터로 전환하는 경우 해당 클러스터에서 vSphere Lifecycle Manager를 사용하지 않도록 설정할 수 없습니다.

    해결 방법: 없음.

  • vSphere Auto Deploy를 사용하여 단일 이미지로 관리하는 클러스터에 ESXi 7.0 호스트를 추가할 수 없음

    vSphere Auto Deploy에서 [인벤토리에 추가] 워크플로를 사용하여 단일 이미지로 관리하는 클러스터에 ESXi 호스트를 추가하려고 하면 작업이 실패합니다. 기존 Auto Deploy 규칙 집합에 일치하는 패턴이 없기 때문에 이 오류가 발생합니다. 작업이 자동으로 실패하고 호스트가 [검색된 호스트] 탭에 남아 있습니다.

    해결 방법:

    1. [검색된 호스트] 탭에서 규칙 집합과 일치하지 않는 ESXi 호스트를 제거합니다.
    2. 규칙을 생성하거나 기존 Auto Deploy 규칙을 편집합니다. 여기서 호스트 대상 위치는 이미지로 관리되는 클러스터입니다.
    3. 호스트를 재부팅합니다.

     

    vSphere Lifecycle Manager에서 이미지로 관리하는 클러스터에 호스트가 추가됩니다.

  • 하드웨어 지원 관리자를 사용할 수 없는 경우 vSphere HA(High Availability) 기능이 영향을 받음

    펌웨어 및 드라이버 추가 기능이 선택되고 vSphere HA가 사용되도록 설정된, 단일 이미지로 관리하는 클러스터에 대해 하드웨어 지원 관리자를 사용할 수 없는 경우 vSphere HA 기능이 영향을 받습니다. 다음 오류가 발생할 수 있습니다.

    • 클러스터에서 vSphere HA를 구성하지 못했습니다.
    • 호스트에서 vSphere HA 에이전트의 구성을 완료할 수 없습니다. 클러스터에 HA VIB를 적용하는 중 오류 발생.
    • vSphere HA에 업데이트 적용 실패: 일반 시스템 오류가 발생했습니다. 유효 구성 요소 맵을 가져오지 못했습니다.
    • vSphere HA를 사용하지 않도록 설정하는 작업 실패: [솔루션 삭제] 작업에 실패했습니다. 일반 시스템 오류가 발생했습니다. 디포 또는 하드웨어 지원 관리자에서 하드웨어 지원 패키지를 찾을 수 없습니다.

     

    해결 방법:

    • 하드웨어 지원 관리자를 일시적으로 사용할 수 없는 경우 다음 단계를 수행합니다.
    1. 하드웨어 지원 관리자를 vCenter Server에 다시 연결 합니다.
    2. [호스트 및 클러스터] 메뉴에서 클러스터를 선택합니다.
    3. [구성] 탭을 선택합니다.
    4. [서비스]에서 [vSphere 가용성]을 클릭합니다.
    5. vSphere HA를 다시 사용하도록 설정합니다.
    • 하드웨어 지원 관리자를 영구적으로 사용할 수 없는 경우 다음 단계를 수행합니다.
    1. 이미지 규격에서 하드웨어 지원 관리자 및 하드웨어 지원 패키지를 제거합니다.
    2. vSphere HA를 다시 사용하도록 설정합니다.
    3. [호스트 및 클러스터] 메뉴에서 클러스터를 선택합니다.
    4. [업데이트] 탭을 선택합니다.
    5. [편집]을 클릭합니다.
    6. 펌웨어 및 드라이버 추가 기능을 제거하고 [저장]을 클릭합니다.
    7. [구성] 탭을 선택합니다.
    8. [서비스]에서 [vSphere 가용성]을 클릭합니다.
    9. vSphere HA를 다시 사용하도록 설정합니다.

     

  • vSphere Lifecycle Manager에서의 업데이트 적용 프로세스 후 클러스터에서 I/OFilter가 제거되지 않음

    vSphere Lifecycle Manager에서 클러스터에 업데이트를 적용하여 클러스터에서 I/OFilter를 제거하면 다음 오류 메시지와 함께 작업이 실패합니다. iofilter XXX이(가) 이미 있습니다. iofilter는 계속 설치된 것으로 나열됩니다.

    해결 방법:

    1. vCenter Server 관리 개체(IoFilterManager)에서 IOFilter API UninstallIoFilter_Task를 호출합니다.
    2. vSphere Lifecycle Manager에서 클러스터에 업데이트를 적용합니다.
    3. vCenter Server 관리 개체(IoFilterManager)에서 IOFilter API ResolveInstallationErrorsOnCluster_Task를 호출하여 데이터베이스를 업데이트합니다.

     

  • vSphere Lifecycle Manager에서 vSphere HA가 사용되도록 설정된 클러스터에 업데이트를 적용하는 동안 호스트를 추가하면 vSphere HA가 오류 상태가 됨

    vSphere HA가 사용되도록 설정된 클러스터에 대한 업데이트 적용 프로세스 중에 ESXi 호스트를 하나 또는 여러 개 추가하면 다음과 같은 오류 메시지가 표시됩니다. 클러스터에 HA VIB를 적용하는 중 오류 발생.

    해결 방법: 클러스터 업데이트 적용 작업을 완료한 후 다음 작업 중 하나를 수행합니다.

    • 실패한 ESXi 호스트를 마우스 오른쪽 버튼으로 클릭하고 vSphere HA 재구성을 선택합니다.
    • 클러스터에 대해 vSphere HA를 사용하지 않도록 설정했다가 다시 사용하도록 설정합니다.

     

  • vSphere Lifecycle Manager에서 vSphere HA가 사용되도록 설정된 클러스터에 업데이트를 적용하는 동안 vSphere HA를 사용하지 않도록 설정했다가 다시 사용하도록 설정하면 vSphere HA가 오류 상태가 됨

    클러스터에 대한 업데이트 적용 프로세스 중 vSphere HA를 사용하지 않도록 설정했다가 다시 사용하도록 설정하면 호스트에 vSphere HA VIB가 설치되어 있지 않음을 보고하는 vSphere HA 상태 점검으로 인해 업데이트 적용 프로세스가 실패할 수 있습니다. 다음과 같은 오류 메시지가 표시될 수 있습니다. 클러스터에 필요한 이미지 규격 설정 실패.

    해결 방법: 클러스터 업데이트 적용 작업을 완료한 후 클러스터에 대해 vSphere HA를 사용하지 않도록 설정했다가 다시 사용하도록 설정합니다.

  • vSphere Lifecycle Manager에서 권장 이미지를 확인하면 대규모 클러스터에서 성능이 저하됨

    호스트가 16개를 초과하는 대규모 클러스터의 경우 권장 사항 생성 작업을 완료하는 데 1시간 이상 걸릴 수 있으며 그렇지 않으면 작업이 중단된 것처럼 보일 수 있습니다. 권장 사항 작업의 완료 시간은 각 호스트에 구성된 디바이스 수와 권장하는 유효한 이미지를 얻기 전에 vSphere Lifecycle Manager가 처리해야 하는 디포의 이미지 후보 수에 따라 다릅니다.

    해결 방법: 없음.

  • vSphere Lifecycle Manager에서 하드웨어 호환성을 확인하면 대규모 클러스터에서 성능이 저하됨

    호스트가 16개를 초과하는 대규모 클러스터의 경우 검증 보고서 생성 작업을 완료하는 데 최대 30분의 시간이 걸릴 수 있으며 그렇지 않으면 작업이 중단된 것처럼 보일 수 있습니다. 완료 시간은 각 호스트에 구성된 디바이스 수와 클러스터에 구성된 호스트의 수에 따라 다릅니다.

    해결 방법: 없음

  • vSphere Lifecycle Manager에서 클러스터에 업데이트를 적용할 때 영어 이외의 언어로 된 불완전한 오류 메시지가 표시됨

    vCenter Server 사용자 인터페이스에서 지역화된 언어로 된 불완전한 오류 메시지가 표시될 수 있습니다. 이러한 메시지는 vSphere Lifecycle Manager에서 클러스터 업데이트 적용 프로세스가 실패한 후 표시됩니다. 예를 들어 다음과 같은 오류 메시지를 볼 수 있습니다.

    영어 오류 메시지: 클러스터 'Cluster-1'에서 실행되는 가상 시스템 'VMC on DELL EMC -FileServer'가 유지 보수 모드 전환을 방해하는 문제점을 보고했습니다. 가상 시스템 구성을 액세스할 수 없음: 파일[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx에 액세스할 수 없습니다.

    프랑스어 오류 메시지: La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : 가상 시스템 구성을 액세스할 수 없음: 파일[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx에 액세스할 수 없습니다.

    해결 방법: 없음.

  • 벤더 추가 기능, 구성 요소 또는 펌웨어 및 드라이버 추가 기능이 없는 이미지를 해당 이미지에 그러한 요소가 포함되어 있는 클러스터로 가져오더라도 기존 이미지의 이미지 요소는 제거되지 않음

    ESXi 기본 이미지만 가져온 이미지로 바뀝니다.

    해결 방법: 가져오기 프로세스가 완료되면 이미지를 편집하고 필요한 경우 벤더 추가 기능, 구성 요소 그리고 펌웨어 및 드라이버 추가 기능을 제거합니다.

  • 기준선을 사용하는 클러스터를 단일 이미지를 사용하는 클러스터로 변환하면 vSphere HA VIB가 제거된다는 주의가 표시됨

    vSphere HA가 사용되도록 설정된 기준선을 사용하는 클러스터를 단일 이미지를 사용하는 클러스터로 변환하면 vmware-fdm 구성 요소가 제거된다는 주의 메시지가 표시될 수 있습니다.

    해결 방법: 이 메시지는 무시해도 됩니다. 변환 프로세스는 vmware-fdm 구성 요소를 설치합니다.

  • 프록시 서버를 통해 인터넷에서 패치 업데이트를 다운로드하도록 vSphere Update Manager를 구성한 경우 Update Manager를 vSphere Lifecycle Manager로 변환하는 vSphere 7.0 업그레이드 후 VMware 패치 저장소에서 패치를 다운로드하지 못할 수 있음

    vCenter Server의 이전 릴리스에서는 vCenter Server 및 vSphere Update Manager에 대해 독립 프록시 설정을 구성할 수 있었습니다. vSphere 7.0으로의 업그레이드 후에는 vSphere Update Manager 서비스가 vSphere Lifecycle Manager 서비스의 일부가 됩니다. vSphere Lifecycle Manager 서비스의 경우 프록시 설정은 vCenter Server Appliance 설정에서 구성됩니다. 프록시 서버를 통해 인터넷에서 패치 업데이트를 다운로드하도록 Update Manager를 구성했지만 vCenter Server Appliance에 프록시 설정 구성이 없는 경우 vCenter Server를 버전 7.0으로 업그레이드한 후에는 vSphere Lifecycle Manager에서 VMware 디포에 연결하지 못하고 패치 또는 업데이트를 다운로드할 수 없습니다.

    해결 방법: vCenter Server Appliance 관리 인터페이스(https://vcenter-server-appliance-FQDN-or-IP-address:5480)에 로그인하여 vCenter Server Appliance에 대한 프록시 설정을 구성하고 vSphere Lifecycle Manager에서 프록시를 사용하도록 설정합니다.

기타 문제
  • 버전 6.5의 호스트 프로파일을 버전 7.0의 ESXi 호스트에 적용하는 경우 규정 준수 검사에 실패함

    버전 6.5의 호스트 프로파일을 버전 7.0의 ESXi 호스트에 적용하면 코어 덤프 파일 프로파일이 호스트 규정을 준수하지 않는 것으로 보고됩니다.

    해결 방법: 가능한 해결 방법에는 두 가지가 있습니다.

    1. 버전 6.5의 호스트 프로파일을 생성하는 경우 ESXi 호스트에서 고급 구성 옵션 VMkernel.Boot.autoCreateDumpFile을 false로 설정합니다.
    2. 버전 6.5의 기존 호스트 프로파일을 적용하는 경우 호스트 프로파일에 고급 구성 옵션 VMkernel.Boot.autoCreateDumpFile을 추가하고 고정 정책에 대한 옵션을 구성한 후 값을 false로 설정합니다.

     

  • 브라우저가 영어가 아닌 다른 언어로 설정된 경우 [작업] 드롭다운 메뉴에 항목이 포함되지 않음

    브라우저가 영어가 아닌 다른 언어로 설정되어 있을 때 vSphere Client 인벤토리의 가상 시스템 요약 탭에서 새 보기로 전환 버튼을 클릭하면 게스트 운영 체제 패널의 작업 드롭다운 메뉴에 어떤 항목도 포함되지 않습니다.

    해결 방법: 가상 시스템 페이지 상단에서 작업 드롭다운 메뉴를 선택합니다.

  • DYN_RSS(Dynamic Receive Side Scaling) 또는 GEN_RSS(Generic RSS) 기능이 켜져 있을 때 Mellanox ConnectX-4 또는 ConnectX-5 네이티브 ESXi 드라이버의 처리량이 다소 저하될 수 있음

    DYN_RSS 및 GEN_RSS 기능이 켜져 있을 때 Mellanox ConnectX-4 또는 ConnectX-5 네이티브 ESXi 드라이버는 5% 미만의 처리량 저하를 보일 수 있습니다. 이것은 정상적인 워크로드에 영향을 미치지 않습니다.

    해결 방법: 다음 명령을 사용하여 DYN_RSS 및 GEN_RSS 기능을 사용하지 않도록 설정할 수 있습니다.

    # esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"

    # reboot

  • 동일한 호스트에 있는 두 VM 간의 RDMA 트래픽이 PVRDMA 환경에서 실패할 수 있음

    PVRDMA 환경의 vSphere 7.0 구현에서 VM은 HCA가 있는 경우 로컬 통신을 위해 HCA를 통해 트래픽을 전달합니다. 그러나 qedrntv 드라이버에서는 RDMA 트래픽의 루프백이 작동하지 않습니다.  예를 들어 동일한 업링크 포트 아래에 구성된 VM에서 실행되는 RDMA 대기열 쌍은 서로 통신할 수 없습니다.

    vSphere 6.7 및 이전 버전에서는 SRQ가 사용되도록 설정된 경우 HCA가 로컬 RDMA 트래픽에 사용되었습니다. vSphere 7.0은 RoCE v2를 사용하여 SRQ가 최소 HW v14로 설정된 PVRDMA 버전을 사용하여 VM에서 HCA 루프백을 사용합니다.

    현재 버전의 Marvell FastLinQ 어댑터 펌웨어는 동일한 PF 또는 포트의 QP 간 루프백 트래픽을 지원하지 않습니다.

    해결 방법: vSphere 7.0에 인증된 기본 제공 드라이버에 필요한 지원이 추가되고 있습니다. 인박스 qedrntv 드라이버를 사용 중인 경우 3호스트 구성을 사용하고 VM을 세 번째 호스트로 마이그레이션해야 합니다.

  • qedrntv 드라이버의 불안정한 데이터그램 트래픽 QP 제한 사항

    Marvell FastLinQ qedrntv RoCE 드라이버 및 UD(불안정한 데이터그램) 트래픽에는 제한 사항이 있습니다. 대량 트래픽을 포함하는 UD 애플리케이션이 qedrntv 드라이버와 함께 실패할 수 있습니다. 또한 UD QP는 DMA MR(메모리 영역)에서만 작동할 수 있습니다. 물리적 MR 또는 FRMR은 지원되지 않습니다. 물리적 MR 또는 FRMR을 UD QP와 함께 사용하려고 시도하는 애플리케이션은 qedrntv 드라이버와 함께 사용될 때 트래픽을 전달하지 못합니다. 이러한 테스트 애플리케이션의 알려진 예는 ibv_ud_pingpongib_send_bw입니다.

    iSER, NVMe-oF(RoCE) 및 PVRDMA 같은 VMware ESXi 환경의 표준 RoCE 및 RoCEv2 사용 사례는 이 문제의 영향을 받지 않습니다. UD 트래픽에 대한 사용 사례가 제한되며 이 문제는 대량 UD 트래픽이 필요한 소규모 애플리케이션 집합에 영향을 미칩니다.

    Marvell FastLinQ 하드웨어는 RDMA UD 트래픽 오프로드를 지원하지 않습니다. GSI QP를 지원하는 VMware PVRDMA 요구 사항을 충족하기 위해 UD QP 지원의 제한된 소프트웨어 전용 구현이 qedrntv 드라이버에 추가되었습니다. 구현의 목표는 제어 경로 GSI 통신을 지원하는 것으로, 대량 트래픽 및 고급 기능을 지원하는 UD QP의 완전한 구현이 아닙니다.

    UD 지원은 소프트웨어에서 구현되므로 구현 시 과도한 트래픽을 수용하지 못할 수 있고 패킷이 삭제될 수 있습니다. 이로 인해 대량 UD 트래픽이 실패할 수 있습니다.

    해결 방법: 대량 UD QP 트래픽은 qedrntv 드라이버에서 지원되지 않으며 현재는 해결 방법이 없습니다. iSER, NVMe, RDMA 및 PVRDMA와 같은 VMware ESXi RDMA(RoCE) 사용 사례는 이 문제의 영향을 받지 않습니다.

  • iSCSI LUN을 자주 연결하거나 연결을 끊으면 QLogic 578xx NIC가 장착된 서버가 실패할 수 있음

    짧은 시간에 QLogic 578xx NIC iSCSI 연결 또는 연결 끊기를 자주 트리거하면 qfle3 드라이버 문제로 서버가 실패할 수 있습니다. 이 문제는 디바이스 펌웨어의 알려진 결함으로 인해 발생합니다.

    해결 방법: 없음.

  • Broadcom NVMe over FC 환경에서 드라이버 언로드 또는 컨트롤러 연결 끊기 작업 중에 ESXi가 실패할 수 있음

    Broadcom NVMe over FC 환경에서 드라이버 언로드 또는 컨트롤러 연결 끊기 작업 중에 ESXi가 실패하고 다음과 같은 오류 메시지가 표시될 수 있습니다. @BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19

    해결 방법: 없음.

  • ESXi가 일부 Dell 서버에서 i350/X550 NIC의 OEM 펌웨어 버전 번호를 표시하지 않음

    인박스 ixgben 드라이버는 i350/X550 NIC의 펌웨어 데이터 버전 또는 서명만 인식합니다. 일부 Dell 서버에서 OEM 펌웨어 버전 번호는 OEM 패키지 버전 영역에 프로그래밍되어 있으며, 인박스 ixgben 드라이버는 이 정보를 읽지 않습니다. 8자리 펌웨어 서명만 표시됩니다.

    해결 방법: OEM 펌웨어 버전 번호를 표시하려면 비동기 ixgben 드라이버 버전 1.7.15 이상을 설치합니다.

  • X710 또는 XL710 NIC가 ESXi에서 실패할 수 있음

    NIC를 재설정하거나 VMKernel의 내부 디바이스 트리를 조작하는 등의 특정 소거식 작업을 X710 또는 XL710 NIC에 대해 시작하면 NIC 하드웨어가 비패킷 메모리에서 데이터를 읽을 수 있습니다.

    해결 방법: NIC를 재설정하거나 vmkernel 내부 디바이스 상태를 조작하지 않습니다.

  • NVMe-oF가 시스템 재부팅 후 영구 VMHBA 이름을 보장하지 않음

    NVMe-oF는 vSphere 7.0의 새로운 기능입니다. 서버에 vmhba30+를 사용하는 USB 스토리지가 설치되어 있고 NVMe over RDMA 구성이 있는 경우 시스템 재부팅 후 VMHBA 이름이 변경될 수 있습니다. 이는 NVMe over RDMA의 VMHBA 이름 할당이 PCIe 디바이스와 다르기 때문입니다. ESXi는 지속성을 보장하지 않습니다.

    해결 방법: 없음.

  • 크기가 300 GB 이상인 vCenter 데이터베이스에 대한 백업이 실패함

    vCenter 데이터베이스 크기가 300 GB 이상인 경우 시간 초과로 인해 파일 기반 백업이 실패합니다. 다음 오류 메시지가 표시됩니다. 시간 초과! 72000초 내에 완료하지 못했습니다.

    해결 방법: 없음.

  • 버전 6.5 또는 6.7의 호스트 프로파일에 대해 ESXi 7.0 호스트의 규정 준수 상태를 확인하면 vmhba 및 vmhba 디바이스에 오류가 발생함

    버전 6.5 또는 6.7의 호스트 프로파일에 대해 nmlx5_core 또는 nvme_pcie 드라이버를 사용하는 ESXi 7.0 호스트의 규정 준수를 확인할 때 다음과 같은 오류가 발생할 수 있습니다. 여기서 address1address2는 영향받는 시스템과 관련이 있습니다.

    • 버스 유형 논리적, 주소가 address1인 vmhba 디바이스가 호스트에 없습니다.
    • 버스 유형 논리적, 주소가 address2인 vmrdma 디바이스가 호스트에 없습니다.

    이 오류는 ESXi 버전 7.0 이하에서 nmlx5_core 또는 nvme_pcie 드라이버에 의해 생성된 디바이스 주소 간에 불일치가 있기 때문에 발생합니다.

    해결 방법: 이 오류는 무시할 수 있습니다. ESXi 호스트 기능은 영향을 받지 않습니다. 규정 준수 상태 오류를 해결하려면 ESXi 호스트 버전 7.0에서 호스트 프로파일을 다시 추출하고 호스트에 새 호스트 프로파일을 적용합니다.

  • 외부 Platform Services Controller가 있는 vCenter Server 6.x에서 vCenter Server 7.0으로 업그레이드된 vCenter Server 7.0의 복원이 실패할 수 있음

    외부 Platform Services Controller가 있는 vCenter Server 6.x에서 7.0으로 업그레이드된 vCenter Server 7.0을 복원하면 복원이 실패하고 다음 오류가 표시될 수 있습니다. 장치 스토리지 목록을 검색하지 못했습니다.

    해결 방법: 복원 프로세스의 첫 단계에서 vCenter Server 7.0의 스토리지 수준을 높이십시오. 예를 들어 vCenter Server 6.7 외부 Platform Services Controller 설정 스토리지 유형이 소형인 경우 복원 프로세스를 위해 스토리지 유형을 대형으로 선택합니다.

  • 호스트 프로파일 업데이트 적용 프로세스 중에 사용하도록 설정된 SSL 프로토콜 구성 매개 변수가 구성되지 않음

    사용하도록 설정된 SSL 프로토콜 구성 매개 변수는 호스트 프로파일 업데이트 적용 중에 구성되지 않으며, 시스템 기본 프로토콜 tlsv1.2만 사용하도록 설정됩니다. 이 동작은 vCenter Server 7.0 환경에서 7.0 이하 버전의 호스트 프로파일에 대해 확인됩니다.

    해결 방법: SFCB에 대해 TLSV 1.0 또는 TLSV 1.1 SSL 프로토콜을 사용하도록 설정하려면 SSH를 사용하여 ESXi 호스트에 로그인하고 다음 ESXCLI 명령을 실행합니다. esxcli system wbem -P <protocol_name>

  • 호스트 프로파일을 사용하여 잠금 모드 설정을 구성할 수 없음

    보안 호스트 프로파일을 사용하여 잠금 모드를 구성할 수 없으며 한 번에 여러 ESXi 호스트에 적용할 수 없습니다. 각 호스트를 수동으로 구성해야 합니다.  

    해결 방법: vCenter Server 7.0에서는 보안 호스트 프로파일을 사용하여 잠금 모드를 구성하고 잠금 모드 예외 사용자 목록을 관리할 수 있습니다.

  • 호스트 프로파일이 클러스터에 적용될 때 ESXi 호스트에서 EVC(향상된 vMotion 호환성) 설정이 누락됨

    VMware 구성 파일 /etc/vmware/config의 일부 설정은 구성 파일이 수정될 때 호스트 프로파일에 의해 관리되지 않고 차단됩니다. 따라서 호스트 프로파일이 클러스터에 적용되면 EVC 설정이 손실되어 EVC 기능 손실이 발생합니다. 예를 들어 마스킹 해제된 CPU는 워크로드에 노출될 수 있습니다.

    해결 방법: 클러스터에서 관련 EVC 기준선을 재구성하여 EVC 설정을 복구합니다.

  • vCenter Server 7.0에서 코어 덤프 파티션을 정의하는 호스트 프로파일을 사용하면 오류가 발생함

    vCenter Server 7.0에서는 호스트 프로파일에서 코어 덤프 파티션을 구성하고 관리할 수 없습니다. 코어 덤프 파티션을 정의하는 호스트 프로파일을 적용하려고 하면 다음과 같은 오류가 발생합니다. 유효한 코어 덤프 파티션이 없습니다.

    해결 방법: 없음. vCenter Server 7.0에서 호스트 프로파일은 파일 기반 코어 덤프만 지원합니다.

  • 호스트 프로파일이 ESXi 호스트에서 복사되거나 호스트 프로파일이 편집되면 사용자 입력 값이 손실됨

    키 생성에 대한 명시적 규칙이 제공되는 경우에도 일부 호스트 프로파일 키는 해시 계산으로 생성됩니다. 따라서 호스트에서 설정을 복사하거나 호스트 프로파일을 편집하면 응답 파일의 사용자 입력 값이 손실됩니다.

    해결 방법: vCenter Server 7.0에서는 호스트 프로파일이 ESXi 호스트에서 복사되거나 호스트 프로파일이 편집되면 사용자 입력 설정이 유지됩니다.

  • vSphere에 대한 특정 라이브러리의 HTTP 요청이 거부될 수 있음

    vSphere 7.0의 HTTP 역방향 프록시는 이전 릴리스보다 더 엄격한 표준 규정 준수를 적용합니다. 이로 인해 애플리케이션이 vSphere에 대한 SOAP 호출을 위해 사용하는 일부 타사 라이브러리에 기존 문제가 노출될 수 있습니다.

    이러한 라이브러리를 사용하는 vSphere 애플리케이션을 개발하거나 vSphere 스택에 이러한 라이브러리에 의존하는 애플리케이션을 포함하는 경우 이러한 라이브러리가 VMOMI로 HTTP 요청을 보낼 때 연결 문제가 발생할 수 있습니다. 예를 들어 vijava 라이브러리에서 생성된 HTTP 요청은 다음과 같은 형식을 사용할 수 있습니다.

    POST /sdk HTTP/1.1
    SOAPAction
    Content-Type: text/xml; charset=utf-8
    User-Agent: Java/1.8.0_221

    이 예의 구문은 SOAPAction 다음에 콜론이 오도록 규정한 HTTP 프로토콜 헤더 필드 요구 사항을 위반합니다. 따라서 이 요청은 실행 중에 거부됩니다.

    해결 방법: 애플리케이션에 비준수 라이브러리를 활용하는 개발자는 그 대신 HTTP 표준을 따르는 라이브러리의 사용을 고려할 수 있습니다. 예를 들어 vijava 라이브러리를 사용하는 개발자는 최신 버전의 yavijava 라이브러리를 대신 사용할 수 있습니다.

  • 호스트 프로파일에서 고급 옵션 매개 변수를 편집하고 값을 false로 설정하면 값이 true로 설정됨

    호스트 프로파일에서 고급 옵션 매개 변수의 값을 false로 설정하려고 하면, 사용자 인터페이스에서 비어 있지 않은 문자열 값이 생성됩니다. 비어 있지 않은 값은 true로 해석되고 고급 옵션 매개 변수는 호스트 프로파일에 true 값을 수신합니다.

    해결 방법: 가능한 해결 방법에는 두 가지가 있습니다.

    • 참조 ESXi 호스트에서 고급 옵션 매개 변수를 false로 설정하고 호스트 프로파일에서 이 호스트에서 설정을 복사합니다.
      참고: 호스트에서 고급 옵션 매개 변수를 수정하기 전에 호스트가 호스트 프로파일을 준수해야 합니다.
    • 참조 ESXi 호스트에서 고급 옵션 매개 변수를 false로 설정하고 이 호스트에서 호스트 프로파일을 생성합니다. 그런 다음 새 호스트 프로파일의 호스트 프로파일 설정을 기존 호스트 프로파일에 복사합니다.

     

  • 업데이트 적용 프로세스 중에 SNMP 동적 방화벽 규칙 집합이 호스트 프로파일에 의해 수정됨

    SNMP 방화벽 규칙 집합은 런타임 중에 처리되는 동적 상태입니다. 호스트 프로파일이 적용되면 규칙 집합의 구성이 호스트 프로파일 및 SNMP에서 동시에 관리되므로 방화벽 설정이 예기치 않게 수정될 수 있습니다.  

    해결 방법: 가능한 해결 방법에는 두 가지가 있습니다.

    • 규칙 집합이 동적으로 자체 관리되도록 하려면 호스트 프로파일 구성에서 SNMP 방화벽 규칙 집합 옵션을 제외합니다.
    • 필요한 경우 규칙 집합의 이중 관리를 진행하려면 방화벽 규칙 집합 상태를 수정하십시오.

     

  • Broadcom 드라이버 lsi_msgpt3, lsi_msgpt35 및 lsi_mr3을 사용하는 경우 덤프 파일이 보일 수 있음

    lsi_msgpt3, lsi_msgpt35 및 lsi_mr3 컨트롤러를 사용하는 경우, 덤프 파일 lsuv2-lsi-drivers-plugin-util-zdump를 볼 위험이 있습니다. 이 플러그인 유틸리티에 사용된 storelib를 종료할 때 문제가 있습니다. ESXi 작업에는 영향을 주지 않으므로 덤프 파일을 무시해도 됩니다.

    해결 방법: 이러한 메시지는 무시해도 됩니다. 다음 명령을 사용하여 lsuv2-lsi-drivers-plugin을 제거할 수 있습니다.

    esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin

  • vCenter에서 PCI 디바이스의 SR-IOV를 구성한 후에는 재부팅이 필요하지 않지만, 타사 확장 프로그램에 의해 생성된 디바이스 구성이 손실되어 다시 적용하려면 재부팅이 필요하다는 메시지가 보일 수 있음

    ESXi 7.0에서 SR-IOV 구성은 재부팅 없이 적용되고 디바이스 드라이버가 다시 로드됩니다. ESXi 호스트에서 부팅 중에 타사 확장 프로그램이 디바이스 드라이버가 로드된 후 실행해야 하는 디바이스 구성을 수행할 수 있습니다. 이러한 타사 확장 프로그램이 디바이스 구성을 다시 적용하려면 재부팅이 필요합니다.

    해결 방법: SR-IOV를 구성한 후 재부팅하여 타사 디바이스 구성을 적용해야 합니다.

check-circle-line exclamation-circle-line close-line
Scroll to top icon