VMware vSphere 8.0 | 2022년 10월 11일

ESXi 8.0 | 2022년 10월 11일 | 빌드 20513097

vCenter Server 8.0 | 2022년 10월 11일 | 빌드 20519528

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

새로운 기능

공식 출시

  • vSphere 8.0은 GA(공식 출시)로 지정되었습니다. ESXi 8.0 GA를 기본 이미지로 사용하고 OEM 펌웨어 및 드라이버를 포함하는 사용자 지정 ISO 이미지를 사용할 수 있습니다.

    자세한 내용은 vSphere 8 공식 출시 블로그를 참조하십시오.

    중요: vSphere에서 Tanzu Kubernetes Grid Service(TKG 게스트 클러스터)를 NSX Advanced Load Balancer(이전 이름: Avi Networks)와 함께 사용하고 있으며 여러 서비스 엔진 그룹이 구성된 경우에는 이 릴리스로 업그레이드하지 마십시오. 이러한 환경에서 VMware vSphere with Tanzu 8.0으로 업그레이드하면 새 Tanzu Kubernetes 게스트 클러스터를 생성하지 못하거나 기존 감독자 클러스터의 업그레이드가 실패할 수 있습니다.

국제화

  • VMware vSphere 8.0은 다음과 같은 언어로 제공됩니다.

    • 영어

    • 이탈리아어

    • 프랑스어

    • 독일어

    • 스페인어

    • 일본어

    • 한국어

    • 중국어 간체

    • 중국어 번체

    vCenter Server, ESXi, vSphere Client, VMware Host Client를 포함하여 vSphere 8.0의 구성 요소에서는 ASCII가 아닌 입력을 사용할 수 없습니다.

호환성

  • ESXi의 가상 시스템 호환성

    ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 8.0에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 8.0에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. ESXi 업그레이드 설명서를 참조하십시오.

  • ESXi의 게스트 운영 체제 호환성

    vSphere 8.0과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에 나와 있는 ESXi 8.0 정보를 참조하십시오.

    다음 게스트 운영 체제 릴리스는 이번 릴리스에서 더 이상 사용되지 않거나 종료됩니다. 향후 vSphere 릴리스는 다음 게스트 운영 체제를 지원하지 않습니다.

    • Windows Vista, Windows 2003/R2, Windows XP: 사용되지 않음

    • Oracle Linux 5.x: 사용되지 않음

    • Oracle Linux 4.9: 종료됨

    • CentOS 5.x: 사용되지 않음

    • Asianux 3.0: 사용되지 않음

    • SUSE Linux Enterprise Server 9 SP4: 종료됨

    • SUSE Linux Enterprise Server 10 SP4: 사용되지 않음

    • SUSE Linux Enterprise Desktop 12: 사용되지 않음

    • Ubuntu 릴리스 12.04, 18.10, 19.04 및 19.10: 종료됨

    • Debian 7.x 및 8.x: 사용되지 않음

    • Debian 6.0: 종료됨

    • Photon OS 1.0: 종료됨

    • Flatcar Container Linux non-LTS 릴리스: 종료됨

    • 모든 OS X 및 macOS 릴리스: 종료됨

    • FreeBSD 9.x 및 10.x: 사용되지 않음

    • FreeBSD 7.x 및 8.x: 종료됨

    • Solaris 10.x: 사용되지 않음

    • 모든 eComStation 릴리스: 종료됨

    • 모든 SCO 릴리스: 종료됨

    • 모든 CoreOS 릴리스: 종료됨

  • ESXi의 디바이스 호환성

    ESXi 8.0과 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 8.0 정보를 참조하십시오.

  • ESXi의 하드웨어 호환성

    vSphere 8.0과 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 8.0 정보를 참조하십시오.

  • ESXi 및 vCenter Server 버전 호환성

    VMware 제품 상호 운용성 매트릭스 페이지에는 ESXi, VMware vCenter Server 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

    vSphere Lifecycle Manager 및 vSphere Client는 vCenter Server에 함께 패키지로 포함되어 있습니다.

시작하기 전에

이 릴리스의 설치 및 업그레이드

  • ESXi 8.0의 VMware Tools 번들 변경 사항

    • 다음 VMware Tools ISO 이미지는 ESXi 8.0과 함께 번들로 제공됩니다. 

      • windows.iso: VMware Tools 12.0.6은 Windows 7 SP1 또는 Windows Server 2008 R2 SP1 이상을 지원합니다.

      • linux.iso: glibc 2.11 이상이 설치된 Linux OS용 VMware Tools 10.3.24 ISO 이미지.

      다음 VMware Tools ISO 이미지를 다운로드할 수 있습니다.

      • VMware Tools 11.0.6:

        • windows.iso: Windows Vista(SP2) 및 Windows Server 2008 SP2(서비스 팩 2)용

      • VMware Tools 10.0.12:

        • winPreVista.iso: Windows 2000, Windows XP, Windows 2003용

        • linuxPreGLibc25.iso: RHEL(Red Hat Enterprise Linux) 5, SLES(SUSE Linux Enterprise Server) 11, Ubuntu 7.04 이전의 Linux 게스트 운영 체제 및 glibc 2.5 이전 버전의 기타 배포를 지원합니다.

      • solaris.iso: Solaris용 VMware Tools 이미지 10.3.10

      • darwin.iso: Mac OS X 버전 10.11 이상 지원

      ESXi와 함께 번들로 제공되지 않는 플랫폼을 위한 VMware Tools를 다운로드하려면 다음 문서에 나열된 절차를 따르십시오.

  • 설치 정보

    ESXi 및 vCenter Server 설치 및 구성에 대한 지침은 ESXi 설치 및 설정vCenter Server 설치 및 설정 설명서를 참조하십시오.

    설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

    vCenter Server 및 호스트 관리 설명서의 "라이센스 관리"

    vSphere 네트워킹 설명서의 "네트워킹"

    vSphere 보안 설명서의 "보안"에서 방화벽 포트 관련 정보 참조

    VMware의 구성 최대값 도구를 사용하여 vSphere 배포를 계획할 수 있습니다. 이 도구를 사용하면 가상 시스템, ESXi, vCenter Server, vSAN, 네트워킹 등에 대한 제한을 볼 수 있습니다. 또한 둘 이상의 제품 릴리스에 대해 제한을 비교할 수 있습니다. VMware 구성 최대값 도구는 데스크톱 및 랩톱과 같은 대형 디바이스에서 보는 것이 좋습니다.

    • 전체 ESXi 설치를 위한 USB 또는 SD 카드 디바이스 사용 중단: ESXi 8.0부터 레거시 SD 및 USB 디바이스는 제한적으로 지원되며 SD 카드로 새 플랫폼을 인증하는 것은 지원되지 않습니다. SD 및 USB 디바이스는 부트 뱅크 파티션에 대해 지원됩니다. 검증된 디바이스 목록은 partnerweb.vmware.com에서 찾을 수 있습니다. ESX-OSData 파티션을 저장하는 데 SD 및 USB 디바이스를 사용하는 것은 더 이상 지원되지 않으며, 최소 32GB인 별도의 영구 로컬 디바이스에 ESX-OSData 볼륨을 저장하는 것이 가장 좋습니다. 자세한 내용은 VMware 기술 자료 문서 85685를 참조하십시오. 

    • 증가한 ESXi 부팅 메모리 요구 사항: ESXi를 부팅하기 위한 최소 메모리 요구 사항이 4GB에서 8GB로 증가했습니다. VM을 실행하는 데 필요한 최소 메모리 양은 변경되지 않고 8GB로 유지됩니다.

    • DPU가 있는 ESXi 설치에는 'reboot -f' 옵션이 지원되지 않음: ESXi는 -f force 재부팅 옵션을 지원하지만 DPU가 있는 ESXi 구성에서 reboot -f를 사용하면 강제 재부팅으로 인해 잘못된 상태가 초래될 수 있습니다.

    • Auto Deploy를 사용하여 DPU에 ESXi를 설치할 수 없습니다. DPU에 ESXi를 새로 설치할 때는 대화형 방법 또는 스크립트로 작성된 방법을 사용할 수 있습니다.

  • 지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

    • Broadcom bnxtnet NIC 드라이버를 사용하는 ESXi 호스트의 경우 ESXi 8.0을 설치하거나 이 버전으로 업그레이드하기 전에 NIC 펌웨어가 호환되는 버전(예: 222.1.68.0 이상)인지 확인합니다. VMware 호환성 가이드에 지정된 또는 OEM에서 권장하는 호환되는 펌웨어 버전을 사용하지 않을 경우 성능 저하, 펌웨어 오류 또는 ESXi 호스트 장애와 같은 문제가 발생할 수 있습니다.

    • vSphere 8.0은 하드웨어 벤더의 지원 종료 또는 수명 종료로 표시된 CPU를 더 이상 지원하지 않습니다. 자세한 내용은 VMware 기술 자료 문서 82794를 참조하십시오.

    • 레거시 BIOS 사용 중단: vSphere 8.0에서는 UEFI(Unified Extensible Firmware Interface)를 사용하여 ESXi 호스트를 부팅하는 것이 좋습니다. 레거시 BIOS 모드에서는 일부 ESXi 8.0 호스트가 부팅되지 않을 수 있습니다. 이 변경 사항이 vSphere 시스템에 영향을 미치는 경우 VMware 기술 자료 문서 8423389682에서 자세한 내용 및 작업 계획을 참조하십시오.

  • 업그레이드 참고 사항

    • vSphere 시스템 업그레이드에 대한 모범 사례는 최신 vSphere 릴리스에 도입된 새로운 기능을 모두 사용할 수 있도록 vCenter 버전을 항상 ESXi 버전보다 크거나 같게 유지하는 것입니다. vSphere 빌드 번호에 대한 자세한 내용은 VMware vCenter Server의 빌드 번호 및 버전VMware ESXi/ESX의 빌드 번호 및 버전을 참조하십시오. vSphere 과거 릴리스 업그레이드 제한 사항에 대해서는 VMware 기술 자료 문서 67077을 참조하십시오.

    • ELM(고급 연결 모드)에서 vCenter를 업그레이드하기 전에는 복제 동기화 문제를 방지하기 위해 Single Sign-On 도메인 내의 모든 vCenter Server 및 Platform Services Controller에 대해 전원이 꺼진 동시 스냅샷을 생성하는 것이 좋습니다. 스냅샷으로 롤백해야 하는 경우 모든 PSC 및 vCenter Server를 이전 상태로 되돌릴 수 있습니다.

    • vSphere 8.0은 NSX-V(VMware NSX for vSphere)와 호환되지 않습니다. NSX for vSphere가 포함된 시스템에서 vSphere 8.0으로의 업그레이드 경로는 지원되지 않습니다. 자세한 내용은 NSX 마이그레이션 가이드를 참조하십시오.

    • ESXi 6.5에서 도입된 VMKAPI 버전 2.4가 ESXi 8.0에서 제거되었기 때문에 ESXi 6.5에서 8.0으로의 직접 업그레이드는 지원되지 않습니다. 6.7.x 또는 7.x 환경에서 VMKAPI 버전 2.4에 종속되는 ESXi 6.5 VIB가 있는 경우 이러한 VIB가 6.7.x 또는 7.x에서 8.0으로의 업그레이드를 방해합니다. ESXi 8.0으로 업그레이드하는 데 사용하는 이미지에는 버전 6.7.x 이상의 VIB만 사용해야 합니다. 최신 버전의 VIB를 제공하기 위해 2.4 이상의 VMKAPI 버전에 해당하는 개발 키트로 재인증할 수 있습니다. 자세한 내용은 VMware 기술 자료 문서 88646을 참조하십시오.

    • nmlx4_en 드라이버가 지원하는 디바이스 또는 lpfc 드라이버에서 제거된 디바이스가 있는 호스트에서 ESXi 8.0으로 업그레이드하는 경우 스토리지 또는 데이터스토어에 대한 액세스 손실, 네트워크 액세스 손실 또는 호스트의 이전 구성 손실과 같은 복구할 수 없는 결과가 발생할 수 있습니다. ESXi 8.0으로 업그레이드하기 전에 이전에 nmlx4_en 드라이버에서 지원했던 디바이스 또는 8.0 lpfc 드라이버에서 제거된 디바이스를 교체해야 합니다. ESXi 8.0에서 더 이상 지원되지 않는 디바이스의 전체 목록은 VMware 기술 자료 문서 88172를 참조하십시오.

    • ESXi 8.0 설치 및 업그레이드 워크플로는 메타데이터에 SHA256 체크섬이 없는 VIB(예: 6.7 이전 버전의 ESXi VIB)를 차단합니다. 이러한 VIB를 이후 버전인 6.7.x, 7.x 및 8.0으로 교체해야 합니다.

    • DPU에서 ESXi 업그레이드는 대화형 방법 또는 스크립트로 작성된 방법으로 지원되지 않습니다. 대신 vSphere Lifecycle Manager 또는 ESXCLI를 사용할 수 있습니다. 예를 들어 ESXi 호스트에서 실행되는 esxcli software * 명령은 호스트에 DPU가 있는 경우 DPU에서 동일한 작업을 자동으로 트리거합니다.

vSphere 8.0의 오픈 소스 구성 요소

Customer Connect 계정에 로그인한 후, vSphere 8.0에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 https://customerconnect.vmware.com/kr/downloads/info/slug/datacenter_cloud_infrastructure/vmware_vsphere/8_0#open_source에서 확인할 수 있습니다. 오픈 소스 탭에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

    • DPU(데이터 처리 장치) 지원: vSphere 8.0은 ESXi에서 NVIDIA 및 AMD Pensando SmartNIC 디바이스(일명 DPU)에 대한 지원을 추가합니다. 자세한 내용은 VMware vSphere® 분산 서비스 엔진TM 및 DPU를 사용한 네트워킹 가속화 도입을 참조하십시오.

    • TPM 프로비저닝 정책: ESX 8.0부터 복제 또는 배포 작업 중에 가상 TPM 디바이스를 자동으로 교체할 수 있는 TPM 프로비저닝 정책을 사용할 수 있습니다. 자세한 내용은 vSphere의 Windows 11 지원을 참조하십시오.

    • NPIV(N-포트 ID 가상화) 사용 중단: NPIV는 여러 개의 WWPN(Worldwide Port Name)을 사용하여 단일 파이버 채널 HBA 포트를 패브릭에 등록하는 방법을 정의하는 ANSI T11 표준이며 기존 대안이 많기 때문에 향후 vSphere 릴리스에서는 더 이상 사용되지 않습니다.

    • IWA(Windows 통합 인증) 사용 중단: IWA 기반 인증의 성능 문제로 인해 vSphere 8.0은 IWA를 더 이상 사용하지 않습니다. LDAP를 통한 AD 또는 ADFS를 사용할 수 있습니다.

    • CIM(공통 정보 모형) 및 SLP(서비스 위치 프로토콜) 사용 중단: 보안 문제로 인해 ESXi 8.0에서 CIM 및 SLP 지원이 중단되었으며 향후 ESXi 릴리스에서 제거될 예정입니다. 대안으로, CIMPDK(CIM 제공자 개발 키트) 및 VAIO(vSphere API for I/O Filtering) 개발 키트와 같이 CIM에 의존하는 솔루션에 DSDK(데몬 소프트웨어 개발 키트)를 사용해 보십시오. vSphere 8.0용으로 릴리스된 CIMPDK는 없지만 ESXi 7.x용 CIM 제공자는 원활한 업그레이드 프로세스를 지원하기 위해 ESXi 8.0에서 계속 작동합니다.

    • 스마트 카드 상호 인증이 포트 3128로 이동: vCenter Server 8.0에서는 스마트 카드 상호 인증이 포트 3128로 이동되며, 구성 중에 STS(Security Token Service)를 다시 시작해야 합니다. 자세한 내용은 클라이언트 인증서를 요청하도록 역방향 프록시 구성을 참조하십시오.

    • Marvell의 VMware 인박스 qedentv NIC 드라이버는 ESXi 8.0의 ENS(고급 네트워킹 스택) 모드에서 NVMe/TCP를 지원하지 않습니다.

    • vSphere Lifecycle Manager 기준선 사용 중단: vSphere Lifecycle Manager 기준선 및 기준선 그룹(레거시 vSphere Update Manager 워크플로)을 사용하여 클러스터를 관리하는 것은 vSphere 8.0에서 지원되지만 향후 vSphere 릴리스에서는 지원이 중단됩니다. 기준선 및 기준선 그룹 대신 vSphere Lifecycle Manager 이미지를 사용하여 클러스터의 모든 호스트에 원하는 ESXi 버전을 설치하고, 타사 소프트웨어를 설치 및 업데이트하고, ESXi 또는 펌웨어를 업데이트 및 업그레이드하고, 권장 사항을 생성하고, 클러스터에 권장 이미지를 사용하는 등의 작업을 클러스터 수준에서 수행할 수 있습니다. 자세한 내용은 블로그 Introducing vSphere Lifecycle Management(vLCM)를 참조하십시오.

    • 미리 정의된 vSphere Lifecycle Manager 기준선이 VMware 컨텐츠로만 제한됨: vSphere 8.0부터 vSphere Lifecycle Manager 미리 정의된 기준선은 VMware 제공 컨텐츠로만 제한됩니다. 비동기 드라이버 및 도구와 같은 타사 컨텐츠는 더 이상 미리 정의된 기준선의 일부가 될 수 없습니다. 기준선을 업데이트하기 위해 타사 컨텐츠를 추가해야 하는 경우 사용자 지정 기준선을 수동으로 생성해야 합니다.

    • 패치 관리자 API 사용 중단: vSphere 8.0에서는 패치 관리자 API가 더 이상 사용되지 않습니다. 패치 관리자 API는 vSphere 8.0에서 지원되지만 향후 릴리스의 vSphere에서 지원이 중단될 예정입니다. 패치 관리자 API 대신 최신 vSphere API를 사용할 수 있으며, 이는 vSphere API 자동화 참조 가이드에 설명되어 있습니다.

    • 로컬 플러그인 사용 중단: vSphere 플러그인을 원격 플러그인 아키텍처로 이동하면서 vSphere 8.0이 더 이상 로컬 플러그인을 지원하지 않습니다. VMware는 향후 vSphere 릴리스에서 로컬 플러그인에 대한 지원을 중단할 계획입니다. 자세한 내용은 블로그 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 및 VMware 기술 자료 문서 87880을 참조하십시오.

    • 32비트 사용자 환경에 대한 지원 제거: ESXi 8.0은 32비트 사용자 환경을 지원하지 않으므로 32비트 하위 시스템을 사용하는 모든 솔루션을 다시 컴파일해야 합니다.

    • VMKAPI v2.4 제거: vSphere 8.0이 VMKAPI v2.4를 지원하지 않으므로 최신 버전의 API를 사용하고 최신 개발 키트로 재인증해야 합니다.

    • nmlx4_en 드라이버 제거: ESXi 8.0에서는 nmlx4_en 드라이버가 제거되며 이 드라이버의 모든 디바이스는 지원되지 않습니다.

    • TPM(신뢰할 수 있는 플랫폼 모듈) 1.2 제거: VMware는 TXT가 포함된 TPM 1.2와 같이 TPM 1.2 및 관련 기능에 대한 지원을 중단합니다. vSphere 기능을 최대한 활용하려면 TPM 1.2 대신 TPM 2.0을 사용하면 됩니다.

    • 안전하지 않은 암호 제거: SHA-1 서명 알고리즘 또는 기타 취약한 서명 알고리즘을 지정하는 X.509 인증서는 vSphere 8.0에서 더 이상 지원되지 않습니다. 서명 알고리즘이 취약한 인증서를 사용 중인 경우 사전 검사로 인해 vCenter Server 8.0 및 ESXi 8.0으로 업그레이드할 수 없습니다. 업데이트 적용 단계는 VMware 기술 자료 문서 89424를 참조하십시오.

    • 소프트웨어 FCoE 어댑터 제거: vSphere 8.0에서는 ESXi의 네이티브 FCoE 스택을 사용하는 소프트웨어 FCoE 어댑터 구성 옵션이 제거되어 지원되지 않습니다. 이러한 변경은 하드웨어 FCoE 어댑터 및 드라이버에 영향을 주지 않습니다.

    • nmlx4_en 및 lpfc 드라이버에서 사용하는 I/O 디바이스에 대한 지원 중단: VMware는 이전에 lpfc 드라이버로 지원되는 디바이스와 nmlx4_en 드라이버의 모든 디바이스와 같이 EOL에 도달하는 I/O 디바이스에 대한 지원을 중단할 예정입니다. 자세한 내용은 VMware 기술 자료 문서 88172을 참조하십시오.

    • 읽기 전용 VMDK를 FCD로 등록할 수 없음: vSphere 8.0에서는 FCD로 등록된 읽기 전용 vmdk에서 호출된 모든 가상 스토리지 수명 주기 관리 API가 지원되지 않습니다.

    • 게스트 운영 체제에 대한 지원 중단: vSphere 8.0은 다음 게스트 운영 체제에 대한 지원을 중단합니다.

      • eComStation

      • SCO Openserver

      • SCO Unixware

      • Oracle Linux 4.x

      • SLES9 SP4

      • Ubuntu 12.04 LTS

      • Debian 6.0

      • FreeBSD 7.x

      • FreeBSD 8.x

    • 신뢰할 수 없는 바이너리 실행 차단: ESXi 8.0부터 더 효과적으로 랜섬웨어 공격으로부터 보호하기 위해 신뢰할 수 없는 바이너리 실행을 제한하는 새로운 보안 옵션이 기본적으로 켜져 있습니다. 이제 execInstalledOnly 옵션은 보안을 개선하고 침해 및 손상에 대비하기 위해 애플리케이션 및 vmkernel 모듈과 같은 바이너리 실행을 제한하는 런타임 매개 변수입니다. execInstalledOnly를 사용하도록 설정하면 VIB를 사용하여 로컬로 설치된 바이너리만 실행이 허용됩니다.

    • OpenSSL 3.0 지원: ESXi 8.0은 OpenSSL 3.0을 지원하고 TLS 1.0 및 TLS 1.1에 대한 지원을 중단합니다. vCenter는 OpenSSL 3.0을 지원하지 않습니다. vCenter에서 TLS 1.2는 기본적으로 사용되도록 설정되고 TLS 1.0과 TLS 1.1은 기본적으로 사용되지 않도록 설정되지만 일시적으로 사용하도록 설정할 수는 있습니다.

    • NIC에 대한 하드웨어 타임 스탬프 기반 PTP(정밀 시간 프로토콜) 인증: vSphere 8.0에서는 IOVP(I/O Vendor Partner) 인증 프로그램의 일부로 하드웨어 타임 스탬프 기반 PTP를 지원하는 NIC에 대한 인증이 추가되었습니다.

    • vSphere Virtual Volumes에 대한 NVMe-oF(NVMe over Fabrics) 지원: vSphere 8.0은 IOVP NVMe-FC 인증 프로그램의 일부로 vSphere Virtual Volumes에 대한 NVMe-oF 지원을 추가합니다.

    • NVMeoF-RDMA 확장 기능 향상: NVMeoF를 사용하면 vSphere 8.0에서 NVMe 네임스페이스를 256개까지 그리고 경로를 4,000개까지 확장할 수 있습니다.

    • 고급 NVMe-oF 검색 서비스 지원: vSphere 8.0에서는 규정을 준수하는 NVMe 검색 서비스 및 스토리지 어레이에 대한 동적 디바이스 검색 기능이 추가됩니다.

    • Syslog 기능 향상: vSphere 8.0은 모든 vSphere 및 VCF 제품에서 ESXi syslog 데몬의 로그 형식을 통합하며 시스템이 ESXi에서 직접 syslog 로그 파일을 사용하는 경우 솔루션을 업데이트해야 합니다. 자세한 내용은 시스템 로깅 구성을 참조하십시오. 필요한 경우 RFC 5424 또는 프레임 메시지에 따라 ESXi에서 syslog 메시지 전송을 구성할 수 있습니다. 자세한 내용은 ESXi Syslog 메시지의 프로토콜, 형식 및 프레이밍을 참조하십시오. vSphere Client 또는 VMware Host Client를 사용하여 모든 syslog 제어 매개 변수를 설정할 수 있으며 SSH 또는 ESXCLI를 사용할 필요가 없습니다.

    • LSI SAS 컨트롤러의 단계적 폐지: Windows용 LSI SAS 드라이버의 수명이 다했기 때문에 vSphere 8.0은 Windows 10 이상 또는 Windows Server 2016 이상에서 VM용 LSI SAS 컨트롤러를 네이티브 VMware PVSCI 컨트롤러로 안전하게 자동 교체할 수 있습니다. Windows 10 및 Windows Server 2016 이전 버전의 VM인 경우 LSI SAS 컨트롤러를 PVSCI, SATA 또는 NVMe 컨트롤러로 수동으로 교체할 수 있습니다.

    • 미국 국방부 IL-6(영향 수준 6)에 따른 기본 RSA 키 길이 규정 준수: IL6 표준을 준수하기 위해 vCenter Server 인증서에 대해 생성된 2,048비트의 기본 RSA 키 길이가 vSphere 8.0에서 3,072비트로 증가합니다.

    • ESXi Shell에 대한 사용자 액세스 관리: vSphere 8.0부터 관리자 역할이 있는 사용자는 사용자 계정에 대한 ESXi Shell 액세스 권한을 제거하거나 부여할 수 있습니다. 자세한 내용은 보안 vSphere 호스트 프로파일을 구성하는 방법을 참조하십시오.

    • Apple Mac 플랫폼에 대한 지원 중단: ESXi 8.0은 Apple MacPro 및 Apple MacMini 플랫폼을 지원하지 않으며 게스트 운영 체제로 macOS를 지원하지 않습니다. 자세한 내용은 VMware 기술 자료 문서 88698을 참조하십시오.

    • 가상 하드웨어 버전 20: ESXi 8.0은 가상 하드웨어 버전 20을 도입하여 리소스 최대값이 더 높은 가상 시스템 및 다음에 대한 지원이 가능합니다.

      • 가상 NUMA 토폴로지

      • 향상된 직접 경로 I/O

      • 가상 하이퍼스레딩

      • vMotion 애플리케이션 알림

      • VM 데이터 집합

      • OpenGL 4.3

      • UEFI 2.7A

    • vSphere Lifecycle Manager를 통한 확장성 향상: vSphere 8.0에서는 vSphere Lifecycle Manager 이미지를 사용한 작업의 확장성이 ESXi 호스트 280개에서 1,000개로 증가합니다.

    • UEFI 2.7A 지원: vSphere 8.0은 일부 Microsoft Windows 11 기능을 지원하기 위해 UEFI 규격 버전 2.7A를 준수합니다.

    • vSphere Configuration Profiles: vSphere 8.0은 기술 미리보기에서 vSphere Configuration Profiles가 실행됩니다. 이 기능을 사용하면 클러스터 수준에서 원하는 호스트 구성을 지정하여 ESXi 클러스터 구성을 관리할 수 있고 지정된 원하는 구성에 대한 규정 준수를 위해 ESXi 호스트의 검색을 자동화하고 규정을 준수하지 않는 모든 호스트에 업데이트를 적용할 수 있습니다. 기술 미리보기 기능은 VMware VDS(vSphere Distributed Switch)를 지원하지 않고 표준 스위치를 사용하는 고객에게만 적용되며 vSphere Lifecycle Manager 이미지를 사용하여 클러스터 수명 주기를 관리해야 합니다.

    • RoCE(RDMA over Converged Ethernet) v1 제거: vSphere 8.0부터 VMware는 네트워크 프로토콜 RoCE v1을 지원하지 않습니다. RoCEv2를 사용할 수 있습니다. 가상 시스템 및 게스트 운영 체제에 대한 PVRDMA(반가상화 원격 직접 메모리 액세스) 네트워크 어댑터를 RoCEv2를 지원하는 어댑터로 마이그레이션했는지 확인하십시오.

알려진 문제

설치, 업그레이드 및 마이그레이션 문제

  • vCenter Server 복원 절차의 두 번째 단계가 90%에서 멈춤

    vCenter Server GUI 설치 관리자 또는 VAMI(vCenter Server Appliance 관리 인터페이스)를 사용하여 파일 기반 백업에서 vCenter를 복원하는 경우 복원 워크플로가 90%에서 멈추고 401 Unable to authenticate user 오류가 표시되지만 작업은 백엔드에서 성공적으로 완료됩니다. 이 문제는 배포된 시스템의 시간이 NTP 서버와 달라서 시간 동기화가 필요한 경우에 발생합니다. 시간 동기화의 결과 클럭 오차로 인해 GUI 또는 VAMI의 실행 세션이 실패할 수 있습니다.

    해결 방법: GUI 설치 관리자를 사용하는 경우 appliancesh 셸에서 restore.job.get 명령을 사용하여 복원 상태를 가져올 수 있습니다. VAMI를 사용하는 경우 브라우저를 새로 고칩니다.

  • ESXi 8.0으로 업그레이드한 후 더 이상 사용되지 않는 매개 변수로 인해 일부 nmlx5_core 드라이버 모듈 설정이 손실될 수 있음

    nmlx5_core 드라이버에 대한 일부 모듈 매개 변수(예: device_rss, drssrss)는 ESXi 8.0에서 더 이상 사용되지 않으며, 기본값과 다른 사용자 지정 값은 ESXi 8.0으로 업그레이드한 후 유지되지 않습니다.

    해결 방법: device_rss, drssrss 매개 변수의 값을 다음과 같이 바꿉니다.

    • device_rss: DRSS 매개 변수를 사용합니다.

    • drss: DRSS 매개 변수를 사용합니다.

    • rss: RSS 매개 변수를 사용합니다.

  • ESXi 8.0으로 업그레이드하는 동안 vCenter Server STS(Security Token Service) 새로 고침이 발생하면 업그레이드가 실패할 수 있음

    vSphere 8.0에서 vCenter Single Sign-On은 VMCA 생성 STS 서명 인증서를 자동으로 갱신합니다. 자동 갱신은 STS 서명 인증서가 만료되기 전과 90일 만료 경보가 트리거되기 전에 이루어집니다. 단, 클러스터의 여러 ESXi 호스트에서 vSphere Lifecycle Manager 이미지를 사용하여 업그레이드 또는 업데이트 적용 작업이 장기 실행되면서 vSphere Lifecycle Manager가 내부적으로 STS 인증서의 캐시를 생성할 수 있습니다. 매우 드문 경우지만 STS 인증서 새로 고침 작업이 장기 실행 업그레이드 또는 업데이트 적용 작업과 동시에 시작되면 업그레이드 작업이 실패할 수 있습니다. 내부 캐시의 STS 인증서가 새로 고친 인증서와 다를 수 있기 때문입니다. 업그레이드 작업이 실패한 후 일부 ESXi 호스트는 유지 보수 모드로 유지될 수 있습니다.

    해결 방법: 유지 보수 모드에서 ESXi 호스트를 수동으로 종료하고 업그레이드 또는 업데이트 적용을 다시 시도합니다. STS 서명 인증서 새로 고침 또는 가져오기 및 교체는 자동으로 수행되며 vCenter Server를 다시 시작할 필요가 없으므로 다운타임을 피할 수 있습니다.

  • ESXi 8.0으로 업그레이드한 후 VMNIC가 중단될 수 있음

    VMNIC의 피어 물리적 스위치가 미디어 자동 감지를 지원하지 않거나, 미디어 자동 감지가 사용되지 않도록 설정되어 있고 VMNIC 링크를 종료했다가 다시 시작하면 ESXi 8.0으로 업그레이드하거나 설치한 후 링크가 종료된 상태로 유지됩니다.

    해결 방법: 다음 2가지 옵션 중 하나를 사용하십시오.

    1. 일반적으로 F2 키를 누르거나 가상 콘솔을 열고 디바이스 설정 > <해당 Broadcom NIC> > 디바이스 구성 메뉴 > 미디어 자동 감지를 열어 시스템 설정 기본 메뉴로 이동하고 BIOS 설정에서 media-auto-detect 옵션을 사용하도록 설정합니다. 호스트를 재부팅합니다.

    2. 또는 다음과 유사한 ESXCLI 명령을 사용합니다. esxcli network nic set -S <your speed> -D full -n <your nic>. 이 옵션을 사용하면 링크에 고정 속도를 설정할 수도 있으며 재부팅이 필요하지 않습니다.

  • 버전 8.0의 ESXi 호스트를 이전 ESXi 버전의 기존 호스트 프로파일에 대한 참조 호스트로 사용할 수 없음

    인벤토리에서 8.0 참조 호스트만 사용할 수 있는 경우 ESXi 버전 7.x, 6.7.x 및 6.5.x에 대한 기존 호스트 프로파일 검증이 실패합니다.

    해결 방법: 인벤토리에 해당 버전의 참조 호스트가 있어야 합니다. 예를 들어 ESXi 7.0 업데이트 2 참조 호스트를 사용하여 ESXi 7.0 업데이트 2 호스트 프로파일을 업데이트하거나 편집합니다.

  • 소프트웨어 FCoE 구성을 사용하여 호스트 프로파일을 ESXi 8.0 호스트에 적용하는 경우 검증 오류로 인해 작업이 실패함

    vSphere 7.0부터 소프트웨어 FCoE는 더 이상 사용되지 않으며 vSphere 8.0 소프트웨어 FCoE 프로파일은 지원되지 않습니다. 호스트 사용자 지정을 편집하는 것과 같이 이전 버전의 호스트 프로파일을 ESXi 8.0 호스트에 적용하려고 하면 작업이 실패합니다. vSphere Client에 Host Customizations validation error와 같은 오류가 표시됩니다.

    해결 방법: 호스트 프로파일에서 소프트웨어 FCoE 구성 하위 프로파일을 사용하지 않도록 설정하십시오.

기타 문제

  • DPU가 있는 vSphere 시스템에서 ESXi 시스템 구성을 재설정하거나 복원하면 DPU가 잘못된 상태가 될 수 있음

    DPU가 있는 vSphere 시스템에서 ESXi 시스템 구성을 재설정하거나 복원하는 경우(예: 직접 콘솔에서 시스템 구성 재설정 선택), 이 작업으로 인해 DPU의 상태가 잘못될 수 있습니다. DCUI에 Failed to reset system configuration. Note that this operation cannot be performed when a managed DPU is present와 같은 오류가 표시될 수 있습니다. DPU가 있는 ESXi 설치에서는 -f 강제 재부팅 옵션에 대한 백엔드 호출이 지원되지 않습니다. ESXi 8.0은 -f 강제 재부팅 옵션을 지원하지만 DPU가 있는 ESXi 구성에서 reboot -f를 사용하면 강제 재부팅으로 인해 잘못된 상태가 초래될 수 있습니다.

    해결 방법: ESXi를 다시 설치합니다. DPU가 있는 vSphere 시스템에서 ESXi 시스템 구성을 재설정하지 마십시오.

  • vSphere API 탐색기, VMware DCLI(Datacenter CLI) 및 PowerCLI에서 작동하지 않는 API 옵션 "contentinternal"이 표시됨

    vSphere API 탐색기, DCLI 및 PowerCLI 메타데이터에 contentinternal API 옵션이 표시됩니다. 예를 들어 https://<your vCenter IP>/ui/app/devcenter/api-explorer를 열면 API 선택 드롭다운 메뉴에 옵션이 표시됩니다. 이 옵션이 작동하지 않습니다.

    해결 방법: contentinternal API 옵션을 무시하고 사용하지 않습니다.

  • 벤더 디바이스 그룹이 있는 버전이 20 이전인 HW에서 VM을 구성하는 경우 해당 VM이 예상대로 작동하지 않을 수 있음

    고속 네트워킹 디바이스와 GPU의 바인딩을 가능하게 하는 벤더 디바이스 그룹은 HW 버전이 20 이상인 VM에서만 지원되지만 벤더 디바이스 그룹이 있는 HW 버전이 20 이전인 VM을 구성하는 것은 금지되지 않습니다. 이러한 VM은 예상대로 작동하지 않을 수 있습니다. 예를 들어 전원을 켜지 못할 수 있습니다.

    해결 방법: 해당 VM에서 벤더 디바이스 그룹을 구성하기 전에 VM HW 버전이 버전 20인지 확인합니다.

  • OVF 파일 또는 컨텐츠 라이브러리에서 가상 시스템을 배포하는 경우 VM의 소켓당 코어 수가 1로 설정됨

    OVF 파일 또는 컨텐츠 라이브러리에서 가상 시스템을 배포하는 경우 ESXi가 소켓당 코어 수를 자동으로 선택하는 대신 1로 미리 설정됩니다.

    해결 방법: vSphere Client를 사용하여 소켓당 코어 수를 수동으로 설정할 수 있습니다.

  • CPU 무중단 추가가 가능하도록 설정된 가상 시스템에서 가상 NUMA(통일되지 않은 메모리 액세스) 노드에 할당된 PCI 패스스루 디바이스를 제거할 수 없음

    기본적으로 실행 중인 가상 시스템에 vCPU를 추가할 수 있도록 CPU 무중단 추가가 가능하도록 설정하면 가상 NUMA 토폴로지가 비활성화되지만 NUMA 노드에 PCI 패스스루 디바이스가 할당된 경우 디바이스를 제거하려고 시도하면 오류가 발생합니다. vSphere Client에 Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled와 같은 메시지가 표시됩니다.

    해결 방법: 없음.

  • VAMI(가상 장치 관리 인터페이스)에서 사전 업그레이드 단계 중에 주의 메시지가 표시됨

    vSphere 플러그인을 원격 플러그인 아키텍처로 이동하면서 vSphere 8.0이 더 이상 로컬 플러그인을 지원하지 않습니다. 8.0 vSphere 환경에 로컬 플러그인이 있는 경우 해당 플러그인에 대해 호환성이 손상되는 변경으로 인해 VAMI를 사용한 사전 업그레이드 확인이 실패할 수 있습니다.

    [사전 업데이트 확인] 결과 화면에 다음과 같은 오류가 표시됩니다.

    Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.

    Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.

    해결 방법: VMware 호환성 가이드VMware 제품 상호 운용성 매트릭스를 참조하거나 플러그인 벤더에게 문의하여 업그레이드를 계속하기 전에 환경의 로컬 플러그인이 vCenter Server 8.0과 호환되는지 확인하기 위한 권장 사항을 알아봅니다. 자세한 내용은 블로그 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 및 VMware 기술 자료 문서 87880을 참조하십시오.

  • 일부 ionic_en driver 업링크는 단일 수신 대기열에서만 작동하고 기본 모드에서 성능이 저하될 수 있음

    Pensando Distributed Services Platform(DSC) 어댑터에는 고속 이더넷 컨트롤러 2개(예: vmnic6vmnic7)와 관리 컨트롤러 하나(예: vmnic8)가 있습니다.

    :~] esxcfg-nics -l

    vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller

    vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller

    :~] esxcfg-nics -lS

    vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller

    고속 이더넷 컨트롤러 vmnic6vmnic7이 먼저 등록되고 RSS가 16개의 수신 대기열로 설정되어 작동합니다.

    :~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }

    그러나 드문 경우지만 관리 컨트롤러 vmnic8이 vSphere Distributed Switch에 먼저 등록되면 고속 이더넷 컨트롤러 vmnic6 또는 vmnic7 업링크는 RSS가 1개 수신 대기열로 설정되어 작동하게 될 수 있습니다.:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }

    그 결과 기본 모드에서 성능이 느려질 수 있습니다.

    해결 방법: 다음 명령을 사용하여 ESXi에서 ionic_en driver를 다시 로드합니다.:~] esxcfg-module -u ionic_en:~] esxcfg-module ionic_en:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal bind.

  • NVIDIA BlueField DPU가 하드웨어 오프로드 모드를 사용하지 않도록 설정된 경우 SR-IOV 가상 기능이 구성된 가상 시스템의 전원을 켜지 못할 수 있음

    SR-IOV 가상 기능이 구성된 가상 시스템의 전원을 켜고 작동할 수 있으려면 NVIDIA BlueField DPU가 하드웨어 오프로드 모드를 사용하도록 설정되어 있어야 합니다.

    해결 방법: SR-IOV 가상 기능이 구성된 VM이 가상 스위치에 연결된 경우 NVIDIA BlueField DPU에 대해 사용하도록 설정된 기본 하드웨어 오프로드 모드를 항상 사용합니다.

  • ESXi 8.0을 설치하는 데 사용하는 원격 관리 애플리케이션에서 USB 인터페이스를 사용하도록 설정한 경우 업링크 vusb0이 있는 추가 표준 스위치 vSwitchBMC가 표시됨

    vSphere 8.0부터 iDRAC(Integrated Dell Remote Access Controller) 및 HP ILO(Integrated Lights Out) 모두에서 USB 인터페이스가 사용되도록 설정한 경우(각각 vUSB 또는 vNIC), 업링크 vusb0이 있는 추가 표준 스위치 vSwitchBMC가 ESXi 호스트에 생성됩니다. 일부 서버에 DPU(데이터 처리 장치)가 도입된 점을 고려할 때 예상되는 결과이지만 VMware Cloud Foundation 실행 프로세스가 실패할 수 있습니다.

    해결 방법: vSphere 8.0을 설치하기 전에 벤더 설명서에 따라 사용하는 원격 관리 애플리케이션에서 USB 인터페이스를 사용하지 않도록 설정합니다.

    vSphere 8.0 설치 후 ESXCLI 명령 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable을 사용하여 다음에 호스트를 재부팅할 때 가상 스위치 vSwitchBMC 및 연결된 포트 그룹이 생성되지 않도록 합니다.

    다음 스크립트를 예제로 참조하십시오.

    ~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable

    BMCNetworkEnable의 값이 0이고 서비스가 사용되지 않도록 설정됩니다.

    ~# reboot

    호스트 재부팅 시, 원격 관리 애플리케이션 네트워크와 관련된 호스트에 가상 스위치, PortGroup 및 VMKNIC가 생성되지 않습니다.

  • Pensando DPU가 미리 설치된 HPE 서버에서 ESXi 호스트를 재부팅할 때 10분 지연이 발생할 수 있음

    드문 경우지만 Pensando DPU가 미리 설치된 HPE 서버는 DPU에 장애가 발생할 경우 재부팅하는 데 10분 넘게 걸릴 수 있습니다. 그 결과 퍼플 진단 스크린이 표시되면서 ESXi 호스트가 실패할 수 있으며 기본 대기 시간은 10분입니다.

    해결 방법: 없음.

  • DPU가 있는 vCenter Server 시스템에서 IPv6을 사용하지 않도록 설정하면 DPU를 관리할 수 없음

    vSphere Client에서 작업을 허용하더라도 DPU가 있는 ESXi 호스트에서 IPv6을 사용하지 않도록 설정하면 호스트와 디바이스 간의 내부 통신이 IPv6에 의존하기 때문에 DPU를 사용할 수 없습니다. 이 문제는 DPU가 있는 ESXi 호스트에만 영향을 미칩니다.

    해결 방법: DPU가 있는 ESXi 호스트에서 IPv6을 사용하도록 설정해야 합니다.

  • ESXi 호스트를 종료하거나 다시 시작하는 동안 DPU에서 PCI 패스스루가 활성 상태이면 보라색 진단 화면이 표시되면서 호스트가 실패함

    ESXi 호스트를 종료하거나 재부팅할 때 활성 가상 시스템이 DPU로의 PCI 패스스루(SR-IOV 또는 UPT)를 사용하는 경우 보라색 진단 화면이 표시되면서 호스트가 실패합니다. 이 문제는 DPU가 있는 시스템으로 한정되며, VM이 DPU로의 PCI 패스스루를 사용하는 경우에만 발생합니다.

    해결 방법: ESXi 호스트를 종료하거나 재부팅하기 전에 호스트가 유지 보수 모드에 있는지 또는 DPU로의 PCI 패스스루를 사용하는 VM이 실행되고 있지 않은지 확인하십시오. 가상 시스템에 대해 자동 시작 옵션을 사용하는 경우 Autostart Manager는 호스트를 종료하거나 재부팅하기 전에 이러한 VM을 중지합니다.

네트워킹 문제

  • Pensando DPU는 ESXi 호스트의 물리적 스위치 포트에서 LLDP(Link Layer Discovery Protocol)를 지원하지 않음

    DPU가 있는 ESXi 호스트에서 LLDP를 사용하도록 설정하면 호스트가 LLDP 패킷을 수신할 수 없습니다.

    해결 방법: 없음.

  • vSphere 8.0의 ENS(고급 네트워크 스택) 모드에는 Mellanox ConnectX-5, ConnectX-6 카드 Model 1 Level 2 및 Model 2를 사용할 수 없음

    하드웨어 제한으로 인해 vSphere 8.0의 ENS(고급 네트워크 스택) 모드용 Model 1 Level 2 및 Model 2는 ConnectX-5 및 ConnectX-6 어댑터 카드에서 지원되지 않습니다.

    해결 방법: ENS Model 1 Level 2 및 Model 2A를 지원하는 Mellanox ConnectX-6 Lx 및 ConnectX-6 Dx 이상 카드를 사용합니다.

  • icen 드라이버를 사용하여 SR-IOV를 사용하거나 사용하지 않도록 설정한 후 ESXi 호스트를 재부팅하지 않으면 해당 호스트에서 ENS 인터럽트 모드로 전송 노드를 구성할 때 일부 가상 시스템이 DHCP 주소를 가져오지 못할 수 있음

    ESXi 호스트에서 icen 드라이버를 사용하여 SR-IOV를 사용하거나 사용하지 않도록 설정하고 ENS 인터럽트 모드에서 전송 노드를 구성하는 경우 호스트를 재부팅하지 않으면 일부 Rx(수신) 대기열이 작동하지 않을 수 있습니다. 그 결과 일부 가상 시스템이 DHCP 주소를 가져오지 못할 수 있습니다.

    해결 방법: SR-IOV를 사용하도록 설정하지 않고 전송 노드 프로파일을 직접 추가하거나 SR-IOV를 사용하거나 사용하지 않도록 설정한 후 ESXi 호스트를 재부팅합니다.

  • DPU가 있는 vSphere 환경에서 VMware NSX 설치 또는 업그레이드가 연결 오류와 함께 실패할 수 있음

    ESXi 호스트 측의 일시적 타이밍 문제로 인해 DPU가 있는 vSphere 환경에서 NSX 설치 또는 업그레이드가 실패할 수 있습니다. nsxapi.log 파일에 Failed to get SFHC response. MessageType MT_SOFTWARE_STATUS와 같은 로그가 표시됩니다.

    해결 방법: 10분 동안 기다렸다가 NSX 설치 또는 업그레이드를 재시도하십시오.

  • 버전 4.1.3 이상의 ntg3 드라이버를 사용하는 NIC에 링크 변동이 나타남

    버전 4.1.3 이상의 ntg3 드라이버를 사용하는 두 개의 NIC가 물리적 스위치 포트에 연결되지 않고 직접 연결된 경우 링크 변동이 발생할 수 있습니다. 이 문제는 4.1.3 이전 버전의 ntg3 드라이버 또는 tg3 드라이버에서는 발생하지 않습니다. 이 문제는 경우에 따라 이러한 NIC에서 발생하는 EEE(에너지 효율 이더넷) 링크 변동과는 관련이 없습니다. EEE 문제를 해결하려면 버전 4.1.7 이상의 ntg3 드라이버를 사용하거나 물리적 스위치 포트에서 EEE를 사용하지 않도록 설정하면 됩니다.

    해결 방법: ntg3 드라이버를 버전 4.1.8로 업그레이드하고 새 모듈 매개 변수 noPhyStateSet1로 설정합니다. noPhyStateSet 매개 변수는 기본적으로 0으로 설정되며 문제가 발생한 경우를 제외하고 대부분의 환경에서는 이 매개 변수가 필요하지 않습니다.

  • VMware vSphere Distributed Switch의 MTU(최대 전송 단위)를 Pensando DPU의 9174보다 큰 값으로 설정할 수 없음

    ESXi 8.0 시스템에서 Pensando DPU를 사용하도록 설정한 vSphere 분산 서비스 엔진 기능이 있는 경우 vSphere Distributed Switch의 MTU(최대 전송 단위)를 9174보다 큰 값으로 설정할 수 없습니다.

    해결 방법: 없음.

스토리지 문제

  • 다이제스트 작업이 실패한 CBRC(컨텐츠 기반 읽기 캐시) 오류로 인해 가상 시스템의 스냅샷을 생성할 수 없음

    CBRC 다이제스트 파일을 업데이트하는 동안 컨텐츠 ID를 할당할 때 드문 경합 조건으로 인해 데이터 디스크와 다이제스트 디스크의 컨텐츠 ID가 일치하지 않을 수 있습니다. 그 결과, 가상 시스템 스냅샷을 생성할 수 없으며, 역추적에 An error occurred while saving the snapshot: A digest operation has failed와 같은 오류가 표시됩니다. 스냅샷 생성 작업은 재시도 시 완료됩니다.

    해결 방법: 스냅샷 생성 작업을 다시 시도합니다.

  • NFC(Network File Copy) 관리자의 인증되지 않은 세션으로 인해 vSAN 환경에서 vSphere Storage vMotion 작업이 실패할 수 있음

    하나 이상의 스냅샷이 있고 스토리지 정책이 서로 다른 둘 이상의 가상 디스크가 있는 가상 시스템의 vSphere Storage vMotion을 사용하여 vSAN 데이터스토어로 마이그레이션하는 작업이 실패할 수 있습니다. 이 문제는 SOAP(Simple Object Access Protocol) 본문이 허용된 크기를 초과하기 때문에 NFC 관리자의 세션이 인증되지 않아서 발생합니다.

    해결 방법: 먼저 VM 홈 네임스페이스 및 여러 가상 디스크 중 하나만 마이그레이션합니다. 작업이 완료된 후 나머지 2개 디스크에 대한 디스크 전용 마이그레이션을 수행합니다.

  • vCenter Server 8.0으로 업그레이드한 후 VASA API 버전이 자동으로 새로 고쳐지지 않음

    vCenter Server 8.0은 VASA API 버전 4.0을 지원합니다. 하지만 vCenter Server 시스템을 버전 8.0으로 업그레이드한 후 VASA API 버전이 자동으로 4.0으로 변경되지 않을 수 있습니다. 다음과 같은 2가지 경우에 이 문제가 발생할 수 있습니다.

    1. VASA API 버전 4.0을 지원하는 VASA 제공자가 이전 버전의 VMware vCenter에 등록된 경우 VMware vCenter 8.0으로 업그레이드한 후 VASA API 버전이 변경되지 않은 상태로 유지됩니다. 예를 들어 VASA API 버전 3.5와 4.0을 모두 지원하는 등록된 VASA 제공자를 사용하여 7.x 버전의 VMware vCenter 시스템을 업그레이드하는 경우 VASA 제공자가 VASA API 버전 4.0을 지원하더라도 VASA API 버전이 자동으로 4.0으로 변경되지 않습니다. 업그레이드 후 vCenter Server > 구성 > 스토리지 제공자로 이동하고 등록된 VASA 제공자의 일반 탭을 확장하면 여전히 VASA API 버전 3.5가 표시됩니다.

    2. VASA API 버전 3.5를 지원하는 VASA 제공자를 VMware vCenter 8.0 시스템에 등록하고 VASA API 버전을 4.0으로 업그레이드하는 경우 업그레이드 후에도 VASA API 버전 3.5가 계속 표시됩니다.

    해결 방법: VMware vCenter 8.0 시스템에서 VASA 제공자를 등록 취소했다가 다시 등록하십시오.

vCenter Server 및 vSphere Client 문제

  • 신뢰할 수 없는 인증서로 사용자 지정 업데이트 저장소를 사용하는 경우 vCenter Lifecycle Manager 워크플로를 사용하여 vCenter Server를 vSphere 8.0으로 업그레이드 또는 업데이트하면 실패할 수 있음

    VMCA(VMware Certificate Authority)가 신뢰하지 않는 자체 서명된 인증서로 사용자 지정 업데이트 저장소를 사용하는 경우 vCenter Lifecycle Manager가 해당 저장소에서 파일을 다운로드하지 못합니다. 그 결과 vCenter Lifecycle Manager 워크플로를 사용한 vCenter Server 업그레이드 또는 업데이트 작업이 실패하고 Failed to load the repository manifest data for the configured upgrade.오류가 표시됩니다.

    해결 방법: CLI, GUI 설치 관리자 또는 VAMI(가상 장치 관리 인터페이스)를 사용하여 업그레이드를 수행합니다. 자세한 내용은 VMware 기술 자료 문서 90259를 참조하십시오.

  • 드문 경우지만 vpxa의 요청 대기열에 대한 파일 설명자가 부족하여 ESXi 호스트가 응답하지 않고 vpxa 덤프 파일이 표시될 수 있음

    드문 경우지만 vpxa 서비스에 대한 요청이 오래 걸리는 경우(예: 느린 데이터스토어에 대한 액세스를 기다리는 경우) vpxa의 요청 대기열이 파일 설명자의 제한을 초과할 수 있습니다. 그 결과 ESXi 호스트가 일시적으로 응답하지 않을 수 있으며 /var/core 디렉토리에 vpxa-zdump.00* 파일이 표시됩니다. vpxa 로그에는 Too many open files 행이 포함됩니다.

    해결 방법: 없음. vpxa 서비스가 자동으로 다시 시작되고 문제가 해결됩니다.

  • 혼합 vCenter 환경에서 API를 사용하여 생성된 CNS(클라우드 네이티브 스토리지) 블록 볼륨에 대해 오류가 표시됨

    환경에 8.0 및 7.x 버전의 vCenter Server 시스템이 있는 경우 API를 사용하여 CNS(클라우드 네이티브 스토리지) 블록 볼륨을 생성하는 데 성공해도 CNS 볼륨 세부 정보를 보기 위해 탐색할 때 vSphere Client에 오류가 표시될 수 있습니다. 다음과 같은 오류가 표시됩니다. Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster'). 이 문제는 8.0 vCenter Server의 vSphere Client를 사용하여 7.x vCenter Server에서 관리하는 볼륨을 검토하는 경우에만 발생합니다.

    해결 방법: 7.x 버전의 vCenter Server 시스템에서 vSphere Client에 로그인하여 볼륨 속성을 검토합니다.

  • vSphere Client에서 기간별 데이터 가져오기에 대한 배너 알림이 표시되지 않음

    백엔드 문제로 인해 vSphere Client에서 기간별 데이터의 백그라운드 마이그레이션에 대한 배너 알림이 표시되지 않습니다.

    해결 방법: vSphere Client 대신 vCenter Server 관리 인터페이스를 사용합니다. 자세한 내용은 기간별 데이터 마이그레이션 모니터링 및 관리를 참조하십시오.

  • vSphere 가상 인프라를 90% 이상 로드하면 ESXi 호스트와 vCenter Server의 연결이 간헐적으로 끊길 수 있음

    드문 경우지만 vSphere 가상 인프라가 하드웨어 용량의 90% 이상을 계속 사용하면 일부 ESXi 호스트와 vCenter Server의 연결이 간헐적으로 끊길 수 있습니다. 연결은 일반적으로 몇 초 내에 복원됩니다.

    해결 방법: 예상과 달리 vCenter Server에 대한 연결이 몇 초 안에 복원되지 않으면 vSphere Client를 사용하여 ESXi 호스트를 수동으로 다시 연결하십시오.

  • 개체를 변경할 때 리소스 풀 및 클러스터의 활용률 보기가 자동으로 새로 고쳐지지 않을 수 있음

    리소스 풀 또는 클러스터의 모니터 탭에서 활용률 보기가 이미 열린 상태로 리소스 풀이나 클러스터를 변경하면 보기가 자동으로 새로 고쳐지지 않을 수 있습니다. 예를 들어 한 클러스터의 활용률 보기를 연 다음 다른 클러스터를 선택하면 첫 번째 클러스터의 통계가 계속 표시될 수 있습니다.

    해결 방법: 새로 고침 아이콘을 클릭합니다.

가상 시스템 관리 문제

  • 기존 가상 하드 디스크를 새 가상 시스템에 추가할 때 VM 구성이 거부되었다는 오류가 표시될 수 있음

    VMware Host Client를 사용하여 새 가상 시스템에 기존 가상 하드 디스크를 추가하는 경우 작업이 실패하고 The VM configuration was rejected. Please see browser Console와 같은 오류가 표시될 수 있습니다. 이 문제는 VMware Host Client가 하드 디스크 컨트롤러와 같은 일부 속성을 가져오지 못할 수도 있기 때문에 발생합니다.

    해결 방법: 하드 디스크를 선택하고 완료 준비 페이지로 이동한 후 마침을 클릭하지 마십시오. 대신 한 단계 뒤로 돌아가서 페이지가 로드될 때까지 기다린 후 다음 > 마침을 클릭하십시오.

보안 기능 문제

  • 2048비트보다 작은 RSA 키 크기를 사용하는 경우 RSA 서명 생성이 실패함

    vSphere 8.0부터 ESXi는 OpenSSL 3.0 FIPS 제공자를 사용합니다. FIPS 186-4 요구 사항의 일환으로 서명 생성을 위한 RSA 키 크기는 2048비트 이상이어야 하며 SHA1을 사용한 서명 생성은 지원되지 않습니다.

    해결 방법: 2048보다 큰 RSA 키 크기를 사용하십시오.

vSphere Lifecycle Manager 문제

  • 상태 저장 설치를 사용하도록 설정된 호스트 프로파일에서 배포된 ESXi 호스트를 이미지로 사용하여 클러스터에 다른 ESXi 호스트를 배포하는 경우 작업이 실패함

    vSphere Lifecycle Manager 클러스터에 다른 ESXi 호스트를 배포하기 위해 상태 저장 설치를 사용하도록 설정된 호스트 프로파일에서 배포된 ESXi 호스트의 이미지를 추출하면 작업이 실패합니다. vSphere Client에 A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed와 같은 오류가 표시됩니다.

    해결 방법: 클러스터의 다른 호스트를 사용하여 이미지를 추출합니다.

  • 병렬 업데이트 적용 작업이 실패하는 경우 작업을 통과하거나 건너뛴 정확한 ESXi 호스트 수가 표시되지 않음

    vSphere 8.0에서는 vSphere Lifecycle Manager가 유지 보수 모드에 있는 모든 호스트에 순차적이 아닌 병렬로 업데이트를 적용하도록 설정할 수 있습니다. 하지만 병렬 업데이트 적용 작업이 실패하는 경우 vSphere Client에서 작업을 통과하거나 실패하거나 건너뛴 정확한 호스트 수가 표시되지 않거나 그러한 수가 전혀 표시되지 않을 수 있습니다. 이 문제는 vSphere Lifecycle Manager 기능에는 영향을 주지 않고 vSphere Client의 보고에만 영향을 줍니다.

    해결 방법: 없음.

  • 8.0 이전 버전의 ESXi 호스트에서 vSphere Lifecycle Manager 이미지를 스테이징하려고 하면 오류 메시지가 표시됨

    ESXi 8.0에는 원하는 상태 이미지를 명시적으로 스테이징하는 옵션이 도입되었습니다. 이것은 소프트웨어 및 펌웨어 업데이트를 즉시 적용하지 않고 vSphere Lifecycle Manager 디포에서 ESXi 호스트로 디포 구성 요소를 다운로드하는 프로세스입니다. 단, 이미지 스테이징은 ESXi 8.0 이상 호스트에서만 지원됩니다. 8.0 이전 버전의 ESXi 호스트에서 vSphere Lifecycle Manager 이미지를 스테이징하려고 하면 해당 호스트의 스테이징이 실패하여 호스트를 건너뛴다는 메시지가 표시됩니다. 이는 예상되는 동작으로 기능 실패를 나타내지 않습니다. 모든 ESXi 8.0 이상 호스트는 지정된 원하는 이미지로 스테이징되기 때문입니다.

    해결 방법: 없음. 영향을 받는 ESXi 호스트의 버전이 8.0 이전인지 확인한 후 오류를 무시합니다.

  • vSphere Lifecycle Manager를 사용한 업데이트 적용 작업이 DPU가 있는 ESXi 호스트에서 간헐적으로 실패할 수 있음

    DPU가 있는 ESXi 호스트에서 vSphere Lifecycle Manager 업데이트 적용을 시작하면 호스트가 예상대로 업그레이드되고 재부팅되지만 재부팅 후 업데이트 적용 작업을 완료하기 전에 다음과 같은 오류가 표시될 수 있습니다.

    A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.

    이 문제는 DPU에서 업데이트 적용 후 검색의 간헐적인 시간 초과로 인해 드물게 발생하는 문제입니다.

    해결 방법: ESXi 호스트를 재부팅하고 업데이트 적용 후 검색이 포함된 vSphere Lifecycle Manager 규정 준수 검사 작업을 다시 실행합니다.

VMware Host Client 문제

  • VMware Host Client에 심각도 이벤트 상태에 대한 설명이 잘못 표시될 수 있음

    VMware Host Client에서 ESXi 호스트의 심각도 이벤트 상태에 대한 설명을 보면 IPMI(Intelligent Platform Management Interface) 또는 Lenovo XCC(XClarity Controller)를 사용하여 표시되는 설명과 다를 수 있습니다. 예를 들어, VMware Host Client에서 PSU 센서의 심각도 이벤트 상태에 대한 설명은 Transition to Non-critical from OK인데 XCC 및 IPMI에는 설명이 Transition to OK일 수 있습니다.

    해결 방법: ESXCLI 명령 esxcli hardware ipmi sdr list 및 Lenovo XCC를 사용하여 심각도 이벤트 상태에 대한 설명을 확인합니다.

게스트 운영 체제 문제

  • DMA(직접 메모리 액세스) 다시 매핑을 사용하도록 설정한 경우 Linux 게스트 운영 체제가 부팅을 완료할 수 없음

    가상 시스템에서 고급 프로세서 설정 Enable IOMMU in this virtual machine을 사용하도록 설정하고 게스트 운영 체제에서 DMA 다시 매핑을 사용하도록 설정한 경우 Linux 게스트 운영 체제가 부팅 프로세스를 완료하지 못할 수 있습니다. 이 문제는 RHEL 8.7, Ubuntu 22.04 및 22.10, SLES15 SP3 및 SP4의 최신 버전을 포함하되 이에 국한되지 않는 VMCI 기능에 대해 Linux 커널 5.18에 도입된 특정 패치가 있는 Linux 배포 및 하드웨어 버전이 20인 VM에 영향을 줍니다.

    해결 방법: 고급 옵션 vmci.dmaDatagramSupportFALSE로 설정하거나 Enable IOMMU in this virtual machine 옵션을 사용하지 않도록 설정합니다. 자세한 내용은 VMware 기술 자료 문서 89683을 참조하십시오.

  • VMCI(가상 시스템 통신 인터페이스)를 통한 통신 끊김으로 인해 VM의 게스트 운영 체제가 응답하지 않을 수 있음

    매우 특정한 상황에서 가상 시스템에 대한 vSphere vMotion 작업이 VMCI 데이터그램을 전송하는 작업과 병렬로 실행될 때 VMCI 데이터그램을 사용하는 서비스에 예기치 않은 통신 또는 통신 끊김이 발생할 수 있습니다. 동일한 조건에서 메모리 스냅샷을 복원하거나 일시 중단된 VM을 재개하거나 CPU 무중단 추가를 사용할 때도 이 문제가 발생할 수 있습니다. 그 결과 VMCI를 통해 통신하는 서비스에 의존하는 게스트 운영 체제가 응답하지 않을 수 있습니다. 이 문제는 VMCI를 통해 vSockets를 사용하는 서비스에도 영향을 줄 수 있습니다. 이 문제는 VMware Tools에 영향을 주지 않습니다. 이 문제는 RHEL 8.7, Ubuntu 22.04 및 22.10, SLES15 SP3 및 SP4의 최신 버전을 포함하되 이에 국한되지 않는 VMCI 기능에 대해 Linux 커널 5.18에 도입된 특정 패치가 있는 Linux 배포의 하드웨어 버전 20의 VM에만 해당됩니다.

    해결 방법: 고급 옵션 vmci.dmaDatagramSupportFALSE로 설정합니다. 자세한 내용은 VMware 기술 자료 문서 89683을 참조하십시오.

check-circle-line exclamation-circle-line close-line
Scroll to top icon