VMware ESXi 6.0 업데이트 1a 릴리스 정보

|

업데이트 날짜: 2015년 10월 6일

ESXi 6.0 업데이트 1a | 2015년 10월 6일 | ISO 빌드 3073146

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware ESXi 릴리스에는 다음과 같이 향상된 기능이 포함되어 있습니다.

  • I/O 필터: VAIO(vSphere APIs for I/O Filtering)는 타사가 I/O 필터라고 하는 소프트웨어 구성 요소를 생성할 수 있는 프레임워크를 제공합니다. 필터는 ESXi 호스트에 설치될 수 있고 가상 시스템 및 가상 디스크의 게스트 운영 체제 간에 이동하는 I/O 요청을 처리하여 추가적인 데이터 서비스를 가상 시스템에 제공할 수 있습니다.

  • 짧은 지연 시간 VM과 연결된 추가 시스템 컨텍스트에 대한 배타적인 선호도: 이 릴리스에는 새 VMX 옵션 sched.cpu.latencySensitivity.sysContexts가 도입되어 대부분의 시스템 컨텍스트가 아직 월드릿인 vSphere 6.0의 문제를 해결합니다. 스케줄러는 각 가상 시스템에 대해 sched.cpu.latencySensitivity.sysContexts 옵션을 사용하여 지연 시간에 민감한 워크로드에 관련되었을 수 있는 시스템 컨텍스트 집합을 자동으로 식별합니다. 이러한 시스템 컨텍스트 각각에는 하나의 전용 물리적 코어에 대한 배타적인 선호도가 제공됩니다. VMX 옵션 sched.cpu.latencySensitivity.sysContexts는 지연 시간이 짧은 VM이 시스템 컨텍스트에 대해 받을 수 있는 배타적 코어 개수를 나타냅니다.

  • Active Directory에 대한 ESXi 인증:ESXi는 ESXi와 Active Directory 간의 Kerberos 통신에 대해 AES256-CTS/AES128-CTS/RC4-HMAC 암호화만을 지원하도록 수정되었습니다.

  • SSLv3 지원: SSLv3 지원이 기본적으로 사용되지 않습니다. 자세한 내용은 기술 자료 문서 2121021을 참조하십시오.

  • DDH(Dying Disk Handling): Dying Disk Handling 기능은 커널의 지연 시간 모니터링 프레임워크, 지연 시간이 높은 기간을 감지하기 위한 대몬 및 개별 디스크와 디스크 그룹을 마운트 해제하는 메커니즘을 제공합니다.

  • 확장된 클러스터: Virtual SAN 6.0 업데이트 1은 여러 지리적 위치에 분산되어 사이트 장애 또는 네트워크 연결 끊김으로부터 데이터를 보호하는 확장된 클러스터를 지원합니다.

ESXi 6.0의 이전 릴리스

ESXi 6.0의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 릴리스의 ESXi 6.0에 대한 릴리스 정보는 다음과 같습니다.

국제화

VMware ESXi 6.0은 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체
  • 스페인어
  • 중국어 번체

vCenter Server, ESXi, vSphere Web Client, vSphere Client를 포함하여 VMware vSphere 6.0의 구성 요소에서는 ASCII가 아닌 입력을 사용할 수 없습니다.

호환성

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

vSphere Web Client는 vCenter Server에 함께 패키지되어 있습니다. vSphere Client는 모듈 ISO 파일의 일부인 VMware vCenter 자동 실행 메뉴를 통해 설치할 수 있습니다.

ESXi의 하드웨어 호환성

vSphere 6.0와 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 6.0 정보를 참조하십시오.

ESXi의 디바이스 호환성

ESXi 6.0와 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 6.0 정보를 참조하십시오.

일부 디바이스는 ESXi 6.0에서 사용되지 않으며 더 이상 지원되지 않습니다. 업그레이드 프로세스를 수행하는 동안 디바이스 드라이버가 ESXi 6.0 호스트에 설치되고 디바이스 드라이버는 ESXi 6.0에서 계속 작동할 수 있지만 디바이스는 ESXi 6.0에서 지원되지 않습니다. ESXi 6.0에서 사용되지 않아서 더 이상 지원되지 않는 디바이스 목록은 KB 2087970을 참조하십시오.

ESXi의 타사 스위치 호환성

이제 VMware에서 vSphere 6.0을 통해 Cisco Nexus 1000V를 지원합니다. vSphere를 사용하려면 최소 NX-OS 릴리스 5.2(1)SV3(1.4)이 필요합니다. Cisco Nexus 1000V에 대한 자세한 내용은 Cisco 릴리스 정보를 참조하십시오. 이전 vSphere 릴리스와 마찬가지로, Ciscso Nexus 1000V AVS 모드는 지원되지 않습니다.

ESXi의 게스트 운영 체제 호환성

vSphere 6.0과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에 나와 있는 ESXi 6.0 정보를 참조하십시오.

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 6.0에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 6.0에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스의 설치 및 업그레이드

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

vSphere 6.0 권장 배포 모델

다음 두 가지 배포 모델만 사용하는 것이 좋습니다.

  • 내장형 Platform Services Controller가 있는 vCenter Server. 데이터 센터에 하나 이상의 독립형 vCenter Server 인스턴스를 배포해야 하는 경우 이 모델을 사용하는 것이 좋습니다. 이와 같은 내장형 Platform Services Controller가 있는 vCenter Server 모델 간 복제는 권장되지 않습니다.

  • 외부 Platform Services Controller가 있는 vCenter Server. 데이터 센터에서 여러 vCenter Server 인스턴스를 연결해야 하거나 Platform Services Controller의 설치 공간을 줄이려는 경우에만 이 모델을 사용하는 것이 좋습니다. 이와 같은 외부 Platform Services Controller가 있는 vCenter Server 모델 간에는 복제가 지원됩니다.

vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

또한 KB 2108548에서도 vCenter Server를 설치하고 구성하는 방법에 대한 지침을 참조할 수 있습니다.

vCenter 호스트 OS 정보

기술 자료 문서 KB 2091273을 참조하십시오.

외부 Platform Services Controller를 사용하는 vCenter Server 및 vCenter Server Appliance 배포의 백업 및 복원

vSphere 설치 및 설정 설명서에는 외부 Platform Services Controller를 사용하는 vCenter Server 및 vCenter Server Appliance 배포의 백업 및 복원이 제한된다고 명시되어 있지만 KB 2110294의 단계에 따르면 이러한 백업 및 복원 작업을 수행할 수 있습니다.

내장형 Platform Services Controller에서 외부 Platform Services Controller로 마이그레이션

내장형 Platform Services Controller가 있는 vCenter Server를 외부 Platform Services Controller가 있는 vCenter Server로 자동으로 마이그레이션할 수 없습니다. 이 마이그레이션 유틸리티에 대한 테스트가 완료되지 않았습니다.

vCenter Server를 설치하기 전에 원하는 배포 옵션을 결정합니다. 복제 설정에 vCenter Server가 둘 이상 필요한 경우에는 항상 외부 Platform Services Controller가 있는 vCenter를 배포합니다.

타사 솔루션 마이그레이션

타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 6.0에서는 2006년 6월 이후(3사분기)에 출시된 프로세서만 지원합니다. vSphere 5.x에서 지원하는 프로세서와 비교해, vSphere 6.0에서는 더 이상 다음 프로세서를 지원하지 않습니다.

  • AMD Opteron 12xx 시리즈
  • AMD Opteron 22xx 시리즈
  • AMD Operton 82xx 시리즈

설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 6.0과 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면이 나타나면서 비호환성 정보 메시지가 표시되며 vSphere 6.0 설치 프로세스가 중지됩니다.

이 릴리스에 대한 업그레이드 정보

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

VMware vSphere 6.0의 오픈 소스 구성 요소

vSphere 6.0에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com에서 확인할 수 있습니다. My VMware 계정으로 로그인해야 합니다. 그런 다음 다운로드 메뉴에서 vSphere를 선택합니다. 오픈 소스 탭에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vCenter Server 데이터베이스. vSphere 6.0 릴리스에서 Oracle 11g 및 12c가 vCenter Server Appliance용 외부 데이터베이스로 더 이상 사용되지 않습니다. vSphere 6.0에서는 Oracle 11g 및 12c가 외부 데이터베이스로 계속 지원됩니다. 향후 주요 릴리스에서는 Orace 11g 및 12c가 vCenter Server Appliance용 외부 데이터베이스로 더 이상 지원되지 않을 예정입니다.

  • vSphere Web Client. vSphere 6.0 Web Client에서, 더 이상 개체의 모니터링 탭에서 스토리지 보고서를 선택할 수 없습니다.

  • vSphere Client. vSphere 6.0 Client에서 더 이상 스토리지 보기 탭을 사용할 수 없습니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi600-Update01에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi600-201510401-BG: ESXi 6.0 esx-base vib 업데이트

패치 릴리스 ESXi600-Update01에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-6.0.0-20151004001-standard
ESXi-6.0.0-20151004001-no-tools

패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

해결된 문제는 다음과 같이 분류됩니다.

CIM 및 API 문제
  • Emulex CIM 제공자가 동일한 ESXi 호스트에 설치되면 ServerView CIM 제공자가 하드웨어 상태를 모니터링하지 못함
    ServerView CIM 제공자 및 Emulex CIM 제공자가 동일한 ESXi 호스트에 설치되면 Emulex CIM 제공자(sfcb-emulex_ucn)가 응답하지 못해 하드웨어 상태를 모니터링하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
게스트 운영 체제 문제
  • EFI 부팅되는 Linux 게스트가 키보드 또는 마우스 입력에 응답하지 않을 수 있음
    짧은 EFI 부팅 시간 동안 마우스가 움직이는 경우 EFI 펌웨어에서 부팅되는 Linux 게스트 OS가 키보드 또는 마우스 입력에 대해 응답하지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치 문제
  • 상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 상태 비저장 ESXi 호스트에 적용하면 적용 작업을 완료하는 데 시간이 오래 걸릴 수 있음
    많은 스토리지 LUN이 있는 상태 비저장 ESXi 호스트에서 호스트 프로파일을 적용할 때 첫 번째 디스크 인수로 esx를 사용하여 상태 비저장 캐시를 사용하도록 설정하면 재부팅하는 데 시간이 오래 걸릴 수 있습니다. 이 문제는 호스트 프로필을 수동으로 적용하는 경우나 호스트를 재부팅하는 동안 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 네덜란드 버전의 Windows Server 2008 R2에서 VMware Tools 버전 9.10.0을 설치하거나 업그레이드할 수 없음
    ESXi 6.0에서 사용할 수 있는 VMware Tools 버전 9.10.0을 네덜란드 버전의 Windows Server 2008 R2에서 설치하거나 업그레이드하지 못할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.

    VMware Tools 설정 마법사가 중간에 종료되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • VIB 스테이징 작업으로 인해 ESXi 호스트 재부팅 후 VIB 설치 또는 구성 변경 내용이 손실될 수 있음
    일부 VIB가 시스템에 설치되면 esxupdate가 /altbootbank에 새 이미지를 구성하고 /altbootbank boot.cfg 부트 상태를 업데이트하도록 변경합니다. 실시간 설치 가능 VIB가 설치되어 있으면 시스템에서 구성 변경을 /altbootbank에 저장합니다. 스테이징 작업 후에 업데이트 적용 작업을 수행하지 않는 한 스테이징 작업은 /altbootbank의 컨텐츠를 삭제합니다. 스테이징 작업 후에 호스트를 재부팅하지 않는 경우 VIB 설치가 손실될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹 문제
  • 지원되지 않는 주소 패밀리 오류로 인해 VDS의 ESXi 호스트에 vmnic를 추가하지 못함
    ESXi 5.5에서 6.0으로 업그레이드한 후 VDS(vSphere Distributed Switch)에 연결된 VMware ESXi 호스트에 vmnic를 추가하지 못할 수 있습니다. 이 문제는 ipfix를 사용하도록 설정되어 있고 IPv6를 사용하지 않도록 설정되어 있는 경우에 발생합니다.

    영향을 받은 ESXi 호스트의 /var/log/vmkernel.log 파일에는 다음과 유사한 항목이 나타납니다.

    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixActivate:xxx: Activation failed for 'DvsPortset-1': Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixDVPortParamWrite:xxx: Configuration failed for switch DvsPortset-1 port xxxxxxxx : Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetDVS: xxxx: failed to init client for data com.vmware.etherswitch.port.ipfix on port xxx
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetPort: xxxx: failed to enable port 0x4000002: Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)NetPort: xxxx: disabled port 0x4000002
    cpu10:xxxxx opID=xxxxxxxx)Uplink: xxxx: vmnic2: Failed to enable the uplink port 0x4000002: Unsupported address family

    이 문제는 이 릴리스에서 해결되었습니다.

  • iPXE에서 부팅하도록 시도하면 VMXNET3 가상 어댑터를 사용하는 가상 시스템이 실패할 수 있음
    iPXE(오픈 소스 펌웨어)에서 부팅하도록 시도하면 VMXNET3 가상 어댑터를 사용하는 가상 시스템이 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 물리적인 NIC 로드를 기준으로 로드 밸런싱을 사용할 때 업링크의 연결이 끊기거나 종료되면 페일오버가 시작되지 않음
    VDS 6.0에서 물리적인 NIC 로드를 기준으로 로드 밸런싱을 사용할 때 업링크 중 하나가 연결이 끊기거나 종료되면 페일오버가 시작되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vmk10 이상이 vMotion에 대해 사용하도록 설정되면 재부팅 시 vmk1이 vMotion에 대해 사용하도록 설정될 수 있음
    vmk10 이상에서 vMotion을 사용하도록 설정하면 ESXi 호스트를 재부팅할 때 vmk1이 vMotion을 사용하도록 설정할 수 있습니다. 이 문제로 인해 vmk1을 통해 과도한 트래픽이 유발되어 네트워크 문제가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 가상 시스템 네트워크 성능 데이터 메트릭을 표준 vSwitch에 연결된 VMXNET3으로 구성된 VM에서 사용할 수 없음
    VMware vSphere Client 6.0에서 VMXNET3 어댑터를 사용하여 구성된 가상 시스템의 네트워크에 대한 실시간 성능 그래프를 볼 수 없습니다. 이는 이 옵션을 전환 대상 드롭다운 목록에서 사용할 수 없기 때문입니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Auto Deploy 중 호스트 프로파일을 적용하면 네트워크 연결이 끊어짐
    Auto Deploy 중 호스트 프로파일을 적용하면 VTEP(VXLAN Tunnel Endpoint) NIC가 관리 vmknic로 태그가 지정되므로 네트워크 연결이 끊어질 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 중첩된 ESXi의 연결이 끊어지고 e1000e 가상 NIC가 재설정될 수 있음
    중첩된 ESXi의 연결이 간헐적으로 끊어지고 e1000e 가상 NIC가 재설정될 수 있습니다. 또한 NFS 볼륨에 대한 APD(모든 경로 다운) 조건이 확인될 수도 있습니다. 다음과 유사한 내용의 오류 메시지가 vmkernel.log 파일에 기록됩니다.

    packets completion seems stuck, issuing reset

    이 문제는 이 릴리스에서 해결되었습니다.

  • 새 문제 ESXi 5.x에서 ESXi 6.0으로 업그레이드한 후 네트워크 연결 문제 발생
    ESXi 5.x에서 ESXi 6.0으로 업그레이드한 후 다음 문제가 발생할 수 있습니다.

    • ESXi 6.0 호스트의 네트워크 연결이 임의로 끊길 수 있음

    • ESXi 6.0 호스트가 재부팅 전까지 응답을 하지 않고 관리할 수 없는 상태가 됨

    • 재부팅 후에는 문제가 일정 시간 동안 일시적으로 해결되지만 임의 간격 후 다시 발생함

    • ESXi 호스트에서 NETDEV WATCHDOG 서비스가 전송 시간 초과를 기록하는 경우가 있음 /var/log/vmkernel.log 파일에 다음과 비슷한 항목이 있을 수 있습니다.

      cpu0:33245)WARNING: LinNet: netdev_watchdog:3678: NETDEV WATCHDOG: vmnic0: transmit timed out
      cpu0:33245)WARNING: at vmkdrivers/src_92/vmklinux_92/vmware/linux_net.c:3707/netdev_watchdog() (inside vmklinux)

    • 이 문제는 여러 하드웨어 벤더의 여러 네트워크 어댑터 유형에 영향을 미칠 수 있습니다. 전송 시간 초과 도중에 발생하는 정확한 로깅은 카드에 따라 다를 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지 문제
  • VM 디스크에 여러 vSCSI 필터가 연결된 경우 ESXi 호스트가 자주색 진단 화면을 표시하며 실패할 수 있음
    여러 vSCSI 필터가 VM 디스크에 연결될 때 ESXi 6.0 호스트가 실패하고 보라색 진단 화면이 표시될 수 있습니다. 자주색 진단 화면 또는 역추적에는 다음과 유사한 항목이 포함됩니다.

    cpu24:nnnnnn opID=nnnnnnnn)@BlueScreen: #PF Exception 14 in world 103492:hostd-worker IP 0x41802c2c094d addr 0x30
    PTEs:0xnnnnnnnn;0xnnnnnnnnnn;0x0;
    cpu24:nnnnnn opID=nnnnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 21:06:32:38.296
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_GetFilterPrivateData@vmkernel#nover+0x1 stack: 0xnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_IssueInternalCommand@vmkernel#nover+0xc3 stack: 0xnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FileSyncRead@<None>#<None>+0xb1 stack: 0x0
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_DigestRecompute@<None>#<None>+0xnnn stack: 0xnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FilterDigestRecompute@<None>#<None>+0x36 stack: 0x20
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x322 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@<None>#<None>+0xef stack: 0x41245111df10
    YYYY-MM-DD TIME cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@<None>#<None>+0x243 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0xnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry@vmkernel#nover+0x64 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

  • ATS가 아닌 VMFS 데이터스토어에서 스토리지에 일시적인 문제가 발생한 경우 ESXi 호스트가 응답하지 않고 vCenter Server와의 연결이 끊길 수 있음
    ESXi 호스트가 응답을 멈추고 가상 시스템에 액세스하지 못하게 될 수 있습니다. 또한 ATS가 아닌 VMFS 데이터스토어에 스토리지 문제가 있을 때 교착 상태로 인해 ESXi 호스트와 vCenter Server의 연결이 끊어질 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 가상 시스템에 대해 예상되는 값이 비공유 스토리지 및 사용된 스토리지에 반영되지 않음
    여러 가상 시스템이 스토리지 공간을 공유하면 vSphere Client 요약 페이지에서 다음에 대해 잘못된 값이 표시될 수 있습니다.

    • VM 요약 페이지의 비공유 스토리지

    • 데이터 요약 페이지의 프로비저닝 공간

    • 호스트 VM 탭의 사용된 공간


    이 문제는 이 릴리스에서 해결되었습니다.

  • 시스템의 모든 드라이브가 BIOS에 표시되더라도 vSphere에서 감지하지 못할 수 있음
    시스템에 여러 HBA가 있는 경우 lsi_msgpt3 드라이버가 HBA당 단일 드라이브를 감지할 수 없기 때문에 vSphere에서 시스템에 있는 총 18개 드라이브를 감지하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 2TB보다 큰 SAS(Serial Attached SCSI) 드라이브가 lsi-mr3 드라이버에서 감지되지 않음
    lsi_mr3 드라이버가 2TB보다 큰 SAS 드라이브를 감지하지 않습니다. 다음과 유사한 오류 메시지가 기록됩니다.

    cpu35:33396)WARNING: ScsiDeviceIO: 8469: Plugin entry point isSSD() failed on device naa.5000c50057b932a7 from plugin NMP: Failure
    cpu35:33396)ScsiDevice: 3025: Failing registration of device 'naa.5000c50057b932a7': failed to get device I/O error attributes.
    cpu35:33396)ScsiEvents: 545: Event Subsystem: Device Events, Destroyed!
    cpu35:33396)WARNING: NMP: nmp_RegisterDevice:673: Registration of NMP device with primary uid 'naa.5000c50057b932a7' failed. I/O error

    이 문제를 해결하기 위해 이 릴리스에서 lsi_mr3 드라이버가 업데이트되었습니다.

  • VMFS 볼륨이 잠겨 있음
    실패한 메타데이터 작업으로 인해 ESXi 호스트의 VMFS 볼륨이 잠긴 상태로 유지될 수 있습니다. 다음과 유사한 오류 메시지가 vmkernel.log 파일에서 확인됩니다.

    WARNING: LVM: 12976: The volume on the device naa.50002ac002ba0956:1 locked, possibly because some remote host encountered an error during a volume operation and could not recover.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 연결된 클론에서 생성된 가상 시스템에 대한 스토리지 정책을 수정하지 못할 수 있음
    연결된 클론에서 생성된 가상 시스템의 전원 켜짐 스토리지 정책을 vCenter Server에서 수정하지 못하고 다음과 유사한 오류 메시지가 발생할 수 있습니다.

    스케줄 지정 매개 변수 변경에 실패했습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 6.0 호스트에 연결된 LUN이 경로가 복구된 후 APD 시간 초과 상태로 유지될 수 있음
    APD(모든 경로 다운) 이벤트가 발생하면 ESXi에 연결된 LUN이 해당 경로가 복구된 후 액세스할 수 없는 상태로 유지될 수 있습니다. /var/log/vmkernel.log에서 순서대로 다음 이벤트를 확입니다.

    1. 디바이스가 APD 상태가 됩니다.
    2. 디바이스가 APD 상태에서 해제됩니다.
    3. 디바이스에서 하트비트 복구 및 파일 시스템 작업이 찾을 수 없음으로 인해 실패합니다.
    4. 디바이스가 APD 상태에서 이전에 해제되었더라도 APD 시간 초과가 만료됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Virtual SAN에서 트리거하는 불필요한 다시 검사 작업으로 인해 ESXi 호스트 및 가상 시스템이 응답을 중지할 수 있음
    Virtual SAN에서 정기적으로 트리거하는 불필요한 디바이스 및 파일 시스템 다시 검사 작업으로 인해 해당 환경의 ESXi 호스트 및 가상 시스템이 임의로 응답을 중지할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • VSA 프로비저닝된 NFS 스토리지에서 실행되는 가상 시스템에서 스토리지 성능이 느려질 수 있음
    VSA 프로비저닝된 NFS 스토리지에서 실행되는 가상 시스템에서 NFS 스토리지 성능이 느린 것으로 확인됩니다. 이는 ESXi 시스템에서 NFS 읽기 응답으로의 확인이 지연되기 때문입니다.

    이 문제는 이 릴리스에서 LRO TCP 패킷에 대해 지연된 ACK를 사용하지 않도록 설정하여 해결되었습니다.

  • 여러 스토리지 컨테이너에서 VM을 복제하면 소스 VMId가 복제된 VM 초기 VVOL VMId로 잘못 설정됨
    러 스토리지 컨테이너에서 가상 시스템을 복제하면 소스 VVOL(Virtual Volumes)의 VMId가 복제된 VVOL VMID에 대한 초기 값으로 설정됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 로컬 드라이브에서 WRITE SAME 명령을 사용할 수 없게 설정됨
    ESXi 6.0 업데이트 1에서는 일부 디스크 드라이브가 Write Same 기능을 완전하게 구현하지 않아 문제가 있는 동작이 발생할 수 있으므로 WRITE SAME 명령을 로컬 드라이브에서 사용할 수 없게 설정됩니다. 대신 esxcli storage core device vaai status 명령을 사용하여 로컬 드라이브에서 VAAI를 사용할 수 있게 설정하거나 해제할 수 있습니다. 자세한 내용은 기술 자료 문서 2131056을 참조하십시오.

백업 문제
  • Linux VM에서 스냅샷 중지 실패
    Linux 가상 시스템에서 중지 스냅샷을 수행할 때 VM이 스냅샷 작업 후 실패할 수 있습니다. 다음 오류 메시지가 vmware.log 파일에 로깅됩니다.

    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: done with snapshot 'smvi_UUID': 0
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: Snapshot 0 failed: Failed to quiesce the virtual machine (40).
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: GuestRpcSendTimedOut: message to toolbox timed out.
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: Vix: [18631 guestCommands.c:1926]: Error VIX_E_TOOLS_NOT_RUNNING in MAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest

    이 문제는 이 릴리스에서 해결되었습니다.

보안 문제
  • Python 패키지 업데이트
    Python 타사 라이브러리가 버전 2.7.9로 업데이트되었습니다.
  • libPNG 라이브러리 업데이트
    libPNG 라이브러리가 libpng-1.6.16으로 업데이트되었습니다.
  • OpenSSL 라이브러리 업데이트
    ESXi userworld OpenSSL 라이브러리가 버전 openssl-1.0.1m으로 업데이트되었습니다.
  • libxml2 라이브러리 업데이트
    ESXi userworld libxml2 라이브러리가 버전 2.9.2로 업데이트되었습니다.

  • VMware Tools libPNG 및 libxml2 라이브러리 업데이트
    VMware Tools libPNG 및 libxml2 라이브러리가 각각 버전 1.2.52 및 2.9.2로 업데이트되었습니다.
  • VMware Tools OpenSSL 라이브러리 업데이트
    VMware Tools OpenSSL 라이브러리가 버전 openssl-0.9.8zg로 업데이트되었습니다.
서버 구성 문제
  • 호스트 프로필 엔진에 대해 디버그 로그를 설정하고 추적 로그를 사용하도록 설정할 수 있음
    호스트가 Active Directory를 통해 부팅되는 경우 ESXi 호스트 프로필 엔진의 디버그 로그를 수집하고 추적 로그를 사용하도록 설정하는 데 새 호스트 프로필 플러그인을 사용할 수 있습니다.

  • NVIDIA GRID vGPU 장치를 사용 중일 때 많은 수의 가상 시스템의 다시 시작하려는 시도가 실패할 수 있음
    NVIDIA GRID vGPU 장치로 많은 수의 가상 시스템을 동시에 리셋하면 일부 가상 시스템에 재부팅 실패가 발생할 수 있습니다. 다음과 유사한 재부팅 오류가 표시될 수 있습니다.

    VMIOP: vGPU grid_k100에 대해 그래픽 디바이스를 사용할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 다른 VM에 영향을 주는 VM의 CPU 제한 설정
    단일 프로세서 가상 시스템의 CPU 제한을 설정할 때 ESXi 스케줄러의 결함으로 인해 전체적인 ESXi 활용률이 낮아질 수 있습니다. ESXi 스케줄러가 CPU 로드를 추정하는 동안 CPU가 제한된 VM을 실행 가능한 상태(실행되지 않는 상태일 때)로 간주할 경우 이러한 현상이 발생합니다. 이로 인해 잘못된 방식으로 로드 밸런싱이 진행될 수 있습니다. 자세한 내용은 기술 자료 문서 2096897을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.

  • FIFO를 생성하고 그 위에 데이터를 쓰려고 할 때 보라색 진단 화면이 나타날 수 있음
    FIFO를 생성한 다음 /tmp/dpafifo에 데이터를 쓰려고 시도할 경우 특정 조건하에서 보라색 진단 화면이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 패스스루 장치를 사용할 때 고급 오류 보고가 사용하지 않도록 설정됨
    패스스루에 대한 장치의 PCI 정보가 수집되는 동안 해당 장치에 대한 오류 보고가 사용하지 않도록 설정됩니다.

    이 문제는 VMkernel 부팅 옵션 pcipDisablePciErrReporting을 제공하여 PCI 패스스루 디바이스에서 오류를 보고하도록 하는 방법을 통해 이 릴리스에서 해결되었습니다. 기본적으로 이 옵션은 오류 보고가 사용되지 않음을 나타내는 TRUE로 설정됩니다.
  • CPU가 완전히 예약되지 않았을 때 가상 시스템이 경고 메시지를 표시하지 않을 수 있음
    sched.cpu.latencySensitivity를 "high"로 설정하여 가상 시스템을 생성하고 전원을 켰을 때 VM이 전체 CPU를 예약하지 못하면 vCPU에 대한 배타적 선호도가 사용하도록 설정되지 않을 수 있습니다.

    이전 릴리스에서는 CPU가 완전하게 예약되지 않은 경우 VM이 경고 메시지를 표시하지 않았습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 명령 esxcli system snmp set -p가 업데이트됨
    SNMP 에이전트가 명령 esxcli system snmp set -p <port>를 사용하여 사용자 지정 포트에서 수신하도록 구성되었습니다. ESXi 6.0 업데이트 1에서는 32768~40959 tcp/udp 포트 집합이 타사 사용을 위해 할당되었습니다. 이 범위는 더 이상 다른 포트에 의해 사용될 수 없습니다.

    ESXi 6.0 업데이트 1로 업그레이드한 후에는 사용자 지정 포트가 이 범위에 설정된 경우 SNMP 에이전트가 시작되지 않고 범위 확인 오류를 표시합니다.
  • SNMP syscontact 또는 syslocation에 단순 변경이 있어 호스트 프로필이 규정을 준수하지 않게 됨
    SNMP syscontact 또는 syslocation에 단순 변경이 있어 호스트 프로필이 규정을 준수하지 않게 됩니다. 이 문제는 SNMP 호스트 프로필 플러그인이 호스트 프로필에 연결된 모든 호스트에 단일 값만 적용하기 때문에 발생합니다. 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    SNMP 에이전트 구성이 다름

    syslocation, syscontact, v3targets, v3users 및 engineid와 같은 특정 매개 변수에 대한 호스트당 값 설정을 사용하도록 설정함으로써 이 문제는 이 릴리스에서 해결되었습니다.
가상 시스템 관리 문제
  • vSphere Flash Read Cache에 대한 성능 카운터를 가상 시스템에서 사용하지 못할 수 있음
    CBT가 가상 디스크에서 사용하도록 설정되면 FlashCacheIOPs, FlashCacheLatency, FlashCacheThroughput과 같은 vFlash 캐시 메트릭 카운터를 사용하지 못할 수 있습니다. 다음과 유사한 오류 메시지가 stats.log 파일에 로깅될 수 있습니다.

    xxxx-xx-xxTxx:xx:xx.200Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] CollectVmVdiskStats : Failed to get VFlash Cache stats for vscsi id scsi0:0 for vm 3
    xxxx-xx-xxTxx:xx:xx.189Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] GetVirtualDiskVFCStats: Failed to get VFlash Cache stat values for vmdk scsi0:0. Exception VFlash Cache filename not found!

    이 문제는 이 릴리스에서 해결되었습니다.

  • VM을 더 높은 디스플레이 해상도 및 다중 모니터 설정으로 실행할 수 없음
    PCOIP 솔루션을 사용하여 VDI에서 더 높은 디스플레이 해상도 및 다중 모니터 설정으로 가상 시스템을 실행하려는 시도가 실패할 수 있습니다. 해당 VM은 실행 시 실패하고 전원 끔 상태가 됩니다. /var/log/vmkwarning.log에 다음과 유사한 항목이 표시됩니다.

    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 12276: vmm0:VDI-STD-005:vmk: vcpu-0:p2m update buffer full
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 652: COW copy failed: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 2626: PhysPageFault failed Failure: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: UserMem: 10592: PF failed to handle a fault on mmInfo at va 0x60ee6000: Failure. Terminating...
    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu7:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu0:xxxxx)WARNING: World: vm xxxxxx: 9604: Panic'd VMM world being reaped, but no core dumped.


    이 문제는 이 릴리스에서 해결되었습니다.

VMware HA 및 Fault Tolerance 구성 문제
  • 과도한 워크로드에서 보조 가상 시스템 마이그레이션이 실패할 수 있음
    과도한 워크로드에서 Fault Tolerance를 사용하도록 설정한 보조 VM을 마이그레이션하려는 시도가 실패하고 해당 VM이 응답하지 않게 될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
기타 문제
  • vmkernel 로그에 VmkAccess 메시지가 과도하게 로깅됨
    ESXi 6.0이 있는 HP 시스템에서 런타임 중 실행되는 다음 시스템 명령에 대해 vmkernel.log에 VmkAccess 메시지가 과도하게 로깅된 것을 확인할 수 있습니다.

    • esxcfg-scsidevs
    • localcli storage core path list
    • localcli storage core device list


    VmkAccess 로그에 다음과 유사한 과도한 로그 메시지가 기록됩니다.

    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu0:36129)VmkAccess: 637: esxcfg-scsidevs: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)

    이 문제는 이 릴리스에서 해결되었습니다.
  • 새 문제 Python 패키기 가져오기가 실패함
    새로운 Python 버전 2.7.9에서 Python 패키지 가져오기가 실패할 수 있습니다. 이 문제는 새로운 버전의 Python이 모듈 pkg_resources.py를 찾지 못하여 import pkg_resources 문이 실패하기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
VMware Tools 문제
  • FUSE 라이브러리 업데이트
    FUSE 라이브러리가 libfuse 2.9.4로 업데이트되었습니다.

알려진 문제

ESXi 6.0의 알려진 문제는 다음과 같은 그룹으로 분류할 수 있습니다.

이 릴리스에 정리된 새로운 알려진 문제는 새 문제로 강조 표시됩니다.

설치 문제
  • 새 문제 최신 VMware Tools 패키지 설치 후 Linux OS에서 VMware Tools 서비스 사용자 프로세스가 실행되지 않을 수 있음
    Linux OS에서 최신 VMware Tools 패키지를 설치한 후 VMware Tools 업그레이드/설치 문제가 발생하거나 VMware Tools 서비스(vmtoolsd) 사용자 프로세스가 실행되지 않을 수 있습니다. 이 문제는 SLES10sp4와 같이 glibc 버전이 버전 2.5보다 이전 버전일 경우 발생합니다.

    해결 방법: Linux glibc를 버전 2.5 이상으로 업그레이드

업그레이드 문제

릴리스 정보의 설치 문제 섹션도 검토하십시오. 여러 설치 문제가 업그레이드 프로세스에도 영향을 미칠 수 있습니다.

  • 새 문제 ESXi 6.0의 이전 릴리스에서 ESXi 6.0 업데이트 1로 업그레이드 후 SSLv3이 Auto Deploy에서 사용 가능한 상태로 유지됨
    ESXi 6.0의 이전 릴리스에서 ESXi 6.0 업데이트 1로 업그레이드할 때 SSLv3 프로토콜이 Auto Deploy에서 사용 가능한 상태로 유지됩니다.

    해결 방법: 다음 단계에 따라 PowerCLI 명령을 사용하여 SSLv3를 사용하지 않도록 설정하십시오.

    1. 다음 명령을 실행하여 vCenter Server에 연결합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <vCenter Server의 FQDN_호스트 이름 또는 IP 주소>

    2. 다음 명령을 실행하여 현재 sslv3 상태를 확인합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 다음 명령을 실행하여 sslv3를 사용하지 않도록 설정합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. Auto Deploy 서비스를 다시 시작하여 변경 내용을 업데이트합니다.

  • 5.5.x에서 6.0으로 ESXi를 업그레이드한 후 파이버 채널 호스트 버스 어댑터 디바이스 번호가 변경될 수 있음

    5.5에서 6.0으로 ESXi를 업그레이드 중 파이버 채널 호스트 버스 어댑터 디바이스 번호가 가끔 변경됩니다. esxcli storage core adapter list 명령을 사용하는 경우 디바이스 번호가 다른 번호로 변경될 수 있습니다.

    예를 들어 ESXi 업그레이드 전 파이버 채널 호스트 버스 어댑터의 디바이스 번호는 다음과 유사합니다.

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    ESXi 6.0으로의 업그레이드 후 파이버 채널 호스트 버스 어댑터의 디바이스 번호는 다음과 유사합니다.

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    이 예는 esxcli storage core adapter list 명령을 사용하는 경우 발생할 수 있는 임의 변경을 보여 줍니다. 디바이스 별칭 번호 vmhba2 및 vmhba3이 vmhba64 및 vmhba65로 변경되지만 디바이스 번호 vmhba5 및 vmhba6은 변경되지 않습니다. 그러나 esxcli hardware pci list 명령을 사용하면 업그레이드 후에도 디바이스 번호는 변경되지 않습니다.

    이는 VMware 외부적인 문제이며 사용자에게 영향을 주지 않을 수 있습니다. ESXi는 디바이스 별칭 이름을 표시하지만 어떤 작업에도 별칭 이름을 사용하지는 않습니다. 호스트 프로파일을 사용하여 디바이스 별칭 이름을 재설정할 수 있습니다. VMware 제품 설명서 및 기술 자료 문서를 참조하십시오.

    해결 방법: 없음.

  • 업그레이드 후 Active Directory 설정이 유지되지 않음
    호스트를 ESXi 6.0으로 업그레이드하면 업그레이드 전에 ESXi 호스트에 구성된 Active Directory 설정이 유지되지 않습니다.

    해결 방법: 업그레이드 전 ESXi 버전이 5.1 이상인 경우 업그레이드 후에 호스트를 Active Directory 도메인에 추가합니다. 업그레이드 전 ESXi 버전이 5.0.x인 경우에는 업그레이드 후에 Active Directory 도메인에 호스트를 추가하지 마십시오.

  • ESXi를 6.0으로 업그레이드한 후 기존에 도메인에 추가한 호스트가 더 이상 도메인에 가입되지 않음
    처음으로 vSphere 5.5에서 vSphere 6.0으로 업그레이드할 경우 Active Directory 구성이 유지되지 않습니다.

    해결 방법: 업그레이드 후 호스트를 vCenter Server 도메인에 다시 가입시키십시오.

    1. vCenter Server에 호스트를 추가합니다.

    2. 호스트를 도메인(예: example.com)에 가입시킵니다.

    3. 모든 호스트를 ESXi 6.0으로 업그레이드합니다.

    4. 최근 업그레이드한 호스트 하나를 도메인에 수동으로 가입시킵니다.

    5. 호스트 프로파일을 추출하고 인증을 제외한 다른 모든 프로파일을 사용하지 않도록 설정합니다.

    6. 수동으로 가입한 호스트 프로파일을 최근 업그레이드한 다른 호스트에 적용합니다.

  • vCenter Server for Windows 업그레이드 후 기존에 실행 중이던 VMware ESXi Dump Collector 서비스가 기본값인 [사용 안 함] 설정으로 재설정됨
    업그레이드 프로세스에서는 VMware Vsphere ESXi Dump Collector 6.0을 vCenter Server에 대한 선택적 서비스 그룹의 일부로 설치합니다. VMware vSphere ESXi Dump Collector 서비스를 사용하도록 수동으로 설정해야만 이 서비스가 vCenter Server 6.0 for Windows의 일부로 사용됩니다.

    해결 방법: VMware 설명서를 읽거나 VMware 기술 자료 문서를 검색하여 vCenter Server 6.0 for Windows에서 선택적 서비스를 사용하도록 설정하고 실행하는 방법에 대한 정보를 참조하십시오.

    다음과 같이 운영 체제에서 VMware vSphere ESXi Dump Collector 서비스를 사용하도록 설정합니다.

    1. 제어판 메뉴에서 관리 도구를 선택하고 서비스를 두 번 클릭합니다.

    2. VMware vSphere ESXi Dump Collector를 마우스 오른쪽 버튼으로 클릭하고 시작 유형 편집을 선택합니다.

    3. 시작 유형자동으로 설정합니다.

    4. VMware vSphere ESXi Dump Collector를 마우스 오른쪽 버튼으로 클릭하고 시작을 클릭합니다.

    서비스 시작 유형이 자동으로 설정되고 서비스가 실행 중 상태가 됩니다.

vCenter Single Sign-On 및 인증서 관리 문제
  • ESXi 호스트의 SSL 인증서 업그레이드 후 VM 콘솔에 연결할 수 없음
    ESXi 호스트에서 사용되던 SSL 인증서를 업그레이드한 후 인증서 교체 시 실행 중인 모든 VM의 VM 콘솔에 연결하려고 하면 인증서 검증 오류가 발생할 수 있습니다. 이는 이전 인증서가 캐시되어 있어서 새 콘솔 연결이 불일치로 인해 거부되기 때문입니다.
    예를 들어 이전 인증서를 다른 방법을 통해 확인할 수 있다면 콘솔 연결이 성공할 수도 있지만 성공한다는 보장은 없습니다. 기존 가상 시스템 콘솔 연결에는 영향을 미치지 않지만 인증서 교체 도중 실행 중이던 콘솔이 중지되었다 다시 시작된 경우에는 문제가 발생할 수 있습니다.

    해결 방법: 호스트를 유지 보수 모드로 전환하거나 일시 중단하거나 모든 VM의 전원을 끕니다. 실행 중인 VM에만 영향을 미칩니다. 호스트를 유지 보수 모드로 전환한 후 모든 SSL 인증서 업그레이드를 수행하는 것이 가장 좋습니다.

네트워킹 문제

  • 특정 vSphere 기능이 IPv6을 지원하지 않음
    다음 기능을 제외한 모든 노드 및 구성 요소에 대해 IPv6을 사용하도록 설정할 수 있습니다.

    • DNS 서버의 FQDN(정규화된 도메인 이름)에 매핑되지 않은 ESXi 호스트 및 vCenter Server에 대한 IPv6 주소.
      해결 방법: FQDN을 사용하거나 IPv6 주소가 역방향 이름 조회를 위해 DNS 서버에서 FQDN에 매핑되어 있는지 확인합니다.

    • 가상 볼륨

    • Auto Deploy 및 호스트 프로파일의 일부로 PXE 부팅
      해결 방법: PXE는 IPv4를 통해 ESXi 호스트를 부팅하며 호스트 프로파일을 사용하여 IPv6에 대해 호스트를 구성합니다.

    • ESXi 호스트와 vCenter Server Appliance의 Active Directory 연결
      해결 방법: LDAP를 통한 Active Directory를 vCenter Single Sign-On에서 ID 소스로 사용합니다.

    • Kerberos를 사용하는 NFS 4.1 스토리지
      해결 방법: NFS 4.1에 AUTH_SYS를 사용합니다.

    • Authentication Proxy

    • vSphere Management Assistant 및 vSphere Command-Line Interface의 Active Directory 연결
      해결 방법: LDAP를 통해 Active Directory에 연결합니다.

    • vSphere Client를 사용하여 vSphere 기능에 대해 IPv6을 사용하도록 설정
      해결 방법: vSphere Web Client를 사용하여 vSphere 기능에 대해 IPv6을 사용하도록 설정합니다.

  • ESXi Dump Collector를 사용할 때 재귀적 패닉 발생 가능
    호스트가 자주색 진단 화면을 표시하고 네트워크를 통해 ESXi Dump Collector에 코어 덤프를 쓰면서 패닉 상태에 있을 때 재귀적 커널 패닉이 발생할 수 있습니다. vCenter Server의 ESXi Dump Collector에서 VMkernel zdump 파일을 문제 해결에 사용할 수 있습니다.

    재귀적 커널 패닉이 발생할 경우 호스트의 자주색 진단 화면에 다음 메시지가 표시됩니다.
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    코어 덤프를 vCenter Server의 수집기로 전송하도록 구성된 물리적 네트워크 어댑터를 통해 많은 트래픽이 통과되고 있을 때 VMkernel 패닉이 발생하면 재귀적 커널 패닉이 발생할 수 있습니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • 물리적 네트워크 어댑터를 코어 덤프 전송 전용으로 지정하여 시스템 및 가상 시스템 트래픽으로부터의 영향을 줄입니다.

    • 다음 ESXCLI 콘솔 명령을 실행하여 호스트에서 ESXi Dump Collector를 사용하지 않도록 설정합니다.
      esxcli system coredump network set --enable false

스토리지 문제

NFS 버전 4.1 문제

  • NFS 4.1 공유가 APD(모든 경로 다운) 상태에서 복구된 후 NFS 4.1 데이터스토어의 가상 시스템이 실패함
    NFS 4.1 스토리지가 APD 상태로 전환한 다음 유예 기간 후 이 상태에서 벗어나면, NFS 4.1 데이터스토어에서 실행되는 전원이 켜진 가상 시스템이 실패합니다. 유예 기간은 어레이 벤더에 따라 다릅니다.
    NFS 4.1 공유가 APD에서 복구된 후 vSphere Web Client의 가상 시스템 요약 페이지에 다음 메시지가 표시됩니다.
    VM.vmdk를 보호하는 잠금이 손실되었습니다. 기본 스토리지 문제 때문일 수 있습니다. 이 가상 시스템이 고가용성으로 구성된 경우 가상 시스템이 일부 다른 호스트에서 실행되고 있는지 확인한 후 [확인]을 클릭하십시오.
    확인을 클릭하면 충돌 파일이 생성되고 가상 시스템 전원이 꺼집니다.

    해결 방법: 없음.

  • 새 세션을 생성하려고 할 때 NFS 4.1 클라이언트에서 서버와의 동기화가 손실됨
    서버와의 연결이 중단되고 일정 시간이 지난 후 새 세션을 생성하려고 할 때 NFS 4.1 클라이언트에서 서버와의 동기화가 손실될 수 있습니다. 이 문제가 발생하면 NFS41 CREATE_SESSION 요청이 NFS4ERR_SEQ_MISORDERED로 실패했음을 알리는 많은 경고 메시지가 vmkernel.log 파일에 포함됩니다.

    해결 방법: 다음 단계를 순서대로 수행하십시오.

    1. 영향을 받은 파일 시스템의 마운트 해제를 시도합니다. 마운트를 해제할 때 열려 있는 파일이 없으면 이 작업이 성공하고 NFS 클라이언트 모듈이 내부 상태를 지웁니다. 그러면 마운트 해제되었던 파일 시스템을 다시 마운트하고 정상 작동을 재개할 수 있습니다.

    2. 마운트의 IP 주소로 연결되는 NIC를 중지하고 몇 회의 서버 리스가 만료될 때까지 충분히 기다립니다. 5분이면 충분합니다. 그런 다음 NIC를 다시 켤 수 있습니다. 그러면 정상 작동이 재개됩니다.

    3. 앞의 단계가 실패하면 ESXi 호스트를 재부팅합니다.

  • NFS 4.1 클라이언트와 NFS 서버의 동기화가 손실되고 세션을 재설정해도 연결을 복구할 수 없음
    서버와의 연결이 중단되고 일정 시간이 지나면, NFS 4.1 클라이언트와 서버의 동기화가 손실되고 세션을 재설정하더라도 서버와의 동기화된 연결을 복구할 수 없습니다. 이 문제는 EMC VNX 서버 문제 때문에 발생합니다. 이 문제가 발생하면 다음을 알리는 여러 경고 메시지가 vmkernel.log 파일에 포함됩니다. NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    해결 방법: 세션을 종료하려면 모든 데이터스토어를 마운트 해제했다가 다시 마운트합니다.

  • ONTAP Kerberos 볼륨이 액세스 불가 상태가 되거나 VM I/O 실패 발생
    NetApp 서버에 잘못된 순서로 도착되는 RPCSEC_GSS 요청이 수신될 경우 서버가 응답하지 않습니다. 그 결과 I/O 작업이 종료되는 경우 이외에는 해당 I/O 작업이 중지되며 게스트 OS가 I/O 오류를 중지하거나 게스트 OS에서 I/O 오류가 발생할 수 있습니다. 또한 RFC 2203에 따르면 클라이언트는 RPCSEC_GSS 컨텍스트에 따라 seq_window에 해당하는 수의 미결 요청(ONTAP의 경우 32개)만 사용할 수 있으며 이러한 미결 요청의 최소치가 서버에 의해 완료될 때까지 기다려야 합니다. 따라서 서버는 순서에서 벗어난 RPCSEC_GSS 요청에 응답하지 않으며 미결 요청의 최대 seq_window 수에 도달한 후에는 클라이언트가 서버에 요청을 보내는 것을 중지합니다. 이로 인해 볼륨에 액세스할 수 없게 됩니다.

    해결 방법: 없음. 이 문제가 해결된 지원되는 ONTAP 서버를 찾으려면 최신 HCL(하드웨어 호환성 목록)을 참조하십시오.

  • EMC VNX에서 NFS 4.1 데이터스토어에 1TB가 넘는 가상 디스크를 생성할 수 없음
    펌웨어 버전 7.x가 적용된 EMC VNX의 NFS 버전 4.1 스토리지는 32비트 파일 형식만 지원합니다. 이로 인해 NFS 4.1 데이터스토어에 1TB를 초과하는 가상 시스템 파일을 생성할 수 없습니다.

    해결 방법: EMC VNX 어레이를 버전 8.x로 업데이트하십시오.

  • 펌웨어 업그레이드 도중 EMC VNX 스토리지가 지원하는 NFS 4.1 데이터스토어에 액세스할 수 없음
    EMC VNX 스토리지를 새 펌웨어로 업그레이드할 때 ESXi 호스트에 마운트된 NFS 4.1 데이터스토어에 액세스할 수 없게 됩니다. 이 문제는 펌웨어 업그레이드 후 VNX 서버가 해당 주 디바이스 번호를 바꾸기 때문에 발생합니다. 호스트의 NFS 4.1 클라이언트는 서버와 연결된 후 주 번호 변경을 예상하지 않으며 이로 인해 데이터스토어에 영구적으로 액세스할 수 없게 됩니다.

    해결 방법: 펌웨어를 업그레이드하기 전에 VNX 서버에서 내보낸 모든 NFS 4.1 데이터스토어를 마운트 해제합니다.

  • ESXi 호스트가 다른 보안 메커니즘을 사용하여 동일한 NFS 4.1 데이터스토어를 마운트하는 경우 가상 시스템 장애가 발생할 수 있음
    다른 ESXi 호스트가 다른 보안 메커니즘(AUTH_SYS 및 Kerberos)을 사용하여 동일한 NFS 4.1 데이터스토어를 마운트하는 경우 이 데이터스토어에 배치된 가상 시스템에서 문제와 장애를 경험할 수 있습니다. 예를 들어 가상 시스템을 host1에서 host2로 마이그레이션하려고 하면 권한 거부 오류로 인해 작업이 실패할 수 있습니다. 또한 host2에서 host1 가상 시스템에 액세스하려는 경우에도 이러한 오류가 발생할 수 있습니다.

    해결 방법: NFS 4.1 볼륨을 마운트하는 모든 호스트가 동일한 보안 유형을 사용하고 있는지 확인합니다.

  • Kerberos를 사용하는 NFS 4.1 데이터스토어에 읽기 전용 파일을 복사하려고 하면 작업이 실패함
    이 실패는 소스 파일에서 대상 파일로 데이터를 복사하려는 경우에 발생할 수 있습니다. 대상 파일은 비어 있는 상태로 유지됩니다.

    해결 방법: 없음.

  • 데이터스토어 클러스터를 생성할 때 NFS 4.1 보안 유형의 균일성이 보장되지 않음
    데이터스토어를 생성할 때 vSphere는 NFS 4.1 보안 유형의 균일성을 확인하여 강제로 맞추지 않습니다. 따라서 다른 보안 유형(AUTH_SYS 및 Kerberos)을 사용하는 데이터스토어가 동일한 클러스터의 일부로 구성되어 있을 수 있습니다. Kerberos를 사용하는 데이터스토어에서 AUTH_SYS를 사용하는 데이터스토어로 가상 시스템을 마이그레이션하는 경우 가상 시스템의 보안 수준이 더 낮아지게 됩니다.
    이 문제는 vMotion, Storage vMotion, DRS 및 Storage DRS와 같은 기능에 적용됩니다.

    해결 방법: Kerberos 보안이 가상 시스템에 필요한 경우 동일한 클러스터를 구성하는 모든 NFS 4.1 볼륨이 Kerberos 보안 유형만 사용하는지 확인합니다. NFS 3은 AUTH_SYS만 지원하므로 NFS 3 데이터스토어를 포함시키지 않아야 합니다.

Virtual Volumes 문제

  • Virtual Volumes VASA 제공자가 사용하는 올바르지 않은 인증서 때문에 가상 데이터스토어 생성 실패
    경우에 따라 Virtual Volumes VASA 제공자가 사용하는 자체 서명된 인증서는 KeyUsage 확장을 keyCertSign 비트를 설정하지 않고 위험으로 잘못 정의할 수 있습니다. 이 경우 제공자 등록은 성공합니다. 하지만 VASA 제공자가 보고한 스토리지 컨테이너에서 가상 데이터스토어를 생성할 수 없습니다.

    해결 방법: 제공자 등록 시점에 VASA 제공자가 사용하던 자체 서명된 인증서가 keyCertSign 비트를 설정하지 않고 KeyUsage 확장을 위험으로 정의하지 않아야 합니다.

일반 스토리지 문제

  • 새 문제 새 VM이 기존 디스크에서 생성된 경우 vSphere Web Client에서 스토리지 정책을 연결됨으로 잘못 표시함
    기존 디스크에서 새 VM을 생성하는 데 vSphere Web Client를 사용하고 디스크를 설정할 때 스토리지 정책을 지정합니다. 새 VM 선택 --> VM 정책 --> VM 스토리지 정책 편집 클릭 시 필터가 연결되어 있는 것으로 나타나지만 해당 필터는 실제로는 연결되어 있지 않습니다. .vmdk 파일 또는 vmkfstools --iofilterslist <vmdk-file>'을 확인하여 필터가 연결되어 있는지 확인할 수 있습니다.

    해결 방법: 새 VM을 생성한 후 전원을 켜기 전에 VM 정책 --> VM 스토리지 정책 편집을 클릭하여 필터를 vmdk에 추가하십시오.

  • 새 문제 IPv6 설정에 I/O 필터를 설치하면 해당 기능이 VPXD에 게시되지 않음
    VIM API를 통해 I/O 필터 설치가 성공한 후 설치된 필터가 VPXD에 필터 기능을 게시할 수 없습니다. SPBM(vSphere Storage Policy Based Management)에 게시된 기능이 없으므로 필터 프로필을 디스크에 연결할 수 없습니다.

    해결 방법: 없음.

  • 새 문제 NFS 조회 작업을 수행할 때 오래된 NFS 오류가 반환됨
    NFS 데이터스토어에 많은 수의 VM을 배포할 경우 경합 조건으로 인해 다음과 유사한 오류 메시지와 함께 VM을 배포하지 못할 수 있습니다.

    오래된 NFS 파일 핸들

    해결 방법: 조회 작업을 다시 시작하십시오. 자세한 내용은 기술 자료 문서 2130593을 참조하십시오.

  • QLogic iSCSI 어댑터가 사용될 때 Dell EqualLogic LUN에서 VMFS 데이터스토어를 생성하려는 시도가 실패함
    QLogic iSCSI 어댑터를 통해 검색된 Dell EqualLogic 스토리지 디바이스에서 VMFS 데이터스토어를 생성할 수 없습니다.
    시도가 실패하면 vCenter Server에 다음 오류 메시지가 나타납니다. 파일 시스템을 생성할 수 없습니다. 자세한 내용은 VMkernel 로그를 확인하십시오. 연결 시간이 초과되었습니다. VMkernel 로그에는 연속적인 iscsi session blockediscsi session unblocked 메시지가 포함됩니다. Dell EqualLogic 스토리지 어레이에서 모니터링 로그에 QLogic 이니시에이터 IQN 이름에 대해 이니시에이터에서 수신된 패킷에서 프로토콜 오류 메시지가 표시됩니다.

    이 문제는 다음 구성 요소를 사용할 때 발견됩니다.

    • Dell EqualLogic 어레이 펌웨어: V6.0.7

    • QLogic iSCSI 어댑터 펌웨어 버전: 3.00.01.75

    • 드라이버 버전: 5.01.03.2-7vmw-debug

    해결 방법: QLogic iSCSI 어댑터에서 iSCSI ImmediateData 어댑터 매개 변수를 사용하도록 설정합니다. 기본적으로 이 매개 변수는 꺼져 있습니다. 이 매개 변수는 vSphere Web Client에서 또는 esxcli 명령을 사용하여 변경할 수 없습니다. 이 매개 변수를 변경하려면 QConvergeConsole CLI와 같은 벤더 제공 소프트웨어를 사용하십시오.

  • Emulex OneConnect HBA가 설치된 ESXi 호스트가 부팅되지 않음
    ESXi 호스트에 Emulex OneConnect HBA가 설치된 경우 호스트가 부팅되지 않을 수 있습니다. 이 실패는 Emulex 펌웨어의 문제 때문에 발생합니다.

    해결 방법: 이 문제를 수정하려면 Emulex에 HBA의 최신 펌웨어를 문의하십시오.

    이전 펌웨어를 계속 사용하는 경우 부팅 문제를 피하려면 다음 단계를 수행하십시오.

    1. ESXi가 로드될 때 ESXi 커널 부팅 전에 Shift+O를 누릅니다.

    2. 기존 부팅 옵션은 그대로 두고, 공백과 dmaMapperPolicy=false를 차례로 추가합니다.

  • APD 도중 Flash Read Cache가 I/O를 가속하지 않음
    Flash Read Cache에 대한 가상 플래시 리소스로 구성된 플래시 디스크에 문제가 있거나 이 디스크에 액세스할 없는 경우 또는 호스트에서 디스크 스토리지에 연결할 수 없는 경우, 해당 호스트의 Flash Read Cache 인스턴스가 무효하며 I/O 가속을 수행하지 않습니다. 그 결과 호스트와 스토리지가 다시 연결된 후 캐시가 오래된 데이터를 제공하지 않습니다. 연결 중단은 일시적인 APD(모든 경로 다운) 조건이거나 영구적인 PDL(영구적 디바이스 손실)일 수 있습니다. 이 조건은 가상 시스템의 전원을 껐다가 다시 켤 때까지 지속됩니다.

    해결 방법: 가상 시스템 전원을 껐다가 다시 켜서 Flash Read Cache를 사용한 I/O 가속을 복원할 수 있습니다.

  • APD(모든 경로 다운) 또는 경로 페일오버로 인해 시스템 실패가 발생할 수 있음
    공유된 SAS 환경에서 디스크가 lsi_msgpt3 드라이버에 의해 할당되었고 이 디스크에 I/O 활동이 많을 경우, APD 또는 경로 페일오버 상황으로 인해 시스템 실패가 발생할 수 있습니다.

    해결 방법: 없음

  • SCSI 중단 명령을 자주 사용하면 시스템 실패가 발생할 수 있음
    I/O 활동이 많을 때 SCSI 중단 명령을 자주 사용하면 MegaRAID 컨트롤러의 응답이 매우 느려질 수 있습니다. 이전 컨텍스트에서 이미 해제되었던 리소스 참조에 예기치 않은 인터럽트가 발생할 경우 시스템이 실패할 수 있습니다.

    해결 방법: 없음

  • IQN 변경 시 iSCSI 연결이 실패하고 데이터스토어에 액세스할 수 없음
    이 문제는 어댑터의 iSCSI 세션이 아직 활성화된 상태에서 iSCSI 어댑터의 IQN을 변경한 경우에 발생할 수 있습니다.

    해결 방법: iSCSI 어댑터의 IQN을 변경할 때는 해당 어댑터에 활성화된 세션이 없어야 합니다. IQN을 변경하기 전에 어댑터에서 모든 iSCSI 세션 및 모든 대상을 제거하십시오.

  • nvmecli 온라인 및 오프라인 작업이 적용되지 않을 때가 있음
    NVMe 디바이스를 온라인 상태로 전환하기 위해 nvmecli device online -A vmhba* 작업을 수행하면 작업이 성공한 것으로 보입니다. 하지만 디바이스는 여전히 오프라인 상태에 있을 수 있습니다.

    해결 방법: nvmecli device list 명령을 실행하여 NVMe 디바이스의 상태를 확인합니다.

Virtual SAN 문제
  • 새 문제 Virtual SAN 클러스터에 호스트를 추가하면 설치 관리자 오류가 트리거됨
    ESXi를 HA 및 Virtual SAN 상태 서비스가 사용되도록 설정된 클러스터에 추가하면 VIB 설치 경합 조건으로 인해 다음 오류 중 한 개 또는 모두가 발생할 수 있습니다.

    • 작업 보기에서 vSphere HA 작업 구성이 다음과 유사한 오류 메시지와 함께 실패할 수 있습니다.

      vCenter Server 에이전트 서비스를 설치할 수 없습니다. ‘알 수 없는 설치 관리자 오류’

    • 에이전트 사용 작업이 다음과 유사한 오류 메시지와 함께 실패할 수 있습니다.

      작업을 완료할 수 없습니다. 자세한 내용은 이벤트 로그를 참조하십시오.

    해결 방법:

    • HA 구성 실패를 해결하려면 호스트를 재부팅하고 다음과 같이 HA를 재구성합니다.

      호스트 및 클러스터 보기 -> 클러스터 이름 -> 관리 탭 -> vSphere HA 클릭

    • 에이전트 사용 작업 실패를 해결하려면 클러스터 보기로 이동하고 다음과 같이 VSAN 상태 서비스 사용을 재시도합니다.

      호스트 및 클러스터 보기 -> 클러스터 이름 -> 관리 탭 클릭 -> Virtual SAN 범주의 상태에서 위쪽 재시도 버튼 클릭

서버 구성 문제
  • 상태 저장 호스트의 호스트 프로파일을 Auto Deploy를 통해 프로비저닝된 호스트에 적용하는 경우 업데이트 적용이 실패함
    상태를 저장하여 배포된 호스트의 호스트 프로파일을 로컬 스토리지가 없고 Auto Deploy를 통해 프로비저닝된 호스트(상태 비저장 호스트)에 적용하는 경우 다음 오류 메시지 중 하나가 표시되면서 업데이트 적용 시도가 실패합니다.

    • PCI 버스 주소가 sxxxxxxxx.xx인 vmhba 디바이스가 호스트에 없습니다. 종료한 후 PCI 슬롯 yy에 카드를 넣어야 합니다. 카드 유형은 참조 호스트의 유형과 정확히 일치해야 합니다.

    • 유효한 코어 덤프 파티션이 없습니다.

    해결 방법: 호스트 프로파일에서 문제를 일으키는 플러그인(예: 디바이스 별칭 구성 또는 코어 덤프 구성)을 사용하지 않도록 설정한 후 호스트 프로파일에 업데이트를 적용합니다.

  • 정적 IP가 포함된 호스트 프로파일을 호스트에 적용하면 규정 준수 오류가 발생함
    DHCP 네트워크 구성이 있는 호스트에서 호스트 프로파일을 추출하고 정적 IP 주소를 포함하도록 호스트 프로파일을 편집한 후 다른 호스트에 적용하는 경우 다음 메시지가 표시되면서 규정 준수 오류가 발생합니다.

    IPv4 경로 수가 일치하지 않습니다.

    해결 방법: DHCP 호스트에서 호스트 프로파일을 추출하기 전에 정적 IP 주소를 포함하도록 호스트를 구성합니다.

  • 네트워크 리소스가 오버 커밋된 가상 네트워크 어댑터를 핫 추가하면 가상 시스템의 전원이 꺼질 수 있음
    Network I/O Control을 사용하도록 설정한 vSphere Distributed Switch에서 전원이 켜진 가상 시스템은 호스트 물리적 네트워크 어댑터의 가상 시스템 트래픽에 대한 예약에 따른 대역폭 예약을 사용하여 구성됩니다. 호스트의 물리적 네트워크 어댑터에서 사용 가능한 대역폭을 초과하는 네트워크 대역폭 예약을 설정하여 가상 시스템에 네트워크 어댑터를 추가합니다.

    네트워크 어댑터를 핫 추가하면 VMkernel이 FSR(Fast Suspend and Resume) 프로세스를 시작합니다. 가상 시스템이 사용 가능한 것보다 많은 네트워크 리소스를 요청하므로 VMkernel은 FSR 프로세스의 실패 경로를 수행합니다. 이 실패 경로의 오류로 인해 가상 시스템의 전원이 꺼집니다.

    해결 방법: 전원이 켜진 가상 시스템에 네트워크 어댑터를 추가할 때 대역폭 예약을 구성하지 마십시오.

VMware HA 및 Fault Tolerance 문제
  • 새 문제 레거시 FT(Fault Tolerance)가 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 지원되지 않음
    레거시 FT가 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 지원되지 않습니다. 단일 프로세서, Legacy Fault Tolerance를 사용하도록 설정한 후 가상 시스템의 전원을 켜려는 시도가 실패합니다.

    해결 방법: 없음.

게스트 운영 체제 문제
  • 핫 플러그 후 NVMe PCIe SSD 디바이스에 대한 패스스루 모드 설정 시도가 실패할 수 있음
    vSphere Web Client에서 SSD 디바이스에 대한 패스스루 모드를 사용하도록 설정하려면, 호스트를 선택하고 관리 탭과 설정을 클릭한 다음 하드웨어 섹션으로 이동하여 PCI 디바이스 > 편집을 클릭합니다. 그리고 패스스루를 사용하도록 설정할 수 있는 활성 디바이스 목록에서 디바이스를 선택하고 확인을 클릭합니다. 하지만 PCIe NVMe 드라이브가 없는 ESXi 6.0 호스트에 새 NVMe 디바이스를 핫 플러그하면 새 NVMe PCIe SSD 디바이스는 패스스루 모드에 대해 사용하도록 설정할 수 없으며 사용 가능한 패스스루 디바이스 목록에 나타나지 않습니다.

    해결 방법: 호스트를 다시 시작합니다. ESXi 호스트에서 명령을 실행할 수도 있습니다.

    1. 루트 사용자로 로그인합니다.

    2. 다음 명령을 실행합니다.
      /etc/init.d/hostd start

지원되는 하드웨어 문제
  • esxcli를 실행하여 디스크 위치를 가져올 때 HP 서버의 Avago 컨트롤러에 대한 결과가 잘못됨

    esxcli storage core device physical get을 실행하면 HP 서버의 Avago 컨트롤러에 대한 결과가 잘못됩니다.

    예를 들어 다음을 실행할 경우
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    시스템에서 다음을 반환합니다.
    Physical Location: enclosure 0, slot 0

    물리적 서버의 해당 슬롯에 대한 실제 레이블은 1입니다.

    해결 방법: HP 서버에서 슬롯을 신중하게 확인합니다. HP 서버의 슬롯 번호가 1부터 시작하므로, 올바른 결과를 위해 명령이 반환하는 슬롯 번호를 늘려야 합니다.

CIM 및 API 문제
  • 새 문제 sfcb-vmware_raw의 실행이 실패함
    할당된 최대 기본 플러그인 리소스 그룹 메모리가 충분하지 않을 때 sfcb-vmware_raw의 실행이 실패할 수 있습니다.

    해결 방법: 다음 명령을 사용하여 sfcbd 플러그인의 메모리 제한에 대해 UserVars CIMOemPluginsRPMemMax를 추가하고 sfcbd를 다시 시작하여 새 플러그인 값을 반영합니다.

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX는 할당하고자 하는 메모리 제한입니다. 이 값은 최소값(175) 및 최대값(500) 이내여야 합니다.

기타 문제
  • 새 문제 Virtual SAN Observer가 SSLv3 암호화를 지원함
    ESXi 6.0 업데이트 1에서는 SSLv3이 기본적으로 사용되지 않도록 설정되지만, Virtual SAN Observer는 여전히 SSLv3을 지원합니다.

    해결 방법: 없음.

VMware Tools 문제
  • 새 문제 커널 버전 3.3.0 이상일 때 open-vm-tools 9.10 내의 컴파일 vmxnet 모듈에서 오류가 발생함
    open-vm-tools 9.10을 컴파일하고 설치할 때 vmxnet.c가 커널 버전 3.3.0 이상을 컴파일하지 못하기 때문에 여러 가지 오류가 발생할 수 있습니다. 이 문제는 open-vm-tools 9.10.2에서 해결되어 이제 모든 커널 버전에서 open-vm-tools 9.10.2를 설치할 수 있습니다.

    해결 방법: open-vm-tools 9.10을 설치하려면 ./configure 또는 --without-kernel-modules에서 vmxnet를 편집하십시오.

>