VMware ESXi 6.0 업데이트 3 릴리스 정보

|

업데이트 날짜: 2017년 3월 14일

ESXi 6.0 업데이트 3 | 2017년 2월 24일 | ISO 빌드 5050593

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

  • 업데이트된 ESXi Host Client: VMware ESXi 6.0 업데이트 3에는 ESXi Host Client의 업데이트된 버전인 버전 1.14.0이 포함됩니다. 업데이트된 Host Client에는 버그 수정이 포함되어 있으며 이를 통해 vSphere Client에서 제공하는 기능에 훨씬 더 가까워졌습니다. ESXi 6.0 패치 릴리스를 통해 Host Client를 업데이트한 경우에는 ESXi 6.0 업데이트 3에 제공된 버전 1.14.0을 설치하십시오. VMware Labs Flings 웹 사이트에도 Host Client의 새로운 버전이 계속 릴리스됩니다. 그러나 이러한 Fling 릴리스는 공식적으로 지원되지 않으며 운영 환경에서는 권장되지 않습니다.

  • TLS 지원: TLSv1.0, TLSv1.1 및 TLSv1.2에 대한 지원은 기본적으로 설정되며 ESXi 6.0 업데이트 3에 대해 구성할 수 있습니다. TLSv1.0,TLSv1.1 및 TLSv1.2 구성 방법은 VMware 기술 자료 문서 2148819에서 학습할 수 있습니다. TLSv1.0을 사용하지 않도록 설정하고 TLSv1.1/1.2를 사용할 수 있는 VMware 제품 목록은 VMware 기술 자료 문서 2145796을 참조하십시오.

  • Virtual SAN 성능: 이 VMware ESXi 6.0 업데이트 3 릴리스에는 플래시 전용 및 하이브리드 구성에서 향상된 Virtual SAN 성능을 위해 I/O 경로를 최적화하는 여러 수정 사항이 도입되었습니다.

    • 스토리지 바이트당 더 많은 로그를 저장할 수 있도록 로그 관리 및 스토리지 기능이 개선되었습니다. 이를 통해 쓰기가 많은 워크로드의 성능을 크게 개선할 수 있습니다. Virtual SAN은 로그 기반 파일 시스템이기 때문에 로그 항목을 효율적으로 관리하면 로그가 불필요하게 증가하는 것을 방지할 수 있습니다.

    • 로그 항목의 패킹 밀도를 높이는 것 외에도 Virtual SAN은 데이터 서비스가 켜져 있을 때 대용량 파일이 삭제되는 시나리오에서 로그 증가를 효율적으로 관리하는 용량 계층으로 데이터를 미리 디스테이징합니다.

    • 이제 체크섬 코드 경로가 더 효율적입니다.

ESXi 6.0의 이전 릴리스

ESXi 6.0의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 릴리스의 ESXi 6.0에 대한 릴리스 정보는 다음과 같습니다.

국제화

VMware ESXi 6.0은 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체
  • 스페인어
  • 중국어 번체

vCenter Server, ESXi, vSphere Web Client, vSphere Client를 포함하여 VMware vSphere 6.0의 구성 요소에서는 ASCII가 아닌 입력을 사용할 수 없습니다.

호환성

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

vSphere Web Client는 vCenter Server에 함께 패키지되어 있습니다. vSphere Client는 모듈 ISO 파일의 일부인 VMware vCenter 자동 실행 메뉴를 통해 설치할 수 있습니다.

ESXi의 하드웨어 호환성

vSphere 6.0와 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 6.0 정보를 참조하십시오.

ESXi의 디바이스 호환성

ESXi 6.0와 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 6.0 정보를 참조하십시오.

일부 디바이스는 ESXi 6.0에서 사용되지 않으며 더 이상 지원되지 않습니다. 업그레이드 프로세스를 수행하는 동안 디바이스 드라이버가 ESXi 6.0 호스트에 설치되고 디바이스 드라이버는 ESXi 6.0에서 계속 작동할 수 있지만 디바이스는 ESXi 6.0에서 지원되지 않습니다. ESXi 6.0에서 사용되지 않아서 더 이상 지원되지 않는 디바이스 목록은 KB 2087970을 참조하십시오.

ESXi의 타사 스위치 호환성

이제 VMware에서 vSphere 6.0을 통해 Cisco Nexus 1000V를 지원합니다. vSphere를 사용하려면 최소 NX-OS 릴리스 5.2(1)SV3(1.4)이 필요합니다. Cisco Nexus 1000V에 대한 자세한 내용은 Cisco 릴리스 정보를 참조하십시오. 이전 vSphere 릴리스와 마찬가지로, Ciscso Nexus 1000V AVS 모드는 지원되지 않습니다.

ESXi의 게스트 운영 체제 호환성

vSphere 6.0과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에 나와 있는 ESXi 6.0 정보를 참조하십시오.

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 6.0에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 6.0에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스의 설치 및 업그레이드

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

vSphere 6.0 권장 배포 모델

다음 두 가지 배포 모델만 사용하는 것이 좋습니다.

  • 내장형 Platform Services Controller가 있는 vCenter Server. 데이터 센터에 하나 이상의 독립형 vCenter Server 인스턴스를 배포해야 하는 경우 이 모델을 사용하는 것이 좋습니다. 이와 같은 내장형 Platform Services Controller가 있는 vCenter Server 모델 간 복제는 권장되지 않습니다.

  • 외부 Platform Services Controller가 있는 vCenter Server. 데이터 센터에서 여러 vCenter Server 인스턴스를 연결해야 하거나 Platform Services Controller의 설치 공간을 줄이려는 경우에만 이 모델을 사용하는 것이 좋습니다. 이와 같은 외부 Platform Services Controller가 있는 vCenter Server 모델 간에는 복제가 지원됩니다.

vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

vSphere 구성 요소를 업데이트하는 올바른 순서를 보려면 vSphere 6.0 및 호환되는 VMware 제품에 대한 업데이트 시퀀스를 참조하십시오.

또한 KB 2108548에서도 vCenter Server를 설치하고 구성하는 방법에 대한 지침을 참조할 수 있습니다.

vCenter 호스트 OS 정보

기술 자료 문서 KB 2091273을 참조하십시오.

외부 Platform Services Controller를 사용하는 vCenter Server 및 vCenter Server Appliance 배포의 백업 및 복원

vSphere 설치 및 설정 설명서에는 외부 Platform Services Controller를 사용하는 vCenter Server 및 vCenter Server Appliance 배포의 백업 및 복원이 제한된다고 명시되어 있지만 KB 2110294의 단계에 따르면 이러한 백업 및 복원 작업을 수행할 수 있습니다.

내장형 Platform Services Controller에서 외부 Platform Services Controller로 마이그레이션

내장형 Platform Services Controller가 있는 vCenter Server를 외부 Platform Services Controller가 있는 vCenter Server로 자동으로 마이그레이션할 수 없습니다. 이 마이그레이션 유틸리티에 대한 테스트가 완료되지 않았습니다.

vCenter Server를 설치하기 전에 원하는 배포 옵션을 결정합니다. 복제 설정에 vCenter Server가 둘 이상 필요한 경우에는 항상 외부 Platform Services Controller가 있는 vCenter를 배포합니다.

타사 솔루션 마이그레이션

타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 6.0에서는 2006년 6월 이후(3사분기)에 출시된 프로세서만 지원합니다. vSphere 5.x에서 지원하는 프로세서와 비교해, vSphere 6.0에서는 더 이상 다음 프로세서를 지원하지 않습니다.

  • AMD Opteron 12xx 시리즈
  • AMD Opteron 22xx 시리즈
  • AMD Operton 82xx 시리즈

설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 6.0과 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면이 나타나면서 비호환성 정보 메시지가 표시되며 vSphere 6.0 설치 프로세스가 중지됩니다.

이 릴리스에 대한 업그레이드 정보

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

VMware vSphere 6.0의 오픈 소스 구성 요소

vSphere 6.0에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com에서 확인할 수 있습니다. My VMware 계정으로 로그인해야 합니다. 그런 다음 다운로드 메뉴에서 vSphere를 선택합니다. 오픈 소스 탭에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vCenter Server 데이터베이스. vSphere 6.0 릴리스에서 Oracle 11g 및 12c가 vCenter Server Appliance용 외부 데이터베이스로 더 이상 사용되지 않습니다. vSphere 6.0에서는 Oracle 11g 및 12c가 외부 데이터베이스로 계속 지원됩니다. 향후 주요 릴리스에서는 Oracle 11g 및 12c가 vCenter Server Appliance용 외부 데이터베이스로 더 이상 지원되지 않을 예정입니다.

  • vSphere Web Client. vSphere 6.0 Web Client에서, 더 이상 개체의 모니터링 탭에서 스토리지 보고서를 선택할 수 없습니다.

  • vSphere Client. vSphere 6.0 Client에서 더 이상 스토리지 보기 탭을 사용할 수 없습니다.

  • Site Recovery Manager. SRM 6.5 이전 버전의 SRM(Site Recovery Manager)에서는 ESXi 6.0에 배치되고 VMware Tools 버전 10.1 이상을 사용하는 VM에 대해 IP 사용자 지정 및 게스트 내 호출 작업을 지원하지 않습니다. 자세한 내용은 VMware Tools 문제를 참조하십시오.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi600-Update03에는 다음과 같은 개별 공지가 포함되어 있습니다.

패치 릴리스 ESXi600-Update03(Security-only build)에는 다음과 같은 개별 공지가 포함되어 있습니다.

패치 릴리스 ESXi600-Update03에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

패치 릴리스 ESXi600-Update03(Security-only build)에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

해결된 문제는 다음과 같이 분류됩니다.

CIM 및 API 문제
  • 사용자 사용 권한을 검증하는 데 사용되는 VMware 제공자 메서드가 잠금 모드를 종료한 후에 사용자 이름 및 암호에 대해 작동하지 않음
    서버를 잠금 모드에서 해제한 후 VMware 제공자 메서드는 잠금 모드로 전환되기 전의 값과 호환되지 않는 다른 값을 반환합니다. 이 문제 때문에 사용자 사용 권한 검증을 위한 VMware 제공자 메서드가 잠금 모드 이전과 동일한 사용자 이름 및 암호로 작동되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

기타 문제
  • 여러 VM에서 VMware Tools 업그레이드가 실패함
    여러 VM에서 Update Manager를 통해 VMware Tools를 동시에 업그레이드하려고 하면 작업이 실패합니다. 일부 VM에서 업그레이드 프로세스가 완료되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • VMware Tools ISO 이미지의 높은 읽기 로드 때문에 플래시 미디어가 손상될 수 있음
    VDI 환경에서 VMware Tools 이미지의 높은 읽기 로드 때문에 플래시 미디어가 손상될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

    모든 VMware Tools 데이터를 고유한 Ramdisk에 복사할 수 있습니다. 이렇게 하면 데이터를 부팅당 한 번만 플래시 미디어에서 읽을 수 있습니다. 다른 모든 읽기는 Ramdisk로 이동합니다. vCenter Server 에이전트(vpxa)는 productLocker를 가리키는 심볼 링크가 있는 /vmimages 디렉토리를 통해 이 데이터에 액세스합니다.

    이 기능을 활성화하려면 다음 단계를 수행하십시오.

    1. 명령을 사용하여 고급 ToolsRamdisk 옵션을 1로 설정합니다.
    2. esxcli system settings advanced set -o /UserVars/ToolsRamdisk -i 1

    3. 호스트를 재부팅합니다.
  • Unknown 오류 메시지로 syslog.log 파일이 플러딩될 수 있음
    ESXi 6.0 업데이트 2에서 Dell CIM 제공자를 사용하는 호스트의 경우 Dell CIM 제공자가 사용되지 않도록 설정되거나 유휴 상태이면 Unknown 오류 메시지로 해당 syslog.log 파일이 플러딩될 수 있습니다. 또한 ESXi 6.0 업데이트 2 호스트가 재부팅되면 syslog.log 파일에 일시적으로 Unknown 항목의 오류 메시지가 기록될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Userworld 코어 덤프 실패
    사용자 프로세스에서 메모리가 부족할 경우 userworld 덤프가 실패할 수 있습니다. 메모리를 할당할 수 없음 오류 메시지가 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다. 이 수정 사항은 프로세스에서 메모리가 부족할 때 사용되는 글로벌 메모리를 userworld 코어 덤프의 힙 할당을 위해 제공합니다.

  • 스토리지를 동기화할 때 VM에 대해 페일오버 실행이 실패하고 오류가 표시됨
    스토리지 동기화 작업 중에 VM에 대한 페일오버 실행이 실패하고 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    원격 호스트와 통신하는 동안 오류가 발생했습니다.

    다음 메시지가 HBRsrv.log 파일에 기록됩니다.

    YYYY-MM-DDT13:48:46.305Z info hbrsrv[nnnnnnnnnnnn] [Originator@6876 sub=Host] Heartbeat handler detected dead connection for host: host-9
    YYYY-MM-DDT13:48:46.305Z warning hbrsrv[nnnnnnnnnnnn] [Originator@6876 sub=PropertyCollector] Got WaitForUpdatesEx exception: Server closed connection after 0 response bytes read; 171:53410'>, >)>


    또한 ESXi 호스트에서 hostd 서비스가 응답을 중지하고 다음과 유사한 메시지가 표시될 수 있습니다.

    YYYY-MM-DDT13:48:38.388Z panic hostd[468C2B70] [Originator@6876 sub=Default]
    -->
    --> Panic: Assert Failed: "progress >= 0 && progress <= 100" @ bora/vim/hostd/vimsvc/HaTaskImpl.cpp:557
    --> Backtrace:
    -->

    이 문제는 이 릴리스에서 해결되었습니다.

  • 90초마다 hostd.log 파일에 로그 메시지가 지속적으로 보고됨
    Virtual SAN을 사용하도록 설정하지 않은 경우에도 Virtual SAN과 관련하여 다음과 유사한 로그 메시지가 90초마다 hostd.log 파일에 기록됩니다.

    { YYYY-MM-DDT06:50:01.923Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd2fe8] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {
    YYYY-MM-DDT06:51:33.449Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd3009] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {
    YYYY-MM-DDT06:53:04.978Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd3030] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {

    이 문제는 이 릴리스에서 해결되었습니다.

  • 여러 VM에서 VMware Tools 업그레이드가 실패함
    여러 VM에서 Update Manager를 통해 VMware Tools를 동시에 업그레이드하려고 하면 작업이 실패합니다. 이 문제가 발생하면 일부 VM에서 VMware Tools가 업그레이드되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • SMX 제공자 클래스 열거가 실패할 수 있음
    6.0 CIMPDK를 사용하여 HPE ESXi WBEM 제공자를 컴파일하고 ESXi 6.0 U3 시스템에 설치하면 SMX 제공자 클래스의 열거가 실패할 수 있습니다.

    이 실패는 기타 클래스에서 다음 SMX 클래스를 열거함으로 인해 나타날 수 있습니다.

    • SMX_EthernetPort
    • SMX_Fan
    • SMX_PowerSupply
    • SMX_SAMediaAccessStatData

    이러한 SMX 클래스에 대해 sfcbd에서 다음 오류를 표시합니다.

    # enum_instances SMX_EthernetPort root/hpq error: enumInstances Server returned nothing (no headers, no data)

    제공자는 열거 쿼리에 응답하고 sfcbd에 응답을 전달합니다. 제공자 다시 시작 또는 제공자 코어 덤프가 없습니다. 각 열거는 sfcbd CIMXML 코어 덤프(예: sfcb-CIMXML-Pro-zdump.000)를 생성합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹 문제
  • ARP 요청 패킷이 삭제될 수 있음
    VM 하나에는 게스트 VLAN 태깅이 구성되고 다른 VM에는 가상 스위치 VLAN 태깅이 구성된 경우, 양쪽 VM에 VLAN 오프로드가 해제되어 있으면 두 VM 사이의 ARP 요청 패킷이 삭제될 수 있습니다.

  • 스크립트로 작성된 업그레이드 때문에 ESXi 방화벽 구성이 사용되지 않도록 설정될 수 있음
    NFS 또는 FTP를 통해 kickstart 파일을 사용하여 ESXi 6.0 업데이트 1 이상에 대해 스크립트로 작성된 업그레이드를 수행한 이후 ESXi 방화벽 구성이 사용되지 않도록 설정될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 호스트를 재부팅한 이후에도 새로 추가된 물리적 NIC에 대한 통신에 가상 MAC 주소 00:00:00:00:00:00이 사용됨
    호스트 재부팅 후, esx.conf 파일에 새로 추가된 물리적 NIC에 대한 항목이 없어서 통신 시 물리적 NIC에 대해 가상 MAC 주소인 00:00:00:00:00:00이 나열될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 부팅 단계 중에 오류 메시지가 표시됨
    특정한 경우에 ESXi 설치 관리자가 부팅 단계 중에 설치 스크립트를 읽는 동안 다음과 유사한 오류 메시지가 표시됩니다.

    VmkNicImpl::DisableInternal:: vmk0 관리 인터페이스를 삭제하는 중이므로 advlface를 NULL로 설정합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Citrix VDI PXE 부팅을 사용할 때 물리적 스위치가 RARP 패킷으로 플러딩됨
    Citrix VDI용 가상 시스템을 부팅할 때 물리적 스위치가 1000개 이상의 RARP 패킷으로 플러딩될 수 있으며, 그 결과 네트워크 연결이 삭제되고 일시적인 중단이 발생할 수 있습니다.

    이 릴리스에서는 고급 옵션 /Net/NetSendRARPOnPortEnablement를 제공합니다. 이 문제를 해결하려면 /Net/NetSendRARPOnPortEnablement 값을 0으로 설정해야 합니다.

  • 자주색 진단 화면이 표시되면서 ESXi 호스트가 실패할 수 있음
    자주색 진단 화면이 표시되면서 ESXi 호스트가 실패할 수 있습니다. 이 문제는 dvfilter 공유 메모리 패킷을 완료하기 위해 DVFilter_TxCompletionCB()를 호출할 경우에 발생합니다. 이 명령은 패킷 내에 저장된 IO 완료 데이터를 확보하지만 경우에 따라서는 이 데이터 멤버가 0이 되어 NULL 포인터 예외가 발생합니다. 다음과 유사한 오류 메시지가 표시됩니다.

    YYYY-MM-DDT04:11:05.134Z cpu24:33420)@BlueScreen: #PF Exception 14 in world 33420:vmnic4-pollW IP 0x41800147d76d addr 0x28
    PTEs:0x587e436023;0x587e437023;0x587e438023;0x0;
    YYYY-MM-DDT04:11:05.134Z cpu24:33420)Code start: 0x418000800000 VMK uptime: 23:18:59:55.570
    YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461bdd0:[0x41800147d76d]DVFilterShmPacket_TxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0x3d sta
    YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461be00:[0x41800146eaa2]DVFilterTxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0xbe stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461be70:[0x418000931688]Port_IOCompleteList@vmkernel#nover+0x40 stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bef0:[0x4180009228ac]PktListIOCompleteInt@vmkernel#nover+0x158 stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bf60:[0x4180009d9cf5]NetPollWorldCallback@vmkernel#nover+0xbd stack: 0x14
    YYYY-MM-DDT04:11:05.137Z cpu24:33420)0x43915461bfd0:[0x418000a149ee]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

보안 문제
  • Likewise Kerberos 업데이트
    Likewise Kerberos가 버전 1.14로 업데이트되었습니다.
  • OpenSSL 업데이트
    OpenSSL이 버전 openssl-1.0.2j로 업데이트되었습니다.
  • PAM 업데이트
    PAM이 버전 1.3.0으로 업데이트되었습니다.
  • libPNG 라이브러리 업데이트
    libPNG 라이브러리가 libpng-1.6.26으로 업데이트되었습니다.
  • NTP 패키지 업데이트
    ESXi NTP 패키지가 버전 4.2.8p9로 업데이트되었습니다.
  • libcurl 라이브러리 업데이트
    ESXi userworld libcurl 라이브러리가 libcurl- 7.51.0으로 업데이트되었습니다.
서버 구성 문제

  • 호스트 프로파일을 상태 비저장 ESXi 호스트에 적용하면 vCenter Server에서 ESXi 호스트에 대한 연결이 끊김
    vSphere 표준 스위치와 vSphere Distributed Switch 둘 모두에 vmknic 어댑터를 사용하는 호스트 프로파일을 ESXi 호스트에 적용하면 vmknic 어댑터 vmk0(관리 인터페이스)이 vSphere 표준 스위치에서 제거될 수 있으며, 그 결과 vCenter Server에서 호스트의 연결이 끊어질 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 중지 스냅샷을 생성하면 hostd 서비스가 실패할 수 있음
    복제 프로세스 동안 중지 스냅샷 작업을 수행하면 hostd 서비스가 실패할 수 있습니다. 이 경우 hostd.log 파일에 다음과 유사한 오류 메시지가 표시됩니다. 2016-06-10T22:00:08.582Z [37181B70 info 'Hbrsvc'] ReplicationGroup will retry failed quiesce attempt for VM (vmID=37) 2016-06-10T22:00:08.583Z [37181B70 panic 'Default'] --> -->Panic: Assert Failed: "0" @ bora/vim/hostd/hbrsvc/ReplicationGroup.cpp:2779

    이 문제는 이 릴리스에서 해결되었습니다.

  • 통계를 수집할 때 자주색 진단 화면이 표시되면서 ESXi 6.0 업데이트 1 호스트가 실패할 수 있음
    통계를 수집하는 동안 다수의 물리적 CPU가 있는 ESXi 호스트에서 응답을 중지할 수 있습니다. 이 문제는 수집 프로세스가 처음에 할당된 범위 밖에 있는 페이지에 액세스를 시도할 때 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 설정된 제한보다 이미지 프로파일 크기가 크면 ESXi 패치 업데이트가 실패하고 경고 메시지가 표시될 수 있음
    대상 프로파일의 크기가 239MB보다 크면 ESXi 패치 업데이트 설치가 실패할 수 있습니다. 이 문제는 ISO를 사용하여 시스템을 업그레이드하는 경우 이미지 프로파일 크기가 239MB를 초과하기 때문에 발생할 수 있으며, 이 경우 아무런 경고 메시지가 표시되지 않습니다. 이로 인해 시스템에 VIB가 추가적으로 설치되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vmkernel.log 파일이 여러 개의 USB 일시 중단 및 재개 이벤트로 스패밍됨
    vmkernel.log 파일이 다음과 유사한 여러 개의 USB 재개됨 및 일시 중단됨 이벤트로 스패밍됩니다.

    YYYY-MM-DDT

    이 문제는 이 릴리스에서 해결되었습니다.

  • [사용 권한] 탭에서 사용 권한을 할당할 사용자 또는 그룹 목록을 볼 수 없음
    사용 권한 탭에서 사용 권한을 할당할 사용자 또는 그룹 목록을 볼 수 없고, 트러스트된 도메인의 사용자에 대한 인증이 실패할 수 있습니다. 이 문제는 시스템의 DNS 도메인 이름이 AD 도메인의 DNS 이름과 다른 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다. 그러나 ESXi 호스트를 ESXi 6.0 업데이트 3으로 업그레이드한 후 AD 도메인에서 제거했다가 동일한 도메인에 다시 추가해야 합니다.

  • ESXi 호스트가 응답을 중지하고 자주색 진단 화면이 표시될 수 있음
    esxcfg-dumppart 또는 다른 명령을 여러 번 병렬로 사용하여 덤프 파일 집합을 호출하면 ESXi 호스트가 응답을 중지하고, 덤프 블록 맵을 해제하는 동안 발생하는 경합 조건의 결과로 다음과 유사한 항목이 자주색 진단 화면에 표시될 수 있습니다.

    @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4907 - Corruption in dlmalloc
    Code start: 0xnnnnnnnnnnnn VMK uptime: 234:01:32:49.087
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PanicvPanicInt@vmkernel#nover+0x37e stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Panic_NoSave@vmkernel#nover+0x4d stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DLM_free@vmkernel#nover+0x6c7 stack: 0x8
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Heap_Free@vmkernel#nover+0xb9 stack: 0xbad000e
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Dump_SetFile@vmkernel#nover+0x155 stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]SystemVsi_DumpFileSet@vmkernel#nover+0x4b stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x41f stack: 0x4fc
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@ # +0x394 stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@ # +0xb4 stack: 0xffb0b9c8
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry_@vmkernel#nover+0x0 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지 문제
  • esxcli vvol abandonedvvol 명령을 사용하여 오래된 Virtual Volumes 볼륨 및 VMDK 파일을 제거할 수 없음
    esxcli storage vvol storagecontainer abandonedvvol 명령을 사용하여 오래된 Virtual Volumes 볼륨 및 Virtual Volumes 볼륨에 남아 있는 VMDK 파일을 정리하려고 하면 작업이 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Virtual Volumes에 대해 스냅샷 만들기 작업을 취소하면 데이터가 손실될 수 있음
    해당하는 VMDK가 Virtual Volumes 데이터스토어에 있는 VM에 대해 스냅샷 만들기를 취소하려고 하면 가상 디스크가 제대로 롤백되지 않아 데이터가 손실될 수 있습니다. 이름이 동일하지만 서로 다른 Virtual Volumes 데이터스토어 속해 있는 VMDK가 VM에 여러 개 있는 경우에 이 상황이 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Virtual Volumes VM에 대한 스냅샷 만들기가 실패한 경우 VMDK가 제대로 롤백되지 않음
    Virtual Volumes VM에 대한 스냅샷 만들기 시도가 실패하면 VMDK가 잘못된 데이터 Virtual Volumes에 연결됩니다. 이 문제는 Virtual Volumes VM의 VMDK가 여러 Virtual Volumes 데이터스토어에 속해 있는 경우에만 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 정기적인 VMFS 하트비트 동안 기본 스토리지가 잘못 비교 오류를 실수로 반환하면 VM I/O 작업이 일시 중지 또는 취소됨
    VMFS는 정기적인 하트비트를 위해 ATS라고도 하는 SCSI compare-and-write 명령을 사용합니다. ATS 명령을 실행하는 동안 발생하는 모든 잘못 비교 오류는 하트비트 손실로 처리되고 데이터스토어에서 복구 작업을 시작합니다. 손실을 방지하기 위해 디바이스에서 모든 I/O 작업이 취소됩니다. 기본 스토리지에서 VMFS 하트비트 동안 잘못 비교 오류를 실수로 보고하면 데이터스토어에서 불필요한 복구 작업을 시작합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 6.x 호스트가 85일 동안 실행된 후 응답을 중지함
    이 문제가 발생하면 /var/log/vmkernel 로그 파일에 다음과 유사한 항목이 표시됩니다.

    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved a PUREX IOCB woh oo
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved the PUREX IOCB.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): sizeof(struct rdp_rsp_payload) = 0x88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674qlnativefc: vmhba2(5:0.0): transceiver_codes[0] = 0x3
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): transceiver_codes[0,1] = 0x3, 0x40
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Stats Mailbox successful.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Sending the Response to the RDP packet
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 53 01 00 00 00 00 00 00 00 00 04 00 01 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) c0 1d 13 00 00 00 18 00 01 fc ff 00 00 00 00 20
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 88 00 00 00 b0 d6 97 3c 01 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 02 00 00 00 00 00 00 80 00 00 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 18 00 00 00 00 01 00 00 00 00 00 0c 1e 94 86 08
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0e 81 13 ec 0e 81 00 51 00 01 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 2c 00 04 00 00 01 00 02 00 00 00 1c 00 00 00 01
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 40 00 00 00 00 01 00 03 00 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 50 01 43 80 23 18 a8 89 50 01 43 80 23 18 a8 88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 01 00 03 00 00 00 10 10 00 50 eb 1a da a1 8f

    이 문제는 qlnativefc 드라이버 버그가 전송 길이가 잘못된 RDP(읽기 진단 매개 변수) 응답을 HBA 어댑터에 보내기 때문에 발생합니다. 그 결과 HBA 어댑터 펌웨어가 버퍼 풀 공간을 확보하지 않습니다. 버퍼 풀이 모두 사용되면 HBA 어댑터는 요청을 더 이상 처리할 수 없으며 결국 사용할 수 없는 상태가 됩니다. 기본적으로 RDP 루틴은 FC 스위치에 의해 시작되며 1시간마다 발생하기 때문에 정상적인 상황에서는 버퍼 풀이 모두 사용되는 데 80 ~ 85일 정도가 소요됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vSphere 6.0에서 스토리지 정책 API의 HostMultipathStateInfoPath 개체가 경로 값을 Run Time Name vmhbaX:CX:TX:LX로 제공함
    ESXi 5.5에서는 HostMultipathStateInfoPath가 다음 형식으로 경로 정보를 제공했습니다. HostWWN-ArrayWWN-LUN_ID(예: sas.500605b0072b6550-sas.500c0ff1b10ea000-naa.600c0ff0001a20bd1887345701000000) 그러나 ESXi 6.0에서는 경로 값이 vmhbaX:CX:TX:LX로 표시되며, 이는 HostMultipathStateInfoPath 개체를 사용하여 HostWWN 및 ArrayWWN 같은 정보를 검색하는 사용자에게 영향을 줍니다.

    이 문제는 이 릴리스에서 해결되었습니다. HostMultipathStateInfoPath 개체가 이제 경로 정보를 런타임 이름 및 HostWWN-ArrayWWN-LUN_ID로 표시합니다.

    esxcli storage core path list 명령을 사용하여 경로 관련 정보를 검색할 수도 있습니다. 이 명령은 HostWWN 및 ArrayWWN 세부 정보를 제공합니다. 자세한 내용은 기술 자료 문서 1003973을 참조하십시오.

  • 자주색 진단 화면이 표시되고 ESXi 호스트가 실패할 수 있음
    vFlash가 구성된 ESXi 호스트가 실패하고 자주색 진단 화면에 PSOD: @BlueScreen: #PF Exception 14 in world 500252:vmx-vcpu-0:V와 유사한 오류 메시지가 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 경로 할당 충돌 때문에 자주색 진단 화면이 표시되고 ESXi 호스트가 실패함
    등록되었지만 Multipath Plugin 두 개(예: NMP(Native Multipathing Plugin) 및 EMC PowerPath)에 의해 해당 경로가 할당되는 디바이스가 발견되면 ESXi 호스트에 자주색 진단 화면이 표시됩니다. 이 충돌 유형은 플러그인 할당 규칙이 경로를 할당하지 못하고 NMP가 기본적으로 경로를 할당하는 경우에 발생합니다. NMP가 디바이스를 등록하려고 하지만 디바이스는 다른 플러그인을 통해 이미 등록되었기 때문에 경합 조건이 발생하고, ESXi 호스트 실패가 트리거됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 호스트 메모리가 부족하여 대용량 파일에 대한 파일 작업이 실패함
    데이터스토어에 있는 대용량 파일을 마운트하는 것 같은 파일 작업을 수행할 때 이러한 작업이 ESXi 호스트에서 실패할 수 있습니다. 버퍼 캐시의 메모리 누수로 인해 ESXi 호스트의 메모리 부족이 발생하면 이 상황이 나타날 수 있습니다. 예를 들어 0이 아닌 데이터 복사본으로 인해 버퍼가 해제되지 않는 경우와 같습니다. 가상 시스템에 다음과 유사한 오류 메시지가 표시됩니다.

    /vmfs/volumes/5f64675f-169dc0cb/CloudSetup_20160608.iso 파일에 대한 작업이 실패했습니다. 파일이 원격 파일 시스템에 있는 경우 이 디스크가 있는 서버 및 네트워크 연결이 제대로 작동하는지 확인하십시오. 파일이 이동식 미디어에 있는 경우 미디어를 다시 연결하십시오. 작업을 다시 시도하려면 [재시도]를 선택하십시오. 이 세션을 끝내려면 [취소]를 선택하십시오. 게스트 운영 체제에 오류를 전달하려면 [계속]을 선택하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.

  • NFS 데이터스토어에 상주하는 데스크톱 VM에 대해 Horizon View 재구성 작업이 실패할 수 있음
    오래된 NFS 파일 핸들 오류가 발생하여 NFS 데이터스토어에 상주하는 몇몇 데스크톱 VM에 대해 Horizon View 재구성 작업이 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치 문제
  • ESXi가 USB에 있는 dd 이미지를 사용하여 배포되고 /altbootbankBOOT.CFG가 대문자로 포함되어 있으면 vSphere Update Manager를 통한 ESXi 업그레이드가 실패함
    esxiso2dd 유틸리티를 사용하여 특정 버전의 RHEL에 생성된 ESXi dd 이미지에는 /altbootbank에 포함된 BOOT.CFG가 모두 대문자일 수 있습니다. 업그레이드 사전 검사기는 소문자 boot.cfg만 허용하기 때문에 BOOT.CFG가 대문자인 경우 vSphere Update Manager가 호스트를 업그레이드하지 못합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 6.0 패치 ESXi600-201611011 이상을 사용하여 ESXi 5.5.x 호스트를 ESXi 6.0.x로 업그레이드하면 Hostd가 실패함
    이 문제는 HBA 모드를 지원하는 비동기식 HPSA 드라이버가 설치되어 있는 경우에 나타날 수 있습니다. ESXi에서는 HBA 모드로 HPSA 디스크 위치 정보 가져오기를 지원하지만 다음의 조건 중 하나가 충족되면 문제가 발생할 수 있습니다.

    • 이전 hpssacli 유틸리티(버전 2.10.14.0 이하)를 설치했습니다.
    • 외부 어레이를 사용하여 HPSA 컨트롤러에 연결했습니다.

    이러한 문제 때문에 hostd 실패가 발생하고 vSphere Client 및 vCenter Server에서 호스트에 연결하지 못합니다.

    이 문제는 이 릴리스에서 해결되었습니다. 이제 esxcli 명령을 사용하여 디스크 위치 정보를 가져와도 hostd가 실패하지 않습니다. esxcli 명령이 다음과 유사한 오류 메시지를 반환합니다.

    # esxcli storage core device physical get -d naa.500003963c888808g 플러그인 lsu-hpsa-plugin이 이름이 naa.500003963c888808인 장치에 대한 정보를 가져올 수 없습니다. 오류: 물리적 드라이브의 출력이 잘못되었습니다.

  • /altbootbankboot.cfg(소문자) 대신 BOOT.CFG(대문자)가 포함되어 있으면 USB에 있는 dd 이미지를 사용하여 부팅된 ESXi의 vSphere Update Manager 업그레이드가 실패함
    esxiso2dd 유틸리티를 사용하여 특정 버전의 RHEL에 생성된 ESXi dd 이미지에는 /altbootbankBOOT.CFG(대문자)가 포함됩니다. 업그레이드 사전 검사기는 소문자로 된 boot.cfg만 찾기 때문에 BOOT.CFG가 있으면 ESXi의 vSPhere Update Manager 업그레이드가 실패합니다.
  • 이 문제는 이 릴리스에서 해결되었습니다.

  • 6.0으로 업그레이드한 후 호스트의 [요약] 탭에 있는 이미지 프로파일 이름이 제대로 업데이트되지 않음
    esxcli software profile update 명령을 사용하여 새로운 이미지 프로파일을 적용하면 이미지 프로파일 이름이 새 이미지 프로파일 이름으로 변경되지 않습니다. 또한 ISO를 사용하여 업그레이드를 수행하면 새 이미지 프로파일 이름이 업데이트됨으로 표시되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

vCenter Server, vSphere Web Client 및 vSphere Client 문제
  • 새 문제 vSphere Web Client에서 특정 작업이 느리게 완료됨
    vSphere Web Client에서 수행된 특정 작업이 완료되는 데 오랜 시간이 걸리고 구성 변경 내용을 표시합니다. 이 문제는 중간 또는 대형 vCenter Server 인벤토리의 일부 또는 모든 데이터스토어에서 Storage I/O Control이 사용되도록 설정된 경우에 발생할 수 있습니다. 이 문제에 대한 자세한 내용은 KB 2146935를 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.

가상 시스템 관리 문제
  • 설치 후 이미 재부팅했는데도 vSphere Update Manager가 VMware Tools에 대한 재부팅 미리 알림을 보냄
    VMware Tools를 설치한 이후 재부팅했는데도 재부팅이 필요하다는 VMware Tools 설치 오류 코드가 표시됩니다. VMware Tools가 성공적으로 설치되고 재부팅을 수행할 때 VMX(가상 시스템 실행 파일) 측 guestInfo.toolsInstallErrCode 변수가 지워지지 않습니다. 이로 인해 vSphere Update Manager가 VMware Tools를 재부팅하라는 잘못된 미리 알림을 보냅니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ListProcesses가 게스트 운영 체제에서 실행되면 Hostd가 실패함
    게스트 운영 체제에 다수의 프로세스가 있으면 ListProcesses 프로세스가 두 번 이상 호출되고 VMware Tools의 데이터가 여러 번의 청크로 수신됩니다. 게스트 OS에 대한 여러 번의 ListProcesses 호출(각 청크마다 한 번씩 실행)이 모이면 구현 시 충돌이 발생합니다. 다수의 ListProcesses가 데이터 수신 시점을 식별하고 내부 콜백 처리기를 호출합니다. 처리기를 두 번 호출하면 hostd가 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 게스트 OS가 SCSI unmap 명령을 실행하고 IO 필터가 매핑 해제 작업을 방지할 경우 데이터 손상 또는 손실이 발생할 수 있음
    VM 가상 디스크에 IO 필터가 구성되어 있는 경우에 게스트 OS에서 SCSI unmap 명령을 실행하면 구성된 IO 필터 중 하나가 작업에 실패했는데도 SCSI unmap 명령이 성공적으로 실행될 수 있습니다. 그 결과, VMDK에 반영된 상태가 IO 필터에 반영된 상태와 달라지며 게스트 OS에 데이터 손상 또는 손실이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 자주색 진단 화면이 표시되면서 ESXi 호스트가 실패할 수 있음
    DVFilter_TxCompletionCB() 작업은 dvfilter 공유 메모리 패킷을 완성하려고 시도할 때 패킷 내에 저장된 IO 완료 데이터 멤버를 확보합니다. 경우에 따라서는 이 데이터 멤버가 0이 되어 NULL 포인터 예외가 발생합니다. 다음과 유사한 오류 메시지가 표시됩니다.

    YYYY-MM-DDT04:11:05.134Z cpu24:33420)@BlueScreen: #PF Exception 14 in world 33420:vmnic4-pollW IP 0x41800147d76d addr 0x28 PTEs:0x587e436023;0x587e437023;0x587e438023;0x0; YYYY-MM-DDT04:11:05.134Z cpu24:33420)Code start: 0x418000800000 VMK uptime: 23:18:59:55.570 YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461bdd0:[0x41800147d76d]DVFilterShmPacket_TxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0x3d sta YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461be00:[0x41800146eaa2]DVFilterTxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0xbe stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461be70:[0x418000931688]Port_IOCompleteList@vmkernel#nover+0x40 stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bef0:[0x4180009228ac]PktListIOCompleteInt@vmkernel#nover+0x158 stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bf60:[0x4180009d9cf5]NetPollWorldCallback@vmkernel#nover+0xbd stack: 0x14 YYYY-MM-DDT04:11:05.137Z cpu24:33420)0x43915461bfd0:[0x418000a149ee]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

  • PCI 패스스루를 사용할 경우 ESXi 호스트가 응답을 중지하고 자주색 진단 화면이 표시될 수 있음
    PCI 패스스루를 사용하여 VM을 여러 번 재부팅하면 ESXi 호스트가 응답을 중지하고 자주색 진단 화면이 표시될 수 있으며 vmware.log 파일에 다음과 유사한 메시지가 기록될 수 있습니다.

    XXXXXXXXXXXXXXX| vcpu-0| W110: A core file is available in " /vmx-debug-zdump.000"
    XXXXXXXXXXXXXXX| vcpu-0| I120: Msg_Post: Error
    XXXXXXXXXXXXXXX| vcpu-0| I120: [msg.log.error.unrecoverable] VMware ESX
    XXXXXXXXXXXXXXX| vcpu-0| unrecoverable error: (vcpu-0)
    XXXXXXXXXXXXXXX| vcpu-0| I120+ vcpu-7:ASSERT vmcore/vmm/intr/intr.c:459

    이 문제는 이 릴리스에서 해결되었습니다.

  • 복제 프로세스 중에 hostd 서비스가 실패할 수 있음
    복제 프로세스 동안 중지 스냅샷 작업이 실패하면 hostd 서비스가 실패할 수 있습니다. 다음과 유사한 오류 메시지가 hostd.log 파일에 기록될 수 있습니다.

    YYYY-MM-DDT22:00:08.582Z [37181B70 info 'Hbrsvc'] ReplicationGroup will retry failed quiesce attempt for VM (vmID=37)
    YYYY-MM-DDT22:00:08.583Z [37181B70 panic 'Default']
    -->
    --> Panic: Assert Failed: "0" @ bora/vim/hostd/hbrsvc/ReplicationGroup.cpp:2779

    이 문제는 이 릴리스에서 해결되었습니다.

  • LSI 가상 SCSI 컨트롤러가 프로비저닝된 VM에서 I/O 오류가 발생할 경우 hostd 서비스가 응답을 중지할 수 있음
    LSI 가상 컨트롤러가 프로비저닝된 VM에서 스토리지 I/O 오류가 발생하고 EXSi 호스트에 메모리가 오버 커밋될 경우 EXSi 호스트가 응답을 중지할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

Virtual SAN 문제
  • 새 문제 Virtual SAN 클러스터에서 정책이 재구성되거나 호스트가 유지 보수 모드로 전환될 때 Virtual SAN 스토리지를 사용하는 가상 시스템이 느려지거나 응답하지 않게 되고 Virtual SAN 호스트 관리 실패가 발생할 수 있음
    이 문제는 0 데이터가 Virtual SAN 디스크 그룹의 캐시 계층에서 누적되고 0 데이터 처리로 인해 로그 정체가 발생하는 경우에 나타납니다. 이러한 정체로 인해 Virtual SAN 스토리지를 사용하는 가상 시스템의 I/O가 느려지고 Virtual SAN 호스트 관리 실패가 발생할 수 있습니다. 이 문제는 중복 제거 및 압축을 사용하도록 설정한 vSAN 클러스터에서만 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 프로비저닝과 관련되거나 또는 새로운 개체 만들기와 관련된 Virtual SAN 클러스터 작업에서 간헐적으로 장애가 발생함
    CLOMD(Cluster Level Object Manager Daemon)의 메모리 누수로 인해 긴 런타임 동안 메모리가 모두 사용되어 대몬을 일시적으로 사용할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • DOM 모듈 초기화 실패
    설명: CLOMD(Cluster Level Object Manager Daemon)가 다수의 물리적 CPU가 있는 ESXi 호스트에 Virtual SAN을 사용하지 않을 수 있습니다. 이 문제는 클러스터에 가입할 때 Virtual SAN DOM 모듈이 초기화되지 못하면 발생할 수 있습니다.

    clomd.log 파일에 다음과 유사한 오류 메시지가 표시됩니다.

    2016-12-01T22:34:49.446Z 2567759 Failed to run VSI SigCheck: Failure 2016-12-01T22:34:49.446Z 2567759 main: Clomd is starting 2016-12-01T22:34:49.446Z 2567759 main: Is in stretched cluster mode? No 2016-12-01T22:34:49.446Z 2567759 CLOMSetOptions: Setting forground to TRUE 2016-12-01T22:34:49.446Z 2567759 CLOMSetOptions: No default configuration specified. 2016-12-01T22:34:49.447Z 2567759 main: Starting CLOM trace 2016-12-01T22:34:49.475Z 2567759 Cannot open DOM device /dev/dom: No such file or directory 2016-12-01T22:34:49.475Z 2567759 Cannot connect to DOM: Failure 2016-12-01T22:34:49.475Z 2567759 CLOM_CleanupRebalanceContext: Cleaning up rebalancing state 2016-12-01T22:34:49.481Z 2567759 Failed to dump data 2016-12-01T22:34:49.481Z 2567759 2016-12-01T22:34:49.481Z 2567759 main: clomd exit

    이 문제는 이 릴리스에서 해결되었습니다.

  • 재부팅 후 ESXi 호스트가 VMware Virtual SAN 클러스터에 다시 가입할 수 없음
    재부팅 후 VMware Virtual SAN 클러스터에 수동으로 다시 가입하려고 하면 다음 오류와 함께 작업이 실패할 수 있습니다.

    호스트가 VSAN 클러스터에 가입하지 못했습니다(vsantraced 시작 실패(반환 코드 2)).

    이 문제는 이 릴리스에서 해결되었습니다.

  • VSAN API를 계속 호출하면 잘못된 작업 메시지가 표시될 수 있음
    vCenter Server 6.0 업데이트 2 및 Virtual SAN 6.2가 설치된 환경에서 VSAN API를 계속 호출하면 Virtual SAN VASA 제공자에 티켓을 등록하는 작업이 만들어지고 다음과 유사한 메시지가 표시됩니다.

    Virtual SAN VASA 제공자 등록을 위해 티켓 검색

    이 문제는 이 릴리스에서 해결되었습니다.

  • Virtual SAN 디스크 재조정 작업이 5%에서 24시간 넘게 중지됨
    Virtual SAN 상태 서비스가 vSphere Web Client에서 Virtual SAN 디스크 조정 경고를 보고합니다. 디스크 재조정을 클릭하면 작업이 5%에서 24시간 넘게 중지된 것으로 표시됩니다.

    이 문제는 이 릴리스에서 해결되었으며 디스크 재조정 작업이 24시간 후에 완료된 것으로 표시됩니다.

  • ESXi 호스트가 응답을 중지하고 자주색 진단 화면이 표시될 수 있음
    ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타나면서 다음과 유사한 메시지가 표시될 수 있습니다.

    YYYY-MM-DDT22:59:29.686Z cpu40:84493)@BlueScreen: #PF Exception 14 in world 84493:python IP 0xnnnnnnnnnnnn addr 0xfffffffffffffff0 PTEs:0x0;
    YYYY-MM-DDT22:59:29.686Z cpu40:84493)Code start: 0xnnnnnnnnnnnn VMK uptime: 7:15:08:48.373
    YYYY-MM-DDT22:59:29.686Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMClient_IsTopObject@com.vmware.vsan#0.0.0.1+0x18 stack: 0xnnnnnnnn
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMListUuidTopHierarchyCbk@com.vmware.vsan#0.0.0.1+0x69 stack: 0x900
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSANUUIDTable_Iterate@com.vmware.vsanutil#0.0.0.1+0x4b stack: 0x139d
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMVsi_ListTopClients@com.vmware.vsan#0.0.0.1+0x5a stack: 0x66
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_GetListInfo@vmkernel#nover+0x354 stack: 0xnnnnnnnnnnnn
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_GetList@#+0x216 stack: 0xnnnnnnnnn
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@#+0xb4 stack: 0xnnnnnnn
    YYYY-MM-DDT22:59:29.689Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x0
    YYYY-MM-DDT22:59:29.689Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry_@vmkernel#nover+0x0 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 호스트가 실패하고 자주색 진단 화면이 표시될 수 있음
    Virtual SAN 재동기화 작업이 일시 중지되면 Virtual SAN 클러스터에 속해 있는 ESXi 호스트가 실패하고 자주색 진단 화면이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware HA 및 Fault Tolerance 구성 문제
  • VM에 Fault Tolerance를 사용하도록 설정하면 ESXi 호스트가 실패할 수 있음
    Fault Tolerance 보조 VM의 전원을 켤 수 없으면 ESXi 호스트가 실패하고 자주색 진단 화면이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vSphere Fault Tolerance를 사용하도록 설정된 VM에 대해 vSphere 게스트 애플리케이션 모니터링 SDK가 실패함
    vSphere 게스트 애플리케이션 모니터가 설치되어 있는 vSphere HA 보호 VM에 vSphere FT를 사용하도록 설정하면 vSphere 게스트 애플리케이션 모니터링 SDK가 실패할 수 있습니다.

    이 릴리스에서는 Fault Tolerance를 사용하도록 설정한 경우에 VM 네트워크 지연 시간의 증가가 크게 줄었습니다.

  • VM에서 SMP Fault Tolerance를 사용하도록 설정한 경우에 지연 시간 증가
    SMP(Symmetric Multiprocessor) Fault Tolerance를 VM에서 사용하도록 설정한 경우, VM 네트워크 지연 시간이 평균 값 및 변동 값 모두에서 크게 증가할 수 있습니다. 지연 시간이 길어지면 지연 시간 증가에 민감한 VM 워크로드가 크게 불안정해지거나 성능이 저하될 수 있습니다.

    이 릴리스에서는 Fault Tolerance를 사용하도록 설정한 경우에 VM 네트워크 지연 시간의 증가가 크게 줄었습니다.

알려진 문제

ESXi 6.0의 알려진 문제는 다음과 같은 그룹으로 분류할 수 있습니다.

이 릴리스에 정리된 새로운 알려진 문제는 새 문제로 강조 표시됩니다.

설치 문제
  • DCUI에서 기본 구성을 변경한 후에도 DNS 접미사가 유지될 수 있음
    ESXi 호스트가 DHCP 서버에서 제공하는 네트워크에 배포된 경우 최초 부팅 시 해당 ESXi 호스트가 기본 DNS + DNS 접미사를 사용하여 자동으로 구성될 수 있습니다. DNS 접미사를 변경할 경우 DCUI는 기존 DNS 접미사를 제거하지 않고 제공된 새 접미사도 추가합니다.

    해결 방법: 감시 OVF의 DNS 호스트 이름을 구성하는 경우 올바른 DNS 접미사가 추가되도록 DNS 호스트 이름 필드에 전체 FQDN 이름을 설정합니다. 그런 다음 사용자 지정 DNS 접미사 필드에서 필요하지 않은 DNS 접미사를 제거할 수 있습니다.

  • 최신 VMware Tools 패키지 설치 후 Linux OS에서 VMware Tools 서비스 사용자 프로세스가 실행되지 않을 수 있음
    Linux OS에서 최신 VMware Tools 패키지를 설치한 후 VMware Tools 업그레이드/설치 문제가 발생하거나 VMware Tools 서비스(vmtoolsd) 사용자 프로세스가 실행되지 않을 수 있습니다. 이 문제는 SLES10sp4와 같이 glibc 버전이 버전 2.5보다 이전 버전일 경우 발생합니다.

    해결 방법: Linux glibc를 버전 2.5 이상으로 업그레이드

업그레이드 문제

릴리스 정보의 설치 문제 섹션도 검토하십시오. 여러 설치 문제가 업그레이드 프로세스에도 영향을 미칠 수 있습니다.

  • esxcli software vib update 명령을 사용하여 ESXi 6.x에서 6.0 업데이트 2로 업그레이드하려는 시도가 실패함
    esxcli software vib update를 사용하여 ESXi 6.x에서 6.0 업데이트 2로 업그레이드하려는 시도가 실패하고 다음과 유사한 오류 메시지가 표시됩니다.

    [DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile.


    이 문제는 esx-base VIB와 상호 종속적인 새 Virtual SAN VIB 도입으로 인해 발생하며 esxcli software vib update 명령은 시스템에 이미 설치된 VIB만을 업데이트합니다.

    해결 방법: 이 문제를 해결하려면 다음 예에 표시된 대로 esxcli software profile update를 실행합니다.

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • vSphere 6.0의 이전 릴리스에서 vSphere 6.0 업데이트 1 이상으로 업그레이드 후 SSLv3이 Auto Deploy에서 사용 가능한 상태로 유지됨
    vSphere 6.0의 이전 릴리스에서 vSphere 6.0 업데이트 1 이상으로 업그레이드할 경우, SSLv3 프로토콜이 Auto Deploy에서 사용 가능한 상태로 유지됩니다.

    해결 방법: 다음 단계에 따라 PowerCLI 명령을 사용하여 SSLv3를 사용하지 않도록 설정하십시오.

    1. 다음 명령을 실행하여 vCenter Server에 연결합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <vCenter Server의 FQDN_호스트 이름 또는 IP 주소>

    2. 다음 명령을 실행하여 현재 sslv3 상태를 확인합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 다음 명령을 실행하여 sslv3를 사용하지 않도록 설정합니다.

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. Auto Deploy 서비스를 다시 시작하여 변경 내용을 업데이트합니다.

  • 5.5.x에서 6.0으로 ESXi를 업그레이드한 후 파이버 채널 호스트 버스 어댑터 디바이스 번호가 변경될 수 있음

    5.5에서 6.0으로 ESXi를 업그레이드 중 파이버 채널 호스트 버스 어댑터 디바이스 번호가 가끔 변경됩니다. esxcli storage core adapter list 명령을 사용하는 경우 디바이스 번호가 다른 번호로 변경될 수 있습니다.

    예를 들어 ESXi 업그레이드 전 파이버 채널 호스트 버스 어댑터의 디바이스 번호는 다음과 유사합니다.

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    ESXi 6.0으로의 업그레이드 후 파이버 채널 호스트 버스 어댑터의 디바이스 번호는 다음과 유사합니다.

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    이 예는 esxcli storage core adapter list 명령을 사용하는 경우 발생할 수 있는 임의 변경을 보여 줍니다. 디바이스 별칭 번호 vmhba2 및 vmhba3이 vmhba64 및 vmhba65로 변경되지만 디바이스 번호 vmhba5 및 vmhba6은 변경되지 않습니다. 그러나 esxcli hardware pci list 명령을 사용하면 업그레이드 후에도 디바이스 번호는 변경되지 않습니다.

    이는 VMware 외부적인 문제이며 사용자에게 영향을 주지 않을 수 있습니다. ESXi는 디바이스 별칭 이름을 표시하지만 어떤 작업에도 별칭 이름을 사용하지는 않습니다. 호스트 프로파일을 사용하여 디바이스 별칭 이름을 재설정할 수 있습니다. VMware 제품 설명서 및 기술 자료 문서를 참조하십시오.

    해결 방법: 없음.

  • 업그레이드 후 Active Directory 설정이 유지되지 않음
    호스트를 ESXi 6.0으로 업그레이드하면 업그레이드 전에 ESXi 호스트에 구성된 Active Directory 설정이 유지되지 않습니다.

    해결 방법: 업그레이드 전 ESXi 버전이 5.1 이상인 경우 업그레이드 후에 호스트를 Active Directory 도메인에 추가합니다. 업그레이드 전 ESXi 버전이 5.0.x인 경우에는 업그레이드 후에 Active Directory 도메인에 호스트를 추가하지 마십시오.

  • ESXi를 6.0으로 업그레이드한 후 기존에 도메인에 추가한 호스트가 더 이상 도메인에 가입되지 않음
    처음으로 vSphere 5.5에서 vSphere 6.0으로 업그레이드할 경우 Active Directory 구성이 유지되지 않습니다.

    해결 방법: 업그레이드 후 호스트를 vCenter Server 도메인에 다시 가입시키십시오.

    1. vCenter Server에 호스트를 추가합니다.

    2. 호스트를 도메인(예: example.com)에 가입시킵니다.

    3. 모든 호스트를 ESXi 6.0으로 업그레이드합니다.

    4. 최근 업그레이드한 호스트 하나를 도메인에 수동으로 가입시킵니다.

    5. 호스트 프로파일을 추출하고 인증을 제외한 다른 모든 프로파일을 사용하지 않도록 설정합니다.

    6. 수동으로 가입한 호스트 프로파일을 최근 업그레이드한 다른 호스트에 적용합니다.

  • vCenter Server for Windows 업그레이드 후 기존에 실행 중이던 VMware ESXi Dump Collector 서비스가 기본값인 [사용 안 함] 설정으로 재설정됨
    업그레이드 프로세스에서는 VMware Vsphere ESXi Dump Collector 6.0을 vCenter Server에 대한 선택적 서비스 그룹의 일부로 설치합니다. VMware vSphere ESXi Dump Collector 서비스를 사용하도록 수동으로 설정해야만 이 서비스가 vCenter Server 6.0 for Windows의 일부로 사용됩니다.

    해결 방법: VMware 설명서를 읽거나 VMware 기술 자료 문서를 검색하여 vCenter Server 6.0 for Windows에서 선택적 서비스를 사용하도록 설정하고 실행하는 방법에 대한 정보를 참조하십시오.

    다음과 같이 운영 체제에서 VMware vSphere ESXi Dump Collector 서비스를 사용하도록 설정합니다.

    1. 제어판 메뉴에서 관리 도구를 선택하고 서비스를 두 번 클릭합니다.

    2. VMware vSphere ESXi Dump Collector를 마우스 오른쪽 버튼으로 클릭하고 시작 유형 편집을 선택합니다.

    3. 시작 유형자동으로 설정합니다.

    4. VMware vSphere ESXi Dump Collector를 마우스 오른쪽 버튼으로 클릭하고 시작을 클릭합니다.

    서비스 시작 유형이 자동으로 설정되고 서비스가 실행 중 상태가 됩니다.

vCenter Single Sign-On 및 인증서 관리 문제
  • ESXi 호스트의 SSL 인증서 업그레이드 후 VM 콘솔에 연결할 수 없음
    ESXi 호스트에서 사용되던 SSL 인증서를 업그레이드한 후 인증서 교체 시 실행 중인 모든 VM의 VM 콘솔에 연결하려고 하면 인증서 검증 오류가 발생할 수 있습니다. 이는 이전 인증서가 캐시되어 있어서 새 콘솔 연결이 불일치로 인해 거부되기 때문입니다.
    예를 들어 이전 인증서를 다른 방법을 통해 확인할 수 있다면 콘솔 연결이 성공할 수도 있지만 성공한다는 보장은 없습니다. 기존 가상 시스템 콘솔 연결에는 영향을 미치지 않지만 인증서 교체 도중 실행 중이던 콘솔이 중지되었다 다시 시작된 경우에는 문제가 발생할 수 있습니다.

    해결 방법: 호스트를 유지 보수 모드로 전환하거나 일시 중단하거나 모든 VM의 전원을 끕니다. 실행 중인 VM에만 영향을 미칩니다. 호스트를 유지 보수 모드로 전환한 후 모든 SSL 인증서 업그레이드를 수행하는 것이 가장 좋습니다.

네트워킹 문제

  • 특정 vSphere 기능이 IPv6을 지원하지 않음
    다음 기능을 제외한 모든 노드 및 구성 요소에 대해 IPv6을 사용하도록 설정할 수 있습니다.

    • DNS 서버의 FQDN(정규화된 도메인 이름)에 매핑되지 않은 ESXi 호스트 및 vCenter Server에 대한 IPv6 주소.
      해결 방법: FQDN을 사용하거나 IPv6 주소가 역방향 이름 조회를 위해 DNS 서버에서 FQDN에 매핑되어 있는지 확인합니다.

    • 가상 볼륨

    • Auto Deploy 및 호스트 프로파일의 일부로 PXE 부팅
      해결 방법: PXE는 IPv4를 통해 ESXi 호스트를 부팅하며 호스트 프로파일을 사용하여 IPv6에 대해 호스트를 구성합니다.

    • ESXi 호스트와 vCenter Server Appliance의 Active Directory 연결
      해결 방법: LDAP를 통한 Active Directory를 vCenter Single Sign-On에서 ID 소스로 사용합니다.

    • Kerberos를 사용하는 NFS 4.1 스토리지
      해결 방법: NFS 4.1에 AUTH_SYS를 사용합니다.

    • Authentication Proxy

    • vSphere Management Assistant 및 vSphere Command-Line Interface의 Active Directory 연결
      해결 방법: LDAP를 통해 Active Directory에 연결합니다.

    • vSphere Client를 사용하여 vSphere 기능에 대해 IPv6을 사용하도록 설정
      해결 방법: vSphere Web Client를 사용하여 vSphere 기능에 대해 IPv6을 사용하도록 설정합니다.

  • ESXi Dump Collector를 사용할 때 재귀적 패닉 발생 가능
    호스트가 자주색 진단 화면을 표시하고 네트워크를 통해 ESXi Dump Collector에 코어 덤프를 쓰면서 패닉 상태에 있을 때 재귀적 커널 패닉이 발생할 수 있습니다. vCenter Server의 ESXi Dump Collector에서 VMkernel zdump 파일을 문제 해결에 사용할 수 있습니다.

    재귀적 커널 패닉이 발생할 경우 호스트의 자주색 진단 화면에 다음 메시지가 표시됩니다.
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    코어 덤프를 vCenter Server의 수집기로 전송하도록 구성된 물리적 네트워크 어댑터를 통해 많은 트래픽이 통과되고 있을 때 VMkernel 패닉이 발생하면 재귀적 커널 패닉이 발생할 수 있습니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • 물리적 네트워크 어댑터를 코어 덤프 전송 전용으로 지정하여 시스템 및 가상 시스템 트래픽으로부터의 영향을 줄입니다.

    • 다음 ESXCLI 콘솔 명령을 실행하여 호스트에서 ESXi Dump Collector를 사용하지 않도록 설정합니다.
      esxcli system coredump network set --enable false

스토리지 문제

NFS 버전 4.1 문제

  • NFS 4.1 공유가 APD(모든 경로 다운) 상태에서 복구된 후 NFS 4.1 데이터스토어의 가상 시스템이 실패함
    NFS 4.1 스토리지가 APD 상태로 전환한 다음 유예 기간 후 이 상태에서 벗어나면, NFS 4.1 데이터스토어에서 실행되는 전원이 켜진 가상 시스템이 실패합니다. 유예 기간은 어레이 벤더에 따라 다릅니다.
    NFS 4.1 공유가 APD에서 복구된 후 vSphere Web Client의 가상 시스템 요약 페이지에 다음 메시지가 표시됩니다.
    VM.vmdk를 보호하는 잠금이 손실되었습니다. 기본 스토리지 문제 때문일 수 있습니다. 이 가상 시스템이 고가용성으로 구성된 경우 가상 시스템이 일부 다른 호스트에서 실행되고 있는지 확인한 후 [확인]을 클릭하십시오.
    확인을 클릭하면 충돌 파일이 생성되고 가상 시스템 전원이 꺼집니다.

    해결 방법: 없음.

  • 새 세션을 생성하려고 할 때 NFS 4.1 클라이언트에서 서버와의 동기화가 손실됨
    서버와의 연결이 중단되고 일정 시간이 지난 후 새 세션을 생성하려고 할 때 NFS 4.1 클라이언트에서 서버와의 동기화가 손실될 수 있습니다. 이 문제가 발생하면 NFS41 CREATE_SESSION 요청이 NFS4ERR_SEQ_MISORDERED로 실패했음을 알리는 많은 경고 메시지가 vmkernel.log 파일에 포함됩니다.

    해결 방법: 다음 단계를 순서대로 수행하십시오.

    1. 영향을 받은 파일 시스템의 마운트 해제를 시도합니다. 마운트를 해제할 때 열려 있는 파일이 없으면 이 작업이 성공하고 NFS 클라이언트 모듈이 내부 상태를 지웁니다. 그러면 마운트 해제되었던 파일 시스템을 다시 마운트하고 정상 작동을 재개할 수 있습니다.

    2. 마운트의 IP 주소로 연결되는 NIC를 중지하고 몇 회의 서버 리스가 만료될 때까지 충분히 기다립니다. 5분이면 충분합니다. 그런 다음 NIC를 다시 켤 수 있습니다. 그러면 정상 작동이 재개됩니다.

    3. 앞의 단계가 실패하면 ESXi 호스트를 재부팅합니다.

  • NFS 4.1 클라이언트와 NFS 서버의 동기화가 손실되고 세션을 재설정해도 연결을 복구할 수 없음
    서버와의 연결이 중단되고 일정 시간이 지나면, NFS 4.1 클라이언트와 서버의 동기화가 손실되고 세션을 재설정하더라도 서버와의 동기화된 연결을 복구할 수 없습니다. 이 문제는 EMC VNX 서버 문제 때문에 발생합니다. 이 문제가 발생하면 다음을 알리는 여러 경고 메시지가 vmkernel.log 파일에 포함됩니다. NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug.

    해결 방법: 세션을 종료하려면 모든 데이터스토어를 마운트 해제했다가 다시 마운트합니다.

  • ONTAP Kerberos 볼륨이 액세스 불가 상태가 되거나 VM I/O 실패 발생
    NetApp 서버에 잘못된 순서로 도착되는 RPCSEC_GSS 요청이 수신될 경우 서버가 응답하지 않습니다. 그 결과 I/O 작업이 종료되는 경우 이외에는 해당 I/O 작업이 중지되며 게스트 OS가 I/O 오류를 중지하거나 게스트 OS에서 I/O 오류가 발생할 수 있습니다. 또한 RFC 2203에 따르면 클라이언트는 RPCSEC_GSS 컨텍스트에 따라 seq_window에 해당하는 수의 미결 요청(ONTAP의 경우 32개)만 사용할 수 있으며 이러한 미결 요청의 최소치가 서버에 의해 완료될 때까지 기다려야 합니다. 따라서 서버는 순서에서 벗어난 RPCSEC_GSS 요청에 응답하지 않으며 미결 요청의 최대 seq_window 수에 도달한 후에는 클라이언트가 서버에 요청을 보내는 것을 중지합니다. 이로 인해 볼륨에 액세스할 수 없게 됩니다.

    해결 방법: 없음. 이 문제가 해결된 지원되는 ONTAP 서버를 찾으려면 최신 HCL(하드웨어 호환성 목록)을 참조하십시오.

  • EMC VNX에서 NFS 4.1 데이터스토어에 1TB가 넘는 가상 디스크를 생성할 수 없음
    펌웨어 버전 7.x가 적용된 EMC VNX의 NFS 버전 4.1 스토리지는 32비트 파일 형식만 지원합니다. 이로 인해 NFS 4.1 데이터스토어에 1TB를 초과하는 가상 시스템 파일을 생성할 수 없습니다.

    해결 방법: EMC VNX 어레이를 버전 8.x로 업데이트하십시오.

  • 펌웨어 업그레이드 도중 EMC VNX 스토리지가 지원하는 NFS 4.1 데이터스토어에 액세스할 수 없음
    EMC VNX 스토리지를 새 펌웨어로 업그레이드할 때 ESXi 호스트에 마운트된 NFS 4.1 데이터스토어에 액세스할 수 없게 됩니다. 이 문제는 펌웨어 업그레이드 후 VNX 서버가 해당 주 디바이스 번호를 바꾸기 때문에 발생합니다. 호스트의 NFS 4.1 클라이언트는 서버와 연결된 후 주 번호 변경을 예상하지 않으며 이로 인해 데이터스토어에 영구적으로 액세스할 수 없게 됩니다.

    해결 방법: 펌웨어를 업그레이드하기 전에 VNX 서버에서 내보낸 모든 NFS 4.1 데이터스토어를 마운트 해제합니다.

  • ESXi 호스트가 다른 보안 메커니즘을 사용하여 동일한 NFS 4.1 데이터스토어를 마운트하는 경우 가상 시스템 장애가 발생할 수 있음
    다른 ESXi 호스트가 다른 보안 메커니즘(AUTH_SYS 및 Kerberos)을 사용하여 동일한 NFS 4.1 데이터스토어를 마운트하는 경우 이 데이터스토어에 배치된 가상 시스템에서 문제와 장애를 경험할 수 있습니다. 예를 들어 가상 시스템을 host1에서 host2로 마이그레이션하려고 하면 권한 거부 오류로 인해 작업이 실패할 수 있습니다. 또한 host2에서 host1 가상 시스템에 액세스하려는 경우에도 이러한 오류가 발생할 수 있습니다.

    해결 방법: NFS 4.1 볼륨을 마운트하는 모든 호스트가 동일한 보안 유형을 사용하고 있는지 확인합니다.

  • Kerberos를 사용하는 NFS 4.1 데이터스토어에 읽기 전용 파일을 복사하려고 하면 작업이 실패함
    이 실패는 소스 파일에서 대상 파일로 데이터를 복사하려는 경우에 발생할 수 있습니다. 대상 파일은 비어 있는 상태로 유지됩니다.

    해결 방법: 없음.

  • 데이터스토어 클러스터를 생성할 때 NFS 4.1 보안 유형의 균일성이 보장되지 않음
    데이터스토어를 생성할 때 vSphere는 NFS 4.1 보안 유형의 균일성을 확인하여 강제로 맞추지 않습니다. 따라서 다른 보안 유형(AUTH_SYS 및 Kerberos)을 사용하는 데이터스토어가 동일한 클러스터의 일부로 구성되어 있을 수 있습니다. Kerberos를 사용하는 데이터스토어에서 AUTH_SYS를 사용하는 데이터스토어로 가상 시스템을 마이그레이션하는 경우 가상 시스템의 보안 수준이 더 낮아지게 됩니다.
    이 문제는 vMotion, Storage vMotion, DRS 및 Storage DRS와 같은 기능에 적용됩니다.

    해결 방법: Kerberos 보안이 가상 시스템에 필요한 경우 동일한 클러스터를 구성하는 모든 NFS 4.1 볼륨이 Kerberos 보안 유형만 사용하는지 확인합니다. NFS 3은 AUTH_SYS만 지원하므로 NFS 3 데이터스토어를 포함시키지 않아야 합니다.

Virtual SAN 문제

  • 새 문제 시간 초과로 인해 Virtual SAN 상태 UI가 표시되지 않음
    Virtual SAN 클러스터 > 모니터 > Virtual SAN > 상태 아래에서 Virtual SAN 상태 UI에 액세스하면 UI가 표시되지 않습니다. vSphere ESX Agent Manager가 중단되어 시간 초과가 발생한 것이 원인일 수 있습니다. 원인을 확인하려면 Virtual SAN 상태 로그(/var/log/vmware/vsan-health/vmware-vsan-health-service.log)를 열고 VsanEamUtil.getClusterStatus: 문자열을 사용하여 vSphere ESX Agent Manager 서비스에 대한 호출을 검색하십시오.

    해결 방법: vSphere Web Client를 사용하여 vSphere ESX Agent Manager 서비스를 다시 시작하고 Virtual SAN 상태 UI를 새로 고칩니다.

  • 새 문제 타사 lsi_msgpt3 드라이버를 사용할 경우 Virtual SAN 디스크 서비스 가능성이 작동하지 않음
    추가 호스트 실패가 한 번 발생한 후 Virtual SAN 클러스터 > 모니터 > Virtual SAN > 상태 > 제한 상태에서 노드가 2개 또는 3개인 Virtual SAN 클러스터에 대한 상태 검사가 빨간색으로 표시되고, 클러스터의 디스크 공간 사용량이 50%를 초과하면 잘못된 vCenter Server 이벤트 또는 경보가 트리거됩니다.

    해결 방법: Virtual SAN 클러스터에 호스트를 하나 이상 추가하거나 디스크를 추가하여 클러스터의 디스크 공간 사용량을 50% 미만으로 줄입니다.

  • 새 문제 노드가 2개 또는 3개인 Virtual SAN 클러스터의 제한 상태 검사가 빨간색으로 표시됨
    Virtual SAN 디스크 서비스 가능성 플러그인(lsu-lsi-lsi-msgpt3-plugin)은 디바이스 위치를 가져오고 디스크 LED를 켜거나 끄는 작업을 지원합니다. VMware lsi_msgpt3 인박스 드라이버는 서비스 가능성 플러그인을 지원합니다. 하지만 타사 비동기식 드라이버를 사용하면 플러그인이 작동하지 않습니다.

    해결 방법: VMware 인박스 lsi_msgpt3 드라이버 버전 06.255.10.00-2vmw 이상을 사용합니다.

Virtual Volumes 문제

  • Virtual Volumes VASA 제공자가 사용하는 올바르지 않은 인증서 때문에 가상 데이터스토어 생성 실패
    경우에 따라 Virtual Volumes VASA 제공자가 사용하는 자체 서명된 인증서는 KeyUsage 확장을 keyCertSign 비트를 설정하지 않고 위험으로 잘못 정의할 수 있습니다. 이 경우 제공자 등록은 성공합니다. 하지만 VASA 제공자가 보고한 스토리지 컨테이너에서 가상 데이터스토어를 생성할 수 없습니다.

    해결 방법: 제공자 등록 시점에 VASA 제공자가 사용하던 자체 서명된 인증서가 keyCertSign 비트를 설정하지 않고 KeyUsage 확장을 위험으로 정의하지 않아야 합니다.

일반 스토리지 문제

  • 특정 버전의 펌웨어를 실행하는 스토리지 어레이에 연결된 ESXi 6.0 업데이트 2 호스트에서 I/O 시간 초과 및 이로 인한 중단 문제가 발생함
    특정 버전의 펌웨어를 실행하는 스토리지 어레이에 연결된 ESXi 6.0 업데이트 2 호스트에서 SMART 데이터 요청을 스토리지 어레이에 보내고 어레이가 PDL 오류로 응답할 경우, 6.0 업데이트 2에서는 이와 같은 PDL 응답 동작으로 인해 실패한 명령이 계속해서 다시 시도되어 다른 명령이 차단되는 결과가 나타날 수 있습니다. 이 오류로 인해 광범위하게 나타나는 I/O 시간 초과 및 이로 인한 중단 문제가 나타날 수 있습니다.

    또한 ESXi 호스트에서 재부팅 후 vCenter Server에 다시 연결하는 데 시간이 오래 걸리거나 호스트가 vCenter Server에서 응답 없음 상태로 전환될 수 있습니다. HBA 다시 검색 같은 스토리지 관련 태스크를 완료하는 데 시간이 아주 오래 걸릴 수 있습니다.

    해결 방법: 이 문제를 해결하려면 기술 자료 문서 2133286을 참조하십시오.

  • 새 VM이 기존 디스크에서 생성된 경우 vSphere Web Client에서 스토리지 정책을 연결됨으로 잘못 표시함
    기존 디스크에서 새 VM을 생성하는 데 vSphere Web Client를 사용하고 디스크를 설정할 때 스토리지 정책을 지정합니다. 새 VM 선택 --> VM 정책 --> VM 스토리지 정책 편집 클릭 시 필터가 연결되어 있는 것으로 나타나지만 해당 필터는 실제로는 연결되어 있지 않습니다. .vmdk 파일 또는 vmkfstools --iofilterslist <vmdk-file>'을 확인하여 필터가 연결되어 있는지 확인할 수 있습니다.

    해결 방법: 새 VM을 생성한 후 전원을 켜기 전에 VM 정책 --> VM 스토리지 정책 편집을 클릭하여 필터를 vmdk에 추가하십시오.

  • NFS 조회 작업을 수행할 때 오래된 NFS 오류가 반환됨
    NFS 데이터스토어에 많은 수의 VM을 배포할 경우 경합 조건으로 인해 다음과 유사한 오류 메시지와 함께 VM을 배포하지 못할 수 있습니다.

    오래된 NFS 파일 핸들

    해결 방법: 조회 작업을 다시 시작하십시오. 자세한 내용은 기술 자료 문서 2130593을 참조하십시오.

  • QLogic iSCSI 어댑터가 사용될 때 Dell EqualLogic LUN에서 VMFS 데이터스토어를 생성하려는 시도가 실패함
    QLogic iSCSI 어댑터를 통해 검색된 Dell EqualLogic 스토리지 디바이스에서 VMFS 데이터스토어를 생성할 수 없습니다.
    시도가 실패하면 vCenter Server에 다음 오류 메시지가 나타납니다. 파일 시스템을 생성할 수 없습니다. 자세한 내용은 VMkernel 로그를 확인하십시오. 연결 시간이 초과되었습니다. VMkernel 로그에는 연속적인 iscsi session blockediscsi session unblocked 메시지가 포함됩니다. Dell EqualLogic 스토리지 어레이에서 모니터링 로그에 QLogic 이니시에이터 IQN 이름에 대해 이니시에이터에서 수신된 패킷에서 프로토콜 오류 메시지가 표시됩니다.

    이 문제는 다음 구성 요소를 사용할 때 발견됩니다.

    • Dell EqualLogic 어레이 펌웨어: V6.0.7

    • QLogic iSCSI 어댑터 펌웨어 버전: 3.00.01.75

    • 드라이버 버전: 5.01.03.2-7vmw-debug

    해결 방법: QLogic iSCSI 어댑터에서 iSCSI ImmediateData 어댑터 매개 변수를 사용하도록 설정합니다. 기본적으로 이 매개 변수는 꺼져 있습니다. 이 매개 변수는 vSphere Web Client에서 또는 esxcli 명령을 사용하여 변경할 수 없습니다. 이 매개 변수를 변경하려면 QConvergeConsole CLI와 같은 벤더 제공 소프트웨어를 사용하십시오.

  • Emulex OneConnect HBA가 설치된 ESXi 호스트가 부팅되지 않음
    ESXi 호스트에 Emulex OneConnect HBA가 설치된 경우 호스트가 부팅되지 않을 수 있습니다. 이 실패는 Emulex 펌웨어의 문제 때문에 발생합니다.

    해결 방법: 이 문제를 수정하려면 Emulex에 HBA의 최신 펌웨어를 문의하십시오.

    이전 펌웨어를 계속 사용하는 경우 부팅 문제를 피하려면 다음 단계를 수행하십시오.

    1. ESXi가 로드될 때 ESXi 커널 부팅 전에 Shift+O를 누릅니다.

    2. 기존 부팅 옵션은 그대로 두고, 공백과 dmaMapperPolicy=false를 차례로 추가합니다.

  • APD 도중 Flash Read Cache가 I/O를 가속하지 않음
    Flash Read Cache에 대한 가상 플래시 리소스로 구성된 플래시 디스크에 문제가 있거나 이 디스크에 액세스할 없는 경우 또는 호스트에서 디스크 스토리지에 연결할 수 없는 경우, 해당 호스트의 Flash Read Cache 인스턴스가 무효하며 I/O 가속을 수행하지 않습니다. 그 결과 호스트와 스토리지가 다시 연결된 후 캐시가 오래된 데이터를 제공하지 않습니다. 연결 중단은 일시적인 APD(모든 경로 다운) 조건이거나 영구적인 PDL(영구적 디바이스 손실)일 수 있습니다. 이 조건은 가상 시스템의 전원을 껐다가 다시 켤 때까지 지속됩니다.

    해결 방법: 가상 시스템 전원을 껐다가 다시 켜서 Flash Read Cache를 사용한 I/O 가속을 복원할 수 있습니다.

  • APD(모든 경로 다운) 또는 경로 페일오버로 인해 시스템 실패가 발생할 수 있음
    공유된 SAS 환경에서 디스크가 lsi_msgpt3 드라이버에 의해 할당되었고 이 디스크에 I/O 활동이 많을 경우, APD 또는 경로 페일오버 상황으로 인해 시스템 실패가 발생할 수 있습니다.

    해결 방법: 없음

  • SCSI 중단 명령을 자주 사용하면 시스템 실패가 발생할 수 있음
    I/O 활동이 많을 때 SCSI 중단 명령을 자주 사용하면 MegaRAID 컨트롤러의 응답이 매우 느려질 수 있습니다. 이전 컨텍스트에서 이미 해제되었던 리소스 참조에 예기치 않은 인터럽트가 발생할 경우 시스템이 실패할 수 있습니다.

    해결 방법: 없음

  • IQN 변경 시 iSCSI 연결이 실패하고 데이터스토어에 액세스할 수 없음
    이 문제는 어댑터의 iSCSI 세션이 아직 활성화된 상태에서 iSCSI 어댑터의 IQN을 변경한 경우에 발생할 수 있습니다.

    해결 방법: iSCSI 어댑터의 IQN을 변경할 때는 해당 어댑터에 활성화된 세션이 없어야 합니다. IQN을 변경하기 전에 어댑터에서 모든 iSCSI 세션 및 모든 대상을 제거하십시오.

  • nvmecli 온라인 및 오프라인 작업이 적용되지 않을 때가 있음
    NVMe 디바이스를 온라인 상태로 전환하기 위해 nvmecli device online -A vmhba* 작업을 수행하면 작업이 성공한 것으로 보입니다. 하지만 디바이스는 여전히 오프라인 상태에 있을 수 있습니다.

    해결 방법: nvmecli device list 명령을 실행하여 NVMe 디바이스의 상태를 확인합니다.

서버 구성 문제
  • 상태 저장 호스트의 호스트 프로파일을 Auto Deploy를 통해 프로비저닝된 호스트에 적용하는 경우 업데이트 적용이 실패함
    상태를 저장하여 배포된 호스트의 호스트 프로파일을 로컬 스토리지가 없고 Auto Deploy를 통해 프로비저닝된 호스트(상태 비저장 호스트)에 적용하는 경우 다음 오류 메시지 중 하나가 표시되면서 업데이트 적용 시도가 실패합니다.

    • PCI 버스 주소가 sxxxxxxxx.xx인 vmhba 디바이스가 호스트에 없습니다. 종료한 후 PCI 슬롯 yy에 카드를 넣어야 합니다. 카드 유형은 참조 호스트의 유형과 정확히 일치해야 합니다.

    • 유효한 코어 덤프 파티션이 없습니다.

    해결 방법: 호스트 프로파일에서 문제를 일으키는 플러그인(예: 디바이스 별칭 구성 또는 코어 덤프 구성)을 사용하지 않도록 설정한 후 호스트 프로파일에 업데이트를 적용합니다.

  • 정적 IP가 포함된 호스트 프로파일을 호스트에 적용하면 규정 준수 오류가 발생함
    DHCP 네트워크 구성이 있는 호스트에서 호스트 프로파일을 추출하고 정적 IP 주소를 포함하도록 호스트 프로파일을 편집한 후 다른 호스트에 적용하는 경우 다음 메시지가 표시되면서 규정 준수 오류가 발생합니다.

    IPv4 경로 수가 일치하지 않습니다.

    해결 방법: DHCP 호스트에서 호스트 프로파일을 추출하기 전에 정적 IP 주소를 포함하도록 호스트를 구성합니다.

  • 네트워크 리소스가 오버 커밋된 가상 네트워크 어댑터를 핫 추가하면 가상 시스템의 전원이 꺼질 수 있음
    Network I/O Control을 사용하도록 설정한 vSphere Distributed Switch에서 전원이 켜진 가상 시스템은 호스트 물리적 네트워크 어댑터의 가상 시스템 트래픽에 대한 예약에 따른 대역폭 예약을 사용하여 구성됩니다. 호스트의 물리적 네트워크 어댑터에서 사용 가능한 대역폭을 초과하는 네트워크 대역폭 예약을 설정하여 가상 시스템에 네트워크 어댑터를 추가합니다.

    네트워크 어댑터를 핫 추가하면 VMkernel이 FSR(Fast Suspend and Resume) 프로세스를 시작합니다. 가상 시스템이 사용 가능한 것보다 많은 네트워크 리소스를 요청하므로 VMkernel은 FSR 프로세스의 실패 경로를 수행합니다. 이 실패 경로의 오류로 인해 가상 시스템의 전원이 꺼집니다.

    해결 방법: 전원이 켜진 가상 시스템에 네트워크 어댑터를 추가할 때 대역폭 예약을 구성하지 마십시오.

VMware HA 및 Fault Tolerance 문제
  • 레거시 FT(Fault Tolerance)가 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 지원되지 않음
    레거시 FT가 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 지원되지 않습니다. 단일 프로세서, Legacy Fault Tolerance를 사용하도록 설정한 후 가상 시스템의 전원을 켜려는 시도가 실패합니다.

    해결 방법: 없음.

게스트 운영 체제 문제
  • 핫 플러그 후 NVMe PCIe SSD 디바이스에 대한 패스스루 모드 설정 시도가 실패할 수 있음
    vSphere Web Client에서 SSD 디바이스에 대한 패스스루 모드를 사용하도록 설정하려면, 호스트를 선택하고 관리 탭과 설정을 클릭한 다음 하드웨어 섹션으로 이동하여 PCI 디바이스 > 편집을 클릭합니다. 그리고 패스스루를 사용하도록 설정할 수 있는 활성 디바이스 목록에서 디바이스를 선택하고 확인을 클릭합니다. 하지만 PCIe NVMe 드라이브가 없는 ESXi 6.0 호스트에 새 NVMe 디바이스를 핫 플러그하면 새 NVMe PCIe SSD 디바이스는 패스스루 모드에 대해 사용하도록 설정할 수 없으며 사용 가능한 패스스루 디바이스 목록에 나타나지 않습니다.

    해결 방법: 호스트를 다시 시작합니다. ESXi 호스트에서 명령을 실행할 수도 있습니다.

    1. 루트 사용자로 로그인합니다.

    2. 다음 명령을 실행합니다.
      /etc/init.d/hostd start

지원되는 하드웨어 문제
  • esxcli를 실행하여 디스크 위치를 가져올 때 HP 서버의 Avago 컨트롤러에 대한 결과가 잘못됨
    esxcli storage core device physical get을 실행하면 HP 서버의 Avago 컨트롤러에 대한 결과가 잘못됩니다.

    예를 들어 다음을 실행할 경우
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    시스템에서 다음을 반환합니다.
    Physical Location: enclosure 0, slot 0

    물리적 서버의 해당 슬롯에 대한 실제 레이블은 1입니다.

    해결 방법: HP 서버에서 슬롯을 신중하게 확인합니다. HP 서버의 슬롯 번호가 1부터 시작하므로, 올바른 결과를 위해 명령이 반환하는 슬롯 번호를 늘려야 합니다.

CIM 및 API 문제
  • sfcb-vmware_raw의 실행이 실패함
    할당된 최대 기본 플러그인 리소스 그룹 메모리가 충분하지 않을 때 sfcb-vmware_raw의 실행이 실패할 수 있습니다.

    해결 방법: 다음 명령을 사용하여 sfcbd 플러그인의 메모리 제한에 대해 UserVars CIMOemPluginsRPMemMax를 추가하고 sfcbd를 다시 시작하여 새 플러그인 값을 반영합니다.

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX는 할당하고자 하는 메모리 제한입니다. 이 값은 최소값(175) 및 최대값(500) 이내여야 합니다.