VMware ESXi 5.5 업데이트 3a 릴리스 정보

|

VMware ESXi™ 5.5 업데이트 3a | 2015년 10월 6일 | 빌드 3116895

마지막 업데이트 날짜: 2016년 3월 30일

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware ESXi 릴리스에는 다음과 같이 향상된 기능이 포함되어 있습니다.

  • 로그 순환 지원 vmx 파일의 로그 순환을 통해 각 로그의 크기와 유지할 이전 로그 수를 지정하여 로그 파일 크기를 줄일 수 있습니다.


  • PVSCSI 어댑터의 인증 PVSCSI 어댑터가 MSCS, 코어 클러스터링 및 SQL과 Exchange를 포함한 애플리케이션에 사용하도록 인증되었습니다. 이를 통해 LSI Logic SAS에서 PVSCSI로 전환할 때 성능이 향상됩니다.


  • 차세대 프로세서 지원 이 릴리스에서는 Intel 및 AMD의 차세대 프로세서를 계속 지원합니다. 자세한 내용은 VMware 호환성 가이드를 참조하십시오.


  • Active Directory에 대한 ESXi 인증 ESXi와 Active Directory 사이의 Kerberos 통신에 AES256-CTS/AES128-CTS/RC4-HMAC 암호화만 지원하도록 ESXi가 수정되었습니다.


  • 해결된 문제이 릴리스에서는 해결된 문제 섹션에서 설명된 여러 가지 버그 수정 사항을 제공합니다.

ESXi 5.5의 이전 릴리스

ESXi 5.5의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 릴리스의 ESXi 5.5에 대한 릴리스 정보는 다음과 같습니다.

국제화

VMware vSphere 5.5 업데이트 3a는 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체
  • 중국어 번체

호환성 및 설치

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

vSphere Client 및 vSphere Web Client는 vCenter Server ISO 패키지에 포함되어 있습니다. VMware vCenter™ 설치 관리자 마법사를 사용하여 클라이언트를 하나 또는 둘 다 설치할 수 있습니다.

ESXi, vCenter Server 및 VDDK 호환성

VDDK(Virtual Disk Development Kit) 5.5.3에는 ESXi 5.5 업데이트 3 및 vCenter Server 5.5 업데이트 3 릴리스에 대한 지원이 추가되었습니다.
VDDK에 대한 자세한 내용은 http://www.vmware.com/support/developer/vddk/를 참조하십시오.

ESXi 및 Virtual SAN 호환성

Virtual SAN에서는 5.5 업데이트 1 이전 버전의 ESXi 호스트로 구성된 클러스터를 지원하지 않습니다. Virtual SAN을 사용하도록 설정하려면 먼저 Virtual SAN 클러스터의 모든 호스트를 ESXi 5.5 업데이트 1 이상으로 업그레이드해야 합니다. vCenter Server도 5.5 업데이트 1 이상으로 업그레이드해야 합니다.

ESXi의 하드웨어 호환성

vSphere 5.5 업데이트 3과 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 5.5 업데이트 3 정보를 참조하십시오.

ESXi의 디바이스 호환성

ESXi 5.5 업데이트 3a와 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 5.5 업데이트 3 정보를 참조하십시오.

일부 디바이스는 ESXi 5.5 이상에서 사용되지 않으며 더 이상 지원되지 않습니다. 업그레이드 프로세스를 수행하는 동안 디바이스 드라이버가 ESXi 5.5.x 호스트에 설치되고 ESXi 5.5.x에서 계속 작동 가능하지만 디바이스가 ESXi 5.5.x에서 지원되지는 않습니다. 사용되지 않고 ESXi 5.5.x에서 더 이상 지원되지 않는 디바이스 목록은 VMware 기술 자료 문서 더 이상 사용되지 않는 디바이스 및 ESXi 5.5 업그레이드 프로세스 중 경고를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

vSphere 5.5 업데이트 3a와 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에서 ESXi 5.5 업데이트 3 정보를 참조하십시오.

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 5.5 업데이트 3에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 5.5 업데이트 3에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

vCenter Server 5.x를 사용하는 연결 모드 환경과 vSphere Client 간의 연결

vCenter Server 5.5은 연결 모드에서 vCenter Server 5.5의 다른 인스턴스와만 함께 있을 수 있습니다.

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

타사 솔루션 마이그레이션

호스트 업그레이드의 일부로 ESX 또는 ESXi 호스트에 설치된 타사 솔루션은 직접 마이그레이션할 수 없습니다. ESXi 5.1과 ESXi 5.5 간의 아키텍처 변경으로 타사 구성 요소가 손실되거나 시스템이 불안정해질 수 있습니다. 이러한 마이그레이션을 성공적으로 수행하려면 Image Builder를 사용하여 사용자 지정 ISO 파일을 생성합니다. 타사 사용자 지정 항목을 사용한 호스트 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 5.5.x에서는 LAHF 및 SAHF CPU 명령 집합이 포함된 CPU만 지원합니다. 설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 5.5.x와 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면에 비호환성 관련 메시지가 표시됩니다. vSphere 5.5.x를 설치하거나 업그레이드할 수 없습니다.

이 릴리스의 업그레이드

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

ESXi 5.5 업데이트 3a로의 업그레이드에 대해 지원되는 업그레이드 경로:

업그레이드 자료

지원되는 업그레이드 도구

ESXi 5.5 업데이트 3a로의 업그레이드를 위해 지원되는 경로

ESX/ESXi 4.0:
포함 버전:
ESX/ESXi 4.0 업데이트 1
ESX/ESXi 4.0 업데이트 2

ESX/ESXi 4.0 업데이트 3
ESX/ESXi 4.0 업데이트 4

ESX/ESXi 4.1:
포함 버전:
ESX/ESXi 4.1 업데이트 1
ESX/ESXi 4.1 업데이트 2

ESX/ESXi 4.1 업데이트 3

ESXi 5.0:
포함 버전:
ESXi 5.0 업데이트 1

ESXi 5.0 업데이트 2
ESXi 5.0 업데이트 3

ESXi 5.1
포함 버전:
ESXi 5.1 업데이트 1
ESXi 5.1 업데이트 2

ESXi 5.5
포함 버전:
ESXi 5.5 업데이트 1
ESXi 5.5 업데이트 2

VMware-VMvisor-Installer-5.5.0.update03-3116895.x86_64.iso

 

  • VMware vSphere Update Manager
  • CD 업그레이드
  • 스크립트로 작성된 업그레이드


ESXi550-201510001.zip
  • VMware vSphere Update Manager
  • ESXCLI
  • VMware vSphere CLI

아니요

아니요

예*

예*

VMware 포털(온라인)에서 다운로드한 패치 정의 사용 VMware vSphere Update Manager(패치 기준선 포함)

아니요

아니요

아니요

아니요


*참고: ESXCLI의 경우에만 - ESXi550-201510001.zip을 사용하여 ESXi 5.0.x 또는 ESXi 5.1.x에서 ESXi 5.5 업데이트 3a로 업그레이드할 수 있습니다. esxcli 소프트웨어 프로파일 업데이트 --depot=<depot_location> --profile=<profile_name> 명령을 실행하여 업그레이드를 수행해야 합니다. 자세한 내용은 vSphere 업그레이드 가이드에서 ESXi 5.5.x 업그레이드 옵션 항목을 참조하십시오.

VMware vSphere 5.5 업데이트 3의 오픈 소스 구성 요소

vSphere 5.5 업데이트 3에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com/download/vsphere/open_source.html 페이지의 Open Source(오픈 소스) 탭에서 확인할 수 있습니다. 이 페이지에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vSphere Web Client. Linux 플랫폼은 Adobe Flash에서 더 이상 지원되지 않으므로 vSphere Web Client는 Linux OS에서 지원되지 않습니다. Linux 데스크톱 OS에서 Adobe Flash를 추가 지원하는 타사 브라우저는 계속 작동할 수 있습니다.

    VMware vCenter Server Appliance. vSphere 5.5에서 VMware vCenter Server Appliance는 DISA STIG(Security Technical Information Guideline)를 적용함으로써 수준 높은 관리 규정 준수 표준을 충족합니다. VMware vCenter Server Appliance를 배포하기 전에 작업을 성공적으로 수행하려면 VMware 강화 가상 장치 작업 안내서에서 새 보안 배포 표준에 대한 정보를 참조하십시오.

  • vCenter Server 데이터베이스. vSphere 5.5에서는 vCenter Server 데이터베이스로 IBM DB2를 지원하지 않습니다.

  • VMware Tools. vSphere 5.5부터 vSphere에서 VMware Tools를 설치 및 구성하는 방법에 대한 모든 정보가 다른 vSphere 설명서와 병합됩니다. vSphere에서 VMware Tools를 사용하는 방법에 대한 자세한 내용을 보려면 vSphere 설명서를 참조하십시오. VMware Tools 설치 및 구성은 vSphere 5.5 이상과는 관련이 없습니다.

  • VMware Tools. vSphere 5.5부터 VMware Tools는 ThinPrint 기능을 제공하지 않습니다.

  • vSphere Data Protection. vSphere Web Client의 작동 방식이 변경되어 vSphere Data Protection 5.1이 vSphere 5.5와 호환되지 않습니다. vSphere Data Protection 5.1 사용자가 vSphere 5.5로 업그레이드하는 경우 vSphere Data Protection을 계속 사용하려면 vSphere Data Protection도 업데이트해야 합니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi550-Update03에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi550-201510401-BG: ESXi 5.5 esx-base vib 업데이트

패치 릴리스 ESXi550-Update03에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.5.0-20151004001-standard
ESXi-5.5.0-20151004001-no-tools

패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

이 섹션에서는 이 릴리스에서 해결된 문제에 대해 설명합니다.

백업 문제

  • 오류로 인해 가상 시스템 복원 시도가 실패할 수 있음
    vSphere Data Protection을 사용하는 ESXi 호스트에서 가상 시스템을 복원하려고 하면 복원이 실패하고 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    재구성 도중 예기치 않은 예외가 수신되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

CIM 및 API 문제

  • 시스템 이벤트 로그가 가득 차고 표시 구독이 있는 경우 syslog에서 로그 넘침 발생
    SEL(시스템 이벤트 로그)가 가득 차고 표시 구독이 있는 경우 syslog에서 로그 넘침이 발생합니다. 다음 로그가 빠르게 기록됩니다.

    sfcb-vmware_raw[xxxxxxxxxx]: Can't get Alert Indication Class. Use default
    sfcb-vmware_raw[xxxxxxxxxx]: Can't get Alert Indication Class. Use default
    sfcb-vmware_raw[xxxxxxxxxx]: Can't get Alert Indication Class. Use default

    이 문제는 이 릴리스에서 해결되었습니다.
  • Auto Deploy를 사용하여 ESXi 호스트를 재부팅할 때 CIM 표시가 실패할 수 있음
    sfcbd 서비스 실행이 중지되면 호스트 프로파일의 CIM 표시를 적용할 수 없습니다.

    이 릴리스에서는 호스트 프로파일 적용 중 CIM 표시가 sfcbd 서비스의 상태를 사용하지 않도록 하여 이 문제가 해결되었습니다.
  • 일부 디스크의 상태가 ONLINE이 아니라 UNCONFIGURED GOOD으로 표시될 수 있음
    ESXi 5.5 호스트에서 일부 디스크의 상태가 ONLINE 대신 UNCONFIGURED GOOD으로 표시될 수 있습니다. 이 문제는 LSI CIM 제공자를 사용하는 LSI 컨트롤러에 대해 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 인터페이스를 통한 커널 모듈 로드가 실패할 수 있음
    CIM 인터페이스 클라이언트를 사용하여 커널 모듈을 로드할 때 LoadModule 명령이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.

    VMkernel 액세스 제어 정책에 의해 액세스가 거부되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.5 호스트 모니터링이 실패할 수 있음
    openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.5 호스트 모니터링이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 syslog.log 파일에 보고될 수 있습니다.

    Failed to map segment from shared object: No space left on device

    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere Client에 대한 하드웨어 상태 쿼리가 오류와 함께 실패할 수 있음
    vSphere Client에 대한 하드웨어 상태를 쿼리하는 시도가 실패할 수 있습니다. 다음과 비슷한 오류 메시지가 ESXi 호스트의 /var/log/syslog.log 파일에 표시됩니다.

    TIMEOUT DOING SHARED SOCKET RECV RESULT (1138472) Timeout (or other socket error) waiting for response from provider Header Id (16040) Request to provider 111 in process 4 failed. Error:Timeout (or other socket error) waiting for response from provider Dropped response operation details -- nameSpace: root/cimv2, className: OMC_RawIpmiSensor, Type: 0

    이 문제는 이 릴리스에서 해결되었습니다.
  • openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.5 호스트 모니터링이 실패할 수 있음
    openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.5 호스트 모니터링이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 syslog.log 파일에 보고될 수 있습니다.

    Failed to map segment from shared object: No space left on device

    이 문제는 이 릴리스에서 해결되었습니다.
  • sfcbd 서비스가 오류 메시지와 함께 응답을 중지할 수 있음
    sfcbd 서비스가 응답을 중지하고 syslog 파일에 다음과 같은 오류 메시지가 기록될 수 있습니다.

    spSendReq/spSendMsg failed to send on 7 (-1)
    Error getting provider context from provider manager: 11

    이 문제는 CIM 서버와 제공자 간에 세마포에 대한 경합이 있을 때 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere Client의 [하드웨어 상태] 탭에 잘못된 경보가 나타남
    HP DL980 G7에서 iLO(Integrated Lights Out) 펌웨어를 업그레이드한 후 vSphere Client의 [하드웨어 상태] 탭에 잘못된 경보가 나타납니다. 다음과 유사한 오류 메시지가 /var/log/syslog.log 파일에 기록될 수 있습니다.

    sfcb-vmware_raw[nnnnn]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruChassis: Reading FRU Chassis Info Area length for 0x0 FAILED
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruBoard: Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruProduct: Reading FRU product Info Area length for 0x0 FAILED
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: data length mismatch req=19,resp=3
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0001,resp=0002
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0002,resp=0003
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0003,resp=0004
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0004,resp=0005
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0005,resp=0006
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0006,resp=0007

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi가 관리 소프트웨어에 중복 이벤트를 전송할 수 있음
    ESXi 호스트에서 IPMI(Intelligent Platform Management Interface) 센서 이벤트가 트리거될 때 ESXi가 관리 소프트웨어에 중복 이벤트를 전송할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 표시 구독 제거 후 하드웨어 상태를 모니터링할 수 없음
    CIM 클라이언트가 동일한 CIM 표시 구독에 인스턴스 삭제 요청 두 개를 보내면 메모리 경합 때문에 sfcb-vmware_int가 응답하지 않을 수 있습니다. 이로 인해 vCenter Server 및 ESXi를 사용하여 하드웨어 상태를 모니터링하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.5 호스트 모니터링이 실패할 수 있음
    openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.5 호스트 모니터링이 응답하지 않을 수 있습니다. 다음과 유사한 오류 메시지가 보고될 수 있습니다.

    Failed to map segment from shared object: No space left on device

    이 문제는 이 릴리스에서 해결되었습니다.
  • 여러 개의 열거로 인해 CIM 클라이언트에서 오류를 표시함
    CBEnumInstances 메서드를 사용하여 VMware 이더넷 포트 클래스에 대해 여러 개의 열거 쿼리를 실행하면 ESXi 5.5에서 실행되는 서버에서 다음과 유사한 오류 메시지를 감지할 수 있습니다.

    CIM 오류: enumInstances 클래스를 찾을 수 없습니다.

    이 문제는 관리 소프트웨어가 VMware_EthernetPort()class에서 제공된 정보를 검색하지 못하는 경우에 발생합니다. 이 문제가 발생하면 memstats에 대해 쿼리를 실행했을 때 다음과 같은 오류 메시지가 표시될 수 있습니다.

    MemStatsTraverseGroups: VSI_GetInstanceListAlloc failure: Not found.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서 하드웨어 상태를 모니터링할 수 없음
    응답하지 않는 하드웨어 모니터링 서비스(sfcbd) 때문에 ESXi 호스트의 하드웨어 상태 탭에 오류가 보고될 수 있습니다. 다음과 유사한 오류가 syslog.log에 기록됩니다.

    sfcb-hhrc[5149608]: spGetMsg receiving from 65 5149608-11 Resource temporarily unavailable
    sfcb-hhrc[5149608]: rcvMsg receiving from 65 5149608-11 Resource temporarily unavailable
    sfcb-hhrc[5149608]: Timeout or other socket error
    sfcb-LSIESG_SMIS13_HHR[6064161]: spGetMsg receiving from 51 6064161-11 Resource temporarily unavailable
    sfcb-LSIESG_SMIS13_HHR[6064161]: rcvMsg receiving from 51 6064161-11 Resource temporarily unavailable
    sfcb-LSIESG_SMIS13_HHR[6064161]: Timeout or other socket error
    sfcb-kmoduleprovider[6064189]: spGetMsg receiving from 57 6064189-11 Resource temporarily unavailable
    sfcb-kmoduleprovider[6064189]: rcvMsg receiving from 57 6064189-11 Resource temporarily unavailable
    sfcb-kmoduleprovider[6064189]: Timeout or other socket error

    디버그 수준의 아래 syslog는 필요한 데이터가 0x01인데 IPMI에서 잘못된 데이터(0x3c)를 보냈음을 나타냅니다.

    sfcb-vmware_raw[35704]: IpmiIfcRhFruInv: fru.header.version: 0x3c

    이 문제는 FRU(Field Replaceable Unit) 인벤토리 데이터를 읽는 동안 sfcb-vmware_raw 제공자가 IPMI(Intelligent Platform Management Interface) 도구에서 잘못된 데이터를 수신할 때 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

기타 문제

  • CBT 지원 가상 시스템 템플릿을 ESXi 호스트에서 복제할 때 실패할 수 있음
    CBT 지원 가상 시스템 템플릿을 두 개의 서로 다른 ESXi 5.5 호스트에서 동시에 복제하려고 시도하면 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.

    VM_template.vmdk' 열기 실패: 변경 추적 파일을 열거나 생성할 수 없습니다(2108).

    이 문제는 이 릴리스에서 해결되었습니다.
  • Active Directory 자격 증명으로 ESXi 호스트에 로그인할 수 없음
    호스트가 Active Directory에 가입한 후 ESXi 호스트에 로그인하지 못할 수 있습니다. 이 문제는 한 도메인의 사용자가 ESXi 클라이언트 측에 있지 않은 다른 신뢰할 수 있는 도메인에 가입하려고 시도할 때 발생합니다. 다음과 유사한 오류가 sys.log/netlogon.log 파일에 기록됩니다.

    netlogond[17229]: [LWNetDnsQueryWithBuffer() /build/mts/release/bora-1028347/likewise/esxi-esxi/src/linux/netlogon/utils/lwnet-dns.c:1185] DNS lookup for '_ldap._tcp.<domain details>' failed with errno 0, h_errno = 1

    이 문제는 이 릴리스에서 해결되었습니다.
  • cURL 라이브러리 업데이트
    IPv6를 사용하지 않도록 설정한 경우 cURL이 localhost를 확인하지 못합니다. 다음과 유사한 오류 메시지가 표시됩니다.

    오류: enumInstances 초기화 실패

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹 문제

  • e1000 또는 e1000e vNIC 드라이버를 사용하는 가상 시스템이 있는 ESXi 호스트가 자주색 화면을 표시하며 실패할 수 있음
    TSO(TCP 세분화 오프로드)를 사용하도록 설정할 때 e1000 또는 e1000e vNIC 드라이버를 사용하는 가상 시스템이 있는 ESXi 호스트가 자주색 화면을 표시하며 실패할 수 있습니다. 다음과 유사한 오류 메시지가 다음 로그 파일에 기록될 수 있습니다.

    cpu7:nnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 9:21:12:17.991
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]E1000TxTSOSend@vmkernel#nover+0x65b stack: 0xnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]E1000PollTxRing@vmkernel#nover+0x18ab stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]E1000DevAsyncTx@vmkernel#nover+0xa2 stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]NetWorldletPerVMCB@vmkernel#nover+0xae stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]WorldletProcessQueue@vmkernel#nover+0x488 stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]WorldletBHHandler@vmkernel#nover+0x60 stack: 0xnnnnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]BH_Check@vmkernel#nover+0x185 stack: 0xnnnnnnnnnnnn

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi가 불필요한 ICMP(Internet Control Message Protocol) 요청 유형에 응답함
    ESXi 호스트가 불필요한 ICMP(Internet Control Message Protocol) 요청 유형에 응답할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi hostd가 스토리지 디바이스 다시 검색 작업을 수행할 때 실패할 수 있음
    스토리지 디바이스 다시 검색 작업을 수행할 때 여러 스레드가 동일한 개체를 수정하려고 시도하기 때문에 hostd가 실패할 수 있습니다. vmkwarning.log 파일에 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    cpu43:nnnnnnn)ALERT: hostd detected to be non-responsive
    cpu20:nnnnnnn)ALERT: hostd detected to be non-responsive

    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter Server에서 ESXi 호스트가 추가될 때 로그 넘침이 발생할 수 있음
    vCenter Server에서 ESXi 호스트를 추가하고 vMotion을 위한 VMkernel 인터페이스를 만들 때 hostd.log 파일에 다음 메시지가 여러 번 연달아 표시될 수 있습니다(로그 넘침).

    Failed to find vds Id for portset vSwitch0

    이 문제는 이 릴리스에서 해결되었습니다.
  • Microsoft WDS(Windows 배포 서비스)를 통해 VMXNET3 네트워크 어댑터를 사용하는 가상 시스템을 PXE 부팅하지 못할 수 있음
    VMXNET3 네트워크 어댑터를 사용하는 가상 시스템을 Microsoft WDS(Windows 배포 서비스)를 통해 PXE 부팅하려고 하면 부팅이 실패하고 다음과 유사한 메시지가 표시될 수 있습니다.

    Windows를 시작하지 못했습니다. 최근의 하드웨어 또는 소프트웨어 변경 때문일 수 있습니다. 문제를 해결하려면 다음을 수행하십시오.
    1. Windows 설치 디스크를 넣고 컴퓨터를 다시 시작합니다.
    2. 언어 설정을 선택하고 다음을 클릭합니다.
    3. 컴퓨터 복구를 클릭합니다.
    이 디스크가 없는 경우 시스템 관리자 또는 컴퓨터 제조업체에 문의하십시오.

    실행 상태: 0xc0000001

    정보: 필요한 디바이스에 액세스할 수 없기 때문에 부팅 선택 영역에서 오류가 발생했습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Rx 링#2의 메모리 부족 및 수신자 측의 패킷 손실 문제를 해결하기 위해 Rx 링#2의 구성을 사용하도록 설정
    원래는 Rx 링#2의 크기를 구성할 수 없기 때문에, Rx 링 #2에 메모리가 부족한 경우 VMXNET3 디바이스에서 LRO(대규모 수신 오프로드) 기능을 사용하도록 설정한 Linux 가상 시스템에서 수신자 측의 패킷 손실이 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • NetQueue 지원 업링크에 DvFilter를 사용할 때 자주색 진단 화면이 표시될 수 있음
    vSwitch 또는 VDS(vSphere Distributed Switch)에 연결된 NetQueue 지원 업링크에 DvFilter를 사용할 때 ESXi 서버에서 자주색 진단 화면이 표시될 수 있습니다. ESXi 호스트가 다음과 유사한 역추적을 보고할 수 있습니다.

    pcpu:22 world:4118 name:"idle22" (IS)
    pcpu:23 world:2592367 name:"vmm1:S10274-AAG" (V)
    @BlueScreen: Spin count exceeded (^P) - possible deadlock
    Code start: 0xnnnnnnnnnnnn VMK uptime: 57:09:18:15.770
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Panic@vmkernel#nover+0xnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]SP_WaitLock@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]NetSchedFIFOInput@vmkernel#nover+0xnnn stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]NetSchedInput@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]IOChain_Resume@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PortOutput@vmkernel#nover+0xnn stack: 0xnn

    이 문제는 이 릴리스에서 해결되었습니다.
  • Netflow 기능이 비활성화될 때 ESXi 호스트가 자주색 진단 화면을 표시하며 실패함
    vSphere Distributed Switch의 Netflow 기능이 비활성화될 때 ESXi 호스트가 PF 예외 14 자주색 진단 화면을 표시하며 실패할 수 있습니다. 이 문제는 타이머 동기화 문제 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • I/O 활동이 많을 때 네트워크 스케줄러를 SFQ로 변경하면 복구할 수 없는 전송이 발생할 수 있음
    많은 양의 I/O 로드가 진행 중일 때 네트워크 스케줄러를 전환하면 SFQ 네트워크 스케줄러가 물리적 NIC를 재설정할 수 있습니다. 이 경우 드라이버로 패킷이 전송되지 않는 복구할 수 없는 전송이 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 점보 프레임을 사용한 vmkping 명령이 실패할 수 있음
    동일한 스위치의 여러 vmknic MTU 중 하나가 변경된 후 점보 프레임을 사용한 vmkping 명령이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.

    sendto() 실패(메시지가 너무 깁니다.)

    이 문제는 이 릴리스에서 해결되었습니다.
  • 포트 0-65535를 서비스 포트로 사용하는 서비스를 ESXi 방화벽이 거부할 수 있음
    vSPC(가상 직렬 포트 집중 장치) 또는 NFS 클라이언트 서비스가 ESXi 플랫폼에서 작동하지 않을 수 있습니다. 이 문제는 순서를 사용하도록 설정한 결과, 포트 0-65535를 허용하는 다른 규칙 집합 순서가 있을 때 발생합니다. 이로 인해 해당 규칙 집합에 허용되는 IP가 지정된 경우에도 vSPC 또는 NFS 클라이언트 관련 패킷이 예기치 않게 손실됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMXNET3 어댑터로 802.1q에 태그를 지정하면 IPv6 RA가 예상대로 작동하지 않음
    Linux 가상 시스템에서 VMXNET3 어댑터를 사용하여 802.1q에 태그를 지정하면 IPv6 RA(라우터 알림)가 예상대로 작동하지 않습니다. 그 이유는 VLAN 인터페이스에 사용되는 IPv6 RA 주소가 기본 인터페이스에 전달되기 때문입니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 네트워크 연결이 끊길 수 있음
    다음과 유사한 여러 오류 메시지가 기록될 때 ESXi 호스트의 네트워크 연결이 끊기고 안정성 문제가 발생할 수 있습니다.

    WARNING: Heartbeat: 785: PCPU 63 didn't have a heartbeat for 7 seconds; *may* be locked up.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Auto Deploy 중 호스트 프로파일을 적용하면 네트워크 연결이 끊어짐
    Auto Deploy 중 호스트 프로파일을 적용하면 VTEP(VXLAN Tunnel Endpoint) NIC가 관리 vmknic로 태그가 지정되므로 네트워크 연결이 끊어질 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

보안 문제

  • libxml2 라이브러리 업데이트
    ESXi userworld libxml2 라이브러리가 버전 2.9.2로 업데이트되었습니다.
  • ESXi userworld OpenSSL 라이브러리 업데이트
    ESXi userworld OpenSSL 라이브러리가 버전 1.0.1m으로 업데이트되었습니다.
  • libPNG 라이브러리 업데이트
    libPNG 라이브러리가 libpng-1.6.16으로 업데이트되었습니다.

서버 구성 문제

  • SOL(Serial over LAN) 콘솔 리디렉션이 제대로 작동하지 않을 수 있음
    PCIe 직렬 포트 리디렉션 카드가 APIC(고급 프로그래밍 가능 인터럽트 컨트롤러)의 ISA(Industry Standard Architecture) IRQ(Interrupt Request)(0-15자리)에 연결된 경우 제대로 작동하지 않을 수 있습니다. 그 이유는 CPU가 해당 인터럽트를 수신할 수 없기 때문입니다. ISA IRQ에 연결된 이러한 카드 및 다른 PCI 디바이스가 제대로 작동할 수 있도록 하기 위해 이제 VMkernel은 ISA IRQ에서 수준 트리거된 인터럽트를 허용합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Esxtop가 CPU 사용률을 100%로 잘못 표시할 수 있음
    PcpuMigrateIdlePcpus가 0으로 설정되어 있으면 esxtop 유틸리티의 PCPU UTIL/CORE UTIL이 CPU 사용률을 100%로 잘못 표시합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Fiber Channel 호스트 버스 어댑터를 쿼리할 때 알 수 없음(1) 상태가 보고됨
    ESXi 호스트를 ESXi 5.1에서 5.5로 업그레이드하고 최신 MIB 모듈을 가져오면 FC(Fiber Channel) HBA(호스트 버스 어댑터)를 쿼리할 때 타사 모니터링 소프트웨어가 "알 수 없음(1)" 상태를 반환합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 기존 ESXi 호스트 프로파일이 상태 저장 ESXi 호스트에 다시 적용될 때 호스트 게이트웨이가 삭제되고 규정 준수 실패가 발생할 수 있음
    기존 ESXi 호스트 프로파일이 새로 설치한 ESXi 5.5 호스트에 적용될 때 프로파일 규정 준수 상태가 규정 비준수로 표시될 수 있습니다. 이 문제는 VXLAN 인터페이스가 구성된 호스트에서 호스트 프로파일이 생성되었을 때 이전에 만든 호스트 프로파일이 있는 호스트에 대한 규정 준수 테스트가 실패할 수 있기 때문에 발생합니다. 다음과 유사한 오류 메시지가 표시됩니다.

    IP 경로 구성이 규격과 일치하지 않음

    이 문제는 이 릴리스에서 해결되었습니다.
  • 중첩된 ESXi 환경에서 페이지 장애 예외를 나타내는 자주색 진단 화면이 표시됨
    중첩된 ESXi 환경에서 CpuSchedAfterSwitch()를 구현할 경우 스케줄러 코드에 경합 조건이 발생하고 페이지 장애 예외를 나타내는 자주색 진단 화면이 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • esxcli를 사용하여 소프트웨어 iSCSI를 사용하도록 설정할 때 iSCSI 이니시에이터 이름 사용이 허용됨
    이제 esxcli iscsi software set 명령에 iSCSI 이니시에이터 이름을 지정할 수 있습니다.
  • CPU가 완전히 예약되지 않았을 때 가상 시스템이 경고 메시지를 표시하지 않을 수 있음
    sched.cpu.latencySensitivity가 높음으로 설정된 가상 시스템을 만들고 전원을 켜면, VM에 CPU가 완전히 예약되지 않은 경우 vCPU에 대한 배타적인 선호도가 사용되도록 설정되지 않을 수 있습니다.

    이전 릴리스에서는 CPU가 완전하게 예약되지 않은 경우 VM이 경고 메시지를 표시하지 않았습니다. 자세한 내용은 기술 자료 문서 2087525을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트 업그레이드 후 SNMPD가 자동으로 시작될 수 있음
    ESXi 호스트를 5.5 업데이트 2로 업그레이드한 후 SNMPD가 자동으로 시작될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SNMP syscontact 또는 syslocation에 단순 변경이 있어 호스트 프로필이 규정을 준수하지 않게 됨
    SNMP syscontact 또는 syslocation에 단순 변경이 있어 호스트 프로필이 규정을 준수하지 않게 됩니다. 이 문제는 SNMP 호스트 프로필 플러그인이 호스트 프로필에 연결된 모든 호스트에 단일 값만 적용하기 때문에 발생합니다. 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    SNMP 에이전트 구성이 다름

    syslocation, syscontact, v3targets, v3users 및 engineid와 같은 특정 매개 변수에 대한 호스트당 값 설정을 사용하도록 설정함으로써 이 문제는 이 릴리스에서 해결되었습니다.
  • FIFO를 생성하고 그 위에 데이터를 쓰려고 할 때 보라색 진단 화면이 나타날 수 있음
    FIFO를 생성한 다음 /tmp/dpafifo에 데이터를 쓰려고 시도할 경우 특정 조건하에서 보라색 진단 화면이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트 가상 시스템에서 Windows 8 및 Windows 2012 서버 재부팅이 실패할 수 있음
    재부팅 후 Microsoft Windows 부팅 시작 화면이 나타날 때 Windows 8 및 Windows 2012 서버 가상 시스템이 응답하지 않을 수 있습니다. 자세한 내용은 기술 자료 문서 2092807을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 단일 프로세서 VM의 CPU 제한을 설정하면 ESXi 활용률이 낮아짐
    단일 프로세서 가상 시스템의 CPU 제한을 설정할 때 ESXi 스케줄러의 결함으로 인해 전체적인 ESXi 활용률이 낮아질 수 있습니다. ESXi 스케줄러가 CPU 로드를 추정하는 동안 CPU가 제한된 VM을 실행 가능한 상태(실행되지 않는 상태일 때)로 간주할 경우 이러한 현상이 발생합니다. 이로 인해 잘못된 방식으로 로드 밸런싱이 진행될 수 있습니다.

    자세한 내용은 기술 자료 문서 2096897을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.

지원되는 하드웨어 문제

  • esxtop 명령에서 전원 사용 및 전원 용량 값이 누락됨
    Lenovo 시스템에서는 esxtop 명령에 전원 사용 및 전원 용량의 값을 사용할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지 문제

  • High Availability 페일오버 또는 호스트 충돌 도중 해당 호스트에서 전원이 켜진 VM의 .vswp 파일이 스토리지에 남을 수 있음
    High Availability 페일오버 또는 호스트 충돌 도중 해당 호스트에서 전원이 켜진 가상 시스템의 .vswp 파일이 스토리지에 남을 수 있습니다. 이러한 페일오버나 충돌이 여러 번 발생할 경우 스토리지 용량이 가득 찰 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 익스텐트가 여러 개인 VMFS 데이터스토어를 재검색할 때 VMkernel 로그 파일에 잘못된 PE 변경 메시지가 표시될 수 있음
    익스텐트가 여러 개인 VMFS 데이터스토어를 다시 검색할 때 스토리지 연결 문제가 발생하지 않더라도 다음의 로그 메시지가 VMkernel 로그에 기록될 수 있습니다.

    Number of PEs for volume changed from 3 to 1. A VMFS volume rescan may be needed to use this volume.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 일시적 오류 조건 도중 디바이스에 대한 I/O가 반복적으로 실패하고 대체 작동 경로로 페일오버되지 않음
    BUS BUSY, QFULL, HOST ABORTS, HOST RETRY 등과 같은 일시적인 오류 조건 도중 현재 경로에 반복적으로 명령을 시도하고 일정 시간이 지나도 다른 경로로 페일오버되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다. 이러한 일시적 오류 도중에는 몇 번의 재시도 후 경로가 작업 중인 경우 경로 상태가 DEAD(비활성)로 바뀝니다. 그 결과 페일오버가 트리거되고 디바이스에 대한 대체 작동 경로를 사용하여 I/O를 보냅니다.
  • High Availability 페일오버 또는 호스트 충돌 도중 해당 호스트에서 전원이 켜진 VM의 .vswp 파일이 스토리지에 남을 수 있음
    High Availability 페일오버 또는 호스트 충돌 도중 해당 호스트에서 전원이 켜진 가상 시스템의 .vswp 파일이 스토리지에 남을 수 있습니다. 이러한 페일오버나 충돌이 여러 번 발생할 경우 스토리지 용량이 가득 찰 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 오프라인 스토리지의 블록 맵을 가져오려고 시도하면 hostd 서비스의 작동이 중지될 수 있음
    오프라인 상태인 스냅샷 디스크에서 acquireLeaseExt API 실행 시도가 있을 때 hostd 서비스가 ESXi 5.x 호스트에서 실패할 수 있습니다. 이 스냅샷 디스크는 오프라인으로 전환된 익스텐트에 있을 수 있습니다. API 호출자는 타사 백업 솔루션일 수 있습니다. 다음과 유사한 오류 메시지가 vmkernel.log에 표시됩니다.

    cpu4:4739)LVM: 11729: Some trailing extents missing (498, 696).

    이 문제는 이 릴리스에서 해결되었습니다.
  • vm-support 로그 번들 수집 도중 ESXi 5.5 호스트가 자주색 진단 화면을 표시하며 응답하지 않을 수 있음
    인박스 또는 타사 드라이버에 SCSI 전송별 인터페이스가 정의되지 않은 경우 ESXi 호스트가 응답하지 않고 자주색 진단 화면을 표시할 수 있습니다. 이 문제는 vm-support 로그 번들 수집 도중 또는 다음과 같은 IODM(I/O 디바이스 관리) CLI(명령줄 인터페이스)를 실행할 때 발생합니다.

    • esxcli storage san sas list

    • esxcli storage san sas stats get


    이 문제는 이 릴리스에서 해결되었습니다.
  • 특정 시나리오에서 VMFS 볼륨을 16TB를 초과하여 확장할 수 없음
    VMFS5 데이터스토어를 16TB를 초과하여 확장하려고 하면 ESXi 호스트가 실패할 수 있습니다. 다음과 유사한 오류 메시지가 vmkernel.log 파일에 기록됩니다.

    cpu38:34276)LVM: 2907: [naa.600000e00d280000002800c000010000:1] Device expanded (actual size 61160331231 blocks, stored size 30580164575 blocks)
    cpu38:34276)LVM: 2907: [naa.600000e00d280000002800c000010000:1] Device expanded (actual size 61160331231 blocks, stored size 30580164575 blocks)
    cpu47:34276)LVM: 11172: LVM device naa.600000e00d280000002800c000010000:1 successfully expanded (new size: 31314089590272)
    cpu47:34276)Vol3: 661: Unable to register file system ds02 for APD timeout notifications: Already exists
    cpu47:34276)LVM: 7877: Using all available space (15657303277568).
    cpu7:34276)LVM: 7785: Error adding space (0) on device naa.600000e00d280000002800c000010000:1 to volume 52f05483-52ea4568-ce0e-901b0e0cd0f0: No space left on device
    cpu7:34276)LVM: 5424: PE grafting failed for dev naa.600000e00d280000002800c000010000:1 (opened: t), vol 52f05483-52ea4568-ce0e-901b0e0cd0f0: Limit exceeded
    cpu7:34276)LVM: 7133: Device scan failed for <naa.600000e00d280000002800c000010000:1>: Limit exceeded
    cpu7:34276)LVM: 7805: LVMProbeDevice failed for device naa.600000e00d280000002800c000010000:1: Limit exceeded
    cpu32:38063)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
    cpu30:38063)LVM: 5424: PE grafting failed for dev naa.600000e00d280000002800c000010000:1 (opened: t), vol 52f05483-52ea4568-ce0e-901b0e0cd0f0: Limit exceeded
    cpu30:38063)LVM: 7133: Device scan failed for <naa.600000e00d280000002800c000010000:1>: Limit exceeded

    이 문제는 이 릴리스에서 해결되었습니다.
  • VM 디스크에 여러 vSCSI 필터가 연결된 경우 ESXi 호스트가 자주색 진단 화면을 표시하며 실패할 수 있음
    VM 디스크에 여러 vSCSI 필터가 연결되어 있으면 ESXi 5.5 호스트가 다음과 유사한 자주색 진단 화면을 표시하며 실패할 수 있습니다.

    cpu24:103492 opID=nnnnnnnn)@BlueScreen: #PF Exception 14 in world 103492:hostd-worker IP 0xnnnnnnnnnnnn addr 0x30
    PTEs:0xnnnnnnnnnn;0xnnnnnnnnnn;0x0;
    cpu24:103492 opID=nnnnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 21:06:32:38.296
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_GetFilterPrivateData@vmkernel#nover+0x1 stack: 0x4136c7d
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_IssueInternalCommand@vmkernel#nover+0xc3 stack: 0x410961
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FileSyncRead@<None>#<None>+0xb1 stack: 0x0
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_DigestRecompute@<None>#<None>+0x291 stack: 0x1391
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FilterDigestRecompute@<None>#<None>+0x36 stack: 0x20
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x322 stack: 0x411424b18120
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@<None>#<None>+0xef stack: 0x41245111df10
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@<None>#<None>+0x243 stack: 0x41245111df20
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x275c3918
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry@vmkernel#nover+0x64 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.
  • ATS가 아닌 VMFS 데이터스토어에서 스토리지에 일시적인 문제가 발생한 경우 ESXi 호스트가 응답하지 않고 vCenter Server와의 연결이 끊길 수 있음
    ESXi 호스트가 응답을 멈추고 가상 시스템에 액세스하지 못하게 될 수 있습니다. 또한 ATS가 아닌 VMFS 데이터스토어에서 스토리지에 일시적인 문제가 발생한 경우 교착 상태로 인해 ESXi 호스트와 vCenter Server의 연결이 끊길 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 대상 관리 소프트웨어의 잘못된 IQN에 등록됨
    소프트웨어 iSCSI를 처음 사용하도록 설정한 경우 Unisphere Storage Management 소프트웨어가 지정된 이니시에이터 IQN을 등록합니다. 상태 비저장 부팅 중에 등록된 IQN이 호스트 프로파일에 정의된 이름으로 변경되지 않습니다. 어레이에서 이니시에이터를 수동으로 제거하고 다시 새 IQN에 추가해야 합니다.

    Unisphere가 호스트 프로파일에 정의된 이름에 이니시에이터를 등록하도록 소프트웨어 iSCSI 사용 명령에 새 매개 변수를 추가함으로써 이 문제가 해결되었습니다. 소프트웨어 iSCSI 사용 중에 IQN을 설정하는 명령줄은 다음과 같습니다.

    esxcli iscsi software set --enabled=true --name iqn.xyz
  • 소스 데이터스토어 이름의 변경으로 인해 vSphere Replication 동기화가 실패할 수 있음
    복제 소스 가상 시스템이 실행 중인 데이터스토어의 이름을 변경할 경우 이러한 가상 시스템에 대한 복제 동기화 작업이 다음과 유사한 오류 메시지를 표시하며 실패합니다.

    VRM Server 런타임 오류입니다. 문제 해결 정보는 설명서를 참조하십시오.
    예외 정보: '데이터스토어 형식 '<데이터스토어 이름>'이(가) 잘못되었습니다.'

    이 문제는 이 릴리스에서 해결되었습니다.
  • NFS 데이터스토어의 마운트 해제 시도가 실패할 수 있음
    NFS LOCK LOST 오류 도중 연결 문제로 인해 NFS IO가 중지될 수 있기 때문에 NFS 데이터스토어를 마운트 해제하려는 시도가 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.

    cpu23:xxxxx opID=xxxxxabf)경고: NFS: 1985: 데이터스토어1에 열려 있는 파일이 있습니다. 마운트를 해제할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치 문제

  • ESXi 5.5 호스트가 vSphere Auto Deploy 상태 비저장 캐시에서 부팅될 때 부팅 화면에 오류 메시지가 표시됨
    ESXi 5.5 호스트가 Auto Deploy 상태 비저장 캐시에서 부팅될 때 부팅 화면에 역추적이 포함된 다음과 유사한 오류 메시지가 나타납니다. 이 오류는 syslog network.py 스크립트에 예기치 않게 4자 미만의 짧은 메시지가 있기 때문에 발생합니다.

    IndexError: 문자열 인덱스가 범위를 벗어납니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Solaris 10 업데이트 3 가상 시스템에서 VMware Tools를 설치 또는 업그레이드하려고 할 때 실패할 수 있음
    Solaris 10 업데이트 3 가상 시스템에서 VMware Tools를 설치 또는 업그레이드하려고 할 때 다음 오류 메시지와 함께 실패할 수 있습니다.

    X 버전 6.9 감지됨
    /usr/lib/vmware-tools/configurator/XOrg/7.0/vmwlegacy_drv.so를 읽을 수 없습니다. 실행이 취소되었습니다.

    이 문제는 vmware-config-tools.pl 스크립트가 Xorg 6.9에서 사용되지 않아야 하는 vmwlegacy_drv.so 파일을 복사할 때 발생합니다.
  • DCUI 및 호스트 프로파일 사용자 인터페이스에 대한 키보드 레이아웃 옵션이 체코슬로바키아어로 잘못 표시될 수 있음
    DCUI(Direct Console User Interface) 및 호스트 프로파일 사용자 인터페이스에 대한 키보드 레이아웃 옵션이 체코슬로바키아어로 잘못 표시될 수 있습니다. 이 옵션은 ESXi 설치 도중 표시되며 설치 후 DCUI에도 표시됩니다.

    이 릴리스에서는 키보드 레이아웃 옵션 이름이 체코어로 변경되어 이 문제가 해결되었습니다.
  • tools.conf 파일 유지 옵션을 기본적으로 사용할 수 있음
    64비트 Windows 게스트 운영 체제에서 Vmware Tools를 업그레이드할 때 tools.conf 파일이 자동으로 제거됩니다. ESXi 5.5 업데이트 3 릴리스 이후부터는 tools.conf 파일이 기본적으로 유지됩니다.
  • VMware Tools를 설치, 업그레이드 또는 제거한 후 재부팅할 때 게스트 운영 체제가 실패할 수 있음
    Linux 환경(RHEL 또는 Cent OS 6)에서 VMware Tools를 설치, 업그레이드 또는 제거한 후 곧바로 가상 시스템의 전원을 끄면 손상된 RAMDISK 이미지 파일 때문에 다음 재부팅 도중 게스트 OS가 실패할 수 있습니다. 게스트 OS는 다음과 유사한 오류를 보고합니다.

    RAMDISK: 완전하지 않은 쓰기(31522 != 32768)
    쓰기 오류
    커널 패닉 - 동기화되지 않음: VFS: 루트 fs를 알 수 없는 블록(0,0)에 마운트할 수 없음


    이 릴리스에서는 VMware Tools의 설치, 업그레이드 또는 제거 도중 initramfs 파일 생성의 완전한 생성이 해결되었습니다.

    RAMDISK 이미지 파일이 손상된 게스트 OS를 부팅 완료 상태로 복구할 수 있습니다. 자세한 내용은 기술 자료 문서 2086520을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 상태 비저장 ESXi 호스트에 적용하면 적용 작업을 완료하는 데 시간이 오래 걸릴 수 있음
    esx를 첫 번째 디스크 인수로 사용하여 상태 비저장 캐시를 사용하도록 설정하면, 스토리지 LUN의 수가 많은 상태 비저장 ESXi 호스트에서 호스트 프로파일을 적용하면 재부팅하는 데 시간이 오래 걸릴 수 있습니다. 이 문제는 호스트 프로필을 수동으로 적용하는 경우나 호스트를 재부팅하는 동안 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VIB 스테이징 작업으로 인해 ESXi 호스트 재부팅 후 VIB 설치 또는 구성 변경 내용이 손실될 수 있음
    시스템에 일부 VIB를 설치할 때 esxupdate는 /altbootbank에 새 이미지를 생성하고 업데이트될 /altbootbank boot.cfg bootstate를 변경합니다. 실시간 설치 가능 VIB가 설치되어 있으면 시스템에서 구성 변경을 /altbootbank에 저장합니다. 스테이징 작업 후에 업데이트 적용 작업을 수행하지 않는 한 스테이징 작업은 /altbootbank의 컨텐츠를 삭제합니다. 스테이징 작업 후에 호스트를 재부팅하지 않는 경우 VIB 설치가 손실될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

Virtual SAN 문제

  • 클러스터의 예기치 않은 네트워크 파티셔닝 때문에 Virtual SAN 클러스터 확인이 실패할 수 있음
    시스템이 V2 모드에 있는 경우 IGMP v3 쿼리가 보고되지 않는 예기치 않은 네트워크 파티셔닝 때문에 Virtual SAN 클러스터 확인이 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 지연 시간이 높은 디스크의 Virtual SAN으로 인해 입력/출력 백로그가 발생하고 클러스터가 응답하지 않을 수 있음
    지연 시간이 매우 높고 곧 비활성 상태가 되는 디스크를 Virtual SAN이 정상적으로 처리하지 않습니다. 곧 비활성 상태가 되는 이러한 디스크로 인해 입력/출력 백로그가 발생하고 vCenter Server에서 Virtual SAN 클러스터 노드가 응답하지 않습니다.

    이 릴리스에서는 커널의 지연 시간 모니터링 프레임워크, 지연 시간이 높은 기간을 감지하기 위한 대몬 및 개별 디스크와 디스크 그룹을 마운트 해제하는 메커니즘을 제공하는 DDH(Dying Disk Handling)라는 새로운 기능을 제공하여 이 문제를 해결합니다.
  • Virtual SAN 재동기화 작업 향상
    Virtual SAN 구성 요소 재동기화 작업이 중지되거나 매우 느려지는 상황이 발생할 수 있습니다. 이 릴리스에는 재동기화 작업 및 Virtual SAN 클러스터 안정성을 향상시키기 위한 구성 요소 기반 정체 기능이 도입되었습니다.

vCenter Server 및 vSphere Web Client 문제

  • VAAI 지원 호스트에서 가상 시스템 및 NFS 또는 NAS 데이터스토어의 프로비저닝된 공간 값이 요약 탭에 잘못 표시될 수 있음
    VAAI 지원 ESXi 호스트에서 느리게 비워지는 씩 프로비저닝 형식의 가상 디스크를 VAAI 지원 NAS에 생성하면 해당하는 가상 시스템 및 데이터스토어의 프로비저닝 공간이 잘못 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

가상 시스템 관리 문제

  • vSphere Client 또는 vSphere Web Client를 통해 USB 디바이스를 추가하려는 시도가 실패할 수 있음
    Intel USB 3.0 드라이버가 사용되는 경우 vSphere Client 및 vSphere Web Client를 통해 USB 디바이스를 추가하려는 시도가 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템의 중지 스냅샷을 생성하면 currentSnapshot 필드의 MOB 값이 설정 해제될 수 있음
    가상 시스템의 중지 스냅샷을 생성하고 MOB(Managed Object Browser)를 통해 탐색하면 currentSnapshot 필드의 MOB 값이 설정 해제된 것으로 표시됩니다. 컨텐츠 -> 루트 폴더 -> 데이터 센터 -> vmFolder -> vmname -> 스냅샷 -> currentSnaphot으로 이동하면 currentSnapshot을 볼 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 여러 개의 opID 태그 지정 로그 메시지가 VMkernel 로그에 빠르게 기록됨
    도우미 월드 opID 태그 지정이 많은 로그 메시지를 생성하여 VMkernel 로그가 빠르게 채워집니다. 다음과 유사한 로그가 VMkernel log에 기록됩니다.

    cpu16:nnnnn)World: nnnnn: VC opID hostd-60f4 maps to vmkernel opID nnnnnnnn cpu16:nnnnn)World: nnnnn: VC opID HB-host-nnn@nnn-nnnnnnn-nn maps to vmkernel opID nnnnnnnn cpu8:nnnnn)World: nnnnn: VC opID SWI-nnnnnnnn maps to vmkernel opID nnnnnnnn cpu14:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu22:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu14:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu14:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu4:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn

    이 문제는 이 릴리스에서 해결되었습니다.
  • USB 3.0 지원
    이 릴리스에서는 현재로서는 Apple Mac Pro에 대해서만 USB 3.0 지원이 추가되었습니다.

High Availability 및 Fault Tolerance 문제

vMotion 및 Storage vMotion 문제

  • 사전 할당된 가상 시스템에서 빠른 일시 중단 및 재개 또는 Storage vMotion을 수행할 수 없음
    사전 할당된 가상 시스템에서 FSR(빠른 일시 중단 및 재개) 또는 Storage vMotion을 수행할 때 소스에서 대상 가상 시스템으로 예약을 전송하는 도중 예약 검증이 실패하므로 작업이 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템에서 Storage vMotion 실패
    로컬 호스트 스왑을 구성하고 VMX 파일에서 checkpoint.cptConfigName의 값을 설정한 경우 가상 시스템에서 스토리지 vMotion 수행이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    xxxx-xx-xxT00:xx:xx.808Z| vmx| I120: VMXVmdbVmVmxMigrateGetParam: type: 2 srcIp=<127.0.0.1> dstIp=<127.0.0.1> mid=xxxxxxxxxxxxx uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx priority=none checksumMemory=no maxDowntime=0 encrypted=0 resumeDuringPageIn=no latencyAware=no diskOpFile=
    <snip>
    xxxx-xx-xxT00:xx:xx.812Z| vmx| I120: VMXVmdb_SetMigrationHostLogState: hostlog state transits to failure for migrate 'to' mid xxxxxxxxxxxxxxxx


    이 문제는 이 릴리스에서 해결되었습니다.
  • 콜드 마이그레이션 중에 CBT(변경된 블록 추적)가 가상 RDM 디스크에 대해 재설정됨
    여러 데이터스토어 간의 콜드 마이그레이션에서 가상 RDM(원시 디바이스 매핑) 디스크에 대한 CBT 재설정이 지원되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware Tools 문제

  • Windows 2000 가상 시스템에서 VMware Tools 업그레이드 시도가 실패할 수 있음
    Windows 2000 가상 시스템에서 VMware Tools 업그레이드 시도가 실패하고 다음과 유사한 오류 메시지가 vmmsi.log 파일에 기록될 수 있습니다.

    Invoking remote custom action. DLL: C:\WINNT\Installer\MSI12.tmp, Entrypoint: VMRun
    VM_CacheMod. Return value 3.
    PROPERTY CHANGE: Deleting RESUME property. Its current value is '1'.
    INSTALL. Return value 3.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 드라이버가 Solaris 11 가상 시스템에서 예상한 대로 실행되지 않을 수 있음
    ESXi 5.5 호스트에서 Solaris 11 게스트 운영 체제에 설치된 일부 드라이버가 Solaris 10에서 파생된 것일 수 있습니다. 그 결과, 해당 드라이버가 예상대로 작동하지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools를 새 커널로 구성하려고 하면 add_drivers 항목의 드라이버 목록이 잘릴 수 있음
    커널이 Dracut으로 업데이트된 후 /usr/bin/vmware-config-tools.pl -k <커널 버전> 스크립트를 사용하여 VMware Tools를 새 커널로 구성하려고 하면 /etc/dracut.conf.d/vmware-tools.conf 파일에서 add_drivers 항목의 드라이버 목록이 잘립니다. 이 문제는 VMware Tools가 커널에서 업스트림될 때 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools를 설치한 후 Windows 8이나 Windows Server 2012 게스트 운영 체제에서 텔넷을 열 수 없음
    Windows 8 또는 Windows Server 2012 게스트 운영 체제에 VMware Tools를 설치한 후 start telnet://xx.xx.xx.xx 명령을 이용해 텔넷을 열려고 시도하면 실패하고 다음 오류 메시지가 표시됩니다.

    가상 시스템의 구성을 통해 게스트가 호스트 애플리케이션을 열 수 있는지 확인하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools 설치 후 게스트 운영 체제 이벤트 뷰어에 경고 메시지가 표시됨
    VMware Tools를 설치한 후 Windows 가상 시스템에 대해 RDP를 수행하려 하면 일부 플러그인이 Windows 이벤트 로그에 경고 메시지를 표시할 수 있습니다. 이 경고 메시지는 호스트에 원격 프로시저 호출을 보내지 못했음을 나타냅니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 종료 중에 Linux 가상 시스템에서 VMware Tools 서비스가 실패할 수 있음
    Linux 가상 시스템에서 게스트 운영 체제를 종료할 때 VMware Tools 서비스 vmtoolsd가 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템 전원을 처음 켤 때 VMware Tools가 자동으로 업그레이드되지 않을 수 있음
    게스트 사용자 지정을 사용하여 가상 시스템이 배포되거나 복제되고 다음 번에 전원을 켤 때 가상 시스템이 VMware Tools를 자동으로 업그레이드할 수 있도록 VMware Tools 업그레이드 정책이 설정된 경우, 가상 시스템의 전원을 처음 켤 때 VMware Tools가 자동으로 업그레이드되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 중지 작업으로 Windows 가상 시스템이 패닉 상태가 될 수 있음
    Microsoft Windows 2008 이상을 실행하는 가상 시스템에서 중지 상태의 스냅샷을 수행하려고 하면 작업이 실패하고, 파란색 화면과 다음과 유사한 오류 메시지가 표시되어 VM이 패닉 상태가 될 수 있습니다.

    A problem has been detected and Windows has been shut down to prevent damage to your computer. If this is the first time you've seen this Stop error screen restart your computer. If this screen appears again, follow these steps:

    Disable or uninstall any anti-virus, disk defragmentation or backup utilities. Check your hard drive configuration, and check for any updated drivers. Run CHKDSK /F to check for hard drive corruption, and then restart your computer.


    자세한 내용은 기술 자료 문서 2115997을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux VM에서 스냅샷 작업 후 가상 시스템이 응답하지 않을 수 있음
    Linux 가상 시스템의 중지 스냅샷을 생성하려고 할 때 스냅샷 작업 후 VM이 실패하고 재부팅이 필요할 수 있습니다. 다음과 유사한 오류 메시지가 vmware.log 파일에 기록됩니다.

    TZ| vmx| I120: SnapshotVMXTakeSnapshotComplete: done with snapshot 'smvi_UUID': 0
    TZ| vmx| I120: SnapshotVMXTakeSnapshotComplete: Snapshot 0 failed: Failed to quiesce the virtual machine (40).
    TZ| vmx| I120: GuestRpcSendTimedOut: message to toolbox timed out.
    TZ| vmx| I120: Vix: [18631 guestCommands.c:1926]: Error VIX_E_TOOLS_NOT_RUNNING in
    MAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest


    자세한 내용은 기술 자료 문서 2116120을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 새 문제 스냅샷 통합을 수행하려는 시도가 오류와 함께 실패할 수 있음: 예기치 않은 신호: 11
    스냅샷 통합 또는 삭제 시 VMware ESXi 5.5 업데이트 3 호스트에서 실행되는 가상 시스템이 다음 오류와 함께 실패할 수 있습니다. 예기치 않은 신호: 11. vmware.log 파일에 다음과 유사한 로그 메시지가 표시될 수 있습니다.

    [YYYY-MM-DD] <time>Z| vcpu-0| I120: SNAPSHOT: SnapshotDiskTreeFind: Detected node change from 'scsiX:X' to ''.

    자세한 내용은 기술 자료 문서 2133118을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.

알려진 문제

ESXi 5.5의 알려진 문제는 다음과 같은 그룹으로 분류할 수 있습니다.

이 릴리스에 정리된 새로운 알려진 문제는 새 문제로 강조 표시됩니다.

설치 및 업그레이드 문제

  • 업데이트된 문제 VMware vCenter Server 5.5를 5.5 U2 이상으로 업데이트하면 JVM 최대 메모리 힙 크기가 줄어듦
    VMware vCenter Server 5.5를 5.5 U2 이상으로 업데이트하려고 할 경우 기본값으로 VMware Inventory Service, VMware 프로파일 기반 스토리지 서비스 및 VMware VirtualCenter 웹 관리에 대한 파일을 덮어쓰는 wrapper.conf 파일에 적용된 패치로 인해 JVM 최대 메모리 힙 크기가 줄어듭니다. 자세한 내용은 기술 자료 문서 2114669를 참조하십시오.

    해결 방법: 이 문제를 해결하려면 vCenter Server 인벤토리 크기를 기반으로 JVM 최대 힙 크기를 변경하십시오.

  • 새 문제 최신 VMware Tools 패키지 설치 후 Linux OS에서 VMware Tools 서비스 사용자 프로세스가 실행되지 않을 수 있음
    Linux OS에서 VMware Tools 업그레이드 또는 설치 문제가 발생하거나 최신 VMware Tools 패키지 설치 후 VMware Tools 서비스(vmtoolsd) 사용자 프로세스가 실행되지 않을 수 있습니다. 이 문제는 SLES10sp4와 같이 glibc 버전이 버전 2.5보다 이전 버전일 경우 발생합니다.

    해결 방법: Linux glibc를 버전 2.5 이상으로 업그레이드

  • vSphere PowerCLI에서 Get-EsxImageProfile 명령을 실행하는 동안 모든 이미지 프로파일을 가져오려는 시도가 실패할 수 있음
    모든 이미지 프로파일을 가져오기 위해 vSphere PowerCLI를 사용하여 Get-EsxImageProfile 명령을 실행할 때 다음과 유사한 오류가 표시됩니다.

    PowerCLI C:\Windows\system32> Get-EsxImageProfile
    Get-EsxImageProfile : 매개 변수 'name'은 빈 문자열일 수 없습니다.
    매개 변수 이름: name
    위치:1 char:20
    + Get-EsxImageProfile <<<<
    + CategoryInfo : NotSpecified: (:) [Get-EsxImageProfile], ArgumentException
    + FullyQualifiedErrorId : System.ArgumentException,VMware.ImageBuilder.Commands.GetProfiles


    해결 방법: -name 옵션이 포함된 Get-EsxImageProfile -name "ESXi-5.x*" 명령을 실행하여 PowerCLI 세션 중 생성된 모든 이미지 프로파일을 표시합니다.

    예를 들어, Get-EsxImageProfile -name "ESXi-5.5.*" 명령을 실행하면 다음과 유사한 모든 5.5 이미지 프로파일이 표시됩니다.

    PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-EsxmageProfile -name "ESXi-5.5.*"

    Name Vendor Last Modified Acceptance Level
    ---- ------ ------------- ----------------
    ESXi-5.5.0-20140701001s-no-... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20140302001-no-t... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20140604001-no-t... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20140401020s-sta... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20131201001s-sta... VMware, Inc. 8/23/2014 6:... PartnerSupported
  • Windows Server 2012에서 Simple Install 실패
    운영 체제가 DHCP IP 주소를 사용하도록 구성되어 있으면 Windows Server 2012에서 Simple Install에 실패합니다.

    해결 방법: 정적 IP 주소를 사용하도록 Windows 2012 Server를 구성합니다.

  • Auto Deploy 상태 비저장 캐시 또는 Auto Deploy 상태 저장 설치와 함께 VMFS 유지를 사용하는 경우 코어 덤프 파티션이 생성되지 않음
    빈 디스크에서 상태 비저장 캐시 또는 상태 저장 설치에 Auto Deploy를 사용하면 MSDOS 파티션 테이블이 생성됩니다. 그러나 코어 덤프 파티션은 생성되지 않습니다.

    해결 방법: 상태 비저장 캐시 또는 상태 저장 설치 호스트 프로파일 옵션을 사용하도록 설정한 경우 빈 디스크에 설치하더라도 VMFS 덮어쓰기를 선택합니다. 이렇게 하면 2.5GB 코어 덤프 파티션이 생성됩니다.

  • 스크립트로 작성된 설치 중 installorupgrade 명령에 --ignoressd 옵션을 사용해도 ESXi가 SSD에 설치됨
    ESXi 5.5에서는 installorupgrade 명령에 --ignoressd 옵션을 사용할 수 없습니다. installorupgrade 명령에 --ignoressd 옵션을 사용하면 설치 관리자가 잘못된 조합이라는 경고를 표시합니다. 설치 관리자가 설치를 중지하거나 오류 메시지를 표시하지 않고 SSD에서 ESXi 설치를 계속합니다.

    해결 방법: ESXi의 스크립트로 작성된 설치에서 --ignoressd 옵션을 사용하려면 installorupgrade 명령 대신 install 명령을 사용합니다.

  • Auto Deploy 캐시 제거가 지연되어 삭제된 호스트 프로파일이 적용될 수 있음
    호스트 프로파일을 삭제한 후 Auto Deploy에서 해당 호스트 프로파일이 바로 제거되지는 않습니다. 호스트 프로파일이 캐시에 유지되는 동안에는 Auto Deploy가 계속 해당 호스트 프로파일을 적용합니다. 이 프로파일을 적용하는 모든 규칙은 캐시에서 해당 프로파일이 제거된 후에만 실패합니다.

    해결 방법: Get-DeployRuleSet PowerCLI cmdlet을 사용하여 규칙에서 삭제된 호스트 프로파일을 사용하는지 여부를 확인할 수 있습니다. 이 cmdlet은 규칙의 itemlistdeleted라는 문자열을 표시합니다. 그런 다음 Remove-DeployRule cmdlet을 실행하여 규칙을 제거할 수 있습니다.

  • 선택한 디스크에 ESX를 설치한 경우 상태 비저장 캐시와 함께 Auto Deploy를 사용하도록 설정된 호스트 프로파일 적용이 실패함
    호스트 프로파일을 사용하여 상태 비저장 캐시를 사용하도록 설정되어 있는 Auto Deploy를 설정합니다. 호스트 프로파일에서 ESX(ESXi가 아님) 버전이 설치되어 있는 디스크를 선택합니다. 호스트 프로파일을 적용하면 다음 텍스트가 포함된 오류가 나타납니다.
    부팅 뱅크 2개가 필요함, 0개 발견.

    해결 방법: 상태 비저장 캐시에 사용할 다른 디스크를 선택하거나 디스크에서 ESX 소프트웨어를 제거합니다. 제거한 ESX 소프트웨어는 사용할 수 없게 됩니다.

  • Oracle America(Sun) 공급업체의 서버에서 ESXi 버전 5.5.0 설치 또는 부팅에 실패함
    Oracle America(Sun) 공급업체의 서버에서 ESXi 버전 5.5.0을 새로 설치하거나 기존 ESXi 버전 5.5.0 설치를 부팅하면 설치 프로세스 중이나 기존 ESXi 5.5.0 빌드 부팅 시 서버 콘솔에 빈 화면이 표시됩니다. 이 문제가 발생하는 이유는 Oracle America(Sun) 공급업체의 서버가 헤드리스 플랫폼이 아닌데도 ACPI FADT 테이블에 HEADLESS 플래그가 설정되어 있기 때문입니다.

    해결 방법: ESXi 5.5.0을 설치하거나 부팅할 때 부팅 옵션 ignoreHeadless="TRUE"를 전달합니다.

  • ESXCLI 명령을 사용하여 물리적 RAM이 4GB 미만인 ESXi 호스트를 업그레이드하면 업그레이드에 성공하지만 재부팅 시 일부 ESXi 작업에 실패함
    ESXi 5.5에는 물리적 RAM이 4GB 이상 필요합니다. ESXCLI 명령줄 인터페이스는 필요한 4GB 메모리가 있는지 업그레이드 전에 확인하지 않습니다. ESXCLI를 사용하여 메모리가 부족한 호스트를 성공적으로 업그레이드할 수는 있지만 RAM이 4GB 미만인 업그레이드된 ESXi 5.5 호스트를 부팅하면 일부 작업에 실패할 수 있습니다.

    해결 방법: 없음. 버전 5.5로 업그레이드하기 전에 ESXi 호스트에 물리적 RAM이 4GB 이상 있는지 확인합니다.

  • vCenter Server Appliance 5.0.x에서 5.5로 업그레이드한 후 외부 vCenter Single Sign-On을 사용하면 vCenter Server가 시작되지 않음
    vCenter Server Appliance를 5.0.x에서 5.5로 업그레이드할 때 사용자가 외부 vCenter Single Sign-On 인스턴스를 사용하면 업그레이드 후 vCenter Server가 시작되지 않습니다. 장치 관리 인터페이스에서 vCenter Single Sign-On은 구성되지 않음으로 표시됩니다.

    해결 방법: 다음 단계를 수행합니다.

    1. 웹 브라우저에서 vCenter Server Appliance 관리 인터페이스(https://appliance-address:5480)를 엽니다.
    2. vCenter Server/요약 페이지에서 서버 중지 버튼을 클릭합니다.
    3. vCenter Server/SSO 페이지에서 양식에 적절한 설정을 입력하고 설정 저장을 클릭합니다.
    4. 요약 페이지로 돌아가서 서버 시작을 클릭합니다.

  • ESXCLI를 사용하여 ESXi 4.x 또는 5.0.x 호스트를 버전 5.1 또는 5.5로 업그레이드하면 업그레이드 후 VMkernel 포트 그룹의 vMotion 및 FT 로깅(Fault Tolerance 로깅) 설정이 손실됨
    esxcli software profile update <options> 명령을 사용하여 ESXi 4.x 또는 5.0.x 호스트를 버전 5.1 또는 5.5로 업그레이드하면 업그레이드에 성공하지만 VMkernel 포트 그룹의 vMotion 및 FT 로깅 설정이 손실됩니다. 따라서 vMotion 및 FT 로깅이 기본 설정(사용 안 함)으로 복원됩니다.

    해결 방법: 스크립트로 작성된 업그레이드 또는 대화형 업그레이드를 수행하거나 vSphere Update Manager를 사용하여 호스트를 업그레이드합니다. esxcli 명령을 사용하는 경우에는 업그레이드 후 영향을 받는 VMkernel 포트 그룹에 vMotion 및 FT 로깅 설정을 수동으로 적용합니다.

  • vSphere 5.0.x 이전 버전에서 버전 5.5로 업그레이드할 때 수동으로 설정한 시스템 리소스 할당 값이 기본값으로 재설정됨
    vSphere 5.0.x 이전 버전에서는 임시 해결 방법으로 시스템 리소스 할당 사용자 인터페이스에서 설정을 수정합니다. ESXi를 완전히 재설치하지 않고는 이러한 설정의 값을 기본값으로 재설정할 수 없습니다. vSphere 5.1 이상에서는 시스템 동작이 변경되어, 사용자 지정 시스템 리소스 할당 설정을 유지하는 경우 안전하지 않은 값을 사용하게 될 수 있습니다. 업그레이드 시 이러한 값을 재설정합니다.

    해결 방법: 없음.

  • ESX 4.x에서 ESXi 5.5로 업그레이드한 후 가상 NIC vmk0의 IPv6 설정이 유지되지 않음
    IPv6을 사용하도록 설정된 ESX 4.x 호스트를 --forcemigrate 옵션을 사용하여 ESXi 5.5로 업그레이드하면 업그레이드 후 가상 NIC vmk0의 IPv6 주소가 유지되지 않습니다.

    해결 방법: 없음.

네트워킹 문제

  • NSX 불투명 네트워크로 PCNet32 네트워크 어댑터를 사용할 수 없음
    PCNet32 Flexible 네트워크 어댑터가 NSX 불투명 네트워크 백업으로 구성되어 있으면 VM 전원을 켤 때 어댑터의 연결이 끊어집니다.
  • 해결 방법: 없음

  • ESXi 5.5로 업그레이드하면 멀티캐스트 그룹 관리에 대한 TCP/IP 스택의 IGMP 구성이 변경될 수 있음
    멀티캐스트 그룹 관리를 위해 ESXi 5.5 호스트에 대한 관리 인터페이스의 기본 IGMP 버전이 IGMP V2에서 IGMP V3으로 변경되었습니다. 그 결과 ESXi 5.5로 업그레이드할 때, 관리 인터페이스가 이전 버전의 IGMP 쿼리를 수신할 경우 IGMP V3에서 IGMP V2로 되돌아갈 수 있으며 IGMP 버전 불일치 오류 메시지가 나타날 수 있습니다.

    해결 방법: 고급 구성 옵션에서 TCP/IP IGMP 다시 가입 간격을 수정하여 기본 IGMP 버전을 편집합니다.
  • vmknic 인터페이스 및 동적 IP 주소와 연결된 정적 경로가 재부팅 후 표시되지 않을 수 있음
    호스트를 재부팅한 후 VMkernel 네트워크 인터페이스(vmknic) 및 동적 IP 주소와 연결된 정적 경로가 표시되지 않을 수 있습니다.
    이 문제는 DHCP 클라이언트와 경로 복원 명령 사이의 경합 조건으로 인해 발생합니다. 호스트가 재부팅 과정 중 사용자 지정 경로를 복원하려고 하는 경우 DHCP 클라이언트가 vmknic의 IP 주소 가져오기를 완료하지 못할 수 있습니다. 결과적으로 게이트웨이가 설정되지 않고 경로가 복원되지 않습니다.

    해결 방법: esxcfg-route –r 명령을 실행하여 경로를 수동으로 복원합니다.
  • ESXi 호스트가 해당 IPv6 주소로 vCenter Server에 추가된 후 응답을 중지함
    ESXi 호스트를 fe80::/64 형식의 IPv6 링크 로컬 주소를 사용하여 vCenter Server에 추가하면 짧은 시간 내에 호스트 이름이 흐리게 표시되고 호스트가 vCenter Server에 대한 응답을 중지합니다.

    해결 방법: 링크 로컬 주소가 아닌 올바른 IPv6 주소를 사용합니다.

  • vSphere Web Client에서 물리적 NIC가 지원하는 것보다 많은 가상 기능을 구성해도 오류 메시지를 표시하지 않음
    물리적 어댑터의 SR-IOV 설정에서 어댑터가 지원하는 것보다 많은 가상 기능을 구성할 수 있습니다. 예를 들어 가상 기능을 23개만 지원하는 NIC에서 가상 기능을 100개 구성할 수 있으며, 이때 오류 메시지가 표시되지 않습니다. SR-IOV 설정을 적용하려면 호스트를 재부팅해야 한다는 메시지가 표시됩니다. 호스트를 재부팅하면 NIC에 해당 어댑터가 지원하는 만큼의 가상 기능(이 예에서는 23개)이 구성됩니다. 호스트를 재부팅하라는 메시지가 표시되지 않아야 하는데도 계속 표시됩니다.

    해결 방법: 없음

  • SR-IOV를 사용하도록 설정된 ESXi 호스트에서 가상 기능과 연결된 가상 시스템이 시작되지 않을 수 있음
    Intel ixgbe NIC를 포함하는 ESXi 호스트 5.1 이상에서 SR-IOV를 사용하도록 설정하고 이 환경에서 몇 가지 가상 기능을 사용하도록 설정하면 일부 가상 시스템이 시작되지 않을 수 있습니다.
    vmware.log 파일에는 다음과 유사한 메시지가 포함됩니다.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] 고객은 지원 사용 권한에 따라 응답을 받게 됩니다.

    해결 방법: 영향을 받는 가상 시스템과 연결된 가상 기능의 수를 줄인 후 가상 시스템을 시작합니다.

  • Emulex BladeEngine 3 물리적 네트워크 어댑터에서 가상 기능으로 지원되는 가상 시스템 네트워크 어댑터가 물리적 기능을 업링크로 사용하는 VMkernel 어댑터에 연결할 수 없음
    가상 기능과 물리적 기능 사이에는 트래픽이 흐르지 않습니다. 예를 들어 물리적 기능으로 지원되는 스위치에서 동일한 포트를 통해 가상 기능을 사용하는 가상 시스템은 동일한 스위치의 VMkernel 어댑터에 연결할 수 없습니다. 이는 Emulex BladeEngine 3 물리적 어댑터의 알려진 문제입니다. 자세한 내용은 Emulex에 문의하십시오.

    해결 방법: 호스트에서 Emulex BladeEngine 3 디바이스의 네이티브 드라이버를 사용하지 않도록 설정합니다. 자세한 내용은 VMware 기술 자료 문서 2044993을 참조하십시오.

  • ESXi Dump Collector가 ESXi 코어 파일을 원격 서버로 보내지 못함
    덤프 수집기의 트래픽을 처리하는 VMkernel 어댑터가 LAG(링크 집계 그룹)가 활성 업링크로 설정된 분산 포트 그룹으로 구성되어 있으면 ESXi Dump Collector가 ESXi 코어 파일을 보내지 못합니다. LACP 포트 채널이 물리적 스위치에 구성되어 있습니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • vSphere 표준 스위치를 사용하여 원격 서버에서 ESXi Dump Collector의 트래픽을 처리하는 VMkernel 어댑터를 구성합니다.
    • 독립 실행형 업링크를 사용하여 VMkernel 어댑터가 구성된 분산 포트 그룹의 트래픽을 처리합니다.
  • 호스트에서 vSphere Standard Switch 또는 vSphere Distributed Switch가 사용하는 포트 수를 vSphere Client를 사용하여 변경하면 재부팅 후에도 변경 내용이 저장되지 않음
    ESXi 5.5 호스트에서 vSphere Standard Switch 또는 vSphere Distributed Switch가 사용하는 포트 수를 vSphere Client를 사용하여 변경하면 호스트를 재부팅한 후에도 포트 수가 변경되지 않습니다.

    ESXi 5.5를 실행하는 호스트는 재부팅될 때 가상 스위치의 포트를 동적으로 늘리거나 줄입니다. 포트 수는 호스트가 실행할 수 있는 가상 시스템 수에 따라 다릅니다. 이러한 호스트에서는 스위치 포트 수를 구성할 필요가 없습니다.

    해결 방법: vSphere Client에서는 해결 방법이 없습니다.

서버 구성 문제

  • 새 문제 NIC 하드웨어가 하드웨어 오류 메시지와 함께 응답하지 않을 수 있음
    NIC 하드웨어가 특정 상황에서 드라이버 로그에 다음 오류 메시지를 표시하고 응답하지 않는 상황이 발생할 수 있습니다.

    Detected Hardware Unit Hang

    이 문제는 82579, i217, i218 및 i219와 같은 일부 새로운 e1000e 디바이스에서 발생합니다.

    해결 방법: 문제 발생 후 NIC 하드웨어가 자체적으로 재설정됩니다.

  • 직렬 콘솔에서 Direct Control User Interface에 액세스할 때 메뉴 탐색 문제가 발생함
    직렬 콘솔에서 Direct Control User Interface에 액세스하는 경우 메뉴를 탐색할 때 위쪽 및 아래쪽 화살표 키가 작동하지 않고 사용자가 DCUI 구성 화면에서 강제로 로그아웃됩니다.

    해결 방법: DCUI 프로세스를 중지합니다. DCUI 프로세스가 자동으로 다시 시작됩니다.

  • ESXi 호스트를 5.5 업데이트 2로 업그레이드한 후 호스트 구성을 변경하면 호스트 프로파일이 규정 준수로 잘못 표시될 수 있음
    호스트 프로파일 규정을 준수하는 ESXi 호스트를 ESXi 5.5 업데이트 2로 업데이트한 다음 호스트 구성을 일부 변경하고 호스트가 호스트 프로파일 규정을 준수하는지 다시 확인하면 프로파일이 규정 준수로 잘못 보고됩니다.

    해결 방법:
    • vSphere Client에서 문제가 있는 호스트 프로파일을 탐색하고 참조 호스트에서 프로파일 업데이트를 실행합니다.
    • vSphere Web Client에서 문제가 있는 호스트 프로파일을 탐색하고 호스트에서 설정 복사를 클릭하고 구성 설정을 복사할 호스트를 선택한 다음 확인을 클릭합니다.
  • vSphere Distributed Switch를 사용한 호스트 프로파일 업데이트 적용에 실패함
    vSphere Distributed Switch를 사용하여 호스트 프로파일을 적용할 때 Fault Tolerance를 사용하는 가상 시스템이 해당 호스트 프로파일의 Distributed Switch를 사용하는 호스트에서 전원이 꺼진 상태이면 업데이트 적용 오류가 발생할 수 있습니다.

    해결 방법: 호스트 프로파일이 정상적으로 적용되도록 전원이 꺼진 가상 시스템을 다른 호스트로 이동합니다.

  • ESXi 5.5.x 호스트에 ESX 4.0 또는 ESX 4.1 프로파일을 적용할 때 호스트 프로파일에 방화벽 설정 규정 준수 오류가 발생함
    ESX 4.0 또는 ESX 4.1 호스트에서 호스트 프로파일을 추출하여 ESXi 5.5.x 호스트에 적용하려는 경우 프로파일 업데이트 적용이 성공합니다. 규정 준수 검사에서 다음을 포함하는 방화벽 설정 오류가 발생합니다.

    규칙 집합 LDAP를 찾을 수 없음
    규칙 집합 LDAPS를 찾을 수 없음
    규칙 집합 TSM을 찾을 수 없음
    규칙 집합 VCB를 찾을 수 없음
    규칙 집합 activeDrirectorKerberos를 찾을 수 없음

    해결 방법: 해결 방법이 필요하지 않습니다. ESX 4.0 또는 ESX 4.1 호스트의 방화벽 설정이 ESXi 5.5.x 호스트의 방화벽 설정과 다르기 때문에 나타나는 현상입니다.

  • ESXi 호스트에 대한 BIOS 디바이스 설정이 변경되면 디바이스 이름이 잘못될 수 있음
    ESXi 호스트에 대한 BIOS 디바이스 설정이 변경되면 해당 변경으로 인해 디바이스에 할당된 <segment:bus:device:function> 값이 전환될 경우 디바이스 이름이 잘못될 수 있습니다. 예를 들어 이전에 사용 안 함으로 설정되어 있던 통합 NIC를 사용하도록 설정하면 다른 PCI 디바이스에 할당된 <segment:bus:device:function> 값이 전환되어 ESXi에서 이러한 NIC에 할당된 이름이 변경됩니다. 이전 버전의 ESXi와 달리 ESXi 5.5에서는 호스트 BIOS가 특정 디바이스 위치 정보를 제공할 경우 <segment:bus:device:function> 값을 변경함으로써 디바이스 이름을 보존하려고 합니다. 이 기능에 버그가 발생하면 vmhba1 및 vmnic32처럼 잘못된 이름이 생성되는 경우도 있습니다.

    해결 방법: ESXi 호스트를 1~2회 재부팅하면 잘못된 디바이스 이름이 제거되고 기존의 이름이 복원될 수 있습니다. 운영 시 잘못된 디바이스 이름을 사용하여 ESXi 호스트를 실행하지 마십시오.

스토리지 문제

  • 데이터스토어에 대한 VMFS 하트비트의 시간이 초과될 때 HBA 드라이버가 설치된 ESXi 호스트가 응답을 중단할 수 있음
    데이터스토어에 대한 VMFS 하트비트의 시간이 초과될 때 HBA 드라이브가 설치된 ESXi 호스트가 다음과 비슷한 메시지를 표시하며 응답을 중단할 수 있습니다.

    mem>2014-05-12T13:34:00.639Z cpu8:1416436)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L10" (UP) command 0xa3 failed with status Timeout. H:0x5 D:0x0 P:0x0 Possible sense data: 0x5 0x20 0x0.2014-05-12T13:34:05.637Z cpu0:33038)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L4" (UP) command 0xa3 failed with status Timeout. H:0x5 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0.

    데이터스토어의 높은 디스크 I/O가 ESXi 호스트에 연결되고 다중 경로가 HBA 수준이 아니라 대상 수준에서 사용함으로 설정되어 있을 때 HBA 드라이버에서 이 문제가 발생합니다.

    해결 방법: HBA 드라이버를 최신 비동기 HBA 드라이버로 교체합니다.
  • RDM 디스크가 포함된 가상 시스템의 라이브 Storage vMotion을 수행하려고 하면 작업이 실패할 수 있음
    RDM 디스크가 포함된 가상 시스템의 Storage vMotion이 실패할 수 있고 가상 시스템 전원이 꺼진 상태로 표시될 수 있습니다. 가상 시스템 전원을 켜려는 시도가 실패하고 다음 오류가 표시됩니다.

    파일을 잠그지 못했습니다.

    해결 방법: 없음.
  • 이름이 바뀐 태그가 VM 스토리지 정책 편집 마법사에서 누락된 것으로 표시됨
    가상 시스템 스토리지 정책에는 데이터스토어 태그를 기반으로 하는 규칙이 포함될 수 있습니다. 태그 이름을 바꾸면 이 태그를 참조하는 스토리지 정책에서 태그를 자동으로 업데이트하지 않고 누락된 것으로 표시합니다.

    해결 방법: 가상 시스템 스토리지 정책에서 누락된 것으로 표시된 태그를 제거하고 이름이 변경된 태그를 추가합니다. 스토리지 정책을 오래된 모든 엔티티에 다시 적용합니다.

  • Flash Read Cache 블록 크기가 16KB, 256KB, 512KB 또는 1024KB로 설정된 경우 가상 시스템의 전원을 켤 수 없음
    Flash Read Cache가 구성되어 있고 블록 크기가 16KB, 256KB, 512KB 또는 1024KB인 가상 시스템의 전원을 켤 수 없습니다. Flash Read Cache의 경우 캐시 크기는 최소 4MB에서 최대 200GB까지, 블록 크기는 최소 4KB에서 최대 1MB까지 지원합니다. 가상 시스템의 전원을 켤 때 작업이 실패하고 다음과 같은 메시지가 표시됩니다.

    VM의 전원을 켜는 동안 ESX 호스트에서 오류를 수신했습니다.

    가상 시스템을 시작하지 못했습니다.

    DiskEarly 모듈의 전원을 켜지 못했습니다.

    scsi0:0 디스크를 구성하지 못했습니다.

    구성되지 않은 디스크가 있는 가상 시스템의 전원을 켤 수 없습니다. vFlash 캐시를 연결할 수 없습니다(msg.vflashcache.error.VFC_FAILURE).

    해결 방법: 가상 시스템 Flash Read Cache 크기 및 블록 크기를 구성합니다.

    1. 가상 시스템을 마우스 오른쪽 버튼으로 클릭하고 설정 편집을 선택합니다.
    2. 가상 하드웨어 탭에서 하드 디스크를 확장하여 디스크 옵션을 표시합니다.
    3. 가상 Flash Read Cache 필드 옆의 고급을 클릭합니다.
    4. 캐시 예약 크기를 늘리거나 블록 크기를 줄입니다.
    5. 확인을 클릭하여 변경 내용을 저장합니다.
  • 저장된 리소스 풀 트리 파일의 사용자 지정 확장자를 vSphere Web Client에서 로드할 수 없음
    호스트 요약 페이지에 DRS 오류 메시지가 나타납니다.

    vSphere Web Client에서 DRS를 사용하지 않도록 설정할 때 리소스 풀 구조를 나중에 다시 로드할 수 있도록 저장하라는 메시지가 표시됩니다. 이 파일의 기본 확장자는 .snapshot이지만 다른 확장자를 선택할 수 있습니다. 이 파일이 사용자 지정 확장자를 사용하는 경우 해당 파일을 로드하려고 하면 사용할 수 없는 것으로 표시됩니다. 이 동작은 OS X에서만 발견됩니다.

    해결 방법: OS X의 vSphere Web Client에 이 파일을 로드하려면 확장자를 .snapshot으로 변경합니다.

  • 호스트 요약 페이지에 DRS 오류 메시지가 표시됨
    호스트 요약 페이지에 다음과 같은 DRS 오류 메시지가 나타납니다.

    호스트에서 DRS 리소스 설정을 적용할 수 없습니다. 현재 상태에서 허용되지 않는 작업입니다. DRS의 효율성이 대폭 감소할 수 있습니다.

    일부 구성에서 경합 조건으로 인해 의미 없거나 조치를 취할 수 없는 오류 메시지가 로그에 생성될 수 있습니다. 이 오류는 DRS 리소스 설정을 적용하는 것과 동시에 가상 시스템의 등록을 취소하는 경우 발생할 수 있습니다.

    해결 방법: 이 오류 메시지를 무시하십시오.

  • 16TB보다 큰 VMDK에 대해 가상 Flash Read Cache를 구성하면 오류가 발생함
    가상 Flash Read Cache는 16TB보다 큰 가상 시스템 디스크를 지원하지 않습니다. 이러한 디스크를 구성하려고 하면 작업이 실패합니다.

    해결 방법: 없음

  • 캐시 크기를 재구성할 때 가상 시스템의 전원이 꺼질 수 있음
    가상 시스템에서 가상 Flash Read Cache를 재구성할 때 잘못된 값을 할당하는 등 올바르지 않게 재구성하면 가상 시스템의 전원이 꺼질 수 있습니다.

    해결 방법: vSphere Storage 설명서의 권장 캐시 크기 지침을 따르십시오.

  • 가상 Flash Read Cache를 사용하도록 설정된 가상 시스템을 재구성하면 작업이 실패하고 작업 시간 초과 오류가 발생할 수 있음
    재구성 작업에는 상당한 양의 I/O 대역폭이 필요합니다. 로드를 많이 실행하는 경우 해당 작업이 완료되기 전에 시간이 초과될 수 있습니다. 호스트에 APD(모든 경로 다운) 상태인 LUN이 있는 경우에도 이 동작이 나타날 수 있습니다.

    해결 방법: 호스트 APD 상태를 모두 해결하고 LUN 및 호스트에서 보다 적은 I/O 로드로 작업을 다시 시도합니다.

  • DRS가 로드 밸런싱에 가상 Flash Read Cache를 사용하는 가상 시스템에 대해 vMotion을 수행하지 않음
    DRS가 로드 밸런싱에 가상 Flash Read Cache를 사용하는 가상 시스템에 대해 vMotion을 수행하지 않습니다.

    해결 방법: 다음과 같은 경우를 제외하고는 DRS에서 이러한 가상 시스템에 대해 vMotion을 수행하지 않는 것이 좋습니다.

    • 사용자가 유지 보수 또는 대기 모드로 전환하도록 요청한 호스트를 제거하려는 경우
    • DRS 규칙 위반을 해결하려는 경우
    • 호스트 리소스 사용량이 빨간색 상태인 경우
    • 하나 또는 대부분의 호스트가 초과 사용되고 가상 시스템 요구가 충족되지 않는 경우
      참고: 필요한 경우 DRS에서 이 이유를 무시하도록 설정할 수 있습니다.
  • 가상 시스템의 활성 메모리가 낮지만 사용되는 메모리가 높은 경우 호스트가 대기 모드로 전환됨
    ESXi 5.5에서는 기능의 강도를 줄이기 위해 DPM의 기본 동작을 변경합니다. 이와 같이 변경하면 활성 메모리는 낮지만 사용되는 메모리가 높을 때 발생하는 가상 시스템의 성능 저하 문제를 방지하는 데 도움이 될 수 있습니다. DPM 메트릭은 X%*IdleConsumedMemory + 활성 메모리입니다. X% 변수는 조정할 수 있으며 기본적으로 25%로 설정됩니다.

    해결 방법: 고급 옵션에서 PercentIdleMBInMemDemand=0을 설정하여 이전 ESXi 릴리스에 포함된 적극적 DPM 동작으로 복구할 수 있습니다.

  • DRS에서 시작된 vMotion이 실패할 수 있음
    DRS가 가상 Flash Read Cache 예약이 있는 가상 시스템에 vMotion을 권장할 때 대상 호스트에서 사용 가능한 메모리(RAM)가 부족하여 가상 시스템의 Flash Read Cache 예약을 관리할 수 없기 때문에 vMotion이 실패할 수 있습니다.

    해결 방법: vSphere Storage에 나와 있는 Flash Read Cache 구성 권장 사항을 따르십시오.
    vMotion이 실패할 경우 다음 단계를 수행합니다.

    1. 대상 호스트에 있는 가상 시스템 및 들어오는 가상 시스템의 블록 크기를 재구성하여 대상 호스트에서 VMkernel 메모리의 전체 목표 사용량을 줄입니다.
    2. vMotion을 사용하여 가상 시스템을 대상 호스트에 수동으로 마이그레이션하여 상태가 해결되도록 합니다.
  • 개별 SSD 디바이스의 가상 플래시를 구성하는 동안 발생하는 문제를 볼 수 없음
    가상 플래시 리소스 구성은 SSD 디바이스 목록에서 작동하는 작업입니다. 전체 개체에 대해 작업이 완료되면 vSphere Web Client는 작업을 성공한 것으로 보고하며 개별 SSD 디바이스의 구성 관련 문제에 대한 알림을 받을 수 없습니다.

    해결 방법: 다음 작업 중 하나를 수행합니다.

    • 최근 작업 패널에서 완료된 작업을 두 번 클릭합니다.
      작업 세부 정보 대화상자의 관련 이벤트 섹션에 모든 구성 오류가 표시됩니다.
    • 또는 다음 단계를 따릅니다.
      1. 인벤토리에서 호스트를 선택합니다.
      2. 모니터 탭을 클릭하고 이벤트를 클릭합니다.
  • ESXi 호스트에서 Micron PCIe SSD에 대한 SMART 정보를 가져올 수 없음
    esxcli storage core device smart get -d 명령을 사용하여 Micron PCIe SSD 디바이스에 대한 통계를 표시하려고 하면 작업에 실패합니다. 다음과 같은 오류 메시지가 표시됩니다.
    Smart 매개 변수를 가져오는 동안 오류가 발생했습니다. 디바이스를 열 수 없습니다.

    해결 방법: 없음. 이번 릴리스에서는 esxcli storage core device smart 명령이 Micron PCIe SSD를 지원하지 않습니다.

  • ESXi는 가상 시스템의 구성 파일에서 SCSI 가상 디스크에 대해 구성된 대역폭 제한을 적용하지 않음
    SCSI 가상 디스크의 대역폭 및 처리량 제한은 가상 시스템 구성 파일(.vmx)의 매개 변수 집합을 사용하여 구성합니다. 예를 들어 구성 파일에는 다음과 같은 scsi0:0 가상 디스크의 제한이 포함될 수 있습니다.
    sched.scsi0:0.throughputCap = "80IOPS"
    sched.scsi0:0.bandwidthCap = "10MBps"
    sched.scsi0:0.shares = "normal"

    ESXi는 sched.scsi0:0.bandwidthCap 제한을 scsi0:0 가상 디스크에 적용하지 않습니다.

    해결 방법: vSphere Web Client 또는 esxcli system settings advanced set 명령을 사용하여 이전 버전의 디스크 I/O 스케줄러로 복구합니다.

    • vSphere Web Client에서 호스트의 고급 시스템 설정 목록에서 Disk.SchedulerWithReservation 매개 변수를 편집합니다.
      1. 호스트로 이동합니다.
      2. 관리 탭에서 설정을 선택하고 고급 시스템 설정을 선택합니다.
      3. Disk.SchedulerWithReservation 매개 변수를 찾습니다. 이때 필터 또는 찾기 텍스트 상자를 사용합니다.
      4. 편집을 클릭하고 매개 변수를 0으로 설정합니다.
      5. 확인을 클릭합니다.
    • 호스트에 대한 ESXi Shell에서 다음 콘솔 명령을 실행합니다.
      esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
  • 캐시에 오류가 있으면 Flash Read Cache가 구성된 가상 시스템을 호스트 밖으로 마이그레이션할 수 없음
    캐시가 오류 상태이고 사용할 수 없다면 Flash Read Cache가 구성된 가상 시스템에서 마이그레이션 오류가 발생했을 수 있습니다. 이 오류가 발생하면 가상 시스템 마이그레이션이 실패합니다.

    해결 방법:

    1. 가상 시스템을 재구성하고 캐시를 비활성화합니다.
    2. 마이그레이션을 수행합니다.
    3. 가상 시스템이 마이그레이션된 후 캐시를 다시 사용합니다.

    또는 가상 시스템을 껐다 켜서 캐시 오류를 교정합니다.

  • 호스트를 ESXi 5.5 베타에서 업그레이드하고 나서 VFFS 볼륨을 삭제할 수 없음
    호스트를 ESXi 5.5 베타에서 업그레이드하고 나서 VFFS 볼륨을 삭제할 수 없습니다.

    해결 방법: 이 문제는 ESXi 5.5 베타에서 ESXi 5.5로 업그레이드할 때만 발생합니다. 이 문제를 방지하려면 업그레이드하는 대신 ESXi 5.5를 설치합니다. ESXi 5.5 베타에서 업그레이드하려면 VFFS 볼륨을 삭제한 후 업그레이드합니다.

  • 이전 Windows 및 Linux 게스트 운영 체제를 사용하는 가상 시스템에서 가상 Flash Read Cache를 사용하도록 설정할 때 개선된 예상 지연 시간 런타임이 나타나지 않음
    가상 Flash Read Cache는 캐시 크기를 대상 작업 집합과 일치하도록 지정할 때와 게스트 파일 시스템을 4KB 이상 경계로 정렬했을 때 최적의 성능을 제공합니다. Flash Read Cache는 캐시 내에서 부분 블록 캐시가 수행되지 않도록 잘못 정렬된 블록을 필터링합니다. 이 동작은 일반적으로 Windows XP 및 Linux 2.6 이전 배포를 사용하는 가상 시스템의 VMDK에 대해 가상 Flash Read Cache가 구성되었을 때 나타납니다. 이러한 경우 캐시 점유율이 적은 낮은 캐시 적중률이 관찰되며, 이는 해당 VMDK의 캐시 예약이 낭비된다는 것을 나타냅니다. Windows 7, Windows 2008 및 Linux 2.6 이상 배포를 실행하는 가상 시스템에서는 파일 시스템이 4KB 경계로 정렬되어 최적의 성능을 보장하므로 이러한 동작이 나타나지 않습니다.

    해결 방법: 각 VMDK에 대해 캐시 적중률을 개선하고 캐시 예약을 최적으로 사용하려면 VMDK에 설치된 게스트 운영 체제가 4KB 이상 경계로 정렬되어 있는지 확인합니다.

Virtual SAN

  • 새 문제 마운트 해제된 Virtual SAN 디스크 및 디스크 그룹이 vSphere Client UI 작동 상태 필드에서 마운트된 것으로 표시됨
    디스크에서 계속 높은 지연 시간을 표시할 경우 Virtual SAN 디바이스 모니터 서비스에서 esxcli vsan storage diskgroup unmount CLI 명령을 사용하거나 자동으로 Virtual SAN 디스크 또는 디스크 그룹을 마운트 해제한 후에도 vSphere Client UI의 작동 상태 필드가 마운트됨으로 잘못 표시됩니다.

    해결 방법: 상태 필드에서 작동 상태 필드 대신 비정상 값을 표시하는지 확인하십시오.
  • vsan.disks_stats 명령을 실행할 때 다중 VSAN 디스크 그룹이 있는 ESXi 호스트가 자기 디스크 통계를 표시하지 않을 수 있음
    vsan.disks_stats RVC(Ruby vSphere Console) 명령을 실행할 때 다중 VSAN 디스크 그룹이 있는 ESXi 호스트가 자기 디스크(MD) 통계를 표시하지 않을 수 있습니다. 호스트는 SSD(Solid-State Drive) 정보만 표시합니다.

    해결 방법: 없음
  • VM 디렉토리에 중복된 스왑(.vswp) 파일이 포함됨
    이 문제는 Virtual SAN에서 실행 중인 가상 시스템을 정상적으로 종료하지 않은 경우, 그리고 Virtual SAN 디스크에서 데이터를 지우지 않고 ESXi 및 vCenter Server를 새로 설치하는 경우에 발생할 수 있습니다. 결과적으로 정상적으로 종료되지 않은 가상 시스템의 디렉토리에서 이전 스왑 파일(.vswp)이 발견됩니다.

    해결 방법: 없음

  • Virtual SAN 디스크 그룹에 자기 디스크를 7개 이상을 추가하려는 시도가 실패하고 잘못된 오류 메시지가 표시될 수 있음
    Virtual SAN 디스크 그룹에서는 최대 1개의 SSD와 7개의 자기 디스크(HDD)를 지원합니다. 자기 디스크를 더 추가하려고 하면 작업이 실패하고 다음과 유사한 잘못된 오류 메시지가 표시될 수 있습니다.

    디스크 수가 부족합니다.

    해결 방법: 없음
  • Virtual SAN 디스크를 추가할 때 다시 검색 실패가 발생함
    Virtual SAN 디스크를 추가할 때 non-Virtual SAN 볼륨에 대한 검색 오류로 인해 다시 검색이 실패하고, 이로 인해 작업이 실패합니다.

    해결 방법: 디스크가 모두 올바로 등록되었으면 오류를 무시합니다.
  • 연결된 SSD(Solid State Drive)를 제거한 후 분리한 HDD(하드 디스크 드라이브)가 계속 Virtual SAN에서 할당된 스토리지 디스크로 표시될 수 있음
    Virtual SAN 데이터스토어에서 SSD 및 이와 연결된 HDD를 차례로 제거하고 esxcli vsan storage list 명령을 실행하는 경우 제거된 HDD가 Virtual SAN에서 할당된 스토리지 디스크로 계속 표시됩니다. HDD를 다른 호스트에 다시 삽입하는 경우 디스크가 2개의 다른 호스트에 속한 것으로 표시될 수 있습니다.

    해결 방법: 예를 들어 ESXi x에서 SSD와 HDD를 제거한 후 ESXi y에 삽입하는 경우 다음 단계를 수행하여 HDD가 ESXi x 및 ESXi y 모두에 속한 것으로 표시되지 않게 합니다.
    1. ESXi x에서 제거한 SSD 및 HDD를 ESXi y에 삽입합니다.
    2. ESXi x에서 SSD를 분리합니다.
    3. esxcfg-rescan -A 명령을 실행합니다.
       HDD 및 SSD가 ESXi x에 더 이상 표시되지 않습니다.
  • vSphere Storage 설명서의 Virtual SAN 작업 섹션에는 디스크 그룹당 최대 HDD 디스크 수가 6개로 나와 있습니다. 그러나 허용되는 최대 HDD 수는 7개입니다.
  • Virtual SAN 클러스터에 장애가 발생한 후 가상 시스템을 다시 시작하기 전 vSphere HA가 여러 이벤트를 보고할 수 있고, 그중 일부는 잘못된 것일 수 있음
    Virtual SAN에 장애가 발생한 것으로 표시된 후 vSphere HA 마스터 에이전트가 Virtual SAN에서 실행 중인 가상 시스템을 다시 시작하려고 여러 번 시도합니다. 가상 시스템을 즉시 다시 시작할 수 없으면 마스터 에이전트가 클러스터 상태를 모니터링하여 다시 시작할 수 있는 조건이 되면 다시 시작을 또 한 번 시도합니다. Virtual SAN에서 실행 중인 가상 시스템의 경우 vSphere HA 마스터는 특수한 애플리케이션 로직을 통해 가상 시스템 개체의 접근성 변경 조건을 감지하고 접근성이 변경되었을 가능성이 높을 때마다 다시 시작을 시도합니다. 마스터 에이전트는 접근성이 변경되었을 가능성이 있을 때마다 다시 시작을 시도하고, 가상 시스템의 전원을 켜지 못한 경우에는 다시 시작을 포기하고 다음 접근성 변경 조건이 발생할 때까지 기다립니다.

    다시 시작 시도에 실패할 때마다 vSphere HA가 페일오버에 성공하지 못했다는 이벤트를 보고하고 다섯 번째 시도에 실패하면 최대 페일오버 시도 횟수에 도달해서 vSphere HA가 가상 시스템 다시 시작 시도를 중지했다고 보고합니다. 그러나 vSphere HA 마스터 에이전트가 다시 시작 시도를 중지했다고 보고한 후에도 다음에 접근성이 변경될 가능성이 생기면 다시 시도합니다.

    해결 방법: 없음.

  • Virtual SAN 호스트의 전원을 끄면 vSphere Web Client에서 스토리지 제공자 보기를 새로 고치는 데 걸리는 시간이 예상보다 길어짐
    Virtual SAN 호스트의 전원을 끄는 경우 스토리지 제공자 보기가 빈 상태로 나타납니다. 아무 정보도 표시되지 않지만 새로 고침 버튼은 계속 돌아갑니다.

    해결 방법: 스토리지 제공자 보기가 다시 채워질 때까지 15분 이상 기다립니다. 또한 호스트의 전원을 켜면 보기가 새로 고쳐집니다.

  • Virtual SAN이 실패한 작업을 완료된 것으로 보고함
    Virtual SAN이 특정 작업이 내부적으로 실패했는데도 완료된 것으로 보고할 수 있습니다.

    오류의 조건 및 해당하는 원인은 다음과 같습니다.

    • 조건: Virtual SAN 라이센스가 만료되었는데 사용자가 새 디스크 그룹을 생성하거나 기존 디스크 그룹에 새 디스크를 추가하려고 합니다.
      오류 스택: 일반 시스템 오류가 발생했습니다. 디스크를 추가할 수 없습니다. 이 호스트에는 VSAN에 대한 라이센스가 없습니다.
    • 조건: 사용자가 디스크 수가 지원되는 수보다 많은 디스크 그룹을 생성하려고 합니다. 또는 기존 디스크 그룹에 새 디스크를 추가하여 총 수가 디스크 그룹당 지원되는 디스크 수를 초과합니다.
      오류 스택: 일반 시스템 오류가 발생했습니다. 디스크가 너무 많습니다.
    • 조건: 사용자가 오류가 발생한 디스크 그룹에 디스크를 추가하려고 합니다.
      오류 스택: 일반 시스템 오류가 발생했습니다. 파티션 테이블을 생성할 수 없습니다.

    해결 방법: 오류 원인을 식별했으면 원인을 수정하고 작업을 다시 시도합니다.

  • Virtual SAN 데이터스토어에서 호스트 로컬 스왑 파일 및 시스템 스왑 파일을 저장할 수 없음
    일반적으로 시스템 스왑 파일이나 호스트 로컬 스왑 파일을 데이터스토어에 저장할 수 있습니다. 그러나 Virtual SAN 데이터스토어는 시스템 스왑 파일 및 호스트 로컬 스왑 파일을 지원하지 않습니다. 따라서 Virtual SAN 데이터스토어를 시스템 스왑 또는 호스트 로컬 스왑의 파일 위치로 선택할 수 있는 UI 옵션을 사용할 수 없습니다.

    해결 방법: Virtual SAN 환경에서는 지원되는 다른 옵션을 사용하여 시스템 스왑 파일 및 호스트 로컬 스왑 파일을 저장합니다.

  • vSphere HA 클러스터의 Virtual SAN 가상 시스템이 전원이 꺼졌는데도 vSphere HA의 보호를 받는다고 보고됨
    가상 시스템의 홈 개체가 Virtual SAN 데이터스토어에 있지만 해당 홈 개체에 액세스할 수 없을 때 가상 시스템의 전원을 끄면 이 문제가 발생할 수 있습니다. 이 문제는 개체가 액세스할 수 없게 된 후 HA 마스터 에이전트를 선택하는 경우에 발생합니다.

    해결 방법:

    1. 개체가 지정된 스토리지 정책을 준수하는지 확인하여 홈 개체에 다시 액세스할 수 있도록 합니다.
    2. 가상 시스템의 전원을 켰다가 다시 끕니다.

    상태가 보호되지 않음으로 변경됩니다.

  • 다시 적용 작업이 트리거되어 성공적으로 완료된 후에도 가상 시스템 개체가 최신 버전이 아님 상태로 유지됨
    새로운 스토리지 요구 사항으로 인해 기존 가상 시스템 프로파일을 편집하는 경우 관련 가상 시스템 개체(홈 또는 디스크)가 최신 버전이 아님 상태가 될 수 있습니다. 이 문제는 현재 환경에서 가상 시스템 개체의 재구성을 지원할 수 없는 경우에 발생합니다. 다시 적용 작업을 사용해도 상태가 변경되지 않습니다.

    해결 방법: Virtual SAN 클러스터에 리소스(호스트 또는 디스크)를 추가하고 다시 적용 작업을 다시 호출합니다.

  • Virtual SAN을 사용하도록 설정한 후에 라이센스를 할당하는 경우 Virtual SAN에 대한 자동 디스크 할당이 제대로 작동하지 않음
    Virtual SAN을 자동 모드로 사용하도록 설정한 다음 라이센스를 할당하는 경우 Virtual SAN이 디스크를 할당하지 못합니다.

    해결 방법: 모드를 수동으로 변경했다가 다시 자동으로 전환합니다. Virtual SAN에 디스크가 제대로 할당됩니다.

  • Virtual SAN 네트워크가 분할되어 있는 경우 vSphere High Availability(HA)가 가상 시스템을 다시 시작하지 못함
    이 문제는 Virtual SAN이 노드 간 통신에 VMkernel 어댑터를 사용하고, 이 어댑터가 클러스터의 다른 VMkernel 어댑터와 동일한 서브넷에 있는 경우에 발생합니다. 이러한 구성에서는 네트워크 오류가 발생하고 Virtual SAN 노드 간 통신이 중단될 수 있지만 vSphere HA 노드 간 통신은 영향을 받지 않습니다.

    이 경우 HA 마스터 에이전트는 가상 시스템에서 오류를 감지할 수 있지만 가상 시스템을 다시 시작하지는 못합니다. 예를 들어 마스터 에이전트가 실행 중인 호스트가 가상 시스템의 개체에 액세스할 수 없는 경우 이 문제가 발생할 수 있습니다.

    해결 방법: Virtual SAN에서 사용하는 VMkernel 어댑터가 다른 용도로 사용되는 VMkernel 어댑터와 서브넷을 공유하지 않아야 합니다.

  • VM 디렉토리에 중복된 스왑(.vswp) 파일이 포함됨   
    이 문제는 Virtual SAN에서 실행 중인 가상 시스템을 정상적으로 종료하지 않은 경우, 그리고 Virtual SAN 디스크에서 데이터를 지우지 않고 ESXi 및 vCenter Server를 새로 설치하는 경우에 발생할 수 있습니다. 결과적으로 정상적으로 종료되지 않은 가상 시스템의 디렉토리에서 이전 스왑 파일(.vswp)이 발견됩니다.

    해결 방법: 없음

  • 긴 네트워크 지연 시간으로 인해 VM에 액세스할 수 없게 될 수 있음
    Virtual SAN 클러스터 설정에서 네트워크 지연 시간이 길면 일부 VM은 vCenter Server에서 액세스할 수 없게 될 수 있으며 VM의 전원을 켜거나 VM에 액세스할 수 없습니다.

    해결 방법: vsan.check_state -e -r RVC 명령을 실행하십시오.
  • 네트워크 지연 시간이 길어 VM 작업이 시간 초과될 수 있음
    대기열 크기가 작은 스토리지 컨트롤러가 사용될 때 네트워크 지연 시간이 길어지면 VM 작업이 시간 초과될 수 있습니다.

    해결 방법: 네트워크 로드가 적어질 때 작업을 다시 시도하십시오.
  • VM 이름이 잘린 형태의 vmx 파일 경로로 바뀔 수 있음
    가상 시스템의 vmx 파일에 일시적으로 액세스할 수 없는 경우 VM 이름이 잘린 형태의 vmx 파일 경로로 바뀝니다. 예를 들어 가상 시스템 이름이 /vmfs/volumes/vsan:52f1686bdcb477cd-8e97188e35b99d2e/236d5552-ad93으로 바뀔 수 있습니다. 이러한 잘림은 VM 홈 디렉토리의 UUID 절반을 삭제하므로 이름이 바뀐 VM을 단지 VM 이름만으로 원래 VM에 매핑하기 어려울 수 있습니다.

    해결 방법: vsan.fix_renamed_vms RVC 명령을 실행하십시오.

vCenter Server 및 vSphere Web Client

  • Active Directory 도메인에 ESXi 호스트를 추가할 수 없음
    사용자 및 그룹 선택 옵션 아래에서 사용 권한을 할당할 때 도메인 드롭다운 목록에 Active Directory 도메인 이름이 표시되지 않을 수 있습니다. 또는 Active Directory에 신뢰할 수 있는 도메인이 있음에도 불구하고 인증 서비스 설정 옵션에 신뢰할 수 있는 도메인 컨트롤러가 표시되지 않을 수 있습니다.

    해결 방법:
    1. netlogond, lwiod 및 lsassd 대몬을 차례로 다시 시작합니다.
    2. vSphere Client를 사용하여 ESXi 호스트에 로그인합니다.
    3. 구성 탭에서 인증 서비스 설정을 클릭합니다.
    4. 화면을 새로 고쳐 신뢰할 수 있는 도메인을 확인합니다.

가상 시스템 관리 문제

  • VMDK 파일 이름이 "core"로 시작할 경우 가상 시스템의 콜드 마이그레이션 및 Storage vMotion을 수행할 수 없음
    VMDK 파일 이름이 "core"로 시작할 경우 가상 시스템의 콜드 마이그레이션 및 Storage vMotion을 수행하면 다음과 유사한 오류 메시지와 함께 실패할 수 있습니다.

    일반 시스템 오류가 발생했습니다. VM 파일의 이름을 지정 또는 변경하는 중 오류가 발생했습니다.

    다음과 유사한 오류 메시지가 vpxd.log 파일에 표시될 수 있습니다.

    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'commonvpxLro' opID=8BA11741-0000095D-86-97] [VpxLRO] -- FINISH task-internal-2471 -- -- VmprovWorkflow --
    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'Default' opID=8BA11741-0000095D-86-97] [VpxLRO] -- ERROR task-internal-2471 -- -- VmprovWorkflow: vmodl.fault.SystemError:
    mem> --> Result:
    mem> --> (vmodl.fault.SystemError){
    mem> --> dynamicType = ,
    mem> --> faultCause = (vmodl.MethodFault) null,
    mem> --> reason = "Error naming or renaming a VM file.",
    mem> --> msg = "",
    mem> --> }

    ESXi 호스트가 이름이 "core"로 시작하는 VMDK 파일을 예상된 디스크 유형이 아닌 코어 파일로 잘못 분류할 때 이 문제가 발생합니다.

    해결 방법: 가상 시스템의 VMDK 파일 이름이 "core"로 시작하지 않도록 하십시오. 또한 vmkfstools 유틸리티를 사용하여 VMDK 파일의 이름이 "core" 단어로 시작하지 않도록 파일 이름을 바꾸십시오.
  • 프랑스어 로케일의 Windows 7 Enterprise 64비트 게스트 운영 체제를 사용하는 가상 시스템에서 복제 작업 중 문제 발생
    프랑스어 로케일로 실행 중인 복제된 Windows 7 Enterprise 64비트 가상 시스템이 있는 경우 가상 시스템의 네트워크 연결이 끊어지고 사용자 지정 규격이 적용되지 않습니다. 이 문제는 가상 시스템이 ESXi 5.1 호스트에서 실행되고 있을 때 시스템을 ESXi 5.5로 복제하고 VMware Tools 버전을 5.5 호스트에서 사용 가능한 최신 버전으로 업그레이드하는 경우에 나타납니다.

    해결 방법: 사용 가능한 최신 버전의 VMware Tools로 업그레이드하기 전에 가상 시스템 호환성을 ESXi 5.5 이상으로 업그레이드합니다.

  • 실행 중인 가상 시스템에서 가상 디스크의 크기를 늘리려고 하면 작업이 실패하고 오류가 발생함
    가상 시스템이 실행 중일 때 가상 디스크 크기를 늘리는 경우 작업이 실패하고 다음과 같은 오류가 발생할 수 있습니다.

    이 디바이스 유형에는 이 작업이 지원되지 않습니다.

    디스크 크기를 2TB 이상으로 확장하는 경우 오류가 발생할 수 있습니다. 핫 확장 작업에서는 디스크 크기를 2TB 미만으로만 늘릴 수 있습니다. SATA 가상 디스크는 크기에 관계없이 핫 확장 작업을 지원하지 않습니다.

    해결 방법: 가상 디스크를 2TB 이상으로 확장하려면 가상 시스템의 전원을 끕니다.

VMware HA 및 Fault Tolerance 문제
  • 새 문제 Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서 FT(Fault Tolerance)가 지원되지 않음
    Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT 및 Broadwell-DE 플랫폼에서는 Fault Tolerance가 지원되지 않습니다. 단일 프로세서 Fault Tolerance를 사용하도록 설정한 후 가상 시스템의 전원이 켜지지 않습니다.

    해결 방법: 없음

  • vSphere HA 클러스터에서 ESX/ESXi 4.0 또는 4.1 호스트를 선택하여 가상 시스템을 페일오버하면 가상 시스템이 정상적으로 다시 시작되지 않을 수 있음
    vSphere HA가 가상 시스템이 실행되던 원래 호스트와 다른 ESX/ESXi 4.0 또는 4.1 호스트에서 가상 시스템을 다시 시작하면 응답을 받지 못하는 쿼리가 실행됩니다. vSphere Client에서 사용자가 직접 쿼리에 응답할 때까지 새 호스트에서 가상 시스템의 전원이 켜지지 않습니다.

    해결 방법: vSphere Client에서 쿼리에 응답합니다. 또는 시간이 초과될 때(기본적으로 15분)까지 기다리면 vSphere HA가 다른 호스트에서 가상 시스템을 다시 시작하려고 시도합니다. 호스트가 ESX/ESXi 5.0 이상을 실행하고 있으면 가상 시스템이 다시 시작됩니다.

  • 공유 스토리지가 없는 vMotion 작업이 vSphere HA 클러스터에서 실패하면 대상 가상 시스템이 예기치 않은 호스트에 등록될 수 있음
    공유 스토리지를 포함하지 않는 vMotion 마이그레이션은 대상 가상 시스템이 두 가상 시스템 간의 제어권 전송을 조정하는 핸드셰이크 메시지를 수신하지 않아 실패할 수 있습니다. vMotion 프로토콜은 소스 및 대상 가상 시스템의 전원을 모두 끕니다. 소스 및 대상 호스트가 동일한 클러스터에 있고 vSphere HA를 사용하도록 설정했으면 vSphere HA에 의해 대상 가상 시스템이 vMotion 마이그레이션 대상으로 선택한 호스트가 아닌 다른 호스트에 등록될 수 있습니다.

    해결 방법: 대상 가상 시스템을 유지하고 특정 호스트에 등록되게 하려면 대상 가상 시스템을 대상 호스트에 재배치합니다. 이때 가상 시스템을 재배치한 후에 전원을 켜는 것이 좋습니다.

지원되는 하드웨어 문제
  • 팬, 전원 공급 장치, 전압 및 현재 센서의 센서 값이 vCenter Server 하드웨어 상태 탭의 기타 그룹 아래에 나타남
    일부 센서 값은 분류된 해당 그룹이 아니라 기타 그룹에 나열됩니다.

    해결 방법: 없음.

  • 디버그 DMA(Direct Memory Access) 매퍼를 사용하도록 설정하면 IOMMU(입/출력 메모리 관리 장치) 장애가 나타날 수 있음
    디버그 매퍼는 디바이스를 IOMMU 도메인에 배치하여 디바이스 메모리가 명시적으로 매핑되지 않은 주소에 액세스하도록 도와 줍니다. 이전 펌웨어를 사용하는 일부 HP 시스템에서 IOMMU 장애가 나타날 수 있습니다.

    해결 방법: HP 웹 사이트에서 펌웨어 업그레이드를 다운로드하고 적용합니다.

    • HP iLO2 컨트롤러의 펌웨어를 업그레이드합니다.
      2011년 8월에 릴리스된 버전 2.07에서 이 문제를 해결합니다.
    • HP Smart Array의 펌웨어를 업그레이드합니다.
      HP Smart Array P410의 경우 2012년 1월에 릴리스된 버전 5.14에서 이 문제를 해결합니다.

VMware Tools 문제

  • VMware Tools가 이전에 설치되어 있지 않은 경우 vmware-install.pl -d 명령을 실행하여 Linux 게스트 운영 체제에서 VMware Tools를 설치할 수 없음
    VMware Tools가 Linux 게스트 운영 체제에 설치되어 있지 않은 경우 vmware-install.pl -d 명령을 실행하여 VMware Tools를 새로 설치하려고 하면 설치가 실패할 수 있습니다.
    이 문제는 다음 게스트 운영 체제에서 발생합니다.
    • RHEL 7 이상
    • CentOS 7 이상
    • Oracle Linux 7 이상
    • Fedora 19 이상
    • SLES 12 이상
    • SLED 12 이상
    • openSUSE 12.2 이상
    • Ubuntu 14.04 이상
    • Debian 7 이상

    해결 방법: -default(-d) 스위치의 작동에 도움이 되는 해결 방법이 없습니다. 그러나 - default 스위치 없이 VMware Tools를 설치할 수 있습니다.
    설치 프로그램에서 이 구형 설치 프로그램으로 계속하시겠습니까?라는 옵션이 있는 메시지가 표시되면 를 선택합니다.

    참고: 이 릴리스에는 VMware Tools를 설치하기 위한 새로운 --force-install'(-f) 스위치가 추가되었습니다.
  • VMware Tools 업그레이드 후 파일이 사라짐
    VMware Tools를 업그레이드한 후 C:\Program Files\Vmware\Vmware Tools\에 있었던 deployPkg.dll 파일을 찾을 수 없습니다. 이 현상은 버전 5.1 업데이트 2에서 5.5 업데이트 1 이상으로, 그리고 버전 5.5에서 5.5 업데이트 1 이상으로 업그레이드할 때 나타납니다.

    해결 방법: 없음
  • OSP를 통해 VMware Tools를 설치 또는 제거하는 동안 사용자가 강제로 로그아웃됨
    OSP(Operating System Specific Package)를 사용하여 설치한 RHEL(Red Hat Linux Enterprise) 및 CentOS 가상 시스템에서 VMware Tools 패키지를 설치하거나 제거할 때 현재 사용자가 강제로 로그아웃됩니다. 이 문제는 RHEL 6.5 64비트, RHEL 6.5 32비트, CentOS 6.5 64비트 및 CentOS 6.5 32비트 가상 시스템에서 발생합니다.

    해결 방법:
    • SSH(보안 셸)를 사용하여 VMware Tools를 설치하거나 제거합니다.
      또는
    • 사용자는 다시 로그인하여 VMware Tools 패키지를 설치하거나 제거해야 합니다.

기타 문제

  • SRM 테스트 복구 작업이 실패하며 오류를 표시할 수 있음
    SRM(Site Recovery Manager) 테스트 복구를 수행하려고 할 때 다음과 같은 유사한 오류 메시지가 표시되며 실패할 수 있습니다.
    '오류 - 일반 시스템 오류가 발생했습니다. VM을 찾을 수 없습니다.'
    테스트 복구 작업 여러 개를 동시에 수행하면 오류 메시지가 나타날 가능성이 증가합니다.

    해결 방법: 없음. 그러나 이는 지속적으로 발생하는 문제가 아니며 SRM 테스트 복구 작업을 다시 수행하면 이 문제가 발생하지 않을 수 있습니다.
>