달력

5

« 2024/5 »

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
Windows XP 및 Windwos Vista에 대한 RDP 7.0 업데이트입니다. Windows XP SP3 및 Windows Vista SP1, SP2에서 사용하실 수 있습니다.

Description of the Remote Desktop Connection 7.0 client update for Remote Desktop Services (RDS) for Windows XP SP3, Windows Vista SP1, and Windows Vista SP2
http://support.microsoft.com/kb/969084/en-us

RDP 7.0을 통해 추가되는 기능은 다음과 같습니다.
 - Web Single Sign-On (SSO) and Web forms-based authentication
 - Access to personal virtual desktops by using RD Connection Broker 
 - Access to virtual desktop pools by using RD Connection Broker 
 - Status & disconnect system tray icon 
 - RD Gateway-based device redirection enforcement
 - RD Gateway system and logon messages 
 - RD Gateway background authorization & authentication 
 - RD Gateway idle & session time-outs 
 - NAP remediation with RD Gateway 
 - Windows Media Player redirection 
 - Bidirectional audio 
 - Multiple monitor support 
 - Enhanced video playback


:
Posted by 커널64
Windows Server 8, aka Windows Server 2012 Hyper-V 관련

Windows Server의 다음 버전인 Windows Server8 이제 정식 명칭이 Windows Server 2012로 명명되었습니다. Windows Server 2012 Hyper-V에 관련된 몇 가지 정보를 요약합니다.

일단 Scale-Up 관련하여 여러가지 향상된 내용이 있으나 개인적으로 가상 머신의 vCPU 할당 제한이 4개에서 32개로 늘어났다는 점과 가상 머신 내의 NUMA 지원, 호스트 서버의 논리 프로세서 제한이 64개에서 160개로 늘어난 점, 그리고 클러스터의 최대 지원 용량이 늘어난 점이 눈에 띄네요.

항목 Hyper-V 2.0
(Win 2008 R2)
Hyper-V 3.0
(Win 2012 Beta)
비고
호스트 - 논리 프로세서 64 160 2.5배 증가
호스트 - 최대 메모리 1TB 2TB 2배증가
호스트 당 vCPU 512 1,024 2배 증가
VM 당 vCPU 4 32 8배 증가
VM 당 메모리 64GB 1TB 16배 증가
호스트 당 VM 실행 384 1,024 2.7배 증가
Guest(VM) NUMA 미지원 지원 -
최대 클러스터 노드 16 64 4배 증가
클러스터 당 최대 VM 1,000 4,000 4배 증가

Windows Server 2012의 Hyper-V에서는 Live Migration과 더불어 스토리지에 대한 Live Migration 즉, Storage Live Migration을 지원합니다. 그리고, Live Migration에 있어서도 기존에는 반드시 SAN과 같은 공유 스토리지 인프라가 필요했으나 Windows Server 2012에서는 개별적으로 운영 중인 Stand Alone Hyper-V 호스트 간의 TCP 연결만으로 실시간 마이그레이션도 지원하게 됩니다.

Failover Clustering 관련해서는 위 표에도 나와 있듯이 최대 64개의 노드와 4,000대의 VM을 지원합니다. 또한, 기존의 SAN 인프라(iSCSI, FC) 외에도 SMB 2.2 즉, 파일 서버를 기반으로 하는 클러스터링을 지원하며, Failover Prioritization이라 해서 장애 조치 시 VM의 시작 순서를 제어할 수 있게 됩니다.

또 하나의 반가운 소식으로 Network Teaming을 위해 이제 벤더의 NIC Teaming 소프트웨어를 사용하지 않아도 됩니다. Windows Server 2012에서는 자체적으로 NIC Teaming을 지원하며 벤더에 상관없이 Teaming 구성이 가능합니다.

이 외에도 Hyper-V Replica 기능을 통해 사이트 간 VM의 비동기 복제를 지원해 고가의 SAN 복제 솔루션 없이도 사이트 장애 시에도 수 분 내에 사이트 복구가 가능합니다.

2012/03/16 - [Virtualization] - Windows Server "8" Beta Hyper-V Component Architecture
2012/05/05 - [Virtualization] - Windows Server 8 Beta의 Network Teaming 관련


:
Posted by 커널64
Windows Server 2008 R2 SP1 장애 조치 클러스터 구성에서 VM에 Pass-through 디스크를 추가하면 가상 머신 상에서 해당 디스크가 읽기 전용으로 표시됩니다. Hyper-V 2.0 SP1 Path-through Disk Read-only

Read-only pass-through disk after you add the disk to a highly available VM in a Windows Server 2008 R2 SP1 failover cluster

Pass-through 디스크를 추가하고 디스크가 읽기 전용으로 표시되길래 Diskpart를 통해 ATTRIBUTE DISK CLEAR READONLY 명령으로 아무리 Read-only 특정을 지워도 읽기 전용으로 표시가 되더군요.
해결 방법은 의외로 간단합니다. 가상 디스크 서비스(VDS)를 재시작하면 됩니다.;;;

 
:
Posted by 커널64
Citrix vs. Microsoft vs. VMware 각 벤더별 데스크톱 가상화 솔루션의 그래픽 관점의 기능 비교
VDI Virtual Desktop Infrastructure XenDesktop RDS Remote Desktop View


항목 Citrix XenDesktop 5.5 + HDX 3D Pro Microsoft Hyper-V SP1 + RemoteFX VMware View 4.6 + PCoIP VMware View 5 + PCoIP
Windows 에어로 지원
(클라이언트 자원 사용의 경우 HDX 3D Pro 불필요, DirectX 9 지원 GPU)
지원 미지원
(오프라인 모드의 경우 지원) 
지원
DirectX 지원 지원
(DirectX 9만 지원, 물리적인 GPU가 10을 지원하더라도 VM은 지원 안함)
미지원 지원
(DirectX 9) 
OpenGL 지원
(OpenGL 3.x 및 4.x 포함) 
매우 제한적인 지원
(OpenGL 1.1 만 지원, 대부분의 CAD 애플리케이션 미지원)
미지원 지원
(OpenGL 2.1) 
블레이드 PC 등의 물리적인 호스트 지원 미지원 미지원 미지원
VM 내에서의 향상된 그래픽 지원 지원
(Multi-GPU Pass-through 구성 권장) 
지원 미지원 지원
호스트 당 사용자 수 물리적 GPU 당 1 사용자 물리적 GPU 당 다수(12 이상) 사용자 미지원 호스트 당 다수(CPU 코어 당 5 이상) 사용자
무거운 워크로드 환경에 대한 적절성 적절 -
(테스트 안 됨)
부적절 -
(테스트 안 됨)
WAN 환경 지원
(지연 및 대역폭) 
지원
(200ms, 1.5Mbit/s)
미지원
(20ms 이하, 10Mbit/s) 
미지원 지원
(200ms, 100ms) 
지원되는 하이퍼바이저 ESX, Hyper-V, XenServer
(GPU Pass-through는 XenServer 만 지원) 
Hyper-V SP1 만 지원 ESX 만 지원 ESX 만 지원
(vGPU를 사용하기 위해서는 vSphere 5 필요)
렌더링 방식 호스트 GPU 또는 클라이언트 GPU 호스트 GPU GPU 미지원 호스트 CPU
(GPU 불필요) 
호스트 GPU 및 다른 하드웨어에 의존성 HDX 3D의 경우: 사용할애플리케이션을 지원하는 GPU
GPU 기반 압축: NVIDIA CUDA 지원 GPU
Multi-GPU Pass-through: SLI 다중 OS를 지원하는 NVIDIA GPU(예: FX3800)
GPU: DirectX 9.0c 및 10.0 지원 GPU
CPU: SLAT 지원 CPU(Intel EPT 또는 AMD NPT)
해당 없음 GPU 불필요

출처: www.virtualizationmatrix.com



:
Posted by 커널64
Windows Server 2012에서부터 OS 자체적으로 NIC에 대한 Team 기능이 포함되었습니다. NIC Teaming에 대한 상세한 설명이 부족한 것 같아 정리합니다.

팀 구성 모드에는 두 가지 타입의 설정이 있습니다.
- 스위치 독립적 모드(Switch Independent(독립 전환))
- 스위치 의존적 모드(Static Teaming(정적 팀 구성), LACP)

먼저, 스위치 독립적 모드의 경우 기존 네트워크 스위치에 대한 변경이나 추가 구성이 필요하지 않으며, 심지어 일반 허브에도 연결해 사용할 수 있습니다. 이는 네트워크 트래픽에 대한 제어를 전적으로 운영 체제의 Teaming 스택에서 처리하기 때문입니다.

스위치 의존적 모드의 경우 기본적으로 동일한 스위치에 연결되어야 합니다만, 일부 스태킹 스위치의 경우 물리적으로 서로 다른 스위치 간의 LACP 구성이 가능하기도 합니다. 스위치가 LACP를 지원하는 경우 최적의 성능을 낼 수 있습니다.

영문판
 

한글판


아웃바운드 트래픽에 대한 부하분산 알고리즘에도 Address Hash, Hyper-V Port 두 가지 모드가 있습니다.


한글판


Teaming Mode(팀 구성 모드)와 Load distribution mode(부하 분산 모드) 구성 조합에 따라 부하 분산 동작이 다음과 달라집니다.

Switch Independent & Address Hash(주소 해시)
- 아웃바운드 트래픽은 모든 Active Member로 분산되어 발신됩니다.
- 인바운드 트래픽은 오직 Primary Member로만 전달됩니다. 만약 Primary Member가 Fail인 경우 다른 Team Member가 Primary로 선택되며 인바운드 트래픽은 해당 Team Member로 전달됩니다.

Switch Independent & Hyper-V Port(Hyper-V 포트)
- 아웃바운드 트래픽은 트래픽이 생성된 해당 Hyper-V 스위치 포트에 Tagging 됩니다. 이후 발생하는 모든 포트 Tagging 된 트래픽은 동일한 Team Member를 통해 보내집니다.
- 인바운드 트래픽은 트래픽이 보내진 Hyper-V 스위치 포트에 해당하는 Team Member를 통해 수신됩니다.

Static Teaming, LACP & Address Hash(주소 해시)
- 아웃바운드 트래픽은 모든 Active Member로 분산되어 발신됩니다.
- 인바운드 트래픽은 스위치의 부하 분산 알고리즘에 따라 분산됩니다.

Static Teaming, LACP & Hyper-V Port(Hyper-V 포트)
- 아웃바운드 트래픽은 트래픽이 생성된 해당 Hyper-V 스위치 포트에 Tagging 됩니다. 이후 발생하는 모든 포트 Tagging 된 트래픽은 동일한 Team Member를 통해 보내집니다.
- 인바운드 트래픽은 스위치의 부하 분산 알고리즘에 따라 분산됩니다.

 
:
Posted by 커널64
Windows Server "8" Beta Hyper-V Component Architecture
PDF 파일이 보기가 너무 어려워(너무 커서..;;;) 스냅샷으로 다시 정리함

Hyper-V 관련 향상되거나 추가된 기능
이외에도 Windows Server 8에서 매우 많은 기능이 향상되거나 추가된다.

- 단일 클러스터 당 최대 64 노드, 4,000대의 가상 머신 지원
- 동시에 다수의 실시간 마이그레이션 가능
- 클러스터링 구성 없이 Live Migration 가능
- SAN 스토리지 없이 파일 공유 기반의 클러스터 구성 가능
- 스토리지에 대한 Storage Live Migration 가능
- 호스트 서버에 대해 256 논리 프로세서, 2TB 메모리 지원
- 가상 머신에 대해 32 가상 프로세서(vCPU), 1TB 메모리 할당 가능
- 호스트 간 TCP 통신을 통한 가상 머신 복제(Replication) 기능
- 가상 머신의 네트워크 대역폭 조절 가능
- 가상 머신에 대한 NUMA 지원
- 네트워크 어댑터에 대한 SR-IOV 지원
- 가상 FC 지원, 가상 HBA
- 새로운 디스크 타입(.VHDX) 지원. 안정성 및 성능 향상
- CAU(Cluster-Aware Updating) 기능 추가: 노드들에 대한 패치 관리


(원문)Windows Server "8" Beta Hyper-V Component Architecture Poster
http://www.microsoft.com/download/en/details.aspx?id=29189



Hyper-V Replica
Virtual Machine Replication
Hyper-V Replica is an asynchronous virtual machine replication technology that is included in Windows Server "8" Beta. It is designed for business continuity and disaster recovery. It works with any server, network, or storage vendor. It does not require any shared storage. It enables you to replicate individual or multiple virtual machines. Hyper-V Replica is tightly integrated with Hyper-V and Failover Clustering. You can replicate virtual machines from one computer running Hyper-V at a primary site (the primary server) to another computer running Hyper-V at a Replica site (the Replica server). The Replica server accepts incoming replication traffic from one or more primary servers.

 

Hyper-V Networking
Load Balancing and Failover
Network adapter teaming, also known as NIC teaming or load balancing and failover (LBFO), enables multiple network adapters to be placed into a team interface. This provides bandwidth aggregation and traffic failover, which prevents loss of connectivity in the event of a network adapter failure. Network adapter teaming supports multivendor implementations.


Quality of Service Bandwidth Management
Windows Server "8" Beta includes new Quality of Service (QoS) bandwidth management functionality that allows you to converge multiple types of network traffic through a single network adapter with a predicable level of service to each type. You can configure bandwidth management features through the virtual machine settings or by using Windows PowerShell commands.
To architect bandwidth management, you can specify a maximum and minimum bandwidth limit. These limits allow you to manage bandwidth allocations depending on your type of network traffic.
It is important to note that the new minimum bandwidth feature allows each network service (such as management, storage, live migration, and virtual machine traffic) to get an allocated share of bandwidth when the network bandwidth is heavily utilized and contended. When bandwidth is freely available, each of these network services gets as much bandwidth as required.
There are two mechanisms to enforce minimum bandwidth. You can use QoS software in your server running Hyper-V, or Windows-certified network adapters that support Data Center Bridging (DCB).


Single Root I/O Virtualization
SR-IOV is a standard that allows PCI Express devices to be shared among multiple virtual machines by providing them a direct hardware path for I/O. Hyper-V provides support for SR-IOV-capable network adapters. SR-IOV reduces network latency, reduces CPU utilization for processing network traffic, and increases network throughput.
SR-IOV-capable networking devices have hardware surfaces called virtual functions that can be securely assigned to virtual machines-bypassing the virtual switch in the management operating system for sending and receiving data. Policy and control remains under the management operating system.
SR-IOV is fully compatible with live migration because software-based networking is available at all times.
During live migration, virtual functions are temporarily removed. This enables live migration using network adapters from different vendors, or in a situation where SR-IOV is not available on the destination computer.


Hyper-V Virtual Switch
In Windows Server "8" Beta, the Hyper-V virtual switch is extensible. This allows new capabilities to be added to the virtual switch so that you can view and manage the traffic on your server running Hyper-V. This includes traffic generated between virtual machines running on the same computer.
Using the extensible capabilities in a virtual switch, Microsoft partners can add their own monitoring, filtering, and forwarding functionality. Any extensions that are created are implemented using Network Driver Interface Specification (NDIS) filter drivers or Windows Filtering Platform (WFP) callout drivers.
You can use NDIS filter drivers to monitor or modify network packets in Windows. You can use WFP to create firewall or intrusion detection functionality.


Hyper-V Virtual Machine Mobility
Live Migration Without Shared Storage
Live migration without shared storage (also known as "Shared Nothing Live Migration") enables you to migrate virtual machines and their associated storage between servers running Hyper-V within the same domain. This kind of live migration uses only an Ethernet connection.
 

Storage Migration
Hyper-V storage migration enables you to move virtual machine storage (virtual hard disks) without downtime. This enables new servicing scenarios. For example, you can add more physical disk storage to a non-clustered computer or a Hyper-V cluster and then move the virtual machines to the new storage while the virtual machines continue to run.


Live Migration with SMB Shared Storage
Live migration with Server Message Block (SMB) shared storage enables you to move virtual machines between servers running Hyper-V within the same domain while the virtual machine storage remains on the SMB-based file server. Concurrent live migrations are supported. This kind of live migration does not require configuration of a failover cluster.
 

Live Migration with Failover Clusters
Hyper-V live migration with failover clusters (first introduced in Windows Server 2008 R2) enables you to move running virtual machines from one cluster node running Hyper-V to another node, without any disruption or perceived loss of service. Live migration is initiated by the administrator and is a planned operation.


Hyper-V Storage
Virtual Fibre Channel for Virtual Machines
Hyper-V virtual Fibre Channel for virtual machines enables virtual machines to access Fibre Channel-based storage. This feature allows you to virtualize workloads that require Fibre Channel storage-and also allows you to cluster guest operating systems in virtual machines using Fibre Channel.


New Virtual Hard Disk Format
VHD is a virtual hard disk file format that enables you to represent a physical hard disk drive in a file, and it is used as the hard disk of a virtual machine. Hyper-V in Windows Server "8" Beta contains an update to the virtual hard disk format called VHDX.
 

Hyper-V Using Server Message Block (SMB)
Hyper-V can store virtual machine files (configuration files, virtual hard disk files, and snapshots) on file servers using Server Message Block (SMB) 2.2. This is supported for both non-clustered and clustered servers running Hyper-V where file storage is used as shared storage for the failover cluster.


Hyper-V and Failover Clustering
Clustered Virtual Machines for High Availability



Hyper-V Scalability
Physical Hardware and Virtual Machine Scalability
Hyper-V in Windows Server "8" Beta provides enhanced enterprise hosting capabilities, with expanded support for both physical and virtual processors, and physical and virtual memory.
It also makes it easier to virtualize high-performance workloads by supporting the configuration of large, high-performance virtual machines.


NUMA and Virtual Machines
NUMA (Non-Uniform Memory Access) is a multiprocessor architecture that groups memory and processors into compute nodes. The time required for a processor to access memory within a node is faster than the time required to access memory across nodes. Hyper-V supports projecting a virtual NUMA topology within a virtual machine, which enables virtual machines with multiprocessors to scale better.
The guest operating system and applications can take advantage of any NUMA performance optimizations. By default, the virtual NUMA topology within a virtual machine is optimized to match the NUMA topology in the server running Hyper-V.

 


:
Posted by 커널64
2012. 3. 10. 08:51

XenServer의 기본 인증서 변경 Virtualization2012. 3. 10. 08:51

XenServer의 기본 인증서 변경

openssl genrsa -out <파일 이름>.private 2048
openssl req -new -outform PEM -out <파일 이름>.request -keyform PEM -key <파일 이름>.private -days 3650

cat <파일 이름>.request
request 파일의 -----BEGIN CERTIFICATE REQUEST----- 와 -----END CERTIFICATE REQUEST----- 사이의 내용 복사

Windows CA 서버를 통해 인증서 요청 후 발급(인증서 템플릿: 웹 서버)
인증서 요청 > 고급 인증서 요청. > Base 64 인코딩 CMC 또는 PKCS #10 파일을 사용하여 인증서 요청을 제출하거나 Base 64 인코딩 PKCS #7 파일을 사용하여 갱신 요청을 제출 합니다.

Base 64로 인코드 선택 후 인증서 다운로드 클릭해 다운로드(.cer) 후 XenServer로 복사

cat ><파일 이름>.pem <파일 이름>.cer <파일 이름>.private
chmod 700 <파일 이름>.pem
vi /etc/init.d/xapissl

PEMFILE="/etc/xensource/xapi-ssl.pem" 부분을 위 과정을 통해 생성한 위치로 변경

/etc/init.d/xapissl restart

 

:
Posted by 커널64

Windows 8 기반 VDI의 RD 게이트웨이 배포

이전 절차에 이어서.. 스냅샷 위주

 

:
Posted by 커널64

Windows Server 8 Beta 기준 VDI 풀 테스트 구성 절차
Windows 8 Cunsumer Preview VDI Virtual Desktop Infrastructure

테스트 환경
- KR-DC-01: Windows Server 2008 R2 도메인 컨트롤러
- KR-WS8B-HV-01: Windows Server 8 Beta 가상화 호스트
- KR-WS8B-RDS: Windows Server 8 Beta 브로커, 웹액세스 등등

> KR-WS8B-HV-01, KR-WS8B-RDS 운영 체제 설치 후 도메인 참가

1. 서버 인프라 준비
1-1. KR-WS8B-HV-01 로그온 > Server Manager > Add Roles and Features

1-2. Remote Desktop Services scenario-based installation 선택 후 Next

1-3. Standard Deployment 선택 후 Next

1-4. Virtual Desktop Infrastructure 선택 후 Next

1-5. Role Services 화면 확인 후 Next

1-6. RD Connection Broker 화면에서 KR-WS8B-RDS 선택 후 Next

1-7. RD Web Access 화면에서 Install RD Web Access role service on the RD Connection Broker server 체크 후 Next

1-8. Remote Desktop Virtualization Host 화면에서 KR-WS8B-HV-01 선택 후 Next

1-9. Confirmation 화면에서 Restart the destination server automatically if required 체크 후 Deploy



2. VM 템플릿 준비
2-1. KR-WS8B-HV-01 로그온 > Hyper-V 관리자 > 신규 VM 생성(예: RefW8B)

2-2. 다운 받은 ISO 파일을 이용해 Windows 8 Consumer Preview 설치

2-3. 설치 완료 후 컴퓨터 이름 설정(예: RefW8B)

2-4. Use express settings 클릭

2-5. Don't want to sign in with a Microsoft account? 클릭

2-6. Local account 클릭

2-7. 로컬 사용자 계정 정보 입력 후 Finish 클릭

2-8. 애플리케이션 설치 등의 시스템 구성 완료 후 관리자 권한으로 Powershell 실행


2-9. sysprep 명령 실행
.\sysprep.exe /generalize /oobe /shutdown /mode:vm


3. 가상 데스크톱 컬렉션 생성
3-1. KR-WS8B-RDS 로그온 > Remote Desktop Services > Create Virtual Desktop Collection

3-2. 컬렉션 이름 입력 후 Next

3-3. Collection Type 선택 후 Next

3-4. 이전 단계에서 생성해 놓은 VM 템플릿(예: RefW8B) 선택 후 Next

3-5. 자동 구성(Provide nattended settings) 기본 값 선택 후 Next

3-6. 도메인 및 OU 선택, 로컬 관리자 정보 입력, Time Zone 선택 후 Next
(로컬 관리자 계정은 VM 템플릿 작성 시 생성한 계정과 중복되면 안 된다.)

3-7. 접속 권한을 부여할 도메인 그룹, 생성할 VM 수와 이름 규칙 입력 후 Next

3-8. 가상화 호스트에 올라갈 VM 수 입력, 호스트가 한 대이므로 그냥 Next

3-9. VM이 저장될 스토리지 선택 후 Next (상황에 따라 Differ 디스크 사용도 가능하다.)

3-10. 프로파일 디스크가 저장될 공유 스토리지와 최대 디스크 크기 입력 후 Next

3-11. 요약 내용 확인 후 Create
위 절차를 마치면 먼저 템플릿(Reference Image) 가상 머신이 Export되서 RDS 서버(기본 값은 C:\RDVirtualDesktopTemplate)로 복사된다. 그 다음 다시 가상화 호스트 서버의 입력한 위치(예: C:\VDICollections) 하위 폴더가 생성되고 템플릿 가상 머신의 디스크 파일과 각각의 가상 머신들에 대한 증분 디스크가 생성된다.




접속 방법은 Windows Server 2008 때와 동일하다.
웹 브라우저에서 https://<웹액세스 서버 FQDN>/RDWeb 로 붙거나 또는 제어판의 RemoteApp 에 https://<웹액세스 서버 FQDN>/RDWeb/Feed/webfeed.aspx 등록해 접속이 가능하다.
추가적으로, 인증서를 CA에서 발급해 경고 메시지가 뜨지 않게 하는 과정이 필요하다.

 

:
Posted by 커널64
2011. 12. 19. 13:51

서버 가상화 플랫폼 비교 Virtualization2011. 12. 19. 13:51

http://www.virtualizationmatrix.com/matrix.php

Server Virtualization 플랫폼 비교
Microsoft Hyper-V VMware vSphere Citrix XenServer
:
Posted by 커널64