Virtualizzazione

Introduzione a Hyper-V in Windows Server 2008

Rajiv Arunkundram

 

Panoramica:

  • Che cos'è la virtualizzazione?
  • Tre architetture di virtualizzazione
  • Confronto tra Hypervisor microkernelizzato e monolitico
  • Funzionalità di Hyper-V

Indice

Il mercato della virtualizzazione dei server
Funzionamento della virtualizzazione dei server
Tipi di soluzioni di virtualizzazione
Windows Hypervisor
La partizione padre
Architettura di condivisione periferiche
Componenti di integrazione
Set di funzionalità Hyper-V
Scalabilità
Disponibilità elevata
Sicurezza
Facilità di gestione
Conclusioni

Negli ultimi tempi, si è parlato molto di virtualizzazione e soprattutto della virtualizzazione dei server. Si tratta di una delle tendenze più interessanti dell'industria ed è potenzialmente in grado di cambiare, nell'arco di pochi anni, il paradigma delle modalità di distribuzione dei sistemi IT. La virtualizzazione dei server non cambierà solo il modo di progettare i server e l'utilizzo del sistema da parte degli amministratori e degli architetti IT, ma interesserà anche i processi e gli strumenti impiegati nella gestione di un ambiente che diventerà certamente sempre più dinamico.

La virtualizzazione è in realtà disponibile già da diverso tempo, ma la tecnologia continua a svilupparsi. In effetti, la parola stessa ha ancora significati diversi per utenti diversi. In senso ampio, tuttavia, la virtualizzazione è l'astrazione di un livello dello stack tecnologico dal livello successivo, come l'archiviazione dai server o il sistema operativo dalle applicazioni. L'astrazione dei diversi livelli, a sua volta, consente il consolidamento e una migliore gestibilità.

Come concetto, la virtualizzazione si applica all'archiviazione, alle reti, ai server, alle applicazioni e all'accesso. Per quanto riguarda l'archiviazione e le reti, lo scopo della virtualizzazione è quello di aggregare una serie di dispositivi diversi affinché il pool totale delle risorse sembri e si comporti come una sola entità. Ad esempio, è possibile configurare una soluzione di archiviazione da 40 TB anziché una serie di 20 dispositivi di archiviazione da 2 TB. Tuttavia, con altri componenti, la virtualizzazione ha un effetto opposto, contribuendo a fare sembrare un sistema singolo un'insieme di sistemi multipli. L'esempio più comune è la virtualizzazione dei server, in cui si ospitano più istanze e ambienti operativi su un unico server.

Microsoft ha affrontato la virtualizzazione a diversi livelli, dal desktop al datacenter, con soluzioni per la virtualizzazione di server, applicazioni, presentazioni e desktop. Il punto comune a tutte queste soluzioni è la parte di gestione con Microsoft System Center. In questo articolo mi concentrerò sul componente di virtualizzazione dei server e in particolare su come Hyper-V, una delle funzionalità principali di Windows Server 2008, si adatti alla formula per un datacenter dinamico.

Il mercato della virtualizzazione dei server

In primo luogo, è utile prendere in esame l'offerta presente oggi sul mercato nonché la tendenza del mercato globale. A seconda degli studi presi in considerazione, alcuni analisti stimano che il 5–9% di tutti i server fisici attualmente venduti vengono utilizzati come host di virtualizzazione. Questa potrebbe sembrare una percentuale sostanziosa in un mercato in cui ogni anno vengono venduti più di nove milioni di server fisici. Ma una cosa è certa: è ancora presente un'opportunità di mercato enorme con l'aumentare del numero di clienti che familiarizzano con la virtualizzazione e desiderano utilizzarla.

È importante notare gli ambienti in cui viene adottata la virtualizzazione. Sicuramente, i clienti aziendali sono stati i primi ad utilizzare e testare la virtualizzazione. Tuttavia, anche aziende di piccole e medie dimensioni implementano la virtualizzazione. L'impiego della virtualizzazione interessa vari tipi di carichi di lavoro, dalla gestione e applicazioni aziendali al Web e alla posta elettronica.

Quindi perché oggi si parla così tanto di virtualizzazione? Esistono diversi fattori, uno dei quali è rappresentato dal tempo. Alcuni fattori chiave dell'industria sono affiorati allo stesso tempo, contribuendo a favorire un impiego maggiore della virtualizzazione. Tali fattori comprendono il passaggio ai computer a 64 bit, i processori multicore e anche l'interesse per un'informatica sostenibile al fine di migliorare l'utilizzo del sistema.

I sistemi diventano molto più grandi e richiedono una tecnologia come la virtualizzazione per sfruttare appieno la potenza del sistema. Ma se è vero che la tecnologia di base e la legge di Moore presentano una tendenza costante in termini di produzione di una capacità di elaborazione maggiore rispetto a quella utilizzabile dai sistemi, ora siamo anche più consapevoli dell'impatto ambientale, dei requisiti di alimentazione e dei costi di raffreddamento.

Tutti questi fattori, insieme alla semplice motivazione del rendimento dell'investimento (ROI) nell'adozione della virtualizzazione, dovrebbero accelerare l'utilizzo della virtualizzazione nelle imprese di grandi e piccole dimensioni. E noi, professionisti IT, possiamo attenderci che tutti i maggiori attori continueranno a investire in questa tecnologia nei prossimi anni e a migliorarne le caratteristiche e la funzionalità.

Funzionamento della virtualizzazione dei server

La virtualizzazione dei server permette di prendere un dispositivo fisico singolo come punto di partenza e installare (ed eseguire simultaneamente) due o più ambienti operativi che sono potenzialmente diversi e presentano diverse identità, stack di applicazioni, ecc. Hyper-V è una tecnologia di virtualizzazione a 64 bit di ultima generazione basata su Hypervisor che offre funzionalità di piattaforma affidabili e scalabili. Insieme al System Center, offre un'unica serie di strumenti di gestione integrati per le risorse fisiche e virtuali.

Tutto ciò serve a ridurre i costi, migliorare l'utilizzo, ottimizzare l'infrastruttura e consente alle aziende di disporre rapidamente di nuovi server. Per comprendere meglio l'architettura di Hyper-V, diamo prima un'occhiata ai diversi tipi di soluzioni di virtualizzazione.

Tipi di soluzioni di virtualizzazione

Esistono essenzialmente tre architetture generali utilizzate per la virtualizzazione dei server, come mostrato nella Figura 1. Le differenze fondamentali riguardano la relazione tra il livello di virtualizzazione e l'hardware fisico. Per livello di virtualizzazione intendo il livello di software denominato Virtual Machine Monitor (VMM, da non confondere con Virtual Machine Manager). È questo livello che fornisce la capacità di creare istanze multiple isolate che condividono le stesse risorse hardware di base.

fig01.gif

Figura 1 Le tre architetture di virtualizzazione (fare clic sull'immagine per ingrandirla)

L'architettura VMM tipo 2 viene esemplificata dalle macchine virtuali Java. Qui lo scopo della virtualizzazione è quello di creare un ambiente di runtime nel quale il processo possa eseguire una serie di istruzioni senza contare sul sistema host. In questo caso, l'isolamento è per i diversi processi e consente a un'applicazione singola di essere eseguita su diversi sistemi operativi senza preoccuparsi delle dipendenze dei sistemi operativi. La virtualizzazione dei server non rientra in questa categoria.

VMM tipo 1 e VMM ibrido sono probabilmente i due approcci utilizzati più frequentemente oggi. VMM ibrido è uno stadio in cui VMM viene eseguito assieme al sistema operativo host e aiuta a creare macchine virtuali. Esempi di VMM ibrido sono Microsoft Virtual Server, Microsoft Virtual PC, VMware Workstation e VMware Player. Si dovrebbe notare che mentre questi tipi di soluzioni sono eccellenti per uno scenario di client in cui si eseguono macchine virtuali solo per determinati periodi di tempo, i VMM comportano un notevole sovraccarico e quindi non sono adatti per carichi di lavoro dispendiosi in termini di risorse.

In un'architettura VMM tipo 1, il livello VMM opera direttamente sull'hardware. Questo è spesso denominato livello Hypervisor. Questa architettura è stata progettata originariamente nel 1960 da IBM per i sistemi di tipo mainframe e di recente è stata messa a disposizione sulle piattaforme x86/x64 con una varietà di soluzioni, compreso Windows Server 2008 Hyper-V.

Sono disponibili soluzioni in cui l'Hypervisor è una parte incorporata del firmware. Questo, tuttavia, rappresenta semplicemente un'opzione di assemblaggio e non modifica di fatto la tecnologia sottostante.

Per quanto riguarda i VMM tipo 1, esistono essenzialmente due modi principali per l'architettura delle soluzioni Hypervisor: microkernelizzato e monolitico. Entrambi questi approcci, come mostrato nella Figura 2, rappresentano veri VMM tipo 1 in cui l'Hypervisor è installato direttamente sull'hardware fisico.

fig02.gif

Figura 2 Le due possibilità di architettura delle soluzioni Hypervisor (fare clic sull'immagine per ingrandirla)

L'approccio con Hypervisor monolitico ospita l'Hypervisor/VMM in un livello singolo che comprende anche la maggior parte dei componenti richiesti, come il kernel, i driver di dispositivo e lo stack I/O. Questo è l'approccio utilizzato da soluzioni quali VMware ESX e dai sistemi mainframe tradizionali.

L'approccio con Hypervisor microkernelizzato utilizza un Hypervisor specializzato, molto sottile che esegue soltanto le attività principali di assicurazione dell'isolamento della partizione e della gestione della memoria. Questo livello non comprende lo stack I/O o i driver di dispositivo. Questo è l'approccio utilizzato da Hyper-V. In questa architettura, lo stack di virtualizzazione e i driver di dispositivo specifici dell'hardware sono situati in una partizione specializzata denominata partizione padre.

Windows Hypervisor

Una chiara separazione tra i sistemi operativi multipli è garantita creando memoria, timer, controllori di interruzioni e processori virtuali. I sistemi operativi utilizzano queste risorse virtuali proprio come utilizzerebbero le loro controparti fisiche.

Windows Hypervisor, parte di Hyper-V, esegue le seguenti attività:

  • Crea partizioni logiche.
  • Gestisce la memoria e la programmazione del processore per i sistemi operativi guest.
  • Fornisce meccanismi per virtualizzare input/output e comunicare fra le partizioni.
  • Applica regole di accesso alla memoria.
  • Applica criteri per l'utilizzo della CPU.
  • Presenta un'interfaccia programmatica semplice, nota come hypercall.

Poiché utilizza l'approccio microkernelizzato, Windows Hypervisor è particolarmente piccolo, con dimensioni inferiori a 1 MB. Questo footprint minimo contribuisce a migliorare la sicurezza complessiva del sistema.

Uno dei requisiti per l'esecuzione di Hyper-V è un sistema x64 che disponga delle tecnologie Intel VT o AMD-V. La tecnologia x64 permette l'accesso a uno spazio di indirizzi maggiore e il supporto di sistemi con più memoria, ammettendo così più macchine virtuali su un solo sistema host. Intel VT e AMD-V sono soluzioni di virtualizzazione assistite da hardware che forniscono un livello ultraprivilegiato nell'architettura ad anello che aiuta a tenere l'ambiente di esecuzione dell'Hypervisor separato dal resto del sistema. Inoltre, consentono a Hyper-V di eseguire un sistema operativo guest non modificato senza registrare perdite significative nella prestazione di emulazione.

La partizione padre

Hyper-V consiste in una partizione padre, che è essenzialmente una macchina virtuale che gode di accesso speciale o privilegiato. Questa è la sola macchina virtuale con accesso diretto alle risorse hardware. Tutte le altre macchine virtuali, note come partizioni guest, passano attraverso la partizione padre per l'accesso al dispositivo.

L'esistenza della partizione padre è abbastanza trasparente. Quando si inizia a installare Hyper-V, la prima cosa da fare è installare Windows Server 2008 x64 Edition sul sistema fisico. Quindi, è necessario selezionare Server Manager, attivare il ruolo Hyper-V e riavviare il sistema. Una volta riavviato il sistema, Windows Hypervisor viene prima caricato e poi il resto dello stack viene convertito per essere la partizione padre.

La partizione padre ha la proprietà della tastiera, del mouse, del schermo video e di altre periferiche collegate al server host. Non ha il controllo diretto sui timer e sui controllori di interruzioni utilizzati dall'Hypervisor.

La partizione padre contiene un provider Strumentazione gestione Windows (WMI) per facilitare la gestione di tutti gli aspetti dell'ambiente virtualizzato, come pure uno stack di virtualizzazione che esegue attività relative a hardware per conto delle partizioni figlio. In più, tutti i driver del fornitore di hardware indipendente (IHV) necessari per l'hardware del sistema host sono contenuti nella partizione padre; qualsiasi driver creato per le edizioni x64 di Windows Server 2008 funzionerà nella partizione padre.

Architettura di condivisione periferiche

Uno dei componenti innovativi di Hyper-V è la nuova architettura di condivisione periferiche che supporta periferiche emulate e sintetiche in ogni sistema operativo guest. L'emulazione di dispositivi è piuttosto utile per supportare sistemi operativi precedenti con i driver dei dispositivi progettati per generazioni di hardware precedenti. Ad esempio, Hyper-V comprende un'emulazione della scheda di rete Intel 21140, che era chiamata scheda di rete DEC 21140 quando venivano venduti molti dei sistemi operativi precedenti.

Generalmente, l'emulazione dei dispositivi è lenta, non facilmente estendibile e non ben scalabile. Ma l'emulazione è ancora importante perché consente di eseguire la maggior parte dei sistemi operativi x86 su Hyper-V. Poiché la virtualizzazione si sta trasformando da tecnologia di nicchia principalmente impiegata per il testing e lo sviluppo in una tecnologia essenziale per gli ambienti di produzione, gli utenti richiedono migliori prestazioni per eseguire carichi di lavoro più grandi. Le periferiche emulate non soddisfano più queste richieste crescenti.

Una soluzione alternativa è l'utilizzo di periferiche sintetiche Hyper-V. Le periferiche sintetiche sono dispositivi virtuali direttamente mappati come dispositivi fisici. A differenza delle periferiche emulate, le periferiche sintetiche non emulano l'hardware legacy. Con il modello di condivisione dell'hardware Hyper-V, i sistemi operativi guest supportati possono interagire direttamente con le periferiche sintetiche che possono non avere controparti fisiche. Questi sistemi operativi utilizzano i client del servizio virtuale (VSC), che funzionano come driver dei dispositivi all'interno del sistema operativo guest.

Invece di accedere all'hardware fisico direttamente, i VSC utilizzano il VMBus, che è un bus in memoria ad alta velocità, per accedere ai provider del servizio virtuale (VSP) nella partizione padre. I VSP della partizione padre quindi gestiscono l'accesso all'hardware fisico sottostante, come mostrato nella Figura 3. Un vantaggio chiave delle periferiche sintetiche è che le prestazioni delle periferiche sintetiche sul VMBus sono più vicine alle prestazioni delle periferiche hardware non virtualizzate.

fig03.gif

Figura 3 I VSC utilizzano il VMBus per accedere ai VSP, che quindi gestiscono l'accesso all'hardware fisico sottostante (fare clic sull'immagine per ingrandirla)

Componenti di integrazione

Hyper-V è stato realizzato per fornire chiari limiti tra le varie istanze in esecuzione su un computer. Per attivare l'interazione tra il sistema operativo guest e il sistema operativo host e per fornire alcune funzionalità aggiuntive per i sistemi operativi guest supportati, Hyper-V fornisce componenti di integrazione.

I componenti di integrazione di Hyper-V supportano le funzionalità seguenti:

  • sincronizzazione dell'ora
  • Servizio Copia Shadow del volume (VSS)
  • Funzionalità Heartbeat
  • Arresto guest
  • Scambio coppia di valori chiave (utilizzato per accedere al Registro di un sistema operativo guest)
  • Identificazione sistema operativo

Set di funzionalità Hyper-V

È ovvio che più la piattaforma di virtualizzazione agisce come server fisico, più è facile per le organizzazioni implementare e fare affidamento su carichi di lavoro virtuali. A mio parere, esistono quattro aree principali in cui è possibile suddividere le diverse funzionalità della piattaforma di virtualizzazione.

Oggi la maggior parte delle soluzioni di virtualizzazione basate su hypervisor sono piuttosto simili in termini di caratteristiche e di funzionalità. Nel prossimo futuro, temi come il costo totale di proprietà (TCO) e la facilità di utilizzo costituiranno i principali fattori di differenziazione. Le soluzioni di gestione saranno oggetto di investimenti continui e di sviluppo al fine di rendere più concreta la visione di un ambiente IT dinamico, in cui l'infrastruttura è sufficientemente flessibile per adattarsi alle esigenze aziendali e i modelli e i criteri aiutano a sviluppare un'automazione e una gestione potenziate.

Scalabilità

Utilizzando l'architettura con Hypervisor microkernelizzato, Hyper-V presenta un carico CPU molto basso, lasciando tutto lo spazio necessario per i carichi di lavoro virtualizzati. Permettendo alle macchine virtuali di sfruttare funzionalità e hardware potenti, come la tecnologia multicore, un migliore accesso al disco e una memoria maggiore, Hyper-V migliora la scalabilità e le prestazioni della piattaforma di virtualizzazione.

In combinazione con le altre funzionalità di Windows Server 2008, Hyper-V consente di consolidare la maggior parte dei carichi di lavoro, compresi i carichi di lavoro a 32 e a 64 bit, su un sistema singolo. Inoltre, può favorire ad armonizzare l'utilizzo della tecnologia a 64 bit con un supporto continuo per carichi di lavoro a 32 bit già in uso in tutto l'ambiente.

Il fatto che Hyper-V richieda un sistema host a 64 bit con virtualizzazione assistita da hardware contribuisce ad assicurare l'accesso del sistema host a un grande pool di risorse di memoria. Hyper-V può supportare fino a 1 TB di memoria sull'host, con fino a 64 GB di memoria per macchina virtuale. Questo è fondamentale per coloro che intendono virtualizzare carichi di lavoro che richiedono un impiego intensivo di memoria come Exchange Server e SQL Server.

Inoltre, Hyper-V supporta fino a 16 processori logici sul sistema host, caratteristica che rende Hyper-V scalabile alla maggior parte dei sistemi commodity a 2 e a 4 socket con core multipli. Inoltre è possibile creare una macchina virtuale con fino a quattro processori virtuali per supportare carichi di lavoro che richiedono o sfruttano funzionalità multiprocessore.

Il consolidamento dei server attraverso Hyper-V permette anche ai server di utilizzare un supporto di rete stabile, comprendente VLAN, NAT (Network Address Translation) e criteri di Protezione accesso alla rete (NAP) (quarantena). Essendo una funzionalità di Windows Server 2008, Hyper-V funziona correttamente con altre funzionalità di Windows Server, come BitLocker e Windows PowerShell.

Disponibilità elevata

La disponibilità elevata è uno scenario in cui Hyper-V e le funzionalità di clustering dell'host lavorano insieme per garantire la continuità aziendale e rispondere alle esigenze di ripristino di emergenza. La continuità aziendale è la capacità di minimizzare i tempi di inattività programmati e non programmati. Questi comprendono il tempo perso per funzioni di routine, come la manutenzione e il backup, ma anche le interruzioni di corrente impreviste.

Il ripristino di emergenza è un componente importante della continuità aziendale. I disastri naturali, gli attacchi intenzionali e perfino semplici problemi di configurazione come conflitti di software possono bloccare i servizi e le applicazioni finché gli amministratori non risolvono i problemi e ripristinano i dati. Una strategia aziendale di ripristino di emergenza affidabile deve offrire una perdita di dati minima e funzionalità di gestione remota potenti.

Per quanto riguarda la disponibilità elevata, si dovrebbero considerare tre categorie diverse: tempi di inattività programmati, tempi di inattività non programmati e backup. La protezione per i tempi di inattività programmati è generalmente necessaria per rimuovere le macchine virtuali dal sistema host e poter così eseguire la manutenzione di hardware o applicare patch al sistema host o alla piattaforma di virtualizzazione (che potrebbe richiedere un riavvio).

La maggior parte delle organizzazioni ha finestre di manutenzione programmate e ciò che si cerca di fare in questo caso è di fatto minimizzare o eliminare il periodo in cui le macchine virtuali non saranno disponibili mentre il sistema host è inattivo per la manutenzione. Con la funzionalità Quick Migration è possibile trasferire rapidamente una macchina virtuale in esecuzione da un nodo fisico a un altro in pochi secondi. Così è possibile tenere a disposizione le macchine virtuali per l'uso di produzione mentre si esegue la manutenzione sull'host originale. Una volta terminata la manutenzione, è quindi possibile utilizzare Quick Migration per riportare le macchine virtuali al sistema host originale.

I tempi di inattività non programmati sono tempi di inattività non previsti. Può trattarsi di una catastrofe naturale o della rimozione involontaria di un cavo di alimentazione che provocano l'arresto del server. Sebbene possa sembrare improbabile, nel corso degli anni ho incontrato diversi amministratori a Tech•Ed, VMworld e altre conferenze che conoscono fin troppo bene il caso in cui un server viene spento accidentalmente proprio da un collega.

Con Hyper-V, è possibile creare un cluster host per diversi sistemi host e configurare tutte le macchine virtuali come risorse cluster che possono quindi passare a un altro sistema in caso di guasto di uno degli host. Allo stesso tempo la funzionalità di clustering multisito di Windows Server 2008 consentirà di creare un cluster distribuito geograficamente in modo che, se il datacenter primario non è più disponibile, sia possibile ripristinare le diverse macchine virtuali in un datacenter remoto.

Questa funzionalità è utile anche per proteggere tutte le filiali. Uno dei vantaggi del supporto Hyper-V per i tempi di inattività non programmati è l'indipendenza dal sistema operativo guest, ovvero la possibilità di estendere i suoi benefici di disponibilità elevata a macchine virtuali Linux e versioni precedenti di Windows Server per proteggere e ripristinare i sistemi in modo analogo.

Per quanto riguarda i tempi di inattività non programmati, è importante notare che il ripristino equivale all'arresto e al riavvio del sistema, ciò significa che tutte le informazioni di stato vanno perse. Questo potrebbe rappresentare un problema a seconda del carico di lavoro in esecuzione nella macchina virtuale. Per questo motivo è importante considerare il backup nel contesto della disponibilità elevata.

Hyper-V permette di effettuare il backup di ogni macchina virtuale o di utilizzare il servizio VSS per eseguire backup coerenti di tutte le macchine virtuali con supporto VSS mentre sono ancora in funzione. Con VSS, è possibile configurare l'esecuzione di backup a intervalli stabiliti senza impatto sulla disponibilità del carico di lavoro di produzione assicurando un piano di backup continuo per ripristinare facilmente lo stato nel caso di tempi di inattività non programmati. Per ulteriori informazioni sulle soluzioni di disponibilità elevata con Hyper-V, vedere l'articolo di Steven Ekren "Ottenere una disponibilità elevata per Hyper-V" in questo numero di TechNet Magazine (technet.microsoft.com/magazine/cc837977).

L'architettura di Hypervisor microkernelizzato è progettata per minimizzare la superficie di attacco e migliorare la sicurezza, soprattutto quando Hyper-V è implementato come ruolo di Server Core. Server Core è un'opzione di installazione di Windows Server 2008. L'Hypervisor non contiene nessun driver dei dispositivi o codice di terzi e favorisce così una base più stabile, agile e sicura per l'esecuzione di macchine virtuali. Hyper-V fornisce inoltre una robusta protezione basata sul ruolo con l'integrazione di Active Directory. Hyper-V consente alle macchine virtuali di sfruttare le funzionalità di protezione a livello di hardware, come il bit di disattivazione dell'esecuzione (NX), contribuendo ulteriormente ad aumentare la protezione delle macchine virtuali.

Hyper-V è stato sviluppato con Security Development Lifecycle, come tutti gli altri componenti di Windows Server; sono state inoltre eseguite una modellazione e un'analisi estese delle minacce renderwe Hyper-V una piattaforma di virtualizzazione estremamente protetta. Nell'implementazione di Hyper-V è necessario assicurarsi di seguire le procedure consigliate per l'implementazione di Windows Server 2008 e le procedure consigliate per Hyper-V. Le soluzioni Active Directory, antivirus e antimalware devono essere comprese nel processo. Inoltre, è necessario utilizzare le funzionalità di amministrazione delegata per assicurarsi di utilizzare correttamente i privilegi di accesso di amministratore per gli host di Hyper-V.

Facilità di gestione

È facile passare da un piccolo problema di espansione del server ad un'espansione incontrollata della macchina virtuale. Questo è un rischio dovuto alla semplicità di implementazione delle macchine virtuali. E con la crescente mobilità delle macchine virtuali, si ha anche la responsabilità di sapere esattamente dove vengono eseguite le diverse macchine virtuali, seguire i contesti di protezione, ecc.

Fortunatamente, con Hyper-V non è necessario creare un'infrastruttura di gestione separata per l'ambiente virtuale. Infatti, è possibile integrarlo con gli strumenti di gestione Microsoft, con System Center Virtual Machine Manager e Microsoft System Center Operations Manager, come pure con strumenti di gestione di terzi. Questo permette di gestire le risorse fisiche e virtuali da un'unica console. Per dettagli su System Center Virtual Machine Manager 2008, vedere l'articolo di Edwin Yuen "Gestisci i tuoi ambienti virtuali con VMM 2008" in questo numero di TechNet Magazine (technet.microsoft.com/magazine/cc836456). Allo stesso tempo il supporto di Windows PowerShell facilita l'automazione della attività.

Hyper-V fornisce anche alle macchine virtuali una capacità senza precedenti di utilizzare l'hardware disponibile. Poiché tutti i driver certificati dai laboratori WHQL (Windows Hardware Quality Lab) possono funzionare nella partizione padre, Hyper-V fornisce ampia compatibilità per i driver e le periferiche, rendendo più facile la gestione di driver diversi in esecuzione nell'ambiente.

Conclusioni

Come si è detto in precedenza, la gestione sarà un'area chiave dello sviluppo e della differenziazione. Si assisterà certamente ad una notevole attività in questo settore negli anni a venire. In generale, questo periodo è davvero interessante poiché, con la sua diffusione, la virtualizzazione sta assumendo un ruolo sempre più importante. Per provare Hyper-V o semplicemente per saperne di più, è possibile consultare microsoft. com/Hyper-V.

Rajiv Arunkundram è un Senior Product Manager presso Microsoft e si occupa della virtualizzazione dei server nella divisione Windows Server Marketing. La principale responsabilità di Rajiv è collaborare con clienti e partner per aiutarli a comprendere la strategia e le soluzioni di virtualizzazione di Microsoft da una prospettiva tecnica ed aziendale.