Virtualisation

Introduction de Hyper-V dans Windows Server 2008

Rajiv Arunkundram

 

En un coup d'œil :

  • Définition de la virtualisation
  • Trois architectures de virtualisation
  • Hyperviseur micro-kernelisé vs hyperviseur monolithique
  • Utilisation de Hyper-V

Sommaire

Le marché de la virtualisation de serveurs
Fonctionnement de la virtualisation de serveurs
Types de solutions de virtualisation
Hyperviseur Windows
Partition parente
Architecture de partage de périphérique
Composants d'intégration
Ensemble de fonctionnalités Hyper-V
Évolutivité
Haute disponibilité
Sécurité
Facilité de gestion
Conclusion

La virtualisation a donné lieu à de nombreuses discussions, dont la plupart était spécifique à la virtualisation de serveurs. Il s'agit d'une des tendances les plus passionnantes du secteur. Une tendance qui, d'ici les prochaines années, pourrait modifier la manière dont les systèmes informatiques sont déployés. La virtualisation de serveurs modifiera non seulement la manière dont les administrateurs et les architectes informatiques envisagent l'utilisation des serveurs et du système mais elle concernera également les processus et les outils utilisés pour gérer ce que deviendra certainement un environnement de plus en plus dynamique.

La virtualisation existe depuis un certain temps, mais la technologie est en constante évolution. En fait, le mot lui-même, en fonction des personnes, prend une signification différente. Cependant, au sens le plus large, la virtualisation consiste à faire abstraction d'une couche de la pile de technologie de la couche suivante, telle que le stockage des serveurs ou le système d'exploitation des applications. Faire abstraction des différentes couches permet ainsi d'activer la consolidation et améliorer la facilité de gestion.

En tant que concept, la virtualisation s'applique au stockage, aux réseaux, aux serveurs, aux applications et à l'accès. Lorsque vous regardez le stockage et les réseaux, l'objectif de virtualisation est d'agréger une série de périphériques différents si le pool total des ressources fonctionne et agit comme une entité unique. Par exemple, vous pouvez configurer une solution de stockage de 40 To au lieu d'un ensemble de 20 périphériques de stockage de 2 To chacun. Mais avec les autres composants, la virtualisation agit en sens inverse. Elle vous aide à transformer un système unique pour qu'il apparaisse comme s'il existait plusieurs systèmes. L'exemple le plus commun est la virtualisation de serveurs, où vous hébergez plusieurs environnements et instances du système d'exploitation sur un serveur unique.

Microsoft a approché la virtualisation à différents niveaux, s'étendant du bureau au centre de données avec des solutions pour la virtualisation de serveurs, la virtualisation d'applications, la virtualisation de présentation et la virtualisation de bureau. Le thread commun à tous ces niveaux est la gestion avec Microsoft System Center. Pour cet article, je me concentre sur le composant de virtualisation de serveurs et surtout, sur la manière dont Hyper-V, une fonctionnalité clé de Windows Server 2008, s'intègre à un centre de données dynamique.

Le marché de la virtualisation de serveurs

Tout d'abord, je pense qu'il serait utile de regarder ce qui existe dans l'environnement d'aujourd'hui et dans quelle direction va le marché. En fonction de ce que vous lisez, certains analystes estiment que 5 à 9 % de tous les serveurs physiques actuellement vendus sont utilisés en tant qu'hôtes de virtualisation. Vous pourriez considérer qu'il s'agit d'une grande partie des systèmes dans un marché où plus de neuf millions de serveurs physiques sortent chaque année. Mais une chose est sûre : Les opportunités sur le marché sont incroyables à mesure que les clients sont de plus en plus nombreux à se familiariser avec la virtualisation et à souhaiter l'utiliser.

Il est important de noter où la virtualisation est adoptée. Les clients d'entreprise ont certainement été les premiers en matière de testeurs et de premiers convertis. Cependant, les petites et moyennes entreprises déploient également la virtualisation. L'adoption de la virtualisation touche les différents types de charges de travail, des applications et de la gestion professionnelles au Web et aux messages électroniques.

Mais alors, pourquoi autant de bruit autour de la virtualisation ? Il existe quelques facteurs et notamment, le calendrier. Quelques facteurs clés du secteur ont été simultanés, aidant à pousser l'adoption de la virtualisation. Ces facteurs incluent le passage à l'informatique 64 bits, aux processeurs multicœurs et même au lecteur d'informatique durable pour améliorer l'utilisation du système.

Les systèmes deviennent de plus en plus importants et ils nécessitent une technologie telle que la virtualisation pour tirer pleinement partie de la puissance du système. Mais bien que cette technologie fondamentale (et la loi de Moore) ait été constamment en tête en termes de production de capacités de traitement supplémentaires utilisables par les systèmes, nous sommes désormais également conscients de l'impact environnemental, des exigences de puissance et des coûts de refroidissement.

Tous ces facteurs, en plus de la justification facile du retour sur investissement lors de l'adoption de la virtualisation, devraient accélérer l'adoption de la virtualisation dans les petites et grandes entreprises. Et nous, professionnels informatiques, pouvons nous attendre à ce que les principaux acteurs continuent à investir dans cette technologie dans les prochaines années et à améliorer les fonctions et fonctionnalités.

Fonctionnement de la virtualisation de serveurs

En terme général, la virtualisation de serveurs vous permet de prendre un périphérique physique unique et d'installer (et d'exécuter simultanément) deux environnements de systèmes d'exploitation ou plus qui sont potentiellement différents et ont des identités, des piles d'applications différentes, et ainsi de suite. Hyper-V est une technologie de virtualisation basée sur l'hyperviseur 64 bits de nouvelle génération qui propose des capacités de plate-forme fiables et évolutives. Avec System Center, cette technologie propose un ensemble unique d'outils de gestion intégrés pour les ressources physiques et virtuelles.

Tout ceci travaille à réduire les coûts, améliorer l'utilisation, optimiser l'infrastructure et autoriser l'entreprise à configurer de nouveaux serveurs rapidement. Pour vous aider à mieux comprendre l'architecture Hyper-V, je vais d'abord jeter un coup d'œil aux différents types de solutions de virtualisation.

Types de solutions de virtualisation

Il y a essentiellement trois architectures générales utilisées pour la virtualisation de serveurs, comme illustré à la figure 1. Les différences fondamentales résident dans la relation entre la couche de virtualisation et le matériel physique. Par couche de virtualisation, j'entends la couche logicielle appelée le Moniteur d'ordinateur virtuel (à ne pas confondre avec Virtual Machine Manager). C'est cette couche qui fournit la capacité de créer plusieurs instances isolées qui partagent les mêmes ressources matérielles sous-jacentes.

fig01.gif

Figure 1 Les trois architectures de virtualisation (cliquez sur l'image pour l'agrandir)

L'architecture de moniteur d'ordinateur virtuel de type 2 est illustrée par les ordinateurs virtuels Java. Ici, l'objectif de la virtualisation consiste à créer un environnement d'exécution au sein duquel le processus peut exécuter un ensemble d'instructions sans compter sur le système hôte. Dans ce cas, l'isolation est pour différents processus et elle autorise une application unique à s'exécuter sur différents systèmes d'exploitation sans devoir s'inquiéter des dépendances des systèmes d'exploitation. La virtualisation de serveurs n'appartient pas à cette catégorie.

Le moniteur d'ordinateur virtuel de type 1 et les moniteurs d'ordinateur virtuel hybrides sont les deux approches les plus utilisées à l'heure actuelle. Le moniteur d'ordinateur virtuel hybride représente une étape où le moniteur d'ordinateur virtuel s'exécute à côté du système d'exploitation hôte et permet de créer des ordinateurs virtuels. Exemples de moniteur d'ordinateur virtuel hybride : Microsoft Virtual Server, Microsoft Virtual PC, VMware Workstation et VMware Player. Notez que bien que ces types de solutions soient excellents pour un scénario client où vous n'exécutez que des ordinateurs virtuels de temps en temps, les moniteurs d'ordinateurs virtuels ajoutent des frais considérables et ne sont donc pas adaptés aux charges de travail intensives en ressources.

Dans une architecture de moniteur d'ordinateur virtuel de type 1, la couche de moniteur d'ordinateur virtuel s'exécute directement sur le matériel. Ceci est souvent appelé la couche d'hyperviseur. Cette architecture a été conçue au début des années 60 par IBM pour les systèmes de macroordinateur et a été récemment mise à disposition sur les plates-formes x86/x64 avec une gamme de solutions, y compris Windows Server 2008 Hyper-V.

Il existe des solutions disponibles sur lesquelles l'hyperviseur est une partie intégrée au micrologiciel. Cependant, il s'agit simplement d'une option de package et elle ne modifie pas réellement la technologie sous-jacente.

Si vous regardez les moniteurs d'ordinateurs virtuels de type 1, vous verrez qu'il y a deux façons principales d'organiser les solutions d'hyperviseur : micro-kernelisé vs monolithique. Ces deux approches, comme illustré à la figure 2, sont les véritables moniteurs d'ordinateurs virtuels de type 1. Ils ont l'hyperviseur directement installé sur le matériel physique.

fig02.gif

Figure 2 Les deux façons d'organiser les solutions d'hyperviseur (cliquez sur l'image pour l'agrandir)

L'approche d'hyperviseur monolithique héberge l'hyperviseur/le moniteur d'ordinateur virtuel dans une couche unique qui comprend la plupart des composants requis, comme le noyau, les pilotes de périphérique et la pile E/S. Il s'agit de l'approche utilisée par les solutions telles que VMware ESX et les systèmes de macroordinateurs traditionnels.

L'approche micro-kernelisée utilise un hyperviseur spécialisé très léger qui exécute uniquement les tâches fondamentales pour s'assurer de l'isolation de la partition et la gestion de la mémoire. Cette couche n'inclut ni la pile E/S ni les pilotes de périphérique. Il s'agit de l'approche utilisée par Hyper-V. Dans cette architecture, la pile de virtualisation et les pilotes de périphériques spécifiques au matériel sont situés dans une partition spécialisée appelé la partition parente.

Hyperviseur Windows

Pour s'assurer qu'il existe une séparation importante entre les divers systèmes d'exploitation, il suffit de créer des processeurs virtuels, une mémoire, des minuteurs et des contrôleurs d'interruptions. Les systèmes d'exploitation utilisent ces ressources virtuelles comme ils utiliseraient leurs homologues physiques.

L'hyperviseur Windows, faisant partie d'Hyper-V, exécute les tâches suivantes :

  • Il crée des partitions logiques.
  • Il gère la planification de la mémoire et du processeur pour les systèmes d'exploitation invité.
  • Il fournit des mécanismes afin de virtualiser les entrées/sorties et communiquer entre les partitions.
  • Il applique les règles d'accès à la mémoire.
  • Il applique la stratégie pour l'utilisation du processeur.
  • Il expose une interface de programmation simple connue comme l'hyperappel.

Étant donné qu'il utilise l'approche micro-kernélisée, l'hyperviseur Windows est assez petit (d'une taille inférieure à 1 Mo). Cette empreinte minimale aide à améliorer la sécurité globale du système.

Pour exécuter Hyper-V, vous devez impérativement disposer d'un système x64 avec les technologies Intel VT ou AMD-V. La technologie x64 permet d'accéder à un espace d'adresses plus important et prend en charge les systèmes avec plus de mémoire, permettant ainsi un plus grand nombre d'ordinateurs virtuels sur un système hôte unique. Intel VT et AMD-V sont des solutions de virtualisation assistées par matériel qui fournissent une couche ultra-privilégiée dans l'architecture en anneau permettant de garder l'environnement d'exécution de l'hyperviseur séparé du reste du système. Ils permettent également à Hyper-V d'exécuter un système d'exploitation invité sans aucune baisse des performances d'émulation significatives.

Partition parente

Hyper-V se compose d'une partition parente, qui est essentiellement un ordinateur virtuel avec un accès privilégié ou spécial. Il s'agit du seul ordinateur virtuel avec un accès direct aux ressources matérielles. Tous les autres ordinateurs virtuels, connus comme des partitions invitées, passent par la partition parente pour accéder à leur périphérique.

L'existence de la partition parente est assez transparente. Lorsque vous commencez à installer Hyper-V, vous devez d'abord installer Windows Server 2008 Édition x64 sur le système physique. Vous devez ensuite atteindre le gestionnaire de serveur, activer le rôle Hyper-V et redémarrer le système. Une fois le système redémarré, l'hyperviseur Windows est chargé, puis le reste de la pile est converti pour devenir la partition parente.

La partition parente dispose du clavier, de la souris, de l'affichage vidéo et des autres périphériques associés au serveur hôte. Elle n'a pas le contrôle direct sur les minuteurs ou les contrôleurs d'interruptions que l'hyperviseur utilise.

La partition parente contient un fournisseur de Windows Management Instrumentation (WMI) pour faciliter la gestion de tous les aspects de l'environnement virtualisé, ainsi qu'une pile de virtualisation qui exécute les tâches associées au matériel pour les partitions enfants. De plus, tout pilote de fabricant de matériel nécessaire pour le matériel système hôte est contenu dans la partition parente et tout pilote créé pour les éditions x64 de Windows Server 2008 fonctionneront également dans la partition parente.

Architecture de partage de périphérique

Un des composants architecturaux innovants d'Hyper-V est la nouvelle architecture de partage de périphérique qui prend en charge les périphériques émulés et synthétiques dans chaque système d'exploitation invité. L'émulation de périphérique est utile pour prendre en charge les systèmes d'exploitation plus anciens avec des pilotes de périphérique conçus pour les générations de matériel plus anciennes. Par exemple, Hyper-V comprend une émulation de la carte réseau Intel 21140, qui était appelée carte réseau DEC 21140 lorsque la plupart des systèmes d'exploitation les plus anciens étaient livrés.

Généralement, l'émulation de périphérique est lente, elle n'évolue pas facilement et ne se déploie pas bien. Mais l'émulation est toujours importante parce qu'elle vous permet d'exécuter la plupart des systèmes d'exploitation x86 sur Hyper-V. Étant donné que la virtualisation est désormais passée d'une technologie de niche pour les tests et le développement à une technologie essentielle pour les environnements de production, les utilisateurs nécessitent de meilleures performances afin d'exécuter des charges de travail plus importantes. Les périphériques émulés ne satisfont plus ces demandes croissantes.

Une autre solution consiste à utiliser les périphériques synthétiques Hyper-V. Les périphériques synthétiques sont des périphériques virtuels directement mappés aux périphériques physiques. Contrairement aux périphériques émulés, les périphériques synthétiques n'émulent pas le matériel hérité. Avec le modèle de partage de matériel Hyper-V, les systèmes d'exploitation invités pris en charge peuvent interagir directement avec les périphériques synthétiques qui peuvent ne pas avoir d'homologues physiques. Ces systèmes d'exploitation utilisent les clients de service virtuel (VSC), qui servent de pilotes de périphérique dans le système d'exploitation invité.

Au lieu d'accéder directement au matériel physique, les VSC utilise le VMBus, qui est un bus en mémoire ultra-rapide, pour accéder aux fournisseurs de service virtuel (VSP) dans la partition parente. Les VSP de partition parente gèrent alors l'accès au matériel physique sous-jacent, comme illustré à la figure 3. Un avantage principal des périphériques synthétiques réside dans le fait que les performances des périphériques synthétiques sur le VMBus sont plus proches des performances des périphériques matériels non virtualisés.

fig03.gif

Figure 3 VSC utilise le VMBus pour accéder à VSP, qui gère alors l'accès au matériel physique sous-jacent (cliquez sur l'image pour l'agrandir)

Composants d'intégration

Hyper-V a été créé pour fournir des limites nettes entre les diverses instances s'exécutant sur un ordinateur. Pour activer l'interaction entre le système d'exploitation invité et le système d'exploitation hôte et fournir une fonctionnalité supplémentaire aux systèmes d’exploitation invités pris en charge, Hyper-V fournit des composants d'intégration.

Les composants d'intégration Hyper-V prennent en charge les fonctionnalités suivantes :

  • Synchronisation temporelle
  • Service de cliché instantané de volume
  • Fonctionnalité d'interrogation
  • Arrêt de l'invité
  • Échange de paires clé-valeur (utilisé pour accéder au registre d'un système d'exploitation invité)
  • Identification du système d'exploitation

Ensemble de fonctionnalités Hyper-V

Il va sans dire que plus la plate-forme de virtualisation agit comme le serveur physique, plus il devient facile pour les entreprises de déployer et compter sur les charges de travail virtuelles. À mon avis, il existe quatre zones clés sous lesquelles vous pouvez afficher les différentes fonctionnalités de la plate-forme de virtualisation.

Aujourd'hui, la plupart des solutions de virtualisation basées sur l'hyperviseur sont proches les unes des autres en termes de fonctions et fonctionnalités. À mesure que la technologie évolue, le coût total de possession (TCO) et la simplicité d'utilisation deviendront les facteurs de distinction clés. Et les solutions de gestion verront des investissements et un développement continus pour permettre d'atteindre un environnement informatique dynamique, dans lequel l'infrastructure est suffisamment flexible pour s'adapter aux besoins de l'entreprise. Quant aux modèles et stratégies, ils permettront d'aider l'automatisation et la gestion.

Évolutivité

À l'aide de l'architecture d'hyperviseur micronoyau, Hyper-V a une très faible surcharge du processeur, laissant assez d'espace pour virtualiser les charges de travail. En permettant aux ordinateurs virtuels de profiter de fonctionnalités et de matériel puissants, comme la technologie multicœurs, l'accès au disque amélioré et une mémoire accrue, Hyper-V améliore l'évolutivité et les performances de la plate-forme de virtualisation.

Associé au reste des possibilités de Windows Server 2008, Hyper-V permet de consolider la plupart des charges de travail (y compris les charges de travail 32 bits et 64 bits) sur un système unique. Et il peut aider à équilibrer l'adoption de la technologie 64 bits avec une prise en charge continue pour les charges de travail 32 bits déjà utilisé dans votre environnement.

Le fait que Hyper-V nécessite un système hôte 64 bits avec la virtualisation assistée par matériel permet d'assurer que le système hôte aura accès à un grand pool de ressources mémoire. Hyper-V peut prendre en charge jusqu'à 1 To de mémoire sur l'hôte, avec jusqu'à 64 Go de mémoire par ordinateur virtuel. Ceci est primordial pour ceux qui souhaitent virtualiser des charges de travail gourmandes en mémoire, telles qu’Exchange Server et SQL Server.

Hyper-V prend en charge également jusqu'à 16 processeurs logiques sur le système hôte, rendant Hyper-V évolutif à la plupart des systèmes deux ou quatre prises avec plusieurs noyaux. Vous pouvez également créer un ordinateur virtuel avec jusqu'à quatre processeurs virtuels pour prendre en charge les charges de travail qui nécessitent ou profitent de capacités multiprocesseur.

Le fait de consolider les serveurs via Hyper-V permet également d'activer ces serveurs pour utiliser la prise en charge de mise en réseau robuste, y compris les stratégies VLAN, Traduction d'adresses réseau (NAT) et Protection d’accès réseau et Protection de l'accès réseau (NAP) (quarantaine). Et en tant que fonctionnalité Windows Server 2008, Hyper-V fonctionne bien avec les autres fonctionnalités Windows Server, telles que BitLocker et Windows PowerShell.

Haute disponibilité

La haute disponibilité est un scénario dans lequel Hyper-V et les possibilités de clustering hôte fonctionnent ensemble pour aider la continuité de l'activité d'adresse et les besoins de récupération après incident. La continuité de l'activité est la capacité de réduire les périodes d'indisponibilité prévues et non prévues. Ces périodes incluent le temps perdu en travaux de routine, tels que la maintenance et la sauvegarde, de même que les interruptions de courant imprévues.

La récupération après incident est un élément important de la continuité de l'activité. Les catastrophes naturelles, les attaques malveillantes et les problèmes de configuration, même simples, tels que les conflits de logiciel, peuvent paralyser des services et des applications jusqu'à ce que les administrateurs résolvent les problèmes et restaurent les données. Une entreprise fiable et une stratégie de récupération après incident permettre une perte de données minimale et des fonctionnalités de gestion distantes puissantes.

Lorsque vous observez la haute disponibilité, vous devez considérer trois catégories différentes : les périodes d'indisponibilité prévues, les périodes d'indisponibilité non prévues et les sauvegardes. La protection des périodes d'indisponibilité prévues est généralement nécessaire pour aider à déplacer les ordinateurs virtuels du système hôte pour que vous puissiez exécuter la maintenance matérielle ou appliquer des correctifs au système hôte ou à la plate-forme de virtualisation (pouvant nécessiter un éventuel redémarrage).

La plupart des organisations planifient les périodes de maintenance. Ce que vous souhaitez vraiment faire ici, c'est minimiser ou éliminer la période dans laquelle les ordinateurs virtuels ne seront pas disponibles tandis que le système hôte est arrêté pour maintenance. Avec la fonctionnalité de migration rapide, vous pouvez migrer rapidement un ordinateur virtuel en cours d'exécution d'un nœud physique vers un autre en quelques secondes. Ainsi, vous pouvez conserver vos ordinateurs virtuels disponibles pour la production tout en effectuant la maintenance sur l'hôte d'origine. Une fois la maintenance effectuée, vous pouvez utiliser la migration rapide pour faire revenir les ordinateurs virtuels au système hôte d'origine.

Les périodes d'indisponibilité non prévues correspondent aux périodes d'indisponibilité imprévues. En réalité, ceci peut être catastrophique. Mais ceci peut être dû au fait qu'une personne a tout simplement débranché accidentellement un cordon d'alimentation et forcé l'interruption d'un serveur. Bien que cette probabilité soit infime, au cours des années j'ai rencontré plusieurs administrateurs lors de conférences (dont Tech•Ed, VMworld pour n'en citer que quelques-unes) qui avaient des histoires relatives à des serveurs accidentellement éteints par un collègue.

Avec Hyper-V, vous pouvez configurer un cluster hôte pour les différents systèmes hôte et configurer tous les ordinateurs virtuels en tant que ressources de cluster pouvant effectuer alors le basculement sur un système différent au cas où un des hôtes échoue. Pendant ce temps, la fonctionnalité de clustering multi-site Windows Server 2008 permet de configurer un cluster géographiquement dispersé. Ainsi, si votre principal centre de données échoue, vous pouvez récupérer les différents ordinateurs virtuels vers un centre de données distant.

Ceci est également pratique pour protéger toutes vos succursales. Un des avantages de la prise en charge des périodes d'indisponibilité non prévues avec Hyper-V réside dans le fait qu'elle est agnostique au système d'exploitation invité, ce qui signifie qu'elle peut étendre ses avantages haute disponibilité aux ordinateurs virtuels Linux et aux versions antérieures de Windows Server pour protéger et récupérer ces systèmes.

À mesure que vous observez les périodes d'indisponibilité non prévues, il est important de noter que la récupération est équivalente à la mise hors tension du système et au redémarrage, ce qui signifie que vous aurez perdu toutes les informations d'état. Ceci peut devenir, ou non, un problème en fonction de la charge de travail que vous exécutez sur l'ordinateur virtuel. C'est pourquoi il est important d'observer la sauvegarde dans le contexte de haute disponibilité.

Hyper-V permet d'effectuer des sauvegardes de chaque ordinateur virtuel ou d'utiliser chaque VSS pour effectuer des sauvegardes cohérentes de tous les ordinateurs virtuels VSS lors de leur exécution. Avec VSS, vous pouvez configurer des sauvegardes pour qu'elles surviennent aux intervalles choisis sans avoir un impact sur la disponibilité de charge de travail de production tout en vous assurant que vous disposez d'une planification de sauvegarde en continu pouvant aider à récupérer aisément l'état en cas de périodes d'indisponibilité non prévues. Pour plus d'informations sur les solutions de haute disponibilité avec Hyper-V, voir l'article « Haute disponibilité pour Hyper-V » par Steven Ekren dans ce numéro de TechNet Magazine (technet.microsoft.com/magazine/cc837977).

L'architecture d'hyperviseur micro-kernélisée est conçue pour réduire la surface d'attaque et améliorer la sécurité, surtout lorsque Hyper-V est implémenté en tant que rôle Server Core. Server Core est une option d'installation de Windows Server 2008. L'hyperviseur ne contient pas de code tiers ou de pilotes de périphérique, promouvant une base plus stable, légère et sûre pour les ordinateurs virtuels en cours d'exécution. Hyper-V fournit aussi une sécurité puissante basée sur les rôles avec l'intégration d'Active Directory. Et Hyper-V permet aux ordinateurs virtuels de profiter des fonctionnalités de sécurité au niveau matériel, tels que execute disable (NX) bit, permettant d'augmenter encore un peu plus la sécurité des ordinateurs virtuels.

Hyper-V a traversé le cycle de développement de sécurité (SDL) comme le reste des composants Windows Server et l'analyse et la modélisation des menaces ont été effectués pour garantir que Hyper-V soit une plate-forme de virtualisation extrêmement sécurisée. À mesure que vous déployez Hyper-V, assurez-vous de suivre les méthodes recommandées pour déployer Windows Server 2008 ainsi que les méthodes recommandées pour Hyper-V. Incluez Active Directory ainsi que les solutions d'antivirus et anti-programme malveillant à votre planification. Et utilisez les possibilités d'administration déléguée pour vous assurer d'utiliser les privilèges d'accès administratifs appropriés pour les hôtes Hyper-V.

Facilité de gestion

Il est facile de passer d'un petit problème d'extension de serveur à une extension d'ordinateurs virtuels massive. Il existe un risque en raison de la facilité du déploiement sur les ordinateurs virtuels. Et avec la mobilité accrue des ordinateurs virtuels, vous avez également la responsabilité supplémentaire de savoir où s'exécutent les différents ordinateurs virtuels, de suivre leurs contextes de sécurité, et ainsi de suite.

Heureusement avec Hyper-V, vous ne devez pas créer une infrastructure de gestion séparée pour votre environnement virtuel. Elle s'intègre aux outils de gestion Microsoft, à System Center Virtual Machine Manager et à Microsoft System Center Operations Manager, ainsi qu'aux outils de gestion de parties tierces. Ceci vous permet de gérer vos ressources physiques et virtuelles à partir d'une seule console. Pour plus de détails sur System Center Virtual Machine Manager 2008, voir l'article d'Edwin Yuen, « Gérez vos environnements virtuels avec VMM 2008 » dans ce numéro de TechNet Magazine (technet.microsoft.com/magazine/cc836456). Pendant ce temps, la prise en charge de Windows PowerShell facilite l'automation des tâches.

Hyper-V fournit également des ordinateurs virtuels avec une capacité sans précédent pour utiliser le matériel disponible. Étant donné que tous les pilotes certifiés WHQL (Windows Hardware Quality Lab) peuvent s'exécuter dans la partition parente, Hyper-V fournit une compatibilité accrue pour les pilotes et périphériques, facilitant la gestion des différents pilotes qui s'exécutent dans votre environnement.

Conclusion

Comme je l'ai mentionné précédemment, la gestion va devenir un domaine clé de développement et de différenciation. Vous verrez certainement une activité accrue dans ce domaine dans les années à venir. En général, cette période va réellement devenir passionnante à mesure que la virtualisation va devenir standard. Si vous n'avez pas encore essayé Hyper-V ou si vous souhaitez des informations supplémentaires, visitez microsoft.com/Hyper-V.

Rajiv Arunkundram est responsable de produit senior chez Microsoft et se concentre sur la virtualisation de serveurs dans la division Marketing de Windows Server. La principale responsabilité de Rajiv consiste à travailler avec les clients et les partenaires pour les aider à comprendre la stratégie de virtualisation et les solutions de Microsoft d'un point de vue technique et commercial.