Virtualisierung

Einführung in Hyper-V in Windows Server 2008

Rajiv Arunkundram

 

Auf einen Blick:

  • Was ist Virtualisierung?
  • Drei Virtualisierungsarchitekturen
  • Mikrokernel-Hypervisor oder monolithischer Hypervisor
  • Vorgänge bei Hyper-V

Inhalt

Der Markt für die Servervirtualisierung
Funktionsweise der Servervirtualisierung
Arten von Virtualisierungslösungen
Windows Hypervisor
Die übergeordnete Partition
Gerätefreigabearchitektur
Integrationskomponenten
Der Funktionsumfang von Hyper-V
Skalierbarkeit
Hohe Verfügbarkeit
Sicherheit
Verwaltbarkeit
Zusammenfassung

In letzter Zeit wird viel über die Virtualisierung gesprochen, wobei es meist um die Servervirtualisierung geht. Dies ist einer der aufregendsten Trends in der Branche, und noch dazu ein Trend, der das Potenzial hat, das Paradigma über die Bereitstellung von IT-Systemen in den kommenden Jahren zu verändern. Aber die Servervirtualisierung wird nicht nur die Denkweise von IT-Administratoren und -Architekten zu Servern und zur Systemnutzung ändern, sondern sie wird sich auch auf die Prozesse und Tools auswirken, mit denen eine immer dynamischere Umgebung verwaltet wird.

Eigentlich ist die Virtualisierung gar nicht mehr so neu, aber die Technologie entwickelt sich immer noch weiter. Selbst der Begriff an sich hat für unterschiedliche Personen immer noch eine unterschiedliche Bedeutung. Ganz allgemein wird bei der Virtualisierung eine Schicht des Technologiestapels von der nächsten Schicht abstrahiert, beispielsweise der Speicher vom Server oder das Betriebssystem von den Anwendungen. Die Abstraktion der verschiedenen Schichten ermöglicht wiederum die Konsolidierung und eine bessere Verwaltbarkeit.

Das Konzept der Virtualisierung greift für Speicher, Netzwerke, Server, Anwendungen und Zugriff. Bei Speichern und Netzwerken besteht das Ziel der Virtualisierung darin, eine Reihe unterschiedlicher Geräte zusammenzufassen, sodass der gesamte Ressourcenpool als eine Einheit erscheint und agiert. So können Sie beispielsweise eine 40-TB-Speicherlösung anstelle einer Gruppe von zwanzig Speichergeräten mit je 2 TB konfigurieren. Bei anderen Komponenten verhält sich die Virtualisierung dagegen genau umgekehrt: aus einem einzelnen System werden scheinbar mehrere Systeme gebildet. Das häufigste Beispiel hierfür ist die Servervirtualisierung, bei der mehrere Betriebssysteminstanzen und Umgebungen auf einem einzigen Server gehostet werden.

Microsoft hat die Virtualisierung auf mehreren Ebenen in Angriff genommen und mit Lösungen für Servervirtualisierung, Anwendungsvirtualisierung, Präsentationsvirtualisierung und Desktopvirtualisierung vom Desktop auf das Datencenter erweitert. Der rote Faden ist hierbei die Verwaltung mit Microsoft System Center. In diesem Artikel konzentriere ich mich auf die Servervirtualisierungskomponente und speziell darauf, wie Hyper-V, eines der wichtigsten Features von Windows Server 2008, in die Gleichung für ein dynamisches Datencenter passt.

Der Markt für die Servervirtualisierung

Zuerst sollten wir die derzeitigen Gegebenheiten betrachten und den allgemeinen Markttrend untersuchen. In Abhängigkeit von den Forschungsergebnissen, die Sie lesen, schätzen einige Analytiker, dass 5 % bis 9 % aller derzeit verkauften physischen Server als Virtualisierungshosts verwendet werden. Dies erscheint Ihnen vielleicht als großer Anteil an Systemen in einem Markt, in dem mehr als neun Millionen physische Server pro Jahr ausgeliefert werden. Aber eines ist sicher: Es gibt immer noch eine riesige Marktchancen, da immer mehr Kunden sich mit der Virtualisierung vertraut machen und ihren Einsatz planen.

Beachten Sie die Stellen, an denen die Virtualisierung auf Akzeptanz stößt. Unternehmenskunden haben sicherlich eine Vorreiterrolle gespielt, weil sie als erste die Virtualisierung testeten und einsetzen. Es gibt jedoch auch kleine und mittlere Unternehmen, die die Virtualisierung implementieren. Die Akzeptanz der Virtualisierung erstreckt sich über verschiedene Arten von Arbeitsauslastungen, von Geschäftsanwendungen über die Verwaltung bis hin zum Web und zu E-Mails.

Warum sorgt die Virtualisierung also jetzt für so viel Aufsehen? Dabei spielen einige Faktoren eine Rolle, nicht zuletzt der richtige Zeitpunkt. Einige wichtige Branchenfaktoren sind gleichzeitig aufgetreten, was die Akzeptanz der Virtualisierung kräftig förderte. Diese Branchenfaktoren umfassen die Umstellung auf 64-Bit-Computing, Mehrkernprozessoren und sogar den Wunsch nach nachhaltiger Computernutzung, um die Systemnutzung zu verbessern.

Systeme werden immer größer, und sie erfordern eine Technologie wie die Virtualisierung, um ihre Leistungsfähigkeit voll ausspielen zu können. Aber auch wenn es nicht zu leugnen ist, dass die Computerkerntechnologie (und das Mooresche Gesetz) stets die Nase vorn hatten, weil stets mehr Verarbeitungskapazität bereitgestellt wurde als die Systeme nutzen konnten, sind wir uns nun auch der Umweltauswirkungen, des Energieverbrauchs und der Kühlkosten bewusster.

Alle diese Faktoren und dazu das einfache Argument der Rendite bei Einsatz der Virtualisierung sollten zusammengenommen die Einführung der Virtualisierung in großen und kleinen Unternehmen gleichermaßen beschleunigen. Wir, die IT-Experten, können davon ausgehen, dass alle Hauptbeteiligten in den kommenden Jahren weiter in diese Technologie investieren werden, um die Features noch weiter zu optimieren.

Funktionsweise der Servervirtualisierung

Bei der Servervirtualisierung werden im Grunde auf einem einzelnen physischen Gerät zwei oder mehr Betriebssystemumgebungen installiert (und gleichzeitig ausgeführt). Diese Umgebungen können voneinander abweichen und unterschiedliche Identitäten, Anwendungsstapel usw. nutzen. Hyper-V gehört zu den Virtualisierungstechnologien der nächsten Generation, die auf einem 64-Bit-Hypervisor beruhen und dabei zuverlässige und skalierbare Plattformfunktionen bieten. Gemeinsam mit System Center bietet Hyper-V eine einzelne Gruppe integrierter Verwaltungstools sowohl für physische als auch für virtuelle Ressourcen.

Alle diese Punkte tragen dazu bei, die Kosten zu senken, die Nutzung zu verbessern, die Infrastruktur zu optimieren und die Bereitstellung neuer Server zu beschleunigen. Um Ihnen einen Einblick in den Aufbau von Hyper-V zu geben, betrachten wir zunächst die verschiedenen Arten von Virtualisierungslösungen.

Arten von Virtualisierungslösungen

Bei der Servervirtualisierung kommen im Prinzip drei allgemeine Architekturen zum Einsatz, wie in Abbildung 1 gezeigt. Die grundlegenden Unterschiede hängen mit der Beziehung zwischen der Virtualisierungsschicht und der physischen Hardware zusammen. Die Virtualisierungsschicht ist die Softwareschicht, die als VMM bezeichnet wird (Virtual Machine Monitor, nicht zu verwechseln mit Virtual Machine Manager). Diese Schicht bietet die Möglichkeit, mehrere isolierte Instanzen zu erstellen, die dieselben zugrunde liegenden Hardwareressourcen nutzen.

fig01.gif

Abbildung 1 Die drei Architekturen der Virtualisierung (zum Vergrößern auf das Bild klicken)

Die Typ-2-VMM-Architektur findet man beispielsweise bei JVMs (Java Virtual Machine). Hier besteht das Ziel der Virtualisierung darin, eine Laufzeitumgebung zu erstellen, in der der Prozess eine Reihe von Anweisungen ausführen kann, ohne auf das Hostsystem zurückgreifen zu müssen. In diesem Fall wirkt sich die Isolierung auf die verschiedenen Prozesse aus, und eine einzelne Anwendung kann auf verschiedenen Betriebssystemen ausgeführt werden, ohne dass Betriebssystemabhängigkeiten zu Schwierigkeiten führen. Die Servervirtualisierung fällt nicht in diese Kategorie.

Typ-1-VMMs und Hybrid-VMMs sind heutzutage am weitesten verbreitet. Der Hybrid-VMM ist eine Phase, in der der VMM parallel zum Hostbetriebssystem ausgeführt wird und dazu beiträgt, virtuelle Computer darauf aufzubauen. Hybrid-VMMs sind beispielsweise Microsoft Virtual Server, Microsoft Virtual PC, VMware Workstation und VMware Player. Diese Arten von Lösungen eignen sich hervorragend für ein Clientszenario, in dem virtuelle Computer nur zeitweise ausgeführt werden. Die VMMs sorgen für eine erhebliche Mehrbelastung und sind daher für ressourcenintensive Arbeitsauslastungen nicht geeignet.

In einer Typ-1-VMM-Architektur wird die VMM-Schicht direkt auf der Hardware ausgeführt. Dies wird häufig als Hypervisorschicht bezeichnet. Diese Architektur wurde ursprünglich in den 1960er Jahren von IBM für Mainframesysteme entwickelt und wurde vor kurzem für x86/x64-Plattformen mit verschiedenen Lösungen zur Verfügung gestellt, unter anderem mit Windows Server 2008 Hyper-V.

Es sind Lösungen erhältlich, bei denen Hypervisor in die Firmware eingebettet ist. Dies ist jedoch nur eine Verpackungsoption, die die zugrunde liegende Technologie nicht im eigentlichen Sinn ändert.

Bei Typ-1-VMMs gibt es im Grunde zwei Hauptmöglichkeiten zum Aufbauen der Hypervisorlösungen: als Mikrokernel-Hypervisor oder als monolithischer Hypervisor. Wie aus Abbildung 2 hervorgeht, sind beide Vorgehensweisen echte Typ-1-VMMs, bei denen der Hypervisor direkt auf der physischen Hardware installiert ist.

fig02.gif

Abbildung 2 Die beiden Möglichkeiten zum Aufbauen von Hypervisorlösungen (zum Vergrößern auf das Bild klicken)

Beim monolithischen Hypervisor wird der Hypervisor/der VMM in einer einzigen Schicht gehostet, die auch die meisten erforderlichen Komponenten enthält, z. B. den Kernel, die Gerätetreiber und den E/A-Stapel. Dieses Verfahren kommt bei Lösungen wie VMware ESX und bei traditionellen Mainframesystemen zum Einsatz.

Der Mikrokernel-Hypervisor umfasst einen sehr dünnen, spezialisierten Hypervisor, der ausschließlich die zentralen Aufgaben der Partitionsisolierung und der Speicherverwaltung ausführt. Diese Schicht enthält keinen E/A-Stapel und keine Gerätetreiber. Diese Methode wird bei Hyper-V verwendet. In dieser Architektur befinden sich der Virtualisierungsstapel und die hardwarespezifischen Gerätetreiber in einer speziellen Partition, die als übergeordnete Partition bezeichnet wird.

Windows Hypervisor

Um die gründliche Trennung zwischen mehreren Betriebssystemen sicherzustellen, werden virtuelle Prozessoren, Speicher, Zeitgeber und Interruptcontroller erstellt. Die Betriebssysteme nutzen diese virtuellen Ressourcen auf dieselbe Weise wie ihre physischen Gegenstücke.

Windows Hypervisor, Teil von Hyper-V, führt die folgenden Aufgaben aus:

  • Erstellen logischer Partitionen.
  • Verwalten der Speicher- und Prozessorplanung für Gastbetriebssysteme.
  • Bereitstellen von Methoden zur Virtualisierung der Ein- und Ausgabe und zur Kommunikation zwischen den Partitionen.
  • Durchsetzen der Speicherzugriffsregeln.
  • Durchsetzen der Richtlinie für die CPU-Nutzung.
  • Bereitstellen einer einfachen programmgesteuerten Schnittstelle (auch als Hypercalls bezeichnet).

Windows Hypervisor fungiert als Mikrokernel-Hypervisor und ist daher relativ klein (kleiner als 1 MB). Dieser minimale Platzbedarf trägt dazu bei, die Sicherheit des gesamten Systems zu erhöhen.

Eine der Anforderungen beim Ausführen von Hyper-V ist die Nutzung eines x64-Systems mit Intel VT- oder AMD-V-Technologien. Die x64-Technologie ermöglicht den Zugriff auf einen größeren Adressraum und unterstützt Systeme mit mehr Speicher, sodass eine größere Anzahl virtueller Computer auf einem einzigen Hostsystem ausgeführt werden kann. Intel VT und AMD-V sind hardwaregestützte Virtualisierungslösungen, die eine ultraprivilegierte Schicht in der Ringarchitektur bieten, mit der die Ausführungsumgebung des Hypervisors vom restlichen System getrennt gehalten wird. Außerdem kann Hyper-V damit ein unverändertes Gastbetriebssystem ausführen, ohne dass beträchtliche Leistungseinbußen entstehen.

Die übergeordnete Partition

Hyper-V besteht aus einer übergeordneten Partition, die im Grunde ein virtueller Computer mit besonderem oder privilegiertem Zugriff ist. Dies ist der einzige virtuelle Computer mit Direktzugriff auf Hardwareressourcen. Alle anderen virtuellen Computer, die als Gastpartitionen bezeichnet werden, wickeln den Gerätezugriff über die übergeordnete Partition ab.

Die Existenz der übergeordneten Partition ist relativ transparent. Wenn Sie beginnen, Hyper-V zu installieren, müssen Sie zuerst Windows Server 2008 x64 Edition auf dem physischen System installieren. Anschließend öffnen Sie Server-Manager. Aktivieren Sie dort die Hyper-V-Rolle, und starten Sie das System neu. Sobald das System neu gestartet ist, wird zuerst Windows Hypervisor geladen, und dann wird der restliche Stapel konvertiert, um als übergeordnete Partition zu dienen.

Die übergeordnete Partition fungiert als Eigentümer für Tastatur, Maus, Videoanzeige und andere Geräte, die am Hostserver angeschlossen sind. Sie besitzt keine direkte Kontrolle über die vom Hypervisor verwendeten Zeitgeber und Interruptcontroller.

Die übergeordnete Partition enthält einen WMI-Anbieter (Windows Management Instrumentation, Windows-Verwaltungsinstrumentation), der die Verwaltung aller Aspekte der virtualisierten Umgebung vereinfacht, sowie einen Virtualisierungsstapel, der hardwarebezogene Aufgaben im Auftrag der untergeordneten Partitionen ausführt. Darüber hinaus befinden sich sämtliche IHV-Treiber (Independent Hardware Vendor, unabhängiger Hardwarehersteller), die für die Hostsystemhardware benötigt werden, in der übergeordneten Partition, und auch alle Treiber, die für Windows Server 2008 x64 Edition erstellt werden, arbeiten in der übergeordneten Partition.

Gerätefreigabearchitektur

Eine der innovativen Architekturkomponenten in Hyper-V ist die neue Gerätefreigabearchitektur, die emulierte und synthetische Geräte in jedem Gastbetriebssystem unterstützt. Die Geräteemulation unterstützt ältere Betriebssysteme mit Gerätetreibern, die für frühere Generationen der Hardware vorgesehen waren. Hyper-V enthält beispielsweise eine Emulation des Intel 21140-Netzwerkadapters, der in Zeiten älterer Betriebssysteme als DEC 21140-Netzwerkadapter bezeichnet wurde.

In der Regel ist die Geräteemulation langsam, nicht ohne Schwierigkeiten zu erweitern und nicht gut zu skalieren. Aber die Emulation ist immer noch wichtig, weil Sie damit die meisten x86-Betriebssysteme auf Hyper-V ausführen können. Die Virtualisierung entwickelt sich derzeit von einer Nischentechnologie, die hauptsächlich zum Testen und Entwickeln genutzt wurde, zu einer unentbehrlichen Technologie für Produktionsumgebungen, weshalb die Benutzer eine höhere Leistung brauchen, um größere Arbeitsauslastungen verwenden zu können. Emulierte Geräte erfüllen diesen wachsenden Bedarf nicht mehr.

Eine alternative Lösung ist die Verwendung synthetischer Hyper-V-Geräte. Synthetische Geräte sind virtuelle Geräte, die direkt physischen Geräten zugeordnet sind. Im Unterschied zu emulierten Geräten emulieren synthetische Geräte keine veraltete Hardware. Mit dem Hyper-V-Hardwarefreigabemodell können unterstützte Gastbetriebssysteme direkt mit synthetischen Geräten interagieren, auch wenn diese keine physischen Gegenstücke besitzen. Diese Betriebssysteme nutzen VSCs (Virtual Service Client, virtueller Dienstclient), die als Gerätetreiber im Gastbetriebssystem fungieren.

Statt direkt auf physische Hardware zuzugreifen, greifen die VSCs über den VMBus, einen schnellen, speicherinternen Bus, auf VSPs (Virtual Service Provider, virtueller Dienstanbieter) in der übergeordneten Partition zu. Die VSPs in der übergeordneten Partition verwalten dann den Zugriff auf die zugrunde liegende physische Hardware, wie in Abbildung 3 dargestellt. Ein wichtiger Vorteil synthetischer Geräte besteht darin, dass ihre Leistung über den VMBus näher an der Leistung nicht virtualisierter Hardwaregeräte liegt.

fig03.gif

Abbildung 3 VSCs greifen über den VMBus auf VSPs zu, die wiederum den Zugriff auf die zugrunde liegende physische Hardware verwalten (zum Vergrößern auf das Bild klicken)

Integrationskomponenten

Hyper-V sorgt dafür, dass die verschiedenen Instanzen, die auf einem Computer ausgeführt werden, streng voneinander getrennt sind. Die Integrationskomponenten von Hyper-V ermöglichen die Interaktion zwischen dem Gastbetriebssystem und dem Hostbetriebssystem und stellen einige zusätzliche Funktionen für unterstützte Gastbetriebssysteme bereit.

Die Hyper-V-Integrationskomponenten unterstützen die folgenden Features:

  • Zeitsynchronisierung
  • Volumeschattenkopie-Dienst (Volume Shadow Copy Service, VSS)
  • Taktfunktionen
  • Herunterfahren von Gastcomputern
  • Schlüssel/Wert-Paar-Austausch (für den Zugriff auf die Registrierung eines Gastbetriebssystems)
  • Betriebssystemidentifizierung

Der Funktionsumfang von Hyper-V

Je stärker sich die Virtualisierungsplattform der Handlungsweise physischer Server nähert, desto einfacher wird es natürlich für Organisationen, virtuelle Arbeitsauslastungen bereitzustellen und sich darauf zu verlassen. Meiner Meinung nach gibt es vier Hauptbereiche, in denen Sie die verschiedenen Features der Virtualisierungsplattform sehen können.

Heutzutage liegen die auf Hypervisoren beruhenden Virtualisierungslösungen relativ dicht beieinander, wenn es um die Features und Funktionen geht. Auf dem Weg in die Zukunft werden Aspekte wie die Gesamtkosten und die Benutzerfreundlichkeit zu wichtigen Unterscheidungsmerkmalen. Für die Verwaltungslösungen werden weiterhin Investitionen und Entwicklungsarbeit geleistet, damit wir der Vision einer dynamischen IT-Umgebung näher kommen, in der die Infrastruktur so flexibel ist, dass sie sich an die Anforderungen des Unternehmens anpasst, und in der die Automatisierung und Verwaltung mit Modellen und Richtlinien vorangebracht werden.

Skalierbarkeit

Dank der Mikrokernel-Hypervisorarchitektur verursacht Hyper-V einen sehr niedrigen CPU-Aufwand, sodass viel Raum zur Virtualisierung der Arbeitsauslastungen bleibt. Mit Hyper-V können die virtuellen Computer leistungsfähige Features und Hardware nutzen, beispielsweise Mehrkerntechnologie, verbesserten Datenträgerzugriff und größeren Speicher, wodurch Hyper-V die Skalierbarkeit und die Leistung der Virtualisierungsplattform erhöht.

In Kombination mit den anderen Funktionen in Windows Server 2008 sind Sie mit Hyper-V in der Lage, den Großteil der Arbeitsauslastungen (sowohl 32-Bit- als auch 64-Bit-Arbeitsauslastungen) auf einem einzigen System zu konsolidieren. Sie können damit die Umsetzung der 64-Bit-Technologie durch die fortgesetzte Unterstützung von 32-Bit-Arbeitsauslastungen ergänzen, die bereits in Ihrer Umgebung verwendet werden.

Die Tatsache, dass Hyper-V ein 64-Bit-Hostsystem mit hardwaregestützter Virtualisierung erfordert, hilft sicherzustellen, dass das Hostsystem Zugriff auf einen großen Pool von Speicherressourcen erhält. Hyper-V kann bis zu 1 TB Speicher auf dem Host unterstützen und bis zu 64 GB Speicher auf jedem virtuellen Computer. Dies ist ein wichtiges Argument beim Planen der Virtualisierung speicherintensiver Arbeitsauslastungen wie Exchange Server und SQL Server.

Hyper-V unterstützt außerdem bis zu 16 logische Prozessoren auf dem Hostsystem, wodurch sich Hyper-V auf die meisten handelsüblichen Systeme mit zwei oder vier Sockets und mehreren Kernen skalieren lässt. Darüber hinaus können Sie einen virtuellen Computer mit bis zu vier virtuellen Prozessoren erstellen, um Arbeitsauslastungen zu unterstützen, die Mehrprozessorfunktionen erfordern oder nutzen.

Durch die Serverkonsolidierung mit Hyper-V erhalten diese Server auch eine stabile Netzwerkunterstützung, beispielsweise Richtlinien für VLAN, Netzwerkadressübersetzung (Network Address Translation, NAT) und Netzwerkzugriffsschutz (Network Access Protection, NAP) (Quarantäne). Als Feature von Windows Server 2008 arbeitet Hyper-V problemlos mit anderem Windows Server-Features wie BitLocker und Windows PowerShell zusammen.

Hohe Verfügbarkeit

Die hohe Verfügbarkeit ist ein Szenario, in dem Hyper-V und Hostclusteringfunktionen zusammenarbeiten, um die Geschäftskontinuität und die Anforderungen hinsichtlich der Notfallwiederherstellung zu erfüllen. Geschäftskontinuität ist die Möglichkeit, sowohl die geplante als auch die ungeplante Ausfallzeit zu minimieren. Das umfasst die Zeit, die bei Routineaufgaben wie Wartung und Sicherung sowie unerwarteten Ausfällen verloren geht.

Die Notfallwiederherstellung ist eine wichtige Komponente der Geschäftskontinuität. Naturkatastrophen, Angriffe und sogar einfache Konfigurationsprobleme, wie etwa Softwarekonflikte, können Dienste und Anwendungen lähmen, bis Administratoren die Probleme gelöst haben und sämtliche Daten wiederhergestellt wurden. Eine zuverlässige Strategie für Geschäftskontinuität und Notfallwiederherstellung muss minimalen Datenverlust und leistungsfähige Remoteverwaltungsfunktionen bieten.

Die hohe Verfügbarkeit gliedert sich in drei verschiedene Kategorien: geplante Ausfallzeit, ungeplante Ausfallzeit und Sicherungen. Der Schutz für die geplante Ausfallzeit ist in der Regel erforderlich, wenn virtuelle Computer vom Hostsystem getrennt werden müssen, sodass Sie die Hardwarewartung durchführen oder Patches für das Hostsystem oder die Virtualisierungsplattform anwenden können (was möglicherweise einen Neustart erfordert).

Die meisten Organisationen haben Fenster für die geplante Wartung festgelegt. In diesem Fall versuchen Sie, den Zeitraum zu minimieren oder ganz zu beseitigen, in dem die virtuellen Computer nicht verfügbar sind, während das Hostsystem zu Wartungszwecken heruntergefahren ist. Mit dem Quick Migration-Feature können Sie einen gerade ausgeführten virtuellen Computer von einem physischen Knoten in Sekundenschnelle auf einen anderen Knoten verschieben. Folglich können Sie Ihre virtuellen Computer für die Produktion verfügbar halten, während Sie gleichzeitig Wartungsarbeiten am ursprünglichen Host durchführen. Nach Abschluss der Wartung können Sie die virtuellen Computer mittels Quick Migration zurück auf das ursprüngliche Hostsystem verschieben.

Ungeplante Ausfallzeit sind Ausfallzeiten, die nicht vorhersehbar sind. Hierzu zählen beispielsweise Naturkatastrophen oder auch so einfache Dinge wie das unbeabsichtigte Ziehen eines Netzkabels, wodurch ein Server deaktiviert wird. So unwahrscheinlich das klingt: Im Verlauf der Jahre habe ich viele Administratoren bei Tech•Ed, VMworld und anderen Konferenzen getroffen, die so manches darüber erzählen können, wie ein Server unbeabsichtigt von einem Kollegen ausgeschaltet wurde.

Mit Hyper-V können Sie einen Hostcluster für die verschiedenen Hostsysteme einrichten und alle virtuellen Computer als Clusterressourcen konfigurieren, für die dann ein Failover auf ein anderes System durchgeführt wird, falls einer der Hosts ausfällt. In der Zwischenzeit können Sie mit der Funktion für Mehrfachstandortclustering in Windows Server 2008 einen geografisch verteilten Cluster einrichten. Sollte Ihr primäres Datencenter ausfallen, haben Sie damit die Möglichkeit, die verschiedenen virtuellen Computer in einem Remotedatencenter wiederherzustellen.

Dies trägt auch zum Schutz Ihrer sämtlichen Zweigstellen bei. Einer der Vorteile bei der Unterstützung ungeplanter Ausfallzeiten mit Hyper-V besteht darin, dass das Gastbetriebssystem keine Rolle spielt. So können Sie die Vorteile der hohen Verfügbarkeit auch auf virtuelle Linux-Computer und auf ältere Versionen von Windows Server ausdehnen und diese Systeme ähnlich schützen und wiederherstellen.

Bei ungeplanter Ausfallzeit ist zu beachten, dass die Wiederherstellung dem Ausschalten und Neustarten des Systems entspricht. Alle Statusinformationen gehen damit verloren. Je nach Arbeitsauslastung, die auf dem virtuellen Computer ausgeführt wird, kann dies u. U. zu Problemen führen. Deswegen ist es wichtig, die Sicherung im Kontext hoher Verfügbarkeit zu betrachten.

Mit Hyper-V können Sie Sicherungen von jedem virtuellen Computer anfertigen oder mit VSS konsistente Sicherungen von allen VSS-fähigen virtuellen Computern erstellen, während sie noch ausgeführt werden. Mit VSS können Sie die Durchführung von Sicherungen in bestimmten Intervallen einrichten, ohne dass sich diese Sicherungen auf die Verfügbarkeit der Produktionsarbeitsauslastungen auswirken. Gleichzeitig können Sie für einen fortlaufenden Sicherungsplan sorgen, mit dem Sie den Systemzustand im Falle einer ungeplanten Ausfallzeit problemlos wiederherstellen können. Weitere Informationen zu Hochverfügbarkeitslösungen mit Hyper-V finden Sie im Artikel „Gewährleisten hoher Verfügbarkeit für Hyper-V“ von Steven Ekren in dieser Ausgabe des TechNet Magazins (technet.microsoft.com/magazine/cc837977).

Die Mikrokernel-Hypervisorarchitektur soll die Angriffsfläche minimieren und die Sicherheit verbessern, insbesondere wenn Hyper-V als Server Core-Rolle implementiert ist. Server Core ist eine Installationsoption von Windows Server 2008. Der Hypervisor enthält keine Gerätetreiber und keinen Drittanbietercode, wodurch eine stabilere, dünnere und sicherere Grundlage für das Ausführen virtueller Computer entsteht. Hyper-V bietet außerdem leistungsstarke rollenbasierte Sicherheit mit der Active Directory-Integration. Hyper-V bietet virtuellen Computern die Vorteile von Sicherheitsfeatures auf Hardwareebene, beispielsweise das NX- bzw. XD-Bit (No eXecute/eXecute Disable), sodass die Sicherheit der virtuellen Computer weiter erhöht wird.

Hyper-V hat wie alle Komponenten in Windows Server den Sicherheitsentwicklungszyklus (Security Development Lifecycle, SDL) durchlaufen, und mit umfangreichen Bedrohungsmodellen und Analysen wurde die hohe Sicherheit von Hyper-V als Virtualisierungsplattform gewährleistet. Wenn Sie Hyper-V bereitstellen, beachten Sie in jedem Fall die bewährten Methoden zum Bereitstellen von Windows Server 2008 und auch die bewährten Methoden für Hyper-V. Denken Sie an Active Directory und an Antivirus- und Antimalwarelösungen als Teil Ihres Plans. Nutzen Sie die Funktionen für die delegierte Verwaltung, um sicherzustellen, dass Sie die richtigen Administratorzugriffsberechtigungen für Hyper-V-Hosts verwenden.

Verwaltbarkeit

Eine ein wenig ineffiziente Servernutzung kann rasch zu extrem ineffizienter Nutzung virtueller Computer führen. Dieses Risiko entsteht, weil virtuelle Computer so leicht bereitgestellt werden können. Mit der erhöhten Mobilität virtueller Computer müssen Sie auch genau wissen, wo die einzelnen virtuellen Computer ausgeführt werden, müssen ihre Sicherheitskontexte überwachen und vieles mehr.

Aber mit Hyper-V müssen Sie keine separate Verwaltungsinfrastruktur für Ihre virtuelle Umgebung erstellen. Hyper-V lässt sich in Microsoft-Verwaltungstools, in System Center Virtual Machine Manager und in Microsoft System Center Operations Manager integrieren, ebenso wie in Verwaltungstools von Drittanbietern. Damit können Sie alle Ihre physischen und virtuellen Ressourcen von einer einzigen Konsole aus verwalten. Weitere Informationen zu System Center Virtual Machine Manager 2008 finden Sie im Artikel „Verwalten Sie Ihre virtuellen Umgebungen mit VMM 2008“ von Edwin Yuen in dieser Ausgabe des TechNet Magazins (technet.microsoft.com/magazine/cc836456). Unterdessen erleichtert die Unterstützung für Windows PowerShell die Automatisierung von Aufgaben.

Hyper-V verleiht außerdem virtuellen Computern eine beispiellose Fähigkeit zur Nutzung verfügbarer Hardware. Alle Treiber mit WHQL-Zertifikat (Windows Hardware Quality Lab) können in der übergeordneten Partition ausgeführt werden, sodass Hyper-V eine breite Kompatibilität für Treiber und Geräte bietet. Das bedeutet wiederum, dass Sie die verschiedenen Treiber, die in Ihrer Umgebung ausgeführt werden, viel einfacher verwalten können.

Zusammenfassung

Wie ich bereits erwähnt hatte, ist die Verwaltung ein wichtiger Bereich der Entwicklung und Differenzierung. In den kommenden Jahren werden Sie mit Sicherheit viel Bewegung in diesem Bereich beobachten können. Insgesamt ist dies eine wirklich aufregende Zeit, wenn die Virtualisierung immer gebräuchlicher wird. Wenn Sie Hyper-V noch nicht ausprobiert haben oder einfach weitere Informationen wünschen, besuchen Sie die Website unter microsoft.com/Hyper-V.

Rajiv Arunkundram ist leitender Produktmanager bei Microsoft und befasst sich mit der Servervirtualisierung in der Windows Server-Marketingabteilung. Der Haupttätigkeitsbereich von Rajiv Arunkundram ist die Zusammenarbeit mit Kunden und Partnern, wobei er ihnen die Virtualisierungsstrategie und die Lösungen von Microsoft aus technischer und geschäftlicher Sicht erläutert.