TechNet
Exportieren (0) Drucken
Alle erweitern
Markieren Sie das Kontrollkästchen Englisch, um die englische Version dieses Artikels anzuzeigen. Sie können den englischen Text auch in einem Popup-Fenster einblenden, indem Sie den Mauszeiger über den Text bewegen.
Übersetzung
Englisch

Entwerfen einer Cloudinfrastruktur

 

Betrifft: Windows Server 2012

Im Entwurfshandbuch zum Aufbau einer Private Cloud-Infrastruktur finden Sie die erforderlichen Informationen, um fundierte Entscheidungen hinsichtlich des Speicher-, Netzwerk- und Compute-Entwurfs für den Aufbau einer Cloudinfrastruktur zu treffen, die den Anforderungen Ihrer Organisation gerecht wird. Dieses Handbuch enthält Informationen, anhand derer Sie die in Windows Server® 2012 verfügbaren Plattformtechnologien zum Entwerfen einer cloudbasierte Infrastruktur bewerten können.

Dieses Entwurfshandbuch konzentriert sich auf den Entwurf der Cloudinfrastruktur und deren Komponenten. Es enthält keine Informationen zum Aufbau einer Komplettlösung für eine Private, Public oder gehosteten Cloud-IaaS (Infrastruktur-as-a-Service), -PaaS (Platform-as-a-Service) oder -SaaS (Software-as-a-Service). Die Cloudinfrastruktur enthält die Bausteine, auf denen sämtliche Clouddienste oder Übermittlungsmodelle von Windows Server 2012 basieren.

Dieses Dokument enthält die folgenden Abschnitte:

  • Technische Übersicht über die Cloudinfrastruktur: Dieser Abschnitt enthält einen kurzen Überblick über Cloud Computing und die Anforderungen einer Cloudinfrastruktur.

  • Entwurf einer Cloudinfrastruktur: Dieser Abschnitt enthält eine Einführung in den Entwurfsprozess der Cloudinfrastruktur.

  • Entwerfen der Speicherinfrastruktur der Cloud: Dieser Abschnitt enthält Informationen über die Entwurfsüberlegungen zum Erstellen der Speicherinfrastruktur einer Cloud mithilfe der Plattformfeatures und -funktionen in Windows Server 2012.

  • Entwerfen der Netzwerkinfrastruktur der Cloud: Dieser Abschnitt enthält Informationen zu den Entwurfsüberlegungen für die Erstellung der Netzwerkinfrastruktur einer Cloud mithilfe der Plattformfeatures und -funktionen in Windows Server 2012.

  • Entwerfen der Compute- bzw. Virtualisierungsinfrastruktur der Cloud: Dieser Abschnitt enthält Informationen zu den Entwurfsüberlegungen für die Erstellung der Compute- bzw. Virtualisierungsinfrastruktur einer Cloud mithilfe der Plattformfeatures und -funktionen in Windows Server 2012.

  • Übersicht über empfohlene Bereitstellungsszenarien für die Cloudinfrastruktur: In diesem Abschnitt werden drei Vorschläge für Bereitstellungsszenarien der Cloudinfrastruktur vorgestellt, damit Sie eine fundierte Entscheidung für das passende Szenario treffen können.

Bitte beachten Sie, dass die Begriffe „Cloud“ und „Private Cloud“ in diesem Dokument synonym verwendet werden. Private Cloud, Public Cloud und Hybrid Cloud bezieht sich auf Cloud Computing-Bereitstellungsmodelle. Es wird dabei davon ausgegangen, dass für alle Cloud Computing-Infrastrukturen dieselben Entwurfsüberlegungen gelten. Dies bezieht sich auch auf Cloud-Hostingumgebungen, die Private oder Public Clouds hosten können. Diese Dokumentation richtet sich daher an IT-Abteilungen, Private Cloud-Hostinganbieter und auch Public Cloud-Anbieter, die sich mit dem Entwurf einer Windows Server 2012-Cloudinfrastruktur befassen.

In diesem Entwurfshandbuch erhalten Sie schwerpunktmäßig Informationen zum Entwurf der Cloudinfrastruktur für das IaaS-Dienstmodell. In weiteren Entwurfshandbüchern wird erläutert, wie Sie eine vollständige IaaS-Lösung entwerfen, planen und implementieren.

Cloud Computing ist ein Modell zur Aktivierung des allgemeinen, bedarfsgesteuerten Netzwerkzugriffs auf einen freigegebenen Pool von Computingressourcen (einschließlich Netzwerke, Server, Speicher, Anwendungen und Dienste), die dynamisch, schnell und mit minimaler Benutzerinteraktion bereitgestellt und veröffentlicht werden können. Die Definition des United States National Institute of Standards and Technology (NIST) für Cloud Computing zählt zu den gängigeren und gut angenommenen Modellen. Es wird daher als Grundlage für eine allgemeingültige Terminologie und Definition für Cloud Computing genutzt. Die NIST-Definition enthält fünf grundlegende Eigenschaften, drei Servicemodelle und vier Bereitstellungsmodelle.

  • On-Demand-Self-Service: Ein Consumer des Clouddienstes kann Computingfunktionen (z. B. Serverzeit und Netzwerkspeicher) einseitig und automatisch nach Bedarf bereitstellen, ohne dass eine Benutzerinteraktion mit jedem Dienstanbieter erforderlich ist.

  • Umfassender Netzwerkzugriff: Die Fähigkeit eines Consumers von Clouddiensten, von einem beliebigen Standort aus mit unterschiedlichen Geräten auf Cloudressourcen zugreifen zu können.

  • Ressourcenpooling: Computingressourcen des Anbieters werden in einem Pool zusammengefasst, um mehrere Consumer mittels eines mehrinstanzfähigen Modells bedienen zu können. Dabei können unterschiedliche physische und virtuelle Ressourcen entsprechend den Consumeranforderungen dynamisch zugewiesen werden.

  • Schnelle Anpassungsfähigkeit: Funktionen können elastisch bereitgestellt und freigegeben werden (mitunter automatisch), um bei Bedarf schnell horizontal und vertikal skalieren zu können.

  • Gemessener Dienst: Cloudsysteme steuern und optimieren die verwendeten Ressourcen automatisch. Sie nutzen dafür eine Messfunktion auf einer bestimmten Ebene der Abstraktion, die dem Diensttyp entspricht (z. B. Speicher, Verarbeitung, Bandbreite und aktive Benutzerkonten).

Bei Public Clouds ist dabei ein umfassender Netzwerkzugriff auf die Cloud entscheidend. Durch einen umfassenden Netzwerkzugriff kann über Standardmechanismen auf die Cloud zugegriffen werden. Dies fördert die Nutzung durch heterogene Thin Client- oder Thick Client-Plattformen (z. B. Mobiltelefone, Tablets, Laptops und Arbeitsstationen). Private Clouds benötigen für einen umfassenden Netzwerkzugriff möglicherweise Unterstützung.

  • Software-as-a-Service (SaaS): Der Consumer hat die Möglichkeit, die vom Cloud-Dienstanbieter in einer Cloudinfrastruktur ausgeführten Anwendungen zu nutzen.

  • Platform-as-a-Service (PaaS): Der Consumer hat die Möglichkeit, innerhalb der Cloudinfrastruktur vom Consumer erstellte oder erworbene Anwendungen mithilfe der vom Anbieter unterstützten Programmiersprachen, Bibliotheken, Diensten und Tools bereitzustellen.

  • Infrastructure-as-a-Service (IaaS): Der Consumer hat die Möglichkeit, auf der Basis von bereitgestellten Verarbeitungs- bzw. Computingfunktionen, Speichern, Netzwerken und andere wesentliche Computingressourcen beliebige Software wie etwa Betriebssysteme und Anwendungen auszuführen.

  • Private Cloud: Die Cloudinfrastruktur wird für die ausschließliche Verwendung durch eine einzelne Organisation mit mehreren Consumern (z. B. Unternehmenseinheiten) bereitgestellt.

  • Community-Cloud. Die Cloudinfrastruktur wird für die ausschließliche Verwendung durch eine bestimmte Consumer-Community von Organisationen bereitgestellt, die dieselben Anforderungen und Ziele haben (z. B. Unternehmensziele, Sicherheitsanforderungen, Richtlinien und Kompatibilitätsaspekte).

  • Public Cloud: Die Cloudinfrastruktur wird zur Verwendung durch die Öffentlichkeit bereitgestellt. Sie kann sich im Besitz eines Unternehmens, einer akademischen Organisation, einer Behörden oder eine Kombination daraus befinden und davon verwaltet und betrieben werden.

  • Hybrid Cloud: Diese Cloudinfrastruktur setzt sich aus zwei oder mehr unterschiedlichen Cloudinfrastrukturen (Private, Community oder Public) zusammen. Diese bleiben eindeutige Entitäten, sind aber durch standardisierte oder proprietäre Technologie verbunden, die eine Daten- und Anwendungsportabilität ermöglicht (z. B. Cloud Bursting für den Lastenausgleich zwischen Clouds).

Wichtig zu beachten ist, dass es keine bestimmte Ausrichtung zwischen Clouddiensten und Übermittlungsmodellen gibt. Alle Dienstmodelle können mit jedem beliebigen Übermittlungsmodell instanziiert werden. Beispiel: Während Software-as-a-Service (SaaS) häufig als Public Cloud-Dienstmodell betrachtet wird, kann der Dienst dennoch auch in einer lokalen oder gehosteten Private Cloud bereitgestellt werden.

Weitere Informationen und eine detaillierte Erläuterung der NIST-Definition der Private Cloud finden Sie in der NIST-Definition für Cloud Computing.

Die private Cloud ist ein Modell, bei dem für Ihre Organisation dedizierte Infrastruktur eingesetzt wird. Eine private Cloud weist viele Merkmale der öffentlichen Cloud auf, z. B. Ressourcenpooling, Self-Service, Elastizität und getaktete Dienste, die standardmäßig bereitgestellt werden, und verfügt über die zusätzlichen Steuerungs- und Anpassungsoptionen der dedizierten Ressourcen.

Der einzige wesentliche Unterschied zwischen einer Private Cloud und einer Public Cloud besteht darin, dass bei einer Public Cloud Cloudressourcen für mehrere Organisationen bereitgestellt werden, während in einer Private Cloud die Ressourcen für eine einzelne Organisation gehostet werden. Eine einzelne Organisation kann jedoch auch über mehrere Geschäfts- und Organisationseinheiten verfügen, sodass eine Mehrinstanzenfähigkeit gefordert ist. Unter diesen Umständen gelten für die private Cloud auch viele Sicherheits- und Isolierungsanforderungen der öffentlichen Cloud.

Obwohl die Virtualisierung ein wichtiger technologischer Faktor der Private Cloud ist, besteht der Hauptunterschied in der weiteren Abstraktion von Computingressourcen aus der Infrastruktur und den Computern (virtuellen oder anderen), die für die Bereitstellung dieser Ressourcen verwendet werden. Die Vorteile des Cloud Computings wie eine verbesserte Flexibilität und Reaktionsfähigkeit, reduzierte Gesamtbetriebskosten (TCO), eine optimierte Geschäftsausrichtung und ein erhöhter Fokus lassen sich nur durch diese Abstraktion erzielen. Allem voran sind die Chancen bei einer Private Cloud hoch, die Kosteneffizienz einer virtualisierten Infrastruktur durch eine erhöhte Dichte der Arbeitsauslastung und eine verbesserte Ressourcennutzung weiter zu steigern.

Die Private Cloud von Microsoft ist ein einzigartiges und umfassende Angebot, das auf vier wichtigen „Säulen“ basiert.

  • Die Anwendung im Mittelpunkt: Die anwendungsorientierte Cloudplattform erleichtert es Ihnen, sich auf Ihr Hauptgeschäft zu konzentrieren.

  • Von Grund auf plattformübergreifend: Profitieren Sie von plattformübergreifender Unterstützung für Multi-Hypervisor-Umgebungen, Betriebssysteme und Anwendungsframeworks.

  • Basis für die Zukunft: Die Private Cloud von Microsoft bietet Ihnen über die Virtualisierung hinaus eine echte Cloudplattform.

  • Sie bestimmen die Regeln: Nutzen Sie die Cloud entsprechend Ihren Anforderungen. Allgemeine Verwaltungs-, Virtualisierungs-, Identitäts- und Entwickler-Tools bieten Ihnen die Auswahl und Flexibilität eines Hybrid-Cloud-Modells.

Weitere Informationen über die Private Cloud von Microsoft finden Sie in der Übersicht über die Microsoft Private Cloud

Eine Microsoft-Cloudinfrastruktur stellt die Kernfunktionen für Computing, Speicherung und Netzwerke bereit, welche die Basis aller Dienst- oder Übermittlungsmodelle für die Cloud bilden. Dies bedeutet, dass nicht nur Unternehmen, sondern auch Cloud-Dienstanbieter (Cloud Service Provider, CSP) oder Private Cloud-Hoster die wesentlichen Cloudtechnologien der Windows Server 2012-Plattform nutzen können, um gehostete Cloudlösungen für gehostete Private und Public Cloud-Lösungen zu erstellen. Dank der zahlreichen Innovationen von Windows Server 2012 können Sie die Sicherheit, Isolation, Leistung, Verfügbarkeit und Skalierbarkeit bereitstellen, die Hoster kommerzieller Clouddienste benötigen.

Die Grundlagen einer Private Cloud bieten allgemeine Regeln und Richtlinien für die Entwicklung einer Cloudinfrastruktur, egal ob lokal oder in einer gehosteten Cloud-Umgebung. Sie sind beständig, werden nur selten geändert und geben Auskunft darüber, wie eine Cloud ihre Mission und Ziele erfüllt. Außerdem sollen sie in gewisser Weise überzeugen und inspirieren, da für eine Veränderung ein triftiger betriebswirtschaftlicher Grund gegeben sein muss. Diese Grundsätze hängen oft zusammen und bilden gemeinsam die Basis für die Planung, den Entwurf und die Erstellung einer Cloudinfrastruktur:

  • Ressourcenpooling

  • Elastizität und das Gefühl unbegrenzter Kapazität

  • Gefühl der fortlaufenden Verfügbarkeit

  • Erhöhte Vorhersehbarkeit

  • Messung/Rückbelastung (Ansatz des Dienstanbieters für die IT-Bereitstellung)

  • Mehrinstanzenfähigkeit

  • Sicherheit und Identität

Die Grundsätze sollten bei allen Entscheidungen hinsichtlich des Aufbaus der Cloudinfrastruktur berücksichtigt werden. Ausführliche Informationen zu den Private Cloud-Grundsätzen finden Sie im Artikel über Grundsätze, Konzepte und Muster der Private Cloud.

IaaS ist eine Anwendung zur Bereitstellung einer Cloudinfrastruktur, die auf den Grundsätzen der Private Cloud-Architektur basiert. Durch Verwendung des in der folgenden Abbildung dargestellten Referenzmodells stellen Sie sicher, dass Sie eine ganzheitliche Lösung bieten, die alle für eine ausgereifte IaaS-Lösung erforderlichen Ebenen umfasst. Das Modell soll Entwicklern und Architekten von Cloudinfrastrukturen als Leitfaden für die ganzheitliche Entwicklung einer Private Cloud-Architektur dienen. Dieses Modell gilt nur als Referenz, wobei bestimmte Aspekte in der technischen Referenzarchitektur stärker betont werden als andere. Dies beruht auf Erfahrungswerten beim Betrieb von Private Clouds in realen Umgebung.

Private Cloud Reference Model

Abbildung 1. Referenzmodell der Private Cloud – IaaS-Ansicht

In diesem Dokument wird schwerpunktmäßig der Infrastrukturbereich des Private Cloud- Referenzmodells behandelt. Der Fokus liegt dabei auf den wichtigsten Netzwerk-, Computer- und Speicherkomponenten, die für eine cloudfähige Infrastruktur erforderlich sind. Auf die Aspekte und Überlegungen individueller Einrichtungen wird hier jedoch nicht eingegangen.

Weitere Informationen und eine umfassende Erläuterung der Private Cloud-Referenzmodells finden Sie im Artikel über das Referenzmodell der Private Cloud.

Zu den Hauptgründen für den mehrstufigen Ansatz der hier vorgestellten Infrastrukturarchitektur zählt die Befähigung, im später komplexer Workflows und Automatisierungen entwickeln zu können. Hierfür werden eine Reihe von einfachen Automatisierungsaufgaben erstellt und in von der Verwaltungsschicht verwalteten Verfahren zusammengefügt. Anschließend werden Workflows und Prozessautomatisierungen erstellt, deren Steuerung über die Orchestrierungsschicht erfolgt. Bevor Sie diese Schlüsselfunktionen einer Cloud-Lösung jedoch implementieren können, müssen Sie die für eine durchdachte Cloudinfrastruktur relevanten Definitionen und Entwurfsaspekte verstehen. Für die Cloudinfrastruktur sollten die folgenden Komponenten berücksichtigt werden:

  1. Skalierungseinheiten

  2. Speicher

  3. Netzwerk

  4. Virtualisierungsplattform

In einer modularen Architektur bezieht sich das Konzept einer Skalierungseinheit auf den Punkt, auf den ein Modul in der Architektur skaliert werden kann, bevor ein anderes Modul erforderlich ist. Eine Skalierungseinheit kann beispielsweise ein einzelner Server sein. Dieser kann hinsichtlich CPU und RAM bis zu einem bestimmten Punkt erweitert werden. Wird dieser Punkt überschritten, ist für die weitere Skalierung ein zusätzlicher Server erforderlich. Jede Skalierungseinheit ist zudem mit einem gewissen physischen Installations-, Konfigurations- und sonstigem Aufwand verbunden. Bei große Skalierungseinheiten wie einem vorkonfigurierten vollständigen Serverrack kann der Aufwand minimiert werden. Beim Entwurf einer Cloudinfrastruktur sollte unbedingt die Größe einer Skalierungseinheit festgelegt werden.

Die Skalierungsgrenzen von Servern lassen sich einfach ermitteln, wie etwa die Anzahl und Geschwindigkeit von CPU-Kernen, die maximale Größe und Geschwindigkeit des Arbeitsspeichers, die Anzahl und Art der Erweiterungssteckplätzen usw. Besonders wichtig sind die Anzahl und Art der integrierten Eingangs/Ausgangs-Ports (E/A) sowie die Anzahl und Art der unterstützten E/A-Karten. InfiniBand, Ethernet, SAS (Serial Attached SCSI) und Fibre Channel-Erweiterungskarten bieten häufig Multiport-Optionen, wobei eine Karte bis zu vier Ports haben kann. Darüber hinaus gelten in Blade Server-Architekturen häufig Einschränkungen hinsichtlich der Anzahl von E/A-Karte und/oder der unterstützten Kombinationen. Es ist wichtig, diese Einschränkungen und das Verhältnis überzähliger Abonnements zwischen Blade-E/A-Ports und Blade-Chassis-Schaltmodulen zu kennen.

Ein einzelnen Server stellt keine gute Skalierungseinheit für eine Private Cloud-Lösung dar, da die Installation und Konfiguration eines einzelnen Servers zu aufwändig ist. Stattdessen sollten beim Festlegen von Skalierungseinheiten frühere Wachstumsraten berücksichtigt werden. Zudem ist ausschlaggebend, in welchen Abständen Ihre Organisation die Kapazität der Infrastruktur erhöhen. Dies erfordert eine angemessene Vorlaufzeit, damit die allgemeinen Service Level kontinuierlich aufrechterhalten werden können. Stattdessen sollten beim Festlegen von Skalierungseinheiten frühere Wachstumsraten berücksichtigt werden. Zudem ist ausschlaggebend, in welchen Abständen Ihre Organisation die Kapazität der Infrastruktur erhöhen. Dies erfordert eine angemessene Vorlaufzeit, damit die allgemeinen Service Level kontinuierlich aufrechterhalten werden können. Bei Skalierungseinheiten sollte auch der Grundsatz der Homogenität einer Private Cloud genutzt werden.

Weitere Informationen über Skalierungseinheiten finden Sie im Artikel über Grundsätze, Konzepte und Muster der Private Cloud.

Die Speicherarchitektur ist eine wichtige Designüberlegung für Private Cloud-Lösungen. Der Speicher und das unterstützende Speichernetzwerk sind für die allgemeine Leistung der Umgebung entscheidend, ebenso wie die Gesamtkosten, da der Speicher zu den kostspieligeren Elementen zählt.

Moderne Speicherarchitekturen bestehen aus mehreren Ebenen. Hierzu zählen Speicherarrays, das Speichernetzwerk, das Speicherprotokoll und für die Virtualisierung das Dateisystem, das den physischen Speicher nutzt.

Bisher wurde für Speicherarrays und Speicherprotokolle eine Storage Area Network-Lösung (SAN) installiert, die über iSCSI oder Fibre Channel direkt mit dem Cloud Computing- bzw. Virtualisierungscluster verbunden ist. Dieses Speicherentwurfsmuster deckte die wichtigsten Anforderungen des Unternehmensspeichers hinsichtlich Leistung, Zuverlässigkeit, Verfügbarkeit und Skalierbarkeit ab. All dies sind kritischen Faktoren beim Entwurf des Speichers für eine Cloudinfrastruktur.

Windows Server 2012 bietet eine neue Option, die diese Speicheranforderungen der Cloudinfrastruktur erfüllen kann, nämlich Speicherplätze. Speicherplätze ermöglichen in Windows Server 2012 kostengünstige, optimal genutzte, hochverfügbare, skalierbare und flexible Speicherlösungen für unternehmenskritische (virtuelle oder physische) Bereitstellungen. Sie können kostengünstige SAS-Laufwerke in einem JBOD-Gehäuse (Just a Bunch of Disks, Verbund unabhängiger Festplatten) mit Speicherplätzen verwenden und dadurch viele der Funktionen teurer SAN-basierter Speicherarrays nutzen.

In der Vergangenheit waren iSCSI und Fibre Channel die bevorzugten Speicherprotokolle.Windows Server 2012 bietet jedoch eine weitere Option, nämlich dateibasierten Speicher über SMB 3.0. Bei diesem Ansatz können Sie separate Compute- und Speichercluster erstellen und dadurch das Computing und den Speicher getrennt skalieren. Dies kann auch Ihre Cloudinfrastruktur erheblich vereinfachen, da sich ein freigegebener, dateibasierter Speicher in der Regel leichter als ein SAN-Speicher verwalten lässt. Das SMB 3.0-Protokoll ermöglicht es dem Computecluster, mit nahezu der Geschwindigkeit eines direkt angeschlossenen Speichers (Direct Attached Storage, DAS) über ein 10-Gbit/s-Netzwerkfabric auf das Speichercluster zuzugreifen.

Neben einem hochverfügbaren Speicher über SMB 3.0 haben Administratoren der Windows Server 2012 Cloudinfrastruktur die Möglichkeit, eine andere dateibasierten Speicheroption zu nutzen, nämlich das hochverfügbare transparente NFS-Failover. Dies ermöglicht es, Server für NFS in einer Clusterkonfiguration bereitzustellen. Sie erreichen dadurch eine erhöhte Stabilität bei eventuellen Hardware- und Softwareausfällen auf einzelnen Clusterknoten.

Detaillierte Entwurfsentscheidungen zur Cloudspeicherinfrastruktur werden später in diesem Dokument behandelt.

Viele Netzwerkarchitekturen beinhalten einen mehrstufigen Entwurf mit drei oder mehr Ebenen wie dem Kern, der Verteilung und dem Zugriff. Entwürfe richten sich nach der Portbandbreite und der am Netzwerkrand erforderlichen Menge. Zudem ist wichtig, dass die Verteilungs- und Kernebene Uplinks mit erhöhter Geschwindigkeit bieten, um Datenverkehr zu aggregieren. Des Weiteren sind Ethernet-Broadcastgrenzen und -einschränkungen, die Gesamtstruktur sowie weitere Technologien zur Vermeidung von Schleifen zu berücksichtigen.

Erweiterte Virtualisierungslösungen für Rechenzentren beinhalten häufig ein dediziertes Verwaltungsnetzwerk. Virtualisierungsanbieter empfehlen in der Regel, Hosts über ein dediziertes Netzwerk zu verwalten, sodass keine Konkurrenz mit dem Mandantendatenverkehr entsteht. Außerdem ermöglicht dies ein gewisses Maß an Trennung, was die Sicherheit erhöht und die Verwaltung erleichtert. In der Vergangenheit musste hierfür dem Verwaltungsnetzwerk eines Netzwerkgeräts pro Host und Port ein Netzwerkadapter zugewiesen sein. Dank neuer Technologien in Windows Server 2012 ist es jedoch nicht mehr erforderlich oder empfohlen, jeder Datenverkehrsklasse spezielle Netzwerkadapter zuzuweisen.Windows Server 2012 enthält neue Funktionen, die es Ihnen ermöglichen, Ihre Netzwerkdatenverkehrsklassen zu einer NIC oder einem NIC-Team zusammenzuführen.

Bei der erweiterten Virtualisierung von Rechenzentren werden häufig isolierte Netzwerke bereitgestellt, in denen unterschiedlichen Besitzern wie etwa bestimmten Abteilungen oder Anwendungen ein eigenes dediziertes Netzwerk bereitgestellt wird. In der Vergangenheit wurden bei mehrinstanzfähigen Netzwerken Technologien wie virtuelle lokale Netzwerke (Virtual Local Area Networks, VLANs) oder IPsec-Isolationstechnologien (Internet Protocol Security) genutzt, um dedizierte Netzwerke bereitstellen, die eine einzelne Netzwerkinfrastruktur oder eine einzelne Leitung verwenden. VLANs sind jedoch komplex zu konfigurieren und zu verwalten und können nicht über 4094 VLANs hinaus skaliert werden.Windows Server 2012 Hyper-V beinhaltet eine Reihe von Verbesserungen im virtuellen Hyper-V-Switch, mit denen Sie die erforderliche Isolation ohne VLANs erhalten. Hierfür werden neue Features wie private VLANs (PVLANs), Port-ACLs und virtuelle Netzwerke bereitgestellt, was mitunter als Software-Defined Networking (SDN) bezeichnet wird.

Das Verwalten der Umgebung in einer Private Cloud kann zu Herausforderungen führen, die gelöst werden müssen. Im Idealfall werden Netzwerkeinstellungen und Richtlinien von der Verwaltungslösung zentral definiert und universell angewendet. Hierfür eignet sich beispielsweise die Virtual Machine Manager-Komponente von Microsoft System Center 2012 mit Service Pack 1 (SP1). Im Fall einer IPsec-basierte Isolation kann dies mithilfe von Active Directory-Domänendiensten (AD DS) und Active Directory-Gruppenrichtlinien erreicht werden, um Firewalleinstellungen auf allen Hosts und Gästen zu steuern. Des Weiteren werden IPsec-Richtlinien zur Steuerung der Netzwerkkommunikation angewendet. Darüber hinaus können Sie die VM-Dichte bei Verwendung von IPsec optimieren, da Windows Server 2012 jetzt Unterstützung für IPsec Task Offload (IPsecTO) für virtuelle Gastcomputer beinhaltet.

Für die VLAN-basierte Netzwerksegmentierung müssen mehrere Komponenten einschließlich der Hostserver, Hostcluster, Virtual Machine Manager und Netzwerkswitches ordnungsgemäß konfiguriert werden, um eine schnelle Bereitstellung und Netzwerksegmentierung zu ermöglichen. Bei Hyper-V- und Hostclustern sollten identische virtuelle Switches auf allen Knoten definiert werden, damit ein virtueller Computer ein Failover auf einen beliebigen Knoten durchführen und die Netzwerkverbindung aufrechterhalten kann. Bei umfangreichen Installationen kann dies über das Windows PowerShell-Skripting erreicht werden.

In einer Windows Server 2012–-basierten Cloudinfrastruktur beschränken sich VLAN-Zuweisungen in der Regel auf die wichtigsten Datenverkehrsklassen, nämlich die Klassen des Host- und Mandantendatenverkehrs. Bandbreitengarantien können mit Windows Server 2012 Quality of Service (QoS) zugewiesen werden, sodass Unterklassen des Datenverkehrs wie dem Cluster-, Verwaltungs-, Livemigrations- und Speicherdatenverkehr die erforderliche Bandbreite zur Verfügung steht. Darüber hinaus sollten Sie unbedingt die Verwendung von VLANs für den Mandantendatenverkehr minimieren oder vermeiden, da VLANs keine Windows Server 2012-Netzwerkvirtualisierung unterstützen. Entwurfsentscheidungen zum Cloud-Infrastrukturnetzwerk werden später in diesem Dokument ausführlich erörtert.

Die Virtualisierungsebene zählt zu den primären Faktoren einer Private Cloud. Die Entkopplung der Hardware, Betriebssysteme, Daten, Anwendungen und Benutzerzustände eröffnet eine Vielzahl von Möglichkeiten zur optimalen Verwaltung und Verteilung der Arbeitsauslastungen auf die physische Infrastruktur.Windows Server 2012 Hyper-V bietet die Möglichkeit, ausgeführte virtuelle Computer ohne Ausfallzeiten zwischen Servern zu migrieren. Darüber hinaus steht Ihnen mit weiteren Hyper-V-Features eine umfangreiche Palette von Funktionen zur Verfügung. Diese Funktionen können von der Automatisierungs-, Verwaltungs- und Orchestrierungsebene genutzt werden, um gewünschte Zustände aufrechtzuerhalten (z. B. die Lastenverteilung) oder proaktiv Probleme durch veraltete Hardware oder sonstige Ursachen zu lösen, die andernfalls zu Fehlern oder Dienstausfällen führen würden.

Ebenso wie die Hardwareebene muss auch die Virtualisierungsebene von der Automatisierung-, Verwaltungs- und Orchestrierungsebene verwaltet werden können. Mit der durch die Virtualisierung möglichen Abstraktion der Software von der Hardware verlagert sich der Großteil der Verwaltung und Automatisierung in den Softwarebereich. Es sind keinem manuellen Schritte auf physischer Hardware erforderlich.

In den nächsten drei Abschnitten besprechen wir Überlegungen und Optionen für den Entwurf einer Cloudinfrastruktur mit den Plattformfunktionen von Windows Server 2012. Hierbei werden folgende Entwurfsthemen erörtert:

  1. Speicherarchitektur

  2. Netzwerkarchitektur

  3. Compute-Architektur (Virtualisierung und Cluster)

Nach einer Wiederholung der Designentscheidungen, die Sie hinsichtlich Speicher-, Netzwerk- und Compute-Architektur zu treffen haben, werden drei Entwurfsmuster erörtert, die sich nach grundlegenden Entwurfsentscheidungen in jedem dieser Bereiche richten.

Der Speicherentwurf ist für alle Virtualisierungslösungen ein entscheidender Aspekt. Er ist in der Regel für einen Großteil der Gesamtkosten, Leistung und Flexibilität der Lösung verantwortlich.

Die Speicherlösung sollte einen vom Übertragungsweg unabhängigen, nahtlosen Datenzugriff mithilfe von auf Blockebene und/oder Dateiebene generierten Protokollen von derselben Plattform aus ermöglichen. Eine Speicherlösung kann Datenzugriff auf Blockebene über ein Fibre Channel-SAN-Fabric mithilfe eines Fibre Channel Protocols (FCP) und über ein IP-basiertes Ethernet-Netzwerk mithilfe von iSCSI oder Fibre Channel over Ethernet (FCoE) bieten. InfiniBand ist eine weitere Option für ein Hochleistungs-Speichernetzwerk. Dateizugriffsprotokolle wie NFS, SMB 3.0, HTTP oder FTP ermöglichen den Zugriff auf Dateiebene über ein IP-basiertes Ethernet-Netzwerk.

Dieser Abschnitt beschreibt eine Reihe von Speicheroptionen, die Ihnen einige wichtige fundierte Entwurfsentscheidungen ermöglichen, die Sie beim Erwägen von Alternativen in Betracht ziehen müssen. Unter anderem werden folgende Optionen erläutert:

  1. Speicherprotokolle

  2. Speichernetzwerk

  3. Freigegebene Clustervolumes (Cluster Shared Volumes, CSV)

Obwohl viele Speicheroptionen vorhanden sind, sollten Organisationen ihre Speichergeräte basierend auf ihren speziellen Anforderungen hinsichtlich der Datenverwaltung auswählen. Normalerweise sind Speichergeräte modulare und flexible Midrange- und High-End-SANs. Modulare Midrange-SANs werden voneinander unabhängig angeschafft und können zur Steigerung der Kapazität miteinander verkettet werden. Sie sind effizient, können nach Bedarf mit der Umgebung erweitert werden und sind zu Beginn weniger investitionsintensiv als High-End-SANs. Große Unternehmen und Hoster benötigen möglicherweise mehr Speicher und müssen eine größere Anzahl von Kunden und Arbeitsauslastungen bedienen. High-End-SANs können in diesem Fall die höchste Leistung und Kapazität bereitstellen. High-End-SANs beinhalten in der Regel aufgrund von Technologien wie Replikation und Clustering fortschrittlichere Funktionen, wie etwa die kontinuierliche Datenverfügbarkeit. Allerdings kann der Preis für diese High-End-SANs enorm hoch sein. Diese Kosten sollten beim Vergleich mit anderen Optionen berücksichtigt werden.

Fibre Channel war bisher das bevorzugte Speicherprotokoll für Rechenzentren von Unternehmen. Dies hatte viele Gründe, wie etwa die gute Leistung und die geringe Latenz. In den vergangenen Jahren hat jedoch der Anstieg der Ethernet-Leistung von 1 Gbit/s auf 10 Gbit/s und höher zu einer starken Nachfrage nach Speicherprotokollen geführt, die Ethernet-Transport nutzen, wie iSCSI und jüngst FCoE. SMB 3.0 kann auch für den dateibasierten Speicherzugriff verwendet werden. Es bietet im Vergleich zu iSCSI oder FCoE die gleiche oder sogar eine höhere Leistung.

Ein wichtiger Vorteil der Protokolle, die Ethernet-Transport nutzen, ist die Fähigkeit, eine „zusammengeführte“ Netzwerkarchitektur zu verwenden, in der eine einzige Ethernet-Infrastruktur als Transportmittel für LAN- und Speicherdatenverkehr dient. FCoE ist eine aufstrebende Technologie, welche sowohl die Vorteile des Ethernet-Transports als auch des Fibre Channel-Protokolls bietet und die Verwendung von Fibre Channel-Speicherarrays ermöglicht. SMB 3.0 kann für die Verbindung zu Dateiservern verwendet werden, die virtuelle Computer hosten.Windows Server 2012 unterstützt eine zusammengeführte Netzwerkinfrastruktur vollständig.

In der Vergangenheit war es bei großen Hyper-V-Bereitstellungen üblich, Fibre Channel und iSCSI zu verwenden. Fibre Channel und iSCSI können die Hostspeicherkonnektivität bereitstellen. Ebenso kann sowohl Fibre Channel als auch iSCSI direkt von Gästen genutzt werden – z. B. für die freigegebenen Datenträger in einem Gastcluster. Dies ist durch das neue Windows Server 2012-Feature möglich, das Fibre Channel-HBAs auf virtuellen Gastcomputern bereitstellt. In Windows Server 2012 kann SMB 3.0 die gleichen Vorteile bieten. Darüber hinaus profitieren Sie bei Windows Server 2012 von einer neuen Speicheroption, die als „Speicherplätze“ bezeichnet wird. Sie können damit einem Dateiservercluster SAS-JBOD-Einheiten zuordnen und vom Computercluster aus über das Ethernet-Netzwerk auf die Dateien des virtuellen Computers zugreifen.

System_CAPS_noteHinweis

Windows Server 2012 unterstützt jetzt Offload Data Transfer (ODX), ein neues Hochleistungs-Speicherprotokoll, das den Verarbeitungs- und Zeitaufwand zum Kopieren von Dateien von einer Speichereinheit zu einer anderen reduziert. Weitere Informationen über ODX finden Sie unter Übersicht über Windows Offloaded Data Transfer (ODX).

iSCSI, SMB 3.0 und FCoE verwenden für Speichernetzwerke Ethernet-Transport. Dies bietet hinsichtlich der Architektur weitere Wahlmöglichkeiten bezüglich dessen, ob ein dediziertes Ethernet-Netzwerk mit separaten Switches, Kabeln, Pfaden und anderer Infrastruktur oder aber ein zusammengeführtes Netzwerk verwendet werden soll, in dem mehrere Datenverkehrstypen dieselbe Verkabelung und Infrastruktur nutzen.

Die Speicherlösung muss eine logische oder physische Isolierung zwischen Speicher und Ethernet-E/A bieten. Bei einem zusammengeführten Netzwerk muss QoS bereitgestellt werden, um die Speicherleistung zu gewährleisten. Die Speicherlösung muss iSCSI- oder Fibre Channel-Konnektivität für das Gastclustering sowie vollständig redundant, unabhängige Pfade für Speicher-E/A bieten.

Für FCoE sollten standardbasierte zusammengeführte Netzwerkadapter, Switches und Fibre Channel-Speicherarrays verwendet werden. Wenn iSCSI, FCoE oder SMB 3.0 verwendet wird, können Sie einen dedizierten Netzwerkadapter für Speicherdatenverkehr zuweisen oder die neuen Hyper-V-Switch-Funktionen in Windows Server 2012 nutzen, um eine zusammengeführte Netzwerkinfrastruktur zu erstellen.

CSVs (Cluster Shared Volumes, freigegebene Clustervolumes) stellen eine Lösung für den verteilten Dateizugriff bereit, sodass mehrere Knoten im Cluster gleichzeitig auf dasselbe NTFS-Dateisystem zugreifen können. Dadurch können beispielsweise virtuelle Computer, die auf mehrere Clusterknoten verteilt sind, auf ihre Dateien für virtuelle Festplatten (VHD-Dateien) zugreifen, selbst wenn sich die VHD-Dateien auf nur einem Datenträger (Logical Unit Number, LUN) im Speicher befinden. Dies ermöglicht auch die Verschiebung virtueller Computer auf einen beliebigen Knoten im Cluster, da jeder Clusterknoten Zugriff auf die im CSV enthaltene Dateien hat. Die geclusterten virtuellen Computer können auch unabhängig voneinander einen Failover durchführen und müssen sich nicht länger als eine Ressourcengruppe präsentieren.

Nachfolgend finden Sie eine nicht erschöpfende Liste neuer CSV-Funktionen in Windows Server 2012, die Sie beim Entwerfen der Infrastruktur für freigegebenen Speicher für Ihre Private Cloud verwenden können:

  • Ein Speichersystem für Dateiserver mit horizontaler Skalierung, das fortlaufend verfügbaren und skalierbaren dateibasierten SMB-Serveranwendungsspeicher bereitstellen kann. Die Funktion für Dateiserver mit horizontaler Skalierung wird verwendet, wenn Sie die Dateien des virtuellen Computers in einem Speichercluster hosten. Weitere Informationen finden Sie unter Unterstützung für Dateiserver mit horizontaler Skalierung.

  • Einen einzelnen konsistenten Namespace, mit CSV-Volumes, die jetzt als CSV-Dateisystem (CSV File System, CSVFS) angezeigt werden. Die zugrundeliegende Technologie ist immer noch das NTFS-Dateisystem, und Volumes werden noch immer mit NTFS formatiert. In einer Clusterumgebung muss das CSV als NTFS formatiert sein, da ReFS nicht auf CSVs in Windows Server 2012 unterstützt wird.

  • Direkten E/A für den Zugriff auf Dateidaten, einschließlich Dateien mit geringer Dichte, was das Erstellen virtueller Computer erleichtert und die Kopierleistung verbessert. Eine E/A-Umleitung wird verwendet, wenn Speicherplätze mittels gespiegelter oder paritätsbasierter Resilienz bereitgestellt werden.

  • Keine externen Authentifizierungsabhängigkeiten, wodurch sich die Leistung und Resilienz verbessern. Der Cluster kann jetzt gestartet werden, und das CSV wird auch dann bereitgestellt, wenn beim Neustart des Clusters kein Active Directory-Domänencontroller verfügbar ist.

  • Unterstützung für SMB 3.0-Speicher für Hyper-V und Anwendungen wie SQL Server. Weitere Informationen zu den Funktionen von SMB 3.0 finden Sie unter Server Message Block – Übersicht.

  • Integration in SMB Multichannel und SMB Direct, sodass CSV-Datenverkehr über mehrere Netzwerke im Cluster gestreamt werden kann. Außerdem können Netzwerkadapter genutzt werden, die den Remotezugriff auf den direkten Speicher (Remote Direct Memory Access, RDMA) unterstützen. SMB bietet darüber hinaus ein transparentes Failover. Wenn ein Mitglied des Dateiserverclusters ausfällt, bleiben Verbindungen zu Dateien der virtuellen Computer weiterhin verfügbar und es entsteht keine Ausfallzeit.

  • Unterstützung für BitLocker Drive Encryption für CSVs zusätzlich zu herkömmlichen Clusterdatenträgern. Dies ist besonders nützlich, wenn Cluster in Zweigstellen und anderen Umgebungen mit geringer Sicherheit bereitgestellt werden.

  • Die Fähigkeit, Speicher nur für eine Teilmenge der Knoten sichtbar zu machen. Dies ermöglicht Szenarien, in denen ein einzelner Cluster Anwendungs- und Datenknoten enthält. Dies ist ein Beispiel für einen „asymmetrischen Speichercluster“. In diesem Entwurfsmuster sind einige der Knoten im Cluster mit Speicher verbunden und andere Knoten der Computerolle zugeordnet. Die Computeknoten stellen in diesem Fall über das SMB 3.0-Protokoll eine Verbindung zum dateibasierten Speicher her.

  • Integration in das Speicherplätze-Feature in Windows Server 2012. Auf diese Weise kann virtualisierter Speicher in Clustern von kostengünstigen SAS-Datenträgern bereitgestellt werden. Weitere Informationen zu Speicherplätzen finden Sie unter Datei- und Speicherdienste: Übersicht.

  • Möglichkeit zum Überprüfen und Reparieren von Volumes ohne Ausfallzeiten aufgrund der neuen Funktionen der CHKDSK-Anwendung in Windows Server 2012. Weitere Informationen zu Neuerungen hinsichtlich CHKDSK finden Sie unter Multi-Terabyte-Volumes.

CSVs bieten nicht nur gemeinsamen Zugriff auf den Datenträger, sondern auch eine E/A-Fehlertoleranz für den Speicherpfad (dynamische E/A-Umleitung). Falls der Speicherpfad auf einem Knoten ausfällt, wird der E/A für diesen Knoten über SMB 3.0 durch einen anderen Knoten umgeleitet. Dieses Feature kann mit einem beliebigen Clusterkommunikationsnetzwerk genutzt werden. Es erhöht den Bedarf an 10-GB-Hochgeschwindigkeits-Ethernet-Netzwerken.

CSVs verwalten Metadateninformationen über den Volumezugriff und erfordern, dass einige E/A-Vorgänge über das Clusterkommunikationsnetzwerk stattfinden. Ein Knoten im Cluster wird als Koordinatorknoten verwendet und ist für diese Datenträgervorgänge zuständig. Virtuelle Computer haben jedoch direkten E/A-Zugriff auf die Volumes und verwenden nur die dedizierten Speicherpfade für Datenträger-E/A (sofern nicht wie oben beschrieben ein Fehlerszenario auftritt). Eine Ausnahme besteht bei Speicherplätzen, wenn dem CSV Resilienz hinzugefügt wird.

Beim Implementieren einer Private Cloud für Windows Server 2012, die CSVs verwendet, gelten unter anderem folgende Anforderungen:

  • Alle Clusterknoten müssen Windows Server 2012 verwenden.

  • Der Laufwerkbuchstabe für den Systemdatenträger muss auf allen Knoten identisch sein.

  • Alle Clusterknoten müssen sich im selben logischen Subnetz befinden.

  • SMB muss für jedes Netzwerk auf jedem Knoten aktiviert sein, der für die CSV-Clusterkommunikation zuständig ist.

  • In den Eigenschaften des Netzwerkadapters müssen „Client für Microsoft-Netzwerke“ und „Datei- und Druckerfreigabe für Microsoft-Netzwerke“ aktiviert sein, um alle Knoten im Cluster für die Kommunikation mit dem CSV zu aktivieren.

  • Die Hyper-V-Rolle muss auf allen Clusterknoten installiert sein, die gegebenenfalls einen virtuellen Computer hosten.

Wenn Sie den Failovercluster mithilfe des Failovercluster-Assistenten konfigurieren, werden die meisten dieser Konfigurationsanforderungen automatisch erfüllt.

Da alle Knoten des Clusters auf alle CSV-Volumes gleichzeitig zugreifen können, stehen Ihnen jetzt Standardmethoden für die LUN-Zuordnung basierend auf den Leistungs- und Kapazitätsanforderungen der Arbeitsauslastungen innerhalb der virtuellen Computer zur Verfügung. Im Allgemeinen gilt es als empfehlenswert, den Betriebssystem-E/A des virtuellen Computers vom Anwendungsdaten-E/A zu isolieren. Des Weiteren sollten anwendungsspezifischen E/A-Überlegungen angestellt werden, wie das Trennen der Datenbanken von den Transaktionsprotokollen und das Erstellen von SAN-Volumes und/oder auf Speicherplätzen basierten Speicherpools, die das E/A-Profil berücksichtigen (z. B. nach dem Zufallsprinzip ausgeführte Lese- und Schreibvorgänge anstelle von sequenziellen Schreibvorgängen).

Die CSV-Architektur unterscheidet sich von herkömmlichen geclusterten Dateisystemen und unterliegt somit nicht den gängigen Einschränkungen hinsichtlich der Skalierbarkeit. Daher gelten keine spezielle Vorgaben für die Skalierung bzw. Anzahl der Hyper-V-Knoten oder virtuellen Computer auf einem CSV-Volume. Wichtig ist nur, dass die allgemeinen E/A-Anforderungen der voraussichtlich auf dem CSV ausgeführten virtuellen Computer vom zugrundeliegenden Speichersystem und Speichernetzwerk erfüllt werden.

Datenträger und Volumes können in seltenen Fällen einen Zustand erlangen, in dem der Befehl „chkdsk“ erforderlich ist. Bei großen Datenträgern kann die Befehlsausführung extrem lang dauern. Die Ausfallzeit des Volumes während dieses Vorgangs ist etwas proportional zur Volumegröße. Es wurden jedoch erhebliche Verbesserungen an der chkdsk-Funktion in Windows Server 2012 vorgenommen. Selbst bei extrem großen Volumes mit Millionen von Dateien sollte die Überprüfung nicht mehr als eine Minute dauern.

Für jede Unternehmensanwendung, die auf einem virtuellen Computer ausgeführt werden soll, können individuelle Speicherempfehlungen und möglicherweise sogar virtualisierungsspezifische Speichervorgaben gelten. Diese Vorgaben gelten auch für die Verwendung mit CSV-Volumes. Wichtig zu bedenken ist, dass alle virtuellen Computer und virtuellen Datenträger, die auf einem bestimmten CSV ausgeführt werden, um Speicher-E/A konkurrieren.

Zu beachten ist auch, dass einzelne SAN-LUNs nicht unbedingt dedizierten Festplattenspindles entsprechen. Eine SAN-Speicherpool oder ein RAID-Array (Redundant Array of Independent Disks) kann viele LUNs enthalten. Eine LUN ist einfach eine logische Darstellung eines Datenträgers, der von einem Pool von Datenträgern bereitgestellt wird. Wenn eine Unternehmensanwendung einen bestimmten Speicher-E/A pro Sekunde (I/O per Second, IOPS) oder bestimmte Datenträgerantwortzeiten benötigt, müssen daher alle in diesem Speicherpool verwendeten LUNs berücksichtigt werden. Bei Anwendungen, die in nicht virtualisiertem Zustand dedizierte physische Datenträger benötigen, müssen möglicherweise dedizierte Speicherpools und CSV-Volumes auf einem virtuellen Computer ausgeführt werden.

System_CAPS_noteHinweis

Wenn Sie zum Hosten Ihrer CSVs die Verwendung von Speicherplätzen in Betracht ziehen, sollten Sie gegebenenfalls berücksichtigen, dass bei der Aktivierung von Resilienz für das CSV nur ein einziger Knoten direkt in das CSV schreiben kann. Die anderen Knoten werden in diesem Szenario mittels E/A-Umleitung an den Koordinatorknoten geleitet. Aus diesem Grund empfiehlt es sich gegebenenfalls, mehrere CSVs zu erstellen (z. B. eins pro Clustermitglied) und die Dateien für virtuelle Computer auf die CSVs zu verteilen, sodass ein einzelner Knoten nicht aufgrund der E/A-Umleitung eine unverhältnismäßig große Menge an Netzwerkdatenverkehr empfängt.

Bei dem Entwurfsmuster mit einem CSV pro Cluster wird der Speicher so konfiguriert, dass allen Knoten im Cluster eine einzelne große LUN bereitgestellt wird. Die LUN ist im Failoverclustering als CSV konfiguriert. Alle mit virtuellen Computern verbundenen Dateien (z. B. virtuelle Festplatten und Konfigurationsdateien), die den virtuellen Computern im Cluster angehören, werden im CSV gespeichert. Optional kann die Datendeduplizierungsfunktion des SAN oder die Deduplizierungsfunktion von Windows Server 2012 verwendet werden. Beachten Sie, dass beim Konfigurieren eines Dateiserverclusters mit der Funktion für Dateiserver mit horizontaler Skalierung die Deduplizierungsfunktion von Windows Server 2012 nicht verfügbar ist. Sie können die Datendeduplizierungsfunktion von Windows Server 2012 jedoch trotzdem in Ihren Bibliotheken für virtuelle Computer nutzen.

Bei dem Entwurfsmuster mit mehreren CSVs pro Cluster wird der Speicher so konfiguriert, dass allen Knoten im Hostcluster zwei oder mehr große LUN bereitgestellt wird. Die LUNs oder virtuellen Datenträger für Speicherplätze werden als ein CSV im Failoverclustering konfiguriert. Alle mit virtuellen Computern verbundenen Dateien (z. B. virtuelle Festplatten und Konfigurationsdateien), die den virtuellen Computern im Cluster angehören, werden in den CSVs gespeichert. Optional können Sie die Datendeduplizierungsfunktion des SAN oder die Deduplizierungsfunktion von Windows Server 2012 verwenden. Hierbei gelten jedoch bestimmte bereits erwähnte Einschränkungen.

Bei den Mustern mit einem oder mehreren CSVs haben alle CSVs dieselben E/A-Eigenschaften. Somit sind alle zu einem virtuellen Computer gehörenden virtuellen Festplatten auf einem der CSVs gespeichert. Alternativ können Sie Speicherebenen verwenden und den verschiedenen Ebenen CSVs zuweisen. Dies ist hilfreich, wenn Sie im Rahmen Ihres Katalogs mit Private Cloud-Diensten Speicheroptionen bereitstellen möchten.

Bei dem Entwurfsmuster mit mehreren E/A-optimierten CSVs pro Cluster ist das SAN so konfiguriert, dass allen Knoten im Cluster mehrere LUNs oder virtuelle Datenträger für Speicherplätze bereitgestellt werden, aber für bestimmte E/A-Muster optimiert sind, beispielsweise für eine sequenzielle Leseleistung oder eine schnelle Schreibleistung nach dem Zufallsprinzip. Die Volumes werden als CSVs im Failoverclustering konfiguriert. Alle virtuellen Festplatten der im Cluster gehosteten virtuellen Computer werden in den CSVs gespeichert, aber dem am besten geeigneten CSV für die gegebenen E/A-Anforderungen zugewiesen.

Bei dem Entwurfsmuster für mehrere E/A-optimierte CSVs pro Cluster sind alle mit einem virtuellen Computer verbundenen virtuellen Festplatten gemäß den E/A-Anforderungen im entsprechenden CSV gespeichert.

Beachten Sie, dass ein einzelner virtueller Computer über mehrere virtuelle Festplatten verfügen kann. Jede virtuelle Festplatte kann wiederum in einem anderen CSV gespeichert sein (vorausgesetzt, dass alle CSVs dem Hostcluster zur Verfügung stehen, in dem der virtuelle Computer erstellt wurde).

Darüber hinaus können Sie den CSV-E/A durch die Nutzung eines CSV-Lesecaches mit Schreibzugriff weiter optimieren. Weitere Informationen zu dieser Funktion erhalten Sie im Artikel über das Aktivieren des CSV-Caches.

Ein hochverfügbarer Speicherentwurf, bei dem entweder ein SAN oder eine SAS-basierte JBOD-Lösung und Speicherplätze verwendet werden können, sollte keine einzelnen Fehlerquellen aufweisen:

  • Redundante Stromversorgung aus unabhängigen Stromverteilereinheiten (Power Distribution Units, PDUs)

  • Redundante Speichercontroller

  • Redundante Speicherpfade (z. B. unterstützt durch redundante Zielports von Netzwerkadaptern pro Controller, redundanten Fibre Channel- oder IP-Netzwerkswitches und redundanter Verkabelung)

  • Datenspeicherredundanz ähnlich der bei der Volumespiegelung oder -parität oder synchrone oder asynchrone Replikation

Sie müssen beim Entwerfen oder Ändern Ihrer Speicherlösung folgende Elemente als Grundlage für Ihre Microsoft Private Cloud-Speicherinfrastruktur berücksichtigen:

  • Leistung

  • Laufwerkstypen

  • Multipfad

  • Fibre Channel-SAN

  • iSCSI-SAN

  • Speicherplätze

  • Datendeduplizierung

  • Schlanke Speicherzuweisung

  • Volumeklonen

  • Volumesnapshots

Die Speicherleistung wird durch Faktoren wie Laufwerk, Schnittstelle, Controller, Cache, Protokoll, SAN, Hostbusadapter (HBA), Treiber und Betriebssystem bestimmt. Die allgemeine Leistung der Speicherarchitektur wird in der Regel anhand des maximalen Durchsatzes und/oder des maximalen IOPS-Werts für einen bestimmten Latenz oder Antwortzeit gemessen. Obwohl jede dieser Leistungsmessungen wichtig ist, stellt der IOPS-Wert für eine bestimmte Latenz den wichtigsten Faktor für die Servervirtualisierung in Private Cloud-Umgebungen dar.

Ein weiterer wichtiger Aspekt ist der Typ der Cloudinfrastruktur, die Sie bereitstellen möchten. In den meisten Fällen stellt die Private Cloud eine allgemeine Infrastruktur bereit, die nicht für bestimmte Arbeitsauslastungen konzipiert ist. Für Arbeitsauslastungen, deren Leistungsmerkmale hinsichtlich des Datenträgers außerhalb der Funktionen einer allgemeinen Private Cloud-Infrastruktur liegen, sollte eine dedizierte Infrastruktur erstellt werden.

Der Typ der auf dem Hostserver oder im Speicherarray verwendeten Festplatte beeinflusst die allgemeine Leistung der Speicherarchitektur am deutlichsten. Wie bei der Speicherkonnektivität sind auch hier hinsichtlich der Serverdimensionierung und der Gastleistung ein hoher IOPS-Wert und eine geringe Latenz wichtiger, als permanenter maximaler Durchsatz. Wählen Sie Laufwerke mit einer möglichst hohen Drehzahl und einer möglichst geringen Latenz. Laufwerke mit 15.000 U/min erzielen im Vergleich zu Laufwerken mit 10.000 U/min einen bis zu 35 Prozent höheren IOPS-Wert.

Sie sollten auch die Verwendung mehrerer Speicherebenen erwägen, um Consumern des Clouddienstes verschiedene Optionen bereitstellen zu können. Ein Speicherebenenschema kann jeweils eine Ebene mit hoher Leistung, eine mit mittlerer Leistung und eine mit hoher Kapazität beinhalten. Diese Ebenen können in den Dienstkatalog aufgenommen werden.Windows Server 2012 bietet Unterstützung für neuere 4K-Laufwerke mit hoher Kapazität, die einer oder mehreren Speicherebenen angehören können. Darüber hinaus werden SSD-Laufwerke in Zukunft zur Norm werden, da die Preise für diese extrem schnelle Speicheroption sinken.

Multipfad sollte verwendet werden, um eine extrem robuste Private Cloud-Speicherinfrastruktur zu erhalten. Eines der Features, die eine hohe Verfügbarkeit von Windows-basierten Serververbindungen zu SANs ermöglichen, ist die integrierte Unterstützung des Multipfad-E/A (Multipath I/O, MPIO). Die Microsoft MPIO-Architektur unterstützt iSCSI-, Fibre Channel- und SAS-SAN-Konnektivität durch die Einrichtung mehrerer Sitzungen oder Verbindungen mit dem Speicherarray. Multipfad-Lösungen verwendet redundante physische Pfadkomponenten, wie Adapter, Kabel und Switches, um logische Pfade zwischen dem Server und dem Speichergerät zu erstellen. Wenn eine oder mehrere dieser Komponenten ausfallen und damit der Pfad unterbrochen wird, verwendet die Multipfad-Logik einen alternativen Pfad für E/A, sodass Anwendungen weiterhin auf ihre Daten zugreifen können. Alle Ethernet-Schnittstellen und HBAs sollten über redundante Switchinfrastrukturen weiterhin verbunden sein, um einen kontinuierlichen Speicherzugriff sicherzustellen, falls eine Speicherfabric-Komponente ausfällt.

Failoverzeiten variieren je nach Speicheranbieter und können mithilfe von Zeitgebern im Microsoft iSCSI Software Initiator-Treiber konfiguriert werden. Sie könne auch die Treiberparametereinstellungen des Fibre Channel-Hostbusadapters ändern.

Fibre Channel ist ein robustes Hochgeschwindigkeits-Speicherprotokoll, das Multipfad mithilfe von Microsoft Windows Server 2012 MPIO unterstützt.Windows Server 2012 bietet Fibre Channel-Ports für Host- und Gastbetriebssysteme. Die Unterstützung der Konnektivität von Gastbetriebssystemen über Fibre Channel ist neu in Windows Server 2012. Sie können damit von virtuellen Computern aus eine direkt Verbindung mit Fibre Channel herstellen. Dieses Feature ermöglicht es Ihnen, Arbeitsauslastungen zu virtualisieren, für die ein direkter Zugriff auf den Fibre Channel-Speicher erforderlich ist. Zudem können Sie Gastbetriebssysteme über Fibre Channel clustern.

Mittelgroße Speicherarrays und High-End-Speicherarrays bieten erweiterte Speicherfunktionen, mit denen bestimmte Verwaltungsaufgaben von den Hosts in die SANs ausgelagert werden können. Der virtuelle Fibre Channel stellt einen alternativen hardwarebasierten E/A-Pfad zum Stapel der virtuellen Festplatten mit Windows-Software dar. Dadurch können Sie die erweiterten Funktionen der Fibre Channel-SANs direkt auf den virtuellen Hyper-V-Computern nutzen. Sie können beispielsweise mit Hyper-V Speicherfunktionen (z. B. Snapshoterstellung einer LUN) mithilfe eines Volumeschattenkopie-Dienstanbieters für Hardware auf einem virtuellen Hyper-V-Computer auf die SAN-Hardware auslagern.

Windows Server 2012 Hyper-V ermöglicht das Festlegen virtueller SANs auf dem Host für Szenarien, in denen ein einzelner Hyper-V-Host über mehrere Fibre Channel-Ports mit verschiedenen SANs verbunden ist. Ein virtuelles SAN definiert eine benannte Gruppe physischer Fibre Channel-Ports die mit demselben physischen SAN verbunden sind. Beispiel: Ein Hyper-V-Host ist mit zwei SANs verbunden – einem Produktions-SAN und einem Test-SAN. Der Host ist mit den beiden SANs über zwei physische Fibre Channel-Ports verbunden. In diesem Beispiel können Sie zwei virtuelle SANs konfigurieren: eins mit dem Namen „Produktions-SAN“, bei dem die beiden physischen Fibre Channel-Ports mit dem Produktions-SAN verbunden sind, und eins mit dem Namen „Test-SAN“, bei dem zwei physische Fibre Channel-Ports mit dem Test-SAN verbunden sind. Mit derselben Technik können Sie zwei separate Pfade zu einem Speicherziel benennen.

Sie können bis zu vier virtuelle Fibre Channel-Adapter auf einem virtuellen Computer konfigurieren und sie jeweils einem virtuellen SAN zuordnen. Jeder virtuelle Fibre Channel-Adapter stellt eine Verbindung mit einer WWN-Adresse oder zwei WWN-Adressen her, um die Livemigration zu unterstützen. Sie können die einzelnen WWN-Adressen automatisch oder manuell festlegen.

Hyper-V kann in Windows Server 2012 von einem virtuellen Computer aus mit der Funktion für Multipfad-E/A (Multipath I/O, MPIO) die fortlaufende Konnektivität mit dem Fibre Channel-Speicher gewährleisten.

Die MPIO-Funktion kann mit Fibre Channel folgendermaßen verwendet werden:

  • Virtualisieren von Arbeitsauslastungen, die MPIO nutzen. Installieren Sie mehrere Fibre Channel-Ports auf dem Host, und stellen Sie mit MPIO Konnektivität mit hoher Verfügbarkeit zu den LUNs bereit, auf die vom Host zugegriffen werden kann.

  • Konfigurieren Sie mehrere virtuelle Fibre Channel-Adapter in einem virtuellen Computer, und stellen Sie mit einer separaten Kopie von MPIO im Gastbetriebssystem des virtuellen Computers eine Verbindung mit den LUNs her, auf die der virtuelle Computer zugreifen kann. Diese Konfiguration kann gleichzeitig mit einem Host-MPIO-Setup verwendet werden.

  • Verwenden Sie unterschiedliche DSMs für den Host oder die einzelnen virtuellen Computer. Dieser Ansatz ermöglicht die Livemigration der Konfiguration des virtuellen Computers, einschließlich der Konfiguration des DSM und der Konnektivität zwischen Hosts sowie der Kompatibilität mit vorhandenen Serverkonfigurationen und DSMs.

Im Gegensatz zu einem SAN, das mit einem Fibre Channel verbunden ist und sich in seinem eigenen Fibre Channel-Netzwerk befindet, kann das iSCSI-SAN in einem eigenen isolierten Ethernet- oder InfiniBand-Netzwerk vorhanden sein oder von Windows Server 2012-Funktionen profitieren, die eine Netzwerkzusammenführung ermöglichen, um die für eine mehrinstanzfähige Architektur wichtige Isolation zu unterstützen. Dieses Ziel kann mit einer beliebigen herkömmlichen Netzwerkmethode erreicht werden, beispielsweise mit einem physisch getrennten, dedizierten Speichernetzwerk oder einem physisch freigegebenen Netzwerk, bei dem das iSCSI-SAN in einem privaten VLAN ausgeführt wird. Alternativ können Sie neue Funktionen für QoS und Port-Zugriffssteuerungslisten (Access Control Lists, ACLs) in Windows Server 2012 verwenden, um das Speichernetzwerk mit anderen Netzwerkdatenflüssen mit und ohne Mandanten zusammenzuführen.

In Windows Server 2012 ist das iSCSI-Softwareziel jetzt als ein in die Datei- und Speicherdienstrolle integriertes Feature verfügbar. Als Eingangsbox-Feature sind die Verwaltungsfunktionen im Server-Manager und in der Failover-Clusterverwaltungskonsole integriert.

Bei Verwendung in einer Cloudinfrastruktur eignet sich das iSCSI-Softwareziel optimal für:

  • Netzwerkstart/Start ohne Datenträger: Mit startfähigen Netzwerkadaptern oder einem Softwareladeprogramm können Sie Hunderte von Hostserver ohne Datenträger bereitstellen. Dies ist ideal für große Bereitstellungen identischer Betriebssystemimages, beispielsweise ein Hyper-V-Computecluster.

  • Serveranwendungsspeicher: Einige Anwendungen erfordern Blockspeicher. Das iSCSI-Softwareziel kann diese Anwendungen mit durchgängig verfügbarem Blockspeicher versorgen. Da der Speicher remote zugänglich ist, kann Blockspeicher auch für zentrale Standorte oder Filialen konsolidiert werden.

  • Heterogener Speicher: Das iSCSI-Softwareziel unterstützt iSCSI-Initiatoren, die nicht zu Windows gehören. Dadurch kann Speicher auf Windows-Servern in einer gemischten Umgebung einfach freigegeben werden.

  • Entwicklungs-/Test-/Demo-/Laborclouds: Ist das iSCSI-Softwareziel aktiviert, werden alle Server, auf denen Windows Server ausgeführt wird, zu einem über das Netzwerk zugänglichen Blockspeichergerät. Auf diese Weise lassen sich Anwendungen vor der Bereitstellung im SAN-Speicher optimal testen.

Durch das Aktivieren des Microsoft iSCSI-Softwareziels für die Bereitstellung von Blockspeicher können Sie Ihr vorhandenes Ethernet-Netzwerk optimal nutzen. Es ist keine zusätzliche Hardware erforderlich. Um eine hohe Verfügbarkeit zu erzielen, sollten Sie das Einrichten eines hochverfügbaren Speicherclusters erwägen. Bei einem hochverfügbaren Speichercluster benötigen Sie freigegebenen Speicher für den Cluster, beispielsweise Fibre Channel-Speicher oder ein SAS-Speicherarray, der/das mithilfe von Speicherplätzen konfiguriert werden kann.

Wenn Sie Gast-Clustering aktivieren, müssen Sie Blockspeicher bereitstellen. Alle Server, auf denen Windows Server-Software mit dem Microsoft iSCSI-Softwareziel ausgeführt wird, können Blockspeicher bereitstellen. Mit einem iSCSI-Zielserver können Sie mehrere Computer aus einem einzelnen, zentral gespeicherten Betriebssystemimage starten. Das iSCSI-Softwareziel in Windows Server 2012 kann Hunderte von Computer mithilfe eines einzelnen Betriebssystemimages starten und bietet mehrere wichtige Vorteile:

Durch differenzierende virtuelle Datenträger können Sie beispielsweise mithilfe eines einzelnen Betriebssystemimages (dem „goldenen Image“) bis zu 256 Computer starten. In einer Bereitstellung von Windows Server 2008 R2 HPC Edition ist das Betriebssystemimage etwa 20 GB groß. Die Bereitstellung erfolgt meist über zwei gespiegelte Laufwerke, die als Startvolume fungieren. Bei einem Betriebssystemspeicher von rund 40 GB pro Instanz würden Sie – allein für das Betriebssystemimage – etwa 10 TB Speicher benötigen, um 256 Computer zu starten. Mit dem iSCSI-Softwarezielstart benötigen Sie jedoch 40 GB für das Basisimage des Betriebssystems und 2 GB für differenzierende virtuelle Festplatten (Virtual Hard Disks, VHDs) pro Serverinstanz, also insgesamt 552 GB für die Betriebssystemimages. Das stellt allein bei den Betriebssystemimages eine Speicherersparnis von über 90 Prozent dar.

Zu den weiteren Vorteilen der Verwendung der iSCSI-Zielstartfunktion von Windows Server 2012 in Ihrer Private Cloud-Speicherinfrastruktur gehören:

  • Kontrollierte Betriebssystemimages machen es sicherer und erleichtern die Verwaltung. In einigen Unternehmen ist die Sicherung von Daten durch physisch gesperrten Speicher an einem zentralen Standort erforderlich. Bei diesem Szenario greifen Server remote auf die Daten zu, auch auf das Betriebssystemimage. Mit dem iSCSI-Softwarezielstart können Sie die Betriebssystem-Startimages zentral verwalten und zudem steuern, welche Anwendungen in das goldene Image aufgenommen werden sollen.

  • Schnelle Bereitstellung. Da es sich bei dem goldenen Image um ein mit Sysprep vorbereitetes Betriebssystemimage handelt, überspringen Computer beim Starten aus dem goldenen Image die Phase bei Windows Setup, in der Dateien kopiert und installiert werden, und beginnen direkt mit der Anpassungsphase. Bei unseren Tests haben wir 256 Computer in 34 Minuten bereitgestellt.

  • Schnelle Wiederherstellung. Da die Betriebssystemimages auf dem iSCSI-Zielserver gehostet sind, kann bei einem Austausch des datenträgerlosen Clients der neue Computer auf das Betriebssystemimage verweisen und direkt starten.

  • Zentralisierte Aktualisierung des goldenen Images: Sie können alle Hostsysteme in Ihrer Private Cloud aktualisieren, indem Sie das goldene Image aktualisieren. Der Neustart der Clustermitglieder erfolgt vom neuen goldenen Image aus. Nach dem Starten auszuführende Aufgaben können in den Cloudfabric-Controller integriert werden, damit der aktualisierte Server wieder in den Cluster integriert wird.

Der SAN-Start wird als Lösung von zahlreichen Anbietern offeriert. Mit Windows Server 2012 bietet das neue iSCSI-Softwareziel-Feature jetzt diese Netzwerkstartfunktion auf Standardhardware, was zu erheblichen Kosteneinsparungen führen kann, da keine Spezialhardware erforderlich ist. In Rechenzentren mit großen Bereitstellungen sollte das Design mit der jeweiligen Hardware abgestimmt werden.

System_CAPS_noteHinweis

So ergaben interne Tests von Microsoft, dass bei einer iSCSI-Startbereitstellung für 256 Computer in einer RAID 10-Konfiguration 24 Datenträger mit 15.000 U/min als Speicher erforderlich sind. Eine Netzwerkbandbreite von 10 GB ist optimal. Die allgemeine Schätzung liegt bei 60 iSCSI-Startservern pro 1-GB-Netzwerkadapter. Für dieses Szenario ist jedoch kein iSCSI-startfähiger Netzwerkadapter erforderlich. Falls der Netzwerkadapter keine iSCSI-Unterstützung bietet, kann ein Software-Startladeprogramm verwendet werden (z. B. Open-Source-Startfirmware wie iPXE).

Speicherplätze ermöglichen in Windows Server 2012 kostengünstige, optimal genutzte, hochverfügbare, skalierbare und flexible Speicherlösungen für unternehmenskritische (virtuelle oder physische) Bereitstellungen.Windows Server 2012 bietet anspruchsvolle Funktionen für die Speichervirtualisierung. Sie können somit für einzelne Knoten und skalierbare Bereitstellungen mit mehreren Knoten einen kosteneffektiven, dem Branchenstandard entsprechenden Speicher nutzen.

Mit Speicherplätzen werden in Windows Server 2012 Funktionen zur Speichervirtualisierung bereitgestellt. Der Speicherstapel wurde umfassend erweitert und enthält zwei neue Abstraktionen:

  • Speicherpools sind administrative Einheiten physischer Datenträger. Mit Pools sind Speicheraggregationen, elastische Kapazitätserweiterungen und eine delegierte Verwaltung möglich.

  • Speicherplätze sind virtuelle Festplatten mit zugeordneten Attributen wie gewünschter Resilienzgrad, schlanker oder fester Speicherzuweisung, automatischer oder kontrollierter Zuordnung auf heterogenen Speichermedien und präziser Verwaltungskontrolle.

Aus Gründen der hohen Verfügbarkeit sind Speicherplätze vollständig in das Failoverclustering integriert. Für Bereitstellungen mit horizontaler Skalierung ist außerdem eine CSV-Integration vorhanden. Speicherplätze enthalten die folgenden Features:

  1. Speicherpools: Speicherpools stellen für Speicherplätze die grundlegenden Bausteine dar. Speicherpools können entsprechend den Anforderungen einer Bereitstellung flexibel erstellt werden. Bei Verwendung einer Gruppe von physischen Datenträgern können Sie beispielsweise einen Pool (mit allen verfügbaren physischen Datenträgern) oder mehrere Pools (durch bedarfsgesteuerte Aufteilung der physischen Datenträger) erstellen. Zur Optimierung der Speicherhardware können Sie einen Speicherpool außerdem zu Kombinationen von Festplatten und Solid-State-Laufwerken (SSDs) zuordnen. Pools können einfach durch Hinzufügen von Laufwerken dynamisch erweitert werden.

  2. Mehrinstanzenfähigkeit: Die Verwaltung von Speicherpools kann mithilfe von Zugriffssteuerungslisten (Access Control Lists, ACLs) gesteuert und pro Pool delegiert werden. So werden Hostingszenarien unterstützt, die eine Isolierung von Instanzen erfordern. Speicherplätze basieren auf dem vertrauten Windows-Sicherheitsmodell und können daher vollständig in die Active Directory-Domänendienste integriert werden.

  3. Robuste Speicherung: Für Speicherplätze werden zwei optionale Resilienzmodi unterstützt: Spiegelung und Parität. Die Unterstützung auf Poolbasis von Datenträgern, die als Ersatz für Datenträger mit Fehlern (Hotspares) reserviert sind, die Hintergrundbereinigung und die intelligente Fehlerkorrektur sind Faktoren, die auch beim Ausfall von Speicherkomponenten eine ununterbrochene Verfügbarkeit des Diensts ermöglichen. Beachten Sie, dass bei der Bereitstellung von Resilienz für freigegebene Clustervolumen (Cluster Shared Volumes, CSVs) nur die Spiegeloption verfügbar ist.

  4. Fortlaufende Verfügbarkeit: Speicherplätze sind vollständig in das Failoverclustering integriert, sodass für eine ständige Verfügbarkeit der Dienstbereitstellungen gesorgt ist. Ein oder mehrere Pools können in einem Cluster über mehrere Knoten hinweg zu Clustern zusammengefasst werden. Anschließend können Speicherplätze auf einzelnen Knoten instanziiert werden, und für die Speicherung wird bei Bedarf nahtlos ein Failover auf einen anderen Knoten durchgeführt (als Reaktion auf Fehlerbedingungen oder aufgrund des Lastenausgleichs). Die Integration in CSVs ermöglicht Zugriff auf Daten mit horizontaler Skalierung.

  5. Optimale Speichernutzung: Die Serverkonsolidierung führt häufig dazu, dass mehrere Datasets dieselbe Speicherhardware nutzen. Für Speicherplätze wird die schlanke Speicherzuweisung unterstützt. Auf diese Weise können Unternehmen Speicherkapazität leicht über mehrere unzusammenhängende Datasets freigeben und die Ausnutzung der Kapazität optimieren. Die Trim-Unterstützung erlaubt die Wiedergewinnung von Kapazität, wenn dies möglich ist.

    Speicherplätze sind die optimale kosteneffektive Lösung für Cloudinfrastrukturen, die entwickelt wurden, um eine generische Auffüllung virtueller Arbeitsauslastungen zu unterstützen, die keine spezielle Speicheranforderungen und außergewöhnlichen IOPS-Werte erfordern.

Die Datendeduplizierung kann beträchtliche Einsparungen bei den Speicherkosten in virtualisierten Umgebungen erzielen. Zu den allgemeinen Themen zählen Leistungseinbußen während des Deduplizierungszyklus und das Erreichen maximaler Effizienz, indem ähnliche Datentypen auf demselben Datenträger oder im selben LUN lokalisiert werden. Die Datendeduplizierung kann auf der SAN-Ebene ausgeführt werden. Wenn Sie SAS-Speicher mit Speicherplätzen verwenden, können Sie die neu in Windows Server 2012 integrierte Deduplizierungsfunktion verwenden.

Windows Server 2012 enthält die folgenden Datenduplizierungs- Features, die Sie in Ihrem Cloudspeicherentwurf nutzen können:

  • Kapazitätsoptimierung: Bei der Datendeduplizierung in Windows Server 2012 werden mehr Daten auf weniger physischem Raum gespeichert. Sie erreicht eine höhere Speichereffizienz, als in früheren Versionen mit Einzelinstanz-Speicherung (Single-Instance Storage, SIS) oder NTFS-Komprimierung möglich war. Die Datendeduplizierung kann für herkömmliche Dateiserver ein Optimierungsverhältnis von 2:1 und für Virtualisierungsdaten von 20:1 liefern.

  • Skalierung und Leistung: Die Datendeduplizierung in Windows Server 2012 kann auf Dutzenden großer Primärdatenvolumes gleichzeitig ausgeführt werden, ohne dass sich dies auf andere Arbeitsauslastungen auf dem Server auswirkt. Die geringen Auswirkungen auf die Arbeitsauslastung des Servers werden durch eine Drosselung des Verbrauchs an CPU- und Arbeitsspeicherressourcen erzielt. Darüber hinaus können Sie flexibel die Zeiten für die Ausführung der Datendeduplizierung festlegen, die verfügbaren Ressourcen angeben und Richtlinien für die Datenauswahl einrichten.

  • Zuverlässigkeit und Datenintegrität: Bei der Verwendung der Datendeduplizierung ist es entscheidend, die Integrität der Daten zu wahren.Windows Server 2012 nutzt Prüfsummen-, Konsistenz- und Identitätsprüfungen, um die Datenintegrität zu gewährleisten. Bei der Datendeduplizierung in Windows Server 2012 bleibt zudem die Redundanz erhalten, um sicherzustellen, dass die Daten im Fall einer Beschädigung wiederhergestellt werden können.

Beachten Sie, dass die Datendeduplizierung ein Feature ist, das u. U. alle Daten auf einem ausgewählten Volume verarbeitet. Vor dem Aktivieren des Features ist daher eine sorgfältige Planung erforderlich, um zu entscheiden, ob sich ein Server und die angeschlossenen Volumes für die Deduplizierung eignen. Während der Bereitstellung der Deduplizierung sollten unbedingt regelmäßig Sicherungen von wichtigen Daten erstellt werden.

System_CAPS_noteHinweis

Die Datendeduplizierung in Windows Server 2012 ist nicht auf CSVs verfügbar, die in einem hochverfügbaren Dateiserver mit horizontaler Skalierung ausgeführt werden.

In Private Cloud-Virtualisierungsumgebungen ist ein schlanke Speicherzuweisung üblich. Dies ermöglicht eine effiziente Nutzung der verfügbaren Speicherkapazität. Die LUN oder der virtuelle Datenträger von Speicherplätzen und das entsprechende CSV können bei Bedarf erweitert werden. Dies erfolgt in der Regel automatisch. Allerdings kann in diesem Szenario eine Speicherüberversorgung erfolgen, weshalb eine sorgfältige Kapazitätsverwaltung und -planung wichtig sind. Da die physische Datenzuweisung innerhalb eines Volumes mit schlanker Speicherzuweisung nach Bedarf erfolgt, kann theoretisch eine sehr hohe Volumegröße festgelegt werden, die Speicherplatz für alle Anwendungsdaten und Snapshotkopien bietet.

Der nicht zugewiesene Speicherplatz des Volumes ist nicht ausschließlich für das Volume selbst reserviert. Daher können alle anderen Anwendungen von dem freigegebenen Pool mit nicht zugewiesenem Speicher profitieren. Darüber hinaus sollte bei Verwendung der Deduplizierung die Begrenzungen der Volumegröße berücksichtigt werden, da bei Verwendung von SAN-basierten Speicherlösungen die maximale Größe von Speichercontrollern abhängig ist.

Hochentwickelte und kostenaufwändige Speicherlösungen bieten eine schlanke Speicherzuweisung und die Möglichkeit der Freigabe von nicht mehr benötigtem Speicherplatz (was als Zuschnitt bzw. Trim bezeichnet wird).Windows Server 2012 wird in diese ausgefeilten Lösungen integriert, damit Organisationen ihre Speicherinfrastrukturen ohne Zusatzkosten optimal nutzen können. Sie können die Vorteile der hochentwickelten Speicherinfrastruktur maximieren, die über Windows Server 2012 aufgerufen wird.

Für die schlanke Speicherzuweisung durch Windows Server 2012 gelten folgende Anforderungen:

  • Speicherinfrastruktur, die der Zertifizierung entspricht, die für Windows Server 2012 erforderlich ist

  • Standardisierte Hardware zur Identifizierung.

Um ausgefeilte Speicherlösungen zuverlässig bereitstellen zu können, die die schlanke Speicherzuweisung unterstützen, müssen Sie wissen, dass Sie je nach Bedarf zusätzliche Kapazität bereitstellen können.Windows Server 2012 identifiziert schlank zugewiesene virtuelle Datenträger und bietet standardisierte Benachrichtigungen bezüglich Schwellenwertüberschreitungen sowie eine Plattform, die es Anwendungen ermöglicht, nicht mehr benötigten Speicher freizugeben.

Wenn Sie in Ihrer Cloudinfrastruktur die schlanke Speicherzuweisung nutzen möchten, beachten Sie die folgenden Windows Server 2012-Funktionen:

  • Identifizierung.Windows Server 2012 verwendet eine standardisierte Methode zum Erkennen und Identifizieren von schlank zugewiesenen virtuellen Laufwerken. Dadurch bietet der vom Betriebssystem und über Speicherverwaltungsanwendungen bereitgestellte Speicherstapel zusätzliche Funktionen.

  • Benachrichtigung: Wenn die konfigurierten Nutzungsschwellenwerte für den physischen Speicher erreicht sind, benachrichtigt Windows Server 2012 den Administrator mittels Ereignissen, sodass dieser schnellstmöglich eine geeignete Aktion ausführen kann. Diese Ereignisse können auch von Verwaltungsanwendungen wie System Center zur Automatisierung von Aktionen verwendet werden.

  • Optimierung.Windows Server 2012 bietet eine neue API (Application Programming Interface, Anwendungsprogrammierschnittstelle), mit deren Hilfe Anwendungen nicht benötigten Speicher freigeben können. NTFS gibt bei Bedarf Zuschnittbenachrichtigungen in Echtzeit aus. Darüber hinaus werden Zuschnittbenachrichtigungen als Teil der Speicherkonsolidierung (Optimierung) ausgegeben, die regelmäßig nach einem Zeitplan erfolgt.

    System_CAPS_noteHinweis

    Die Serverkonsolidierung führt häufig dazu, dass mehrere Datasets dieselbe Speicherhardware nutzen. Für Speicherplätze wird die schlanke Speicherzuweisung unterstützt. Auf diese Weise können Sie Speicherkapazität leicht über mehrere unzusammenhängende Datasets freigeben und die Ausnutzung der Kapazität optimieren. Die Trim-Unterstützung erlaubt die Wiedergewinnung von Kapazität, wenn dies möglich ist.

Das Volumeklonen ist eine weitere gängige Methode in Virtualisierungsumgebungen. Sie können das Verfahren für Hostvolumes und Volumes für virtuelle Computer verwenden, um die Installation von Hosts und die Bereitstellung virtueller Computer erheblich zu beschleunigen.

Die schnelle Bereitstellung ist ein gängiges Feature für Private Cloud-Implementierungen. In diesen Umgebungen wird davon ausgegangen, dass Endbenutzer oder Administratoren von Abteilungen virtuelle Computer bereitstellen. Aus diesem Grund muss das System schnell auf Bereitstellungsanfragen reagieren und diese skalieren können, um eine große Anzahl gleichzeitiger Anforderungen verarbeiten zu können. Die klonbasierte Bereitstellung hat gegenüber der herkömmlichen kopiebasierte Bereitstellung mehrere wichtige Vorteile.

Snapshotkopien von SAN-Volumes sind eine gängige Methode zum Bereitstellen einer Sicherung eines SAN-Volumes oder einer LUN zu einem bestimmten Zeitpunkt. Diese Snapshotkopien werden in der Regel auf Blockebene erstellt und belegen nur dann Speicherkapazität, wenn Blöcke im ursprünglichen Volume geändert werden. Einige SANs ermöglichen eine enge Integration in Hyper-V. Dabei werden sowohl Hyper-V VSS Writer auf Hosts als auch Kopien von Volumesnapshots in das SAN integrieren. Diese Integration bietet eine umfassende und leistungsstarke Lösung für die Sicherung und Wiederherstellung.

Windows Server 2012 kann anwendungskonsistente Snapshots der Serveranwendungsdaten erstellen. In Windows Server 2012 erfolgt dies über die VSS-Infrastruktur. VSS für SMB-Dateifreigaben erweitert die VSS-Infrastruktur, um zum Zweck der Sicherung und Wiederherstellung anwendungskonsistente Schattenkopien von Daten auf Remote-SMB-Dateifreigaben zu erstellen. Darüber hinaus ermöglicht es VSS für SMB-Dateifreigaben Sicherungsprogrammen, die zu sichernden Daten direkt aus einer Dateifreigabe für Schattenkopien zu kopieren, anstatt während der Datenübertragung den Serveranwendungscomputer zu involvieren. Da diese Funktion die vorhandene VSS-Infrastruktur nutzt, ist die Integration in bestehende VSS-kompatible Sicherungssoftware und VSS-fähige Anwendungen wie Hyper-V einfach.

Eines der Ziele der Private Cloud-Lösung von Microsoft ist die schnelle Bereitstellung und Aufheben der Bereitstellung von virtuellen Computern. Bei umfangreichen Lösungen erfordert dies eine enge Integration in die Speicherarchitektur sowie eine robuste Automatisierung. Einen neuen virtueller Computer auf einer bereits vorhandene LUN bereitzustellen, ist einfach. Das Bereitstellen einer neuen CSV-LUN und das Hinzufügen zu einem Hostcluster sind jedoch relativ komplexe Aufgaben, die automatisiert werden sollten.

In der Vergangenheit haben viele Speicheranbieter eigene Speicherverwaltungssysteme, APIs und Befehlszeilenprogramme entworfen und implementiert. Dies machte es schwierig, einen gemeinsamen Satz Tools und Skripts in heterogenen Speicherlösungen zu verwenden.

Windows Server 2012 ermöglicht eine umfassende und vollständig skriptfähige Speicherverwaltung, die von Administratoren remote verwaltet werden kann. Eine WMI-basierte Schnittstelle bietet eine zentrale Stelle für die Verwaltung aller Speicher, einschließlich intelligenten Nicht-Microsoft-Speichersubsystemen und virtualisiertem lokalem Speicher (auch als Speicherplätze bekannt). Darüber hinaus können Verwaltungsanwendungen eine einheitliche Windows-API für die Verwaltung unterschiedlicher Speichertypen verwenden. Dazu stehen standardbasierte Protokolle wie z. B. Storage Management Initiative Specification (SMI-S) bereit.

Die Nachfrage nach gehosteten Clouds erfordert einen integrierten Schutz, die Möglichkeit, virtuelle Geräte hinzuzufügen, und die Fähigkeit, virtuelle Netzwerke an die Infrastruktur von Rechenzentren anzupassen. Beim Erstellen einer Private Cloud sollte unbedingt sichergestellt werden, dass die Netzwerkinfrastruktur die erforderliche Sicherheit, hohe Verfügbarkeit, hohe Leistung, Vorhersehbarkeit und Resilienz bietet und an zukünftige Cloudanforderungen angepasst werden kann. Diese Voraussetzungen sollten nicht nur auf der virtuellen Ebene mithilfe der Hyper-V-Netzwerkfunktionen erfüllt werden, sondern auch auf der physischen Ebene, auf der die Switches und Router verbunden sind. Abbildung 2 zeigt eine gängige Private Cloud-Infrastruktur und verschiedenen Ebenen, die während der Entwurfsphase abgedeckt werden müssen.

TBD

Abbildung 2. Übersicht der Netzwerkinfrastruktur

Dieser Abschnitt behandelt Entwurfsüberlegungen hinsichtlich des Netzwerks, die Ihnen den Aufbau der Cloudinfrastruktur erleichtern sollen.

Greifen Sie auf Ihre aktuelle Netzwerkinfrastruktur zu, und stellen Sie sicher, dass das Netzwerk die neue Gruppe von Servern empfangen kann, auf denen die Cloudinfrastruktur gehostet wird. Wie in Abbildung 2 dargestellt, gibt es virtuelle und physische Komponenten. Da die physischen Komponenten bereits vor der anfänglichen Einrichtung der Cloudinfrastruktur vorhanden sind, ist es wichtig, die folgenden Elemente der aktuellen Netzwerkinfrastruktur zu überprüfen:

Anforderungen

Beschreibung

Switches, mit denen die Hyper-V-Cluster verbunden werden

  • Layer 2- oder Layer 3-Switches, die die wichtigsten Netzwerkfunktionen von Windows Server 2012 unterstützen

  • 1-GB- oder 10-GB-Ethernet, Fibre Channel oder InfiniBand

Verkabelung

  • Verwenden Sie eine Ihrer Layer 1-Technologie entsprechende Verkabelung (Ethernet, Fibre Channel oder InfiniBand).

Router

  • Grenzrouter zum Weiterleiten von Datenverkehr von der Private Cloud zum Internet.

Edgefirewall/-gateway

  • Eine Firewall bzw. ein Gateway, die/das den sichere Webzugriff von der Private Cloud zum Internet und von Remotebenutzern zur Private Cloud ermöglicht.

System_CAPS_noteHinweis

Weitere Informationen zur InfiniBand-Technologie finden Sie unter InfiniBand® Roadmap.

Beim Entwerfen der Netzwerkkonnektivität für eine gut verwaltete Cloudinfrastruktur sollten die Virtualisierungshosts die folgenden Netzwerkanforderungen erfüllen:

Anforderungen

Beschreibung

Unterstützung für 802.1q VLAN-Kennzeichnung

Netzwerksegmentieren für die Virtualisierungshosts, die unterstützende Verwaltungsinfrastruktur und Arbeitsauslastungen. Dies ist eine Methode, mit der Sie Datenverkehr für eine Private Cloud schützen und isolieren können.

Remotefunktion für die Out-of-Band-Verwaltung

Remoteüberwachung und -verwaltung von Servern über das Netzwerk, unabhängig davon, ob der Server in Betrieb ist.

Unterstützung für PXE Version 2 oder höher

Erleichterung der automatisierten physischen Serverbereitstellung.

Unterstützung für ECN-Switches (mit RFC 3168 kompatibel)

Unterstützung von Windows Server 2012 Datacenter TCP (DCTPC).

Unterstützung für 802.1az und 802.1Qbb (Steuerung der Flusspriorisierung)

Unterstützung von Datacenter Bridging (DCB)

Netzwerkschnittstellen und Gateway des virtuellen Netzwerks zur Unterstützung der GRE-Abladung (NVGRE)

Unterstützung der Windows Server 2012-Netzwerkvirtualisierung.

Vor der Bereitstellung einer Cloudinfrastruktur sollten folgende Anforderungen erfüllt sein:

  1. Beheben Sie vor dem Erstellen der Cloudinfrastruktur sämtliche Netzwerkengpässe.

    Stellen Sie sicher, dass redundante Komponenten funktionieren. Beispiel: Wenn ein Switch über zwei (oder mehr) Netzteile verfügt, prüfen Sie anhand eines Failovertests, ob er ordnungsgemäß funktioniert.

  2. Notieren Sie sich die Ergebnisse.

  3. Dokumentieren Sie die aktuelle Netzwerkinfrastruktur (bzw. aktualisieren Sie die bestehende Dokumentation).

  4. Darüber hinaus sollte eine Cloudinfrastruktur die folgenden Anforderungen erfüllen, um eine hohe Verfügbarkeit und adäquate Verwaltung sicherzustellen:

    • Mehrere Pfade zu den Switches zur Sicherstellung der Redundanz. Falls ein Switch ausfällt, kann dies im bereitgestellten Switch für Resilienz sorgen. Wenden Sie sich für spezielle Empfehlungen an den Switchhersteller.

    • Redundante Stromversorgung und Lüfter, damit die Switches und Router eine hohe Anzahl von Fehlern unbeschadet überleben können.

In einer Cloudinfrastruktur ist es wichtig, dass der von jedem Mandanten generierte Datenverkehr sicher von anderen Mandanten isoliert ist. Die vorhandene Windows Server 2008 Hyper-V-Switcharchitektur erlaubt keine Komponenten außerhalb des Switches, um die vom Switch bereitgestellte Sicherheit und Isolierung weiter zu verbessern. Der neue erweiterbare Windows Server 2012 Hyper-V-Switch unterstützt Isolierungsrichtlinien, erlaubt Erweiterungen und lässt Dritte Filter hinzufügen, um ihre eigenen Weiterleitungsregeln zu implementieren.

System_CAPS_noteHinweis

Weitere Informationen über den virtuellen Hyper-V-Switch finden Sie unter Virtueller Hyper-V-Switch: Übersicht.

Ein weiteres wichtiges neues Features von Windows Server 2012 Hyper-V ist die Netzwerkvirtualisierung. Mit diesem Feature entfallen die Einschränkungen von VLAN und hierarchischer IP-Adresszuweisung für die Bereitstellung virtueller Computer. Darüber hinaus werden durch die Netzwerkvirtualisierung die Anforderungen hinsichtlich der mehrinstanzenfähigen Isolation und Sicherheit erfüllt. Dieses Feature führt das Konzept der ortsunabhängig Adressierung ein, indem die IP-Adresse virtualisiert wird. Es werden virtuelle Layer 2/Layer 3-Topologien über einem beliebigen physischen Netzwerk erstellt, die bidirektionale IP-Verbindungen unterstützen. Dies bedeutet, dass physische Netzwerke hierarchische dreistufigen Netzwerke mit vollständiger direktionale Bandbreite, ein Clos-Netzwerk oder einer großen Layer 2-Infrastruktur sein können. Der Vorteil ist, dass virtuelle Netzwerke dynamisch mittels Software konfiguriert werden können, wenn Sie der Cloud virtuelle Computer hinzufügen. Zudem können sie mehrere physische Subnetze und über mehrere Standorte umfassen.

Die Windows Server 2012-Netzwerkvirtualisierung kann eine größere Anzahl von isolierten Netzwerkgruppen als die mit VLANs maximal möglichen 4.094 (gemäß IEEE 802.1Q-Standard) unterstützen. Bei der VLAN-basierten Netzwerkisolation müssen sich alle Arbeitsauslastungen innerhalb einer Isolationsgruppe in einem einzelnen Subnetz befinden. Mithilfe der Netzwerkvirtualisierung können isolierte Netzwerkgruppen auch über Netzwerkgrenzen hinweg (z. B. in Subnetzen) definiert werden. Dies erhöht die Flexibilität, da Einschränkungen der physischen Netzwerkkonfiguration hinsichtlich der Platzierung von Arbeitsauslastungen entfallen.

System_CAPS_noteHinweis

Weitere Informationen zur Hyper-V-Netzwerkvirtualisierung finden Sie unter Hyper-V-Netzwerkvirtualisierung – Übersicht.

Unternehmen, die bereits über eine umfangreiche Fibre Channel-SAN-Installation für Speicherdienste verfügen, aber weg von zusätzlichen Investitionen in die Fibre Channel-Technologie migrieren möchten, erhalten dank Datacenter Bridging (DCB) die Möglichkeit, ein Ethernet-basiertes Converged Fabric für Speicher- und Datennetzwerke zu erstellen. Ein einheitliches Ethernet-Fabric kann die zukünftigen Gesamtbetriebskosten verringern und die Verwaltung vereinfachen. Für Unternehmen, die iSCSI bereits als Speicherlösung implementiert haben oder dies planen, kann DCB zudem eine hardwareunterstützte Bandbreitenreservierung für iSCSI-Datenverkehr bereitstellen, um Leistungsisolation sicherzustellen. DCB-fähige Ethernet-Netzwerkadapter müssen auf Computern installiert werden, die Windows Server 2012 DCB bereitstellen. DCB-fähige Hardwareswitches sind in dem Netzwerk bereitzustellen, in dem die Cloudinfrastruktur gehostet wird.

In der folgenden Tabelle finden Sie eine Zusammenfassung der Entwurfsanforderungen für die Datenverkehrsisolation und das dafür zu verwendende Windows Server 2012-Feature:

Anforderungen an das Design

Windows Server 2012-Feature

Welchen Nutzen hat es?

Trennen von Arbeitsauslastungen von internen IP-Adressen pro Mandant

Hyper-V-Netzwerkvirtualisierung

Sie können Arbeitsauslastungen von internen IP-Adressen trennen, um die für IP-Adressen, Domain Name System (DNS) und andere virtuelle Computerkonfigurationen erforderlichen Änderungen zu minimieren.

Trennen der Aufgaben von Server- und Netzwerkadministratoren, um eine operative Isolation zu ermöglichen

Sie können die Verwaltung vereinfachen, da die Migration und Platzierung der Arbeitsauslastungen unabhängig von der zugrundeliegenden physischen Netzwerkkonfigurationen sind.

Bereitstellen von Isolierung über die VLAN-Konfiguration hinaus

Indem Sie eine softwarebasierte Richtlinie in Verbindung mit richtlinienbasierten Netzwerken für Rechenzentren verwenden, können Sie die Isolierung ohne Einsatz von VLANs implementieren.

Flexibles Migrieren von Servern in Rechenzentren, während Datenverkehr von anderen Mandanten isoliert ist

Sie können Arbeitsauslastungen flexibel platzieren und gleichzeitig das aktuelle IP-Adressschema beibehalten, da es nicht auf eine physische IP-Subnetz- oder VLAN-Konfiguration beschränkt ist.

Optimierung der Server- und Netzwerkauslastung, um andere Mandanten nicht zu beeinflussen

Wenn die Platzierung virtueller Computer nicht mehr von der physischen Netzwerkinfrastruktur abhängig ist, können Sie Arbeitsauslastungen flexibler platzieren und die gesamte Server- und Netzwerkauslastung verbessern.

Automatisieren der Verwaltung und Bereitstellung

Mithilfe des PowerShell-Cmdlets für die Netzwerkvirtualisierung ist es möglich, diese Entwurfsanforderung zu erfüllen.

Zulassen einer Datenverkehrsüberprüfung auf niedrigerer Ebene mit Regeln, die pro Mandant angewendet werden können

Erweiterbarer Hyper-V-Switch

Mit Filtererweiterungen können Pakete überprüft, gelöscht, geändert und eingefügt werden.

Zulassen der Implementierung unterschiedlicher Filter durch unterschiedliche Mandanten gemäß deren Anforderungen hinsichtlich der Datenverkehrsisolierung

Erweiterungen werden in jede vSwitch-Instanz auf einem Computer implementiert. Es handelt sich hierbei um Filter oder Windows Filtering Platform (WFP)-Anbieter.

Überwachung des Mandatendatenverkehrs ohne Änderung des vorhandenen vSwitch-Datenverkehrs

Mit erweiterten Erfassungsfunktionen kann Datenverkehr überprüft und zu Berichtszwecken neuer Datenverkehr generiert werden. Erweiterte Erfassungsfunktionen verändern nicht den vorhandenen vSwitch-Datenverkehr.

Ein weiterer Mechanismus in Windows Server 2012, mit dem Sie die Datenverkehrsisolation zwischen virtuellen Computern erleichtern können, ist die neue Unterstützung für Hyper-V-Switchport-ACLs. Dieses Feature wird im nachfolgenden Abschnitt zu den Sicherheitsüberlegungen ausführlicher erläutert.

Hinsichtlich der bereits erwähnten Überlegungen zur Cloudarchitektur gilt die Sicherheit als Rahmen für die gesamte Lösung. Beim Entwerfen der Netzwerkkonnektivität für eine sichere Cloudinfrastruktur gibt es eine Reihe von Sicherheitsaspekten für die aktuelle physische Netzwerkinfrastruktur, die vor der Bereitstellung der Cloudinfrastruktur zu überprüfen sind.

Als erster Schritt wird empfohlen, eine Netzwerkrisikoanalyse der aktuellen Infrastruktur durchzuführen. Bevor Sie die Ressourcen sichern, müssen Sie eine Bestandsaufnahme aller Kontrollpunkte im Netzwerk (z. B. Switches und Router) durchführen. Bei einer Netzwerkrisikoanalyse ist es wichtig, einem grundlegenden Verfahren zu folgen, das mindestens die folgenden Elemente beinhaltet:

Task

Beispiel

Sicherheitsrisiken erkennen und dokumentieren

  • Beschreibung: Switches im Rechenzentrum verfügen nicht über die neueste Firmware und sind gegenüber Umleitungsangriffen des Internet Control Message-Protokolls (ICMP) anfällig.

Entdeckten Sicherheitslücken Risikostufen zuweisen

  • Gefährlichkeit: schwerwiegend

  • Ursache: Wenn ein Angriff erfolgreich die Sicherheitslücken auf den Switches im Rechenzentrum nutzt, kann damit der Datenverkehr umgeleitet und der Datenverkehrsfluss unterbrochen werden. Dies führt zu erheblichen Ausfallzeiten für die Hosts, die mit dem Switch verbunden sind.

Noch nicht behobene Sicherheitslücken identifizieren und beheben

  • Beschreibung: Vor zwei Monaten wurde im Netzwerkrisikoanalyse-Bericht 00001 erkannt, dass Switches im Rechenzentrum für ICMP-Umleitungsangriffe anfällig sind. Das Problem wurde nicht behoben.

  • Aktion: Eskalieren Sie das Problem an die Geschäftsleitung, damit es sofort behoben wird.

Es ist wichtig, die aktuelle Infrastruktur einer Netzwerkrisikoanalyse zu unterziehen, da ein Angreifer in der Regel nach schlecht konfigurierten Netzwerkgeräten sucht, um diese auszunutzen. Neben den Sicherheitslücken, die durch Updates vom Gerätehersteller behoben werden, gibt es auch Sicherheitsrisiken, die von Ihnen behandelt werden. Hierzu zählen beispielsweise solche, die durch unsichere Verwaltungsmethoden verursacht werden, wie beispielsweise schwache Standardinstallationseinstellungen (einschließlich schwacher Kennwörter) und jedermann zugängliche Zugriffssteuerungen (fehlende ACLs). Zu den Hauptbedrohungen des Netzwerks zählen:

  • Ermittlung von Zeichenfolgen

  • Spoofing

  • Sitzungsübernahme

  • Denial-of-Service

Cloud-Operatoren und Private Cloud-Netzwerkadministratoren müssen die Bedrohungen der Netzwerkinfrastruktur kennen, um effektive Gegenmaßnahmen ergreifen zu können.

System_CAPS_noteHinweis

Weitere Informationen zur Netzwerksicherheit finden Sie unter Erweiterte Netzwerksicherheit.

Nachdem Sie die aktuelle physische Netzwerkinfrastruktur gesichert haben, folgt die Planung, wie Sie diese Sicherheit auf das virtuelle Netzwerk ausdehnen und gleichzeitig den sicheren Fluss des Datenverkehrs zwischen physischen und virtuellen Ebenen ermöglichen. Beim Entwerfen und Planen der Cloudinfrastruktur sollten auch die folgenden Sicherheitsaspekte berücksichtigt werden:

  • Sichere Zugriffssteuerung zwischen virtuellen Computern (auf demselben Host oder in unterschiedlichen Hosts)

  • Steuerung des Datenverkehrs, um zu vermeiden, dass Mandanten das Netzwerk überlasten

  • Vermeidung einer nicht autorisierten IP-Verteilung

  • Gewährleistung der Speicherverfügbarkeit und -leistung

Windows Server 2012 unterstützt die Hyper-V-Port-ACLs, die vom virtuellen Hyper-V-Switch erzwungen werden. Diese ACLs sind detaillierte Regeln, die Datenverkehr zum oder vom virtuellen Netzwerkadapter eines virtuellen Computers zulassen oder verweigern können. ACL-Filter basieren auf der IP-Adresse, dem IP-Adressenpräfix oder der MAC-Adresse der eingehenden oder ausgehenden Pakete.

Da ACLs eine Porteigenschaft des virtuellen Hyper-V-Switches sind, werden die ACLs bei einer Livemigration eines virtuellen Computers mit diesem verschoben. Obwohl technisch gesehen eine mehrinstanzfähige Isolation rein mit ACLs möglich ist, würde die Verwaltung und permanente Aktualisierung aller ACLs eine Herausforderung darstellen. Aus diesem Grund werden ACLs genutzt, um sicherzustellen, dass virtuelle Computer ihre IP- oder MAC-Adressen nicht fälschen (spoofen) können, oder um bestimmten Netzwerkdatenverkehr für bestimmte Adressbereiche zu steuern.

Erwägen Sie die Entwicklung eines Plans für die Zugriffssteuerung, der eine Methode zum Herstellen einer sicheren und verwendbaren Umgebung beschreibt. Ein geeigneter Zugriffssteuerungsplan könnte die folgenden Bestandteile enthalten:

  • Sicherheitsziele: Definieren Sie die Ressourcen und Prozesse, die Sie schützen möchten.

  • Sicherheitsrisiken: Listen Sie die Typen der für Ihr Unternehmen bestehenden Sicherheitsrisiken auf. Geben Sie dabei an, worin die Bedrohungen liegen und wie gefährlich sie sind.

  • Sicherheitsstrategien: Beschreiben Sie die allgemeine Sicherheitsstrategien, die zur Abwehr der Bedrohungen und zur Minderung der Risiken erforderlich sind.

  • Sicherheitsrichtlinie: Erstellen Sie eine Richtlinie, die Ihre Sicherheitsstrategie definiert und auf einer beliebige Anzahl von virtuellen Computern erzwingt.

  • Strategien zur Informationssicherheit: Definieren Sie, wie Lösungen zur Informationssicherheit implementiert werden sollen.

  • Administrative Richtlinien: Dokumentieren Sie Richtlinien zum Delegieren von Verwaltungsaufgaben und zum Überwachen von Überwachungsprotokollen, um verdächtige Aktivitäten zu erkennen.

System_CAPS_noteHinweis

Weitere Informationen über Zugriffssteuerungslisten (Access Control Lists, ACLs) auf Hyper-V-Switch finden Sie unter Virtueller Hyper-V-Switch: Übersicht.

Wie im Dokument zu Zweitrangigkeit der Herausforderungen der Private Cloud-Sicherheit gegenüber den wesentlichen Cloudmarkmalen beschrieben, besteht eine der Sorgen beim Entwurf einer Privat Cloud-Lösung darin, dass das Rechenzentrum durch eine nicht autorisierte Anwendungen, Clients oder DoS-Angriffe destabilisiert werden könnte, indem diese eine große Menge von Ressourcen anfordern. Wie ist es möglich, einzelnen Consumern/Mandanten das Gefühl von unbegrenzter Kapazität zu geben und gleichzeitig die Realität begrenzter freigegebener Ressourcen zu meistern?

Eine Möglichkeit besteht darin, den Netzwerkverkehr zu steuern. QoS in Windows Server 2012 erleichtert die Verwaltung des Netzwerkdatenverkehrs im physischen und virtuellen Netzwerk. Mit dem richtlinienbasierten QoS verwalten Sie den Datenverkehr in physischen Netzwerken. Darüber hinaus ermöglicht eine neue Funktion in QoS, die als Hyper-V QoS bezeichnet wird, die Verwaltung das Datenverkehrs auf der virtuellen Switchebene.

Mithilfe von richtlinienbasierter QoS können Cloud-Operatoren die Steuerung der Netzwerkbandbreite entsprechend dem Anwendungstyp, Benutzer und Computer festlegen. Mittels richtlinienbasierter QoS lassen sich auch die Bandbreitenkosten eindämmen und Dienstebenen mit Bandbreitenanbietern oder Abteilungen (Mandanten) aushandeln. Hyper-V-QoS ermöglicht es Cloud-Operatoren, bestimmte Leistungsebenen mithilfe von Vereinbarungen zum Servicelevel (Service Level Agreements, SLAs) zu garantieren. Durch die Hyper-V-QoS kann sichergestellt werden, dass kein Mandant durch andere Mandanten in der gemeinsamen Infrastruktur, die Computer-, Speicher- und Netzwerkressourcen umfasst, beeinträchtigt oder gefährdet wird.

Erwägen Sie die Entwicklung eines QoS-Plans, der eine Methode zum Herstellen einer sicheren und verwendbaren Umgebung beschreibt. Ein geeigneter QoS-Plan könnte die folgenden Bereiche beinhalten:

  • SLA: Planen Sie die QoS-Richtlinie auf Grundlage des Mandanten-SLA.

  • Netzwerkauslastung: Messen Sie die Netzwerkauslastung, um den Datenverkehrsfluss zu verstehen und zu ermitteln, wie die Leistung mit QoS optimiert werden kann.

  • Richtlinienerzwingung: Erzwingen Sie QoS-Richtlinien auf SR-IOV-Netzwerkadaptern (Single Root I/O Virtualization), die eine Bandbreitenreservierung pro virtuellen Port unterstützen.

Diese Abschnitte sollten pro Mandant betrachtet werden, den Sie in Hyper-V mehrere virtuelle Netzwerkadapter erstellen und QoS einzeln auf jedem virtuellen Netzwerkadapter festlegen können.

System_CAPS_noteHinweis

Weitere Informationen zu richtlinienbasiertem QoS finden Sie unter Quality of Service (QoS) – Übersicht.

Die bereits erwähnte Sorge, dass das Rechenzentrum durch nicht autorisierte Anwendungen, Clients oder Denial-of-Service (DOS)-Angriffe destabilisiert werden könnten, gilt auch hier. Wenn ein nicht autorisierter DHCP-Server (Dynamic Host Configuration-Protokoll) IP-Adressen für Computer im Mandantennetzwerk bereitstellen kann, verlieren diese Computer möglicherweise den Zugriff auf Ressourcen und stört die gesamte Netzwerkinfrastruktur der Mandanten.

Die DHCP-Serverrolle in Windows Server 2012 führt ein neues richtlinienbasiertes Feature zur IP-Adressen- und Optionszuweisung ein. Die richtlinienbasierte Zuweisung (Policy Based Assignment, PBA) ermöglicht es dem Cloud-Operator, DHCP-Clients nach bestimmten Attributen basierend auf den Feldern zu gruppieren, die im DHCP-Clientanforderungspaket enthalten sind. Dieses Feature ermöglicht eine verbesserte Steuerung der Konfigurationsparameter, die Netzwerkgeräten bereitgestellt werden.

Ein normaler Plan für eine richtlinienbasierte DHCP-Zuweisung beinhaltet unter anderem beispielsweise folgende Abschnitte:

  • Definierte Bedingungen: Die richtlinienbasierte DHCP-Zuweisung kann gemäß den Feldern in der DHCP-Clientanforderung definiert werden. Definieren Sie die für Ihr Cloud-Infrastrukturnetzwerk geeignete Bedingung.

  • IP-Bereich: Definieren Sie den DHCP-IP-Bereich, der für die Mandanten verwendet wird.

  • Leasedauer: Definieren Sie die DHCP-Leasedauer für jedes Mandantennetzwerk.

  • Zusätzliche Optionen: Definieren Sie den DHCP-Bereich oder die Serveroptionen, die den Mandanten bereitgestellt werden. Wenn Richtlinien auf den Server- und Bereichsebenen vorhanden sind, wendet der Server beide Gruppen von Richtlinien an und wertet die Bereichsrichtlinien vor den Serverrichtlinien aus. Die Verarbeitungsreihenfolge für eine Bereichsebenenrichtlinie definiert die Reihenfolge der Auswertung innerhalb des Bereichs.

System_CAPS_noteHinweis

Weitere Informationen zur richtlinienbasierten DHCP-Zuweisung finden Sie unter Schritt für Schritt: Konfigurieren von DHCP mit der richtlinienbasierten Zuweisung.

Viele Netzwerkarchitekturen beinhalten einen mehrstufigen Entwurf mit drei oder mehr Ebenen wie dem Kern, der Verteilung und dem Zugriff. Beim Entwerfen einer Cloudinfrastruktur sollte die aktuelle Netzwerkinfrastruktur bewertet werden, um die auf allen Ebenen benötigte Portbandbreite und Menge zu ermitteln. Zudem sollten die Verteilungs- und Kernebenen Uplinks mit erhöhter Geschwindigkeit bereitstellen, um Datenverkehr zu aggregieren. Des Weiteren sind Ethernet-Broadcastgrenzen und -einschränkungen, die Gesamtstruktur sowie weitere Technologien zur Vermeidung von Schleifen zu beachten.

Ebenfalls berücksichtigt werden sollte die physische Trennung der Netzwerke, um eine weitere Isolations- und Sicherheitsebene zu erhalten und die Gesamtleistung pro Segment zu erhöhen. Stellen Sie beim Entwerfen einer Cloudinfrastruktur sicher, dass die zum Hosten der virtuellen Computer verwendeten Server unterschiedliche Datenverkehrsprofile unterstützen. Verwenden Sie hierfür separate physische Adapter für jeden Datenverkehrstyp, die VLAN-Kennzeichnung oder virtuelle NICs. In der folgenden Tabelle wird ein Cloudinfrastrukturmodell mit fünf physischen Netzwerksegmenten beschrieben:

Datenverkehr

Beschreibung

Verwaltung

Netzwerk, das den Verwaltungsdatenverkehr handhabt. Dieser Datenverkehr erfolgt vom Host zur Verwaltungsarbeitsstation. Cloud-Operatoren stellen eine Verbindung zum Hostsystem her, um die Cloudinfrastruktur zu verwalten.

Cluster

Für die Clusterkommunikation dediziertes Netzwerk.

Speicher

Handhaben Sie den gesamten Speicherdatenverkehr in Szenarien, in denen Sie Ethernet-basierte Speicherprotokolle verwenden.

Livemigration

Für die Handhabung des Livemigrationsdatenverkehrs von einem Host zum nächsten zuständig.

Mandant

Für den Mandantendatenverkehr dediziertes Netzwerk. Eine zusätzliche Ebene der Isolation innerhalb des Mandantennetzwerks kann mithilfe von VLAN-IDs im virtuellen Switch bereitgestellt werden.

System_CAPS_noteHinweis

Es ist auch möglich, alle diese Datenverkehrsprofile über einen einzelnen oder kombinierten 10-GB-Netzwerkadapter weiterzuleiten. Dieses Modell aus zusammengeführten Netzwerken reduziert die erforderliche Anzahl von Netzwerkadaptern und Kabeln für die Private Cloud-Infrastruktur.

Wenn die Cloudinfrastruktur aufgrund von geschäftlichen Anforderungen fünf physische Netzwerksegmente beinhalten soll, kann dasselbe Layout auch auf die virtuelle Netzwerkinfrastruktur angewendet werden. Bei der Implementierung dieser Anforderungen ist es auch wichtig, eine Standardnomenklatur für die Netzwerkadapternamen zu erstellen, um widerzuspiegeln, mit welchem Netzwerk sie verbunden sind. Dadurch lassen sich nicht nur die Netzwerke einfach identifizieren, sondern Sie können auch einen Standard für zukünftige Automatisierungen über Windows PowerShell erstellen.

Wenn auch es aus geschäftlichen Gründen erforderlich sein kann, den Datenverkehr physisch zu trennen, gibt es dennoch Szenarien, in denen dies nicht getan wird, da die vorrangige geschäftliche Anforderung darin besteht, die Implementierungskosten zu reduzieren und gleichzeitig die Sicherheitsisolation zwischen Mandanten aufrechtzuerhalten. Wenn Sie sich aufgrund der geschäftlichen Anforderungen für diesen Entwurf entscheiden, können Sie alle Netzwerke des Rechenzentrums im Grunde zu zwei Netzwerken zusammenführen, die physisch isoliert sind. Ein Netzwerk des Rechenzentrums kann dabei den gesamten Speicher, die Livemigration, das Clustering und die Datenverkehrsflüsse für die Verwaltung beinhalten, während das zweite Netzwerk den gesamten vom Mandanten generierten Datenverkehr aller virtuellen Computer handhabt. Sie können weiterhin QoS-Richtlinien anwenden, um für jeden Datenfluss einen minimalen Datenverkehr zu gewährleisten, und mithilfe einer VLAN-ID im virtuellen Switch den Datenverkehr im Mandantennetzwerk isolieren.

Bei der Auswahl der Netzwerkhardware für eine Cloudinfrastruktur sollten Sie die folgenden Optionen berücksichtigen:

Netzwerktechnologie

Vorteile

Nachteile

10-GB-Ethernet

  • Hervorragende Leistung

  • QoS (DCB) und flexible Bandbreitenzuordnung

  • Neue Hardware-Auslagerungen verfügbar

  • RDMA optional (für den Zugriff auf SMB 3.0-Dateien)

  • Physische Switchports teurer

InfiniBand (32 GB und 56 GB)

  • Extrem hohe Leistung, niedrige Latenz

  • RDMA enthalten (für den Zugriff auf SMB 3.0-Dateien)

  • Andere Netzwerkverwaltung als bei Ethernet

  • Implementierung kostenaufwändiger

1-GB-Ethernet

  • Adäquate Leistung für viele Arbeitsauslastungen

  • Nur wenig skalierbar

Remoteschnittstellen und die Remoteverwaltung der Netzwerkinfrastruktur über Secure Shell (SSH) oder ähnliche Protokolle ist sowohl für die Automatisierung als auch für die Resilienz des Rechenzentrumsnetzwerks wichtig. Verwaltungssysteme können mittels Remotezugriff und Verwaltungsprotokollen komplexe oder fehleranfällige Konfigurationsaktivitäten automatisieren. Beispielsweise kann das Hinzufügen eines VLAN zu einer verteilten Reihe von Switches auf der Zugriffsebene automatisiert werden, um Benutzerfehler zu vermeiden.

Es gibt zahlreiche wichtige Entwurfsentscheidungen, die Sie bezüglich Ihrer Virtualisierungsinfrastruktur treffen müssen. Die Hardwarevirtualisierung erfolgt mithilfe von Software. Dabei wird ein virtueller Computer erstellt, der einen physischen Computer emuliert. Dadurch entsteht eine eigene Betriebssystemumgebung, die vom Hostserver logisch isolierten ist. Indem Sie mehrere virtuelle Computer gleichzeitig bereitstellen, können mehrere Betriebssysteme zeitgleich auf einem einzelnen physischen Computer ausgeführt werden.

Die Windows Server 2012 Hyper-V-Technologie basiert auf einer Hypervisor-basierte 64-Bit-Microkernel-Architektur, mit der Standarddienste und -ressourcen virtuelle Computer in der Cloudinfrastruktur erstellen, verwalten und ausführen können. Windows Hypervisor wird direkt über der Hardware ausgeführt und gewährleistet eine starke Isolation zwischen den Partitionen. Dabei werden Zugriffsrichtlinien für kritische Systemressourcen wie Arbeitsspeicher und Prozessoren erzwungen. Windows Hypervisor enthält keine Gerätetreiber und keinen Code von Drittanbietern. Dies minimiert die Angriffsfläche und ermöglicht eine sicherere Architektur.

Neben Windows Hypervisor sind als zwei weitere wichtige Hyper-V-Elemente die übergeordnete und untergeordnete Partition zu berücksichtigen. Die übergeordnete Partition ist ein spezieller virtueller Computer, der Windows Server 2012 ausführt, die Erstellung und Verwaltung von untergeordneten Partitionen steuert und den direkten Zugriff auf Hardwareressourcen verwaltet. In diesem Modell werden Gerätetreiber für physische Geräte in der übergeordneten Partition installiert. Im Gegensatz dazu besteht die Rolle einer untergeordneten Partition darin, eine virtuelle Computerumgebung für die Installation und Ausführung von Gastbetriebssystemen und -anwendungen bereitzustellen.

Beim Entwerfen der Host- und Hyper-V-Komponenten für Windows Server 2012 als Teil der Cloudinfrastruktur sind zahlreiche wichtige Aspekte zu berücksichtigen. In diesem Abschnitt werden die folgenden Entscheidungspunkte erörtert:

  • Lizenzierung

  • Konfiguration des Betriebssystems

  • Arbeitsspeicher und dynamischer Hyper-V-Arbeitsspeicher

  • Speicheradapter

  • Failoverentwurf für den Hyper-V-Host

  • Entwurf des virtuellen Hyper-V-Gastcomputers

Unterschiedliche Versionen von Windows Server 2012 beinhalten unterschiedliche Virtualisierungsrechte, d. h., das Recht und die Lizenz zum Ausführen einer bestimmten Anzahl von virtuellen Computern unter Windows. Für eine Private Cloud-Umgebung empfiehlt sich die Verwendung der Windows Server 2012 Datacenter Edition.

Nachfolgend werden die allgemeine Überlegungen zum Hyper-V-Host-Betriebssystem erläutert. Es handelt sich dabei nicht um Installationsanweisungen, sondern vielmehr um die Prozessanforderungen und die Reihenfolge.

Zum Installieren und Verwenden der Hyper-V-Rolle benötigen Sie Folgendes:

  • Einen x64-basierten Prozessor

  • Hardwaregestützte Virtualisierungsunterstützung im Prozessor und BIOS

  • Von der Hardware erzwungene Datenausführungsverhinderung (Data Execution Prevention, DEP) im Prozessor und BIOS

  • Die neuesten Hardwaretreiber und System-BIOS-Updates

  • Ein mit einer Domäne verbundenes Hyper-V-Betriebssystem der übergeordneten Partition. Dies ist erforderlich, um ein Failoverclustering und andere Verwaltungsfunktionen zu unterstützen.

  • Hyper-V-Serverrollen und Failoverclustering-Features. Das Failoverclustering bietet eine hohe Verfügbarkeit, sodass virtuelle Computer auch dann verfügbar bleiben, wenn ein Mitglied des Clusters deaktiviert ist.

  • Relevante Windows-Updates, einschließlich nicht in Microsoft-Updates enthaltene Out-of-Band (OOB)-Updates

  • Alle Knoten, Netzwerke und Speicher müssen den Clustervalidierungs-Assistenten durchlaufen.

Weitere Informationen zu Hardware- und Softwareanforderungen finden Sie in der Hyper-V-Netzwerkvirtualisierung – Übersicht.

Der in Windows Server 2008 R2 Service Pack 1 (SP1) eingeführte dynamische Arbeitsspeicher, definiert den Startspeicher als die Mindestspeichergröße, die ein virtueller Computer haben kann. Windows erfordert jedoch mehr Arbeitsspeicher während des Starts als im stabilen Zustand. Daher weisen Sie Administratoren eines virtuellen Computers manchmal zusätzlichen Arbeitsspeicher zu, da Hyper-V nach dem Starten auf diesen virtuellen Computern keinen Speicher freigeben kann. In Windows Server 2012 führt Dynamischer Arbeitsspeicher eine Einstellung für den Mindestarbeitsspeicher ein, mit der Hyper-V nicht verwendeten Arbeitsspeicher von den virtuellen Computern freigeben kann. Dies spiegelt sich in einer vermehrten Konsolidierung virtueller Computer wider.

In Windows Server 2012 wird außerdem Smart Paging für Neustartvorgänge zuverlässiger virtueller Computer eingeführt. Obwohl durch Mindestarbeitsspeicher die Konsolidierungszahlen virtueller Computer erhöht wird, stellt dies auch eine neue Herausforderung dar. Wenn der Arbeitsspeicher eines virtuellen Computers kleiner als der Startspeicher ist, und der Computer neu gestartet werden muss,

benötigt Hyper-V zusätzlichen Arbeitsspeicher. Aufgrund einer hohen Auslastung des Hostarbeitsspeichers oder des Zustands virtueller Computer steht Hyper-V möglicherweise nicht immer zusätzlicher Arbeitsspeicher zur Verfügung. Dies kann zu gelegentlichen Fehlern beim Neustart virtueller Computer führen. Smart Paging wird zum Schließen von Arbeitsspeicherlücken zwischen dem minimal erforderlichen Arbeitsspeicher und dem Arbeitsspeicher beim Systemstart genutzt, um zuverlässige Neustarts virtueller Computer zu gewährleisten.

Weitere Informationen über den dynamischen Arbeitsspeicher finden Sie unter Dynamischer Hyper-V-Arbeitsspeicher – Übersicht.

Neben dem oben genannten allgemeinen Leitfaden bieten bestimmte Anwendungen oder Arbeitsauslastungen, speziell jene mit integrierten Verwaltungsfunktionen für Arbeitsspeicher wie SQL Server oder Exchange Server, spezifische Anleitungen zur Arbeitsauslastung. Ein Beispiel für eine solche Anleitung ist der Artikel zum Ausführen von SQL Server mit dynamischem Hyper-V-Arbeitsspeicher.

Beim Entwerfen des Arbeitsspeichers für Hostserver im Hyper-V-Cluster sollten Sie erwägen, wie viele virtuelle Computer auf jedem Server unterstützt werden sollen.Windows Server 2012 unterstützt bis zu 4 TB Speicher für das Hostbetriebssystem und bis zu 1 TB für jeden virtuellen Computer.

Sie können beispielsweise überlegen, wie viele virtuelle Computer jeder Dienstklasse, die Sie in der Private Cloud anbieten möchten, unterstützt werden sollen. Sie können beispielsweise bis zu 10 virtuelle Computer auf jedem Hostsystem im Cluster unterstützen. Zudem können Sie entsprechend der angebotenen Arbeitsspeichermenge die folgenden Dienstklassen anbieten:

  • Bronze: 1 GB RAM für den virtuellen Computer

  • Silber: 4 GB RAM für den virtuellen Computer

  • Gold: 16 GB RAM für den virtuellen Computer

Sie schätzen, dass Consumer der Private Cloud diese Dienstangebote zu den folgenden Prozentsätzen erwerben:

  • Bronze: 30 %

  • Silber: 60 %

  • Gold: 10 %

Die auf jedem Host erforderliche RAM-Größe können Sie wie folgt berechnen:

(1 GB x 3) + (4 GB x 6) + (16 GB x 1) + 2 GB (für das Hostbetriebssystem) = 45 GB

Entwurfsentscheidungen in Bezug auf Speicheradapter auf dem Hyper-V-Host der Private Cloud sind wichtig. Der gewählte Speicheradaptertyp bestimmt die Geschwindigkeit, Latenz, Zuverlässigkeit, Leistung und Kosten der Speicherkomponenten der Cloudinfrastruktur. In diesem Abschnitt wird Folgendes erörtert:

  • MPIO-Konfiguration

  • Leistungseinstellungen

  • Teamkonfigurationen für Netzwerkadapter

Wie bereits erwähnt unterstützt die Microsoft MPIO-Architektur iSCSI-, Fibre Channel- und SAS-SAN-Konnektivität durch die Einrichtung mehrerer Sitzungen oder Verbindungen mit dem Speicherarray.

Die folgenden Verbesserungen der Hyper-V-Netzwerkleistung sollte getestet und für die Produktion erwogen werden (wobei viele dieser Technologien Hardware-Unterstützung erfordern):

  • Auslagerung der Transmission Control Protocol (TCP)-Prüfsumme: Hiervon profitieren sowohl die CPU-Leistung als auch der gesamte Netzwerkdurchsatz, und die Livemigration wird voll unterstützt.

  • Großrahmen: Diese Funktion wird auf virtuelle Computer mit Windows Server 2012 Hyper-V erweitert. Großrahmen bieten für virtuelle Netzwerke die gleichen grundlegenden Leistungssteigerungen wie für physische Netzwerke. Dies beinhaltet bis zu sechs Mal höhere Nutzlasten pro Paket, wodurch sich der Gesamtdurchsatz erhöht und die CPU-Auslastung bei großen Dateiübertragungen reduziert. Weitere Informationen zu Großrahmen finden Sie im Artikel über Hyper-V-Netzwerkoptionen – Großrahmen.

  • Dynamic Virtual Machine Queue (dynamische VM-Warteschlange, DVMQ): Hiermit können Sie die Verarbeitung des Netzwerkdatenverkehrs für virtuelle Computer auf alle Prozessoren des Hostbetriebssystems verteilen. Dieses Feature ermöglicht es Ihnen, die CPU-Auslastung nach Bedarf zu skalieren.

  • Skalierbarkeit und Resilienz: Der Computer, auf dem Hyper-V ausgeführt wird, kann mit bis zu 320 logischen Prozessoren und 4 TB Arbeitsspeicher konfiguriert werden. Virtuelle Computer können mit 32 virtuellen Prozessoren und 1 TB Arbeitsspeicher konfiguriert werden. Die verbesserte Behandlung von Hardwarefehlern erhöht die Belastbarkeit und Stabilität der virtuellen Umgebung. Weitere Informationen zu Skalierungs- und Resilienz-Features finden Sie in der Übersicht zur Hyper-V-Unterstützung für die vertikale und horizontale Skalierung.

  • E/A-Virtualisierung mit Einzelstamm (Single Root I/O Virtualization, SR-IOV): SR-IOV maximiert den Netzwerkdurchsatz und minimiert gleichzeitig die Netzwerklatenz sowie den für die Verarbeitung des Netzwerkdatenverkehrs erforderlichen CPU-Aufwand. SR-IOV umgeht den virtuellen Switchstapel und bietet dem virtuelle Computer direkten Hardwarezugriff. Netzwerkadapter- und BIOS-Unterstützung ist erforderlich. Weitere Informationen zu SR-IOV finden Sie in der technischen Vorschau zur Hyper-V-Unterstützung für die vertikale und horizontale Skalierung.

  • Neues VDHX-Datenträgerformat: Das neue Format erhöht die maximale Speichergröße jeder einzelnen virtuellen Festplatte und verbessert deren Stabilität und Effizienz. Das neue VDHX-Datenträgerformat unterstützt bis zu 64 TB Speicher und neuere 4K-Datenträger-Architektur. Es bietet darüber hinaus integrierten Schutz vor Schäden durch Stromausfälle und verhindert Leistungseinbußen auf bestimmten physischen Festplatten mit großen Sektoren. Weitere Informationen zum neuen VHDX-Datenträgerformat finden Sie unter Hyper-V – Format der virtuellen Festplatte: Übersicht.

  • Virtueller nicht einheitlicher Speicherzugriff (Non-Uniform Memory Access, NUMA): Neuere Betriebssysteme und leistungsstarke Anwendungen (z. B. SQL Server) enthalten Optimierungen, mit denen die NUMA-Topologie eines Computers erkannt wird. Damit wird die Leistung durch Berücksichtigung des NUMA bei der Threads-Planung oder Speicherzuweisung gesteigert. Die virtuelle NUMA-Funktion erlaubt es dem Gastbetriebssystem und NUMA-basierten Anwendungen, die auf einem virtuellen Computer (z. B. SQL Server) ausgeführt werden, diese Leistungsoptimierungen auszunutzen. Die virtuelle NUMA-Topologie wird zum Gastbetriebssystem projiziert. Die virtuelle Standard-NUMA-Topologie wurde optimiert, um der NUMA-Topologie physikalischer Computer zu entsprechen. Wenn ein virtueller Computer dynamischen Arbeitsspeicher verwendet, wird auf diesem virtuellen Computer eine flache NUMA-Topologie widergespiegelt. Darüber hinaus wird beim Windows Server 2012- Failoverclustering die NUMA-Topologie der Clustermitglieder berücksichtigt, wenn Verschiebungsentscheidungen für virtuelle Computer automatisch getroffen werden.

  • Hyper-V – Offloaded Data Transfer (ODX): Um die Vorteile neuer Speicherhardware zu nutzen, die ein Kopieren großer Datenmengen nahezu in Echtzeit ermöglichen, wurde mit Hyper-V in Windows Server 2012 Offloaded Data Transfer (ODX) eingeführt. Bei dieser neuen Funktion nutzen Hyper-V-Arbeitsauslastungen die Abladesemantik der Hosthardware sowie den virtuellen Speicherstapel, um bestimmte interne Vorgänge auf virtuellen Festplatten durchzuführen, bei denen große Mengen an Daten kopiert werden müssen. Hyper-V führt diese Vorgänge schneller aus, als dies bisher möglich war. Weitere Informationen zu Windows Server 2012 ODX finden Sie unter Hyper-V – Offloaded Data Transfer (ODX): Übersicht.

Der Netzwerkadapter-Teamvorgang kann verwendet werden, um mehrere redundante Netzwerkadapter und Verbindungen zwischen Servern und Netzwerkswitches für Zugriffsebenen zu aktivieren. Der Teamvorgang kann über hardware- oder softwarebasierten Ansätze aktiviert werden.Windows Server 2012 bietet integrierte Unterstützung für den Netzwerkadapter-Teamvorgang über das neue Feature für Lastenausgleich und Failover (Load Balancing and Failover, LBFO). Damit können zwei beliebige Netzwerkadapter unabhängig von Marke, Modell oder Geschwindigkeit zusammengeschlossen werden. Mit dem Teamvorgang sind verschiedene Szenarien möglich, einschließlich Pfadredundanz, Failover und Lastenausgleich.

Windows Server 2012-LBFO (Load Balancing and Failover, Lastenausgleich und Failover, auch als NIC-Teamvorgang bezeichnet) ermöglicht es, mehrere Netzwerkadapter auf einem Computer in einem Team zusammenzufassen. Dies dient folgenden Zwecken:

  • Bandbreitenaggregation

  • Datenverkehrfailover, um Konnektivitätsverluste beim Ausfall einer Netzwerkkomponente zu vermeiden

    System_CAPS_noteHinweis

    Mit dem NIC-Teamvorgang von Windows Server 2012 können Sie das Team so konfigurieren, dass alle Adapter aktiv sind oder ein Teil der Adapter für den Standbymodus reservieren ist. Für die Private Cloud-NIC-Teams wird die Konfiguration empfohlen, bei der alle Adapter aktiv sind.

Das Feature gehörte für unabhängige Hardwarehersteller zu den Voraussetzungen, um Zugang zum Markt für Servernetzwerkadapter zu erhalten. Bisher war der Netzwerkadapter-Teamvorgang jedoch noch kein Bestandteil von Windows Server-Betriebssystemen. Der NIC-Teamvorgang ermöglicht es, Netzwerkadapter mit unterschiedlichen Geschwindigkeiten und von unterschiedlichen Herstellern zu einem Team zusammenzuschließen.

System_CAPS_noteHinweis

Von der Teambildung mit Netzwerkadaptern unterschiedlicher Geschwindigkeiten wird abgeraten. Der Grund dafür ist, dass die Konfiguration zwar unterstützt wird, aber ein Ausfall des schnelleren Adapters die Leistung des langsameren Adapter erheblich beeinträchtigt.

Von der Teambildung mit Netzwerkadaptern unterschiedlicher Geschwindigkeiten wird abgeraten. Der Grund dafür ist, dass die Konfiguration zwar unterstützt wird, aber ein Ausfall des schnelleren Adapters die Leistung des langsameren Adapter erheblich beeinträchtigt.

Der Netzwerkadapter-Teamvorgang in Windows Server 2012 funktioniert auch auf einem virtuellen Computer. Auf diese Weise kann ein virtueller Computer virtuelle Netzwerkadapter haben, die mit mehreren Hyper-V-Switches verbunden sind und auch dann noch über Konnektivität verfügen, wenn der Netzwerkadapter unter diesem Switch getrennt wird. Dies ist vor allem bei der Verwendung von Features wie SR-IOV (Single Root I/O Virtualization, E/A-Virtualisierung mit Einzelstamm) wichtig, da SR-IOV-Datenverkehr nicht über den Hyper-V-Switch geleitet wird. Er kann deshalb nicht durch ein Team unter einem Hyper-V-Switch geschützt werden. Mit der Teamvorgangsoption für virtuelle Computer kann ein Administrator zwei Hyper-V-Switches einrichten, von denen jeder mit einem eigenen SR-IOV-fähigen Netzwerkadapter verbunden ist. Dann gilt Folgendes:

  • Jeder virtuelle Computer kann dann eine virtuelle Funktion von einem oder beiden SR-IOV-Netzwerkadaptern installieren. Sollte es dann zu einer Trennung eines Netzwerkadapters kommen, kann der virtuelle Computer ein Failover von der primären virtuellen Funktion zur virtuellen Funktion für die Sicherung durchführen.

  • Der virtuelle Computer kann aber auch über eine virtuelle Funktion von einem Netzwerkadapter und eine nicht virtuelle Funktion eines Netzwerkadapters vom anderen Switch verfügen. Falls der mit der virtuellen Funktion verknüpfte Netzwerkadapter getrennt wird, kann ein Failover des Datenverkehrs an den anderen Switch erfolgen, ohne dass es zu einem Konnektivitätsverlust kommt.

    System_CAPS_noteHinweis

    NIC-Teamvorgänge sind mit allen Netzwerkfunktionen in Windows Server 2012 kompatibel. Es gibt jedoch drei Ausnahmen:

  • SR-IOV

  • RDMA

  • TCP-Chimney (TCP-Chimney ist in Windows Server 2012 standardmäßig deaktiviert)

Bei SR-IOV und RDMA werden Daten direkt an den Netzwerkadapter übermittelt, ohne den virtuellen Netzwerkstapel zu passieren. Deshalb ist es für das Netzwerkadapterteam nicht möglich, die Daten zu begutachten oder an einen anderen Pfad im Team umzuleiten. Zudem wird TCP-Chimney beim Netzwerkadapter-Teamvorgang in Windows Server 2012 nicht unterstützt. Für den Netzwerkadapter-Teamvorgang wird mindestens ein Ethernet-Netzwerkadapter benötigt, der zum Trennen von Datenverkehr über VLANs verwendet werden kann. Für alle Modi, die Ausfallschutz mittels Failover bereitstellen, sind mindestens zwei Ethernet-Netzwerkadapter erforderlich. Die Windows Server 2012-Implementierung unterstützt bis zu 32 Netzwerkadapter in einem Team.

Weitere Informationen zum Lastenausgleich und Failover in Windows Server 2012, finden Sie unter Lastenausgleich und Failover – Übersicht.

In diesem Entwurfsmuster ist der Hyper-V-Cluster, der die Computekomponente für die Cloudinfrastruktur bereitstellen, vom Speichercluster getrennt. Wenn Sie das Computing vom Speichercluster trennen, können Sie die Computekapazität und die Speicherkapazität separat skalieren. Dadurch erhalten Sie mehr Flexibilität beim Entwurf der Skalierungseinheiten für Computing und Speicher. In diesem Muster werden zwei 10-GbE-Adapter im Computecluster zusammengeschlossen. Dies erleichtert die Verwaltung, die Clusterhandhabung, die Livemigration und den Speicherdatenverkehr. Der Windows Server 2012-Speichercluster wird ebenfalls mit zusammengeschlossenen 10-GbE-Adaptern konfiguriert und hostet VHDX- und Konfigurationsdateien, auf die mit SMB 3.0-Dateifreigaben über das Netzwerk zugegriffen wird. Die Speicherkonfiguration im Speichercluster kann mit jeder Art von Blockspeicherlösung verbunden werden.

Ein Failovercluster für einen Hyper-V-Host besteht aus einer Gruppe von unabhängigen Servern, die miteinander interagieren und somit die Verfügbarkeit von Anwendungen und Diensten erhöhen. Die Clusterserver (sogenannte Knoten) sind durch physische Kabel und durch Software miteinander verbunden. Wenn auf einem der Clusterknoten ein Fehler auftritt, werden seine Aufgaben sofort auf einen anderen Knoten übertragen. Dies wird als Failover bezeichnet. Bei einer geplanten Migration (die als Livemigration bezeichnet wird), entsteht für Benutzer keine wahrnehmbare Dienstunterbrechung.

Die Hostserver sind eine wichtige Komponente einer dynamischen, virtuellen Infrastruktur. Für die Konsolidierung mehrerer Arbeitsauslastungen auf den Hostservern müssen diese Server hochverfügbar sein.Windows Server 2012 bietet ein fortschrittliches Failoverclustering, das eine hohe Verfügbarkeit und Livemigration virtueller Computer zwischen physischen Knoten ermöglicht. Die folgenden neuen Features sind in Private Cloud-Entwurfsentscheidungen für Hostclustermitglieder einzubeziehen:

  • Features für Clusterskalierbarkeit

  • CSVs

  • Unterstützung für Dateiserver mit horizontaler Skalierung

  • Clusterfähige Aktualisierung

  • Überwachung von Anwendungen auf virtuellen Computern

  • Clustervalidierungstests

  • Abstimmung auf Active Directory-Domänendienste

  • Unterstützung mehrerer Standorte

  • Clusterupgrade und -migration

  • Integration des iSCSI-Softwareziels

  • Windows PowerShell-Unterstützung

Weitere Informationen zu jedem dieser Features und deren Integration in Ihren Cloudinfrastrukturentwurf finden Sie unter Neues beim Failoverclustering unter Windows Server 2012 R2.

Es ist wichtig zu beachten, dass eine Private Cloud-Infrastruktur kein Failoverclustering erfordert. Das Failoverclustering bietet eine hohe Verfügbarkeit für statusbehaftete Anwendungen, die nicht speziell für Clouds entwickelt wurden und Cloudfunktionen unterstützen. Bestimmte Cloudfunktionen sind auf die statusfreien Anwendungen der Zukunft ausgerichtet.

Vor Windows Server 2012 war für die Livemigration von virtuellen Computern zwischen Hosts ein Failoverclustering erforderlich. Daher bestimmte das Failovercluster den Mobilitätsumfang virtueller Computer und Arbeitsauslastungen. Mit Windows Server 2012 wurde jedoch die sogenannte Livemigrationsfunktion „Shared-Nothing“ eingeführt.

Die Shared-Nothing-Livemigration ermöglicht es Cloud-Dienstanbietern, virtuelle Computer ohne Failoverclustering oder freigegebenen Speicher zwischen Hyper-V-Hosts zu verschieben. Der virtuelle Computer und dessen virtuelle Datenträger- und Konfigurationsdateien können über ein einzelnes Netzwerkkabel (oder eine einzelne drahtlose Verbindung) zwischen Computern verschoben werden. Private Cloud-Dienstanbietern bietet dies die Möglichkeit, virtuelle Computer auszuführen, die statusfreie Arbeitsauslastungen hosten. Zudem können sie virtuelle Computer basierend auf dem ausgewählten Fabric-Controller auf bestimmte Hosts platzieren.

Schwerpunkt dieses Entwurfsleitfadens ist die Implementierung des Failoverclusterings in die Private Cloud-Infrastruktur, da das Failoverclustering-Feature in Windows Server 2012 viele wichtige Funktionen für die Verwaltung, Überwachung und Steuerung der gesamten Cloudlösung bietet und eng in Windows Server 2012 Hyper-V-Technologien integriert ist. Darüber hinaus glauben wir, dass zumindest in nächster Zeit statusbehaftete Anwendungen die gängigste Arbeitsauslastung in einer Private Cloud sein werden.

In einer Microsoft Private Cloud-Infrastruktur werden zwei Standardentwurfsmuster empfohlen. Die Servertopologie sollte aus mindestens zwei Hyper-V-Hostclustern bestehen. Der erste Cluster sollte mindestens zwei Knoten besitzen. Er wird als Verwaltungscluster bezeichnet. Der zweite und alle weiteren Cluster werden als Fabric-Hostcluster bezeichnet. Der zweite Cluster kann der Computecluster und der dritten der Speichercluster sein. Der zweite Cluster kann auch ein kombinierter, symmetrischer oder asymmetrischer Compute- und Speichercluster sein.

System_CAPS_noteHinweis

Im aktuellen Kontext sind bei einem symmetrischen Cluster alle Clustermitglied direkt mit dem Speicher verbunden. Im Gegensatz dazu ist bei einem asymmetrischen Cluster nur ein Teil der Mitglieder mit dem Speicher verbunden. In der Regel sind die nicht verbundenen Clustermitglieder für die Computefunktion zuständig (und führen die virtuellen Computern aus). Die verbundenen Clustermitgliedern dienen hingegen als Dateiserver mit horizontaler Skalierung. Sie hosten die Dateien der virtuellen Computer für die Computeknoten.

In einigen Fällen wie etwa kleineren Szenarien oder spezielle Lösungen können die Verwaltungs- und Fabric-Cluster im Fabric-Hostcluster konsolidiert werden. Dabei ist besonders auf die Verfügbarkeit der Ressourcen für die virtuellen Computer zu achten, auf denen die verschiedenen Teile des Verwaltungsstapels gehostet werden. Dieser Entwurf ist mit erheblichen Sicherheitsrisiken verbunden, sodass sowohl herkömmliche als auch cloudbasierte Sicherheitsmaßnahmen zwingend erforderlich sind.

Jeder Hostcluster kann bis zu 64 Knoten enthalten. Für Dateiservercluster, welche die Dateiserverrolle mit horizontaler Skalierung von Windows Server 2012 ausführen und vom Computercluster verwendete VHDX-Dateien hosten, besteht jedoch eine informelle 8-Knoten-Beschränkung. Der Computecluster kann seinen eigenen Speicher hosten oder mithilfe von dateibasiertem SMB 3.0-Speicher auf den Speicher im Dateiservercluster zugreifen.

System_CAPS_noteHinweis

Die informelle 8-Knoten-Beschränkung basiert auf den zum Zeitpunkt der Verfassung dieses Dokuments durchgeführten Tests. Sie können die 8-Knoten-Beschränkung auch überschreiten. Falls Probleme auftreten, unterstützt Sie der Kundensupportdienst (CSS) bei deren Identifizierung und Behebung.

In einem Hyper-V-Failovercluster werden eine Vielzahl von Datenverkehrsprofilen oder -typen für Hostcluster verwendet. Die Netzwerkanforderungen für diese Typen von Datenverkehr ermöglichen eine hohe Verfügbarkeit und eine hohe Leistung.

Die Konfigurationen der Microsoft-Cloudinfrastruktur unterstützen die folgenden Ethernet-Datenverkehrsprofile:

  • Datenverkehr des Verwaltungsnetzwerks: Das Verwaltungsnetzwerk ist für die Verwaltung der Hosts erforderlich, um zu vermeiden, dass diese mit den Anforderungen des Gast- und sonstigen Infrastrukturdatenverkehrs konkurrieren. Das Verwaltungsnetzwerk bietet ein gewisses Maß an Trennung, um die Sicherheit zu erhöhen und die Verwaltung zu vereinfachen. Dieses Netzwerk wird für die Remoteverwaltung des Hosts, die Kommunikation mit Verwaltungssystemen (System Center-Agents) und andere administrativen Aufgaben verwendet.

  • iSCSI-, Fibre Channel over Ethernet (FCoE)- oder SMB 3.0-Datenverkehr (Speicherdatenverkehr): Wenn Sie iSCSI, FCoE oder SMB 3.0 verwenden, wird das entsprechende Netzwerk so konfiguriert, sodass Speicherdatenverkehr nicht mit anderem Infrastruktur- oder Mandantendatenverkehr in Konflikt steht. Für alle diese Speicherverbindungen ist eine MPIO-Konfiguration mit zwei unabhängige physische Ports erforderlich. Bei einem SMB 3.0-Zugriff auf Dateispeicher können mehrere Netzwerkadapter in Verbindung mit SMB Multichannel und transparentem Failover verwendet werden, um ähnliche Vorteile wie MPIO zu bieten.

  • Datenverkehr für CSV/Clusterkommunikation: Wenn der Clusterkoordinatorknoten, der eine VHD-Datei (Virtual Hard Disk, virtuelle Festplatte) in CSV „besitzt“, Datenträger-E/A ausführt, kommuniziert der Knoten direkt mit den Speichergeräten (z. B. über ein SAN). Speicherverbindungsfehler und andere ausfallsichere Szenarien verhindern jedoch mitunter, dass ein gegebener Knoten direkt mit dem Speichergerät kommuniziert. Um die Funktion bis zur Behebung des Fehlers aufrechtzuerhalten, leitet der Knoten den Datenträger-E/A über ein Clusternetzwerk (das für CSV bevorzugte Netzwerk) an den Knoten weiter, von dem der Datenträger derzeit bereitgestellt wird. Dies wird als E/A-Umleitung der CSV-Kommunikation bezeichnet.

  • Datenverkehr von Livemigrationen, Während der Livemigration muss den Inhalt des Arbeitsspeichers des auf dem Quellknoten ausgeführten virtuellen Computers über eine LAN-Verbindung zum Zielknoten übertragen werden. Große virtuelle Computer können eine enorme Gigabyte-Menge an Arbeitsspeicher konsumieren, der über das Netzwerk übertragen werden muss. Für eine schnelle Übertragung ist ein dediziertes, redundantes 10-Gbit/s-Livemigrationsnetzwerk erforderlich. Dadurch reduziert sich der Zeitaufwand für die Evakuierung der virtuellen Computer von einem Host. Während der Wartung oder Windows-Updates entstehen zudem keine Ausfallzeiten. Der Zeitaufwand für die Evakuierung eines Clustermitglieds hängt von der Gesamtmenge des Arbeitsspeichers ab, den die auf diesem System ausgeführten virtuellen Computer belegen, sowie von der im Livemigrationsnetzwerk verfügbaren Bandbreite.

  • Mandantendatenverkehr: Der Mandantendatenverkehr erfolgt über den LAN-Datenverkehr virtueller Computer. Für den Mandantendatenverkehr können mithilfe eines Netzwerkadapter-Teamvorgangs zwei oder mehr 1-GB- oder 10-GB-Netzwerke verwendet werden. Möglich sind auch virtuelle Netzwerke, die mit Adaptern für freigegebene Netzwerke erstellt wurden. Sie können ein oder mehrere dedizierte Netzwerke für virtuelle Computer implementieren. Im Mandantennetzwerk ist dabei mitunter weniger Bandbreite als in den Infrastrukturnetzwerken erforderlich. Dies hängt von der Art der Arbeitsauslastungen ab, die in der Private Cloud unterstützt werden sollen. Sie können die für das Mandantennetzwerk erforderliche Bandbreite beispielsweise ermitteln, indem Sie die Netzwerkdienstklassen definieren und anschließend die Bandbreite ermitteln, die insgesamt erforderlich ist, um den SLA für die anhand der Netzwerkbandbreite definierten Dienstklassen für alle virtuellen Computer auf Ihrem Host zu erfüllen.

Sie können die hier vorgestellten Datenverkehrsprofile in zwei Kategorien unterteilen:

  • Private Cloud-Infrastrukturdatenverkehr

  • Private Cloud-Mandantendatenverkehr

Der Private Cloud-Infrastrukturdatenverkehr beinhaltet den Verwaltungs-, Speicher-, CSV/Cluster- und Livemigrationsdatenverkehr. Der Mandantendatenverkehr wird als Datenverkehr zu und von virtuellen Computern innerhalb der Private Cloud-Infrastruktur definiert.

System_CAPS_noteHinweis

Es sind einige Sicherheitsaspekte zu berücksichtigen, die über die bisher erörterten Isolationsmethoden hinaus gehen. Sie können zwar virtuelle Hyper-V-Switchport-ACLs und die VLAN-Kennzeichnung und sogar private VLANs verwenden, um ein gutes Maß an Trennung zwischen Host- und Gastdatenverkehr zu erzielen, sollten aber dennoch zusätzliche Sicherheitsmaßnahmen für den Livemigrationsdatenverkehr einführen. Während einer Livemigration werden Mandantendaten standardmäßig unverschlüsselt über das Livemigrationsnetzwerk verschoben. Diese Daten enthalten mit großer Wahrscheinlichkeit privaten Informationen, die für Angreifer von Interesse sein könnten. Bei einem Angriff auf die physische oder logische Infrastruktur des Livemigrationsnetzwerks könnte der Angreifer auf den unverschlüsselten Livemigrationsdatenverkehr zugreifen. Aus diesem Grund wird die Verwendung von IPsec empfohlen, um die Verbindungen zwischen Hosts im Livemigrationsnetzwerk zu schützen.

Für die Verwaltung der Datenverkehrsprofile stehen mehrere Optionen zur Verfügung, um den Profilen die erforderliche Bandbreite zuzuweisen, und gleichzeitig die Trennung zwischen dem Mandanten- und dem Cloudinfrastruktur-Datenverkehr (Verwaltung, Speicherung, CSV-Cluster und Livemigration) zu erzwingen. Diese sind:

  • Dedizierte Netzwerkadapter für jedes Datenverkehrsprofil: Dieser konventionelle Ansatz wurde für Windows Server 2008 R2 Hyper-V-Cluster empfohlen. Aufgrund der neuen Features in Windows Server 2012 gilt dies nicht mehr als der bevorzugte Entwurf. Es vereinfacht jedoch ein Upgrade der aktuellen Windows Server 2008 R2-Infrastruktur auf eine Windows Server 2012-Infrastruktur.

  • Dedizierte Netzwerkadapter für Cloudinfrastruktur- und Mandantendatenverkehr: In diesem Entwurfsmuster werden separate Adapter und Netzwerke für den Cloudinfrastruktur- und den Mandantendatenverkehr verwendet. Dies bietet die erforderliche Isolation zwischen dem Infrastruktur- und Mandantendatenverkehr und verringert die Auswirkung des Mandantendatenverkehrs auf die allgemeine Bandbreitenverfügbarkeit. Die QoS-Richtlinien in Windows Server 2012 können verwendet werden, um die minimale und maximale Bandbreitenverfügbarkeit für jedes Cloudinfrastruktur-Datenverkehrsprofil bereitstellen.

  • Keine dedizierten Adapter für Datenverkehrsprofile: In diesem Entwurfsmuster fließt der gesamte Datenverkehr über dieselben Netzwerkadapter im selben physischen Netzwerk Der Infrastruktur- und der Mandantendatenverkehr teilen denselben physikalischen Adapter oder dasselbe Adapterteam. Durch die Anwendung von Hyper-V-QoS-Richtlinien wird für jedes Datenverkehrsprofil eine bestimmte Bandbreite garantiert. Mittels VLAN-Kennzeichnung oder virtueller Hyper-V-Switchport-ACLs kann die erforderlichen Isolierung zwischen dem Cloudinfrastruktur und Mandantendatenverkehr bereitgestellt werden. Dieses Muster erfordert, dass der Infrastrukturdatenverkehr durch virtuelle Netzwerkadapter fließt, die auf demselben virtuellen Hyper-V-Switch erstellt werden, durch den auch der Mandantendatenverkehr fließt. Dieses zusammengeführte Netzwerkmuster hat den Vorteil, dass es einfacher zu verwalten und kosteneffizienter ist. Zudem ermöglicht es Ihnen, die Sicherheits- und Leistungsfunktionen des virtuellen Hyper-V-Switch zu nutzen.

Bisher ging es schwerpunktmäßig um Datenverkehrsmuster und den Netzwerkentwurf für den Clusterdatenverkehr von Computeknoten. Wenn Sie Ihre Compute- und Dateiservercluster getrennt haben, sodass Sie das Computing und den Speicher separat skalieren können, müssen Sie die auf dem Dateiservercluster zu definierenden Datenverkehrsprofile festlegen.

Das Dateiservercluster enthält die Verwaltung, das Cluster/CSV und gegebenenfalls ein Speichernetzwerk. Dies richtet sich danach, wie Sie dem Dateiservercluster Blockspeicher bereitstellen. Es gibt im Speichercluster kein Profil für den Livemigrationsdatenverkehr. Sie können jedoch ein Datenverkehrsprofil für das Dateiservernetzwerk definieren, das den Verbindungspfad zwischen dem Computeknoten und dem Dateiserverknoten über das SMB 3.0-Protokoll beschreibt.

Standardisierung ist ein wesentlicher Grundsatz von Private Cloud-Architekturen. Dies gilt auch für virtuelle Computer. Eine standardisierte Sammlung von Vorlagen für virtuelle Computer kann die Vorhersehbarkeit der Leistung fördern und die Kapazitätsplanung erheblich erleichtern. Diese Vorlagen bilden auch die Grundlage für Ihren Private Cloud-Dienstkatalog. Sie können mithilfe des Dienstkatalogs auch die Größe der Hosts in Ihrer Private Cloud sowie die Skalierungseinheiten ermitteln, die Sie definieren möchten.

In der folgenden Tabelle wird beispielsweise veranschaulicht, wie eine grundlegende Vorlagenbibliothek für virtuelle Computer aussehen könnte.

Vorlage

Technische Daten

Netzwerk

Betriebssystem

Kosten pro Einheit

Vorlage 1: Klein

1 vCPU, 2 GB Speicher, 50 GB Festplattenspeicher, 100 Mbit/s

VLAN 20

Windows Server 2008 R2

1

Vorlage 2: Mittel

4 vCPU, 4 GB Speicher, 250 GB Festplattenspeicher, 400 Mbit/s

VLAN 20

Windows Server 2008 R2

2

Vorlage 3: Sehr groß

16 vCPU, 16 GB Speicher, 500 GB Festplattenspeicher, 800 Mbit/s

VLAN 20

Windows Server 2008 R2

4

Vorlage 4: Klein

1 vCPU, 2 GB Speicher, 50 GB Festplattenspeicher, 100 Mbit/s

VLAN 10

Windows Server 2012

1

Vorlage 5: Mittel

4 vCPU, 4 GB Speicher, 250 GB Festplattenspeicher, 400 Mbit/s

VLAN 10

Windows Server 2012

2

Vorlage 6: Sehr groß

16 vCPU, 16 GB Speicher, 500 GB Festplattenspeicher, 800 Mbit/s

VLAN 10

Windows Server 2012

4

In diesem Abschnitt werden die verschiedenen Typen von Hyper-V-Datenträgern erörtert. In der Vergangenheit empfahl Microsoft, nur festen virtuellen Festplatten für die Produktion zu verwenden. Aufgrund von erheblichen Verbesserungen des virtuellen Datenträgerformats (VHDX) ist die Verwendung dynamisch erweiterbaren Festplatten zu einem geeigneten Format für die Produktion geworden. Aus Leistungsgründen können Sie daher in Ihrer Private Cloud-Infrastruktur entweder feste oder dynamisch erweiterbare Festplatten verwenden.

Dynamisch erweiterbare virtuelle Festplatten bieten Speicherkapazität nach Bedarf. Die VHDX-Datei ist bei der Erstellung des Datenträgers klein und wächst durch das Speichern von Daten auf der Festplatte. In Windows Server 2012 schrumpft die VHDX-Datei automatisch, wenn Daten auf der virtuellen Festplatte gelöscht werden. Dynamisch erweiterbare Festplatten können extrem schnell bereitgestellt und im Rahmen einer schlanken Speicherzuweisung verwendet werden.

Virtuelle Festplatten mit fester Größe bieten Speicherkapazität durch Verwendung einer VHDX-Datei, deren Größe für die virtuelle Festplatte bei der Festplattenerstellung festgelegt wird. Die VHDX-Datei behält ihre Größe ähnlich einer physischen Festplatte ungeachtet der gespeicherten Datenmenge bei. Mit dem Assistenten zum Bearbeiten virtueller Festplatten können Sie jedoch die Größe der virtuellen Festplatte erhöhen, wodurch sich die VHDX-Datei vergrößert. Durch das Zuweisen der vollen Kapazität bei der Erstellung ist die Fragmentierung auf der Hostebene kein Thema (die Fragmentierung innerhalb der virtuellen Festplatte muss im Gastbetriebssystem verwaltet werden). Ein Nachteil von Datenträgern mit fester Größe ist, dass die Bereitstellung viel Zeit in Anspruch nehmen kann, da sie sich nach der Größe des Datenträgers richtet. Datenträger mit fester Größe können inkrementelle Leistungsverbesserungen bieten. Wägen Sie die Vor- und Nachteile der Verwendung von dynamisch erweiterbaren Datenträgern und Datenträgern mit fester Größe ab. Überlegen Sie, ob die Speicherplatzvorteile der dynamisch erweiterbaren Datenträger gegenüber der inkrementellen Leistungssteigerung der Datenträger mit fester Größe überwiegen.

Durch den von differenzierenden virtuellen Festplatten bereitgestellten Speicher können Sie Änderungen an einer übergeordneten virtuellen Festplatte vornehmen, ohne den Datenträger zu ändern. Die VHD-Datei eines differenzierenden Datenträgers wächst, wenn Änderungen auf dem Datenträger gespeichert werden. Differenzierende Datenträger sind in Labor- und Testumgebungen nützlich, eignen sich aber auch für Private Cloud-Infrastrukturen.

Sie können beispielsweise die Hostinfrastruktur des Computeknotens so konfigurieren, dass für den Start eine Kombination aus iSCSI und VHDX verwendet wird. Auf Hyper-V-Compute-Clusterknoten ist dafür ein minimaler Zustand erforderlich. Jeder Host kann einen eigenen differenzierenden Datenträger besitzen. Wenn Updates für das Betriebssystem erforderlich sind, wird der übergeordnete Datenträger gewartet, und die Computeknoten werden nach der Migration der virtuellen Computer weg vom Computeknoten-Host neu gestartet. An diesem Punkt wird ein neuer differenzierender Datenträger erstellt. Dies ermöglicht die zentralisierte Verwaltung eines einzigen goldenen Images, das für jeden Computecluster-Host verwendet werden kann. Dadurch verringert sich der für das Hosting der virtuellen Festplattendateien des Clusterknotens erforderliche Speicherplatz.

Hyper-V ermöglicht virtuellen Gastcomputern den direkten Zugriff auf lokale Datenträger oder SAN-LUNs, die mit dem physischen Server verbunden sind. Das Volume muss dabei nicht auf dem Hostserver angezeigt werden. Der virtuelle Gastcomputer greift direkt auf den Datenträger (unter Verwendung der Datenträger-GUID) zu, ohne das Dateisystem des Hosts verwenden zu müssen. Da der Leistungsunterschied zwischen Datenträgern mit fester Größe und Pass-Through-Datenträgern in Windows Server 2012 unerheblich ist, hängt die Entscheidung jetzt von der Verwaltbarkeit ab. Wenn der Datenumfang auf dem Volume sehr groß ist (Hunderte von Gigabyte oder Terabyte), ist beispielsweise eine VHDX kaum übertragbar, da das Kopieren zu lange dauern würde. Zu berücksichtigen ist auch das Sicherungsschema. Mit Pass-Through-Datenträgern können die Daten nur innerhalb des Gastbetriebssystems gesichert werden. Darüber sind die virtuellen Computer nur begrenzt verschiebbar.

Beachten Sie auch, dass bei Verwendung von Pass-Through-Datenträgern keine VHDX-Datei erstellt wird. Die LUN wird direkt vom Gastbetriebssystem verwendet. Da keine VHDX-Datei vorhanden ist, gibt es auch keine dynamische Größenfunktion und keine Snapshotfunktion.

Indem Sie ein Gastcluster erstellen, können Sie unabhängig vom Gastbetriebssystem ein Failover oder eine Migration Ihrer Anwendung durchführen. Des Weiteren haben Sie die Möglichkeit, die Anwendung vom Gastbetriebssystem zu entkoppeln. Dies erfolgt auf ähnliche Weise wie bei der Abstraktion des Gastbetriebssystem durch die Virtualisierung. Das Gastbetriebssystem an sich entkoppeln Sie von der Hardware. Mithilfe eines Gastclusters entkoppeln Sie die Anwendung vom virtuellen Computer. Sie erhöhen dadurch die Flexibilität und die Betriebszeit, falls auf dem virtuellen Computer ein Fehler auftritt, der nicht durch eine Migration oder einen Neustart behoben werden kann.

Windows Server 2012 bietet Unterstützung für Gastclustering und Zugriff auf den dafür erforderlichen freigegebenen Speicher mittels:

  • iSCSI-Initiator im Gastbetriebssystem

  • Synthetischen Fibre Channel-HBA im Gastbetriebssystem (neu in Windows Server 2012)

Hyper-V kann auch iSCSI-Speicher nutzen. Dabei wird mithilfe der virtuellen Netzwerkadapter des Gastbetriebssystems eine direkte Verbindung zu iSCSI-LUNs hergestellt. Dies wird hauptsächlich für den Zugriff auf große Volumes, Volumes in SANs, mit denen der Hyper-V-Host nicht verbunden ist, oder das Gastclustering verwendet. Gastbetriebssysteme können ohne einen iSCSI-Initiator eines Drittanbieters nicht von iSCSI-LUNs gestartet werden, auf die über die virtuellen Netzwerkadapter zugegriffen wird. Da Gastbetriebssysteme jedoch von SMB 3.0-Dateifreigaben aus starten können, bietet der iSCSI-Start keinen Vorteil für virtuelle Computer.

Ein neues Feature in Windows Server 2012 ermöglicht es Ihnen, von dem auf einem virtuellen Computer ausgeführten Gastbetriebssystem aus eine direkte Verbindung zum Fibre Channel-Speicher herzustellen. Dieses Feature ermöglicht das Virtualisieren von Arbeitsauslastungen und Anwendungen, die direkten Zugriff auf Fibre Channel-basierten Speicher benötigen. Darüber hinaus können Sie das Clustering direkt im Gastbetriebssystem konfigurieren. Dieses Feature macht HBA-Ports innerhalb des Gastbetriebssystem verfügbar.

Hyper-V kann Fibre Channel-Speicher nutzen, indem es mithilfe der virtuellen HBAs des Gastbetriebssystems eine direkte Verbindung zu Fibre Channel-LUNs herstellt. Dies wird hauptsächlich für den Zugriff auf große Volumes, Volumes in SANs, mit denen der Hyper-V-Host nicht verbunden ist, oder das Gastclustering verwendet. Gastbetriebssysteme können ohne einen Fibre Channel-HBA eines Drittanbieters nicht von Fibre Channel-LUNs gestartet werden, auf die über die virtuellen Netzwerkadapter zugegriffen wird. Da Gastbetriebssysteme jedoch ähnlich wie beim iSCSI-Start auch von SMB 3.0-Dateifreigaben aus starten können, bietet der Fibre Channel-Start keinen Vorteil für virtuelle Computer.

Weitere Informationen zum Fibre Channel-HBA im Gastbetriebssystem finden Sie unter Virtueller Fibre Channel von Hyper-V: Übersicht.

Hyper-V-Gastbetriebssysteme unterstützen zwei Typen von virtuellen Netzwerkadaptern: synthetische und emulierte Adapter. Synthetische Adapter nutzen die VMBus-Architektur für Hyper-V. Sie sind die nativen Hochleistungsgeräte. Bei synthetischen Geräten müssen die Hyper-V-Integrationsdienste im Gastbetriebssystem installiert sein. Emulierte Adapter stehen für alle Gastbetriebssysteme bereit, auch wenn die Integrationsdienste nicht verfügbar sind. Sie sind erheblich langsamer und sollten nur verwendet werden, wenn kein synthetischer Adapter verfügbar ist.

System_CAPS_noteHinweis

Wenn Sie einen virtuellen Computer so konfigurieren, dass bei der Installation ein PXE-Start ausgeführt wird, wird automatisch ein emulierter Adapter verwendet. Wenn Sie den synthetischen Adapter nutzen möchten, müssen Sie den Adaptertyp nach Abschluss der Installation ändern.

Sie können auf dem Server, auf dem Hyper-V ausgeführt wird, viele virtuelle Netzwerke erstellen, um eine Vielzahl von Kommunikationskanälen bereitzustellen. Erstellen Sie beispielsweise Netzwerke, um Folgendes bereitzustellen:

  • Nur Kommunikation zwischen virtuellen Computern. Diese Art von virtuellem Netzwerk wird als privates Netzwerk bezeichnet.

  • Kommunikation zwischen Hostserver und virtuellen Computern. Diese Art von virtuellem Netzwerk wird als internes Netzwerk bezeichnet.

  • Kommunikation zwischen einem virtuellen Computer und einem physischen Netzwerk durch Erstellen einer Verknüpfung mit einem physischen Netzwerkadapter auf dem Hostserver. Diese Art von virtuellem Netzwerk wird als externes Netzwerk bezeichnet.

In Windows Server® 2008 R2 wurde von Hyper-V für Serverarbeitsauslastungen ein maximales Verhältnis von 8 virtuellen Prozessoren zu 1 logischen Prozessor und für VDI-Arbeitsauslastungen ein Verhältnis von 12 virtuellen Prozessoren zu 1 logischen Prozessor unterstützt. Ein logischer Prozessor ist ein Prozessorkern, der dem Hostbetriebssystem oder der übergeordneten Partition angezeigt wird. Im Fall der Hyperthreading-Technologie von Intel wird jeder Thread als logischer Prozessor betrachtet.

Daher unterstützt einen Server mit 16 logischen Prozessoren maximal 128 virtuelle Prozessoren. Das würde wiederum 128 virtuellen Computern mit einem Prozessor, 64 virtuellen Computern mit zwei Prozessoren oder 32 virtuellen Computern mit vier Prozessoren entsprechen. Das Verhältnis von 8:1 bzw. 12:1 zwischen virtuellen und logischen Prozessoren bezeichnet die unterstützte Obergrenze. Es wird jedoch empfohlen, ein geringeres Verhältnis zu verwenden.

In Windows Server 2012 gibt es keine hart- oder softcodierten Verhältnisvorgaben zwischen virtuellen und logischen Prozessoren. Es wird empfohlen, Dual-Socket-Server mit der höchsten verfügbaren Kerndichte zu verwenden. Bei der Planung von Skalierungseinheiten und der Anzahl der virtuellen Computer, die davon unterstützt werden, ist es effektiver, wie bereits erwähnt, die erforderliche RAM-Größe zu ermitteln. Wenn für die erforderliche Verarbeitungskapazität mehr Knoten benötigt werden, können Sie der Skalierungseinheit weitere Knoten hinzufügen. Eine Trendanalyse der Verlaufsdaten ist hierbei hilfreich. Trends und Schwellenwerte sind wichtiger als spezielle Verhältnissen.

In diesem Dokument wurden Ihnen zahlreiche mögliche Optionen für das Entwerfen einer Private Cloud-Infrastruktur aus der Speicher-, Netzwerk- und Compute-Perspektive gezeigt. Die möglichen Permutationen sind praktisch unbegrenzten, und Sie finden es vielleicht nicht einfach, zu ermitteln, welche Optionen für Sie am besten passen und welche Optionen sich am besten kombinieren lassen. Vielleicht würden Sie für den Anfang auch gerne bereits bewährte Entwurfsmuster für Private Cloud-Infrastrukturen nutzen.

Um Ihnen das Testen und Bewerten einer Microsoft Private Cloud-Infrastruktur zu erleichtern, haben wir drei Entwurfsmuster für Private Cloud-Infrastrukturen entwickelt und getestet, die Sie für Ihre eigene Private Cloud-Umgebung übernehmen können. Diese Entwurfsmuster bieten folgende Vorteile:

  • Sie repräsentieren eine Hardware- und Softwarekonfiguration, die im Microsoft Enterprise Engineering Center (EEC) nachweislich funktioniert.

  • Sie stellen drei Optionen zur Auswahl, bei denen viele der Entwurfsentscheidungen bereits für Sie getroffen wurden.

  • Sie helfen Ihnen zu verstehen, wie Sie die zahlreichen Verbesserungen in Windows Server 2012 nutzen können, um die Investitionen in Ihre Private Cloud-Infrastruktur optimal auszuschöpfen.

Hier die drei Entwurfsmuster, die wir für Sie identifiziert und dokumentiert haben:

  • Konfiguration eines nicht zusammengeführten Datacenters

  • Konfiguration eines zusammengeführten Datacenters mit Dateiserverspeicher

  • Konfiguration eines zusammengeführten Datacenters ohne dedizierten Speicher

In Verbindung mit diesen drei Konfigurationen bezieht sich der Begriff „zusammengeführt“ auf die Netzwerkkonfiguration. Ein zusammengeführter Netzwerkentwurf konsolidiert mehrere Datenverkehrsprofile in einem Netzwerk und auf einem Netzwerkadapter (oder in einem Team). Anschließend werden mithilfe einer Reihe von Softwarekonstrukten die erforderliche Isolation und Quality of Service für jedes Profil bereitgestellt.

Schließlich gilt es zu beachten, dass bei diesen drei Entwurfsmustern von Cloudinfrastrukturen diverse Entscheidungen hinsichtlich Speicher-, Netzwerk- und Compute-Funktionen für Sie getroffen wurden, diese aber nicht die gesamte Palette von Optionen umfassen, die Ihnen mit Windows Server 2012 zur Verfügung stehen. Sie können diese Muster als Grundlage verwenden und darauf aufbauend weitere Plattformfunktionen von Windows Server 2012 nutzen.

Das Cloudinfrastruktur-Entwurfsmuster eines nicht zusammengeführten Datacenters ermöglicht ein einfaches Upgrade einer bestehenden Cloudinfrastruktur. Es basiert auf Netzwerkentwurfsentscheidungen und Empfehlungen zur Hardwarekonfiguration für eine Windows Server 2008 R2-Infrastruktur. Für die Konfiguration eines nicht zusammengeführten Datacenters gelten hinsichtlich Netzwerk, Computing und Speicher die folgenden Hauptanforderungen:

  • Sie verfügen über separate Netzwerke, die auf der empfohlenen Konfiguration von Hyper-V in Windows Server 2008 R2 basieren. Sie möchten, dass diese physische Segmentierung des Netzwerkdatenverkehrs erhalten bleibt, um eine erneute Netzwerkentwicklung zu vermeiden. Jede Art des Infrastruktur- und Mandantendatenverkehrs (Verwaltung, Cluster/CSV, Livemigration und Speicherung) wird über physisch getrennte Netzwerke und Netzwerkadapter übertragen. Diese Anforderung wird durch Installieren physisch getrennter Netzwerkadapter für die einzelnen Datenverkehrstypen und durch Zuweisen von VLAN 802.1q-Tags zu den jeweiligen Adaptern erfüllt. Alternativ können Sie die Verwendung der VLAN-Kennzeichnung vermeiden und stattdessen portbasierte VLANs für die Netzwerkswitches nutzen.

  • Sie verlangen, dass jeder Datenverkehrstyp einem bestimmten Adapter zugeordnet ist. Um diese Anforderung zu erfüllen, wird jeder Datenverkehrsfluss so konfiguriert, dass er auf der dedizierten NIC die richtige Subnetz- bzw. IP-Adresse verwendet.

  • Sie möchten, dass die Arbeitsauslastung des virtuellen Computers mit höchster verfügbarer Netzwerkleistung bewältigt wird. Diese Anforderung wird durch Verwendung des neuen Windows Server 2012-Features der E/A-Virtualisierung mit Einzelstamm (Single Root I/O Virtualization, SR-IOV) erfüllt, das den auf dem Hyper-V-Server ausgeführten virtuellen Computern direkten Zugriff auf die Netzwerkadapterhardware gewährt und somit den virtuellen Netzwerkstapel umgeht.

  • Sie verfügen über Fibre Channel- oder iSCSI-SANs und benötigen einen ausreichend verbundenen Speicher, damit alle Mitglieder des Hyper-V-Failoverclusters mit einem Blockspeicher verbunden sind. Diese Anforderung wird durch Konfigurieren der Hyper-V-Hosts für die weitere Verwendung des herkömmlichen SAN-Speichers erfüllt. Jedes Mitglied des Hyper-V-Failoverclusters kann eine Verbindung mit iSCSI, Fibre Channel oder Fibre Channel over Ethernet herstellen.

  • Sie verlangen, dass jedes Mitglied des Hyper-V-Failoverclusters auf den freigegebenen Speicher zugreifen kann. Diese Anforderung wird durch die Verwendung von Windows Server 2012-Volumes für Failoverclustering und freigebene Clustervolumes der Version 2 (Cluster Shared Volumes Version 2, CSV v2) zum Speichern von Dateien virtueller Computer und Metadaten erfüllt.

  1. Sie möchten Hyper-V-Hardware, die zuvor auf Windows Server 2008 R2-Servern ausgeführt wurde, für andere Zwecke verwenden. Um diese Anforderung zu erfüllen, wird die vorherige Hardware wiederverwendet und nur eine einzelne Änderung an der Hardwarekonfiguration vorgenommen: Es wird ein 10-GB-Netzwerkadapter hinzugefügt, der SR-IOV unterstützt. Darüber hinaus müssen Sie das BIOS aktualisieren, wenn dieses SR-IOV aktuell nicht unterstützt. Alternativ können Sie einen 1-GbE-Adapter verwenden und SR-IOV nicht bereitstellen. Dieses Dokument zeigt Ihnen die Verwendung von SR-IOV.

  2. Sie verlangen, dass der Zugriff auf die virtuellen Computer flexibel auf Hardwarefehler reagiert. Diese Anforderung wird durch die Verwendung von Windows Server 2012-Failoverclustern mit der Hyper-V-Serverrolle erfüllt.

Die Cloudkonfiguration des nicht zusammengeführten Datacenters beinhaltet Folgendes:

  • Mehrere Computer in einem Hyper-V-Failovercluster, welche die Compute- und Speicherrollen übernehmen. Ein Hyper-V-Cluster wird mithilfe des Failovercluster-Features in Windows Server 2012 erstellt. Der Featuresatz zum Failoverclustering in Windows Server 2012 ist eng in die Hyper-V-Serverrolle integriert und sorgt für eine hohe Verfügbarkeit von Compute- und Netzwerkfunktionen. Zudem erweitert das Failoverclustering in Windows Server 2012 die Mobilität und die Verwaltung virtueller Computer, was in einer Cloudumgebung von entscheidender Bedeutung ist.

  • Eine Infrastruktur mit nicht zusammengeführten Netzwerken, die mehrere Cloud-Datenverkehrsprofile unterstützt. Für jeden Computer im Hyper-V-Failovercluster müssen ausreichend Netzwerkadapter installiert sein, um die einzelnen Datenverkehrstypen zu unterstützen, die von anderen Datenverkehrstypen isoliert werden müssen. In den meisten Fällen umfasst dies Netzwerkadapter, die dem Infrastrukturdatenverkehr zugeordnet sind, z. B. für Verwaltung, Cluster/CSV und Livemigration. Wenn Sie sich für ein Speicherprotokoll auf Ethernetbasis (wie iSCSI oder FCoE) entscheiden, dann ist auch ein Netzwerkadapter für den Speicherdatenverkehr erforderlich. Die Netzwerkadapter für den Infrastrukturdatenverkehr in diesem Szenario sind teamlose 1 GB-Adapter, obwohl auch 10 GB-Adapter oder eine Mischung aus 1 GB- und 10 GB-Adaptern für die zu unterstützenden Datenverkehrstypen der Infrastruktur verwendet werden können. Darüber hinaus können Sie beliebige Adapter zu Teams zusammenschließen. Der Nachteil dabei ist, dass RDMA auf zusammengeschlossenen Adaptern nicht unterstützt wird. Der Adapter für den Mandantendatenverkehr ist ein 10-GB-Adapter, der SR-IOV unterstützt und nicht zusammengeschlossen ist, da SR-IOV und NIC-Teaming nicht kompatibel sind.

  • SAN-basierter Speicher, der wahlweise auf Ethernet basieren kann. Die Speicheroptionen umfassen iSCSI, Fibre Channel, Fibre Channel over Ethernet oder InfiniBand (kein Ethernet). Sie können SAS-Speicher auch zusammen mit Windows Server 2012-Speicherplätzen verwenden.

  • Die entsprechende Netzwerkhardware zum Verbinden aller Computer im Hyper-V-Cluster miteinander und mit einem größeren Netzwerk, über das die gehosteten virtuellen Computer verfügbar sind.

Das im Konfigurationsszenario eines nicht zusammengeführten Datacenters dokumentierte Entwurfsmuster beinhaltet Folgendes:

  • Mehrere Computer in einem Hyper-V-Failovercluster

  • Separate 1 GB-Netzwerkadapter, über die der Datenverkehr für Livemigration, Cluster, Verwaltung und Mandanten übertragen wird.

  • Einen 10 GB-Adapter, der nur für den Mandantendatenverkehr bestimmt ist, der SR-IOV unterstützt. Beachten Sie in diesem SR-IOV-Szenario, dass sämtlicher Datenverkehr den virtuellen Hyper-V-Switch umgeht. Daher hängt die gesamte Datenverkehrsisolation von den Funktionen ab, die von der eindeutigen SR-IOV-NIC in diesem Bereich gegebenenfalls bereitgestellt werden.

  • SAN-Speicher, der auf iSCSI, Fibre Channel, Fibre Channel over Ethernet oder Infiniband basiert.

Abbildung 3 zeigt die Konfiguration eines nicht zusammengeführten Unternehmens.

Abbildung einer Hyper-V-Konfiguration

Abbildung 3: Allgemeine Übersicht über die Netzwerkkonfiguration der Clustermitglieder

Diese Konfiguration hebt die folgenden Technologien und Features von Windows Server 2012 hervor:

  • Failoverclustering: Ein Failovercluster ist eine Gruppe unabhängiger Computer, die miteinander interagieren, um die Verfügbarkeit und Skalierbarkeit von Clusterrollen (früher als Clusteranwendungen bzw. Clusterdienste bezeichnet) zu erhöhen. Die Clusterserver (sogenannte Knoten) sind durch physische Kabel und durch Software miteinander verbunden. Wenn auf einem oder mehreren der Clusterknoten ein Fehler auftritt, werden seine Aufgaben sofort von anderen Knoten übernommen. Dieser Vorgang wird als Failover bezeichnet. Zusätzlich werden die Clusterrollen proaktiv überwacht, um sicherzustellen, dass sie ordnungsgemäß funktionieren. Funktionieren sie nicht, werden sie neu gestartet oder auf einen anderen Knoten verschoben. Das Failoverclusteringfeature sorgt dafür, dass die Unterbrechung auf Benutzerseite nur minimal ist.

  • E/A-Virtualisierung mit Einzelstamm: Die E/A-Virtualisierung mit Einzelstamm (Single Root I/O Virtualization, SR-IOV) ist ein von PCI-SIG eingeführter Standard. SR-IOV funktioniert in Verbindung mit der Systemchipsatzunterstützung für Virtualisierungstechnologien. Dies ermöglicht die Neuzuordnung von Interrupts und DMA und gestattet, SR-IOV-fähige Geräte direkt einem virtuellen Computer zuzuordnen. Hyper-V in Windows Server 2012 ermöglicht die Unterstützung für SR-IOV-fähige Netzwerkgeräte und gestattet, eine virtuelle SR-IOV-Funktion eines physischen Netzwerkadapters direkt einem virtuellen Computer zuzuweisen. Dies steigert den Netzwerkdurchsatz, verringert die Netzwerklatenz und reduziert zudem die Host-CPU-Auslastung zur Verarbeitung des Netzwerkdatenverkehrs.

System_CAPS_noteHinweis

Mindestens ein AD DS-Domänencontroller (Active Directory Domain Services, Active Directory-Domänendienste) wird für die zentralisierte Sicherheit und Verwaltung der Clustermitgliedscomputer benötigt (nicht gezeigt). Dieser muss für alle Clustermitgliedscomputer, einschließlich der Mitglieder des freigegebenen Speicherclusters, erreichbar sein. DNS-Dienste sind ebenfalls erforderlich, aber nicht dargestellt.

Detaillierte Setup- und Konfigurationsinformationen zum Erstellen der Konfiguration eines nicht zusammengeführten Datacenters in Ihrem eigenen Datacenter finden Sie unter Erstellen einer Cloudinfrastruktur: Konfiguration eines nicht zusammengeführten Datencenters.

Das Cloudentwurfsmuster eines zusammengeführten Datacenters mit Dateiserverspeicher wird im Wesentlichen durch die Tatsache definiert, dass der Hyper-V-Computercluster vom Speichercluster getrennt ist. Im Cloudentwurfsmuster eines nicht zusammengeführten Datacenters wurde der Hyper-V-Cluster mit einem Blockspeicher verbunden. Im Gegensatz dazu verwendet die Konfiguration eines zusammengeführten Rechenzentrums mit Dateiserverspeicher ein hochverfügbares Dateiservercluster, um die Konfigurationsdateien der VHDX und der virtuelle Computer zu hosten. Die Knoten auf dem Hyper-V-Computecluster greifen mithilfe des SMB 3.0-Protokolls über das Netzwerk auf die Dateien der virtuellen Computer zu. Darüber hinaus wird für die Konfiguration des zusammengeführten Datacenters mit Dateiserverspeicher ein zusammengeführtes Netzwerkmuster im Hyper-V-Computecluster verwendet. Hier werden die Datenverkehrsprofile für die Infrastruktur (Verwaltung, Cluster/CSV, Livemigration und Speicher) in einem Subnetz bzw. auf einer NIC gehostet. Der Mandantendatenverkehr wird in einem separaten Subnetz bzw. einer separaten NIC gehostet.

Für die Konfiguration eine zusammengeführten Datacenters mit Dateiserverspeicher wird Folgendes verwendet:

  • Zwei Subnetze – eins für den Datenverkehr der Cloudinfrastruktur (Livemigration, Cluster, Speicher und Verwaltung) und eins für Mandantendatenverkehr

  • NIC-Teamvorgang für die Aggregation der Netzwerkbandbreite und Failover für das Infrastruktur- und das Mandantensubnetz

  • Einen dedizierten Dateiserver-Speichercluster, auf dem VHDX- und Konfigurationsdateien für virtuelle Computer gehostet werden

  • Einen dedizierten Hyper-V-Compute-Cluster, auf dem die Arbeitsauslastungen virtueller Computer ausgeführt werden.

Das Entwurfsmuster für die Cloudinfrastruktur von zusammengeführten Datacentern mit Dateiserverspeicher konzentriert sich auf die folgenden wichtigen Anforderungen in den Bereichen Netzwerk, Compute und Speicherung:

  • Es ist erforderlich, dass Cloudinfrastruktur-Datenverkehr von Cloud-Mandantendatenverkehr physisch getrennt wird. Die Anforderung wird durch Erstellen separater NICs (oder Teams) für die Infrastruktur und den Mandantendatenverkehr und das Verbinden mit verschiedenen Subnetzsegmenten erfüllt. Das Mandantensubnetz kann in diesem Szenario wahlweise den NIC-Teamvorgang verwenden.

  • Es ist erforderlich, dass sämtlicher Infrastruktur-Datenverkehr (d. h. Livemigration, Cluster, Speicher, Verwaltung) eine garantierte Bandbreite erhält. Die Anforderung wird mithilfe von Windows-QoS-Richtlinien auf der übergeordneten Hyper-V-Partition erfüllt.

  • Es ist erforderlich, dass Mandantendatenverkehr von anderen Mandanten eine garantierte Bandbreite erhält. Die Anforderung wird mit QoS-Richtlinien für virtuelle Hyper-V-Switches erfüllt.

  • Es ist erforderlich, Speicher getrennt von der Computeinfrastruktur zu skalieren und zu verwalten. Diese Anforderung kann durch Erstellen eines dedizierten Speicherclusters, auf dem die Konfigurationsdateien für VHDX und virtuelle Computer gehostet werden, erfüllt werden. Der Hyper-V-Compute-Cluster stellt eine Verbindung mit dem Dateiservercluster mit SMB 3.0 her, um eine Verbindung zu Dateifreigaben auf dem Speichercluster herzustellen. Das Dateiservercluster wird für die Verwendung des neuen Dateiserver-Features mit horizontaler Skalierung von Windows Server 2012 konfiguriert. Dies ermöglicht die kontinuierliche Verfügbarkeit der Dateien für virtuelle Computer.

  • Es ist eine kostengünstigen Speicheroption erforderlich. Diese Anforderung wird mithilfe von Serial Attached SCSI (SAS)-Datenträgern in freigegebenen JBOD-Gehäusen, die über Speicherplätze verwaltet werden, erfüllt. Wenn Sie über umfangreiche Investitionen in andere Speichertechnologien verfügen, kann als Alternative jedes Mitglied des Dateiserver-Failoverclusters eine Verbindung mit iSCSI, Fibre Channel oder Fibre Channel over Ethernet herstellen.

  • Es ist eine robuste Speicherlösung erforderlich. Diese Anforderung wird durch die Verwendung von mindestens zwei Servern erfüllt, die als Failovercluster mit ausreichend verbundenem Speicher (freigegebene JBODs) konfiguriert sind. Dadurch sind alle Mitglieder des Dateiserver-Failoverclusters direkt mit Speicherplätzen verbunden, die als gespiegelte Speicherplätze konfiguriert wurden, um bei Datenträgerfehlern Datenverluste zu verhindern. Jedes Clustermitglied verfügt über redundante Verbindungen zum JBOD-Gehäuse, und Windows Server 2012 MPIO ist aktiviert. Darüber hinaus kann jedes Mitglied des Dateiserver-Failoverclusters über das Windows Server 2012-Failoverclustering und CSV v2-Volumes (freigegebene Clustervolumes Version 2) auf den freigegebenen Speicher zugreifen, um Dateien und Metadaten von virtuellen Computern zu speichern.

  1. Es ist erforderlich, Ihre Computeinfrastruktur unabhängig von Ihrer Speicherinfrastruktur zu skalieren. Diese Anforderung wird durch das Erstellen eines dedizierten Hyper-V-Computeclusters, der eine Verbindung zum Remotedateiserver-Speicher für virtuelle Computer und Konfigurationsdateien für virtuelle Computer herstellt, erfüllt. Lokale Datenträger an den Computeknoten werden nur für die Startpartition verwendet, nicht für die virtuellen Computer.

  2. Es ist erforderlich, dass virtuelle Computer ständig verfügbar und gegen Hardwarefehler verstärkt sind. Diese Anforderung wird durch die Verwendung von Windows Server 2012-Failoverclustern mit der Hyper-V-Serverrolle erfüllt.

  3. Es ist die höchste Anzahl von virtuellen Computern pro Hostserver erforderlich (d. h. eine erhöhte VM-Dichte). Diese Anforderung wird durch Verwendung von Technologien für die Prozessorauslagerung erfüllt, wie z. B. Remotezugriff auf den direkten Speicher (Remote Direct Memory Access, RDMA), empfangsseitige Skalierung (Receive Side Scaling, RSS), empfangsseitige Zusammenfügung (Receive Side Coalescing, RSC) und Datacenter Bridging (DCB).

Basierend auf den oben genannten Anforderungen zeichnet sich die Konfiguration eines zusammengeführten Datacenters mit Dateiserverspeicher durch die folgenden Merkmale aus:

  • Mehrere Computer in einem dedizierten Hyper-V-Computecluster. Ein Hyper-V-Cluster wird mithilfe des Failovercluster-Features in Windows Server 2012 erstellt. Der Featuresatz zum Failoverclustering in Windows Server 2012 ist eng in die Hyper-V-Serverrolle integriert und sorgt für eine hohe Verfügbarkeit von Compute- und Netzwerkfunktionen. Zudem erweitert das Failoverclustering in Windows Server 2012 die Mobilität und die Verwaltbarkeit virtueller Computer, was in einer Cloudumgebung von entscheidender Bedeutung ist. Hyper-V-Cluster sind dedizierte Computecluster, auf denen kein Speicher und keine Konfigurationsdateien für virtuelle Computer gehostet werden.

  • Mehrere Computer in einem dedizierten Speichercluster für Dateiserver mit horizontaler Skalierung. Ein Dateiserver-Failovercluster wird mithilfe des Failovercluster-Features in Windows Server 2012 erstellt.Windows Server 2012 enthält eine neue Dateiserverfunktion namens „Dateiserver mit horizontaler Skalierung für Anwendungen“, mit der Sie virtuelle Computer und Konfigurationsdateien für virtuelle Computer in einer Dateifreigabe speichern und diese Dateien ständig verfügbar machen können. Wenn Sie den Dateiservercluster vom Computecluster trennen, können Sie Compute-und Speicherressourcen unabhängig voneinander skalieren.

  • Eine zusammengeführte Netzwerkinfrastruktur, welche die physische Segmentierung des Infrastruktur- und Mandantendatenverkehrs unterstützt. Jeder Computer im Hyper-V-Failovercluster muss über mindestens zwei Netzwerkadapter verfügen, sodass jeweils ein Adapter den Cloudinfrastruktur-Datenverkehr bzw. den Mandantendatenverkehr unterstützen kann. Wenn Stabilität gegenüber NIC-Fehlern erforderlich ist, können Sie zusätzliche Netzwerkadapter in jedem Netzwerk hinzufügen und diese mit dem Lastenausgleich und Failover (Load Balancing and Failover, LBFO)-NIC-Teamvorgängen von Windows Server 2012 zusammenführen. Bei den Netzwerkkarten kann es sich um 10-GbE- oder 1-GbE-Netzwerkadapter handeln. Diese NICs werden für Livemigration, Cluster, Speicher, Verwaltung (zusammen als „Infrastrukturdatenverkehr“ bezeichnet) und Mandantendatenverkehr verwendet. Allerdings sollten Sie bedenken, dass der NIC-Teamvorgang nicht mit RDMA kompatibel ist. RDMA ist daher im Netzwerk der Infrastruktur nicht aktiviert.

  • Die entsprechende Netzwerkhardware (z. B. Ethernet-Switches, Kabel usw.) zum Verbinden aller Computer im Hyper-V-Cluster miteinander und mit einem größeren Netzwerk, über das die gehosteten virtuellen Computer verfügbar sind.

Abbildung 4 zeigt eine allgemeine Übersicht des Szenariolayouts. Zu den wichtigsten Elementen der Konfiguration gehören:

  • Ein Dateiservercluster, auf dem die virtuellen Festplatten und die Konfigurationsdateien für virtuelle Computer gehostet werden

  • Der Dateiservercluster ist nur mit dem Infrastrukturnetzwerk verbunden.

  • Der Dateiservercluster ist über HBAs oder über ein 10-Gb-Ethernet-Netzwerk (wie im Fall von iSCSI oder Fibre Channel over Ethernet [FCoE]) mit Blockspeicher verbunden.

  • Ein Hyper-V-Computecluster, auf dem die Arbeitsauslastungen virtueller Computer gehostet werden

  • Der Hyper-V-Computecluster ist über ein Netzwerkadapterteam mit dem Netzwerk des Rechenzentrums (bzw. der Infrastruktur) und dem Mandantennetzwerk verbunden.

  • Der Cloudinfrastruktur-Datenverkehr fließt zum und vom hostbasierten 10-GbE-Netzwerkadapterteam.

  • Der Mandantennetzwerk-Datenverkehr zu und von den virtuellen Computern fließt durch den virtuellen Hyper-V-Switch, der mit dem Mandantennetzwerk-NIC-Team gekoppelt ist.

Abbildung einer Cloudtopologie

Abbildung 4: Allgemeine Übersicht des Entwurfsmusters eines zusammengeführten Datacenters mit Dateiserverspeicher

System_CAPS_noteHinweis

Obwohl diese Konfiguration SAS-Speicher auf dem Dateiservercluster verwendet, können Sie problemlos andere Speichertypen auswählen, beispielsweise iSCSI oder Fibre Channel-basierten SAN-Speicher. Weitere Informationen zur Speicherkonfiguration in Szenarios ohne SAS finden Sie im Dokument Erstellen einer Cloudinfrastruktur: Konfiguration eines nicht zusammengeführten Datencenters. Darin wird das Konfigurieren des SAN-Speichers erläutert.

System_CAPS_noteHinweis

Mindestens ein AD DS-Domänencontroller (Active Directory Domain Services, Active Directory-Domänendienste) wird für die zentralisierte Sicherheit und Verwaltung der Clustermitgliedscomputer benötigt (nicht gezeigt). Dieser muss für alle Clustermitgliedscomputer, einschließlich der Mitglieder des freigegebenen Speicherclusters, erreichbar sein. DNS-Dienste sind ebenfalls erforderlich, aber nicht dargestellt.

Diese Konfiguration hebt die folgenden Technologien und Features von Windows Server 2012 hervor:

  • Lastenausgleich und Failover (Load Balancing and Failover, LBFO): Beim Lastenausgleich und Failover (NIC-Teamvorgang) werden mehrere Netzwerkadapter logisch kombiniert, um Bandbreitenaggregation und Verkehrsfailover bereitzustellen und dadurch Konnektivitätsverluste bei Fehlern in Netzwerkkomponenten zu verhindern. Lastenausgleich mit Failover wird in Windows Server 2012 auch als NIC-Teamvorgang bezeichnet.

  • Windows Server Quality of Service (QoS): Windows Server 2012 umfasst verbesserte QoS-Features, mit denen Sie die Bandbreite verwalten und für den Datenverkehr zum Hostbetriebssystem und von diesem eine vorhersehbare Netzwerkleistung bereitstellen können.

  • Erweiterbarer Hyper-V-Switch – Quality of Service (QoS): In Windows Server 2012 enthält der erweiterbare Hyper-V-Switch QoS-Features, die auf virtuelle Switchports angewendet werden können. Sie ermöglichen die Bandbreitenverwaltung und bieten eine vorhersehbare Netzwerkleistung für virtuelle Computer, die auf diesem Server ausgeführt werden.

  • Datacenter Bridging (DCB): DCB bietet eine hardwarebasierte Bandbreitenzuordnung für einen bestimmten Typ von Netzwerkdatenverkehr und verbessert dank prioritätsbasierter Flusssteuerung die Ethernet-Transportzuverlässigkeit. Eine hardwarebasierte Bandbreitenzuordnung ist notwendig, wenn der Datenverkehr das Betriebssystem umgeht und auf einen Converged Network Adapter abgeladen wird, der iSCSI (Internet Small Computer System Interface), RoCE (RDMA over Converged Ethernet) oder FCoE (Fiber-Channel over Ethernet) unterstützt.

  • Speicherplätze: Speicherplätze ermöglichen die Erstellung kostengünstiger Datenträgerpools, die als einzelner Massenspeicherort dargestellt werden, an dem virtuelle Datenträger oder Volumes erstellt und formatiert werden können.

Detaillierte Setup- und Konfigurationsinformationen zum Erstellen der Konfiguration eines nicht zusammengeführten Datacenters in Ihrem eigenen Datacenter finden Sie unter Erstellen einer Cloudinfrastruktur: Zusammengeführtes Rechenzentrum mit Dateiserverspeicher.

Das Entwurfsmuster der Cloudinfrastruktur mit einem zusammengeführten Datacenter ohne dedizierte Speicherknoten nutzt die neuen Funktionen in Windows Server 2012. Sie können damit alle Datenverkehrsprofile (Infrastruktur und Mandanten) zusammenführen, um sie über einen einzelnen Netzwerkadapter oder ein NIC-Team auszuführen. Hier unterscheidet sich das Muster von den vorherigen beiden Entwurfsmustern, bei denen jedes Datenverkehrsprofil einem speziellen physischen Netzwerkadapter zugewiesen war oder der Infrastruktur- und Mandantendatenverkehr über verschiedene Netzwerkadapter und Subnetze übertragen wurde. Sie können Ihre Cloudinfrastruktur mit dem Cloudentwurfsmuster eines zusammengeführten Datacenters ohne dedizierte Speicherknoten erheblich vereinfachen, da sich die Anzahl der zu verwaltenden Kabel und Ports reduziert.

Die Konfiguration eines zusammengeführten Datacenters ohne dedizierte Speicherknoten beinhaltet Folgendes:

  • Eine zusammengeführtes Netzwerkinfrastruktur für Datenverkehr im Zusammenhang mit Livemigration, Cluster, Speicher, Verwaltung und Mandanten

  • Der gesamte Netzwerkdatenverkehr wird über den virtuellen Hyper-V-Switch übertragen. Dies gilt auch für den Datenverkehr des Hostbetriebssystems, der das Infrastrukturnetzwerk durchfließt.

  • QoS (Quality of Service) für den virtuellen Hyper-V-Switch

  • Port-ACLs und 802.1q-VLAN-Kennzeichnung für den virtuellen Hyper-V-Switch

  • NIC-Teamvorgang für die Aggregation der Netzwerkbandbreite und Failover

  • Ordnungsgemäß verbundener Speicher mit SAS-JBOD-Gehäusen

Das Entwurfsmuster eines zusammengeführten Datacenters ohne dedizierte Speicherknoten konzentriert sich auf die folgenden Hauptanforderungen hinsichtlich Netzwerk, Computing und Speicher:

  • Der Netzwerkdatenverkehr zum und vom Hostbetriebssystem sowie zu und von den Gastbetriebssystemen auf dem Host soll über ein einziges Netzwerkadapterteam übertragen werden. Diese Anforderung wird durch Verwendung des NIC-Teamvorgangs (LBFO) in Windows Server 2012 und die Übertragung des gesamten Datenverkehrs über den virtuellen Hyper-V-Switch erfüllt.

  • Für den gesamten Datenverkehr im Zusammenhang mit Livemigration, Cluster, Speicher, Verwaltung und Mandanten muss eine garantierte Bandbreite zur Verfügung stehen. Die Anforderung wird mit QoS-Richtlinien für virtuelle Hyper-V-Switches erfüllt.

  • Der Infrastruktur-Datenverkehr (dazu zählt Datenverkehr im Zusammenhang mit Livemigration, Cluster, Speicher und Verwaltung) und der Mandantendatenverkehr müssen voneinander isoliert sein. Diese Anforderung wird durch Verwendung von Port-ACLs und 802.1q-VLAN-Kennzeichnung für den virtuellen Hyper-V-Switch erfüllt.

  • Sie möchten Ihre Cloudinfrastruktur skalieren, indem Sie aus Datenverarbeitungs- und Speicherkapazität bestehende Skalierungseinheiten hinzufügen. Diese Anforderung wird erfüllt, indem die Hyper-V-Server direkt mit SAS-Speicher verbunden werden, ohne dass dedizierte Dateiserver vorhanden sind. Sie können in diesem Entwurfsmuster auch SAN-basierten Speicher verwenden, der mit dem Computecluster verbunden ist.

  • Sie benötigen kostengünstigen Speicher. Diese Anforderung wird durch SAS-Datenträger in freigegebenen JBOD-Gehäusen erfüllt, die mithilfe von Speicherplätzen verwaltet werden.

  • Es ist eine robuste Speicherlösung erforderlich. Diese Anforderung wird durch die Verwendung mehrerer Hyper-V-Server erfüllt, die als Failovercluster konfiguriert sind, sowie durch einen ordnungsgemäß verbundenen Speicher (freigegebene JBODs), sodass alle Mitglieder des Failoverclusters direkt mit dem Speicher verbunden sind. Des Weiteren wurden Speicherplätze als gespiegelter Speicherplatz konfiguriert, um beim Ausfall eines Datenträgers Datenverluste zu vermeiden.

  • Jedes Mitglied des Hyper-V-Failoverclusters muss auf den freigegebenen Speicher zugreifen können, in dem sich die virtuellen Festplatten befinden. Diese Anforderung wird durch die Verwendung von Windows Server 2012-Volumes für Failoverclustering und freigebene Clustervolumes der Version 2 (Cluster Shared Volumes Version 2, CSV v2) zum Speichern von Dateien virtueller Computer und Metadaten erfüllt.

  • Die virtuellen Computer müssen permanent verfügbar und robust gegenüber Hardwarefehlern sein. Diese Anforderung wird durch die Verwendung von Windows Server 2012-Failoverclustern mit der Hyper-V-Serverrolle erfüllt.

  • Es ist die höchste Anzahl von virtuellen Computern pro Hostserver erforderlich (d. h. eine höhere Dichte). Diese Anforderung wird durch Verwendung von Technologien für die Prozessorauslagerung erfüllt, wie z. B. Remotezugriff auf den direkten Speicher (Remote Direct Memory Access, RDMA), empfangsseitige Skalierung, empfangsseitige Zusammenfügung (Receive Side Coalescing, RSC) und Datacenter Bridging (DCB). Bitte beachten Sie, dass in der hier vorgestellten Standardkonfiguration (ohne dedizierte Speicherzugriffs-NIC) RDMA und DCB nicht verwendet werden können. Diese Technologien erfordern direkten Hardwarezugriff und müssen einen Großteil des virtuellen Netzwerkstapels umgehen, um die Kompatibilität mit dem NIC-Teamvorgang zu ermöglichen. Dies ähnelt der Situation mit Single Root I/O Virtualization (SR-IOV). Für eine optimale Leistung, insbesondere beim Netzwerkzugriff auf Speicher, ist ein separater NIC-Teamvorgang erforderlich, um diese Hardwaretechnologien zur Beschleunigung der Auslagerung zu unterstützen.

Das Entwurfsmuster für eine Cloudinfrastruktur mit einem zusammengeführtem Datencenter ohne dedizierte Speicherknoten beinhaltet Folgendes:

  • Mehrere Computer in einem Hyper-V-Failovercluster. Ein Hyper-V-Cluster wird mithilfe des Features Failovercluster in Windows Server 2012 erstellt. Der Featuresatz zum Failoverclustering in Windows Server 2012 ist eng in die Hyper-V-Serverrolle integriert und sorgt für eine hohe Verfügbarkeit von Compute- und Netzwerkfunktionen. Zudem erweitert das Failoverclustering in Windows Server 2012 die Mobilität virtueller Computer, die in einer Cloudumgebung von entscheidender Bedeutung ist. Beispielsweise wird die Livemigration verbessert, wenn sie in einer Failovercluster-Bereitstellung durchgeführt wird, da der Cluster automatisch auswerten kann, welcher Knoten im Cluster optimal für die Platzierung des migrierten virtuellen Computers geeignet ist.

  • Eine zusammengeführte Netzwerkinfrastruktur, die mehrere Cloud-Datenverkehrsprofile unterstützt. Jeder Computer im Hyper-V-Failovercluster sollte über mindestens zwei Netzwerkadapter verfügen, die für das zusammengeführte Netzwerk verwendet werden. Dieses zusammengeführte Netzwerk hostet den gesamten Datenverkehr zum und vom Server; dies schließt sowohl Hostsystem-Datenverkehr als auch Gast-/Mandantendatenverkehr ein. Die Netzwerkadapter werden mithilfe des NIC-Teamvorgangs „Lastenausgleich und Failover“ (Load Balancing and Failover, LBFO) von Windows Server 2012 zusammengeschlossen. Bei den NICs kann es sich um zwei oder mehr 10-GbE- oder 1-GbE-Netzwerkadapter handeln. Diese NICs werden für Livemigration, Cluster, Speicher, Verwaltung (zusammen als „Infrastrukturdatenverkehr“ bezeichnet) und Mandantendatenverkehr verwendet.

  • Die entsprechende Netzwerkhardware zum Verbinden aller Computer im Hyper-V-Cluster miteinander und mit einem größeren Netzwerk, über das die gehosteten virtuellen Computer verfügbar sind.

Die folgende Abbildung zeigt eine allgemeine Ansicht der Szenarioarchitektur. Die kombinierten Netzwerkadapter auf jedem Mitglied des Failoverclusters sind mit einem Netzwerk verbunden, das in diesem Dokument als „zusammengeführtes Subnetz“ bezeichnet wird. Mithilfe des Begriffs „zusammengeführtes Subnetz“ soll verdeutlicht werden, dass der gesamte Datenverkehr zu und von den Hyper-V-Clustermitgliedern und den virtuellen Mandantencomputern auf jedem Clustermitglied über den kombinierten Netzwerkadapter des zusammengeführten Subnetzwerks übertragen werden muss. Sowohl das Hostbetriebssystem als auch die Mandanten stellen die Verbindung mit dem Netzwerk über den virtuellen Hyper-V-Switch her. Die Abbildung zeigt außerdem einen optionalen Netzwerkadapter, der RDMA-fähig ist und für Speicherdatenverkehr verwendet werden kann, z. B. wenn Speicher auf einer Freigabe auf einem Remotedateiserver gehostet wird.

Allgemeine Übersicht über Clustermitgliedsnetzwerke

Abbildung 5: Allgemeine Übersicht über die Netzwerkkonfiguration der Clustermitglieder

System_CAPS_noteHinweis

Mindestens ein AD DS-Domänencontroller (Active Directory Domain Services, Active Directory-Domänendienste) wird für die zentralisierte Sicherheit und Verwaltung der Clustermitgliedscomputer benötigt (nicht gezeigt). Dieser muss für alle Clustermitgliedscomputer, einschließlich der Mitglieder des freigegebenen Speicherclusters, erreichbar sein. DNS-Dienste sind ebenfalls erforderlich, aber nicht dargestellt.

Abbildung 6 zeigt eine Übersicht der Datenverkehrsflüsse der einzelnen Mitglieder des Hyper-V-Clusters. Die Abbildung zeigt die folgenden wesentliche Probleme in der Konfiguration auf:

  • Jedes Clusterknotenmitglied verwendet einen virtuellen Netzwerkadapter, um die Verbindung mit dem erweiterbaren Switch für Hyper-V herzustellen, der die Verbindung mit dem physischen Netzwerk herstellt.

  • Jeder virtuelle Mandantencomputer ist außerdem über einen virtuellen Netzwerkadapter mit dem erweiterbaren Switch für Hyper-V verbunden.

  • Netzwerkadapter mit den Namen „ConvergedNet1“ und „ConvergedNet2“ nehmen mithilfe des Windows Server 2012-Features für Failover und Lastenausgleich an einer Konfiguration mit physischen Netzwerkadapterteams teil.

  • Mithilfe von QoS für virtuelle Hyper-V-Switches in Windows Server 2012 wird sichergestellt, dass für jeden Datenverkehrstyp (beispielsweise Livemigration, Cluster, Verwaltung und Mandant) eine vorhersehbare Menge an Bandbreite verfügbar ist.

  • Datenverkehrsisolation wird durch 802.1q-VLAN-Kennzeichnung ermöglicht, sodass der Hostdatenverkehr für die Mandanten nicht sichtbar ist.

  • Port-ACLs für virtuelle Hyper-V-Switches in Windows Server 2012 können ebenfalls verwendet werden, um eine detailliertere Zugriffssteuerung auf der Netzwerkebene zu ermöglichen.

Es ist wichtig zu beachten, dass der Remotezugriff auf den direkten Speicher (Remote Direct Memory Access, RDMA) im zusammengeführten Netzwerk nicht verwendet werden kann, da die Funktion nicht mit dem virtuellen Hyper-V-Switch und dem NIC-Teamvorgang kompatibel ist. Das ist ein Problem, wenn Sie leistungsstarke SMB-3-Konnektivität mit serverbasiertem Dateispeicher für virtuellen Datenträger und Konfigurationsdateien verwenden möchten.

System_CAPS_noteHinweis

Den einzelnen Mandanten werden keine virtuellen lokalen Netzwerke (Virtual Local Area Networks, VLANs) zugewiesen, da die VLAN-basierte Netzwerkisolation keine skalierbare Lösung darstellt und nicht mit der Netzwerkvirtualisierung von Windows Server 2012 kompatibel ist. VLANs werden in diesem Szenario verwendet, um den Infrastruktur-Datenverkehr vom Mandantendatenverkehr zu isolieren.

Übersicht über den Datenverkehrsfluss von Clustermitgliedern

Abbildung 6: Übersicht über die Datenverkehrsflüsse der Clustermitglieder

Diese Konfiguration hebt die folgenden Technologien und Features von Windows Server 2012 hervor:

  • Lastenausgleich und Failover (Load Balancing and Failover, LBFO): Beim Lastenausgleich und Failover werden mehrere Netzwerkadapter logisch kombiniert, um Bandbreitenaggregation und Verkehrsfailover bereitzustellen und dadurch Konnektivitätsverluste bei Fehlern in Netzwerkkomponenten zu verhindern. Lastenausgleich mit Failover wird in Windows Server 2012 auch als NIC-Teamvorgang bezeichnet.

  • QoS (Quality of Service) für virtuellen Hyper-V-Switch: QoS in Windows Server 2012 beinhaltet neue Features für die Bandbreitenverwaltung, mit denen Sie für virtuelle Computer auf einem Server, auf dem Hyper-V ausgeführt wird, eine vorhersehbare Netzwerkleistung bereitstellen können.

  • QoS (Quality of Service) für virtuellen Hyper-V-Switch: In Windows Server 2012 enthält der virtuelle Hyper-V-Switch neue Funktionen zur Steigerung der Sicherheit der Cloudinfrastruktur. Sie können nun Port-Zugriffssteuerungslisten (Ports-ACLs) und VLAN-Unterstützung verwenden, um eine Netzwerkisolation ähnlich der physischen Netzwerkisolation zu erzielen.

  • Speicherplätze: Speicherplätze ermöglichen die Erstellung kostengünstiger Datenträgerpools, die als einzelner Massenspeicherort dargestellt werden, an dem virtuelle Datenträger oder Volumes erstellt und formatiert werden können.

Detaillierte Setup- und Konfigurationsinformationen zum Erstellen der Konfiguration eines nicht zusammengeführten Datacenters in Ihrem eigenen Datacenter finden Sie unter Aufbauen einer Cloud-Infrastruktur: Zusammengeführtes Rechenzentrum ohne spezielle Speicherknoten.

Anzeigen:
© 2016 Microsoft