Share via


Aspekte beim Planen von Clustern

 

Letztes Änderungsdatum des Themas: 2006-03-17

Folgende Aspekte sollten Sie beim Planen von Exchange 2003-Clustern beachten. Diese Informationen betreffen Exchange 2003-Cluster unter Windows Server 2003 Enterprise Edition, Windows Server 2003 Datacenter Edition, Windows 2000 Advanced Server und Windows 2000 Datacenter Server:

  • Einrichten dedizierter Computer für Exchange
  • Cluster-Speicherlösungen
  • Leistungs- und Skalierbarkeitsaspekte
  • Cluster-Hardwarekompatibilität
  • Geografisch verteilte Cluster
  • Wiederherstellungsstrategien für Cluster

In den folgenden Abschnitten werden diese Aspekte genauer erläutert.

Einrichten dedizierter Computer für Exchange

Neben Exchange 2003 können in einem Servercluster weitere Anwendungen ausgeführt werden. Allerdings wird durch die Ausführung mehrerer Anwendungen auf dem gleichen Knoten die Leistung der virtuellen Exchange-Server beeinträchtigt. Beachten Sie Folgendes bei der Entscheidung, ob Sie Computer ausschließlich für die Ausführung von Exchange verwenden:

  • Wenn Sie mehrere Anwendungen in einem Cluster ausführen, empfiehlt es sich, für jede Anwendung einen Knoten zu reservieren und sicherzustellen, dass genügend passive Knoten verfügbar sind.
  • Wenn Sie mithilfe von Clustern Exchange-Dienste für Benutzer bereitstellen, empfiehlt es sich, nur Exchange 2003 in dem Cluster auszuführen und andere Anwendungen auf getrennter Hardware auszuführen.
  • Optimale Ergebnisse werden erzielt, wenn Failovervorgänge für virtuelle Exchange-Server nicht auf aktive Knoten erfolgen, auf denen andere Anwendungen ausgeführt werden.
  • Exchange 2003-Clusterknoten müssen Mitgliedsserver einer Domäne sein. Bei Exchange 2003-Clustern wird die Verwendung von Clusterknoten als Domänencontroller oder globale Katalogserver nicht unterstützt.

Weitere Informationen über die Leistung von Exchange 2003-Clustern finden Sie unter „Verwalten von Exchange-Clustern“ im Exchange Server 2003-Administratorhandbuch.

Cluster-Speicherlösungen

Eine ausführliche Besprechung zur Auswahl einer Cluster-Speicherlösung geht über den Rahmen dieser Anleitung hinaus. Dieser Abschnitt stellt jedoch allgemeine Empfehlungen und Strategien zur Implementierung einer Cluster-Speicherlösung zur Verfügung.

Die meisten der für eigenständige (nicht in Clustern organisierte) Server geltenden bewährten Verfahren kommen auch für in Clustern organisierte Server (zum Beispiel RAID-und SAN-Lösungen) zur Anwendung. Weitere Informationen über Exchange-Speicherlösungen finden Sie in unter Planen einer zuverlässigen Back-End-Speicherlösung.

Ausführliche Informationen zum Auswählen einer Cluster-Speichermethode in Windows Server 2003 finden Sie unter Auswahl einer Cluster-Speichermethode.

Getrennte Festplatten für Protokolldateien

Wenn die Speichergruppen für einen virtuellen Exchange-Server so konfiguriert sind, dass sich die Protokolldateien und die Datenbanken auf getrennten Gruppen von physischen Laufwerken befinden, müssen alle Laufwerke als Datenträgerressourcen in demselben virtuellen Exchange-Server konfiguriert werden. Dabei müssen sich alle Daten auf einem freigegebenen Datenträger befinden, und alle physischen Datenträgerressourcen müssen Teil der Exchange-Clustergruppe sein. In diesem Fall kann für die Protokolldateien und die Datenbanken der Speichergruppe ein Failover auf einen anderen Knoten ausgeführt werden, wenn der virtuelle Exchange-Server offline geschaltet wird.

noteAnmerkung:
Der Systemaufsichtsdienst sollte von allen physischen Datenträgerressourcen (Laufwerke und Datenträger-Bereitstellungspunkte) abhängig sein, die Exchange-Daten enthalten. Dadurch wird sichergestellt, dass die Systemaufsichtsressource ordnungsgemäß auf die Exchange-Daten auf der physischen Datenträgerressource des virtuellen Exchange-Servers zugreifen kann. Wenn die Systemaufsichtsressource nicht von diesen Ressourcen abhängt, könnten Exchange-Ressourcen starten, bevor Sie Lesezugriff auf die Daten auf der physischen Datenträgerressource haben. Dies kann folgende Exchange-Datenbankfehler erzeugen: -1022 Jet_errDiskIO. Informationen über den Exchange-Datenbankfehler -1022 finden Sie im Microsoft Knowledge Base-Artikel 314917, "Understanding and analyzing -1018, -1019, and -1022 Exchange database errors."

Speichergruppenbeschränkungen

Exchange 2003 ist auf vier Speichergruppen pro Server beschränkt. Dies ist eine physische Beschränkung, die auch für jeden Knoten eines Clusters gilt. Diese Beschränkung kann bei Aktiv/Aktiv-Konfigurationen problematisch sein. Aktiv/Passiv-Konfigurationen werden jedoch nicht beeinträchtigt.

noteAnmerkung:
Aktiv/Passiv-Cluster sind die empfohlene Konfiguration für Exchange 2003. Weitere Informationen über diese Empfehlung finden Sie unter „Clusterkonfigurationen“ in Grundlagen zur Exchange Server 2003-Clusterbildung..

Zur Verdeutlichung der Tatsache, dass diese Speichergruppenbeschränkungen lediglich Auswirkungen auf Aktiv/Aktiv-Cluster haben, hier ein Beispiel mit einem Cluster mit zwei Knoten, bei dem ein Knoten zwei Speichergruppen und der andere drei Speichergruppen enthält.

Eine Aktiv/Aktiv-Clusterkonfiguration mit zwei Knoten und fünf Speichergruppen

Virtueller Exchange-Server Bundesland Speichergruppennamen

Knoten 1 Virtueller Exchange-Server 1 (VES1)

Active

Speichergruppe 1, Speichergruppe 2, Speichergruppe 3

Knoten 2 VES2

Active

Speichergruppe 1, Speichergruppe 2

In dieser Tabelle enthält der Exchange-Cluster insgesamt fünf Speichergruppen. Wenn VES2 auf Knoten 2 einen Failover auf Knoten 1 ausführt, kann Knoten 1 nicht beide Speichergruppen bereitstellen, da die Grenze von vier Speichergruppen überschritten ist. Daher wird VES2 auf Knoten 1 nicht online geschaltet. Wenn Knoten 2 noch verfügbar ist, führt VES2 einen Failover zurück auf Knoten 2 aus.

noteAnmerkung:
In Exchange 2003 wird eine weitere Speichergruppe (die Speichergruppe für die Wiederherstellung) für Sicherungen und Wiederherstellungen unterstützt. Die Speichergruppe für Wiederherstellungen kann jedoch nicht für den Clusterknotenfailover verwendet werden. Weitere Informationen über Speichergruppen für die Wiederherstellung finden Sie unter „Neue Wiederherstellungsfunktionen für Exchange 2003“ im Exchange Server 2003-Handbuch zur Planung für die Wiederherstellung nach Datenverlust.

Laufwerkbuchstabenbeschränkungen

Vor der Bereitstellung der Exchange 2003-Cluster müssen Sie die Windows-Beschränkung auf 26 Laufwerkbuchstaben pro Server berücksichtigen. Wenn der Hauptteil der Serverdatenträger als freigegebene Clusterressourcen konfiguriert werden soll, gilt die Beschränkung auf 26 Laufwerkbuchstaben nicht nur für die einzelnen Knoten, sondern auch für den gesamten Cluster. Unabhängig von der Anzahl von Clusterknoten können nur 22 freigegebene Datenträger verwendet werden. Der Grund dafür, dass die maximale Anzahl von freigegebenen Datenträgern 22 und nicht 26 ist, besteht darin, dass ein Datenträger pro Knoten für den Systemdatenträger reserviert werden muss.

noteAnmerkung:
Wenn auf Ihren Clusterknoten Windows Server 2003 Enterprise Edition oder Windows Server 2003 Datacenter Edition ausgeführt wird, können Datenträger-Bereitstellungspunkte verwendet werden, um die Laufwerkbuchstabenbeschränkung von 26 zu umgehen. Weitere Informationen finden Sie weiter unten in diesem Thema unter „Windows Server 2003-Datenträger-Bereitstellungspunkte“.

Es empfiehlt sich, einen Laufwerkbuchstaben für die Datenbanken und einen Laufwerkbuchstaben für die Protokolldateien jeder Speichergruppe zu verwenden. In einem Cluster mit vier Knoten und drei VES können bis zu 12 Speichergruppen verwendet werden. Daher sind unter Umständen mehr als 22 Laufwerkbuchstaben in einem Cluster mit vier Knoten erforderlich.

In den folgenden Abschnitten erhalten Sie weitere Informationen über das Planen einer Cluster-Speicherlösung, abhängig davon, ob Sie Windows 2000 oder Windows Server 2003 als Betriebssystem verwenden.

Grundlagen der Laufwerkbuchstabenbeschränkungen unter Windows 2000

Bei bestimmten Clusterkonfigurationen mit vier Knoten, auf denen Windows 2000 Datacenter Server ausgeführt wird, müssen Sie unter Umständen ein oder mehrere Laufwerke deaktivieren, um weitere freigegebene Datenträger im Cluster verwenden zu können. So kann es beispielsweise sinnvoll sein, die CD-ROM- oder DVD-ROM-Laufwerke auf den Servern zu deaktivieren. Das Maximieren der Anzahl von freigegebenen Datenträgern reduziert möglicherweise die Anzahl der möglichen Netzwerkfreigaben.

noteAnmerkung:
Da Windows 2000 die Verwendung von Datenträger-Bereitstellungspunkten (eine Art logisches Laufwerk) nicht unterstützt, können Sie unter Windows 2000 keine Datenträger-Bereitstellungspunkte für freigegebene Exchange-Datenträger verwenden. Datenträger-Bereitstellungspunkte können jedoch für lokale Laufwerke, z. B. CD-ROM- oder DVD-Laufwerke verwendet werden.

Diese Laufwerkbuchstabenbeschränkung muss auch beim Entwerfen der Speichergruppen- und Datenbankarchitektur für einen Exchange-Cluster beachtet werden. In den folgenden Abschnitten finden Sie Beispiele zur Maximierung der Datenzuverlässigkeit im Cluster unter Windows Server 2003.

Datenträgerkonfiguration mit drei Speichergruppen

Die in der folgenden Tabelle dargestellte Konfiguration ist zuverlässig. Jede Speichergruppe (Speichergruppe 1, Speichergruppe 2 und Speichergruppe 3) verfügt über ein dediziertes Laufwerk für die Datenbanken und ein dediziertes Laufwerk für die Protokolldateien. Für das VES-SMTP-Warteschlangenverzeichnis des virtuellen Exchange-Servers wird ein weiterer Datenträger verwendet. Bei dieser Struktur können jedoch nicht mehr als drei Speichergruppen pro VES verwendet werden.

Eine Clusterarchitektur mit 3 aktiven und 1 passiven Knoten und drei VES mit jeweils drei Speichergruppen

Knoten 1 (VES1, aktiv) Knoten 2 (VES2, aktiv) Knoten 3 (VES3, aktiv) Knoten 4 (passiv)

Datenträger 1: SMTP/MTA

Datenträger 8: SMTP

Datenträger 15: SMTP

Datenträger 22: Quorum

Datenträger 2: Datenbanken von Speichergruppe 1

Datenträger 9: Datenbanken von Speichergruppe 1

Datenträger 16: Datenbanken von Speichergruppe 1

Datenträger 3: Protokolle von Speichergruppe 1

Datenträger 10: Protokolle von Speichergruppe 1

Datenträger 17: Protokolle von Speichergruppe 1

 

Datenträger 4: Datenbanken von Speichergruppe 2

Datenträger 11: Datenbanken von Speichergruppe 2

Datenträger 18: Datenbanken von Speichergruppe 2

 

Datenträger 5: Protokolle von Speichergruppe 2

Datenträger 12: Protokolle von Speichergruppe 2

Datenträger 19: Protokolle von Speichergruppe 2

 

Datenträger 6: Datenbanken von Speichergruppe 3

Datenträger 13: Datenbanken von Speichergruppe 3

Datenträger 20: Datenbanken von Speichergruppe 3

 

Datenträger 7: Protokolle von Speichergruppe 3

Datenträger 14: Protokolle von Speichergruppe 3

Datenträger 21: Protokolle von Speichergruppe 3

 

Festplattenkonfiguration mit vier Speichergruppen

In der in der folgenden Tabelle dargestellten Konfiguration wird eine zusätzliche Speichergruppe hinzugefügt. Damit die Beschränkung auf 22 Datenträger eingehalten wird, werden jedoch die Datenbanken jeder der vier Speichergruppen (Speichergruppe 1, Speichergruppe 2, Speichergruppe 3 und Speichergruppe 4) pro VES auf jeweils zwei Datenträgern kombiniert. Die Datenbankdateien (EDB und STM) von Speichergruppe 1 und Speichergruppe 2 werden auf einem gemeinsamen Datenträger gespeichert, und die Datenbankdateien von Speichergruppe 3 und Speichergruppe 4 werden ebenfalls auf einem gemeinsamen Datenträger gespeichert. Der Vorteil dieser Konfiguration besteht darin, dass alle vier Speichergruppen in einem Cluster mit vier Knoten verwendet werden können. Der Nachteil ist, dass die Datenträger für die gemeinsamen Speichergruppen-Datenbanken möglicherweise sehr groß sein müssen. Daher sind bei einem Datenträgerfehler einer Datenbank statt nur einer zwei Speichergruppen betroffen.

Eine Clusterarchitektur mit 3 aktiven und 1 passiven Knoten und drei VES mit jeweils vier Speichergruppen

Knoten 1 (VES1, aktiv) Knoten 2 (VES2, aktiv) Knoten 3 (VES3, aktiv) Knoten 4 (passiv)

Datenträger 1: SMTP/MTA

Datenträger 8: SMTP

Datenträger 15: SMTP

Datenträger 22: Quorum

Datenträger 2: Datenbanken von Speichergruppe 1 und Speichergruppe 2

Datenträger 9: Datenbanken von Speichergruppe 1 und Speichergruppe 2

Datenträger 16: Datenbanken von Speichergruppe 1 und Speichergruppe 2

Datenträger 3: Protokolle von Speichergruppe 1

Datenträger 10: Protokolle von Speichergruppe 1

Datenträger 17: Protokolle von Speichergruppe 1

 

Datenträger 4: Protokolle von Speichergruppe 1

Datenträger 11: Protokolle von Speichergruppe 2

Datenträger 18: Protokolle von Speichergruppe 2

 

Datenträger 5: Datenbanken von Speichergruppe 3 und Speichergruppe 4

Datenträger 12: Datenbanken von Speichergruppe 3 und Speichergruppe 4

Datenträger 19: Datenbanken von Speichergruppe 3 und Speichergruppe 4

 

Datenträger 6: Protokolle von Speichergruppe 3

Datenträger 13: Protokolle von Speichergruppe 3

Datenträger 20: Protokolle von Speichergruppe 3

 

Datenträger 7: Protokolle von Speichergruppe 4

Datenträger 14: Protokolle von Speichergruppe 4

Datenträger 21: Protokolle von Speichergruppe 4

 

Windows Server 2003-Datenträger-Bereitstellungspunkte

Datenträger-Bereitstellungspunkte werden jetzt für freigegebene Festplatten unterstützt, wenn auf den Clusterknoten (mindestens vier Knoten) Windows Server 2003 Enterprise Edition oder Windows Server 2003 Datacenter Edition ausgeführt wird. Datenträger-Bereitstellungspunkte (auch als NTFS-Abzweigungspunkte oder bereitgestellte Laufwerke bezeichnet) sind Verzeichnisse, die permanent auf bestimmte Festplattenlaufwerke verweisen. (Beispielsweise können Sie C:\Data so konfigurieren, dass dieses Verzeichnis auf ein Festplattenlaufwerk verweist.) Durch Datenträger-Bereitstellungspunkte müssen Sie nicht jedem Festplattenlaufwerk einen Laufwerkbuchstaben zuweisen. Auf diese Weise kann die Beschränkung auf 26 Laufwerkbuchstaben umgangen werden.

Bereitstellungspunkte sind bei großen Exchange-Clustern (z. B. Cluster mit vier oder acht Knoten) sinnvoll, bei denen keine ausreichende Anzahl an Laufwerkbuchstaben vorhanden ist, um eine optimale Leistung und Zuverlässigkeit zu gewährleisten. Weitere Informationen über die Verwendung von Bereitstellungspunkten für die Reduzierung von Laufwerkbuchstaben finden Sie unter Verwenden von Clustering in Exchange 2003: Beispiel.

Beachten Sie beim Installieren von Datenträger-Bereitstellungspunkten in Clustern Folgendes:

  • Achten Sie darauf, eindeutige Datenträger-Bereitstellungspunkte zu erstellen, sodass keine Konflikte mit vorhandenen lokalen Laufwerken an einem Clusterknoten auftreten.
  • Erstellen Sie keine Datenträger-Bereitstellungspunkte mit Verweisen zwischen Festplatten auf dem Clusterspeichergerät (Clusterfestplatten) und den lokalen Festplatten.
  • Erstellen Sie keine Datenträger-Bereitstellungspunkte von der Clusterfestplatte, auf der die Quorumdatenträger-Ressource enthalten ist. Sie können jedoch einen Datenträger-Bereitstellungspunkt von der Quorumdatenträger-Ressource zu einer Clusterfestplatte erstellen.
  • Datenträger-Bereitstellungspunkte von einer Clusterfestplatte zu einer anderen müssen sich in derselben Clusterressourcengruppe befinden und vom Stammdatenträger abhängig sein. Insbesondere die Datenträger-Bereitstellungspunktfestplatte wird nicht online geschaltet, bevor der Stammdatenträger online geschaltet wurde. Diese Abhängigkeit verhindert beim Starten Ausfälle und Fehler.

Es wird empfohlen, bei Exchange 2003-Clustern mit mindestens vier Knoten Datenträger-Bereitstellungspunkte zu verwenden. Pro Speichergruppe sollte ein Stammdatenträger verwendet werden. Die Protokolle können auf dem Stammdatenträger und die Datenbank auf dem bereitgestellten Laufwerk gespeichert werden. Wenn nicht genügend Laufwerkbuchstaben verfügbar sind (z. B. in einem Cluster mit acht Knoten) kann ein einzelner Stammdatenträger verwendet werden. Um das Risiko eines Datenverlusts bei einem Datenträgerfehler zu minimieren, sollten auf dem Stammdatenträger jedoch keine Daten gespeichert werden. Für jeden VES ist ein Stammdatenträger erforderlich.

Weitere Informationen über die Unterstützung von Bereitstellungspunkten finden Sie im Microsoft Knowledge Base-Artikel 318458 Volume Mount Point Support for an Exchange Server 2003 Cluster on a Windows Server 2003-based System.

Weitere Informationen über das Hinzufügen eines Datenträger-Bereitstellungspunkts zu einem VES finden Sie in den folgenden Ressourcen:

Leistungs- und Skalierbarkeitsaspekte

In diesem Abschnitt werden die folgenden Leistungs- und Skalierbarkeitsaspekte des Serverclustering besprochen:

  • Festlegen der Größe von Aktiv/Passiv-Clustern
  • Festlegen der Größe von Aktiv/Aktiv-Clustern
  • Heraufskalierung und Breitenskalierung
  • Testen von Clusterserverkomponenten

Wichtig

Ähnlich dem Effekt der Fragmentierung des virtuellen Speichers auf eigenständigen Servern (ohne Cluster), sind auch Exchange-Clusterknoten (insbesondere aktiv/aktiv Clusterknoten) von der Fragmentierung des virtuellen Speichers betroffen. Weitere Informationen über die Abstimmung und Überwachung für die Verwaltung der Fragmentierung des virtuellen Speichers in einem Cluster finden Sie unter „Verwalten von Exchange-Clustern“ im Exchange Server 2003-Administratorhandbuch.

Informationen über Leistung und Skalierbarkeit in Exchange 2003 finden Sie im Handbuch zu Leistung und Skalierbarkeit von Exchange Server 2003.

Festlegen der Größe von Aktiv/Passiv-Clustern

Wie bei eigenständigen Servern muss die Größe der aktiv/passiv-Cluster ermittelt werden.

noteAnmerkung:
Vor der Bereitstellung der Clusterserver sollten die ermittelten Größen in einer Laborumgebung getestet werden. Hierfür können Sie Exchange-Tools wie Exchange Server Load Simulator 2003 (LoadSim) und Jetstress verwenden. Weitere Informationen über die Wichtigkeit von Labortests und Pilotinstallationen finden Sie unter „Labortests und Pilotinstallation“ in Maßnahmen zur Fehlertoleranz auf Systemebene.

Festlegen der Größe von Aktiv/Aktiv-Clustern

Aktiv/Aktiv-Cluster werden als Konfiguration für Exchange-Servercluster nicht empfohlen. Wenn jedoch aktiv/aktiv-Cluster implementiert werden sollen, muss beachtet werden, dass Exchange lediglich aktiv/aktiv-Cluster mit zwei Knoten unerstützt. Bei aktiv/aktiv-Clustern müssen außerdem zwei wichtige Einschränkungen beachtet werden:

  • Die Anzahl der gleichzeitig vorliegenden Benutzerverbindungen pro Knoten darf 1.900 nicht überschreiten. Wenn mehr als ein VES pro Knoten vorhanden ist, darf die Summe aller gleichzeitig vorliegenden MAPI-Benutzerverbindungen 1.900 nicht überschreiten.
  • Die durchschnittliche Prozessorauslastung pro Server darf 40 % nicht überschreiten.

Wenn diese Anforderungen nicht eingehalten werden, kommt es bei den Benutzern nach einem Failover zu erheblichen Leistungseinbußen. Außerdem besteht die Gefahr, dass ein einzelner Knoten des aktiv/aktiv-Clusters den zweiten VES nicht online schaltet.

noteAnmerkung:
Vor der Bereitstellung der Clusterserver sollten die ermittelten Größen in einer Laborumgebung getestet werden. Hierfür können Sie Exchange-Tools wie Exchange Server Load Simulator 2003 (LoadSim) und Jetstress verwenden. Weitere Informationen über die Wichtigkeit von Labortests und Pilotinstallationen finden Sie unter „Labortests und Pilotinstallation“ in Maßnahmen zur Fehlertoleranz auf Systemebene.

Überwachungsaspekte von Aktiv/Aktiv-Clustern

Nach der Bereitstellung des aktiv/aktiv-Clusters müssen Sie die folgenden Aufgaben durchführen:

  • Überwachen der Prozessorauslastung der einzelnen Clusterknoten
  • Überwachen Sie die Anzahl der gleichzeitigen Verbindungen (Benutzer) pro Knoten.
noteAnmerkung:
Überwachen Sie diese Werte während der Intervalle mit dem größten E-Mail-Aufkommen. Auf diese Weise können Sie ermitteln, ob bei einem während der Hauptbelastungszeit erforderlichen Failover der einzelne Knoten beide VES ausführen kann. Auch können Sie einen Zähler manuell in Echtzeit überwachen oder einen Bericht für einen bestimmten Zeitraum erstellen (z. B. während eines zweistündigen E-Mail-Hauptbelastungsintervalls).

Überwachen der Prozessorauslastung der einzelnen Clusterknoten

Wenn die Prozessorauslastung (durch Benutzer entstandene Last) für mehr als 10 Minuten 40 % übersteigt, verschieben Sie Postfächer von diesem Server. In diesem Wert sind Auslastungserhöhungen durch Verwaltungsaufgaben, z. B. das Verschieben von Benutzern, nicht enthalten.

Verwenden Sie folgenden Systemmonitor (Perfmon)-Zähler, um die Prozessorauslastung der einzelnen Knoten im aktiv/aktiv-Cluster zu überwachen:

Performance/%Processor time/_Total counter

noteAnmerkung:
Spitzenwerte in der Prozessorauslastung sind kein Grund zur Sorge. Die Prozessorauslastung eines Servers kann Spitzenwerte von über 80 oder sogar 90 Prozent erreichen.

Überwachen der gleichzeitigen Verbindungen (Benutzer) pro Knoten

Wenn die Anzahl der gleichzeitigen Benutzer pro Knoten für mehr als 10 Minuten den Wert 1.900 übersteigt, entfernen Sie Postfächer von diesem VES. Zwar kann diese Anforderung erfüllt werden, indem lediglich 1.900 Postfächer auf jedem VES im aktiv/aktiv-Cluster gespeichert werden, es wird jedoch generell empfohlen, die Anzahl der gleichzeitigen MAPI-Benutzer pro Server zu überwachen. Dies ist deshalb sinnvoll, da einige Benutzer möglicherweise mehrere Verbindungen zu ihren Postfächern herstellen.

Verwenden Sie zur Überwachung der Anzahl von gleichzeitigen Benutzern pro Knoten einen oder beide der folgenden Perfmon-Zähler:

  • MSExchangeIS/Active Connection Count
  • MSExchangeIS Mailbox(_Total)/Active Client Logons
noteAnmerkung:
Diese Zähler kommen zu leicht unterschiedlichen Ergebnissen und zählen Outlook Web Access-Verbindungen anders als Outlook-Verbindungen. Um die Serverauslastung besser beurteilen zu können, sollten die Unterschiede der Zähler an einem typischen Arbeitstag überwacht werden.

Heraufskalierung und Breitenskalierung

Eine Möglichkeit, mehr Benutzer (oder mehr Nachrichten pro Benutzer) in einer Clusterumgebung einzubinden, ist eine Heraufskalierung. Beim Heraufskalieren werden für die Clusterknoten leistungsstärkere Serverkomponenten verwendet, um den erweiterten Leistungsanforderungen genügen zu können. Dennoch sollte berücksichtigt werden, dass bei der Heraufskalierung der Hardware für die Clusterknoten (z. B. zur Aufnahme von mehr Benutzern pro Knoten) die Verfügbarkeit der einzelnen Knoten bedeutend wichtiger wird.

Optional zum Heraufskalieren ist auch eine Breitenskalierung möglich. Bei der Breitenskalierung werden einem Cluster Knoten hinzugefügt.

Als Beispiel für die beiden Optionen soll hier eine Organisation mit 3.000 Benutzern in einem Cluster mit vier Knoten herangezogen werden. Der Cluster verfügt über drei aktive Knoten (1.000 Benutzer pro Knoten) und einen passiven Knoten. Wenn 1.000 weitere Benutzer hinzugefügt werden sollen, verfügt die Organisation über zwei Optionen:

  • Option 1: Heraufskalierung   Insbesondere RAM und CPUs der einzelnen Clusterknoten müssen aktualisiert und anschließend die zusätzlichen 1.000 Benutzer gleichmäßig auf die Knoten verteilt werden.
  • Option 2: Breitenskalierung   Dem Cluster wird ein Knoten hinzugefügt. Die Clusterkonfiguration wird zu einem Cluster mit fünf Knoten, auf deren vier aktiven Knoten sich jeweils 1.000 Postfächer befinden.

Wenn in diesem Beispiel ein Server ausfällt, wären bei Option 2 weniger Benutzer betroffen. Daher sollten Sie bei der Bereitstellung von Exchange in einem Cluster die Breitenskalierung als Teil Ihres Skalierbarkeitsplans berücksichtigen.

Eine Breitenskalierung kann auch die Fehlertoleranz des Exchange-Clusters erhöhen. So kann beispielsweise ein Cluster mit vier Knoten (2 aktive/2 passive) mehr gleichzeitige Fehler verarbeiten als ein Cluster mit vier Knoten (3 aktive/1 passiver). Weitere Informationen über aktiv/passiv-Cluster finden Sie „Aktiv/Passiv-Clustering“ in Grundlagen zur Exchange Server 2003-Clusterbildung.

Testen von Clusterserverkomponenten

Vor der Bereitstellung der Clusterserver in einer Produktionsumgebung sollte deren Kapazität getestet werden. Hierfür können Sie die gleichen Tools wie beim Testen von Servern ohne Cluster verwenden (z. B. LoadSim und Jetstress). Weitere Informationen über die Wichtigkeit von Labortests und Pilotinstallationen finden Sie unter „Labortests und Pilotinstallation“ in Maßnahmen zur Fehlertoleranz auf Systemebene.

In der folgenden Liste finden Sie Testaspekte für Clusterserver.

Testen Sie folgende Hardwarekomponenten:

  • Einzelne Computerkomponenten wie Festplatten, Controller, Prozessoren und Arbeitsspeicher (RAM)
  • Externe Komponenten wie Router, Bridges, Switches, Kabel und Anschlüsse

Führen Sie folgende Belastungstests durch:

  • Test der Clusterleistung unter starker Netzwerkauslastung
  • Test der Clusterleistung bei häufigen Ein-/Ausgaben (E/A) auf derselben Festplatte
  • Test der Clusterleistung bei hoher Auslastung der Exchange-Dienste
  • Test der Clusterleistung bei einer großen Anzahl gleichzeitiger Anmeldeversuche
  • Ersetzungstest jedes VES durch jeden der Knoten (mindestens jeweils einmal) Test bei hoher Auslastung der Exchange-Dienste

Verwenden Sie die Ergebnisse dieser Tests folgendermaßen:

  • Berechnen der Clientantwortzeit für die Serverkonfiguration unter Clientlast
  • Abschätzen der Anzahl von Benutzern pro Server
  • Erkennen von Engpässen auf dem Server

Cluster-Hardwarekompatibilität

Unter Windows Server 2003 Enterprise Edition und Windows Server 2003 Datacenter Edition unterstützt Microsoft nur vollständige Serverclustersysteme aus dem Windows Server-Katalog.

Die Unterstützung für Systemkomponenten von Drittparteien ist entsprechend den Anforderungen der Drittparteilösungen beschränkt. Weitere Informationen finden Sie im Microsoft Knowledge Base-Artikel 814607, „Microsoft Support for Server Clusters with 3rd Party System Components“.

Es wird generell empfohlen, für jeden Clusterknoten identische Hardware (z. B. identische Prozessoren, identische NICs und den gleichen Arbeitsspeicher) zu verwenden. Weitere Informationen über diese Empfehlung und zur Verwendung asymmetrischer Hardware in den Clusterknoten finden Sie unter „Clusterkonfigurationen“ in Grundlagen zur Exchange Server 2003-Clusterbildung.

noteAnmerkung:
Bei einem geografisch verteilten Cluster müssen sowohl die Hardware- als auch die Softwarekonfiguration zertifiziert und im Windows Server-Katalog aufgeführt sein. Weitere Informationen über die Hardwarekompatibilität von geografisch verteilten Clustern finden Sie unter „Qualifizierte Konfigurationen für geografisch verteilte Cluster“ weiter unten in diesem Thema.

Weitere Informationen über die Clusterhardware finden Sie im Microsoft Knowledge Base-Artikel 309395 „The Microsoft support policy for server clusters, the Hardware Compatibility List, and the Windows Server Catalog“.

Geografisch verteilte Cluster

Mithilfe von geografisch verteilten Clustern soll sichergestellt werden, dass der Verlust eines Standorts nicht zum Verlust der vollständigen Anwendung führt. Durch geografisch verteilte Cluster wird die Verfügbarkeit und Wiederherstellbarkeit von Exchange-E-Mail-Diensten verbessert. (Die Clusterknoten des anderen Wiederherstellungsstandorts bieten Exchange-Dienste jedoch nur, wenn Standortfehler auftreten.) Außerdem bieten greografisch verteilte Cluster bei einem Totalausfall eines Standorts für bestimmte Anwendungen Fehlertoleranz und Failover. Viele der vorhandenen Hardware- und Softwarelösungen für geografisch verteilte Exchange-Cluster ermöglichen ein Weiterführen der Geschäftsvorgänge sowohl auf der Standort- als auch auf der Clusterebene.

Bei der Planung der geografisch verteilten Clusterlösung sollten Sie Antworten auf folgende Fragen haben:

  • Welche Hauptprobleme sollen mithilfe der geografisch verteilten Cluster gelöst werden?
  • Welche qualifizierten Konfigurationen für geografisch verteilte Cluster gibt es?
  • Welche Clusterdienstanforderungen müssen bei einer geografisch verteilten Clusterlösung eingehalten werden?
  • In den folgenden Abschnitten finden Sie Informationen zu diesen Fragen.

Allgemeine Informationen über die Verbesserung der Fehlertoleranz einer Exchange 2003-Organisation durch geografisch verteilte Cluster finden Sie unter „Verwenden von mehreren physischen Standorten“ in Maßnahmen zur Fehlertoleranz auf Systemebene.

Durch geografisch verteilte Cluster zu lösende Probleme

Ein geografisch verteilter Cluster sollte folgende Probleme lösen:

  • Wie kann sichergestellt werden, dass mehrere Standorte über unabhängige Kopien derselben Daten verfügen? Wie werden Datenänderungen über Standorte repliziert? Wie werden an einem fehlerhaften Standort geänderte Daten an die übrigen Standorte übertragen?
  • Wie kann eine Anwendung wie Exchange 2003 beim Ausfall eines Standorts weiterhin Exchange-Dienste ermöglichen?
  • Wie kann sichergestellt werden, dass geografisch verteilte Cluster vor Naturkatastrophen sicher sind?

Die Lösung des ersten Problems bereitet wenig Schwierigkeiten durch die Replikation der schreibgeschützten Daten zwischen physischen Standorten. Schreibgeschützte Daten können ohne weiteres kopiert, und einzelne Instanzen können an den verschiedenen Standorten gespeichert werden. Um das Problem der Datenreplikation zu lösen, kann Software- und Hardwarespiegelung oder synchrone Replikation implementiert werden. Diese Replikationstechniken ermöglichen aktuelle Datenspiegel aller physischen Standorte.

Um das zweite Problem zu lösen, muss eine Failoverclusterlösung implementiert werden. Damit diese Lösung funktioniert, müssen die Clusterknoten separater physischer Standorte für den Clusterdienst wirken, als gehörten sie zum selben Netzwerk. Dies kann mithilfe von VLANs (Virtual Local Area Networks) erreicht werden. VLANS ermöglichen Verbindungen zwischen separaten physischen Standorten über große Entfernungen.

Um das dritte Problem zu lösen, sollten die Standorte weit genug voneinander entfernt sein, damit eine Naturkatastrophe nicht mehr als einen Standort beeinträchtigt. Jeder Standort sollte über eine eigene Stromversorgung und unterschiedliche Kommunikationsinfrastrukturanbieter verfügen.

Die folgende Abbildung zeigt einen geografisch verteilten Cluster, auf den diese Lösungen angewendet wurden.

59de5320-fb94-40a7-8633-8b660c3b6089

Qualifizierte Konfigurationen für geografisch verteilte Cluster

Bei einem geografisch verteilten Cluster handelt es sich um eine Kombination aus Hardware- und Softwarekomponenten von Originalausrüstungsherstellern (OEMs) und Softwareanbietern. Konfigurationen für geografisch verteilte Cluster in Exchange 2003 können sehr komplex sein. Für die Cluster sollten lediglich von Microsoft unterstützte Komponenten verwendet werden. Geografisch verteilte Cluster sollten nur in Verbindung mit Anbietern von qualifizierten Konfigurationen bereitgestellt werden.

Im Allgemeinen gelten die Beschränkungen für geografisch verteilte Cluster unter Windows Server 2003 auch für Exchange 2003. Weitere Informationen über geografisch verteilte Cluster unter Windows Server 2003 finden Sie unter Geographically Dispersed Clusters in Windows Server 2003.

Die Hardware eines geografisch verteilten Clusters muss geeignet und in der Microsoft Hardware Compatibility List (Hardwarekompatibilitätsliste) enthalten sein. Eine Hardwarekompatibilitätsliste für geografisch verteilte Cluster finden Sie im Windows Server-Katalog.

noteAnmerkung:
Geografisch verteilte Cluster können erstellt werden, indem vorhandenen zertifizierten Konfigurationen Datenreplikationssoftware und erweiterte LAN-Hardware hinzugefügt werden. Diese Lösungen greifen jedoch stark auf die vorzertifizierte Konfiguration ein, insbesondere hinsichtlich der Zeitplanung und der Wartezeiten. Um von Microsoft unterstützt zu werden, muss die Hardware- und Softwarekonfiguration eines geografisch verteilten Clusters zertifiziert und in der Hardwarekompatibilitätsliste des Clusters enthalten sein.

Weitere Informationen über die Hardwarekompatibilitätsliste und Windows-Cluster finden Sie im Microsoft Knowledge Base-Artikel 309395 „The Microsoft support policy for server clusters, the Hardware Compatibility List, and the Windows Server Catalog“.

Anforderungen der Clusterdiensttechnologie

Windows-Clustersoftware ist für die erweiterten Anforderungen von geografisch verteilten Clustern nicht geeignet. Der Clusterdienst z. B. enthält keine für geografisch verteilte Clusterkonfigurationen spezifischen Funktionen. Daher muss die Netzwerk- und Speicherarchitektur geografisch verteilter Cluster folgende Anforderungen erfüllen:

  • Die privaten und öffentlichen Netzwerkverbindungen müssen sich im gleichen Teilnetz (nicht geroutetes LAN) befinden. Verwenden Sie für diese Implementierung VLANs, um sicherzustellen, dass sich alle Clusterknoten auf denselben IP-Subnets befinden.

  • Die Netzwerkverbindungen müssen eine maximale garantierte Umlaufzeit zwischen den Knoten von nicht mehr als 500 Millisekunden gewährleisten. Der Cluster verwendet einen „Heartbeat“ zum Überprüfen, ob ein Knoten aktiv ist oder nicht antwortet. Diese „Heartbeats“ werden regelmäßig ausgesendet (alle 1,2 Sekunden). Wenn der Knoten zu viel Zeit benötigt, um auf die Anfragen zu antworten, startet der Clusterdienst ein Belastungsprotokoll, um zu ermitteln, welche Knoten noch funktionieren und welche nicht verfügbar sind. Dies wird als neue Gruppierung des Clusters bezeichnet.

  • Wenn Sie ein Standardknotenquorum (ein Einzelquorum) verwenden, muss der Cluster über einen einzelnen gemeinsamen Datenträger verfügen (einen Quorumdatenträger).

    noteAnmerkung:
    Wenn Sie Exchange 2003 unter Windows Server 2003 ausführen, können Sie diese Anforderung umgehen, indem Sie das Hauptknotensatzquorum verwenden. Weitere Informationen zu den Quorumstypen finden Sie unter „Quorumdatenträgerressource“ in Grundlagen zur Exchange Server 2003-Clusterbildung.

    Damit ein Datenträgersatz auf zwei verschiedenen Standorten für den Clusterdienst als einzelner Datenträger angezeigt wird, kann die Speicherinfrastruktur über die Standorte eine Spiegelung verwenden. Es muss jedoch die für die physische Datenträgerressource erforderliche grundlegende Semantik vorhanden sein:

    • Der Clusterdienst verwendet SCSI (Small Computer System Interface)-Reservierungsbefehle und das Zurücksetzen des Bus, um zwischen den gemeinsamen Datenträgern zu vermitteln und diese zu schützen. Die Semantik der Befehle muss selbst wenn die Kommunikation zwischen den Standorten fehlschlägt für alle Standorte einheitlich sein. Wenn ein Knoten auf Standort A einen Datenträger reserviert, sollten die Knoten auf Standort B nicht auf den Inhalt des Datenträgers zugreifen können. Diese Semantik ist für die Vermeidung von Beschädigungen der Cluster- und Anwendungsdaten unerlässlich.
    • Der Quorumdatenträger muss in Echtzeit und über alle Standorte synchron repliziert werden. Die verschiedenen Mitglieder eines Quorumdatenträgers müssen dieselben Daten enthalten.

Strategien zur Wiederherstellung bei Datenverlust für Cluster

Informationen zu Strategien zur Wiederherstellung nach Datenverlust für Exchange 2003-Cluster finden Sie unter „Backing up Exchange 2003 Clusters“ und „Restoring Exchange 2003 Clusters“ im Exchange Server 2003-Handbuch zur Wiederherstellung nach Datenverlust.