Share via


Deduplizieren von DPM-Speicher

 

Veröffentlicht: März 2016

In diesem Artikel wird beschrieben, wie Sie den DPM-Speicherverbrauch durch Aktivieren der Deduplizierung für DPM-Speicher verringern können. In diesem Szenario wird DPM auf einem virtuellen Hyper-V-Computer ausgeführt, und die Sicherungsdaten werden auf virtuellen Festplatten in freigegebenen Ordnern auf einem Windows-Dateiserver mit aktivierter Datendeduplizierung gespeichert.

Übersicht

In der heutigen IT-Umgebung müssen IT-Administratoren die große Herausforderung des Datenwachstums meistern. Dies wird in der unten genannten IDC-Prognose für das weltweite Datenwachstum bis 2020 veranschaulicht. Das steigende Datenwachstum in Unternehmen führt zu höheren Sicherungsspeicheranforderungen.

DPM and deduplication

Durch das Datenwachstum erhöhen sich die Kosten für Wartung und Hardware. Wie unten dargestellt, sind 62 % der IT-Administratoren wegen steigender Hardware-/Softwarekosten und ihrer Wartungskosten besorgt. Die vollständige Umfrage finden Sie im Informatica-Blog unter Is the Data Explosion Impacting You.

DPM Deduplication

IT-Administratoren sichern Produktionsdaten, um operationale Wiederherstellungsanforderungen und Compliance-Anforderungen des Unternehmens zu erfüllen. Die Datensicherung ist naturgemäß ein sehr speicherintensiver Vorgang, und die Verringerung des Sicherungsspeicherverbrauchs stellt eine der obersten Prioritäten von IT-Administratoren dar.

Die Deduplizierung kann zur erforderlichen Verringerung des Speicherverbrauchs beitragen. Der jeweilige Grad der Redundanz in einer bestimmten Gruppe von Daten hängt von der Arbeitslast (Workload) und den verwendeten Datentypen ab, und bei Sicherungsdaten lassen sich in der Regel starke Einsparungen verzeichnen, wenn Deduplizierung verwendet wird. Zusätzliche Redundanz und somit weitere Einsparungen durch Deduplizierung können sich ergeben, wenn Sicherungsdaten von ähnlichen Workloads mit ähnlichen Datasets zusammen verarbeitet werden. DPM nutzt die Deduplizierung, um diese Vorteile bieten zu können.

DPM-Übersicht

System Center Data Protection Manager ist eine Sicherungslösung für Unternehmen, die Folgendes bietet:

  • Anwendungsbezogene Sicherung und Wiederherstellung: DPM schützt Clients, Server, virtuelle Computer, Dateiserverdaten und Anwendungsworkloads. Die Lösung bietet flexible Sicherungsoptionen, einschließlich der Möglichkeit, einige Workloads alle 15 Minuten zu sichern. DPM umfasst eine breite Palette von Wiederherstellungsfunktionen. So können Kunden beispielsweise eine aktuelle SQL Server-Produktionsdatenbank durch eine ältere Kopie ersetzen, Datenbanken zur Untersuchung an einem anderen Speicherort wiederherstellen oder als Dateien zur Bereitstellung einer Kopie für die Rechtsabteilung wiederherstellen. DPM hilft IT-Administratoren dabei, die passende Wiederherstellungsmethode auszuwählen. DPM unterstützt die Wiederherstellung durch Endbenutzer. Beispielsweise können SQL-Administratoren, Dateisystemadministratoren oder Clientbenutzer ihre gesamten Daten ohne Unterstützung eines Administrators direkt wiederherstellen.

    In einer dynamischen Umgebung werden von Produktionsservern ständig neue Daten generiert. Dank DPM können Sicherungsadministratoren Schutz auf Instanzebene zuverlässig bereitstellen, bei dem neue Daten, die von Workloads generiert werden, automatisch erkannt und konfiguriert werden. Dadurch müssen Sicherungsadministratoren neue Dateninstanzen nicht mehr manuell suchen und der Sicherungskonfiguration hinzufügen.

  • Enterprise-Skalierung und zentrale Verwaltung: Ein einziger DPM-Server kann 80 TB Produktionsdaten oder 100 Produktionsserver schützen. Sie können die zentrale DPM-Konsole bereitstellen, um die Verwaltung von bis zu 100 DPM-Servern von einem zentralen Ort aus zu ermöglichen. Mit der zentralen DPM-Berichterstellung können benutzerdefinierte Berichte für alle DPM-Server ganz einfach generiert werden.

  • Effizienter Schutz privater Clouds: Ganz gleich, ob Ihr Private Cloud-Datencenter für die Ausführung von virtuellen Hyper-V-Computern auf eigenständigen Servern oder auf Windows-Servern mit Remoteverbindungen mit SMB-Dateifreigaben auf Windows-Dateiservern konfiguriert ist, mit der einzigartigen DPM-Sicherungstechnologie für virtuelle Computer kann DPM virtuelle Computer effizient sichern.

    DPM erkennt z. B. die Migration des virtuellen Computers und schützt den virtuellen Computer weiterhin automatisch – ohne aktiven Eingriff des Sicherungsadministrators. Wenn der virtuelle Computer von Host zu Host migriert wird, setzt derselbe DPM-Server die Sicherung ohne DPM-Änderungen oder manuelle Schritte fort.

  • Integrierte Cloudsicherung: DPM bietet dank hoher Flexibilität Schutz für in einer privaten Cloud mit Hyper-V, in der Azure Public Cloud und in einer Hostercloud bereitgestellte Workloads. Unternehmen, die Microsoft-Workloads in Azure ausführen, können zum Schutz dieser Workloads DPM in Azure nutzen. DPM unterstützt die Offsitesicherung in Azure mithilfe des Azure Backup-Diensts. Der Azure Backup-Dienst ist in die Schutz- und Wiederherstellungsworkflows von DPM integriert, sodass die Verwaltung von Einstellungen für die Offsitesicherung vereinfacht wird und Daten problemlos mehrere Jahre lang beibehalten werden können. Azure Backup bietet aufgrund des erforderlichen externen Versands und Wartungsaufwands von Bändern eine Alternative zu Bandsicherungen. Sicherungsadministratoren müssen sich jetzt nicht mehr mit der Wartung von Bandsicherungen herumschlagen.

Datendeduplizierung: Übersicht

Die Datendeduplizierung (Deduplizierung, Dedup) wurde in Windows Server 2012 als Ersatz der nächsten Generation für das SIS-Feature (Single Instance Storage) in Windows Storage Server 2008 eingeführt. Dabei wird ein erweiterter Algorithmus zur Aufteilung in variable Blöcke verwendet, um pro Volume maximale Einsparungen durch Deduplizierung zu ermöglichen. Es wird ein Ansatz zur Nachbearbeitung verwendet, um die gesamte Dateisystemsemantik beizubehalten und eine zu vernachlässigende Auswirkung auf die Leistung des primären Datenpfads sicherzustellen. Weitere Informationen finden Sie unter Datendeduplizierung: Übersicht.

Die Datendeduplizierung ist für die Installation auf primären Datenvolumes ohne Hinzufügen weiterer dedizierter Hardware konzipiert, sodass sie keine Auswirkungen auf die primäre Workload auf dem Server hat. Die Standardeinstellungen sind nicht intrusiv, weil für Daten fünf Tage verstreichen, bevor eine bestimmte Datei verarbeitet wird, und eine standardmäßige Mindestdateigröße von 32 KB gilt. Die Implementierung ist auf eine geringe Speicher- und CPU-Auslastung ausgelegt. Die Deduplizierung kann für die folgenden Workloads implementiert werden:

  • Allgemeine Dateifreigaben: Veröffentlichungen und Freigaben von Gruppeninhalten, Basisordner von Benutzern und Ordnerumleitung/Offlinedateien

  • Softwarebereitstellungsfreigaben: Softwarebinärdateien, Abbilder und Updates

  • VHD-Bibliotheken: Dateispeicher für virtuelle Festplatten (VHDs) zur Bereitstellung auf Hypervisoren

  • VDI-Bereitstellungen (nur Windows Server 2012 R2): Virtual Desktop Infrastructure(VDI)-Bereitstellungen mit Hyper-V

  • Virtualisierte Sicherung: Sicherungslösungen (wie DPM auf einem virtuellen Hyper-V-Computer), bei denen Sicherungsdaten in VHD-/VHDX-Dateien auf einem Windows-Dateiserver gespeichert werden.

Weitere Informationen zum Planen der Deduplizierung.

Geschäftsvorteile

Durch die Deduplizierung mit DPM können sich große Einsparungen ergeben. Der beim Optimieren der DPM-Sicherungsdaten durch die Deduplizierung eingesparte Speicherplatz variiert je nach Typ der zu sichernden Daten. Die Sicherung eines verschlüsselten Datenbankservers kann z. B. nur zu minimalen Einsparungen führen, weil doppelte Daten durch den Verschlüsselungsvorgang ausgeblendet werden. Die Sicherung einer umfangreichen Virtual Desktop Infrastructure(VDI)-Bereitstellung kann jedoch zu erheblichen Einsparungen im Bereich von mindestens 70 bis 90 % führen, weil in der Regel große Datenmengen zwischen den virtuellen Desktopumgebungen dedupliziert werden. In der in diesem Thema beschriebenen Konfiguration wurden zahlreiche Testworkloads ausgeführt und Einsparungen zwischen 50 % und 90 % erzielt.

Empfohlene Bereitstellung

Zum Bereitstellen von DPM als virtuellen Computer für die Sicherung von Daten auf einem deduplizierten Volume empfehlen wir die folgende Bereitstellungstopologie:

  • DPM wird auf einem virtuellen Computer in einem Hyper-V-Hostcluster ausgeführt.

  • Der DPM-Speicher mit VHD-/VHDX-Dateien wird auf einer SMB 3.0-Freigabe auf einem Dateiserver gespeichert.

  • In dieser Beispielbereitstellung haben wir den Dateiserver als horizontal skalierten Dateiserver (SOFS) konfiguriert, der mit Speichervolumes bereitgestellt wird, die über Speicherplatzpools konfiguriert werden, die mithilfe direkt verbundener SAS-Laufwerke erstellt wurden. Beachten Sie, dass durch diese Bereitstellung eine skalierbare Leistung sichergestellt wird.

Dedup and VHDX

Beachten Sie Folgendes:

  • Dieses Szenario wird für DPM 2012 R2 unterstützt.

  • Das Szenario wird für alle Workloads unterstützt, für die Daten von DPM 2012 R2 gesichert werden können.

  • Auf allen Windows-Dateiserverknoten, auf denen sich virtuelle DPM-Festplatten befinden und die Deduplizierung aktiviert wird, muss Windows Server 2012 R2 mit dem Updaterollup von November 2014 ausgeführt werden.

Für die Szenariobereitstellung erhalten Sie von uns allgemeine Empfehlungen und Anleitungen. Bei hardwarespezifischen Beispielen wird die für das Microsoft Cloud Platform System (CPS) bereitgestellte Hardware zu Referenzzwecken verwendet.

Getestete Hardware

In diesem Szenario werden SMB 3.0-Remotefreigaben zum Speichern der Sicherungsdaten verwendet. Die primären Hardwareanforderungen konzentrieren sich daher auf die Dateiserverknoten und nicht auf die Hyper-V-Knoten. In CPS wird für Sicherungs- und Produktionsspeicher die folgende Hardwarekonfiguration verwendet. Beachten Sie, dass die gesamte Hardware für Sicherungs- und Produktionsspeicher verwendet wird. Die in den Laufwerksgehäusen aufgeführten Laufwerke werden jedoch nur für die Sicherung verwendet.

  • Horizontal skalierter Dateiservercluster mit 4 Knoten

  • Konfiguration pro Knoten

    • 2 Intel(R) Xeon(R) CPU E5-2650 0, 2.00 GHz, 2001 MHz, 8 Kerne, 16 logische Prozessoren

    • Arbeitsspeicher RDIMM, 128 GB, 1333 MHz

    • Speicherverbindungen: 2 SAS-Ports, 1 10GbE iWarp/RDMA-Port

  • 4 JBOD-Laufwerksgehäuse

    • 18 Datenträger pro JBOD – 16 x 4TB HDDs + 2 800GB SSDs

    • Dual-Pfad zu jedem Laufwerk, Multipfad-E/A-Lastenausgleichsrichtlinie nur auf Failover festgelegt

    • SSDs für Zurückschreibcache (Write Back Cache, WBC) und der Rest für dedizierte Journallaufwerke konfiguriert

Planen und Einrichten deduplizierter Volumes

Überlegen Sie, wie groß die Volumes zur Unterstützung der deduplizierten VHDX-Dateien mit DPM-Daten sein müssen. In CPS haben wir Volumes mit jeweils 7,2 TB erstellt. Die optimale Volumegröße hängt in erster Linie davon ab, wie viele Daten und wie oft die Daten auf dem Volume geändert werden, und sie richtet sich zudem nach den Datenzugriffs-Durchsatzraten des Datenträger-Speichersubsystems. Beachten Sie unbedingt Folgendes: Wenn die Deduplizierungsverarbeitung nicht mit der Rate der täglichen Datenänderungen mithalten kann, sinkt die Einsparungsquote, bis die Verarbeitung abgeschlossen werden kann. Ausführlichere Informationen finden Sie im Artikel zum Anpassen der Volumegröße für die Datendeduplizierung. Für Deduplizierungsvolumes werden die folgenden allgemeinen Richtlinien empfohlen:

  • Verwenden Sie Paritätsspeicherplätze, die Gehäuseinformationen nutzen, um Resilienz und eine bessere Datenträgerverwendung sicherstellen zu können.

  • Formatieren Sie mit NTFS mit Zuordnungseinheiten von 64 KB und großen Datensatzsegmenten, um die Verwendung von platzsparenden Dateien bei der Deduplizierung zu optimieren.

  • In der obigen Hardwarekonfiguration beträgt die empfohlene Volumegröße 7,2 TB, und die Volumes werden wie folgt konfiguriert:

    • Duale Parität mit Gehäuseinformationen, 7,2 TB + 1 GB Zurückschreibcache

      • ResiliencySettingName == Parität

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Die Leistung der dualen Parität bei einem Interleave von 64 KB ist wesentlich geringer als beim Standard-Interleave von 256 KB.)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64KB

      • Großes FRS

      Richten Sie im angegebenen Speicherpool einen neuen virtuellen Datenträger wie folgt ein:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Die einzelnen Volumes müssen dann wie folgt formatiert werden:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64KB –UseLargeFRS -Force
      

      In der CPS-Bereitstellung werden diese dann als CSVs konfiguriert.

    • Innerhalb dieser Volumes speichert DPM eine Reihe von VHDX-Dateien für die Sicherungsdaten. Aktivieren Sie nach der Formatierung auf dem Volume die Deduplizierung wie folgt:

      Enable-DedupVolume –Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Mit diesem Befehl werden auch die folgenden Deduplizierungseinstellungen auf Volumeebene geändert:

      • Legen Sie UsageType auf HyperV fest: Dies führt dazu, dass bei der Deduplizierung geöffnete Dateien verarbeitet werden, was erforderlich ist, weil die von DPM für den Sicherungsspeicher verwendeten VHDX-Dateien geöffnet bleiben, wenn DPM auf dem virtuellen Computer ausgeführt wird.

      • Deaktivieren Sie „PartialFileOptimization“: Dadurch optimiert die Deduplizierung alle Abschnitte einer geöffneten Datei, statt nach geänderten Abschnitten mit einem Mindestalter zu suchen.

      • Legen Sie den MinFileAgeDays-Parameter auf „0“ fest: Wenn „PartialFileOptimization“ deaktiviert ist, ändert sich das Verhalten von „MinFileAgeDays“, sodass bei der Deduplizierung nur Dateien berücksichtigt werden, die in der festgelegten Anzahl von Tagen nicht geändert wurden. Da die Deduplizierung ohne Verzögerung mit der Verarbeitung der Sicherungsdaten in allen DPM VHDX-Dateien beginnen soll, muss "MinFileAgeDays" auf "0" festgelegt werden.

Weitere Informationen zum Einrichten der Deduplizierung finden Sie unter Installieren und Konfigurieren der Datenduplizierung.

Planen und Einrichten von DPM-Speicher

Zur Vermeidung von Fragmentierungsproblemen und Erhaltung der Effizienz wird DPM-Speicher mithilfe von VHDX-Dateien zugeordnet, die sich auf den deduplizierten Volumes befinden. Auf jedem Volume werden 10 dynamische VHDX-Dateien mit einer Größe von jeweils 1 TB erstellt und an DPM angefügt. Es erfolgt eine überhöhte Speicherbereitstellung von 3 TB, um die durch die Deduplizierung erzielten Speichereinsparungen zu nutzen. Da durch die Deduplizierung weitere Speichereinsparungen erzielt werden, können auf diesen Volumes neue VHDX-Dateien erstellt werden, um eingesparten Speicherplatz zu nutzen. Wir haben den DPM-Server mit bis zu 30 angefügten VHDX-Dateien getestet.

  1. Führen Sie den folgenden Befehl aus, um virtuelle Festplatten zu erstellen, die dem DPM-Server später hinzugefügt werden:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Fügen Sie dem DPM-Server die erstellten virtuellen Festplatten dann wie folgt hinzu:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool –
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Beim Ausführen dieses Schritts wird ein Speicherpool als Datenträger konfiguriert, auf dem (bzw. denen) DPM Replikate und Wiederherstellungspunkte für geschützte Daten speichert. Dieser Pool ist Teil der DPM-Konfiguration und von dem Speicherplatzpool getrennt, der zum Erstellen der im vorherigen Abschnitt beschriebenen Datenvolumes verwendet wird. Weitere Informationen zu DPM-Speicherpools finden Sie unter Konfigurieren von Datenträgerspeicher und Speicherpools.

Planen und Einrichten des Windows-Dateiserverclusters

Die Deduplizierung erfordert aufgrund des Datenumfangs und der Größe der einzelnen Dateien spezielle Konfigurationsoptionen, um virtualisierten DPM-Speicher unterstützen zu können. Diese Optionen gelten global für den Cluster oder Clusterknoten. Die Deduplizierung muss aktiviert sein, und die Clustereinstellungen müssen einzeln auf jedem Clusterknoten konfiguriert werden.

  1. Aktivieren der Deduplizierung für Windows-Dateiserverspeicher: Die Rolle "Deduplizierung" muss auf allen Knoten des Windows-Dateiserverclusters installiert werden. Führen Sie hierzu den folgenden PowerShell-Befehl auf jedem Knoten des Clusters aus:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Optimieren der Deduplizierungsverarbeitung für die Sicherung von Datendateien: Führen Sie den folgenden PowerShell-Befehl aus, um festzulegen, dass die Optimierung ohne Verzögerung gestartet wird und keine partiellen Dateischreibvorgänge optimiert werden. Beachten Sie, dass Garbage Collection(GC)-Aufträge standardmäßig wöchentlich geplant sind. Jede vierte Woche wird der GC-Auftrag für eine noch umfassendere und zeitintensive Suche nach zu entfernenden Daten im Modus der umfassenden automatischen Speicherbereinigung ("deep GC") ausgeführt. Für die DPM-Workload führt dieser Modus ("deep GC") nicht zu wertschätzenden Gewinnen, und er verkürzt die Zeit, in der die Deduplizierung Daten optimieren kann. Daher deaktivieren wir diesen Modus.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Optimieren der Leistung für umfangreiche Vorgänge: Führen Sie das folgende PowerShell-Skript für die folgenden Aktionen aus:

    • Deaktivieren von zusätzlichen Verarbeitungs- und E/A-Vorgängen, wenn die umfassende automatische Speicherbereinigung ausgeführt wird

    • Reservieren von zusätzlichem Arbeitsspeicher für die Hashverarbeitung

    • Aktivieren der Prioritätsoptimierung (Priority Optimization), um die sofortige Defragmentierung großer Dateien zu ermöglichen

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Durch diese Einstellungen wird Folgendes geändert:

    • HashIndexFullKeyReservationPercent: Mit diesem Wert wird gesteuert, wie viel Speicher des Optimierungsauftrags für vorhandene Blockhashes im Vergleich zu neuen Blockhashes verwendet wird. Bei umfangreicher Skalierung führen 70 % zu einem besseren Optimierungsdurchsatz als der Standardwert von 50 %.

    • EnablePriorityOptimization: Bei Dateien, die eine Größe von 1 TB erreichen, können bei der Fragmentierung einer einzelnen Datei genügend Fragmente kumuliert werden, um den Grenzwert pro Datei zu erreichen. Die Optimierungsverarbeitung konsolidiert diese Fragmente und verhindert, dass dieser Grenzwert erreicht wird. Durch Festlegen dieses Registrierungsschlüssels fügt die Deduplizierung einen weiteren Vorgang hinzu, um stark fragmentierte deduplizierte Dateien mit hoher Priorität zu verarbeiten.

Planen und Festlegen von DPM- und Deduplizierungszeitplänen

Sicherungs- und Deduplizierungsvorgänge sind E/A-intensiv. Bei gleichzeitiger Ausführung könnte der Mehraufwand für das Wechseln zwischen den Vorgängen kostspielig sein und dazu führen, dass täglich weniger Daten gesichert oder dedupliziert werden. Es empfiehlt sich, dedizierte und separate Zeitfenster für die Deduplizierung und für die Sicherung festzulegen. Dadurch können Sie sicherstellen, dass der E/A-Datenverkehr für die einzelnen Vorgänge während des täglichen Systembetriebs effizient verteilt wird. Für die Zeitplanung werden die folgenden Richtlinien empfohlen:

  • Teilen Sie die Tage in nicht überlappende Zeitfenster für Sicherung und Deduplizierung auf.

  • Legen Sie benutzerdefinierte Sicherungszeitpläne fest.

  • Legen Sie benutzerdefinierte Deduplizierungszeitpläne fest.

  • Planen Sie die Optimierung im täglichen Deduplizierungszeitfenster.

  • Legen Sie die Zeitpläne für die an Wochenenden auszuführende Deduplizierung separat fest, und nutzen Sie diese Zeit für Garbage Collection- und Bereinigungsaufträge.

Sie können DPM Zeitpläne mit dem folgenden PowerShell-Befehl festlegen:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime –
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime –DurationInHours
$duration

In dieser Konfiguration ist DPM für die Sicherung der virtuellen Computer in der Zeit zwischen 22 Uhr und 6 Uhr konfiguriert. Die Deduplizierung ist für die verbleibenden 16 Stunden geplant. Die tatsächliche von Ihnen festgelegte Zeit für die Deduplizierung richtet sich nach der Volumegröße. Weitere Informationen finden Sie im Artikel zum Anpassen der Volumegröße für die Datendeduplizierung. Ein Deduplizierungszeitfenster von 16 Stunden, das nach dem Ende des Sicherungszeitfensters um 6 Uhr beginnt, wird auf einem beliebigen einzelnen Clusterknoten wie folgt konfiguriert:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Bei einer Änderung des Sicherungszeitfensters muss auch das Deduplizierungszeitfenster geändert werden, um eine Überlappung zu vermeiden. Die Zeitfenster für Deduplizierung und Sicherung müssen sich zwar nicht auf die 24 Stunden eines Tages erstrecken, dies wird jedoch dringend empfohlen, um Abweichungen in der Verarbeitungszeit aufgrund erwarteter täglicher Workload- und Datenänderungen Rechnung zu tragen.

Auswirkungen auf die Sicherungsleistung

Nachdem ein Satz von Dateien dedupliziert wurde, kann es beim Zugreifen auf die Dateien zu geringfügigen Leistungseinbußen kommen. Das liegt an den zusätzlichen Verarbeitungsschritten, die zum Zugreifen auf das Dateiformat von deduplizierten Dateien erforderlich sind. In diesem Szenario handelt es sich bei den Dateien um VHDX-Dateien, die während der gesamten Dauer des Sicherungszeitfensters von DPM kontinuierlich verwendet werden. Wenn diese Dateien dedupliziert werden, können die Sicherungs- und Wiederherstellungsvorgänge etwas langsamer erfolgen als ohne Deduplizierung. Wie für jedes Sicherungsprodukt gilt auch für DPM, dass es sich dabei um eine sehr schreibintensive Workload mit Lesevorgängen handelt, die während der Ausführung der Wiederherstellungsvorgänge am wichtigsten sind. Für den Umgang mit den durch die Deduplizierung entstehenden Auswirkungen auf die Sicherungsleistung gelten die Folgenden Empfehlungen:

  • Lese-/Wiederherstellungsvorgänge: Die Auswirkungen auf Lesevorgänge sind in der Regel unerheblich und erfordern keine besonderen Maßnahmen, weil das Deduplizierungsfeature deduplizierte Blöcke zwischenspeichert.

  • Schreib-/Sicherungsvorgänge: Planen Sie beim Festlegen des Sicherungszeitfensters für die Sicherungsdauer ungefähr 5 % bis 10 % mehr Zeit ein. (Dies ist im Vergleich zur erwarteten Sicherungsdauer beim Schreiben auf nicht deduplizierte Volumes ein erhöhter Zeitaufwand.)

Überwachung

DPM und die Datendeduplizierung können überwacht werden, um Folgendes sicherzustellen:

  • Es wird ausreichend Speicherplatz zum Speichern der Sicherungsdaten bereitgestellt.

  • DPM-Sicherungsaufträge werden normal abgeschlossen.

  • Die Deduplizierung ist auf den Sicherungsvolumes aktiviert.

  • Die Deduplizierungszeitpläne sind richtig festgelegt.

  • Die Deduplizierungsverarbeitung wird täglich normal ausgeführt.

  • Die durch die Deduplizierung erzielte Einsparungsquote entspricht den für die Systemkonfiguration getroffenen Annahmen.

Der Erfolg der Deduplizierung hängt von den gesamten Systemhardwarefunktionen (einschließlich CPU-Geschwindigkeit, E/A-Bandbreite, Speicherkapazität), der richtigen Systemkonfiguration, der durchschnittlichen Systemlast und der täglich geänderten Datenmenge ab.

Sie können DPM mit der zentralen DPM-Konsole überwachen. Weitere Informationen hierzu finden Sie unter Installieren der zentralen Konsole.

Sie können die Deduplizierung überwachen, um den Deduplizierungsstatus, die Einsparungsquote und den Zeitplanstatus mithilfe der folgenden PowerShell-Befehle zu überprüfen:

Status abrufen:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Einsparungsquote abrufen:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Den Zeitplanstatus können Sie mit dem Get-DedupSchedule-Cmdlet abrufen.

Überwachen von Ereignissen

Durch Überwachen des Ereignisprotokolls können Sie die Deduplizierungsereignisse und den Deduplizierungsstatus besser nachvollziehen.

  • Zum Anzeigen von Deduplizierungsereignissen navigieren Sie im Datei-Explorer zu Anwendungs- und Dienstprotokolle > Microsoft > Windows > Deduplizierung.

  • Wenn in den Windows PowerShell-Ergebnissen von "Get-DedupStatus |fl" der Wert LastOptimizationResult = 0x00000000 angezeigt wird, wurde das gesamte Dataset vom vorherigen Optimierungsauftrag verarbeitet. Andernfalls konnte das System die Deduplizierungsverarbeitung nicht abschließen. Sie sollten dann Ihre Konfigurationseinstellungen (z. B. die Volumegröße) überprüfen.

Ausführlichere Cmdlet-Beispiele finden Sie unter Überwachen der und Erstellen von Berichten für die Datendeduplizierung.

Überwachen des Sicherungsspeichers

In unserer Beispielkonfiguration werden die 7,2 TB-Volumes mit 10 TB "logischen" Daten (die Größe der Daten, wenn sie nicht dedupliziert werden) gefüllt, die in 10 dynamischen VHDX-Dateien mit einer Größe von jeweils 1 TB gespeichert werden. Da durch diese Dateien weitere Sicherungsdaten kumuliert werden, füllt sich das Volume langsam. Wenn die durch die Deduplizierung erzielte Einsparungsquote (der Prozentsatz) hoch genug ist, können alle 10 Dateien ihre maximale logische Größe erreichen und trotzdem auf das 7,2 TB-Volume passen (möglicherweise ist sogar zusätzlicher Speicherplatz für weitere VHDX-Dateien vorhanden, die von DPM-Servern verwendet werden können). Wenn die durch die Deduplizierung erzielten Einsparungen jedoch nicht ausreichen, ist noch bevor die VHDX-Dateien ihre maximale logische Größe erreichen auf dem Volume nicht mehr genügend Speicherplatz vorhanden, und das Volume ist voll. Um zu verhindern, dass nicht mehr genügend Speicherplatz auf den Volumes vorhanden ist, empfiehlt sich Folgendes:

  • Seien Sie in Bezug auf die Volumegrößenanforderungen konservativ, und planen Sie eine etwas überhöhte Speicherbereitstellung ein. Es wird empfohlen, beim Planen der Sicherungsspeicherverwendung einen Puffer von mindestens 10 % vorzusehen, um erwarteten Abweichungen bei Einsparungen durch Deduplizierung und Datenänderungen Rechnung zu tragen.

  • Überwachen Sie die für Sicherungsspeicher verwendeten Volumes, um sicherzustellen, dass die Werte für die Speicherplatzausnutzung und für die durch Deduplizierung erzielten Einsparungsquoten in den erwarteten Bereichen liegen.

Wenn das Volume voll ist, treten die folgenden Symptome auf:

  • Der virtuelle DPM-Computer wird in einen kritischen Pausenzustand versetzt, und von diesem virtuellen Computer können keine weiteren Sicherungsaufträge erteilt werden.

  • Es können keine Sicherungsaufträge ausgeführt werden, für die die VHDX-Dateien auf dem vollen Volume verwendet werden.

Um dies zu beheben und den normalen Systembetrieb wiederherzustellen, können Sie zusätzlichen Speicher bereitstellen und eine Speichermigration des virtuellen DPM-Computers oder der zugehörigen VHDX-Dateien ausführen, um Speicherplatz freizugeben:

  1. Beenden Sie den DPM-Server, der über die VHDX-Dateien auf der vollen Sicherungsfreigabe verfügt.

  2. Erstellen Sie eine weitere Volume- und Sicherungsfreigabe mit derselben Konfiguration und denselben Einstellungen, die für die vorhandenen Freigaben verwendet werden, einschließlich der Einstellungen für NTFS und Deduplizierung.

  3. Migrieren Sie Speicher für den virtuellen DPM-Servercomputer, und migrieren Sie mindestens eine VHDX-Datei der vollen Sicherungsfreigabe zu der in Schritt 2 erstellten neuen Sicherungsfreigabe.

  4. Führen Sie auf der Quellsicherungsfreigabe, die voll belegt war, einen Auftrag für die automatische Speicherbereinigung (Garbage Collection, GC) der Datendeduplizierung aus. Der GC-Auftrag sollte erfolgreich abgeschlossen werden und den freien Speicherplatz freigeben.

  5. Starten Sie den virtuellen DPM-Servercomputer neu.

  6. Im nächsten Sicherungszeitfenster wird für alle zuvor fehlerhaften Datenquellen eine DPM-Konsistenzprüfung ausgelöst.

  7. Alle Sicherungsaufträge sollten jetzt erfolgreich ausgeführt werden.

Zusammenfassung

Die Kombination aus Deduplizierung und DPM ermöglicht erhebliche Speicherplatzeinsparungen. Für die DPM-Bereitstellung sind dadurch höhere Speicherungsquoten, häufigere Sicherungen und geringere Gesamtbetriebskosten möglich. Durch die in diesem Dokument enthaltenen Anleitungen und Empfehlungen geben wir Ihnen die Tools und das Wissen an die Hand, um die Deduplizierung für DPM-Speicher konfigurieren und die sich für Sie in Ihrer eigenen Bereitstellung ergebenden Vorteile erkennen zu können.

FAQ

F: Die DPM VHDX-Dateien müssen eine Größe von 1 TB aufweisen. Bedeutet dies, dass DPM keine virtuellen Computer, SharePoint- oder SQL-Datenbanken oder Dateivolumes sichern kann, die größer als 1 TB sind?

A: Nein. Zum Speichern von Sicherungen aggregiert DPM mehrere Volumes in einem Volume. Die Dateigröße von 1 TB hat daher keine Auswirkungen auf die Größe der Datenquellen, die DPM sichern kann.

F: Es scheint, als dürften die VHDX-Dateien des DPM-Speichers nur auf SMB-Remotedateifreigaben bereitgestellt werden. Was passiert, wenn ich die VHDX-Sicherungsdateien auf Volumes mit aktivierter Deduplizierung auf demselben System speichere, auf dem der virtuelle DPM-Computer ausgeführt wird?

A: Wie oben erwähnt, sind DPM, Hyper-V und Deduplizierung speicher- und rechenintensive Vorgänge. Wenn alle drei Elemente auf einem einzigen System kombiniert werden, kann dies zu E/A- und prozessintensiven Vorgängen führen, durch die Hyper-V und die zugehörigen virtuellen Computer behindert werden. Wenn Sie damit experimentieren möchten, DPM auf einem virtuellen Computer zu konfigurieren, wobei sich die Sicherungsspeichervolumes auf demselben Computer befinden, sollten Sie die Leistung sorgfältig überwachen, um sicherzustellen, dass genügend E/A-Bandbreite und Rechenkapazität für die Ausführung aller drei Vorgänge auf demselben Computer zur Verfügung steht.

F: Sie empfehlen, dedizierte und separate Zeitfenster für die Deduplizierung und für die Sicherung festzulegen. Warum kann ich die Deduplizierung nicht aktivieren, während DPM Sicherungsvorgänge ausführt? Ich muss meine SQL-Datenbank alle 15 Minuten sichern.

A: Deduplizierung und DPM sind speicherintensive Vorgänge, und die Ausführung beider Vorgänge zur gleichen Zeit kann ineffizient sein und zu E/A-Blockierung führen. Wenn Sie also Workloads häufiger als nur einmal täglich (z. B. SQL Server alle 15 Minuten) sichern und gleichzeitig die Deduplizierung aktivieren möchten, müssen Sie sicherstellen, dass genügend E/A-Bandbreite und Rechenkapazität zur Verfügung steht, um die Blockierung oder Verknappung von Ressourcen zu vermeiden.

F: Basierend auf der beschriebenen Konfiguration muss DPM auf einem virtuellen Computer ausgeführt werden. Warum kann ich die Deduplizierung statt auf VHDX-Dateien nicht direkt auf Replikatvolumes und Schattenkopievolumes aktivieren?

A: Die Deduplizierung erfolgt pro Volume, wobei einzelne Dateien verarbeitet werden. Weil die Deduplizierung auf Dateiebene optimiert, ist sie nicht für die Unterstützung der VolSnap-Technologie konzipiert, die DPM zum Speichern der Sicherungsdaten nutzt. Bei der Ausführung von DPM auf einem virtuellen Computer ordnet Hyper-V die DPM-Volumevorgänge der VHDX-Dateiebene zu, sodass bei der Deduplizierung die Sicherungsdaten optimiert werden können und größere Speichereinsparungen ermöglicht werden.

F: In der obigen Beispielkonfiguration wurden nur 7,2 TB-Volumes erstellt. Kann ich auch größere oder kleinere Volumes erstellen?

A: Bei der Deduplizierung wird ein Thread pro Volume ausgeführt. Mit zunehmender Volumegröße benötigt die Deduplizierung mehr Zeit, um die Optimierung abzuschließen. Bei kleinen Volumes sind dagegen weniger Daten vorhanden, in denen doppelte Blöcke gesucht werden müssen, was zu geringeren Einsparungen führen kann. Daher ist es ratsam, die Volumegröße basierend auf den gesamten Änderungen und Systemhardwarefunktionen anzupassen, um optimale Einsparungsquoten zu erzielen. Ausführlichere Informationen zum Ermitteln der bei der Deduplizierung verwendeten Volumegrößen finden Sie im Beitrag über das Anpassen der Volumegröße für die Deduplizierung in Windows Server. Ausführlichere Informationen zum Ermitteln der bei der Deduplizierung verwendeten Volumegrößen finden Sie im Artikel zum Anpassen der Volumegröße für die Datendeduplizierung.