Offrire archiviazione conveniente per carichi di lavoro Hyper-V mediante Windows Server: guida alla pianificazione e alla progettazione

 

Si applica a: System Center 2012, Windows Server 2012 R2

Questa guida descrive come pianificare e progettare una particolare soluzione di archiviazione per cluster di calcolo che ospitano macchine virtuali in esecuzione su Windows Server e Hyper-V come parte di una piattaforma di servizi cloud. Questa soluzione di archiviazione definita dal software usa un cluster di file server Windows Server facilmente gestiti insieme a enclosure JBOD (Just-a-Bunch-Of-Disks) e Spazi di archiviazione per un'archiviazione conveniente e con prestazioni elevate, ovviando alla necessità di costosi dispositivi SAN quando si implementa una piattaforma cloud.

Per ottenere un elenco delle modifiche apportate di recente a questo argomento, vedere la sezione Cronologia delle modifiche di questo argomento.

Se non è già stato fatto, è consigliabile leggere l'articolo Offrire archiviazione economica per carichi di lavoro di Hyper-V con Windows Server, che fornisce un'introduzione a questa soluzione da usare con questo argomento.

Si presuppone che si voglia eseguire una distribuzione iniziale di circa 100 tenant (con otto macchine virtuali per tenant), con la possibilità di espandere man mano la soluzione fino a circa 500 tenant. Per indicazioni di progettazione più flessibili e complete, vedere Guida alle considerazioni di progettazione dell'archiviazione definita dal software.

Usare i seguenti passaggi e decisioni relative al progetto per pianificare l'implementazione dell'archiviazione basata su Windows Server per i carichi di lavoro Hyper-V.

In questa guida:

  • Passaggio 1: Progettare il cluster di file server

  • Passaggio 2: Progettare il cluster di gestione

  • Passaggio 3: Progettare il cluster di calcolo

  • Passaggi successivi

Passaggio 1: Progettare il cluster di file server

In questo passaggio, si progetta il cluster di file server usato per fornire l'archiviazione alle macchine virtuali in questa soluzione.

1.1. Progettare l'hardware del cluster di file server

Ecco i componenti hardware consigliati per i cluster di file server. Si noti che è consigliabile acquistare tutti i componenti hardware di produzione da un fornitore che verifica e supporta l'hardware come soluzione integrata con Spazi di archiviazione.

Componente

Linee guida

Enclosure di archiviazione

  • Quattro enclosure di archiviazione identiche (240 dischi totali in quattro enclosure)

    Con quattro enclosure, anche se un intero enclosure si danneggia, gli spazi di archiviazione resteranno online (presumendo che non ci siano troppi dischi danneggiati negli altri enclosure).

  • Enclosure di archiviazione di 60 dischi connessi a SAS

  • Ogni enclosure di archiviazione deve essere connessa tramite due connessioni a SAS tramite HBA a tutti i nodi dei cluster di file server

    Questo ottimizza le prestazioni ed elimina un singolo punto di errore. Per supportare questo requisito, l'ideale è che ogni enclosure di archiviazione e ogni nodo server abbia il doppio delle porte SAS dei nodi (8 porte nell'enclosure e 8 porte in ogni nodo).

Dischi fisici

  • 48 HDD da 7200 rpm per enclosure di archiviazione (192 HDD totali in quattro enclosure)

    I dischi HDD a 7200 rpm forniscono una grande capacità pur consumando meno corrente e a un costo inferiore dei dischi HDD con una velocità di rotazione maggiore, ma offrono valide prestazioni in questa soluzione se abbinati a un numero sufficiente di SSD.

    Quando si usano HDD da 4 TB e SSD da 800 GB in quattro enclosure da 60 alloggiamenti, questa soluzione fornisce circa 804 TB di capacità del pool di archiviazione di base per ogni cluster di file server. Dopo l'inclusione della resilienza, dell'archiviazione per i backup e dello spazio libero per la riparazione degli spazi di archiviazione, si creano circa 164 TiB di spazio per le macchine virtuali di calcolo e di gestione (il TiB è un terabyte calcolato usando la notazione binaria - in base 2 - anziché la notazione decimale - in base 10).

  • 12 HDD per enclosure di archiviazione (48 SSD totali in quattro enclosure di archiviazione)

    Spazi di archiviazione usa gli SSD per creare un livello di archiviazione più rapido per i dati a cui si accede di frequente. Usa gli SSD anche per una cache write-back persistente che riduce la latenza delle scritture casuali.

    Per altre informazioni, vedere Novità di Spazi di archiviazione in Windows Server.

  • Tutti i dischi devono essere dischi SAS a porta doppia

    In questo modo, ogni disco può essere connesso a tutti i nodi del cluster di failover con gli espansori SAS inclusi nelle enclosure di archiviazione.

Cluster di file server

  • Un cluster di file server a quattro nodi

    Con quattro nodi, tutte le enclosure di archiviazione sono connesse a tutti i nodi ed è possibile mantenere prestazioni valide anche se in due nodi si verificano errori, riducendo così l'urgenza della manutenzione.

  • Un cluster di file server ospita la memoria per un cluster di calcolo

    Se si aggiunge un cluster di calcolo, aggiungere anche un altro cluster di file server a quattro nodi. È possibile aggiungere fino a quattro cluster di file server e quattro cluster di calcolo per ogni cluster di gestione. Il primo cluster di file server ospita anche la memoria per il cluster di gestione

    Cluster aggiuntivi (chiamati anche unità di scala) consentono di aumentare la scalabilità dell'ambiente per poter supportare altre macchine virtuali e altri tenant.

Nodi cluster

  • Due CPU da sei core

    Per il cluster di file server non sono necessarie le CPU più potenti perché la maggior parte del traffico è gestita da scheda di rete RDMA, che elaborano direttamente il traffico di rete.

  • 64 GB di RAM

    Non è necessaria molta RAM perché il cluster di file server usa i livelli di archiviazione, che impediscono di utilizzare una cache CSV (in genere una delle più grandi fonti di consumo di RAM in un file server in cluster).

  • Due HDD installati in un RAID-1 (mirror) con un controller RAID di base

    È qui che Windows Server viene installato in ogni nodo. Se si vuole, è possibile usare uno o più SSD. Gli SSD costano di più, ma usano meno corrente e hanno tempi di avvio, installazione e ripristino più veloci oltre a una maggiore affidabilità. È possibile usare una singola unità SSD per ridurre i costi se non è un problema reinstallare Windows Server nel nodo in caso di guasto dell'unità SSD.

HBA dei nodi del cluster

  • Due HBA SAS identiche da 6 Gbps e 4 porte

    Ogni HBA dispone di una connessione a ogni enclosure di archiviazione, quindi in totale sono presenti due connessioni a ogni enclosure di archiviazione. Questo ottimizza la velocità effettiva e fornisce percorsi ridondanti e non può avere la funzionalità RAID integrata.

Schede di interfaccia di rete dei nodi del cluster

  • Una scheda di interfaccia di rete Dual Port 10 Gigabit Ethernet con supporto RDMA

    Questa scheda svolge la funzione di interfaccia di rete di archiviazione tra il cluster di file server e i cluster di calcolo e di gestione, ognuno dei quali archivia i file del disco rigido virtuale nel cluster di file server.

    La scheda richiede il supporto RDMA per ottimizzare le prestazioni e iWARP per usare i router compresi tra rack di cluster, che possono essere importanti quando si aggiungono altri cluster di calcolo e di file server alla soluzione. Questa scheda usa SMB 3 e SMB diretto per offrire la tolleranza di errore, con ogni porta connessa a una subnet distinta.

    Per un elenco di schede di interfaccia di rete certificate con supporto RDMA, vedere la pagina relativa al catalogo di Windows Server.

  • Una scheda di interfaccia di rete Dual Port Gigabit o 10 Gigabit Ethernet senza supporto RDMA

    Questa scheda mette in comunicazione il cluster di gestione e il cluster di file server, con ogni porta connessa a una subnet distinta. Non ha bisogno del supporto RDMA perché comunica con i commutatori virtuali Hyper-V nei cluster di calcolo e di gestione, che non possono usare la comunicazione RDMA.

    Per un elenco di schede di interfaccia di rete certificate, vedere la pagina relativa al catalogo di Windows Server.

  • Un'interfaccia di rete Gigabit Ethernet per la gestione remota

    Questa scheda di rete di caricamento, ILO (Integrated Lights-Out) o BMC (Baseboard Management Controller) si connette alla rete di gestione.

1.2. Progettare la configurazione software del cluster di file server

Ecco i componenti software consigliati per i cluster di file server:

Tecnologia

Linee guida

Sistema operativo

  • Windows Server 2012 R2 Standard con opzione di installazione dei componenti di base del server

    L'uso di Windows Server 2012 R2 Standard consente un risparmio maggiore rispetto a un'edizione più costosa e l'opzione di installazione dei componenti di base del server mantiene basso il footprint di sicurezza, che a sua volta limita la quantità di aggiornamenti software da installare nel cluster di file server.

Clustering di failover

  • File server con scalabilità orizzontale

    Questo file server in cluster consente di ospitare condivisioni file sempre disponibili, contemporaneamente accessibili in più nodi.

MPIO

  • Abilitare MPIO (Multipath I/O) in ogni nodo

    Combina i percorsi multipli ai dischi fisici nelle enclosure di archiviazione, fornendo resilienza e bilanciamento del carico nei percorsi fisici.

Pool di archiviazione

  • Tre pool di archiviazione in cluster per cluster di file server

    Aiutano a ridurre il tempo necessario per il failover del pool di archiviazione in un altro nodo.

  • 5 unità SSD e 16 HDD da ciascuna delle quattro enclosure di archiviazione per pool di carico di lavoro, per un totale di 84 dischi per pool per i carichi di lavoro principali.

    Ciò fornisce un numero sufficiente di SSD per creare gli spazi di archiviazione appropriati, con i dati distribuiti nelle enclosure di archiviazione in modo che, anche in caso di guasto in una delle enclosure di archiviazione, non si verifichino tempi di inattività per i tenant (purché non ci siano troppi dischi danneggiati nelle altre enclosure di archiviazione).

  • 2 unità SSD e 16 HDD da ciascuna delle quattro enclosure di archiviazione per pool di backup, per un totale di 72 dischi nel pool.

    Le unità SSD nel pool di backup vengono designate come dischi journal per migliorare le prestazioni di scrittura dei dischi virtuali, che usano il tipo di resilienza a doppia parità.

  • Nessun disco di riserva a caldo

    Mantenere sempre almeno 21,9 TiB di spazio libero su HDD in ogni pool di archiviazione, oltre a 1,5 TiB di spazio libero su unità SSD in ogni pool di carico di lavoro. Ciò consente a Spazi di archiviazione di ricreare automaticamente gli spazi di archiviazione anche con una unità SSD e 3 HDD danneggiati copiando i dati in più dischi nel pool, riducendo così considerevolmente il tempo necessario per il ripristino dal disco danneggiato rispetto all'uso dei dischi di riserva a caldo.

    In questa soluzione con HDD da 4 TB e SSD da 800 GB rimangono 23,4 TB di spazio disponibile per ogni pool di carico di lavoro.

    Per altre informazioni su questi numeri, vedere Guida alle considerazioni di progettazione dell'archiviazione definita dal software e la pagina relativa al calcolatore per la progettazione di archiviazione definita da software.

Spazi di archiviazione

  • Otto spazi di archiviazione per pool di archiviazione di carico di lavoro

    Questo distribuisce il carico tra ogni nodo del cluster (due spazi di archiviazione per nodo, per pool).

  • Usare spazi mirror a tre vie per i dati del carico di lavoro

    Gli spazi mirror offrono le migliori prestazioni e resilienza dei dati per ospitare macchine virtuali. Gli spazi mirror a tre vie garantiscono che ci siano almeno tre copie dei dati, evitando la perdita di dati anche in caso di guasto di due dischi. Gli spazi di parità non sono consigliati per l'hosting di macchine virtuali a causa delle caratteristiche delle prestazioni.

  • Usare le impostazioni seguenti per costruire gli spazi mirror a tre vie con livelli di archiviazione, la dimensione della cache write-back predefinita e il riconoscimento di enclosure. Si consiglia di usare quattro colonne per questa configurazione per ottenere un buon bilanciamento tra velocità effettiva elevata e latenza minima.

    Per altre informazioni, vedere Guida alle considerazioni di progettazione dell'archiviazione definita dal software.

    Impostazione

    Valore

    ResiliencySettingName

    Mirror

    NumberOfDataCopies

    3

    NumberOfColumns

    4

    StorageTierSizes

    SSD: .54 TiB; HDD: 8.79 TiB (presupponendo unità SSD da 800 GB e unità HDD da 4 TB)

    IsEnclosureAware

    $true

  • Tutti gli spazi di archiviazione usano il provisioning fisso

    Il provisioning fisso consente di usare i livelli di archiviazione e il clustering di failover, nessuno dei quali si serve del thin provisioning.

  • Creare un altro spazio mirror a due vie da 4 GB senza livelli di archiviazione

    Questo spazio di archiviazione viene usato come disco di controllo del cluster di file server e per il controllo di condivisione file dei cluster di gestione e di calcolo. In questo modo il cluster di file server conserva l'integrità (quorum) anche in caso di due nodi danneggiati o di problemi di rete tra i nodi.

  • Per il pool di backup, usare le impostazioni seguenti per creare 16 dischi virtuali tramite il tipo di resilienza a doppia parità e 7 colonne.

    Impostazione

    Valore

    ResiliencySettingName

    Parity

    NumberOfDataCopies

    3

    Size

    7.53 TiB

    NumberOfColumns

    7

    IsEnclosureAware

    $true

Partizioni

  • Una partizione GPT per spazio di archiviazione

    La soluzione risulta così più semplice.

Volumi

  • Un volume formattato con il file system NTFS per partizione/spazio di archiviazione

    ReFS non è consigliato per questa soluzione in questa versione di Windows Server.

  • Abilitare la deduplicazione dei dati nei dischi virtuali usati per archiviare i backup.

CSV

  • Un volume CSV per volume (con un volume e una partizione per spazio di archiviazione)

    In questo modo il carico può essere distribuito in tutti nodi del cluster di file server. Non creare un volume CSV nello spazio di archiviazione da 4 GB usato per mantenere il quorum del cluster.

Crittografia unità BitLocker

  • Testare le prestazioni di Crittografia unità BitLocker prima di usarla largamente

    È possibile usare Crittografia unità BitLocker per crittografare tutti i dati nella memoria in ogni volume CSV, migliorando la sicurezza fisica, anche se le prestazioni della soluzione possono risultare notevolmente compromesse.

Condivisioni file sempre disponibili

  • Una condivisione file SMB sempre disponibile per volume CSV/volume/partizione/spazio di archiviazione

    Ciò semplifica la gestione (una condivisione per ogni spazio di archiviazione sottostante) e consente di distribuire il carico in tutti i nodi del cluster di file server.

  • Testare le prestazioni dell'accesso ai dati crittografati (crittografia SMB 3) nelle condivisioni file prima della distribuzione su larga scala

    È possibile usare la crittografia SMB 3 per proteggere i dati nelle condivisioni file che richiedono protezione contro le violazioni fisiche in cui un autore di un attacco ha accesso alla rete del data center, ma in questo modo si perde la maggior parte dei vantaggi a livello di prestazioni derivanti dall'uso di schede di rete RDMA.

Aggiornamenti

  • Usare Windows Server Update Services insieme a Virtual Machine Manager

    Creare tre o quattro gruppi di computer in Windows Server Update Services (WSUS) per i nodi del file server, aggiungendone uno o due a ogni gruppo. Con questa configurazione, è possibile aggiornare prima un server e monitorarne la funzionalità, quindi aggiornare gli altri server uno alla volta per poter continuare a bilanciare il carico tra i server rimanenti.

    Per altre informazioni, vedere Gestione degli aggiornamenti dell'infrastruttura in VMM (o Distribuire Windows Server Update Services nell'organizzazione se non si usa Virtual Machine Manager).

  • Usare Aggiornamento compatibile con cluster per gli aggiornamenti UEFI e del firmware

    Usare Aggiornamento compatibile con cluster per aggiornare tutto ciò che non può essere distribuito con WSUS. Probabilmente si tratterà del BIOS (UEFI) per i nodi del cluster, nonché del firmware per schede di rete, HBA SAS, unità e delle enclosure di archiviazione.

Data Protection Manager

  • È possibile usare Data Protection Manager (DPM) per fornire backup coerenti con gli arresti anomali del cluster di file server. È anche possibile usare DPM e la replica Hyper-V per il ripristino di emergenza delle macchine virtuali nel cluster di calcolo.

Passaggio 2: Progettare il cluster di gestione

In questo passaggio, si progetta il cluster di gestione che esegue tutti i servizi di gestione e dell'infrastruttura per i cluster di file server e di calcolo.

Nota

In questa soluzione si suppone che si voglia usare la suite di prodotti System Center, che fornisce strumenti avanzati per semplificare la configurazione, la gestione e il monitoraggio della soluzione. Tuttavia, in alternativa è possibile eseguire tutte le attività con Windows PowerShell e Server Manager. Windows PowerShell risulterà probabilmente più appropriato vista la scalabilità di questa soluzione. Se si sceglie di non usare System Center, è probabile che non sia necessario un cluster di gestione avanzato come quello descritto qui e dovrebbe essere possibile usare i server o i cluster esistenti.

2.1. Progettare l'hardware del cluster di gestione

Ecco i componenti hardware consigliati per il cluster che esegue tutti i servizi di gestione e dell'infrastruttura per i cluster di file server e di calcolo.

Componente

Linee guida

Cluster di gestione

  • Un cluster di failover a 4 nodi

    Usando quattro nodi è possibile tollerare un nodo del cluster in caso di errori nel cluster di gestione. Usare sei nodi per la resilienza agli errori di due nodi. Un cluster di gestione che usa Virtual Machine Manager può supportare fino a 8.192 macchine virtuali.

Nodi cluster

  • Due CPU da otto core

    Le macchine virtuali in questo cluster elaborano una notevole quantità di dati e pertanto necessitano di un po' più di potenza per la CPU rispetto al cluster di file server.

  • 128 GB di RAM

    Per eseguire le macchine virtuali di gestione, è necessaria più RAM che per il cluster di file server.

  • Due HDD installati in un RAID-1 (mirror) con un controller RAID di base

    È qui che Windows Server viene installato in ogni nodo. Se si vuole, è possibile usare uno o più SSD. Gli SSD costano di più, ma usano meno corrente e hanno tempi di avvio, installazione e ripristino più veloci oltre a una maggiore affidabilità. È possibile usare una singola unità SSD per ridurre i costi se non è un problema reinstallare Windows Server nel nodo in caso di guasto dell'unità SSD.

Schede di interfaccia di rete

  • Una scheda di interfaccia di rete Dual Port 10 Gigabit Ethernet con supporto RDMA

    Questa scheda mette in comunicazione il cluster di gestione e il cluster di file server per l'accesso ai file con estensione vhdx usati dalle macchine virtuali di gestione. La scheda richiede il supporto RDMA per ottimizzare le prestazioni e iWARP per usare i router compresi tra rack di cluster di file server e di gestione, che possono essere importanti quando si aggiungono altri cluster di calcolo e di file server alla soluzione. Questa scheda usa SMB 3 e SMB diretto per offrire la tolleranza di errore, con ogni porta connessa a una subnet distinta.

    Per un elenco di schede di interfaccia di rete certificate con supporto RDMA, vedere la pagina relativa al catalogo di Windows Server.

  • Una scheda di interfaccia di rete Dual Port Gigabit o 10 Gigabit Ethernet senza supporto RDMA

    Questa scheda elabora il traffico di gestione tra tutti i cluster. La scheda richiede il supporto per Coda macchine virtuali (VMQ), Dynamic VMQ, la codifica VLAN 802.1Q e l'offload GRE (NVGRE). La scheda usa Gruppo NIC per creare le due porte, ciascuna connessa a una subnet distinta e con tolleranza di errore.

    La scheda non può usare RDMA perché RDMA richiede l'accesso diretto alla scheda di rete e questa scheda deve comunicare con i commutatori virtuali Hyper-V (che nascondono l'accesso diretto alla scheda di rete). Usa la tecnologia di Gruppo NIC per la tolleranza di errore invece di SMB diretto per consentire ai protocolli diversi da SMB di usare le connessioni di rete ridondanti. È consigliabile usare le regole di Qualità del servizio (QoS) per classificare in ordine di priorità il traffico su questa connessione.

    Per un elenco di schede di interfaccia di rete certificate con supporto NVGRE, vedere la pagina relativa al catalogo di Windows Server.

  • Un'interfaccia di rete Gigabit Ethernet per la gestione remota

    Questa scheda di rete di caricamento, ILO (Integrated Lights-Out) o BMC (Baseboard Management Controller) si connette alla rete di gestione.

2.2. Progettare la configurazione software del cluster di gestione

Nell'elenco seguente vengono descritti in generale i componenti software consigliati per il cluster di gestione:

  • Windows Server 2012 R2 Datacenter

  • Clustering di failover

  • Aggiornamento compatibile con cluster

  • Hyper-V

Nell'elenco seguente vengono descritti in generale i servizi da eseguire nelle macchine virtuali sul cluster di gestione:

  • Server DNS, Server DHCP e Servizi di dominio Active Directory.

  • Windows Server Update Services

  • Servizi di distribuzione Windows

  • Microsoft SQL Server

  • System Center Virtual Machine Manager

  • Server di libreria System Center Virtual Machine Manager

  • System Center Operations Manager

  • System Center Data Protection Manager

  • Una console di gestione (Windows Server con l'opzione di installazione GUI)

  • Altre macchine virtuali sono necessarie a seconda dei servizi in uso, ad esempio Windows Azure Pack e System Center Configuration Manager.

Nota

Creare commutatori virtuali identici in tutti i nodi in modo che ogni macchina virtuale possa eseguire il failover in qualsiasi nodo e mantenere la connessione alla rete.

Passaggio 3: Progettare il cluster di calcolo

In questo passaggio, si progetta il cluster di calcolo che esegue le macchine virtuali che forniscono i servizi ai tenant.

2.1. Progettare l'hardware del cluster di calcolo

Ecco i componenti hardware consigliati per i cluster di calcolo. Questi cluster ospitano le macchine virtuali tenant.

Componente

Linee guida

Cluster di calcolo Hyper-V

  • Ogni cluster di calcolo contiene 32 nodi e ospita fino a 2.048 macchine virtuali Hyper-V. Quando si è pronti ad aumentare la capacità, è possibile aggiungere fino a tre cluster di calcolo (e cluster di file server associati) per un totale di 128 nodi che ospitano 8.192 macchine virtuali per 512 tenant (presumendo 8 macchine virtuali per tenant).

    Per altre informazioni, vedere Scalabilità di Hyper-V in Windows Server 2012 e Windows Server 2012 R2.

Nodi cluster

  • Due CPU da otto core

    Due CPU da otto core sono sufficienti per generici carichi di lavoro misti, ma, se si vuole eseguire una grande quantità di calcoli con carichi di lavoro notevoli nelle macchine virtuali tenant, selezionare CPU con prestazioni più elevate.

  • 128 GB di RAM

    L'esecuzione di un numero così elevato di macchine virtuali (probabilmente 64 per nodo mentre tutti i nodi del cluster sono in esecuzione) richiede più RAM che per il cluster di file server. Usare più RAM se si vuole fornire una media di più di 2 GB per macchina virtuale.

  • Due HDD installati in un RAID-1 (mirror) con un controller RAID di base

    È qui che Windows Server viene installato in ogni nodo. Se si vuole, è possibile usare uno o più SSD. Gli SSD costano di più, ma usano meno corrente e hanno tempi di avvio, installazione e ripristino più veloci oltre a una maggiore affidabilità. È possibile usare una singola unità SSD per ridurre i costi se non è un problema reinstallare Windows Server nel nodo in caso di guasto dell'unità SSD.

Schede di interfaccia di rete

  • Una scheda di interfaccia di rete Dual Port 10 Gigabit Ethernet con supporto RDMA

    Questa scheda comunica con il cluster di file server per l'accesso ai file con estensione vhdx usati dalle macchine virtuali. La scheda richiede il supporto RDMA per ottimizzare le prestazioni e iWARP per usare i router compresi tra rack di cluster di file server e di gestione, che possono essere importanti quando si aggiungono altri cluster di calcolo e di file server alla soluzione. Questa scheda usa SMB 3 e SMB diretto per offrire la tolleranza di errore, con ogni porta connessa a una subnet distinta.

    Per un elenco di schede di interfaccia di rete certificate con supporto RDMA, vedere la pagina relativa al catalogo di Windows Server.

  • Una scheda di interfaccia di rete Dual Port Gigabit o 10 Gigabit Ethernet senza supporto RDMA

    Questa scheda elabora il traffico di gestione e tenant. La scheda richiede il supporto per Coda macchine virtuali (VMQ), Dynamic VMQ, la codifica VLAN 802.1Q e l'offload GRE (NVGRE). La scheda usa Gruppo NIC per creare le due porte, ciascuna connessa a una subnet distinta e con tolleranza di errore.

    La scheda non può usare RDMA perché RDMA richiede l'accesso diretto alla scheda di rete e questa scheda deve comunicare con i commutatori virtuali Hyper-V (che nascondono l'accesso diretto alla scheda di rete). Usa la tecnologia di Gruppo NIC per la tolleranza di errore invece di SMB diretto per consentire ai protocolli diversi da SMB di usare le connessioni di rete ridondanti. È consigliabile usare le regole di Qualità del servizio (QoS) per classificare in ordine di priorità il traffico su questa connessione.

    Per un elenco di schede di interfaccia di rete certificate con supporto NVGRE, vedere la pagina relativa al catalogo di Windows Server.

  • Un'interfaccia di rete Gigabit Ethernet per la gestione remota

    Questa scheda di rete di caricamento, ILO (Integrated Lights-Out) o BMC (Baseboard Management Controller) si connette alla rete di gestione e consente di usare System Center Virtual Machine Manager per configurare il nodo del cluster dall'hardware bare metal. L'interfaccia deve avere il supporto per Interfaccia di gestione piattaforma intelligente (IPMI) o Architettura di gestione dei sistemi per l'hardware dei server (SMASH).

2.2. Progettare la configurazione software del cluster di calcolo

Nell'elenco seguente vengono descritti in generale i componenti software consigliati per il cluster di calcolo:

  • Windows Server 2012 R2 Datacenter

  • Clustering di failover

  • Hyper-V

  • Panoramica di Data Center Bridging

  • Aggiornamento compatibile con cluster

Passaggi successivi

Dopo aver completato i passaggi di pianificazione, vedere Passaggi necessari per implementare la soluzione.

Vedere anche

Cronologia delle modifiche

Data

Descrizione

15 luglio 2015

Aggiornamento delle informazioni aggiuntive per la progettazione dei dischi virtuali e aggiunta dei collegamenti a Guida alle considerazioni di progettazione dell'archiviazione definita dal software, in cui sono disponibili informazioni di progettazione più dettagliate e aggiornate.

18 giugno 2014

Aggiornamento delle informazioni aggiuntive sulla quantità di spazio disponibile da riservare in ogni pool per ricreare gli spazi di archiviazione e aggiornamento delle dimensioni dei dischi virtuali e di conseguenza di altri numeri

2 aprile 2014

Rimozione dei collegamenti del Catalogo di Windows ai dischi SAS e alle schede HBA SAS perché i collegamenti causavano confusione

22 gennaio 2014

Pubblicazione preliminare