Przewodnik po zagadnieniach dotyczących projektu sieci szkieletowej wirtualizacji

 

Dla kogo jest przeznaczony ten przewodnik? Jest on przeznaczony dla informatyków w średnich i dużych organizacjach odpowiedzialnych za projektowanie wirtualizacji sieci szkieletowej, która obsługuje wiele maszyn wirtualnych. W tym dokumencie są oni nazywani administratorami sieci szkieletowej. Osoby administrujące maszynami wirtualnymi w sieci szkieletowej są nazywani administratorami maszyn wirtualnych. Nie są oni jednak docelowymi odbiorcami tego dokumentu. W ramach danej organizacji konkretne osoby mogą odpowiadać za obie role.

W czym może być pomocny ten przewodnik? Ten przewodnik pozwala zrozumieć, jak projektować wirtualizację sieci szkieletowej umożliwiającą obsługę wielu maszyn wirtualnych w organizacji. W tym dokumencie kolekcja serwerów i funkcji hypervisor maszyn wirtualnych oraz urządzeń sprzętowych magazynu i sieci używana do obsługi maszyn wirtualnych w organizacji jest określana jako sieć szkieletowa wirtualizacji. Poniższy rysunek przedstawia przykładową sieć szkieletową wirtualizacji.

Sieć szkieletowa wirtualizacji

Rysunek 1.Przykład sieci szkieletowej wirtualizacji

Uwaga: Każdy diagram w tym dokumencie jest dostępny na osobnej karcie w dokumencie Diagramy uwag dotyczących projektowania wirtualizacji sieci szkieletowej, który można pobrać po kliknięciu poszczególnych nazw rysunków w podpisach tabel.

Chociaż wszystkie sieci szkieletowe wirtualizacji zawierają serwery na potrzeby magazynu i hostingu maszyn wirtualnych (oprócz sieci, które łączą te elementy), projekt sieci szkieletowej wirtualizacji konkretnej organizacji będzie prawdopodobnie inny niż pokazany w tym przykładzie na Rysunku 1 z powodu różnic w wymaganiach.

Ten przewodnik zawiera szczegóły serii czynności i zadań, które można wykonać, aby ułatwić projektowanie sieci szkieletowej wirtualizacji spełniającej unikatowe wymagania danej organizacji. W ramach zadań i kroków przewodnik przedstawia informacje o odpowiednich technologiach i dostępnych opcjach funkcji pozwalających zapewnić wymagane poziomy funkcjonalności i jakości usługi (np. dostępność, skalowalność, wydajność, możliwości zarządzania i bezpieczeństwo).

Ten dokument ułatwia projektowanie możliwej do zarządzania sieci szkieletowej wirtualizacji, jednak nie omówiono w nim uwag dotyczących projektowania i opcji służących do obsługi sieci szkieletowej wirtualizacji i zarządzania nią za pomocą produktów, takich jak Microsoft System Center 2012 lub System Center 2012 R2. Aby uzyskać więcej informacji, zobacz temat System Center 2012 w bibliotece TechNet.

Ten przewodnik pomaga projektować sieć szkieletową wirtualizacji z użyciem systemów Windows Server 2012 R2 i Windows Server 2012 oraz sprzętu pochodzącego od dowolnego dostawcy. Niektóre funkcje omówione w dokumencie są unikatowe dla systemu Windows Server 2012 R2 i są oznaczone w dokumencie.

Założenia: Użytkownik ma pewne doświadczenie w zakresie wdrażania funkcji Hyper-V, maszyn wirtualnych, sieci wirtualnych, usług plików systemu Windows Server i klastra trybu failover oraz pewne doświadczenie w zakresie wdrażania serwerów fizycznych, magazynu i urządzeń sieciowych.

Zasoby dodatkowe

Przed rozpoczęciem projektowania sieci szkieletowej wirtualizacji przydatne mogą być informacje w następujących dokumentach:

Oba te dokumenty zawierają podstawowe pojęcia obecne w wielu sieciach szkieletowych wirtualizacji i mogą służyć jako podstawa dowolnego projektu sieci szkieletowej wirtualizacji.

Opinie: Aby wyrazić swoją opinię na temat tego dokumentu, wyślij wiadomość e-mail na adres virtua@microsoft.com.

Omówienie zagadnień dotyczących projektowania

Dalsza część tego dokumentu zawiera zestaw kroków i zadań, których można używać w celu projektowania sieci szkieletowej wirtualizacji najlepiej odpowiadającej konkretnym wymaganiom. Kroki są prezentowane w uporządkowanej kolejności. Uwagi dotyczące projektowania, o których można dowiedzieć się w dalszych krokach, mogą jednak powodować konieczność zmiany decyzji podjętych we wcześniejszych krokach z powodu wystąpienia konfliktów. W całym dokumencie staramy się podkreślać ryzyko potencjalnych konfliktów.

Aby opracować projekt najlepiej spełniający potrzeby, należy iteracyjnie stosować wskazówki zawarte w krokach dokumentu — tyle razy, ile to jest konieczne — tak aby uwzględnić je wszystkie.

Krok 1. Określanie wymagań dotyczących zasobów maszyny wirtualnej

Krok 2. Planowanie konfiguracji maszyny wirtualnej

Krok 3. Planowanie grup hostów wirtualizacji serwera

Krok 4. Planowanie hostów wirtualizacji serwera

Krok 5. Pojęcia związane z planowaniem architektury sieci szkieletowej wirtualizacji

Krok 6. Planowanie cech początkowych możliwości

Krok 1. Określanie wymagań dotyczących zasobów maszyny wirtualnej

Pierwszy krok projektowania sieci szkieletowej wirtualizacji ma na celu określenie wymagań dotyczących maszyn wirtualnych hostowanych w sieci szkieletowej. Sieć szkieletowa musi zawierać fizyczny sprzęt niezbędny w celu spełnienia tych wymagań. Wymagania dotyczące zasobów maszyny wirtualnej są określone przez systemy operacyjne i aplikacje przeznaczone do uruchamiania na maszynach wirtualnych. W pozostałej części niniejszego dokumentu kombinacja systemu operacyjnego i aplikacji przeznaczonych do uruchamiania na maszynie wirtualnej jest nazywana obciążeniem. Zadania w tym kroku pomagają zdefiniować wymagania dotyczące zasobów dla obciążeń.

Porada: Zamiast oceniać wymagania dotyczące zasobów istniejących obciążeń i następnie projektować sieć szkieletową wirtualizacji umożliwiającą obsługę każdego z nich, można zaprojektować sieć szkieletową wirtualizacji, która może zamiast tego spełniać potrzeby najbardziej typowych obciążeń. Następnie można osobno spełnić unikatowe wymagania poszczególnych obciążeń.

Przykładami takich sieci szkieletowych wirtualizacji są te udostępniane przez dostawców chmury publicznej, takich jak Microsoft Azure. Aby uzyskać więcej informacji, zobacz Rozmiary maszyn wirtualnych i usług w chmurze na platformie Azure.

Dostawcy chmury publicznej oferują zwykle kilka konfiguracji maszyn wirtualnych, które spełniają potrzeby większości obciążeń. W przypadku decyzji o zastosowaniu takiego podejścia można od razu przejść do części Krok 2. Planowanie konfiguracji maszyny wirtualnej w tym dokumencie. Dodatkowe korzyści wynikające z używania tej metody:

  • W przypadku podjęcia decyzji o migracji niektórych lokalnych maszyn wirtualnych do dostawcy usług w chmurze publicznej, jeśli typy konfiguracji lokalnych maszyn wirtualnych przypominają te udostępniane przez publicznego dostawcę, migracja maszyn wirtualnych będzie łatwiejsza niż w przypadku, gdy typy konfiguracji różnią się.

  • To podejście pozwala łatwiej prognozować wymagania dotyczące pojemności i korzystać z możliwości samoobsługi w zakresie obsługi administracyjnej sieci szkieletowej wirtualizacji. Oznacza to, że administratorzy maszyn wirtualnych w organizacji mogą automatycznie samodzielnie inicjować obsługę maszyn wirtualnych bez udziału administratorów sieci szkieletowej.

Zadanie 1. Określanie wymagań dotyczących zasobów obciążenia

Każde obciążenie ma wymagania dotyczące poniższych zasobów. W pierwszej kolejności należy odpowiedzieć na następujące pytania dotyczące każdego z obciążeń.

  • Procesor: Jakie są wymagania w zakresie szybkości procesora, architektury (Intel lub AMD) lub liczby procesorów?

  • Sieć: Jaka przepustowość sieci jest wymagana dla ruchu przychodzącego i wychodzącego (w gigabitach na sekundę — Gb/s)? Jakie jest maksymalne opóźnienie w sieci, przy którym obciążenie może jeszcze działać prawidłowo?

  • Magazyn: Ile gigabajtów (GB) magazynu wymagają pliki systemu operacyjnego i aplikacji obciążenia? Ile gigabajtów magazynu jest potrzebne do przechowywania danych obciążenia? Ile operacji we/wy na sekundę (IOPS) w magazynie wymaga obciążenie?

  • Pamięć: Ile pamięci wymaga obciążenie (w gigabajtach)? Czy obciążenie obsługuje technologię niejednolitego dostępu do pamięci (NUMA)?

Oprócz ustalenia powyższych wymagań dotyczących zasobów ważne jest również ustalenie:

  • Czy wymagania dotyczące zasobów są minimalne czy zalecane?

  • Ile wynosi szczytowe i średnie wymaganie w zakresie poszczególnych składników sprzętowych — godzinowo, dziennie, tygodniowo, miesięcznie i rocznie?

  • Ile minut przestoju miesięcznie jest możliwe do zaakceptowania w przypadku obciążenia i jego danych? W czasie określania powyższych informacji należy wziąć pod uwagę następujące kwestie:

    • Czy obciążenie działa tylko na jednej maszynie wirtualnej czy jest uruchamiane na kolekcji maszyn wirtualnych działającej jako jedna, na przykład przy użyciu kolekcji serwerów sieciowych z równoważeniem obciążenia obsługujących to samo obciążenie? W przypadku użycia kolekcji serwerów — czy możliwy do zaakceptowania czas przestoju dotyczy poszczególnych serwerów w kolekcji, wszystkich serwerów w kolekcji czy samej kolekcji?

    • Godziny pracy i czas poza godzinami pracy. Na przykład należy uwzględnić w wymaganiach tę kwestię, jeśli nikt nie korzysta z obciążenia między 21:00 a 6:00, ale krytyczne jest utrzymanie maksymalnej możliwej dostępności między 6:00 a 21:00 z możliwym do zaakceptowania czasem przestoju wynoszącym zaledwie 10 minut miesięcznie.

  • Ilość utraconych danych możliwa do zaakceptowania w przypadku nieoczekiwanej awarii infrastruktury wirtualnej. To wymaganie jest wyrażone w minutach, ponieważ replikacja infrastruktury wirtualnej jest zwykle definiowana z użyciem wartości czasu. Mimo że często w wymaganiach zakłada się brak utraty danych, należy pamiętać, że spełnienie takiego wymagania może wymagać poniesienia wysokich nakładów oraz obniżenia wydajności.

  • Czy pliki obciążenia i/lub jego dane muszą być szyfrowane na dysku i czy jego dane muszą być szyfrowane w czasie przesyłania między maszynami wirtualnymi i użytkownikami końcowymi.

W kontekście określania wymienionych wymagań dotyczących zasobów są dostępne następujące opcje.

Opcja

Zalety

Wady

Ręczne ocenianie i rejestrowanie użycia zasobów

Możliwość raportowania dowolnych informacji

Może wymagać dużego nakładu pracy

Aby automatycznie ocenić i zarejestrować użycie zasobów, użyj Zestawu narzędzi firmy Microsoft do oceny i planowania

  • Tworzy różne raporty dotyczące wykorzystania zasobów

  • Nie wymaga agenta zainstalowanego na obciążeniu

Raporty mogą, ale nie muszą, zawierać wszystkie dane, które są wymagane

Uwaga: W przypadku wybrania opcji ręcznej oceny wymagań dotyczących zasobów możesz pobrać Arkusze Przewodnika po zagadnieniach dotyczących projektu sieci szkieletowej wirtualizacji i wprowadzić informacje w arkuszu Workload resource req. (Wymagania w zakresie zasobów obciążenia). Ten przewodnik odwołuje się do określonych arkuszy w wyżej wymienionym dokumencie.

Zadanie 2. Definiowanie cech obciążenia

Można określić dowolną liczbę cech obciążenia w środowisku. Poniższe przykłady wybrano, ponieważ każdy z nich wymaga innej konfiguracji składników sieci szkieletowej wirtualizacji, które zostaną dokładniej omówione w dalszych krokach.

  • Bezstanowe: Po początkowym zainicjowaniu i przypisaniu unikatowych nazw komputerów i adresów sieciowych nie zapisują na swoich dyskach lokalnych żadnych unikatowych informacji. Mogą jednak zapisywać unikatowe informacje w innym magazynie, na przykład w bazie danych. Obciążenia bezstanowe są optymalne w kontekście sieci szkieletowej wirtualizacji, ponieważ możliwe jest utworzenie głównego obrazu maszyny wirtualnej. Następnie taki obraz można łatwo kopiować i uruchamiać w sieci szkieletowej wirtualizacji na potrzeby skalowania obciążenia lub szybkiego zastąpienia maszyny wirtualnej, która stała się niedostępna na skutek awarii hosta wirtualizacji. Przykładem bezstanowego obciążenia jest serwer sieci Web z uruchomioną aplikacją frontonu.

  • Stanowe: Po początkowym zainicjowaniu i przypisaniu unikatowych nazw komputerów i adresów sieciowych zapisują na swoich dyskach lokalnych unikatowe informacje. Mogą również zapisywać unikatowe informacje w innym magazynie, na przykład w bazie danych. Obciążenia stanowe zwykle wymagają bardziej złożonych strategii inicjowania i skalowania niż bezstanowe. Strategie wysokiej dostępności dla obciążeń stanowych mogą wymagać udostępniania stanu między maszynami wirtualnymi. Przykładem obciążenia stanowego jest aparat bazy danych programu SQL Server.

  • Stanowe z udostępnianiem: Są to obciążenia stanowe, które wymagają udostępniania stanu między maszynami wirtualnymi. Te obciążenia często używają możliwości klastra trybu failover systemu Windows Server w celu zapewniania wysokiej dostępności, co wymaga dostępu do udostępnionego magazynu. Przykładem stanowego obciążenia z udostępnianiem jest program Microsoft System Center — Virtual Machine Manager.

  • Inne: Charakteryzuje obciążenia, które mogą nie działać w ogóle albo nie działać optymalnie w sieci szkieletowej wirtualizacji. Takie obciążenia cechuje:

    • Dostęp do fizycznych urządzeń peryferyjnych. Przykładem takiej aplikacji jest obciążenie obsługi telefonii, które komunikuje się z fizyczną telefoniczną kartą sieciową hosta.

    • Znacznie wyższe wymagania w zakresie zasobów niż w przypadku innych obciążeń. Przykładem jest aplikacja działająca w czasie rzeczywistym, która wymaga mniej niż jednej milisekundy opóźnienia między warstwami aplikacji.

    W przypadku takich obciążeń może nie być możliwe uruchamianie ich w sieci szkieletowej wirtualizacji lub mogą one wymagać bardzo specyficznego zestawu sprzętu lub konfiguracji, który nie jest podobny do większości innych obciążeń.

Uwaga: Cechy obciążenia można zdefiniować w arkuszu Settings (Ustawienia), a następnie można wybrać odpowiednie cechy obciążeń w arkuszu Workload resource req. (Wymagania w zakresie zasobów obciążenia).

Krok 2. Planowanie konfiguracji maszyny wirtualnej

W tym kroku należy zdefiniować typy maszyn wirtualnych spełniających wymagania dotyczące zasobów i cech obciążeń, które zostały zdefiniowane w kroku 1.

Zadanie 1. Definiowanie konfiguracji obliczeniowej

W ramach tego zadania należy określić ilość pamięci i liczbę procesorów, które są wymagane dla każdej maszyny wirtualnej.

Zadanie 1a. Definiowanie typu generacji maszyny wirtualnej

W systemie Windows Server 2012 R2 wprowadzono maszyny wirtualne drugiej generacji. Maszyny wirtualne drugiej generacji obsługują funkcje sprzętu i wirtualizacji, które nie są obsługiwane przez maszyny wirtualne pierwszej generacji. Ważne jest podjęcie prawidłowej decyzji dotyczącej wymagań, ponieważ po utworzeniu maszyny wirtualnej nie można zmienić jej typu.

Maszyny wirtualne drugiej generacji udostępniają następujące nowe funkcje:

  • Rozruch za pomocą standardowej karty sieciowej w środowisku PXE

  • Rozruch z wirtualnego dysku twardego SCSI

  • Rozruch z wirtualnego dysku DVD SCSI

  • Bezpieczny rozruch (domyślnie włączony)

  • Obsługa oprogramowania układowego UEFI

Maszyny wirtualne drugiej generacji obsługują następujące systemy operacyjne gościa:

  • Windows Server 2012 R2

  • Windows Server 2012

  • Wersje 64-bitowe systemu Windows 8.1

  • Wersje 64-bitowe systemu Windows 8

  • Określone wersje systemu Linux Aby uzyskać listę dystrybucji i wersji obsługujących maszyny wirtualne drugiej generacji, zobacz Maszyny wirtualne z systemem Linux w ramach funkcji Hyper-V.

Poniższa tabela zawiera listę zalet i wad maszyn wirtualnych pierwszej generacji i drugiej generacji.

Opcja

Zalety

Wady

Pierwsza generacja

  • Obsługuje wszystkie obsługiwane systemy operacyjne gościa funkcji Hyper-V

  • Zapewnia zgodność z maszynami wirtualnymi na platformie Azure

  • Obsługuje poprzednie wersje funkcji Hyper-V

Brak dostępu do nowych funkcji maszyn wirtualnych

Druga generacja

  • Obsługuje nowe funkcje

  • Nieznacznie poprawia czas rozruchu i instalacji gościa maszyny wirtualnej

  • Używa urządzeń SCSI lub standardowej karty sieciowej do rozruchu maszyny wirtualnej

  • Po włączeniu funkcji Bezpieczny rozruch uniemożliwia uruchamianie nieautoryzowanego oprogramowania układowego, nieobsługiwanych systemów operacyjnych lub nieobsługiwanych sterowników UEFI

  • Ograniczona obsługa systemów operacyjnych gościa

  • Brak zgodności z maszynami wirtualnymi na platformie Azure

  • Brak obsługi funkcji RemoteFX

  • Brak obsługi wirtualnej stacji dyskietek

Ważne: Funkcja Bezpieczny rozruch nie jest obsługiwana w przypadku maszyn wirtualnych drugiej generacji z systemem Linux. Jeśli tworzysz maszynę wirtualną i zamierzasz zainstalować system Linux, w jej ustawieniach wyłącz funkcję Bezpieczny rozruch.

Informacje dodatkowe:

Omówienie maszyn wirtualnych drugiej generacji

Zadanie 1b. Definiowanie pamięci

Rozmiar pamięci maszyny wirtualnej należy zaplanować tak, jak zwykle jest on planowany dla aplikacji serwerowych na komputerze fizycznym. Należy zapewnić, że oczekiwane obciążenia będą mogły być obsługiwane w normalnych godzinach i w godzinach szczytu. Zbyt mały rozmiar pamięci może znacznie zwiększyć czas reakcji i użycie procesora CPU lub we/wy.

Pamięć statyczna lub dynamiczna

Pamięć statyczna to ilość pamięci przypisanej do maszyny wirtualnej. Jest zawsze przydzielana podczas uruchamiania maszyny wirtualnej i nie zmienia się w czasie, gdy maszyna wirtualna działa. Cała pamięć jest przypisywana do maszyny wirtualnej podczas uruchamiania, zaś pamięć, która nie jest używana przez maszynę wirtualną, nie jest dostępna dla innych maszyn wirtualnych. Jeśli na hoście nie ma dostępnej wystarczającej ilości pamięci do przydzielenia do maszyny wirtualnej, gdy jest ona uruchamiana, maszyna wirtualna nie zostanie uruchomiona.

Pamięć statyczna dobrze sprawdza się w przypadku obciążeń intensywnie wykorzystujących pamięć i obciążeń, które mają własne systemy zarządzania pamięcią, takich jak program SQL Server. Tego rodzaju obciążenia będą działać lepiej z pamięcią statyczną.

Uwaga: Nie ma ustawienia włączania pamięci statycznej. Pamięć statyczna jest włączona, gdy ustawienie pamięci dynamicznej nie jest włączone.

Pamięć dynamiczna pozwala na lepsze wykorzystanie pamięci fizycznej w systemie przez równoważenie całkowitej ilości pamięci fizycznej między wieloma maszynami wirtualnymi przez przydzielanie większej ilości pamięci do maszyn wirtualnych, które są zajęte, i usuwanie przydziału pamięci dla mniej intensywnie używanych maszyn wirtualnych. Może to prowadzić do uzyskania wyższych współczynników konsolidacji, szczególnie w dynamicznych środowiskach, takich jak serwery infrastruktury pulpitów wirtualnych (VDI) lub sieci Web.

W przypadku użycia pamięci statycznej, gdy do maszyny wirtualnej jest przypisane 10 GB pamięci, ale maszyna używa tylko 3 GB, pozostałe 7 GB pamięci nie będzie dostępne do użycia przez inne maszyny wirtualne. Gdy maszyna wirtualna używa pamięci dynamicznej, używa tylko ilości pamięci, która jest wymagana (ale nie niższej niż skonfigurowana minimalna ilość pamięci RAM). Powoduje to zwolnienie większej ilości pamięci dla innych maszyn wirtualnych.

Poniższa tabela zawiera listę zalet i wad dla pamięci statycznych i dynamicznych.

Opcja

Zalety

Wady

Pamięć statyczna

  • Udostępnia maszynom wirtualnym skonfigurowaną dostępną pamięć przez cały czas

  • Zapewnia lepszą wydajność

  • Można jej użyć w połączeniu z wirtualną architekturą NUMA

  • Nie można przydzielić pamięci, która nie jest używana przez maszynę wirtualną, do innej maszyny wirtualnej.

  • Nie będzie można uruchomić maszyny wirtualnej, jeśli nie będzie dostępna wystarczająca ilość pamięci.

Pamięć dynamiczna

  • Zapewnia większą konsolidację maszyn wirtualnych z bezczynnymi lub mniej intensywnymi obciążeniami

  • Umożliwia przydzielanie innym maszynom wirtualnym pamięci, która nie jest używana

  • Możliwe jest przydzielenie większej ilości pamięci niż jest fizycznie dostępna.

  • Zarządzanie przydzielaniem pamięci wymaga narzutu obliczeniowego.

  • Nie jest zgodna z wirtualną architekturą NUMA.

  • Nie jest zgodne z obciążeniami, które implementują własnych menedżerów zarządzania pamięcią.

Dostępne są następujące ustawienia konfiguracji pamięci:

  • Początkowa pamięć RAM: Określa ilość pamięci wymaganą do uruchomienia maszyny wirtualnej. Wartość musi być odpowiednio wysoka, aby umożliwić uruchomienie systemu operacyjnego gościa, ale powinna być możliwie jak najmniejsza, aby umożliwić optymalne wykorzystanie pamięci i potencjalnie zapewnienie wyższego współczynnika konsolidacji.

  • Minimalna ilość pamięci RAM: Określa minimalną ilość pamięci, która powinna zostać przydzielona do maszyny wirtualnej po jej uruchomieniu. Najmniejsza możliwa wartość to 32 MB, a największa to ustawienie Początkowa pamięć RAM. To ustawienie jest dostępne tylko wtedy, gdy jest włączona pamięć dynamiczna.

  • Maksymalna ilość pamięci RAM: Określa maksymalną ilość pamięci, której może używać maszyna wirtualna. Najmniejsza wartość to ustawienie Początkowa pamięć RAM, a największa to 1 TB. Jednak maszyna wirtualna może używać ilości pamięci nie większej niż maksymalna ilość obsługiwana przez system operacyjny gościa. Na przykład jeśli określisz 64 GB dla maszyny wirtualnej z systemem operacyjnym gościa, który obsługuje maksymalnie 32 GB, maszyna wirtualna nie będzie mogła użyć więcej niż 32 GB. To ustawienie jest dostępne tylko wtedy, gdy jest włączona pamięć dynamiczna.

  • Waga pamięci: Zapewnia funkcji Hyper-V możliwość określenia sposobu dystrybucji pamięci między maszynami wirtualnymi, jeśli nie jest dostępna wystarczająca ilość fizycznej pamięci na hoście w celu przydzielenia wszystkim maszynom wirtualnym ich żądanej ilości pamięci. Maszyny wirtualne mające wyższą wagę pamięci mają pierwszeństwo przed maszynami wirtualnymi z niższymi wagami pamięci.

Uwagi:

  • Nie można używać jednocześnie pamięci dynamicznej i wirtualnej architektury NUMA. Maszyny wirtualne, które korzystają z pamięci dynamicznej, w praktyce mają tylko jeden wirtualny węzeł NUMA, a topologia NUMA nie jest udostępniana maszynie wirtualnej niezależnie od ustawień wirtualnej architektury NUMA.

  • Podczas instalowania lub uaktualniania systemu operacyjnego maszyny wirtualnej ilość pamięci, która jest dostępna dla maszyny wirtualnej podczas instalacji i procesu uaktualniania, jest wartością określoną jako Początkowa pamięć RAM. Nawet wtedy, gdy dla maszyny wirtualnej została skonfigurowana pamięć dynamiczna, maszyna wirtualna używa tylko ilości pamięci, która jest skonfigurowana w ustawieniu Początkowa pamięć RAM. Upewnij się, że wartość Początkowa pamięć RAM spełnia wymagania minimalnej ilości pamięci systemu operacyjnego podczas wykonywania procedur instalacji lub uaktualniania.

  • System operacyjny gościa działający na maszynie wirtualnej musi obsługiwać pamięć dynamiczną.

  • Złożone aplikacje bazy danych, takie jak program SQL Server lub Exchange Server, implementują własnych menedżerów pamięci. Zapoznaj się z dokumentacją obciążenia w celu określenia, czy obciążenie jest zgodne z pamięcią dynamiczną.

Informacje dodatkowe:

Omówienie pamięci dynamicznej

Zadanie 1c. Definiowanie procesora

Należy określić następujące ustawienia konfiguracji maszyny wirtualnej:

  • Określ liczbę procesorów wymaganych dla każdej maszyny wirtualnej. To często będzie taka sama wartość jak liczba procesorów wymaganych przez obciążenie. Funkcji Hyper-V obsługuje maksymalnie 64 procesory wirtualne na maszynie wirtualnej.

  • Określ kontrolę zasobów dla każdej maszyny wirtualnej. Można skonfigurować limity, aby zapewnić, że żadna maszyna wirtualna będzie mogła zająć całych zasobów procesora hosta wirtualizacji.

  • Zdefiniuj topologię architektury NUMA. Dla intensywnych obciążeń wykorzystujących architekturę NUMA można określić maksymalną liczbę procesorów, dozwoloną ilość pamięci w jednym wirtualnym węźle NUMA oraz dozwoloną maksymalną liczbę węzłów na pojedynczy procesor. Aby uzyskać więcej informacji, zobacz temat Omówienie wirtualnej architektury NUMA funkcji Hyper-V.

Uwaga: Nie można używać jednocześnie wirtualnej architektury NUMA i pamięci dynamicznej. Jeśli chcesz określić, czy ma być używana pamięć dynamiczna czy architektura NUMA, odpowiedz na następujące pytania. Jeśli w obu przypadkach odpowiedzi są twierdzące, włącz wirtualną architekturę NUMA i nie włączaj pamięci dynamicznej.

  1. Czy obciążenie działające na maszynie wirtualnej obsługuje architekturę NUMA?

  2. Czy maszyna wirtualna zajmie więcej zasobów, procesorów lub pamięci niż jest dostępne w jednym fizycznym węźle NUMA?

Zadanie 1d. Definiowanie obsługiwanych systemów operacyjnych

Należy zapewnić, że system operacyjny wymagany przez obciążenie jest obsługiwany jako system operacyjny gościa. Zapoznaj się z następującymi informacjami:

Uwaga: Funkcja Hyper-V udostępnia pakiet oprogramowania dla obsługiwanych systemów operacyjnych gościa, który zapewnia wyższą wydajność i lepszą integrację komputera fizycznego i maszyny wirtualnej. Ta kolekcja usług i sterowników oprogramowania jest nazywana usługami integracji. Aby zapewnić najwyższą wydajność maszyn wirtualnych, należy korzystać z najnowszej wersji usług integracji.

Licencjonowanie

Należy zapewnić, że systemy operacyjne gościa będą prawidłowo licencjonowane. W przypadku uruchamiania zwirtualizowanego środowiska zapoznaj się z dokumentacją dostawcy, aby sprawdzić wszelkie wymagania dotyczące licencjonowania.

Automatyczna aktywacja maszyny wirtualnej (AVMA) to funkcja, która została wprowadzona w systemie Windows Server 2012 R2. Funkcja AVMA wiąże aktywację maszyny wirtualnej z licencjonowanym serwerem wirtualizacji i aktywuje maszynę wirtualną podczas jej uruchamiania. Eliminuje to konieczność wprowadzania informacji dotyczących licencjonowania i aktywowania poszczególnych maszyn wirtualnych.

Funkcja AVMA wymaga, aby na hoście był uruchomiony system Windows Server 2012 R2 Datacenter i aby systemami operacyjnymi gościa maszyny wirtualnej były system Windows Server 2012 R2 Datacenter, system Windows Server 2012 R2 Standard lub system Windows Server 2012 R2 Essentials.

Uwaga: Funkcję AVMA należy skonfigurować na każdym hoście w sieci szkieletowej wirtualizacji.

Informacje dodatkowe:

Automatyczna aktywacja maszyny wirtualnej

Zadanie 1e. Definiowanie konwencji nazewnictwa maszyny wirtualnej

Istniejąca strategia nazewnictwa komputerów może opierać się na tym, gdzie fizycznie znajduje się komputer lub serwer. Maszyny wirtualne można przenosić z hosta do hosta, a nawet do różnych centrów danych, więc istniejąca strategia nazewnictwa może nie być w tym przypadku skuteczna. Aktualizacja istniejącej konwencji nazewnictwa pozwalająca wskazać, że komputer działa jako maszyna wirtualna, może pomóc określać lokalizację uruchomionej maszyny wirtualnej.

Zadanie 2. Definiowanie konfiguracji sieci

Każda maszyna wirtualna będzie odbierać lub wysyłać różne rodzaje ruchu w sieci. Każdy typ ruchu sieciowego będzie mieć różne wymagania w zakresie wydajności, dostępności i zabezpieczeń.

Maszyny wirtualne pierwszej generacji mogą mieć maksymalnie 12 kart sieciowych — 4 karty sieciowe starszej wersji i 8 wirtualnych kart sieciowych. Maszyny wirtualne drugiej generacji nie obsługują kart sieciowych starszej wersji, więc maksymalną obsługiwaną liczbą kart jest 8.

Zadanie 2a. Określanie typów ruchu sieciowego

Każda maszyna wirtualna będzie wysyłać i odbierać różne typy danych, takie jak:

  • Dane aplikacji

  • Kopie zapasowe danych

  • Komunikacja z komputerami klienckimi, serwerami lub usługami

  • Komunikacji wewnątrz klastra, jeśli obciążenie jest częścią klastra trybu failover maszyny wirtualnej gościa

  • Pomoc techniczna

  • Magazyn

Jeśli masz już istniejące sieci, które są przeznaczone dla różnych typów ruchu w sieci, możesz ich użyć do wykonania tego zadania. Jeśli definiujesz nowe projekty sieci do obsługi sieci szkieletowej wirtualizacji, dla poszczególnych maszyn wirtualnych można zdefiniować rodzaje ruchu sieciowego, które będą przez nie obsługiwane.

Zadanie 2b. Definiowanie opcji wydajności ruchu sieciowego

Każdy typ ruchu sieciowego ma wymagania minimalnego opóźnienia i maksymalnej przepustowości. W poniższej tabeli przedstawiono strategie, których można użyć, aby spełnić różne wymagania dotyczące wydajności sieci.

Strategia

Zalety

Wady

Rozdzielenie typów ruchu między różnymi fizycznymi kartami sieciowymi

Dzieli ruch, tak aby nie łączyć ze sobą różnych typów ruchu

  • Dla każdego typu ruchu sieciowego na hoście muszą być zainstalowane oddzielne fizyczne karty sieciowe.

  • Dodatkowy sprzęt jest wymagany dla wszystkich sieci, które wymagają wysokiej dostępności sieci.

  • Trudna w skalowaniu w przypadku dużej liczby sieci.

Zarządzanie przepustowością funkcji Hyper-V (Jakość usługi (QoS) funkcji Hyper-V)

  • Udostępnia możliwości sterowania jakością usługi (QoS) dla ruchu w sieci wirtualnej

  • Wymusza minimalną i maksymalną przepustowość dla przepływu danych, który jest identyfikowany przez numer portu przełącznika wirtualnego funkcji Hyper-V.

  • Skonfiguruj minimalną i maksymalną przepustowość dla portu przełącznika wirtualnego funkcji Hyper-V za pomocą poleceń cmdlet programu PowerShell lub Instrumentacji zarządzania Windows (WMI).

  • Skonfiguruj kilka kart sieci wirtualnej w funkcji Hyper-V i określ ustawienia QoS dla każdej wirtualnej karty sieciowej.

  • Udostępnia dodatek do zasad QoS dla sieci fizycznej.

  • Programowa i sprzętowa funkcja QoS nie powinna być używana w tym samym czasie dla tej samej karty sieciowej.

  • Należy poprawnie zaplanować zasady sieciowe funkcji QoS i funkcji Hyper-V, tak aby nie zastępowały one siebie wzajemnie.

  • Po ustawieniu trybu jakości usługi dla przełącznika wirtualnego nie można go zmienić.

  • Nie można przeprowadzić migracji maszyny wirtualnej na hosta z ustawionym na innym trybem QoS przełącznika wirtualnego.

  • Migracja zostanie zablokowana, gdy wartości bezwzględne, które skonfigurowano dla maszyny wirtualnej, nie będą mogły być zastosowane.

Wirtualizacja SR-IOV

  • Zapewnia najniższe opóźnienia sieci dla maszyny wirtualnej

  • Zapewnia najwyższe przepustowości we/wy sieci dla maszyny wirtualnej

  • Zmniejsza obciążenie procesora związane z obsługą sieci wirtualnej

  • Wirtualizację SR-IOV musi obsługiwać karta sieciowa, sterownik hosta i każda maszyna wirtualna, której przypisano funkcję wirtualną.

  • Wirtualne karty sieciowe z obsługą wirtualizacji SR-IOV nie mogą należeć do zespołu kart sieciowych na hoście.

  • Aby zapewnić wysoką dostępność sieci, na hoście muszą być zainstalowane co najmniej dwie karty sieciowe z obsługą wirtualizacji SR-IOV i na maszynie wirtualnej musi być skonfigurowany zespół kart sieciowych.

  • Wirtualizacji SR-IOV należy używać tylko do obsługi zaufanych obciążeń, ponieważ ruch pomija przełącznik funkcji Hyper-V i ma bezpośredni dostęp do fizycznej karty sieciowej.

  • Skonfigurowanie list ACL portu przełącznika wirtualnego, funkcji QoS dla funkcji Hyper-V, funkcji RouterGuard i funkcji DHCPGuard uniemożliwi użycie wirtualizacji SR-IOV.

  • Wirtualizacja SR-IOV nie jest obsługiwana w przypadku maszyn wirtualnych działających na platformie Azure.

Wirtualne skalowanie po stronie odbierającej

  • Obsługuje wirtualne skalowanie po stronie odbierającej, dzięki czemu maszyny wirtualne mogą rozpraszać przetwarzanie obciążenia sieci na kilka procesorów wirtualnych (vCPU) w celu zwiększenia przepływności sieci w obrębie maszyn wirtualnych

  • Zapewnia zgodność z funkcjami:

    • Zespół kart sieciowych

    • Migracja na żywo

    • Redukcja NVGRE

  • Wirtualne skalowanie po stronie odbierającej wymaga, aby fizyczna karta sieciowa obsługiwała funkcję kolejki maszyn wirtualnych (VMQ) i aby ta funkcja była włączona na hoście.

  • Niezgodne z wirtualną kartą sieciową z obsługą wirtualizacji SR-IOV.

  • Na maszynach wirtualnych musi być uruchomiony system Windows Server 2012 R2 lub Windows 8.1.

  • Domyślnie wyłączona, jeśli karta VMQ jest wolniejsza niż 10 GB/s.

Duże ramki

  • Umożliwia przesłanie większych ilości danych w każdej transakcji sieci Ethernet i zmniejsza liczbę ramek, które muszą zostać przesłane

  • Zwykle używane do komunikacji z magazynem, ale mogą być używane we wszystkich typach komunikacji

  • Zmniejsza obciążenie maszyny wirtualnej, urządzeń sieciowych i serwera końcowego, do którego są przesyłane dane

  • Skonfigurowane do komunikacji w obrębie centrum danych, gdzie można kontrolować ustawienie maksymalnej porcji przesyłania (MTU) przy wszystkich przeskokach

  • Zapewnia nieco niższe prawdopodobieństwo wykrycia błędu.

  • Poszczególne urządzenia sieciowe na ścieżce muszą obsługiwać duże ramki i muszą być skonfigurowane z użyciem tego samego lub wyższego ustawienia MTU. Użyj polecenia Ping, aby sprawdzić ustawienia MTU w obrębie całej ścieżki.

  • Jeśli jeden przeskok na ścieżce nie obsługuje dużych ramek lub jest skonfigurowany z mniejszym ustawieniem MTU, pakiety zostaną usunięte.

Zadanie 2c. Definiowanie opcji dostępności ruchu sieciowego

Funkcja tworzenia zespołu kart sieciowych, nazywana również równoważeniem obciążenia i trybem failover (LBFO), pozwala na umieszczenie w zespole wielu kart sieciowych na potrzeby trybu failover i agregacji ruchu. Zapewnia to dostępność połączenia w przypadku awarii składnika sieci. Zespoły kart sieciowych zwykle są skonfigurowane na hoście, a po utworzeniu przełącznika wirtualnego jest on wiązany z zespołem kart sieciowych.

Wdrożone przełączniki sieciowe określają tryb działania zespołu kart sieciowych. Ustawienia domyślne w systemie Windows Server 2012 R2 powinny być wystarczające w większości wdrożeń.

Uwaga: Wirtualizacja SR-IOV nie jest zgodna z zespołami kart sieciowych. Aby uzyskać więcej informacji na temat wirtualizacji SR-IOV, zobacz część Zadanie 2b. Definiowanie opcji wydajności ruchu sieciowego.

Informacje dodatkowe:

Omówienie zespołów kart sieciowych

Zadanie 2d. Definiowanie opcji zabezpieczeń ruchu sieciowego

Każdy typ ruchu sieciowego może mieć różne wymagania w zakresie zabezpieczeń, na przykład wymagania dotyczące izolacji i szyfrowania. W poniższej tabeli opisano strategie, których można użyć na potrzeby spełnienia różnych wymagań w zakresie zabezpieczeń.

Strategia

Zalety

Wady

Rozdzielenie między różnymi kartami sieciowymi

Oddziela ruch od innego ruchu sieciowego

Powoduje trudności w kontekście skalowania. Im więcej masz sieci, tym więcej potrzebujesz kart sieciowych zainstalowanych na hoście i zarządzanych na nim.

Protokół IPsec z odciążaniem zadań protokołu IPsec

  • Obsługuje odciążanie protokołu IPsec na potrzeby szyfrowania ruchu sieciowego do i z maszyn wirtualnych za pomocą funkcji Hyper-V

  • Szyfruje ruch transmitowany przez sieć

  • Konfiguracja jest złożona

  • Może utrudniać rozwiązywanie problemów, ponieważ nie można podejrzeć ruchu do i z hostów i maszyn wirtualnych

  • Zwiększa użycie procesora, gdy fizyczne karty sieciowe na hoście nie obsługują odciążania protokołu IPsec

Znakowanie sieci VLAN

  • Używane przez większość przedsiębiorstw

  • Zgodne z zasadami QoS

  • Obsługuje Prywatne sieci VLAN

  • Obsługuje Tryb magistrali sieci VLAN na potrzeby maszyn wirtualnych

  • Zmniejsza liczbę kart fizycznych, które muszą zostać zainstalowane na hoście

  • Ograniczone do 4094 sieci VLAN

  • Wymagane jest skonfigurowanie przełączników, hostów i maszyn wirtualnych

  • Niepoprawne zmiany ustawień konfiguracji sieci VLAN mogą spowodować problemy z siecią specyficzne dla serwera lub całego systemu

Wirtualizacja sieci funkcji Hyper-V

  • Pozwala na elastyczne rozmieszczanie obciążenia, w tym izolację sieci i ponowne użycie adresów IP bez sieci VLAN

  • Umożliwia łatwiejsze przeniesienia obciążeń do chmury

  • Obsługuje migrację na żywo w podsieci bez konieczności wprowadzania nowego adresu IP na nowym serwerze

  • Umożliwia stosowanie rozwiązań sieciowych dostępnych dla wielu dzierżawców

  • Upraszcza projektowanie sieci i zwiększa efektywność użycia zasobów sieciowych i serwera. Nieelastyczność sieci VLAN związana z zależnością lokalizacji maszyny wirtualnej w infrastrukturze sieci fizycznej powoduje zwykle nadmierne przydzielanie zasobów i niskie ich wykorzystanie.

  • Zarządzanie wirtualizacją sieci funkcji Hyper-V wymaga programu System Center 2012 R2 — Virtual Machine Manager lub rozwiązania do zarządzania firmy innej niż Microsoft.

  • Brama wirtualizacji sieci funkcji Hyper-V jest wymagana w celu umożliwienia komunikacji poza siecią wirtualną.

Funkcja DHCPGuard

  • Blokuje maszynom wirtualnym możliwość wysyłania anonsów protokołu DHCP za pośrednictwem sieci wirtualnej

  • Konfigurowana dla poszczególnych kart sieci wirtualnej

  • Nie uniemożliwia maszynie wirtualnej uzyskiwania adresu z serwera DHCP

Minimalny wpływ na wydajność

Funkcja RouterGuard

  • Blokuje następujące pakiety:

    • ICMPv4 Type 5 (komunikat przekierowania)

    • ICMPv4 Type 9 (anons routera)

    • ICMPv6 Type 134 (anons routera)

    • ICMPv6 Type 137 (komunikat przekierowania)

  • Konfigurowana dla poszczególnych kart sieci wirtualnej

Minimalny wpływ na wydajność

Decyzje projektowe — pobierz Arkusze Przewodnika po zagadnieniach dotyczących projektu sieci szkieletowej wirtualizacji i zmień przykładowe dane w arkuszu Virtual machine configs. (Konfiguracje maszyny wirtualnej), aby zebrać decyzje podjęte w poprzednich zadaniach tego kroku. W przypadku kolejnych decyzji projektowych ten dokument odwołuje się do określonych arkuszy wspomnianego przewodnika, w których można wprowadzać dane.

Zadanie 2e. Definiowanie wirtualnych kart sieciowych

Określenie typów ruchu wymaganego przez maszyny wirtualne, oprócz wydajności, dostępności i strategii zabezpieczeń ruchu sieciowego, pozwala stwierdzić, ile wirtualnych kart sieciowych jest wymaganych dla każdej maszyny wirtualnej.

Wirtualna karta sieciowa jest podłączona do przełącznika wirtualnego. Istnieją trzy typy przełączników wirtualnych:

  • Zewnętrzny przełącznik wirtualny

  • Wewnętrzny przełącznik wirtualny

  • Prywatny przełącznik wirtualny

Zewnętrzny przełącznik wirtualny udostępnia maszynie wirtualnej dostęp do sieci fizycznej za pośrednictwem karty sieciowej skojarzonej z przełącznikiem wirtualnym, z którym nawiązuje ona połączenie. Fizyczną kartę sieciową na hoście można skojarzyć tylko z jednym przełącznikiem zewnętrznym.

Maszyny wirtualne pierwszej generacji mogą mieć maksymalnie 12 kart sieciowych — 4 karty sieciowe starszej wersji i 8 wirtualnych kart sieciowych. Maszyny wirtualne drugiej generacji nie obsługują kart sieciowych starszej wersji, więc maksymalna obsługiwana liczba kart to 8. Wirtualna karta sieciowa może mieć przypisany jeden identyfikator sieci VLAN, o ile nie jest skonfigurowana w trybie magistrali.

Jeśli chcesz przypisać ruch maszyny wirtualnej do różnych sieci VLAN, karta sieciowa, która obsługuje sieci VLAN, musi być zainstalowana na hoście i przypisana do przełącznika wirtualnego. Identyfikator sieci VLAN dla maszyny wirtualnej można ustawić we właściwościach maszyny wirtualnej. Identyfikator sieci VLAN, który jest ustawiony w przełączniku wirtualnym, jest identyfikatorem sieci VLAN, który zostanie przypisany do wirtualnej karty sieciowej przypisanej do systemu operacyjnego hosta.

Uwaga: W przypadku gdy maszyna wirtualna wymaga dostępu do większej liczby sieci niż liczba dostępnych kart sieciowych, dla karty sieciowej maszyny wirtualnej można włączyć tryb magistrali sieci VLAN za pomocą polecenia cmdlet środowiska Windows PowerShell Set-VMNetworkAdapterVlan.

Zadanie 2f. Definiowanie strategii adresowania IP

Należy określić, jak adresy IP będą przypisywane do maszyn wirtualnych. Jeśli to zadanie nie zostanie wykonane, mogą wystąpić konflikty adresów IP, które mogą mieć wpływ na inne maszyny wirtualne i fizyczne urządzenia w sieci.

Ponadto nieautoryzowane serwery DHCP mogą destabilizować infrastrukturę sieci i mogą być szczególnie trudne do wykrycia, gdy serwer działa jako maszyna wirtualna. Sieć można chronić przed nieautoryzowanymi serwerami DHCP działającymi na maszynach wirtualnych przez włączenie funkcji DHCPGuard w ustawieniach maszyn wirtualnych. Funkcja DHCPGuard chroni przed powodującymi destabilizację maszynami wirtualnymi, które anonsują się jako serwery DHCP i mogą być źródłem ataków typu man-in-the-middle.

Informacje dodatkowe:

Omówienie protokołu Dynamic Host Configuration Protocol (DHCP)

Funkcja DHCPGuard

Zarządzanie adresami IP (IPAM) — omówienie

Zadanie 3. Definiowanie konfiguracji magazynu

Aby określić konfigurację magazynu, należy zdefiniować typy danych, które będą przechowywane przez maszyny wirtualne, i potrzebne typy magazynu.

Zadanie 3a. Definiowanie typów danych

Poniższa tabela zawiera listę typów danych przechowywanych przez maszyny wirtualne oraz miejsc, w których te typy danych są zwykle przechowywane.

Typ danych

Lokalizacja magazynu dla typu danych

Pliki systemu operacyjnego

W pliku wirtualnego dysku twardego, który jest przechowywany przez hosta wirtualizacji. Uwagi dotyczące magazynu dla hosta wirtualizacji są opisane bardziej szczegółowo w sekcji Krok 4. Planowanie hostów serwerów wirtualizacji poniżej.

Plik stronicowania systemu Windows

Często przechowywany w tej samej lokalizacji co pliki systemu operacyjnego.

Pliki programów aplikacji

Często przechowywane w tej samej lokalizacji co pliki systemu operacyjnego.

Dane konfiguracji aplikacji

Często przechowywane w tej samej lokalizacji co pliki systemu operacyjnego.

Dane aplikacji

Często przechowywane w innej lokalizacji niż pliki aplikacji i systemu operacyjnego. Na przykład jeśli aplikacja to aplikacja bazy danych, pliki bazy danych są często przechowywane na wysoce dostępnych, wydajnych, sieciowych pamięciach masowych w innej lokalizacji niż pliki aplikacji lub systemu operacyjnego.

Udostępnione woluminy klastra (CSV) i monitor dysku (wymagane w przypadku klastrowania maszyn wirtualnych gościa)

Często przechowywane w innej lokalizacji niż pliki aplikacji i systemu operacyjnego.

  • Magazyn CSV to miejsce, w którym aplikacje działające w klastrze przechowują dane, tak aby były one dostępne dla wszystkich węzłów w klastrze.

  • Monitor dysku to dysk w magazynie klastra, który wyznaczono do przechowywania kopii bazy danych konfiguracji klastra. Klaster trybu failover zawiera dysk monitora tylko wtedy, gdy dysk jest określony jako część konfiguracji kworum.

Pliki zrzutu awaryjnego

Często przechowywane w tej samej lokalizacji co pliki systemu operacyjnego.

Zadanie 3b. Definiowanie typów magazynu

Poniższa tabela zawiera typy magazynu, które mogą być używane na potrzeby typów danych zdefiniowanych sekcji Krok 2. Zadanie 2a. powyżej.

Typ magazynu

Kwestie do rozważenia

Wirtualny dysk IDE

Maszyny wirtualne pierwszej generacji:

  • 2 kontrolery IDE; każdy kontroler obsługuje maksymalnie 2 urządzenia IDE; maksymalnie do 4 urządzeń IDE.

  • Dysk startowy, nazywany również dyskiem rozruchowym, musi być dołączony do jednego z urządzeń IDE jako wirtualny dysk twardy lub dysk fizyczny.

Maszyny wirtualne drugiej generacji nie obsługują urządzeń IDE.

Wirtualne urządzenie SCSI

  • Obsługiwane są 4 wirtualne kontrolery SCSI; każdy kontroler obsługuje maksymalnie 64 urządzenia; maksymalnie do 256 urządzeń SCSI.

  • Ponieważ maszyny wirtualne drugiej generacji obsługują tylko dyski SCSI, obsługują one dyski rozruchowe SCSI.

Inicjator iSCSI na maszynie wirtualnej

  • Możliwości użycia magazynu w sieci SAN bez instalowania karty Fibre Channel na hoście.

  • Nie można użyć na potrzeby dysku rozruchowego.

  • Użyj zasad QoS w sieci w celu zapewnienia dostępności przepustowości dla magazynu i innego ruchu sieciowego.

  • Niezgodne z funkcją Hyper-V Replica. W przypadku korzystania z magazynu zaplecza w sieci SAN użyj opcji replikacji sieci SAN dostarczanych przez dostawcę magazynu.

Wirtualny protokół Fibre Channel

  • Wymaga co najmniej jednej karty magistrali hosta Fibre Channel (HBA) lub konwergentnej karty sieciowej Fibre Channel przez Ethernet (FCoE) na każdym hoście, który będzie hostował maszyny wirtualne z wirtualnymi kartami Fibre Channel.

  • Sterowniki kart HBA i FCoE muszą obsługiwać wirtualny protokół Fibre Channel.

  • Sieć SAN z obsługą technologii NPIV.

  • Wymaga dodatkowej konfiguracji do obsługi migracji na żywo. Aby uzyskać więcej informacji o migracji na żywo i wirtualnym protokole Fibre Channel, zobacz Omówienie wirtualnego protokołu Fibre Channel funkcji Hyper-V.

  • Niezgodne z funkcją Hyper-V Replica. W przypadku korzystania z magazynu w sieci SAN użyj opcji replikacji sieci SAN dostarczanych przez dostawcę magazynu.

  • Maszyna wirtualna może mieć maksymalnie cztery porty wirtualne.

  • Jednostek LUN wirtualnego protokołu Fibre Channel nie można używać jako nośnika rozruchowego maszyny wirtualnej.

Protokół SMB 3.0

Zapewnia dostęp do plików przechowywanych w udziałach protokołu SMB 3.0 z maszyny wirtualnej.

Zadanie 3c. Definiowanie formatu i typu wirtualnego dysku twardego

Jeśli jest używany typ magazynu wirtualnego dysku twardego, należy wybrać format wirtualnego dysku twardego do użycia spośród opcji wymienionych w poniższej tabeli.

Format dysku

Zalety

Wady

VHD

  • Obsługiwany przez wszystkie wersje funkcji Hyper-V

  • Obsługiwany przez implementacje lokalne i na platformie Azure

  • Maksymalna pojemność magazynu to 2040 GB

  • Maksymalna pojemność wirtualnego dysku twardego obsługiwanego na platformie Azure to 1 TB

  • Nieobsługiwany na maszynach wirtualnych drugiej generacji

VHDX

  • Maksymalna pojemność magazynu to 64 TB

  • Ochrona przed uszkodzeniem danych podczas awarii zasilania

  • Ulepszone wyrównanie formatu wirtualnego dysku twardego działające sprawnie w przypadku dysków z dużymi sektorami

  • Wirtualny dysk z sektorami logicznymi o wielkości 4 KB umożliwia zwiększenie wydajności, gdy jest używany przez aplikacje i obciążenia, które są zaprojektowane do działania z sektorami o wielkości 4 KB

  • Może być używany jako magazyn udostępniony w przypadku maszyn wirtualnych, które wymagają klastra trybu failover

  • Aktualnie nieobsługiwany przez maszyny wirtualne na platformie Azure

  • Nie można go używać z funkcją Hyper-V wcześniejszą niż dostępna w systemie Windows Server 2012

Udostępniony dysk VHDX

Używany na potrzeby udostępnionego magazynu klastrów maszyny wirtualnej gościa

  • Wymaga na hoście systemu Windows Server 2012 R2 z funkcją Hyper-V

  • Systemy operacyjne gościa obsługiwane przez klastry gościa, które korzystają udostępnionego wirtualnego dysku twardego, obejmują systemy Windows Server 2012 R2 i Windows Server 2012. W celu obsługi systemu Windows Server 2012 jako systemu operacyjnego gościa w ramach gościa (maszyny wirtualnej) muszą być zainstalowane usługi integracji systemu Windows Server 2012 R2.

  • Następujące funkcje nie są zgodne z udostępnionym dyskiem VHDX:

    • Hyper-V Replica

    • Zmienianie rozmiaru wirtualnego dysku twardego, gdy skonfigurowane maszyny wirtualne są uruchomione

    • Migracja magazynu na żywo

    • Wykonywanie kopii zapasowych na poziomie hosta usługi VSS. Wykonywanie kopii zapasowych na poziomie gościa należy wykonać przy użyciu tej samej metody, która byłaby używana w przypadku klastra działającego na serwerach fizycznych.

    • Punkty kontrolne maszyny wirtualnej

    • Usługa QoS magazynu

Następnie wybierz typ dysku, który będzie używany, z opcji wymienionych w poniższej tabeli.

Typ dysku

Zalety

Wady

Stały

  • Mniej podatny na fragmentację od innych typów dysku

  • Mniejszy narzut związany z użyciem procesora od innych typów dysku

  • Po utworzeniu pliku VHD kwestia dostępności wolnego miejsca na dysku jest mniej istotna niż w przypadku innych typów dysku

  • Obsługiwany przez implementacje lokalne i na platformie Azure

  • Utworzony wirtualny dysk twardy wymaga zajęcia całego miejsca, które ma być dostępne, nawet jeśli maszyna wirtualna nie używa całego miejsca.

  • Wirtualny dysk twardy nie zostanie utworzony, jeśli nie będzie dostępna wystarczająca ilość wolnego miejsca.

  • Niewykorzystane miejsce na wirtualnym dysku twardym nie może zostać przypisane do innych wirtualnych dysków twardych.

Dynamiczny

Używa tylko potrzebnej ilości miejsca, a nie całego przypisanego mu miejsca

  • Nie jest obecnie obsługiwany przez platformę Azure, ale dyski dynamiczne można przekonwertować na dyski stałe

  • W przypadku użycia dynamicznych dysków należy monitorować wolne miejsce. Jeśli ilość miejsca na dysku nie jest dostępna na potrzeby powiększania dynamicznego wirtualnego dysku twardego, maszyna wirtualna znajdzie się w krytycznym wstrzymanym stanie.

  • Plik wirtualnego dysku twardego może ulec fragmentacji

  • Nieco większe zużycie procesora w czasie odczytu i zapisu w porównaniu do dysku stałego

Różnicowy

W przypadku użycia wielu dysków różnicowych z tym samym elementem nadrzędnym można zużyć mniej miejsca na dysku

  • Nie jest obecnie obsługiwany przez platformę Azure

  • Zmiany wprowadzone na dysku nadrzędnym mogą spowodować niespójność danych na dysku podrzędnym

  • Nieco większe zużycie procesora w czasie odczytu i zapisu w przypadku intensywnych obciążeń we/wy

Podczas wybierania typu i formatu pliku wirtualnego dysku twardego należy wziąć pod uwagę poniższe kwestie:

  • W przypadku użycia formatu VHDX można użyć dysku dynamicznego, ponieważ zapewnia on gwarancje niezawodności (oprócz oszczędności miejsca, która jest skutkiem przydzielania miejsca tylko wtedy, gdy istnieje taka potrzeba).

  • Bez względu na format można również użyć dysku stałego, gdy magazyn w woluminie hostingu nie jest aktywnie monitorowany. Zapewnia to, że będzie dostępna wystarczająca ilość miejsca na dysku, gdy plik VHD będzie zapełniany w czasie wykonywania.

  • Użycie punktów kontrolnych (wcześniej nazywanych migawkami) maszyny wirtualnej powoduje utworzenie różnicowego dysku twardego przechowującego zapisy na dyskach. Wystarczy, że będzie używanych tylko kilka punktów kontrolnych, a użycie procesora CPU związane z we/wy magazynu wrośnie, ale nie musi to znacznie wpłynąć na wydajność (z wyjątkiem intensywnych obciążeń we/wy serwera).

    Jednak długie łańcuchy punktów kontrolnych mogą znacznie wpłynąć na wydajność, ponieważ odczyty z wirtualnych dysków twardych mogą wymagać wykonania sprawdzania dla żądanych bloków na wielu dyskach różnicowych. Utrzymywanie krótkich łańcuchów punktów kontrolnych jest bardzo istotne pod kątem zapewnienia wysokiej wydajności we/wy dysku.

Zadanie 3d. Definiowanie typu magazynu do użycia w przypadku każdego typu danych

Po zdefiniowaniu typów danych i typów magazynu przechowywanych przez maszyny wirtualne można określić typy magazynu oraz formaty i typy wirtualnego dysku używane dla każdego typu danych.

Zadanie 4. Definiowanie strategii dostępności maszyny wirtualnej

Administratorzy sieci szkieletowej są odpowiedzialni za zapewnienie dostępności sieci szkieletowej, a administratorzy maszyn wirtualnych są odpowiedzialni za dostępność ich maszyn wirtualnych. W związku z tym administrator maszyny wirtualnej musi rozumieć funkcje sieci szkieletowej, aby móc zaprojektować strategię dostępności odpowiednią dla jego maszyn wirtualnych.

W poniższej tabeli przeanalizowano trzy strategie dostępności dla maszyn wirtualnych działających z obciążeniami o cechach zdefiniowanych w sekcji Krok 1. Zadanie 2. powyżej. Zwykle administrator sieci szkieletowej informuje administratorów maszyn wirtualnych z wyprzedzeniem o planowanych działaniach wymagających przestoju sieci szkieletowej, aby administratorzy maszyn wirtualnych mogli się do tego przygotować. Istnieją trzy strategie dostępności:

  • Bezstanowa

  • Stanowa

  • Stanowa z udostępnianiem

Bezstanowa

Opcja

Kwestie do rozważenia

Migracja maszyny wirtualnej na żywo na poziomie hosta

  • Jeśli host musi zostać wyłączony w celu wykonania planowanej konserwacji, maszyny wirtualne można zmigrować na działającego hosta bez przestojów maszyn wirtualnych. Aby uzyskać więcej informacji o kwestiach związanych z hostem, zobacz Zadanie 5. Definiowanie strategii dostępności hosta wirtualizacji serwera poniżej.

  • Jeśli maszyny wirtualne nie są przechowywane w magazynie, który jest dostępny dla obu hostów, podczas migracji na żywo musisz przenieść magazyn maszyny wirtualnej.

  • Jeśli host nieoczekiwanie ulegnie awarii, wszystkie maszyny wirtualne uruchomione na hoście przestaną działać. Wówczas musisz uruchomić maszyny wirtualne obsługujące te same obciążenia na innym hoście.

Klastry z równoważeniem obciążenia (z użyciem równoważenia obciążenia sieciowego systemu Windows)

  • Wymaga, aby administrator maszyny wirtualnej miał do dyspozycji przynajmniej dwie maszyny wirtualne obsługujące to samo obciążenie i działające na różnych hostach.

  • Funkcja równoważenia obciążenia sieciowego (NLB) jest konfigurowana na maszynach wirtualnych przez ich administratora.

  • Wymaga ona przypisania statycznych adresów do kart sieciowych. Przypisanie adresu za pomocą protokołu DHCP nie jest obsługiwane.

  • Administrator maszyny wirtualnej musi współpracować z administratorem sieci szkieletowej w celu uzyskania adresów IP na potrzeby wirtualnego adresu IP funkcji równoważenia obciążenia sieciowego i utworzenia wymaganego wpisu DNS.

  • Należy włączyć fałszowanie adresów MAC dla sieci wirtualnej używanej przez funkcję równoważenia obciążenia sieciowego w systemach gości. Można to zrobić w ustawieniach karty sieciowej na każdej maszynie wirtualnej będącej elementem klastra równoważenia obciążenia sieciowego w roli węzła. Tworzenie klastrów funkcji NLB, dodawanie węzłów i aktualizowanie konfiguracji klastra funkcji NLB jest możliwe bez wykonywania ponownego rozruchu maszyn wirtualnych.

  • Wszystkie maszyny wirtualne, które są elementami klastra równoważenia obciążenia sieciowego, muszą znajdować się w tej samej podsieci.

  • W celu zapewnienia dostępności obciążenia (nawet w przypadku awarii hosta) administrator sieci szkieletowej maszyny wirtualnej musi zapewnić, że maszyny wirtualne będą uruchomione na różnych hostach.

Klastry z równoważeniem obciążenia (z użyciem sprzętowego rozwiązania do równoważenia obciążenia)

  • Ta możliwość musi być dostępna na poziomie sieci szkieletowej, a administratorzy sieci szkieletowej muszą skonfigurować klastry z równoważeniem obciążenia dla maszyn wirtualnych, dla których jest to wymagane. Alternatywnie mogą oni dać administratorom maszyn wirtualnych uprawnienia do konfigurowania za pośrednictwem portalu zarządzania rozwiązania sprzętowego równoważenia obciążenia.

  • Wymaga, aby administrator maszyny wirtualnej miał do dyspozycji przynajmniej dwie maszyny wirtualne obsługujące to samo obciążenie w sieci szkieletowej.

  • Aby uzyskać dodatkowe informacje, przejrzyj dokumentację produktu dostawcy sprzętu.

Stanowa

Opcja

Kwestie do rozważenia

Klaster funkcji Hyper-V

  • Wymaga wykonania konfiguracji klastra trybu failover.

  • Wymaga magazynu udostępnionego dla wszystkich węzłów w klastrze na potrzeby plików woluminu CSV. Może to być magazyn sieci SAN lub udział plików protokołu SMB 3.0.

  • Gdy klaster wykryje problem z hostem lub funkcja Hyper-V wykryje problem z siecią lub magazynem maszyny wirtualnej, maszynę wirtualną można przenieść na innego hosta. Maszyna wirtualna nadal działa podczas przenoszenia.

  • W przypadku losowej awarii hosta, maszyny wirtualne, które zostały uruchomione na tym hoście, można uruchomić na innych węzłach w klastrze. Krytyczne maszyny wirtualne można skonfigurować do automatycznego uruchamiania. Ogranicza to czas przestoju w przypadku wystąpienia losowej awarii hosta.

  • Aktualizacje typu cluster-aware pozwalają stosować na hostach poprawki bez zakłócania pracy ich maszyn wirtualnych.

  • Skonfiguruj antykoligację maszyny wirtualnej, aby zapobiegać uruchamianiu jej wielu wystąpień w tym samym węźle. Na przykład jeśli korzystasz z dwóch serwerów sieci Web, które świadczą usług frontonu dla aplikacji zaplecza, nie chcesz, aby oba serwery sieci Web były uruchomione w tym samym węźle.

  • Węzeł może zostać wprowadzony w tryb konserwacji, a usługa klastrowania trybu failover przeniesie uruchomione maszyny wirtualne do innego węzła w klastrze. Gdy nie będzie już żadnych uruchomionych maszyn wirtualnych w węźle, będzie można wykonać wymagane działania konserwacyjne.

    Klaster trybu failover nie będzie przenosił maszyn wirtualnych do węzła w trybie konserwacji. Przed wprowadzeniem węzła w tryb konserwacji upewnij się, że jest dostępna wystarczająca pojemność na innych węzłach klastra funkcji Hyper-V na potrzeby uruchomienia istniejących maszyn wirtualnych i wypełnienia umów SLA dla klientów.

Stanowa z udostępnianiem

Podczas uruchamiania obciążeń wykorzystujących możliwości klastra można zapewnić dodatkową warstwę dostępności przez włączenie usługi klastrowania gościa maszyny wirtualnej. Usługa klastrowania gościa obsługuje wysoką dostępność dla obciążeń na maszynie wirtualnej. Chroni ona obciążenia działające na maszynach wirtualnych nawet w przypadku awarii hosta, na którym działa maszyna wirtualna. Ponieważ obciążenie było chronione przez klaster trybu failover, maszyna wirtualna w innym węźle może automatycznie przejąć obsługę obciążenia.

Opcja

Kwestie do rozważenia

Usługa klastrowania gościa maszyny wirtualnej

  • Wymaga magazynu udostępnionego, który jest jednocześnie dostępny dla co najmniej dwóch maszyn wirtualnych. Obsługiwane typy połączeń obejmują:

    • Protokół iSCSI

    • Wirtualny protokół Fibre Channel

    • Udostępniony dysk VHDX

  • Skonfiguruj antykoligację maszyny wirtualnej, aby zapobiegać uruchamianiu jej wielu wystąpień w tym samym węźle klastra.

  • Usługa klastrowania gościa maszyny wirtualnej nie jest obsługiwana przez platformę Azure.

  • Następujące funkcje nie są zgodne z udostępnionym dyskiem VHDX:

    • Hyper-V Replica

    • Zmienianie rozmiaru wirtualnego dysku twardego, gdy skonfigurowane maszyny wirtualne są uruchomione

    • Migracja magazynu na żywo

    • Wykonywanie kopii zapasowych na poziomie hosta usługi VSS. Wykonywanie kopii zapasowych na poziomie gościa należy wykonać przy użyciu tej samej metody, która byłaby używana w przypadku klastra działającego na serwerach fizycznych.

    • Punkty kontrolne maszyny wirtualnej

    • Usługa QoS magazynu

Informacje dodatkowe:

Wdrażanie klastra gościa przy użyciu udostępnionego wirtualnego dysku twardego

Używanie klastrowania gościa w celu zapewnienia wysokiej dostępności

Odzyskiwanie po awarii

W przypadku wystąpienia awarii — jak szybko możesz zapewnić, aby wymagane obciążenia stały się znowu dostępne dla klientów? W niektórych przypadkach limit czasu może wynosić tylko kilka minut.

Replikacja danych z głównego centrum danych do centrów odzyskiwania po awarii jest wymagana, aby zapewnić, że będą replikowane najbardziej aktualne dane (przy dopuszczalnej utracie danych z powodu opóźnienia). W przypadku uruchamiania obciążeń na maszynach wirtualnych można replikować wirtualne dyski twarde i pliki konfiguracyjne maszyn wirtualnych z lokacji podstawowej do lokacji repliki.

W poniższej tabeli porównano opcje odzyskiwania po awarii.

Opcja

Kwestie do rozważenia

Hyper-V Replica

  • Ekonomiczna; nie istnieje potrzeba duplikowania sprzętu hostów i magazynu w lokacjach odzyskiwania po awarii.

  • Narzędzia do zarządzania replikacją są takie same jak do zarządzania maszynami wirtualnymi.

  • Interwały replikacji można skonfigurować zgodnie z wymaganiami utraty danych.

  • Możliwe jest skonfigurowanie różnych adresów IP do użycia w lokacji repliki.

  • Minimalny wpływ na infrastrukturę sieci.

  • Nieobsługiwana w przypadku maszyn wirtualnych skonfigurowanych z dyskami fizycznymi (nazywanymi również dyskami przekazującymi), magazynem wirtualnego protokołu Fibre Channel lub udostępnionymi wirtualnymi dyskami twardymi.

  • Funkcji Hyper-V Replica nie należy stosować jako zamiennika magazynu kopii zapasowych danych i funkcji odzyskiwania.

  • W przypadku skonfigurowania dodatkowych punktów odzyskiwania będzie wymagany dodatkowy magazyn w lokacji repliki.

  • Częstotliwość replikacji jest czynnikiem decydującym o ilości utraconych danych.

  • W przypadku skonfigurowania maszyny wirtualnej wprowadzającej dużą ilość zmian przy krótkim interwale będzie wymagany dodatkowy magazyn w lokacji repliki.

Kopia zapasowa

  • Pełną kopię zapasowej maszyny wirtualnej należy wykonywać przy użyciu rozwiązania do tworzenia kopii zapasowych obsługiwanego przez funkcję Hyper-V, takiego jak System Center Data Protection Manager.

  • Ilość utraconych danych będzie określana przez okres czasu od wykonania ostatniej kopii zapasowej.

  • Nie można wykonać kopii zapasowej na poziomie hosta maszyn wirtualnych skonfigurowanych z udostępnionym dyskiem VHDX. Należy zainstalować agenta kopii zapasowej na maszynie wirtualnej i wykonać kopię zapasową jej danych.

Uwagi:

  • Aby centralnie zarządzać replikacją oraz automatyzować ją w programie System Center 2012 R2 — Virtual Machine Manager, należy użyć usługi Microsoft Azure Site Recovery.

  • Aby replikować maszyny wirtualne do platformy Azure przy użyciu usługi Microsoft Azure Site Recovery. Funkcja replikacji maszyny wirtualnej do platformy Azure jest obecnie w wersji Preview.

Informacje dodatkowe:

Usługa Microsoft Azure Site Recovery

Ważne:

  • Przejdź do strony Planowanie pojemności funkcji Hyper-V Replica, aby zrozumieć wpływ funkcji Hyper-V Replica na infrastrukturę sieci, użycie procesora na serwerze podstawowym, repliki i rozszerzonym serwerze repliki, użycie pamięci na serwerze podstawowym i repliki oraz operacje we/wy dysku na serwerze podstawowym, repliki i rozszerzonym serwerze repliki w kontekście istniejących maszyn wirtualnych.

  • Obciążenie może mieć wbudowane rozwiązanie do odtwarzania po awarii, na przykład Grupy dostępności AlwaysOn serwera SQL Server. Zapoznaj się z dokumentacją obciążenia, aby potwierdzić, że funkcja Hyper-V Replica jest obsługiwana przez obciążenie.

Informacje dodatkowe:

Hyper-V Replica

System Center Data Protection Manager

Zadanie 5. Definiowanie typów maszyny wirtualnej

Do obsługi obciążeń w danym środowisku można utworzyć maszyny wirtualne z unikatowymi wymaganiami zasobów w celu spełnienia określonych potrzeb obciążenia. Możesz też zastosować podejście podobne do stosowanego przez publicznych dostawców usług hostowania maszyn wirtualnych (inna nazwa tych usług to „infrastruktura jako usługa” — IaaS).

Zobacz temat Rozmiary maszyn wirtualnych i usług w chmurze na platformie Azure, aby uzyskać opis konfiguracji maszyn wirtualnych oferowanych przez usługi infrastruktury platformy Microsoft Azure. W momencie opracowywania tego tekstu usługi obsługują 13 konfiguracji maszyn wirtualnych, każda z różną kombinacją możliwości procesora, wielkości pamięci, pojemności magazynu i operacji we/wy.

Decyzja projektowa — decyzje podejmowane we wszystkich zadaniach tego kroku można wpisać w arkuszach Virtual machine configs. (Konfiguracje maszyn wirtualnych).

Krok 3. Planowanie grup hostów wirtualizacji serwera

Przed zdefiniowaniem poszczególnych serwerów hostów można najpierw zdefiniować grupy hostów. Grupy hostów to po prostu nazwane zbiory serwerów, które są zgrupowane w celu spełnienia wspólnych celów; opisano je w pozostałych zadaniach tego kroku.

Zadanie 1. Definiowanie lokalizacji fizycznych

Prawdopodobnie będziesz grupować zasoby sprzętowe i zarządzać nimi na podstawie fizycznej lokalizacji, więc najpierw należy zdefiniować lokalizacje zawierające zasoby sieci szkieletowej w ramach danej organizacji.

Zadanie 2. Definiowanie typów grup hostów

Grupy hostów można tworzyć z dowolnych przyczyn, na przykład przyczyną może być hostowanie obciążeń z określonymi:

  • Cechami obciążenia

  • Wymaganiami zasobów

  • Wymaganiami dotyczącymi jakości usługi

Na poniższym obrazie przedstawiono organizację, w której utworzono pięć grup hostów w dwóch lokalizacjach.

Grupa hostów

Rysunek 2.Przykład grupy hostów

Grupy hostów zostały utworzone przez organizację z powodów opisanych w poniższej tabeli.

Grupa hostów

Przyczyna jej utworzenia

Obciążenia bezstanowe i stanowe

  • Te cechy obciążenia są najbardziej rozpowszechnione w organizacji, więc istnieje dla nich po jednej grupie hostów w każdej lokalizacji.

  • Te obciążenia mają podobne wymagania dotyczące wydajności i poziomu usługi.

Obciążenia stanowe i bezstanowe działu księgowości

Mimo że konfiguracja sprzętu serwerów w tej grupie jest taka sama jak innych bezstanowych i stanowych grupach hostów obciążeń w środowisku, dział księgowości ma aplikacje, które mają wyższe wymagania dotyczące zabezpieczeń niż aplikacje innych działów w organizacji. W związku z tym została dla nich utworzona dedykowana grupa hostów, aby można było ją zabezpieczyć inaczej niż pozostałe grupy hostów w sieci szkieletowej.

Obciążenia stanowe z udostępnianiem

Obciążenia należące do tej grupy hostów wymagają magazynu udostępnionego, ponieważ korzystają z usług klastrowania z trybem failover w systemie Windows Server w celu zapewnienia ich dostępności. Te obciążenia są hostowane przez dedykowaną grupę hostów, ponieważ konfiguracja maszyn wirtualnych jest inna niż w przypadku pozostałych maszyn wirtualnych w organizacji.

Obciążenia stanowe z dużą ilością operacji we/wy

Wszystkie hosty w tej grupie są połączone z sieciami o wyższej szybkości niż hosty w innych grupach hostów.

Organizacja może rozmieszczać elementy grupy hostów w różnych lokalizacjach, ale zdecydowano o umieszczeniu wszystkich elementów każdej grupy hostów w tej samej lokalizacji, aby ułatwić zarządzanie nimi. Jak widać w tym przykładzie, można tworzyć grupy hostów z różnych przyczyn — specyficznych dla każdej organizacji. Im więcej grup hostów utworzysz w organizacji, tym bardziej środowisko będzie złożone w kontekście zarządzania, co zwiększy koszty obsługi maszyn wirtualnych.

Porada: Im bardziej ustandaryzowany jest sprzęt serwerów znajdujący się w obrębie grupy hostów, tym łatwiej będzie skalować i utrzymywać grupę hostów. Jeśli chcesz ustandaryzować sprzęt w grupie hostów, możesz dodać dane konfiguracji standaryzowanej w arkuszu Host groups (Grupy hostów) w Arkuszach Przewodnika po zagadnieniach dotyczących projektu sieci szkieletowej wirtualizacji. Aby uzyskać więcej informacji na temat zagadnień związanych ze sprzętem fizycznym, zobacz Krok 4. Planowanie hostów wirtualizacji serwera.

Obecnie większość publicznych dostawców chmury hostujących maszyny wirtualne:

  • Hostuje tylko maszyny wirtualne, które nie wymagają udostępniania stanu.

  • Ma często tylko jeden zestaw miar jakości usług zapewnianych wszystkim klientom.

  • Nie rezerwuje specyficznego sprzętu dla specyficznych klientów.

Zalecamy rozpocząć od jednej grupy hostów zawierającej identyczny sprzęt, a potem tylko dodawać dodatkowe typy grup hostów — korzyści z takiego podejścia są większe niż koszty.

Zadanie 3. Określanie, czy należy klastrować elementy członkowskie grupy hostów

W przeszłości klastry trybu failover w systemie Windows Server były używane tylko w celu zwiększenia dostępności serwera, ale ich możliwości są teraz większe i zapewniają one znacznie więcej funkcji. Weź pod uwagę informacje zawarte w tabeli poniżej, aby określić, czy należy klastrować elementy grupy hostów.

Opcja

Zalety

Wady

Elementy członkowskie grupy hostów są częścią klastra trybu failover

  • W przypadku awarii dowolnego hosta maszyny wirtualne, które były na nim hostowane, są automatycznie ponownie uruchamiane na pozostałych węzłach.

  • Gdy węzeł, na którym jest obecnie uruchomiona maszyna wirtualna, wykryje problem z węzłem lub z maszyną wirtualną, maszyny wirtualne mogą zostać przeniesione do innego węzła klastra.

  • Aktualizacje typu cluster-aware pozwalają łatwo aktualizować węzły w klastrze bez wywierania wpływu na uruchomione w nim maszyny wirtualne.

  • Hosty wymagają konkretnej konfiguracji, aby mogły być elementami klastra.

  • Hosty muszą należeć do domeny usługi Active Directory.

  • Klaster trybu failover ma dodatkowe wymagania w zakresie sieci i magazynu.

Elementy członkowskie grupy hostów nie są częścią klastra trybu failover

  • Hosty nie wymagają specyficznej konfiguracji klastra.

  • Hosty nie muszą należeć do domeny usługi Active Directory.

  • Nie ma dodatkowych wymagań w zakresie sieci i magazynu.

Maszyny wirtualne uruchomione na hoście, który uległ awarii, należy ręcznie (lub z użyciem automatyzacji) przenieść na innego sprawnego hosta i ponownie uruchomić.

Decyzja projektowa — decyzje podejmowane we wszystkich zadaniach tego kroku można wpisać w arkuszu Settings (Ustawienia).

Krok 4. Planowanie hostów wirtualizacji serwera

W tym kroku będziesz definiować typy hostów potrzebne od obsługi maszyn wirtualnych, które planujesz uruchamiać w sieci szkieletowej wirtualizacji. Prawdopodobnie będziesz ograniczać liczbę konfiguracji hosta, w niektórych przypadkach do jednej konfiguracji, aby ułatwić proces zakupu i zmniejszyć koszty obsługi. Ponadto zakupu niewłaściwego sprzętu podniesie koszty wdrożenia.

Cloud Platform System

Doświadczenie firmy Microsoft w zakresie utrzymywania największych centrów danych i usług chmurowych zostało przeniesione na fabrycznie zintegrowany i w pełni sprawdzony system konwergentny. System Cloud Platform System (CPS) to połączenie sprawdzonego zestawu oprogramowania firmy Microsoft — Windows Server 2012 R2, System Center 2012 R2 i Windows Azure Pack — ze sprzętem serwera chmurowego, magazynu i sieci firmy Dell. System CPS jest skalowalnym blokiem chmury, który pozwala skrócić czas zwrotu z inwestycji i pozwala na zachowanie spójności chmury.

System CPS udostępnia samoobsługowe środowisko chmury dla wielu dzierżawców w modelu platformy jako usługi (PaaS) i maszyny wirtualne z systemami Windows i Linux oraz obejmuje zoptymalizowane pakiety wdrażania aplikacji firmy Microsoft, takich jak SQL Server, SharePoint i Exchange. Fabryczna integracja zmniejsza ryzyko i złożoność oraz skraca czas wdrażania z miesięcy do dni. Uproszczony proces obsługi i automatyzacja rutynowych zadań związanych z infrastrukturą zwalnia zasoby IT i pozwala skupić się na innowacjach.

Więcej informacji znajduje się w witrynie Cloud Platform System.

Fast Track

Zamiast projektować konfiguracje sprzętu (i oprogramowania), możesz kupić wstępnie skonfigurowane konfiguracje sprzętu od różnych partnerów sprzętowych w ramach programu Microsoft Private Cloud Fast Track.

Program Fast Track to wspólna inicjatywa firmy Microsoft i partnerów dostarczających sprzęt mająca na celu zaoferowanie wstępnie skonfigurowanych i sprawdzonych rozwiązań pozwalających ograniczyć złożoność i ryzyko związane z wprowadzeniem sieci szkieletowej wirtualizacji oraz narzędzi do zarządzania nią.

Program Fast Track zapewnia elastyczność rozwiązań i szeroki wybór technologii dostawcy sprzętu. Są w nim wykorzystywane podstawowe funkcje systemu operacyjnego Windows Server, technologii Hyper-V i programu Microsoft System Center w celu dostarczenia bloków konstrukcyjnych infrastruktury chmury prywatnej jako oferty usługi.

Informacje dodatkowe:

Witryna programu Microsoft Private Cloud Fast Track

Zadanie 1. Definiowanie konfiguracji obliczeniowej

W tym zadaniu określisz ilość pamięci, liczbę procesorów i wersje systemu Windows Server, które są wymagane dla każdego hosta. Liczba maszyn wirtualnych możliwa do uruchamiania na hoście będzie określana przez składniki sprzętowe omówione w tej sekcji.

Uwaga: Aby upewnić się, że rozwiązanie jest w pełni obsługiwane, wszystkie nabywane urządzenia muszą mieć logo Certified for Windows Server dla używanej wersji systemu Windows Server.

Obecność logo Certified for Windows Server oznacza, że system serwera spełnia najwyższe wymagania firmy Microsoft w zakresie zabezpieczeń, niezawodności i możliwości zarządzania. W połączeniu z innymi certyfikowanymi urządzeniami i sterownikami może obsługiwać role, funkcje i interfejsy dla obciążeń chmury i obciążeń klasy korporacyjnej oraz kluczowych aplikacji biznesowych.

Najbardziej aktualną listę sprzętu z logo Certified for Windows Server można znaleźć w witrynie wykazu systemu Windows Server.

Zadanie 1a. Definiowanie procesora

Funkcji Hyper-V prezentuje procesory logiczne każdej aktywnej maszynie wirtualnej jako procesory wirtualne. Można zapewnić wyższą wydajność w czasie wykonywania przez użycie procesorów, które obsługują technologie translacji adresów drugiego poziomu (SLAT), takie jak rozszerzone tabele stron (EPT) lub zagnieżdżone tabele stron (NPT). Funkcja Hyper-V w systemie Windows Server 2012 R2 obsługuje maksymalnie 320 procesorów logicznych.

Kwestie do rozważenia:

  • Obciążenia, które nie korzystają intensywnie z procesora, powinny zostać skonfigurowane z jednym procesorem wirtualnym. Monitoruj użycie procesora hosta wraz z upływem czasu, aby upewnić się, że przydzielone procesory zapewniają maksymalną efektywność.

  • Obciążenia, które korzystają intensywnie z procesora, powinny zostać skonfigurowane z dwoma procesorami wirtualnymi lub większą ich liczbą. Do maszyny wirtualnej można przypisać maksymalnie 64 procesory wirtualne. Liczba procesorów wirtualnych rozpoznawana przez maszynę wirtualną jest zależna od systemu operacyjnego gościa. Na przykład system Windows Server 2008 z dodatkiem Service Pack 2 rozpoznaje tylko cztery procesory wirtualne.

Informacje dodatkowe:

Omówienie funkcji Hyper-V

Dostosowywanie wydajności serwerów funkcji Hyper-V

Zadanie 1b. Definiowanie pamięci

Serwer fizyczny wymaga wystarczającej ilości pamięci do obsługi hosta i jego maszyn wirtualnych. Host wymaga pamięci, aby efektywnie obsługiwać operacje we/wy w imieniu maszyn wirtualnych i operacje, takie jak tworzenie punktu kontrolnego maszyny wirtualnej. Funkcja Hyper-V zapewnia, że dla hosta jest dostępna wystarczająca ilość pamięci, i udostępnia pozostałą pamięć do przypisania do maszyn wirtualnych. Rozmiary maszyn wirtualnych należy ustalać w oparciu o potrzeby oczekiwanego obciążenia dla każdej maszyny wirtualnej.

Funkcja hypervisor wirtualizuje pamięć fizyczną gościa, aby odizolować maszyny wirtualne od siebie i zapewnić ciągły obszar pamięci z adresami liczonymi od zera dla każdego systemu operacyjnego gościa — taki sam jak w systemach niezwirtualizowanych. Aby mieć pewność, że wydajność będzie maksymalna, należy użyć sprzętu z obsługą technologii SLAT — minimalizuje to koszt wydajności wirtualizacji pamięci.

Rozmiar pamięci maszyny wirtualnej należy ustalić tak, jak zwykle jest to ustalane dla aplikacji serwerowych na komputerze fizycznym. Ilość pamięci przypisana do maszyny wirtualnej powinna pozwalać maszynie wirtualnej obsługiwać oczekiwane obciążenie w zwykłych i szczytowych okresach, ponieważ zbyt mała ilość pamięci może znacznie zwiększyć czas reakcji i użycie procesora lub we/wy.

Pamięć, która została przydzielona dla maszyny wirtualnej, zmniejsza ilość pamięci, która jest dostępna dla innych maszyn wirtualnych. Jeśli na hoście jest za mało dostępnej pamięci, maszyna wirtualna nie zostanie uruchomiona.

Pamięć dynamiczna umożliwia osiągnięcie wyższego poziomu konsolidacji i zwiększonej niezawodności operacji ponownego uruchomienia. Może to prowadzić do obniżenia kosztów, zwłaszcza w środowiskach, które mają wiele bezczynnych maszyn wirtualnych lub maszyn o niskim obciążeniu, na przykład w środowiskach infrastruktury VDI z pulami. Zmiany konfiguracji pamięci dynamicznej w czasie wykonywania mogą zmniejszyć czasy przestoju i zapewnić wyższą elastyczność w kontekście reagowania na zmiany wymagań.

Aby uzyskać więcej informacji o pamięci dynamicznej, zobacz Zadanie 1b. Definiowanie pamięci. Omówiono w nim sposób określania ilości pamięci dla maszyny wirtualnej.

Informacje dodatkowe:

Omówienie pamięci dynamicznej

Omówienie wirtualnej architektury NUMA

Zadanie 1c. Definiowanie wersji systemu operacyjnego Windows Server

Funkcje dostępne w systemie Windows Server Standard i Windows Server Datacenter są dokładnie takie same. W systemie Windows Server Datacenter można tworzyć nieograniczoną liczbę maszyn wirtualnych. W systemie Windows Server Standard istnieje ograniczenie maksymalnie dwóch maszyn wirtualnych.

W systemie Windows Server 2012 R2 dodano funkcję automatycznej aktywacji maszyny wirtualnej (AVMA). Funkcja AVMA umożliwia zainstalowanie maszyn wirtualnych na poprawnie aktywowanym serwerze bez konieczności zarządzania kluczami produktów dla każdej maszyny wirtualnej, nawet w środowiskach bez połączenia z Internetem.

Funkcja AVMA wymaga, aby systemem operacyjnym gościa był Windows Server 2012 R2 Datacenter, Windows Server 2012 R2 Standard lub Windows Server 2012 R2 Essentials. W poniższej tabeli porównano wersje.

Wersja

Zalety

Wady

Standard

  • Zawiera wszystkie funkcje systemu Windows Server

  • Możliwa do użycia w środowiskach niezwirtualizowanych lub w niewielkim stopniu zwirtualizowanych

Ograniczenie do dwóch maszyn wirtualnych

Datacenter

  • Zawiera wszystkie funkcje systemu Windows Server

  • Pozwala tworzyć nieograniczoną liczbę maszyn wirtualnych

  • Możliwa do użycia w silnie zwirtualizowanych środowiskach chmury prywatnej

Droższa

Funkcja Hyper-V może zostać zainstalowana w instalacji Server Core systemu Windows Server. Instalacja Server Core zmniejsza wymagania w zakresie miejsca na dysku, liczbę potencjalnych możliwości ataku i — szczególnie — wymagania w zakresie obsługi. Instalacja Server Core jest zarządzana za pomocą wiersza polecenia, programu Windows PowerShell lub funkcje administracji zdalnej.

Ważne jest przejrzenie postanowień licencyjnych dotyczących oprogramowania, którego zamierzasz używać.

Microsoft Hyper-V Server

Serwer Microsoft Hyper-V Server to proste i niezawodne rozwiązanie do wirtualizacji pomagające organizacjom poprawić wykorzystanie serwerów i ograniczyć koszty. Jest to produkt autonomiczny zawierający tylko funkcję hypervisor systemu Windows, model sterowników systemu Windows Server i składniki wirtualizacji.

Serwer Hyper-V Server może być odpowiedni dla istniejącego środowiska informatycznego klienta i pozwolić wykorzystać istniejące metody obsługi administracyjnej, procesy zarządzania i narzędzia obsługi. Serwer obsługuje tę samą listę zgodności sprzętu co odpowiednia wersja systemu Windows Server, a także w pełni integruje się z programem Microsoft System Center i technologiami systemu Windows, takimi jak Windows Update, usługi Active Directory i klaster trybu failover.

Serwer Hyper-V Serwer jest dostępny do bezpłatnego pobrania i jego instalacja jest już aktywowana. Jednak każdy system operacyjny, który działa na hostowanej maszynie wirtualnej, wymaga odpowiedniej licencji.

Informacje dodatkowe:

Automatyczna aktywacja maszyny wirtualnej

Microsoft Hyper-V Server

Zdalne zarządzanie serwerem Hyper-V Server

Zadanie 2. Definiowanie konfiguracji sieci

W części Krok 2. Zadanie 2. powyżej omówiono uwagi dotyczące projektowania dotyczące sieci maszyny wirtualnej. Teraz omówimy uwagi dotyczące sieci dla hosta. Istnieje kilka typów ruchu sieciowego, który należy wziąć pod uwagę i zaplanować przy wdrażaniu funkcji Hyper-V. Należy projektować konfigurację sieci z myślą o:

  • Zapewnieniu jakości usługi (QoS) sieci

  • Zapewnieniu nadmiarowości sieci

  • Izolacji ruchu w zdefiniowanych sieciach

Zadanie 2a. Definiowanie typów ruchu sieciowego

W przypadku wdrażania klastra funkcji Hyper-V należy planować pod kątem kilku typów ruchu w sieci. Poniższa tabela zawiera podsumowanie typów ruchu.

Typ ruchu

Opis

Zarządzanie

  • Udostępnia łączność między serwerem, na którym działa funkcja Hyper-V, a podstawowymi funkcjami infrastruktury

  • Używany do zarządzania systemem operacyjnym hosta funkcji Hyper-V i maszynami wirtualnymi

Klaster i woluminy CSV

  • Używany do komunikacji między węzłami klastra, na przykład do przesyłania pulsu klastra i przekierowywania udostępnionych woluminów klastra (CSV)

  • Obecny tylko wtedy, gdy funkcja Hyper-V została wdrożona przy użyciu klastra trybu failover

Migracja na żywo

Używany na potrzeby funkcji migracji na żywo i migracji na żywo bez współdzielonych zasobów

Magazyn

Używany na potrzeby ruchu protokołów SMB lub iSCSI

Replika

Używany na potrzeby ruchu związanego z replikacją maszyn wirtualnych za pomocą funkcji Hyper-V Replica

Ruch maszyny wirtualnej (dzierżawcy)

  • Używany na potrzeby łączności maszyn wirtualnych

  • Zazwyczaj wymaga połączenia z siecią zewnętrzną do obsługi żądań klientów

Uwaga: Zobacz Krok 2. Planowanie konfiguracji maszyny wirtualnej, aby uzyskać listę typów ruchu maszyny wirtualnej.

Kopia zapasowa

Używany do wykonania kopii zapasowej plików wirtualnego dysku twardego

Zadanie 2b. Definiowanie opcji wydajności ruchu sieciowego

Każdy typ ruchu sieciowego ma wymagania minimalnego opóźnienia i minimalnej i maksymalnej przepustowości. Poniżej przedstawiono strategie, których można użyć, aby spełnić różne wymagania dotyczące wydajności sieci.

Jakość usługi oparta na zasadach

W przypadku wdrażania klastra funkcji Hyper-V potrzebnych jest minimum sześć wzorców ruchu lub sieci. Każda sieć wymaga nadmiarowości. Mówimy więc o 12 kartach sieciowych na hoście. Można zainstalować wiele czteroportowych kart sieciowych, ale w pewnym momencie skończą się gniazda na hoście.

Urządzenie sieciowe są coraz szybsze. Nie tak dawno temu jednogigabitowe karty sieciowe były szczytem wydajności. Karty 10 Gb/s w serwerach z stają się coraz bardziej popularne, ceny sprzętu do obsługi infrastruktury 10 Gb/s stają się coraz bardziej przystępne.

Zainstalowanie dwóch kart sieciowych 10 Gb/s w zespole zapewnia większą przepustowość niż zainstalowanie dwóch czteroportowych kart 1 Gb/s, wymaga mniejszej liczby portów przełącznika i upraszcza okablowanie. W miarę łączenia typów ruchu sieci na kartach sieciowych 10 Gb/s w zespole jakość usługi oparta na zasadach będzie umożliwiała zarządzanie ruchem sieciowym w celu spełnienia potrzeb infrastruktury wirtualizacji.

Jakość usługi oparta na zasadach umożliwia określenie kontroli przepustowości sieci na podstawie typu aplikacji, użytkowników i komputerów. Zasady jakości usługi pozwalają spełnić wymagania usługi obciążenia lub aplikacji przez dokonywanie pomiarów przepustowości sieci, wykrywanie zmieniających się warunków sieciowych (takich jak przeciążenie lub dostępność przepustowości) i priorytetyzowanie ruchu sieciowego lub ograniczanie go.

Oprócz możliwości wymuszania maksymalnej przepustowości zasady jakości usługi w systemie Windows Server 2012 R2 zapewniają nową funkcję zarządzania przepustowością: przepustowość minimalna. W odróżnieniu od przepustowości maksymalnej, która jest limitem przepustowości, funkcja przepustowości minimalnej określa najmniejsza dostępną wartość przepustowości i przypisuje taką przepustowość do danego typu ruchu. Limity przepustowości minimalnej i maksymalnej można zaimplementować jednocześnie.

Zalety

Wady

  • Zarządzanie przez zasady grupy

  • Łatwo jest je zastosować do sieci VLAN w celu zapewnienia właściwych ustawień przepustowości w przypadku, gdy na karcie sieciowej lub w zespole kart sieciowych działa wiele sieci VLAN

  • Jakość usługi opartą na zasadach można zastosować do ruchu IPsec

  • Nie zapewnia zarządzania przepustowością ruchu, który jest kierowany przez przełącznik wirtualny

  • Hosty funkcji Hyper-V muszą być częścią domeny

  • Programowe i sprzętowe (DCB) zasady jakości usługi nie powinny być używane w tym samym czasie

Informacje dodatkowe:

Omówienie jakości usługi (QoS)

Jakość usługi oparta na zasadach

Mostkowanie centrum danych

Funkcja Mostkowanie centrum danych (DCB) zapewnia sprzętowe możliwości przydziału przepustowości dla określonego typu ruchu i zwiększa niezawodność transportu w sieci Ethernet dzięki sterowaniu przepływem na podstawie priorytetu. Użycie funkcji DCB jest zalecane w przypadku korzystania z protokołów FCoE i iSCSI.

Zalety

Wady

  • Obsługa standardu Microsoft iSCSI

  • Obsługa standardu FCoE

  • Wymagane inwestycje w sprzęt, w tym:

    • Karty sieciowe Ethernet z obsługą funkcji DCB

    • Przełączniki sprzętowe z obsługą funkcji DCB

  • Złożone wdrożenie i zarządzanie

  • Nie oferuje możliwości zarządzania przepustowością ruchu kierowanego przez przełącznik wirtualny

  • Programowe i sprzętowe (DCB) zasady jakości usługi nie powinny być używane w tym samym czasie

Informacje dodatkowe:

Mostkowanie centrum danych (DCB) — omówienie

SMB Direct

Funkcja SMB Direct (protokół SMB przez zdalny dostęp do pamięci — RDMA) to protokół magazynu w systemie Windows Server 2012 R2. Umożliwia bezpośrednie przesyłanie danych z pamięci do pamięci między serwerem a magazynem. Wymaga minimalnego użycia procesora CPU i używa standardowych kart sieciowych z obsługą dostępu RDMA. Zapewnia to bardzo krótkie czasy odpowiedzi na żądania sieci, co w związku z tym oznacza, że czasy odpowiedzi dla zdalnego magazynu plików są porównywalne z czasem odpowiedzi magazynu blokowego podłączonego bezpośrednio.

Zalety

Wady

  • Zwiększona przepływność: Wykorzystuje pełną przepływność szybkich sieci, w których karty sieciowe koordynują przesyłanie dużych ilości danych przy maksymalnej szybkości łącza

  • Małe opóźnienia: Zapewnia bardzo krótkie czasy odpowiedzi na żądania sieci, co w związku z tym oznacza, że czasy odpowiedzi dla zdalnego magazynu plików są porównywalne z czasem odpowiedzi magazynu blokowego podłączonego bezpośrednio.

  • Niski poziom wykorzystania procesora: Używa mniej cykli procesora podczas przesyłania danych za pośrednictwem sieci, co zwalnia więcej cykli dla maszyn wirtualnych

  • Migracja na żywo może zostać skonfigurowana do używania funkcji SMB Direct w celu szybszego wykonywania migracji na żywo.

  • Domyślnie włączona na hoście

  • Klient protokołu SMB automatycznie wykrywa dostępność wielu połączeń sieciowych i używa ich, jeśli została zidentyfikowana odpowiednia konfiguracja

  • Skonfigurowanie zarządzania przepustowością protokołu SMB pozwala zastosować limity dla migracji na żywo, maszyn wirtualnych i domyślnego ruchu magazynu

  • Wielokanałowy protokół SMB nie wymaga kart z obsługą dostępu RDMA

  • Karty sieciowe z obsługą dostępu RDMA nie są zgodne z funkcją tworzenia zespołu kart sieciowych

  • Wymaga co najmniej dwóch kart sieciowych z obsługą RDMA na każdym hoście, aby można było zapewnić wysoką dostępność

  • Obecne ograniczone do następujących typów kart sieciowych:

    • iWARP

    • Infiniband

    • RoCE

  • Dostęp RDMA na karcie RoCE wymaga obsługi mostkowania DCB na potrzeby kontroli przepływu.

Łączenie odbieranych segmentów (RSC)

Funkcja Łączenie odbieranych segmentów (RSC) ogranicza wykorzystanie procesora związane z przetwarzaniem ruchu przychodzącego przez odciążenie zadań procesora na kartę sieciową z obsługą funkcji RSC.

Zalety

Wady

  • Zwiększa skalowalność serwerów, zmniejszając obciążenie związane z przetwarzaniem dużej ilości przychodzącego ruchu sieciowego

  • Minimalizuje wykorzystanie cykli procesora do obsługi magazynu sieciowego i migracji na żywo

  • Wymaga karty sieciowej z obsługą funkcji RSC

  • Nie zapewnia istotnej poprawy w przypadku obciążeń intensywnie wysyłających dane

  • Niezgodne z szyfrowanym ruchem IPsec

  • Dotyczy ruchu hosta. Aby zastosować funkcję RSC do ruchu maszyny wirtualnej, maszyna wirtualna musi działać z systemem Windows Server 2012 R2 i być skonfigurowana z kartą sieciową z obsługą wirtualizacji SR-IOV.

  • Domyślnie wyłączona na serwerach uaktualnionych do systemu Windows Server 2012 R2

Skalowanie po stronie odbierania (RSS)

Funkcja Skalowanie po stronie odbierania (RSS) pozwala kartom sieciowym rozpraszać obciążenie przetwarzania ruchu sieciowego trybu jądra na wiele rdzeni procesora w komputerach z procesorami wielordzeniowymi. Rozproszenie tego przetwarzania umożliwia obsługę wyższych obciążeń ruchu w sieci, co nie byłoby możliwe w przypadku użycia pojedynczego rdzenia. Funkcja RSS pozwala uzyskać to przyspieszenie dzięki rozproszeniu obciążenia przetwarzania ruchu sieciowego na wiele procesorów i aktywnemu równoważeniu obciążenia związanego z ruchem, którego przetwarzanie zostaje zakończone na poziomie protokołu Transmission Control Protocol (TCP).

Zalety

Wady

  • Rozprasza operacje związane z monitorowaniem na wiele procesorów, więc pojedynczy procesor nie musi obsługiwać wszystkich tych operacji we/wy — inaczej niż we wcześniejszych wersjach systemu Windows Server.

  • Zgodne z zespołami kart sieciowych

  • Zgodne z protokołem UDP

  • Wymaga karty sieciowej z obsługą funkcji RSS

  • Wyłączone w przypadku gdy wirtualna karta sieciowa jest powiązana z przełącznikiem wirtualnym. W przypadku kart sieciowych powiązanych z przełącznikiem wirtualnym zamiast funkcji RSS jest używana funkcja VMQ.

Wirtualizacja SR-IOV

Funkcja Hyper-V obsługuje urządzenia sieciowe z obsługą wirtualizacji SR-IOV i pozwala bezpośrednio przypisywać funkcje wirtualne SR-IOV fizycznych kart sieciowych do maszyny wirtualnej. Zwiększa to przepływność sieci, zmniejsza opóźnienie sieci i zmniejsza narzut użycia procesora hosta wymagany do przetwarzania ruchu sieciowego.

Aby uzyskać więcej informacji na temat wirtualizacji SR-IOV, zobacz Zadanie 2b. Definiowanie opcji wydajności ruchu sieciowego powyżej.

Zadanie 2c. Definiowanie strategii wysokiej dostępności i przepustowości ruchu w sieci

Funkcja tworzenia zespołu kart sieciowych, nazywana również równoważeniem obciążenia i trybem failover (LBFO), pozwala na umieszczenie w zespole wielu kart sieciowych na potrzeby trybu failover i agregacji ruchu. Pomaga to zapewnić dostępność połączenia w przypadku awarii składnika sieci.

Ta funkcja jest udostępniana przez dostawców kart sieciowych. Funkcja tworzenia zespołu kart sieciowych wprowadzona w systemie Windows Server 2012 jest uwzględniona jako funkcja w systemie operacyjnym Windows Server.

Funkcja tworzenia zespołu kart sieciowych jest zgodna z wszystkimi możliwościami sieciowymi w systemie Windows Server 2012 R2 z trzema wyjątkami:

  • Wirtualizacja SR-IOV

  • Dostęp RDMA

  • Uwierzytelnianie 802.1X

Z punktu widzenia skalowalności w systemie Windows Server 2012 R2 do jednego zespołu można dodać co najmniej jedną i maksymalnie trzydzieści dwie karty sieciowe. Na jednym hoście można utworzyć nieograniczoną liczbę zespołów.

Informacje dodatkowe:

Omówienie zespołów kart sieciowych

Wirtualna akademia firmy Microsoft: Tworzenie zespołu kart sieciowych w systemie Windows Server 2012

Polecenia cmdlet tworzenia zespołu kart sieciowych (NetLBFO) w programie Windows PowerShell

Wdrażanie funkcji tworzenia zespołu kart sieciowych (LBFO) i zarządzanie nią w systemie Windows Server 2012 R2

Konwergentne centrum danych z magazynem na serwerze plików

Zadanie 2d. Definiowanie strategii izolacji i zabezpieczeń ruchu sieciowego

Każdy typ ruchu sieciowego może mieć różne wymagania zabezpieczeń w zakresie funkcji, takich jak izolacja i szyfrowanie. W poniższej tabeli opisano strategie, których można użyć na potrzeby spełnienia różnych wymagań zabezpieczeń.

Strategia

Zalety

Wady

Szyfrowanie (IPsec)

Ruch jest zabezpieczony podczas transmisji przewodowej

  • Wpływa na wydajność (konieczność szyfrowania i odszyfrowywania ruchu)

  • Złożone konfigurowanie, zarządzanie i rozwiązywanie problemów

  • Niepoprawne zmiany konfiguracji protokołu IPsec mogą powodować zakłócenia w sieci lub brak poprawnego szyfrowania ruchu

Oddzielne sieci fizyczne

Sieci są fizycznie oddzielone

  • Wymaga dodatkowych kart sieciowych na zainstalowanych na hoście

  • Jeśli sieć wymaga wysokiej dostępności, dla każdej sieci są wymagane co najmniej dwie karty sieciowe.

Wirtualna sieć lokalna (VLAN)

  • Izoluje ruch sieciowy za pomocą przypisanego identyfikatora sieci VLAN

  • Obsługa protokołu magistrali sieci VLAN

  • Obsługa prywatnych sieci VLAN

  • Już używana przez wielu klientów w przedsiębiorstwach

  • Ograniczone do 4094 sieci VLAN; większość przełączników obsługuje tylko 1000 sieci VLAN

  • Wymaga dodatkowej konfiguracji urządzeń sieciowych i zarządzania nimi

  • Sieci VLAN nie może obejmować wielu podsieci Ethernet, co ogranicza liczbę węzłów w jednej sieci VLAN i ogranicza możliwość rozmieszczania maszyn wirtualnych w różnych fizycznych lokalizacjach.

Zadanie 2e. Definiowanie wirtualnych kart sieciowych

Po zrozumieniu typów ruchu wymaganych przez hosty serwerów wirtualizacji i strategii wydajności, dostępności i zabezpieczeń dla ruchu sieciowego można określić, ile fizycznych kart sieciowych jest wymaganych dla każdego hosta i typu ruchu sieciowego transmitowanego za pośrednictwem każdej karty.

Zadanie 2f. Definiowanie przełączników wirtualnych

Aby połączyć maszynę wirtualną z siecią, karta sieciowa musi być podłączona do przełącznika wirtualnego funkcji Hyper-V.

Istnieją trzy typy przełączników wirtualnych, które mogą zostać utworzone w funkcji Hyper-V:

  • Zewnętrzny przełącznik wirtualny

    Użyj zewnętrznego przełącznika wirtualnego, jeśli chcesz zapewnić maszynom wirtualnym dostęp do sieci fizycznej w celu komunikowania się ze zlokalizowanymi na zewnątrz serwerami i klientami. Ten typ przełącznika wirtualnego umożliwia także maszynom wirtualnym na tym samym hoście komunikowanie się ze sobą. Sieć tego typu może być także dostępna do użycia przez system operacyjny hosta w zależności od tego, w jaki sposób zostanie ona skonfigurowana.

    Ważne: Fizyczna karta sieciowa w danym momencie może być powiązana tylko z jednym przełącznikiem wirtualnym.

  • Wewnętrzny przełącznik wirtualny

    Użyj wewnętrznego przełącznika wirtualnego, jeśli chcesz umożliwić komunikację między maszynami wirtualnymi na tym samym hoście i między maszynami wirtualnymi i systemem operacyjnym hosta. Ten typ przełącznika wirtualnego jest najczęściej używany do tworzenia środowiska testowego, w którym potrzebna jest możliwość nawiązywania połączeń z maszynami wirtualnymi z poziomu systemu operacyjnego hosta. Wewnętrzny przełącznik wirtualny nie jest powiązany z fizyczną kartą sieciową. W związku z tym wewnętrzna sieć wirtualna jest odizolowana od zewnętrznego ruchu sieciowego.

  • Prywatny przełącznik wirtualny

    Użyj prywatnego przełącznika wirtualnego, jeśli chcesz umożliwić komunikację tylko między maszynami wirtualnymi na tym samym hoście. Prywatny przełącznik wirtualny nie jest powiązany z fizyczną kartą sieciową. Prywatny przełącznik wirtualny jest odizolowany od całego zewnętrznego ruchu sieciowego na serwerze wirtualizacji i całego ruchu sieciowego systemu operacyjnego hosta i sieci zewnętrznej. Sieć tego typu jest przydatna, gdy chcesz utworzyć izolowane środowisko sieciowe, takie jak izolowana domena testowa.

    Uwaga: Prywatne i wewnętrzne przełączniki wirtualne nie korzystają z funkcji przyspieszenia sprzętowego, które są dostępne dla maszyny wirtualnej podłączonej do zewnętrznego przełącznika wirtualnego

Decyzja projektowa — decyzje podejmowane we wszystkich zadaniach tego kroku można wpisać w arkuszach Virtualization hosts (Hosty wirtualizacji).

Porada: Nazwy przełączników wirtualnych na różnych hostach, które są połączone z tą samą siecią, powinny być takie same. Eliminuje to problemy interpretacyjne związane z określaniem, z którym przełącznikiem wirtualnym powinna być połączona maszyna wirtualna, i upraszcza przenoszenie maszyny wirtualnej z jednego hosta na inny. Polecenie cmdlet Move-VM programu Windows PowerShell zakończy się niepowodzeniem, jeśli nie zostanie znaleziona taka sama nazwa przełącznika wirtualnego na hoście docelowym.

Zadanie 3. Definiowanie konfiguracji magazynu

Oprócz magazynu wymaganego przez system operacyjny hosta każdy host wymaga dostępu do magazynu, w którym są przechowywane pliki konfiguracji maszyny wirtualnej i wirtualne dyski twarde. W tym zadaniu skupiono się na magazynie maszyny wirtualnej.

Zadanie 3a. Definiowanie typów danych

Poniżej przedstawiono przykładowe typy danych, które należy wziąć pod uwagę w kontekście wymagań dotyczących magazynu.

Typ danych

Lokalizacja magazynu dla typu danych

Pliki systemu operacyjnego hosta

Zwykle na lokalnym dysku twardym

Plik stronicowania i pliki zrzutu awaryjnego systemu Windows hosta

Zwykle na lokalnym dysku twardym

Udostępniony stan klastra trybu failover

Magazyn udostępniony sieci lub udostępniony wolumin klastra

Pliki wirtualnego dysku twardego i plik konfiguracji maszyny wirtualnej

Zwykle w magazynie udostępnionym sieci lub na udostępnionym woluminie klastra

Pozostała część tego kroku dotyczy magazynu wymaganego dla maszyn wirtualnych.

Zadanie 3b. Opcje magazynu

Na potrzeby przechowywania plików konfiguracyjnych maszyn wirtualnych i wirtualnych dysków twardych są dostępne następujące opcje.

Opcja 1: Magazyn dołączany bezpośrednio

Magazyn dołączany bezpośrednio to magazyn komputera podłączony bezpośrednio do serwera, a nie podłączony bezpośrednio do sieci. Magazyn dołączany bezpośrednio to nie tylko wewnętrzny magazyn. Może to również być zewnętrzna obudowa zawierająca dyski twarde, na przykład obudowa z dyskami JBOD i obudowa połączona za pośrednictwem kontrolera SAS lub innego kontrolera dysku.

Zalety

Wady

  • Nie wymaga sieci magazynu

  • Szybkie we/wy dysku, ponieważ nie jest wymagane przesyłanie żądań magazynu przez sieć

  • Może to być wewnętrzny magazyn lub zewnętrzna obudowa dysków (w tym JBOD)

  • Magazynu JBOD można użyć z funkcją Miejsca do magazynowania, aby połączyć wszystkie dyski fizyczne w pulę magazynu, a następnie utworzyć jeden lub większą liczbę dysków wirtualnych (nazywanych miejscami do magazynowania) z wolnego miejsca w tej puli.

  • Obudowy z dyskami JBOD są zazwyczaj są mniej kosztowne i często bardziej elastyczne i łatwiejsze w zarządzaniu niż obudowy RAID, ponieważ do zarządzania magazynem korzystają z możliwości systemów operacyjnych Windows lub Windows Server zamiast dedykowanych kart RAID.

  • Ograniczenie liczby serwerów, które mogą być dołączane do zewnętrznej obudowy dysku

  • Tylko zewnętrzne magazyny udostępnione, takie jak udostępnione magazyny SAS z funkcją Miejsca do magazynowania, zapewniają obsługę dla klastra trybu failover

Opcja 2: Magazyn dołączony do sieci

Urządzenia magazynu dołączone do sieci łączą magazyn z siecią, w której magazyn jest dostępny w postaci udziałów plików magazynu. W odróżnieniu od magazynu podłączonego bezpośrednio nie są bezpośrednio dołączone do komputera.

Urządzenia magazynu dołączone do sieci obsługują połączenia sieci Ethernet i zwykle pozwalają administratorowi zarządzać miejscem na dysku, ustawiać przydziały dysków, zapewniać bezpieczeństwo i używać technologii punktu kontrolnego. Urządzenia magazynu dołączone do sieci obsługują wiele protokołów. Należą do nich systemy plików dołączone do sieci, system plików CIFS (Common Internet File Systems) i protokół SMB (Server Message Block).

Zalety

Wady

  • Łatwiejsza konfiguracja niż pamięci masowej SAN; wymaga mniej dedykowanego sprzętu magazynu

  • Technologia Plug and play

  • Może używać istniejącej sieci Ethernet

  • Urządzenie magazynu dołączone do sieci muszą obsługiwać protokół SMB 3.0 — system plików CIFS nie jest obsługiwany.

  • Nie są bezpośrednio podłączone do serwerów hosta, które uzyskują dostęp do magazynu

  • Wolniejsza niż inne opcje

  • Zwykle wymagają dedykowanej sieci w celu uzyskania optymalnej wydajności

  • Ograniczone możliwości zarządzania i funkcje

  • Funkcja Hyper-V obsługuje urządzenia magazynu dołączone do sieci obsługujące protokół SMB 3.0; protokoły SMB 2.0 i CIFS nie są obsługiwane

  • Może, ale nie musi, obsługiwać funkcji RDMA

Opcja 3: Sieć magazynowania (SAN)

Sieci magazynowania to dedykowana sieć, która pozwala na współużytkowanie magazynu. Sieć SAN składa się z urządzenia pamięci masowej, infrastruktury sieci zapewniającej łączność (przełączniki, kartu magistrali hosta i okablowanie) i serwerów, które są połączone z tą siecią. Urządzenia sieci SAN zapewnienia ciągły i szybki dostęp do dużych ilości danych. Mechanizm komunikacji i transferu danych dla danego wdrożenia zwykle jest nazywany siecią szkieletową magazynu.

Sieć SAN używa oddzielnej sieci i zwykle nie jest dostępna dla innych urządzeń za pośrednictwem sieci lokalnej. Siecią SAN można zarządzać za pomocą protokołu SMI-S (Storage Management Initiative Specification), protokołu Simple Network Management Protocol (SNMP) lub własnego protokołu zarządzania dostawcy.

Sieci SAN nie zapewniają funkcji abstrakcji pliku, a jedynie obsługują operacje na poziomie bloków. Najbardziej popularne protokoły sieci SAN to iSCSI, Fiber Channel i Fiber Channel przez Ethernet (FCoE). Protokół SMI-S lub własny protokół zarządzania dostawcy może zapewniać dodatkowe możliwości, takie jak podział dysku na strefy, mapowanie dysku, maskowanie numerów LUN i zarządzania błędami.

Zalety

Wady

  • Sieć SAN używa oddzielnej sieci, dzięki czemu ma ograniczony wpływ na sieć danych

  • Zapewnienia ciągły i szybki dostęp do dużych ilości danych.

  • Zwykle zapewnia dodatkowe funkcje, takie jak ochrona danych i replikacja

  • Może być udostępniana między różnymi zespołami

  • Obsługa wirtualnego protokołu Fibre Channel na potrzeby bezpośredniego dostępu do jednostek LUN magazynu

  • Obsługa usługi klastrowania gościa

  • Maszyny wirtualne, które muszą mieć dostęp do danych o rozmiarze większym niż 64 TB, mogą używać wirtualnego protokołu Fibre Channel do bezpośredniego uzyskiwania dostępu do jednostek LUN

  • Kosztowna

  • Wymaga specjalnych umiejętności w kontekście wdrażania, zarządzania i obsługi

  • Na każdym hoście muszą być zainstalowane karty sieciowe HBA lub FCoE.

  • Migrowanie klastra funkcji Hyper-V wymaga dodatkowego planowania i ograniczonego czasu przestoju.

  • Aby zapewnić możliwość zarządzania przepustowością ruchu FCoE, wymagane są sprzętowe zasady QoS, które korzystają z funkcji mostkowania centrum danych.

  • Ruch FCoE nie obsługuje routingu.

Opcja 4: Udziały plików protokołu SMB 3.0

Funkcja Hyper-V może przechowywać pliki maszyny wirtualnej, takie jak pliki konfiguracyjne, pliki wirtualnego dysku twardego i punkty kontrolne, w udziałach plików, które używają protokołu SMB 3.0. Zwykle udziały plików znajdują się serwerze plików skalowalnym w poziomie, aby zapewnić nadmiarowość. W przypadku używania serwera plików skalowalnego w poziomie, jeśli jeden węzeł nie działa, udziały plików są nadal dostępne z poziomu innych węzłów takiego serwera.

Zalety

Wady

  • Możliwość użycia istniejących sieci i protokołów

  • Wielokanałowy protokół SMB pozwala na agregację przepustowości sieci i tolerancję błędów, gdy jest dostępnych wiele ścieżek między serwerem z uruchomioną funkcją Hyper-V i udziałem plików SMB 3.0.

  • Magazynu JBOD można użyć z funkcją Miejsca do magazynowania, aby połączyć wszystkie dyski fizyczne w pulę magazynu, a następnie utworzyć jeden lub większą liczbę dysków wirtualnych (nazywanych miejscami do magazynowania) z wolnego miejsca w tej puli.

  • Wielokanałowy protokół SMB może służyć do migracji maszyny wirtualnej.

  • Mniej kosztowna niż wdrożenie sieci SAN

  • Elastyczne konfiguracje magazynu na serwerze plików z systemem Windows Server

  • Separuje usługi funkcji Hyper-V od usług magazynowania, co umożliwia skalowanie poszczególnych usług zgodnie z potrzebami

  • Zapewnia elastyczność podczas uaktualniania do następnej wersji, gdy jest używany klaster funkcji Hyper-V. Pozwala przeprowadzić uaktualnienie serwerów funkcji Hyper-V lub serwerów plików skalowalnych poziomie w dowolnej kolejności bez przestoju. Wymaga wystarczającej pojemności klastra, gdy ma zostać usunięty jeden węzeł lub dwa węzły, aby przeprowadzić uaktualnienie.

  • Serwer plików skalowalny w poziomie zapewnia obsługę udostępnionego dysku VHDX

  • Możliwości zarządzania przepustowością protokołu SMB umożliwiają ustawienie limitów migracji na żywo, wirtualnego dysku twardego i domyślnego ruchu magazynu.

  • Obsługa szyfrowania ruchu protokołu SMB z minimalnym wpływem na wydajność

  • Oszczędza miejsce na dysku dzięki deduplikacji danych w przypadku wdrożeń infrastruktury VDI.

  • Nie wymaga specjalnych umiejętności w kontekście wdrażania, zarządzania i obsługi

  • Wydajność operacji we/wy nie jest tak wysoka jak w przypadku wdrożeń sieci SAN.

  • Deduplikacja danych nie jest obsługiwana dla plików uruchomionej maszyny wirtualnej, z wyjątkiem wdrożenia infrastruktury VDI.

SMB Direct

Funkcja SMB Direct działa jako część udziałów plików SMB. Funkcja SMB Direct wymaga kart sieciowych i przełączników, które obsługują funkcję RDMA, aby zapewnić pełną szybkość dostępu do magazynu i krótki czas oczekiwania. Użycie funkcji SMB Direct sprawia, że zdalne serwery plików przypominają lokalny lub podłączony bezpośrednio magazyn. Oprócz korzyści z zastosowania protokołu SMB funkcja SMB Direct ma następujące zalety i wady.

Zalety

Wady

  • Działa z pełną szybkością i z niskim opóźnieniem, w niewielkim stopniu wykorzystując procesor

  • Umożliwia serwerowi pliku skalowalnemu w poziomie zapewnienie wydajności i niezawodności podobnej do uzyskiwanej w tradycyjnych sieciach SAN. Wykorzystuje przy tym rozwiązania magazynu firmy Microsoft i niedrogie magazyny udostępnione podłączone bezpośrednio

  • Udostępnia najszybszą opcję migracji na żywo i migracji magazynu

  • Nie obsługuje zespołów kart sieciowych

  • W celu zapewnienia nadmiarowości połączeń z magazynem są wymagane co najmniej dwie karty sieciowe z obsługą funkcji RDMA.

Serwer plików skalowany w poziomie

Rysunek 3.Przykładowy serwer plików skalowalny w poziomie wykorzystujący konwergentną sieć i funkcję RDMA

Informacje dodatkowe:

Zapewnianie ekonomicznego magazynowania dla obciążeń funkcji Hyper-V przy użyciu systemu Windows Server

Konwergentne centrum danych z magazynem na serwerze plików

Wdrożenie funkcji Hyper-V z użyciem protokołu SMB

Obsługiwanie ponad 1 miliona operacji wejścia/wyjścia na sekundę na maszynach wirtualnych funkcji Hyper-V w klastrze serwera plików skalowalnym w poziomie przy użyciu systemu Windows Server 2012 R2

Zadanie 3c. Definiowanie typów architektury dysku fizycznego

Typ architektury dysku fizycznego, który zostanie wybrany do obsługi magazynu, ma wpływ na wydajność rozwiązania magazynu. Aby uzyskać więcej informacji o typach dysków, zapoznaj się z sekcją 7.1 opracowania Architektura linii produktów rozwiązania IaaS.

Zadanie 3d. Definiowanie typu sieci magazynu

Używane typy kontrolera magazynu lub kontrolera sieci magazynu zależą od opcji magazynowania wybranej dla każdej grupy hostów. Aby uzyskać więcej informacji, zobacz Zadanie 3b. Opcje magazynu.

Zadanie 3e. Określenie typu magazynu do użycia w przypadku każdego typu danych

Po określeniu typów danych można teraz określić najlepsze opcje magazynu, kontrolera pamięci masowej, kontrolera sieci magazynu i architektury dysku fizycznego zgodnie z wymaganiami.

Decyzja projektowa — decyzje podejmowane w tym zadaniu można wpisać w arkuszu Virtualization hosts (Hosty wirtualizacji).

Informacje dodatkowe:

Konfiguracje sieci funkcji Hyper-V korzystającej z protokołu SMB w systemie Windows Server 2012 i Windows Server 2012 R2

Schemat architektury składników funkcji Hyper-V i dodatków systemu Windows Server 2012 — informacje dodatkowe

Omówienie technologii magazynowania

Zadanie 4. Definiowanie jednostek skalowania hosta wirtualizacji serwera

Zakup pojedynczych serwerów wymaga nabycia, instalacji i konfiguracji każdego serwera. Jednostki skalowania umożliwiają zakup kolekcji serwerów (zazwyczaj zawierającej identyczny sprzęt). Są one wstępnie skonfigurowane, co umożliwia zwiększenie wydajności centrum danych przez dodanie jednostek skalowania, a nie przez dodanie poszczególnych serwerów.

Na poniższym obrazie przedstawiono wstępnie skonfigurowaną jednostkę skalowania, która mogła zostać zakupiona od dowolnego dostawcy sprzętu. Zawiera ona stojak, zasilacz awaryjny (UPS), parę nadmiarowych przełączników sieciowych dla serwerów w stojaku i dziesięć serwerów.

Jednostka skali hosta

Rysunek 4.Przykład jednostki skalowania hosta wirtualizacji serwera

Jednostka skalowania jest wstępnie skonfigurowana i wstępnie okablowana między zasilaczem UPS i przełącznikami sieciowymi. Wystarczy ją dodać do centrum danych, podłączyć do zasilania i połączyć z siecią i magazynem. Będzie wówczas gotowa do użycia. Jeśli pojedynczych składników nie zakupiono w postaci jednostki skalowania, nabywca musi zainstalować w stojaku i okablować wszystkie składniki.

Decyzja projektowa — w przypadku decyzji o użyciu jednostek skalowania hosta wirtualizacji serwera sprzęt dla takich jednostek można zdefiniować w arkuszu Host scale units (Jednostki skalowania hosta).

Porada: Wstępnie skonfigurowane jednostki skalowania można nabyć od wielu partnerów sprzętowych firmy Microsoft w ramach programu Microsoft Private Cloud Fast Track.

Zadanie 5. Definiowanie strategii dostępności hosta wirtualizacji serwera

Hosty serwerów wirtualizacji mogą stać się niedostępne z planowanych przyczyn (na przykład konserwacji) lub niezaplanowanych przyczyn. Oto kilka strategii, które mogą być używane w obu przypadkach.

Planowane

Można użyć funkcji Migracja na żywo, która umożliwia przenoszenie maszyn wirtualnych z jednego hosta na inny. Nie wymaga przestojów maszyn wirtualnych.

Nieplanowane

Ten scenariusz zależy od typów obciążeń, które działają na hoście.

  • W przypadku obciążeń stanowych z udostępnianiem użyj klastra trybu failover działającego na maszynach wirtualnych.

  • W przypadku obciążeń stanowych uruchom maszynę wirtualną jako maszynę wysokiej dostępności w klastrze funkcji Hyper-V.

  • W przypadku obciążeń bezstanowych uruchom nowe wystąpienia ręcznie lub z użyciem zautomatyzowanych metod.

W przypadku korzystania z klastra trybu failover w systemie Windows Server z funkcją Hyper-V należy rozważyć, czy mają być używane funkcje wymienione w poniższej tabeli. Aby uzyskać dodatkowe informacje dotyczące każdej funkcji, kliknij hiperlink.

Funkcja

Kwestie do rozważenia

Monitorowanie aplikacji funkcji Hyper-V

Umożliwia monitorowanie maszyny wirtualnej pod kątem błędów sieci i magazynu, które nie są monitorowane przez usługę klastra trybu failover.

Ustawienia priorytetu maszyny wirtualnej

  • Umożliwia ustawienie priorytetu maszyny wirtualnej w zależności od obciążenia. Do maszyn wirtualnych wysokiej dostępności (klastrowanych maszyn wirtualnych) można przypisać następujące ustawienia priorytetu:

    • Wysoki

    • Średni (domyślnie)

    • Niski

    • Bez automatycznego uruchamiania

  • Klastrowane role o wyższym priorytecie są uruchamiane i umieszczane w węzłach przed elementami o niższym priorytecie.

  • Jeśli zostanie przypisany priorytet Bez automatycznego uruchamiania, rola nie przejdzie automatycznie w tryb online po awarii, dzięki czemu zasoby będą dostępne, aby można było uruchomić inne role.

Antykoligacja przed maszyny wirtualnej

Ustaw antykoligację dla maszyn wirtualnych, których nie chcesz uruchamiać w tym samym węźle klastra funkcji Hyper-V. Może to być potrzebne w przypadku maszyn wirtualnych, które zapewniają nadmiarowe usługi lub są częścią klastra maszyny wirtualnej gościa.

Uwaga: Ustawienia antykoligacji są konfigurowane przy użyciu programu Windows PowerShell.

Automatyczne opróżnianie węzła

  • Klaster automatycznie opróżnia węzeł (przenosi klastrowane role uruchomione w węźle do innego węzła) przed przełączeniem węzła w tryb konserwacji lub wprowadzeniem innych zmian w węźle.

  • Role są przywracane do pierwotnego węzła po zakończeniu operacji konserwacji.

  • Administratorzy mogą za pomocą jednego działania opróżnić węzeł w Menedżerze klastra trybu failover lub za pomocą polecenia cmdlet programu Windows PowerShell, . Można określić węzeł docelowy dla przenoszonych klastrowanych ról.

  • Aktualizacje typu cluster-aware używają funkcji opróżniania węzła w ramach zautomatyzowanego procesu w celu zastosowania aktualizacji oprogramowania do węzłów klastra.

Aktualizacje typu cluster-aware

  • Aktualizacje typu cluster-aware umożliwiają zaktualizowanie węzłów w klastrze bez wywierania wpływu na maszyny wirtualne działające w klastrze.

  • Podczas procesu aktualizacji musi być dostępna wystarczająca liczba węzłów klastra na potrzeby obsługi obciążeń uruchomionych maszyn wirtualnych.

Wywłaszczanie maszyn wirtualnych w oparciu o priorytet

Kolejnym powodem, dla którego można ustawić priorytet maszyny wirtualnej, jest to, że usługa klastrowania może wyłączyć maszynę wirtualną o niższym priorytecie, gdy maszyna wirtualna o wyższym priorytecie nie ma potrzebnej pamięci i innych zasobów, aby mogła zostać uruchomiona.

  • Wywłaszczanie rozpoczyna się od maszyny wirtualnej o najniższym priorytecie i jest kontynuowane w przypadku maszyn wirtualnych o wyższym priorytecie.

  • Maszyny wirtualne, które zostaną wywłaszczone, są później ponownie uruchamiane w kolejności priorytetu.

Uwaga: Klaster funkcji Hyper-V może zawierać maksymalnie 64 węzłów i 8000 maszyn wirtualnych.

Krok 5. Pojęcia związane z planowaniem architektury sieci szkieletowej wirtualizacji

Ten krok wymaga zdefiniowania logicznych pojęć, które określą architekturę sieci szkieletowej.

Zadanie 1. Definiowanie domen konserwacji

Domeny konserwacji są logicznymi zbiorami serwerów, które są obsługiwane razem. Obsługa techniczna może obejmować uaktualnienia sprzętu i oprogramowania lub zmiany konfiguracji. Domeny konserwacji zwykle obejmują grupy hostów danego typu lub w danej lokalizacji, chociaż takie grupowanie nie jest obowiązkowe. Celem ich stosowania jest uniknięcie niekorzystnego wpływu na obciążenia klientów w czasie przeprowadzania konserwacji na serwerze.

Uwaga: To pojęcie ma zastosowanie do składników sieci fizycznej i magazynu.

Zadanie 2. Definiowanie fizycznych domen awarii

Grupy hostów serwera wirtualizacji często razem ulegają awarii w wyniku awarii składnika udostępnionej infrastruktury, takiego jak przełącznik sieci lub zasilacz awaryjny (UPS). Fizyczne domeny awarii mogą pomóc zapewnić niezawodność w sieci szkieletowej wirtualizacji. Należy określić, jak domena awarii wpływa na każdą grupę hostów, która została zdefiniowana w sieci szkieletowej.

Uwaga: To pojęcie ma zastosowanie do składników sieci fizycznej i magazynu.

Rozważ przykład pokazany na poniższej ilustracji, na której nałożono domeny konserwacji i fizyczne domeny awarii na zbiór grup hostów w centrum danych.

Domena awarii

Rysunek 5.Przykład definicji domeny konserwacji i fizycznej domeny awarii

W tym przykładzie każdy stojak serwerów jest zdefiniowany jako oddzielna, numerowana fizyczna domena awarii. Jest tak dlatego, że każdy stojak zawiera przełącznik sieci (u góry) i UPS (u dołu). Wszystkie serwery w stojaku wykorzystują te dwa składniki, a jeśli jeden z tych składników ulegnie awarii, wszystkie serwery w stojaku również ulegną awarii.

Ponieważ wszystkie serwery w stojaku są również elementami członkowskimi unikatowych grup hostów, w takim projekcie nie istnieje żaden sposób zapobiegania awarii którejkolwiek fizycznej domeny awarii. Aby zapobiec problemom, można dodać fizyczne domeny awarii każdego typu grupy hostów. W środowiskach o mniejszej skali można ewentualnie dodać nadmiarowy przełącznik i zasilacze w każdym stojaku lub użyć klastra trybu failover dla hostów serwerów wirtualizacji w fizycznych domenach awarii.

Na Rysunku 5 poszczególne kolorowe pola oznaczone kreskowaną linią definiują domeny konserwacji (oznaczone od MD 1 do MD 5). Należy zwrócić uwagę, jak każdy serwer w klastrze równoważenia obciążenia maszyn wirtualnych jest hostowany przy użyciu serwera hosta wirtualizacji, który znajduje się w oddzielnej domenie konserwacji i oddzielnej fizycznej domenie awarii.

Dzięki temu administrator sieci szkieletowej może wyłączyć wszystkie hosty serwera wirtualizacji w domenie konserwacji bez wywierania znacznego wpływu na aplikacje, które działają na wielu serwerach w różnych domenach konserwacji. Oznacza to również, że aplikacje uruchomione w klastrze równoważenia obciążenia nie staną się całkowicie niedostępne w przypadku awarii fizycznej domeny awarii.

Decyzja projektowa — decyzje podejmowane w zadaniach 1 i 2 tego kroku można wpisać w arkuszu Settings (Ustawienia).

Zadanie 3. Definiowanie pojemności rezerwowej

Awarie poszczególnych serwerów w sieci szkieletowej są nieuniknione. Projekt sieci szkieletowej musi obsłużyć awarie poszczególnych serwerów, tak samo jak obsługuje awarie kolekcji serwerów w domenach awarii i konserwacji. Poniższa ilustracja jest taka sama jak Rysunek 5, ale na czerwono zaznaczono trzy serwery, które uległy awarii.

Serwery po awarii

Rysunek 6.Serwery po awarii

Na Rysunku 6 hosty wirtualizacji serwera uległy awarii w następujących grupach hostów, domenach konserwacji i fizycznych domenach awarii.

Grupa hostów

Fizyczna domena awarii

Domena konserwacji

2

2

3

3

3

2

4

4

2

Aplikacja działająca w klastrze równoważenia obciążenia jest nadal dostępna, mimo że host w fizycznej domenie awarii 2 uległ awarii, jednak aplikacja będzie miała dostępną o jedna trzecią mniejszą pojemność.

Rozważ, co się stanie, jeśli host wirtualizacji serwera hostujący maszyny wirtualne w fizycznej domenie awarii 3 ulegnie awarii lub domena konserwacji 2 zostanie przełączona w tryb konserwacji. W takich sytuacjach pojemność dostępna dla aplikacji zmniejszy się o 2/3.

W określonych przypadkach może to być niedopuszczalne w sieci szkieletowej wirtualizacji. Aby zmniejszyć wpływ awarii na serwery, należy zapewnić, że każda fizyczna domena awarii oraz domena konserwacji będzie miała wystarczającą pojemność rezerwową, tak aby pojemność nigdy nie spadła poniżej zdefiniowanego dopuszczalnego poziomu.

Aby uzyskać więcej informacji, zobacz sekcję Pojemność rezerwowa w temacie Architektura referencyjna struktury usług w chmurze — zasady, pojęcia i wzorce.

Krok 6. Planowanie cech początkowych możliwości

Po ukończeniu wszystkich zadań w tym dokumencie można określić wstępne koszty hostowania maszyn wirtualnych i magazynu w sieci szkieletowej oraz początkowe poziomy jakości usług, które zapewnia sieć szkieletowa. Nie będzie można ukończyć żadnego z tych zadań do czasu wdrożenia narzędzi i personelu do zarządzania siecią szkieletową, co omówiono w sekcji Kolejne kroki tego dokumentu.

Zadanie 1. Definiowanie początkowych metryk umowy dotyczącej poziomu usług (SLA) dla magazynu i maszyn wirtualnych

Jako administrator sieci szkieletowej prawdopodobnie zdefiniujesz umowę dotyczącą poziomu usług (SLA) wyszczególniającą metryki jakości usług, które ma spełniać sieć szkieletowa. Administratorzy maszyn wirtualnych muszą znać te metryki, aby zaplanować, jak będzie przez nich używana sieć szkieletowa.

W minimalnej wersji należy uwzględnić metrykę dostępności, ale mogą zostać również uwzględnione inne metryki. Aby zobaczyć, jak wyglądają podstawowe metryki umowy dotyczącej poziomu usług sieci szkieletowej wirtualizacji, można przejrzeć metryki oferowane przez dostawców chmury publicznej, takich jak Microsoft Azure. W przypadku hostingu maszyn wirtualnych umowa dotycząca poziomu usług gwarantuje, że gdy klient wdroży co najmniej dwa wystąpienia tego samego obciążenia na maszynach wirtualnych — i wdroży je w różnych domenach awarii i uaktualniania (w tym dokumencie te ostatnie są nazywane „domenami konserwacji”) — co najmniej jedna z tych maszyn wirtualnych będzie dostępna przez 99,95% czasu.

Aby zapoznać się z pełną wersją umowy SLA platformy Azure, zobacz Umowy dotyczące poziomu usług. W optymalnym scenariuszu sieć szkieletowa wirtualizacji powinna zapewniać takie same lub wyższe poziomy jak te oferowane przez dostawców w chmurze publicznej.

Zadanie 2. Definiowanie wstępnych kosztów hostingu magazynu i maszyn wirtualnych

Po zaprojektowaniu sieci szkieletowej można również obliczyć:

  • Koszty sprzętu, miejsca, zasilania i chłodzenia związane z siecią szkieletową

  • Pojemność hostingu sieci szkieletowej

Te informacje w połączeniu z informacjami o innych kosztach, takich jak koszt narzędzi i personelu do zarządzania siecią szkieletową, umożliwią określenie końcowego kosztu hostingu maszyn wirtualnych i magazynu.

Aby zobaczyć, jak wygląda podstawowe oszacowanie kosztów maszyn wirtualnych i magazynu, można przejrzeć koszty hostingu dostawców chmury publicznej, takich jak Microsoft Azure. Aby uzyskać więcej informacji, zobacz Szczegóły cenników maszyn wirtualnych.

Chociaż nie zawsze musi to być prawdą, w większości przypadków okaże się, że koszty hostingu są wyższe niż w przypadku publicznych dostawców, ponieważ sieć szkieletowa będzie znacznie mniejsza niż sieci szkieletowe dużych dostawców publicznych, którzy są w stanie uzyskać rabaty hurtowe na zakup sprzętu, miejsca w centrum danych i zasilania.

Następne kroki

Po ukończeniu wszystkich zadań w tym dokumencie opracujesz projekt sieci szkieletowej, który spełnia wymagania w organizacji. Opracujesz również początkową definicję cech usług obejmującą koszty i metryki poziomu usług. Nie będzie można określić ostatecznych kosztów i metryk poziomu usług do czasu ustalenia kosztów personelu oraz narzędzi i procesów zarządzania w sieci szkieletowej.

Program Microsoft System Center 2012 zapewnia rozbudowany zestaw funkcji umożliwiających obsługę administracyjną, monitorowanie i konserwację sieci szkieletowej wirtualizacji. Więcej informacji na temat użycia programu System Center do zarządzania zasobami sieci szkieletowej zawierają następujące zasoby:

Biblioteka dokumentacji technicznej programu System Center

Przewodnik architektury zarządzania siecią szkieletową